WO2014115563A1 - 運転支援装置、運転支援方法、および運転支援プログラムを記憶する記録媒体 - Google Patents

運転支援装置、運転支援方法、および運転支援プログラムを記憶する記録媒体 Download PDF

Info

Publication number
WO2014115563A1
WO2014115563A1 PCT/JP2014/000375 JP2014000375W WO2014115563A1 WO 2014115563 A1 WO2014115563 A1 WO 2014115563A1 JP 2014000375 W JP2014000375 W JP 2014000375W WO 2014115563 A1 WO2014115563 A1 WO 2014115563A1
Authority
WO
WIPO (PCT)
Prior art keywords
sign
road
relative position
map
vehicle
Prior art date
Application number
PCT/JP2014/000375
Other languages
English (en)
French (fr)
Inventor
高橋 勝彦
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2014558511A priority Critical patent/JP6241422B2/ja
Priority to US14/759,719 priority patent/US9651393B2/en
Priority to EP14743214.0A priority patent/EP2950292B1/en
Publication of WO2014115563A1 publication Critical patent/WO2014115563A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way

Definitions

  • the present invention relates to a driving support device, a driving support method, and a recording medium for storing a driving support program.
  • the present invention relates to a driving support device, a driving support method, and a recording medium that stores a driving support program in a vehicle equipped with an imaging device.
  • Patent Documents 1 to 3 describe driving support devices that provide information on road signs installed on roads on which vehicles are traveling.
  • Patent Document 1 recognizes a speed limit based on a road sign or a road sign included in an image in front of the vehicle taken by an in-vehicle camera. And the apparatus currently disclosed by patent document 1 outputs a warning, when the vehicle speed obtained from the vehicle exceeds the recognized speed limit.
  • the navigation system described in Patent Document 2 estimates the road on which the vehicle is traveling based on the position of the vehicle detected using GPS (Global Positioning System) and the road data stored in the road data storage means.
  • the road data storage means stores a speed limit for each road in addition to road position data.
  • a navigation system reads the speed limit in the road where it was estimated that a vehicle drive
  • the navigation system outputs an alarm when the speed output from the vehicle speed sensor exceeds the read speed limit.
  • the navigation device disclosed in Patent Document 3 holds the coordinates of a feature such as a building for each user. And a navigation apparatus estimates the road where a vehicle drive
  • Patent Document 4 discloses a map database update system that updates a map database by using a result of collation between the type and position of a road sign derived from an image of a camera mounted on a vehicle and a road sign on a map database. Is described.
  • the navigation apparatus included in the map database update system recognizes the relative positional relationship such as the type of road sign and the distance and direction of the road sign relative to the camera based on the video of the camera mounted on the vehicle. Then, the navigation device calculates the position of the road sign based on the relative positional relationship of the road sign with respect to the camera and the position and direction of the vehicle measured using a GPS or a sensor.
  • the map database update system changes the position of the road sign on the map database to the calculated position.
  • JP 2005-128790 A Japanese Patent Laid-Open No. 9-073700 JP-A-10-185607 JP 2002-243469 A
  • road signs that do not target at least one of the roads in the vicinity of multiple roads.
  • a road sign for example, there is a road sign for only one road installed at a branch point of the road or at the center of two adjacent roads in the same direction.
  • the apparatus disclosed in Patent Documents 1 to 4 distinguishes whether or not a road sign adjacent to a plurality of roads including a road on which the vehicle is traveling targets a road on which the vehicle is traveling. Can not. Therefore, in the case where the position of the vehicle and the position of the road sign are specified using the techniques of Patent Documents 1 to 4 and information on the road sign close to the vehicle is provided, the road sign that does not target the road on which the vehicle is traveling May be provided incorrectly.
  • the devices disclosed in Patent Document 2 and Patent Document 3 estimate the road on which the vehicle travels based on the measurement result of the vehicle position and the map data. And the apparatus currently disclosed by patent document 2 outputs the speed limit of the road estimated that the vehicle drive
  • the measurement result of the position of the vehicle includes an error. Therefore, when a plurality of roads are close to each other, the devices disclosed in Patent Document 2 and Patent Document 3 estimate that the vehicle is traveling on a road on which the vehicle is not actually traveling. there is a possibility. Therefore, the device disclosed in Patent Document 2 may output a speed limit for a road on which the vehicle is not traveling. In addition, the device disclosed in Patent Document 3 may output relative position information of a feature near a road where the vehicle is not traveling with respect to the road.
  • One of the objects of the present invention is to provide information on a sign for a road on which the vehicle is traveling when the vehicle approaches a sign installed close to a plurality of roads.
  • An object of the present invention is to provide a driving support device that suppresses the provision of information on signs that are not intended for the vehicle.
  • the driving support device detects a sign from an image acquired from a photographing device mounted on a vehicle traveling on a road, information represented by the detected sign that is the detected sign, and the detection for the road
  • a sign recognition means for recognizing a first relative position as a relative position of the sign, a map data storage means for storing a second relative position as a relative position of the sign with respect to the road, and the second relative position; By determining that the first relative position is matched, a label for determining the match between the detection sign and the map sign that is the sign for the map data storage means to store the second relative position A position determination unit; and an output unit that outputs information represented by the detection sign when it is determined that the detection sign and the map sign match each other.
  • the driving support method of the present invention acquires a video from a photographing device mounted on a vehicle traveling on a road, detects a sign from the video, information represented by the detected sign that is the detected sign, and the road
  • a first relative position which is a relative position of the detection sign with respect to the road, a second relative position which is a relative position of the sign with respect to the road is stored in map data storage means, and the second relative position and the
  • the detection mark and the map data storage means determine the match between the map sign that is the sign for storing the second relative position, and When it is determined that the detection sign matches the map sign, the information represented by the detection sign is output.
  • the recording medium of the present invention detects a sign from a video acquired from a photographing device mounted on a vehicle traveling on a road, information represented by the detected sign that is the detected sign, and the road
  • a sign recognition means for recognizing a first relative position as a relative position of the detection sign, a map data storage means for storing a second relative position as a relative position of the sign with respect to the road, and the second relative
  • determining that the position matches the first relative position it is determined whether the detected sign matches the map sign that is the sign for which the map data storage means stores the second relative position.
  • a driving support program that operates as an output unit that outputs information represented by the detected sign when it is determined that the detected sign matches the map sign.
  • the present invention can also be realized by a driving support program stored in such a recording medium.
  • the present invention has an effect that information on a sign for a traveling road can be selectively output when approaching a sign installed close to a plurality of roads.
  • FIG. 1 is a diagram illustrating an example of a configuration of a driving support system 100 according to the first, second, and third embodiments.
  • FIG. 2 is a diagram illustrating an example of a physical configuration of the driving support apparatus system 100.
  • FIG. 3 is a flowchart showing an example of the operation of the driving support device 1 of the present embodiment.
  • FIG. 4 is a diagram illustrating an example of the arrangement of roads and signs.
  • FIG. 5 is a diagram illustrating an example of sign data stored in map data that is installed within a predetermined distance from the position measured by the position measurement unit 15.
  • FIG. 6 is a diagram illustrating an example of extracted sign data.
  • FIG. 7 is a diagram illustrating an example of the arrangement of roads and signs.
  • FIG. 1 is a diagram illustrating an example of a configuration of a driving support system 100 according to the first, second, and third embodiments.
  • FIG. 2 is a diagram illustrating an example of a physical configuration of the driving support apparatus system 100.
  • FIG. 3
  • FIG. 8 is a diagram illustrating an example of sign data stored in the map data storage unit 12.
  • FIG. 9 is a flowchart illustrating an example of the operation of the driving support apparatus 1 according to the second embodiment.
  • FIG. 10 is a diagram illustrating an example of a sign, a road, and a vehicle traveling on the road.
  • FIG. 11 is a diagram illustrating an example of the relationship between the sign 601 and the imaging device 2.
  • FIG. 12 is a diagram illustrating an example of the arrangement of roads and signs.
  • FIG. 13 is a flowchart showing the operation of the driving support apparatus 1 of the third embodiment.
  • FIG. 14 is a diagram illustrating an example of a configuration of the driving support device 1 ⁇ / b> A according to the fourth embodiment.
  • FIG. 15 is a diagram illustrating an example of a configuration of a computer 1000 used for realizing the driving support device 1 and the driving support device 1A.
  • FIG. 1 is a diagram illustrating an example of a configuration of a driving support system 100 according to the first embodiment of this invention.
  • the driving support system 100 includes a driving support device 1, a photographing device 2, and an output device 3.
  • the photographing device 2 is a camera mounted on the vehicle.
  • the imaging device 2 captures an image in front of the vehicle.
  • the imaging device 2 is attached to the vehicle so that the range including the roadside ahead of the vehicle is included in the imaging range.
  • the photographing device 2 transmits the photographed video to the driving support device 1.
  • the driving support device 1 and the imaging device 2 are mounted so that the video captured by the imaging device 2 can be transmitted to the driving support device 1.
  • the driving support device 1 and the photographing device 2 may be connected by a cable, for example.
  • the driving support device 1 and the photographing device 2 may be able to communicate by wireless communication.
  • the output device 3 is, for example, a display device, a sound output device, or a display device provided with a speaker.
  • the display device is a display that displays images and videos.
  • the audio output device is a speaker that outputs audio.
  • a display device including a speaker outputs sound in addition to images and videos.
  • the driving support device 1 includes a video acquisition unit 10, a sign recognition unit 11, a map data storage unit 12, a sign position determination unit 13, an output unit 14, a position measurement unit 15, and a position estimation unit 16. .
  • the video acquisition unit 10 acquires videos shot by the shooting device 2 from the shooting device 2. For example, the video acquisition unit 10 acquires digital data of a video captured by the imaging device 2 from the imaging device 2.
  • the sign recognition unit 11 detects the sign in the video acquired from the video acquisition unit 10.
  • the sign is, for example, a road sign.
  • the road sign is represented by, for example, a character, a graphic, or a combination of a character and a graphic.
  • the sign recognition unit 11 recognizes information represented by the detected sign.
  • the sign detected in the video by the sign recognition unit 11 is also referred to as a detection sign.
  • the information represented by the sign is, for example, the type of sign.
  • the sign recognition unit 11 recognizes the relative position of the detection sign with respect to the road on which the vehicle on which the imaging device 2 is mounted is based on the video acquired from the video acquisition unit 10 (that is, the video captured by the imaging device 2). To do.
  • the relative position of the sign with respect to the road indicates, for example, whether the sign exists on the right side or the left side of the road toward a predetermined direction of the road.
  • the relative position of the detection sign with respect to the road is also referred to as a first relative position.
  • the sign recognition unit 11 determines whether the detection sign is present on the right or left of the road on which the vehicle on which the photographing device 2 is mounted travels in the traveling direction of the vehicle on which the photographing device 2 is mounted. Recognized as the first relative position. Therefore, in the present embodiment, the first relative position is the detection sign on the right side of the road on which the vehicle on which the imaging device 2 is mounted travels in the traveling direction of the vehicle on which the imaging device 2 is mounted. Indicates whether it is present or left.
  • the map data storage unit 12 stores road data including the shape and position of the road and sign data including the position and type of the sign.
  • a road is represented by a combination of line segments, for example.
  • a line segment is represented by two end points. These line segments may have directions. In that case, one of the two end points may be stored as the start point, and the other end point may be stored as the end point.
  • the road data is data including the coordinates of the start point and the end point of each line segment, for example.
  • the position of the road and the position of the sign stored in the map data storage unit 12 are expressed in a common coordinate system such as latitude and longitude.
  • a position expressed in a common coordinate system such as latitude and longitude is also expressed as an absolute position.
  • the coordinates representing the absolute position are also expressed as absolute coordinates.
  • the sign data further includes a road identifier of a road targeted by the sign and a relative position between the sign and the road targeted by the sign.
  • the road identifier is also expressed as a road ID (Identifier).
  • the sign represented by the sign data stored in the map data storage unit 12 is also referred to as a map sign.
  • the relative position between the map sign and the road targeted by the map sign is, for example, whether the sign position is on the left side in the direction of the road specified by the start and end points of the line segment representing the road. Indicates whether it is on the right side.
  • the relative position of the map sign with respect to the road is also expressed as a second relative position.
  • the map data storage unit 12 may store the second relative position with respect to the plurality of roads with respect to the map sign.
  • the map data storage unit 12 has, as the road data, for example, the coordinates of two end points of the line segment and the line for each line segment of the road approximated by a combination of a plurality of line segments. It is only necessary to store the combination with the minute identifier.
  • the coordinates of the end points are, for example, latitude and longitude.
  • the map data storage unit 12 only needs to store one of the two end points as the start point and the other as the end point.
  • the direction of the line segment is the direction from the start point to the end point. The direction of the line segment may not be related to the traveling direction of the vehicle on the road represented by the line segment.
  • the line segment identifier may be the above-described road identifier that is also described as, for example, a road ID.
  • the map data storage unit 12 sets the sign identifier, the coordinates of the place where the sign is installed, the type of the sign, and the road ID of the road targeted by the sign.
  • the combination of the sign and the relative position of the road targeted by the sign only needs to be stored.
  • the coordinates of the place where the sign is installed are represented by latitude and longitude, for example.
  • the relative position of the sign and the road targeted by the sign indicates, for example, whether the sign is installed on the left side or the right side in the direction of the line segment representing the road. Any data can be used.
  • the position measuring unit 15 measures the absolute position of the vehicle using, for example, GPS. As described above, the absolute position is represented by latitude and longitude, for example. A position represented simply as “position” represents an absolute position. Various existing methods can be used as a method of measuring the position of the vehicle by the position measurement unit 15.
  • the position measurement unit 15 may measure the position of the vehicle by a method that does not use GPS.
  • the position measurement unit 15 may measure the position of the vehicle using, for example, the intensity of radio waves from a radio base station.
  • the position estimation unit 16 estimates the road on which the vehicle travels based on the position of the vehicle measured by the position measurement unit 15 and the road data stored in the map data storage unit 12. The position estimation unit 16 estimates the position of the place where the vehicle exists on the road and the traveling direction of the vehicle.
  • the sign position determination unit 13 extracts a sign whose distance from the position of the vehicle estimated by the position estimation unit 16 does not exceed a predetermined distance from the signs whose map data storage unit 12 stores the sign coordinates.
  • the sign position determination unit 13 may further extract a sign of the same type as the type of the sign detected from the video from the extracted sign.
  • the sign for which the map data storage unit 12 stores the sign coordinates is the aforementioned map sign.
  • the relative position of the map sign relative to the road is also expressed as the second relative position of the map sign relative to the road.
  • the sign position determination unit 13 specifies, for example, the second relative position of the map sign with respect to the road targeted by the extracted map sign.
  • the sign position determination unit 13 may read the second relative position of the extracted map sign stored in the map data storage unit 12.
  • the sign detected in the video by the sign recognition unit 11 is the detection sign.
  • the relative position of the detection sign with respect to the road is also referred to as a first relative position.
  • video in which a detection mark is detected is image
  • the sign recognition unit 11 derives the first relative position of the road on which the vehicle on which the imaging device 2 that has captured the video from which the detection image is detected travels travels. .
  • the sign position determination unit 13 determines whether or not the first relative position of the detected sign matches the second relative position of the extracted map sign. When the first relative position of the detection sign matches the second relative position of the map sign, the sign position determination unit 13 determines that the detection sign and the map sign match.
  • the output unit 14 outputs information represented by the detection sign when there is a map sign that matches the detection sign.
  • the output unit 14 is configured such that a difference between a location of a map sign suitable for the detection sign to a road targeted by the map sign and a distance from the location of the detection sign to a road on which the vehicle travels are as follows:
  • information represented by the detection sign may be output.
  • the sign recognition unit 11 may estimate a difference in distance from the place where the detection sign is installed to the road on which the vehicle travels.
  • the sign recognition unit 11 may calculate, for example, the distance from the detection sign to the optical axis of the imaging device 2 as the distance from the place where the detection sign is installed to the road on which the vehicle travels.
  • the output device 3 outputs information and other data represented by the sign received from the output unit 14 as sound, image, or video.
  • FIG. 2 is a diagram illustrating an example of a physical configuration of the driving support apparatus system 100.
  • the driving support device system 100 includes an ECU 901 (Electronic Control Unit), a GPS antenna 902, and a camera 903.
  • the ECU 901 includes a CPU 904 (Central Processing Unit), a signal processing circuit 905, a RAM 906 (Random Access Memory), a ROM 907 (Read Only Memory), and a power supply circuit 908.
  • the CPU 904 can access the signal processing circuit 905, the RAM 906, and the ROM 907.
  • the camera 903 operates as the photographing device 2.
  • the signal processing circuit 905 operates as the video acquisition unit 10.
  • the GPS antenna 902 and the signal processing circuit 905 operate as the position measurement unit 15.
  • At least one of the RAM 906 and the ROM 907 operates as the map data storage unit 12. Further, for example, by executing a program stored in the ROM 907, the CPU 904, the RAM 906, and the ROM 907 operate as the sign recognition unit 11, the sign position determination unit 13, the output unit 14, and the position estimation unit 16.
  • FIG. 3 is a flowchart showing an example of the operation of the driving support device 1 of the present embodiment.
  • the video acquisition unit 10 acquires a video from the imaging device 2 (step S101).
  • the image acquisition unit 10 acquires, for example, digital data of an image captured by the image capturing device 2.
  • the video acquisition unit 10 may acquire the frame of the video captured by the imaging device 2 from the imaging device 2 as a still image.
  • the video acquisition unit 10 may acquire an analog signal of a video captured by the imaging device 2 from the imaging device 2. Then, the video acquisition unit 10 may convert the analog signal of the video into digital data.
  • the sign recognition unit 11 detects the sign from the video acquired by the video acquisition unit 10 (step S102).
  • the imaging device 2 captures an image in front of the vehicle.
  • the imaging device 2 is attached to the vehicle so that the range including the roadside ahead of the vehicle is included in the imaging range. If a sign is installed at a location included in the shooting range on the road side in front of the vehicle, the image taken by the photographing device 2 includes the sign image.
  • step S103 If no sign is detected from the video (No in step S103), the operation of the driving support device 1 returns to step S101.
  • step S104 the sign recognition unit 11 recognizes the type of the detected sign and information represented by the sign (step S104).
  • the sign recognition unit 11 may, for example, correct the shape of the detected sign area and then perform template matching to recognize the sign type.
  • the label recognition unit 11 recognizes the types of all the detected labels.
  • the type of sign is information indicating the type of sign such as a maximum speed sign for each speed, a stop sign, a parking prohibition sign, or the like, such as a maximum speed sign of 100 km / h (kilometer per hour).
  • the type of sign may be expressed in advance by a code associated with the type of sign described above.
  • the map data storage unit 12 holds information represented by the sign such as that the maximum speed is 100 km / h, that a temporary stop is required, and that parking is prohibited for each type of sign. Just do it.
  • the sign recognizing unit 11 may read out the information represented by the sign corresponding to the recognized sign type from the map data storage unit 12. When the sign includes character information such as day of the week and time, the sign recognition unit 11 may recognize information represented by the sign by character recognition.
  • the sign recognition unit 11 may perform sign recognition by a road sign recognition method described in, for example, Japanese Patent Laid-Open No. 62-108396.
  • FIG. 4 is a diagram showing an example of the arrangement of roads and signs.
  • a sign 203 is installed near the branch point between the road 201 and the road 202.
  • the sign 203 is a sign for the road 201.
  • the imaging device 2 mounted on the vehicle.
  • the video acquired by the video acquisition unit 10 includes the image of the sign 203.
  • the sign detection unit 11 detects an image area of the sign 203 from the video acquired by the video acquisition unit 10.
  • the sign recognition unit 11 recognizes the type of the detected area, so that the sign type is “maximum speed 40 km / h”. h ”.
  • the sign recognition unit 11 derives the relative position of the sign detected from the video based on the video (step S105).
  • the relative position derived by the sign recognition unit 11 in step S105 is the relative position of the sign detected from the image with respect to the road on which the vehicle travels in the direction in which the vehicle on which the imaging device 2 that captures the image is mounted travels. Position. As described above, the relative position derived by the sign recognition unit 11 in step S105 is also expressed as the first relative position.
  • the sign recognition unit 11 estimates the first relative position, for example, as follows.
  • the sign recognition unit 11 may recognize, for example, as a relative position whether the place where the sign is detected is on the right side or the left side with respect to a predetermined reference set in the video.
  • the predetermined reference may be, for example, a non-horizontal line set in advance in the video.
  • the predetermined reference may be a line segment that corresponds to a vertical plane that is set in advance on the video and passes through the camera center of the photographing apparatus 2 and is parallel to the front direction of the vehicle.
  • the predetermined reference may be, for example, a road area in the video recognized by the sign recognition unit 11 using any of the existing road area recognition methods.
  • the sign position determination unit 13 acquires the position of the vehicle, for example, from the position estimation unit 16 (step S106).
  • the vehicle position acquired by the sign position determination unit 13 is, for example, the latitude and longitude measured by the position measurement unit 15 using GPS.
  • the sign position determination unit 13 may acquire the latitude and longitude after the position estimation unit 16 corrects the latitude and route measured by the position measurement unit 15. For example, the correction by the position estimation unit 16 estimates the road on which the vehicle travels using the map data stored in the map data storage unit 12 and changes the position of the traveling vehicle onto the estimated road. This is a correction performed by a normal navigation device.
  • the position measurement unit 15 may measure the azimuth of the vehicle using, for example, an azimuth sensor.
  • the marker position determination part 13 may acquire the latitude, the longitude, and a direction as a position of a vehicle.
  • the sign position determination unit 13 extracts a sign whose installation location is close to the acquired vehicle position from the sign in which the map data storage unit 12 stores the sign data (step S107).
  • the sign position determination unit 13 extracts, for example, signs installed within a predetermined distance from the acquired vehicle position.
  • the predetermined distance described above may be a predetermined distance based on, for example, the accuracy of GPS or the camera parameters of the photographing apparatus 2.
  • the sign position determination unit 13 is installed within a predetermined distance from the position represented by these latitude and longitude. The label that is being used is extracted.
  • FIG. 5 is a diagram illustrating an example of sign data stored in map data that is installed within a predetermined distance from the position measured by the position measurement unit 15.
  • the sign position determination unit 13 further extracts a sign of the same type as the type of the sign detected in the video from the sign extracted based on the sign data stored in the map data storage unit 12 (step S108).
  • the sign position determination unit 13 further determines that the type is “maximum speed 40 km / h” from the extracted sign.
  • the label “h” is extracted.
  • FIG. 6 is a diagram showing extracted sign data.
  • the marker position determination unit 13 extracts the marker data shown in FIG. 6 from the marker data shown in FIG. That is, the marker position determination unit 13 extracts a marker represented by the marker data shown in FIG.
  • the sign position determination unit 13 determines whether the sign extracted based on the sign data includes a sign that matches the sign detected in the video (step S109).
  • the sign extracted based on the sign data is the map sign extracted by the sign position determination unit 13 from the map sign represented by the sign data stored in the map data storage unit 12.
  • the sign detected in the video is a detection sign detected by the sign recognition unit 11 in the video photographed by the photographing device 2.
  • the sign position determination unit 13 compares the relative position of the sign detected by the sign recognition unit 11 with the road on which the vehicle travels and the relative position of the extracted sign with respect to the road targeted by the sign. May be determined.
  • the sign data stored in the map data storage unit 12 includes the relative position of the sign with respect to any direction of the road.
  • the relative position of the sign detected by the sign recognition unit 11 in the video is, for example, the relative position of the detected sign with respect to the road on which the vehicle travels in the direction in which the vehicle travels.
  • the relative position of the sign detected by the sign recognizing unit 11 with respect to the road on which the vehicle travels is simply referred to as “the relative position of the detected sign”.
  • the relative position of the sign extracted from the sign data with respect to the road targeted by the sign is simply referred to as “the relative position of the extracted sign”. If the relative position of the detected label matches the relative position of the extracted label, the label position determination unit 13 may determine that the detected label matches the extracted label.
  • the map data storage unit 12 stores road data including the position of the start point and the position of the end point of the road.
  • the map data storage unit 12 stores the relative position of the sign in the direction from the start point to the end point of the road with respect to the road targeted by the sign, for example, as at least part of the sign data.
  • the sign position determination unit 13 determines the relative position included in the map data storage unit 12 when the angle between the direction from the start point to the end point of the road targeted by the sign and the traveling direction of the vehicle does not exceed 90 degrees.
  • the relative position in the traveling direction may be set.
  • the sign position determination unit 13 reverses the relative position included in the map data storage unit 12.
  • the position may be a relative position in the direction in which the vehicle travels. In this case, if the relative position of a certain sign stored in the map data storage unit 12 is “left”, for example, the relative position in the direction in which the vehicle travels is set to “right”.
  • the sign position determination unit 13 of the present embodiment reads the map coordinates extracted in Step S107 and Step S108 from the map data storage unit 12 relative to the road targeted by the map coordinates. Then, the sign position determination unit 13 determines that the relative position of the detection sign relative to the road on which the vehicle travels matches the map sign whose relative position matches the detection sign.
  • the map sign extracted by the sign detection unit 11 in step S107 is a map sign installed at a location within a predetermined distance from the measured vehicle position.
  • the map sign extracted by the sign detection unit 11 in step S108 is the same type of map sign as the detection sign detected by the sign recognition unit 11 among the signs extracted in step S107.
  • the sign position determination unit 13 displays the map sign on the side where the detection sign is present on the road on which the vehicle on which the imaging device 2 that captures the image is mounted and on the road targeted by the map sign.
  • the existing side is the same, it is determined that the detection mark and the map mark are matched.
  • the sign position determination unit 13 determines whether the sign from which the data has been read from the map data storage unit 12 matches the detected sign, so that the detected sign is targeted for the road on which the vehicle is traveling. It is determined whether or not it is a sign to be used. That is, when the sign from which the data is read from the map data storage unit 12 matches the detected sign, the sign position determination unit 13 is a sign that targets the road on which the vehicle travels. judge. In addition, the sign position determination unit 13 determines that the detected sign is not a sign for a road on which the vehicle travels when the sign read from the map data storage unit 12 does not match the detected sign. judge.
  • step S110 If there is no sign that matches the detected sign (No in step S110), the process of the driving support device 1 returns to step S101.
  • the relative position included in the sign data represents the relative position in the traveling direction of the vehicle with respect to the road targeted by the sign data.
  • the relative position of the sign with respect to the road targeted by the sign is “right”.
  • the sign represented by the sign data in FIG. 6 is placed on the right side of the road targeted by this sign.
  • the relative position of the sign to the road on which the vehicle travels is “left”.
  • the label of FIG. 6 and the label detected by the label recognition unit 11 do not match.
  • step S110 If there is a sign that matches the detected sign (Yes in step S110), the output unit 14 outputs information represented by the detected sign (step S111).
  • the output unit 14 converts voice data associated with the detected sign type into voice and outputs it to the output device 3 which is a voice output device such as a speaker mounted on the vehicle, for example. Or the output part 14 may display the image
  • the output unit 14 may output the output device 3 by combining audio and video or images.
  • a storage unit (not shown) of the driving support device 1 only needs to store audio data associated with the type of the sign, video or image data.
  • the output unit 14 transmits information represented by the detected sign to the driver of the vehicle by outputting information represented by the detected sign.
  • the output unit 14 may further output a road ID of a road targeted by a sign that matches the detected sign.
  • the output unit 14 may output a map of the road represented by the road ID instead of the road ID.
  • the relative position is, for example, the sign installation position represented by “right” or “left” with respect to the road in the traveling direction of the vehicle.
  • the relative position may be a position represented by another method.
  • the relative position may be the direction of the sign installation position with respect to the road.
  • the direction in this case is, for example, the direction of the normal of the road from the road toward the installation position of the sign.
  • the azimuth only needs to be represented by a finite number of azimuths divided within a predetermined angle range.
  • the direction can be expressed in any of east, west, south, and north.
  • the position measurement unit 15 further measures, for example, the front direction of the vehicle as the direction of the road on which the vehicle travels.
  • the sign recognition unit 11 further calculates an angle of the detected sign with respect to the front of the vehicle.
  • the sign recognition unit 11 determines, for example, from the photographing apparatus 2 to the sign from the diameter when the detected sign is a standard size, the diameter of the sign in the image, and the camera parameters of the photographing apparatus 2. Calculate the distance.
  • the sign position determination unit 13 detects the direction of the detected sign relative to the position of the vehicle based on the front direction of the vehicle, the detected sign angle with respect to the front of the vehicle, and the distance from the imaging device 2 to the sign. Is calculated.
  • the map data storage part 12 should just memorize
  • the embodiment described above has an effect that information on a sign for a traveling road can be selectively output when approaching a sign installed close to a plurality of roads.
  • the sign position determination unit 13 determines that the sign detected from the image captured by the photographing device 2, the relative position with respect to the road on which the vehicle is traveling, and the sign stored in the map data storage unit 12 are This is because the matching of the relative position with respect to the target road is determined.
  • the relative position of the sign to the road indicates, for example, whether the sign is installed on the right side or the left side of the road with respect to the traveling direction of the vehicle traveling on the road. Then, when it is determined that the two relative positions are matched, the output unit 14 outputs information represented by the sign detected from the video.
  • the sign position determination unit 13 determines whether there is a map sign whose relative position matches the detected sign.
  • the output part 14 of this embodiment outputs the information which a sign
  • the output unit 14 of the present embodiment does not output information represented by the detected sign when there is no map sign whose relative position matches the detected sign.
  • the driving assistance apparatus 1 of this embodiment can suppress the output of the information of the sign which is not the road where a vehicle drive
  • the driving assistance apparatus 1 of this embodiment can selectively output the information of the label
  • FIG. 1 is a diagram showing the configuration of the driving support system 100 of the present embodiment.
  • the configuration of the driving support system 100 of the present embodiment is the same as the configuration of the driving support system 100 of the first embodiment. Below, the difference of this embodiment with respect to 1st Embodiment is mainly demonstrated.
  • the relative position includes the distance between the sign and the road in addition to the relative position of the first embodiment.
  • the distance between the sign and the road is, for example, the shortest distance between the sign and the center line of the road.
  • the distance between the sign and the road may be, for example, the shortest distance between the sign and the road area.
  • the distance between the sign and the road may be a value representing the proximity between the sign and the road, measured by other methods.
  • FIG. 7 is a diagram showing an example of the arrangement of roads and signs.
  • FIG. 7 there are a road 602 and a road 603.
  • a sign 601 for the road 603 is installed on the left side of the road 603.
  • the distance between the road 603 and the sign 601 is a distance 604.
  • the sign recognition unit 11 of the present embodiment recognizes the distance between the road on which the vehicle travels and the sign as the relative position of the detected sign with respect to the road on which the vehicle travels. Is calculated.
  • the sign recognition unit 11 calculates, for example, the distance between the center line of the road on which the vehicle travels and the sign installation position as the distance between the road on which the vehicle travels and the sign.
  • the sign recognition unit 11 uses the optical axis of the photographing apparatus 2 and the sign installation position as an approximate value of the distance between the center line of the road on which the vehicle travels and the sign installation position. Calculate the distance between them.
  • the sign recognition unit 11 calculates the distance included in the detected relative position of the sign, that is, the distance between the road on which the vehicle travels and the sign, and the optical axis of the imaging device 2 and the sign installation position. Calculate the distance between them.
  • the sign recognition unit 11 may calculate another value indicating the proximity between the road on which the vehicle travels and the sign as the distance between the road on which the vehicle travels and the sign.
  • the map data storage unit 12 of the present embodiment is configured so that the relative position of the sign with respect to the road targeted by the sign includes the road and sign targeted by the sign in addition to the relative position of the first embodiment.
  • the distance As described above, the distance between the road and the sign is, for example, the distance between the center line of the road and the sign.
  • the map data storage unit 12 may store all the distances to the roads that are the target of the sign for each sign.
  • FIG. 8 is a diagram illustrating an example of the sign data stored in the map data storage unit 12.
  • the map data storage unit 12 of the present embodiment uses the “direction” corresponding to the relative position of the first embodiment as a relative position, and the distance between the sign and the road targeted by the sign. The “distance” to be expressed is stored.
  • FIG. 9 is a flowchart showing the operation of the driving support device 1 of the present embodiment.
  • step S101 to step S105 of the driving support device 1 of the present embodiment is the same as the operation of the steps with the same reference numerals of the driving support device 1 of the first embodiment.
  • the sign recognition unit 11 calculates the distance between the optical axis of the photographing apparatus 2 and the sign installation position (step S201).
  • the distance between the optical axis of the photographing apparatus 2 and the sign installation position is the shortest distance between the optical axis of the photographing apparatus 2 and the sign installation position.
  • FIG. 10 is a diagram illustrating an example of a sign, a road, and a vehicle traveling on the road.
  • the vehicle 700 is traveling on the road 603. Further, a sign 601 is installed on the left side of the road 602 branched from the road 603. The distance between the sign 601 and the road 602 is a distance 604. A distance between the optical axis 701 of the photographing apparatus 2 mounted on the vehicle 700 and the sign 601 is a distance 702.
  • FIG. 11 is a diagram illustrating an example of the relationship between the sign 601 and the imaging device 2.
  • a distance between a plane that passes through the sign 601 and is perpendicular to the optical axis 701 of the photographing apparatus 2 and the camera center 704 is a distance 705.
  • An angle between the optical axis 701 of the photographing apparatus 2 and a straight line passing through the camera center 704 and the marker 601 is an angle 706.
  • An image of the sign 601 exists on the image plane 703 of the photographing apparatus 2.
  • the imaging device 2 of the present embodiment may include a stereo camera whose internal parameters are known.
  • the sign recognition unit 11 calculates the three-dimensional position of the sign in the camera coordinate system from the image of the stereo camera by any existing method based on the principle of stereoscopic vision. .
  • Various existing methods can be applied to calculate the three-dimensional position of the sign in the camera coordinate system.
  • the sign recognition unit 11 calculates the distance from the optical axis of the camera to the sign from the calculated position of the sign in the camera coordinate system.
  • the camera coordinate system may be a coordinate system based on any camera constituting the stereo camera.
  • the optical axis of the camera may be the optical axis of any camera constituting the stereo camera.
  • the photographing device 2 may include a single camera whose camera internal parameters are known.
  • the sign recognition unit 11 includes the standard size of the detected sign, the size of the detected sign on the image, and the internal parameters of the camera of the photographing apparatus 2. From this, the distance between the optical axis of the camera and the sign is calculated.
  • the method of calculating the distance between the optical axis of the camera and the sign by the sign recognition unit 11 may be any existing method based on the principle of figure similarity, for example.
  • the sign recognition unit 11 determines from the standard size of the detected sign, the size of the detected sign on the image, and the internal parameters of the camera of the photographing apparatus 2 to the road sign from the camera.
  • the distance 705 is estimated. Further, the sign recognition unit 11 calculates the tangent of the angle 706 from the horizontal position of the detected sign on the image. Then, the sign recognition unit 11 multiplies the tangent of the angle 706 and the distance 705 to estimate the distance 702 from the optical axis 701 to the sign 601.
  • step S106 to step S110 of the driving support device 1 of the present embodiment are the same as the operations of the steps with the same reference numerals of the driving support device 1 of the first embodiment.
  • the output unit 14 determines the distance between the detected label and the optical axis of the imaging device 2 and the label that matches the detected label. Compare the distance to the target road.
  • step S202 When the difference between the distance between the detected sign and the optical axis of the imaging device 2 and the distance from the sign suitable for the detected sign to the road targeted by the sign is greater than or equal to a predetermined value (No in step S202) ), The operation of the driving support device 1 returns to step S101.
  • the output unit 14 outputs information represented by the detected sign (step S111).
  • the above-mentioned predetermined value is a threshold value for the difference between the distance between the detected sign and the optical axis of the imaging device 2 and the distance from the sign that matches the detected sign to the road targeted by the sign.
  • the predetermined value that is, the threshold value described above may not be a constant value.
  • the map data storage unit 12 may store a distance to a road closest to the sign and a threshold value for each sign. This threshold value may be a value equal to or greater than the difference between the distance between the road closest to the sign and the distance of the sign farthest from the sign among the roads targeted by the sign.
  • the output part 14 should just read the threshold value corresponding to a label
  • the present embodiment described above has the same effect as the first embodiment.
  • the reason is the same as the reason for the effect of the first embodiment.
  • the output unit 14 further targets the sign from the distance between the detected sign and the optical axis of the imaging device 2 and the sign that matches the detected sign. This is because the distance to the road is compared. This is because the output unit 14 outputs information represented by the detected sign when the difference between the two distances compared is smaller than a predetermined value.
  • the driving support apparatus 1 may detect the sign 601 from the image of the photographing apparatus 2.
  • the sign 601 is installed on the left side of the road 602 that is the target of the sign 601.
  • the sign 601 is installed on the left side of the road 603 on which the vehicle travels. Therefore, in such a case, the driving support apparatus 1 according to the first embodiment outputs the information of the sign 601 even when the vehicle is traveling on the road 603 that is not the target of the sign 601.
  • the output unit 14 outputs the information represented by the detected sign, so that the driving support device 1 of the present embodiment is traveling. It is possible to suppress the output of the information of the sign that does not target the other road with higher accuracy.
  • This predetermined value may be set in advance so that the difference between the two distances described above and the case where the vehicle is traveling on the road that is the target of the sign and the other case can be discriminated.
  • the map data storage unit 12 may store the predetermined value as the aforementioned threshold value for each sign.
  • FIG. 1 is a diagram showing the configuration of the driving support system 100 of the present embodiment.
  • the configuration of the driving support system 100 of the present embodiment is the same as the configuration of the driving support system 100 of the first embodiment. Below, the difference of this embodiment with respect to 1st Embodiment is mainly demonstrated.
  • the sign recognition unit 11 of the present embodiment further calculates the distance between the detected sign and the imaging device 2.
  • the map data storage unit 12 of the present embodiment further includes a branch of the road targeted by the sign for each sign in which a branch point whose distance from the sign is within a predetermined distance exists on the road targeted by the sign.
  • a branch point whose distance from the sign is within a predetermined distance exists on the road targeted by the sign.
  • the map data storage unit 12 may store the distance to the branch point closest to the sign among those branch points.
  • the map data storage unit 12 may store the coordinates of the branch point in addition to the distance between the branch point and the sign.
  • the map data storage unit 12 determines the coordinates of the branch point closest to the sign in each direction of the road centered on the sign.
  • the distance from the branch point to the sign may be stored.
  • the map data storage unit 12 stores road data as a separate road for each vehicle traveling direction with respect to a road that is not one-way, the map data storage unit 12 exists in a direction in which the vehicle approaches the sign. It is only necessary to store the distance between the branch point and the sign and the coordinates of the branch point.
  • FIG. 12 is a diagram showing an example of the arrangement of roads and signs.
  • the road 201 and the road 202 are branched at a branch point 1102.
  • the distance from the branch point 1102 to the sign 203 is a distance 1103.
  • FIG. 13 is a flowchart showing the operation of the driving support device 1 of the present embodiment.
  • step S101 to step S105 of the driving support device 1 of the present embodiment is the same as the operation of the steps with the same reference numerals of the driving support device 1 of the first embodiment.
  • step S105 the sign recognition unit 11 calculates the distance between the photographing device 2 and the sign installation position (step S301).
  • the sign recognition unit 11 may calculate the distance between the camera center of the photographing apparatus 2 and the sign installation position as the distance between the photographing apparatus 2 and the sign installation position.
  • the sign recognition unit 11 calculates the distance between the imaging device 2 and the sign installation position by the same method as the operation in step S201 of the second embodiment.
  • step S106 to step S110 of the driving support device 1 of the present embodiment are the same as the operations of the steps with the same reference numerals of the driving support device 1 of the first embodiment.
  • step S110 If there is a sign that matches the detected sign (Yes in step S110), the output unit 14 determines whether there is a branch point on the road targeted by the sign that matches the detected sign (step S302).
  • the output unit 14 displays the road that is targeted by the sign that matches the detected sign. What is necessary is just to determine with a branch point.
  • the output unit 14 applies the sign that matches the detected sign to the target road. What is necessary is just to determine that there is no branch point.
  • the output unit 14 determines that the branch point is farther from the sign than the position of the vehicle, based on the position of the sign that matches the detected sign, the position of the branch point, and the position of the vehicle measured by the position measurement unit 15. It may be determined whether or not there is. In this case, the output unit 14 may determine that a branch point exists when the branch point is closer to the vehicle position than the sign.
  • step S302 If there is no branch point on the road targeted by the sign that matches the detected sign (No in step S302), the operation of the driving support device 1 proceeds to step S111.
  • step S302 If there is no branch point on the road targeted by the sign that matches the detected sign (Yes in step S302), the operation of the driving support device 1 proceeds to step S303.
  • the output unit 14 compares the distance between the detected sign and the imaging device 2 and the distance between the sign that matches the detected sign and the branch point of the road targeted by the sign (step S303).
  • step S303 When the distance between the detected sign and the photographing apparatus 2 is larger than the distance between the sign that matches the detected sign and the branch point of the road that is the target (No in step S303), the operation of the driving support apparatus 1 Returns to step S101.
  • the output unit 14 Information represented by the detected sign is output (step S111).
  • the relative position may further include the distance between the sign and the road, as in the second embodiment.
  • the distance between the sign and the road is, for example, the shortest distance between the sign and the center line of the road.
  • the sign recognition unit 11 of the present embodiment adds the detected sign relative position to the road on which the vehicle travels in addition to the relative position of the first embodiment.
  • the distance between the center line of the road on which the vehicle travels and the sign installation position may be calculated.
  • map data storage unit 12 of the present embodiment is similar to the map data storage unit 12 of the second embodiment in that the relative position of the sign relative to the road targeted by the sign is relative to that of the first embodiment. In addition to the position, the distance between the center line of the road targeted by the sign and the sign may be stored.
  • the sign recognition unit 11 may perform the operation of step S201 of FIG. 9 including the operation of step S301 instead of step S301 of FIG.
  • the output unit 14 of the present embodiment may perform the operation of Step S202 of FIG. 9 between Step S110 and Step S302 of FIG.
  • the present embodiment described above has the same effect as the first embodiment.
  • the reason is the same as the reason for the effect of the first embodiment.
  • the reason is that the output unit 14 is detected when the distance between the detected sign and the imaging device 2 is equal to or less than the distance between the sign that matches the detected sign and the branch point of the road targeted by the sign. This is because the information represented by the sign is output.
  • the driving support device 1 cannot determine which of the branched road the vehicle travels until the vehicle passes the branch point.
  • the information represented by the detected sign is output before the vehicle passes the branch point, the information on the sign for a road on which the vehicle does not travel may be output.
  • the driving support device 1 cannot determine whether the vehicle 1101 travels on the road 201 or the road 202 until the vehicle 1101 passes the branch point 1102.
  • the sign 203 may be detected from the image of the imaging device 2 mounted on the vehicle 1101.
  • the output unit 14 outputs the information of the sign 203 detected before the vehicle 1101 passes the branch point 1102
  • the output unit 14 gives the sign of the sign 203 to the vehicle 1101 traveling on the road 201 that is not the target of the sign 203. There is a possibility to output information.
  • the driving support device 1 targets the traveling road when outputting the information of the sign for the traveling road when approaching the sign installed close to the plurality of roads. It is possible to more accurately suppress the output of information on signs that are not.
  • FIG. 14 is a diagram illustrating the configuration of the driving support device 1 of the present embodiment.
  • the driving support device 1 of the present embodiment includes a video acquisition unit 10, a sign recognition unit 11, a map data storage unit 12, a sign position determination unit 13, and an output unit 14.
  • the video acquisition unit 10 acquires a video from the imaging device 2 mounted on a vehicle traveling on the road.
  • the sign recognition unit 11 detects a sign from the video, and recognizes information represented by the detected sign that is the detected sign and a first relative position that is a relative position of the detected sign with respect to the road.
  • the map data storage unit 12 stores a second relative position that is a relative position of the sign with respect to the road.
  • the sign position determination unit 13 determines that the second relative position matches the first relative position, so that the detection sign and the map data storage unit 12 determine the second relative position. A match with the map sign that is the sign to be stored is determined.
  • the output unit 14 outputs information represented by the detection sign when it is determined that the detection sign matches the map sign.
  • the present embodiment described above has the same effect as that of the first embodiment.
  • the reason is the same as the reason for the effect of the first embodiment.
  • the driving support device 1 and the driving support device 1A can be realized by a computer and a program for controlling the computer, dedicated hardware, or a combination of a program for controlling the computer and the computer and dedicated hardware, respectively.
  • FIG. 15 is a diagram illustrating an example of a configuration of a computer 1000 used to realize the driving support device 1 and the driving support device 1A.
  • a computer 1000 includes a processor 1001, a memory 1002, a storage device 1003, and an I / O (Input / Output) interface 1004.
  • the computer 1000 can access the recording medium 1005.
  • the memory 1002 and the storage device 1003 are storage devices such as a RAM (Random Access Memory) and a hard disk, for example.
  • the recording medium 1005 is, for example, a storage device such as a RAM or a hard disk, a ROM (Read Only Memory), or a portable recording medium.
  • the storage device 1003 may be the recording medium 1005.
  • the processor 1001 can read and write data and programs from and to the memory 1002 and the storage device 1003.
  • the processor 1001 can access, for example, the imaging device 2 and the output device 3 via the I / O interface 1004.
  • the processor 1001 can access the recording medium 1005.
  • the recording medium 1005 stores a program that causes the computer 1000 to operate as the driving support device 1 or the driving support device 1A.
  • the processor 1001 loads a program stored in the recording medium 1005 to cause the computer 1000 to operate as the driving support device 1 or the driving support device 1A into the memory 1002. Then, when the processor 1001 executes the program loaded in the memory 1002, the computer 1000 operates as the driving support device 1 or the driving support device 1A.
  • the video acquisition unit 10 can be realized by, for example, a dedicated program for realizing the function of each unit, which is read into a memory from a recording medium that stores the program, and a processor that executes the program.
  • the sign recognition unit 11 can be realized by, for example, a dedicated program for realizing the function of each unit read into a memory from a recording medium that stores the program, and a processor that executes the program.
  • the marker position determination unit 13 can be realized by, for example, a dedicated program for realizing the function of each unit read into a memory from a recording medium that stores the program, and a processor that executes the program.
  • the output unit 14 can be realized by, for example, a dedicated program for realizing the function of each unit read into a memory from a recording medium that stores the program, and a processor that executes the program.
  • the position measurement unit 15 can be realized by, for example, a dedicated program for realizing the function of each unit, which is read from a recording medium storing the program into the memory, and a processor that executes the program.
  • the position estimation unit 16 can be realized by, for example, a dedicated program for realizing the function of each unit read into a memory from a recording medium that stores the program, and a processor that executes the program.
  • the map data storage unit 12 can be realized by a memory or a hard disk device included in the computer. Alternatively, some or all of the video acquisition unit 10, the sign recognition unit 11, the map data storage unit 12, the sign position determination unit 13, the output unit 14, the position measurement unit 15, and the position estimation unit 16 realize the function of each unit. It can also be realized by a dedicated circuit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Instrument Panels (AREA)

Abstract

 複数の道路に近接して設置された標識への車両の接近時に、車両が走行中の道路を対象とする標識の情報を提供し、車両が走行中の道路を対象としない標識の情報の提供を抑制する運転支援装置を提供する。 本発明の運転支援装置は、道路を走行する車両に搭載された撮影装置から取得された映像から、標識を検出し、検出された前記標識である検出標識が表す情報と、前記道路に対する前記検出標識の相対位置である第1の相対位置を認識する標識認識手段と、前記道路に対する前記標識の相対位置である第2の相対位置を記憶する地図データ記憶手段と、前記第2の相対位置と前記第1の相対位置とが適合することを判定することにより、前記検出標識と、前記地図データ記憶手段が前記第2の相対位置を記憶する前記標識である地図標識との適合を判定する標識位置判定手段と、前記検出標識と前記地図標識が適合すると判定された場合、前記検出標識が表す情報を出力する出力手段とを含む。

Description

運転支援装置、運転支援方法、および運転支援プログラムを記憶する記録媒体
 本発明は、運転支援装置、運転支援方法、および運転支援プログラムを記憶する記録媒体に関する。本発明は、特に、撮影装置を搭載する車両における運転支援装置、運転支援方法、および運転支援プログラムを記憶する記録媒体に関する。
 車両が走行している道路に設置された道路標識の情報を提供する運転支援装置が、例えば特許文献1乃至3に記載されている。
 特許文献1に記載されている装置は、車載カメラが撮影した車両前方の映像に含まれる道路標識や路面標識に基づき、制限速度を認識する。そして、特許文献1で開示されている装置は、車両から得た車速が、認識した制限速度を上回る場合、警報を出力する。
 特許文献2に記載されているナビゲーションシステムは、GPS(Global Positioning System)を利用して検出した車両の位置と道路データ記憶手段が記憶する道路データに基づき、車両が走行する道路を推定する。道路データ記憶手段は、道路の位置のデータに加えて、道路毎の制限速度も記憶している。そして、ナビゲーションシステムは、車両が走行することが推定された道路における制限速度を、道路データ記憶手段から読み出す。ナビゲーションシステムは、車速センサから出力された速度が、読み出された制限速度を超過している場合、警報を出力する。
 特許文献3で開示されているナビゲーション装置は、建物などの特徴物の座標を、利用者毎に保持している。そして、ナビゲーション装置は、GPSを利用して求めた車両の現在位置と地図データに基づき、車両が走行する道路を推定する。ナビゲーション装置は、特徴物の座標と、現在位置と、進行方向に基づき、車両が進行する方向において、車両が走行している道路に対して、特徴物が右側であるか左側であるかを判断する。ナビゲーション装置は、車両が特徴物に接近した場合、その判断の結果を出力する。
 特許文献4には、車両に搭載されたカメラの映像から導出した道路標識の種別と位置と、地図データベース上の道路標識との照合の結果を使用して、地図データベースを更新する地図データベース更新システムが記載されている。地図データベース更新システムに含まれるナビゲーション装置は、車両に搭載されたカメラの映像に基づき、道路標識の種別とカメラに対する道路標識の距離や方向等の相対的な位置関係を認識する。そして、ナビゲーション装置は、カメラに対する道路標識の相対的な位置関係と、GPSやセンサ等を用いて測定した車両の位置や方向に基づき、道路標識の位置を計算する。道路標識の計算された位置と地図データベースに含まれる内容が相違する場合、地図データベース更新システムは地図データベース上の道路標識の位置を、計算された位置に変更する。
特開2005-128790号公報 特開平9-073700号公報 特開平10-185607号公報 特開2002-243469号公報
 複数の道路の近傍に、少なくともいずれか1つの道路を対象としない道路標識が設置されている場合がある。そのような道路標識として、例えば、道路の分岐点や、隣接する同一方向の2本の道路の中央に設置されている、一方の道路のみを対象とする道路標識がある。
 このような場合、特許文献1乃至4で開示されている装置は、車両が走行中の道路を含む複数の道路に近接する道路標識が、車両が走行中の道路を対象としているか否かを区別できない。従って、特許文献1乃至4の技術を利用して車両の位置および道路標識の位置を特定して、車両に近い道路標識の情報を提供する場合、車両が走行中の道路を対象としない道路標識の情報が誤って提供される可能性がある。
 例えば特許文献1および特許文献4で開示されている技術では、車両に搭載されたカメラにより撮影された映像において道路標識が認識される場合、撮影される範囲に入った道路標識は、全て認識の対象である。撮影された道路標識は、その道路標識が、車両が走行している道路を対象としない道路標識であっても、認識の対象である。従って、認識された道路標識の情報を車両の運転者に提供する場合、走行中の道路を対象としない道路標識がカメラの撮影の範囲に入れば、その道路標識の情報が運転者に提供される。
 例えば特許文献2および特許文献3で開示されている装置は、車両の位置の測定結果と地図データに基づき、車両が走行する道路を推定する。そして、特許文献2で開示されている装置は、車両が走行すると推定した道路の制限速度を出力する。また、特許文献3の装置は、車両が走行すると推定した道路に近接する特徴物のその道路に対する相対位置情報を出力する。しかし、車両の位置の測定結果には誤差が含まれる。そのため、複数の道路が近接している場合、特許文献2および特許文献3で開示されている装置は、車両が、実際にはその車両が走行していない道路を、走行していると推定する可能性がある。従って、特許文献2で開示されている装置は、車両が走行していない道路の制限速度を出力する可能性がある。また、特許文献3で開示されている装置は、車両が走行していない道路に近接する特徴物のその道路に対する相対位置情報を出力する可能性がある。
 本発明の目的の一つは、複数の道路に近接して設置された標識への車両の接近時に、車両が走行中の道路を対象とする標識の情報を提供し、車両が走行中の道路を対象としない標識の情報の提供を抑制する運転支援装置を提供することにある。
 本発明の運転支援装置は、道路を走行する車両に搭載された撮影装置から取得された映像から、標識を検出し、検出された前記標識である検出標識が表す情報と、前記道路に対する前記検出標識の相対位置である第1の相対位置を認識する標識認識手段と、前記道路に対する前記標識の相対位置である第2の相対位置を記憶する地図データ記憶手段と、前記第2の相対位置と前記第1の相対位置とが適合することを判定することにより、前記検出標識と、前記地図データ記憶手段が前記第2の相対位置を記憶する前記標識である地図標識との適合を判定する標識位置判定手段と、前記検出標識と前記地図標識が適合すると判定された場合、前記検出標識が表す情報を出力する出力手段とを含む。
 本発明の運転支援方法は、道路を走行する車両に搭載された撮影装置から映像を取得し、前記映像から、標識を検出し、検出された前記標識である検出標識が表す情報と、前記道路に対する前記検出標識の相対位置である第1の相対位置を認識し、前記道路に対する前記標識の相対位置である第2の相対位置を地図データ記憶手段に記憶し、前記第2の相対位置と前記第1の相対位置とが適合することを判定することにより、前記検出標識と、前記地図データ記憶手段が前記第2の相対位置を記憶する前記標識である地図標識との適合を判定し、前記検出標識と前記地図標識が適合すると判定された場合、前記検出標識が表す情報を出力する。
 本発明の記録媒体は、コンピュータを、道路を走行する車両に搭載された撮影装置から取得された映像から、標識を検出し、検出された前記標識である検出標識が表す情報と、前記道路に対する前記検出標識の相対位置である第1の相対位置を認識する標識認識手段と、前記道路に対する前記標識の相対位置である第2の相対位置を記憶する地図データ記憶手段と、前記第2の相対位置と前記第1の相対位置とが適合することを判定することにより、前記検出標識と、前記地図データ記憶手段が前記第2の相対位置を記憶する前記標識である地図標識との適合を判定する標識位置判定手段と、前記検出標識と前記地図標識が適合すると判定された場合、前記検出標識が表す情報を出力する出力手段として動作させる運転支援プログラムを記憶する。
 本発明は、係る記録媒体に格納された運転支援プログラムによっても実現可能である。
 本発明には、複数の道路に近接して設置された標識への接近時に、走行中の道路を対象とする標識の情報を選択的に出力できるという効果がある。
図1は、第1、第2、第3の実施形態の運転支援システム100の構成の例を表す図である。 図2は、運転支援装置システム100の物理的な構成の例を表す図である。 図3は、本実施形態の運転支援装置1の動作の例を表すフローチャートである。 図4は、道路と標識の配置の例を表す図である。 図5は、位置測定部15により測定された位置から所定距離以内に設置されている、地図データが記憶する標識のデータの例を表す図である。 図6は、抽出された標識のデータの例を表す図である。 図7は、道路と標識の配置の例を表す図である。 図8は、地図データ記憶部12が記憶する標識データの例を表す図である。 図9は、第2の実施形態の運転支援装置1の動作の例を表すフローチャートである。 図10は、標識と、道路と、道路を走行する車両の例を表す図である。 図11は、標識601と撮影装置2の関係の例を表す図である。 図12は、道路と標識の配置の例を表す図である。 図13は、第3の実施形態の運転支援装置1の動作を表すフローチャートである。 図14は、第4の実施形態の運転支援装置1Aの構成の例を表す図である。 図15は、運転支援装置1及び運転支援装置1Aを実現するために使用されるコンピュータ1000の構成の例を表す図である。
 次に、本発明の実施の形態について、図面を参照して詳細に説明する。
 (第1の実施形態)
 図1は、本発明の第1の実施形態の運転支援システム100の構成の例を表す図である。
 図1を参照すると、運転支援システム100は、運転支援装置1と撮影装置2と出力装置3を含む。
 撮影装置2は、車両に搭載されたカメラである。撮影装置2は、車両の前方の映像を撮影する。撮影装置2は、車両の前方の路側を含む範囲が撮影の範囲に含まれるよう、車両に取り付けられている。撮影装置2は、撮影した映像を、運転支援装置1に送信する。運転支援装置1と撮影装置2は、撮影装置2が撮影した映像の運転支援装置1への送信が可能なように、実装されている。運転支援装置1と撮影装置2は、例えばケーブルによって接続されていればよい。運転支援装置1と撮影装置2は、無線通信によって通信することが可能であってもよい。
 出力装置3は、例えば、表示装置や、音声出力装置や、スピーカを備えた表示装置である。表示装置は、画像や映像を表示するディスプレイなどである。音声出力装置は、音声を出力するスピーカなどである。スピーカを備えた表示装置は、画像や映像に加えて音声を出力する。
 運転支援装置1は、映像取得部10と、標識認識部11と、地図データ記憶部12と、標識位置判定部13と、出力部14と、位置測定部15と、位置推定部16とを含む。
 映像取得部10は、撮影装置2から、撮影装置2が撮影する映像を取得する。映像取得部10は、例えば、撮影装置2が撮影した映像のデジタルデータを、撮影装置2から取得する。
 標識認識部11は、映像取得部10から取得した映像において、標識を検出する。標識は、例えば、道路標識である。道路標識は、例えば、文字や、図形や、文字と図形の組み合わせ等で表される。標識認識部11は、検出された標識が表す情報を認識する。本発明の各実施形態の説明では、標識認識部11によって、映像において検出された標識は、検出標識とも表記される。標識が表す情報は、例えば標識の種別である。また、標識認識部11は、映像取得部10から取得した映像(すなわち、撮影装置2が撮影した映像)に基づき、撮影装置2を搭載した車両が走行する道路に対する、検出標識の相対位置を認識する。道路に対する標識の相対位置は、例えば、その道路のあらかじめ定められた方向に向かって、その標識が、その道路の右に存在するか左に存在するかを表す。本発明の各実施形態において、道路に対する検出標識の相対位置は、第1の相対位置とも表記される。標識認識部11は、検出標識が、撮影装置2が搭載されている車両の進行方向に向かって、撮影装置2を搭載した車両が走行する道路の右に存在するか左に存在するかを、第1の相対位置として認識する。従って、本実施形態では、第1の相対位置は、撮影装置2が搭載されている車両の進行方向に向かって、撮影装置2が搭載されている車両が走行する道路より、検出標識が右に存在するか左に存在するかを表す。
 地図データ記憶部12は、道路の形状や位置を含む道路データと、標識の位置と種別を含む標識データを記憶する。道路は、例えば、線分の組み合わせによって表される。線分は、2個の端点によって表される。それらの線分は方向を備えていてもよい。その場合、2個の端点のうち一方の端点は始点として記憶され、他方の端点は終点として記憶されていればよい。道路データは、例えば、各線分の始点の座標と終点の座標を含むデータである。地図データ記憶部12が記憶する道路の位置や標識の位置は、例えば緯度および経度のような、共通の座標系で表される。緯度および経度等の共通の座標系で表される位置は、絶対位置とも表記される。本発明の各実施形態の説明では、絶対位置を表す座標は、絶対座標とも表記される。標識データは、さらに、標識が対象とする道路の道路識別子と、標識とその標識が対象とする道路との間の相対位置を含む。道路識別子は、道路ID(Identifier)とも表記される。本発明の各実施形態の説明では、地図データ記憶部12が記憶する標識データによって表される標識は、地図標識とも表記される。地図標識とその地図標識が対象とする道路との間の相対位置は、例えば、標識の位置が、道路を表す線分の始点と終点で特定される道路の方向に向かって、左側であるか、右側であるかを表す。本発明の各実施形態の説明において、例えば地図データ記憶部12が記憶する標識データにおいて、道路に対する地図標識の相対位置は、第2の相対位置とも表記される。複数の道路が一つの地図標識の対象である場合、地図データ記憶部12は、その地図標識に対して、それらの複数の道路に対する第2の相対位置を記憶していればよい。
 地図データ記憶部12は、前述のように、道路データとして、例えば、複数の線分の組み合わせで近似された道路の、各線分に対して、線分の2個の端点の座標と、その線分の識別子との組み合わせを記憶していればよい。端点の座標は、例えば、緯度と経度である。上述のように、地図データ記憶部12は、2個の端点の一方を始点として、他方を終点として記憶していればよい。線分の方向は、始点から終点に向かう方向である。線分の方向は、その線分が表す道路における車両の走行方向と、関係が無くてもよい。線分の識別子が、例えば、道路IDとも表記される、前述の道路識別子であればよい。地図データ記憶部12は、標識データとして、例えば、各標識に対して、標識の識別子と、標識が設置されている場所の座標と、標識の種別と、標識が対象とする道路の道路IDと、標識とその標識が対象とする道路の相対位置の組み合わせを記憶していればよい。標識が設置されている場所の座標は、例えば、緯度と経度で表される。上述のように、標識とその標識が対象とする道路の相対位置は、例えば、道路を表す線分の方向に向かって、標識が設置されている場所が左側であるか右側であるかを表すデータであればよい。
 位置測定部15は、例えばGPSを利用して、車両の絶対位置を測定する。前述のように絶対位置は、例えば、緯度及び経度によって表される。単に「位置」と表記される位置は、絶対位置を表す。位置測定部15による車両の位置の測定方法として、さまざまな既存の方法を使用することができる。位置測定部15は、GPSを利用しない方法で車両の位置を測定してもよい。位置測定部15は、例えば無線基地局からの電波の強度を利用して、車両の位置を測定してもよい。
 位置推定部16は、位置測定部15が測定した車両の位置と、地図データ記憶部12が記憶する道路データとに基づき、車両が走行する道路を推定する。位置推定部16は、道路上の車両が存在する場所の位置と車両の走行方向を推定する。
 標識位置判定部13は、地図データ記憶部12が標識座標を記憶する標識のうち、位置推定部16により推定された車両の位置からの距離が所定距離を超えない標識を抽出する。標識位置判定部13は、抽出された標識から、さらに、映像から検出された標識の種別と同じ種別の標識を抽出してもよい。前述のように、地図データ記憶部12が標識座標を記憶する標識が、前述の地図標識である。そして、地図標識の、道路に対する相対位置は、その地図標識の道路に対する第2の相対位置とも表記される。標識位置判定部13は、例えば、抽出された地図標識が対象とする道路に対する、その地図標識の第2の相対位置を特定する。標識位置判定部13は、例えば、地図データ記憶部12が記憶する、抽出された地図標識の第2の相対位置を読み出せばよい。前述のように、標識認識部11によって映像において検出された標識が検出標識である。そして、検出標識の、道路に対する相対位置は、第1の相対位置とも表記される。また、検出標識が検出される映像は、例えば、車両に搭載された撮影装置2によって撮影される。前述のように、検出画像が検出された映像を撮影した撮影装置2が搭載された車両が走行する道路の、その検出画像に対する第1の相対位置は、例えば、標識認識部11によって導出される。標識位置判定部13は、検出標識の第1の相対位置が、抽出された地図標識の第2の相対位置に合致するか否かを判定する。標識位置判定部13は、検出標識の第1の相対位置が、地図標識の第2の相対位置に合致する場合、その検出標識とその地図標識が適合すると判定する。
 出力部14は、検出標識に適合する地図標識が存在する場合、検出標識が表す情報を出力する。出力部14は、検出標識に適合する地図標識の設置場所から、その地図標識が対象とする道路までの距離と、検出標識の設置場所から、車両が走行する道路までの距離との差が、所定値を上回らない場合に、検出標識が表す情報を出力してもよい。その場合、例えば標識認識部11が、検出標識の設置場所から、車両が走行する道路までの距離の差を推定すればよい。そして、標識認識部11は、例えば、検出標識から撮影装置2の光軸までの距離を、検出標識の設置場所から、車両が走行する道路までの距離として算出すればよい。
 出力装置3は、出力部14から受信した標識が表す情報やその他のデータを、音声や、画像や、映像として出力する。
 図2は、運転支援装置システム100の物理的な構成の一例を表す図である。
 運転支援装置システム100は、ECU901(Electronic Control Unit)と、GPSアンテナ902と、カメラ903を含む。ECU901は、CPU904(Central Processing Unit)と、信号処理回路905と、RAM906(Random Access Memory)と、ROM907(Read Only Memory)と、電源回路908を含む。CPU904は、信号処理回路905と、RAM906と、ROM907にアクセスすることができる。
 カメラ903が、撮影装置2として動作する。信号処理回路905が、映像取得部10として動作する。GPSアンテナ902と信号処理回路905が、位置測定部15として動作する。RAM906及びROM907の少なくとも一方が、地図データ記憶部12として動作する。また、例えばROM907に格納されたプログラムを実行することにより、CPU904とRAM906と、ROM907が、標識認識部11と、標識位置判定部13と、出力部14と、位置推定部16として動作する。
 次に、本実施形態の運転支援装置1の動作について、図面を参照して詳細に説明する。
 図3は、本実施形態の運転支援装置1の動作の例を表すフローチャートである。
 まず、映像取得部10が、撮影装置2から映像を取得する(ステップS101)。
 映像取得部10は、例えば、撮影装置2が撮影した映像のデジタルデータを取得する。映像取得部10は、撮影装置2から、撮影装置2が撮影した映像のフレームを、静止画として取得してもよい。映像取得部10は、例えば、撮影装置2が撮影した映像のアナログ信号を、撮影装置2から取得してもよい。そして、映像取得部10は、映像のアナログ信号を、デジタルデータに変換してもよい。
 次に、標識認識部11は、映像取得部10が取得した映像から、標識を検出する(ステップS102)。
 前述のように、撮影装置2は、車両の前方の映像を撮影する。撮影装置2は、車両の前方の路側を含む範囲が撮影の範囲に含まれるよう、車両に取り付けられている。車両の前方の路側で撮影の範囲に含まれる場所に標識が設置されていれば、撮影装置2が撮影した映像に、標識の像が含まれる。
 映像から標識が検出されなかった場合(ステップS103においてNo)、運転支援装置1の動作はステップS101に戻る。
 映像から標識が検出された場合(ステップS103においてYes)、標識認識部11は、検出された標識の種別と、標識が表す情報を認識する(ステップS104)。
 標識認識部11による標識の認識方法として、さまざまな既存の方法が適用可能である。標識認識部11は、例えば、検出された標識の領域の形状を補正した後、テンプレートマッチングを行って、標識の種別を認識すればよい。複数の標識が検出された場合、標識認識部11は、検出された全ての標識の種別を認識する。標識の種別は、例えば、最高時速100km/h(kilometer per hour)の最高速度標識などの、速度毎の最高速度標識や、一時停止標識、駐車禁止標識などの標識の種別を表す情報である。標識の種別は、予め前述の標識の種別に対応付けられたコードによって表現されていてもよい。また、例えば地図データ記憶部12が、標識の種別毎に、最高時速が100km/hであること、一時停止が必要であること、駐車禁止であることなどの、標識が表す情報を保持していればよい。そして、標識認識部11は、認識した標識の種別に対応する、標識が表す情報を、地図データ記憶部12から読み出せばよい。標識が曜日や時間などの文字情報を含む場合、標識認識部11は、文字認識により、標識が表す情報を認識すればよい。
 標識認識部11は、例えば、特開昭62-108396号公報に記載されている、道路標識の認識方法によって、標識の認識を行ってもよい。
 図4は、道路と標識の配置の一例を表す図である。図4の例では、道路201と道路202の分岐点の近くに、標識203が設置されている。図4の例では、標識203は、道路201を対象とした標識である。
 例えば、車両が、図4に示す配置において、標識203より下側の道路201又は道路202を、図4の下方から上方に向かう向きに走行している場合、車両に搭載されている撮影装置2から映像取得部10が取得した映像に、標識203の像が含まれる。標識検出部11は、映像取得部10が取得した映像から、標識203の像の領域を検出する。標識203が、最高速度が40km/hであることを表す標識である場合、標識認識部11は、検出された領域に対して種別の認識を行うことによって、標識の種別が「最高速度40km/h」であることを認識する。
 また、標識認識部11は、映像から検出された標識の相対位置を、その映像に基づき導出する(ステップS105)。標識認識部11がステップS105で導出する相対位置は、映像を撮影する撮影装置2が搭載されている車両が走行する方向における、その車両が走行する道路に対する、その映像から検出された標識の相対位置である。ステップS105で標識認識部11が導出する上述の相対位置は、前述のように、第1の相対位置とも表記される。
 標識認識部11は、例えば、以下のように、第1の相対位置を推定する。
 標識認識部11は、例えば、標識が検出された場所が、映像内に設定された所定の基準より右側であるか、左側であるかを、相対位置として認識すればよい。この所定の基準は、例えば、あらかじめ映像内に設定された水平でない線であればよい。所定の基準は、予め映像上に設定された、撮影装置2のカメラ中心を通り、車両の正面方向に平行な鉛直面に対応する線分であってもよい。所定の基準は、例えば、標識認識部11が、既存の道路領域認識方法のいずれかを使用して認識した映像内の道路の領域であってもよい。
 図4の例で、車両が道路202を走行している場合、車両が走行する道路202の左側に標識203が存在する。この場合、標識認識部11が、例えば車両の前方方向に相当する映像内の線分を基準に、標識の相対位置を導出する場合、標識認識部11は、標識203の相対位置として「左」を導出する。車両が道路201を走行している場合、車両が走行する道路201の右側に標識203が存在する。従って、標識認識部11は、標識203の相対位置として「右」を導出する。
 次に、標識位置判定部13は、例えば位置推定部16から、車両の位置を取得する(ステップS106)。
 標識位置判定部13が取得する車両の位置は、例えば、位置測定部15がGPSを利用して測定した緯度および経度である。標識位置判定部13は、位置測定部15が測定した緯度および経路に対して、位置推定部16が補正を行った後の、緯度および経度を取得してもよい。位置推定部16による補正は、例えば、地図データ記憶部12が記憶する地図データを使用して車両が走行する道路を推定し、走行中の車両の位置を推定された道路上に変更するような、通常のナビゲーション装置が行う補正である。位置測定部15は、さらに、例えば方位センサにより、車両の方位を測定してもよい。そして、標識位置判定部13は、車両の位置として、緯度、経度、および方位を取得してもよい。
 標識位置判定部13は、取得した車両の位置に設置場所が近い標識を、地図データ記憶部12が標識データを記憶する標識から抽出する(ステップS107)。
 標識位置判定部13は、例えば、取得した車両の位置から所定距離以内に設置されている標識を抽出する。上述の所定距離は、例えば、GPSの精度や撮影装置2のカメラパラメータをもとに、あらかじめ定められた距離であればよい。
 例えば、位置測定部15が測定した緯度および経度が、それぞれ、35.75と139.74である場合、標識位置判定部13は、これらの緯度および経度で表される位置から所定距離以内に設置されている標識を抽出する。
 図5は、位置測定部15により測定された位置から所定距離以内に設置されている、地図データが記憶する標識のデータの例を表す図である。
 標識位置判定部13は、地図データ記憶部12が記憶する標識データに基づき抽出された標識から、さらに、映像において検出された標識の種別と同じ種別の標識を抽出する(ステップS108)。
 例えば、標識認識部11が認識した、検出された標識の種類が「最高速度40km/h」である場合、標識位置判定部13は、抽出された標識から、さらに、種別が「最高速度40km/h」である標識を抽出する。
 図6は、抽出された標識のデータを表す図である。ステップS107で抽出された標識のデータが図5に示す標識の標識データである場合、標識位置判定部13は、図5の標識データから図6に示す標識データを抽出する。すなわち、標識位置判定部13は、図6に示す標識データによって表される標識を抽出する。
 次に、標識位置判定部13は、標識データに基づき抽出された標識に、映像において検出された標識に適合する標識が含まれているか否かを判定する(ステップS109)。前述のように、標識データに基づき抽出された標識は、地図データ記憶部12に格納されている標識データによって表される地図標識から、標識位置判定部13によって抽出された地図標識である。映像において検出された標識は、標識認識部11が、撮影装置2が撮影した映像において検出した検出標識である。
 標識位置判定部13は、標識認識部11が検出した標識の、車両が走行する道路に対する相対位置と、抽出された標識の、その標識が対象とする道路に対する相対位置を比較することにより、適合の判定を行えばよい。前述のように、地図データ記憶部12が記憶する標識のデータは、道路のいずれかの方向に対する、標識の相対位置を含む。標識認識部11が映像において検出した標識の相対位置は、例えば、車両が走行する方向における、車両が走行する道路に対する検出された標識の相対位置である。以下の説明において、標識認識部11が映像において検出した標識の、車両が走行する道路に対する相対位置は、単に、「検出された標識の相対位置」とも表記される。また、標識データから抽出された標識の、その標識が対象とする道路に対する相対位置は、単に、「抽出された標識の相対位置」とも表記される。検出された標識の相対位置と抽出された標識の相対位置とが一致する場合、標識位置判定部13は、検出された標識と、抽出された標識が適合すると判定すればよい。
 前述のように、本実施形態では、地図データ記憶部12は、道路の始点の位置と終点の位置を含む道路データを記憶する。また、地図データ記憶部12は、標識が対象とする道路に対する、その道路の始点から終点に向かう方向における、標識の相対位置を、例えば標識データの少なくとも一部として記憶する。標識位置判定部13は、標識が対象とする道路の始点から終点へ向かう方向と車両の進行方向がなす角度が、90度を超えない場合、地図データ記憶部12が含む相対位置を、車両が走行する方向における相対位置にすればよい。この場合、地図データ記憶部12が記憶するある標識の相対位置が例えば「左」であるなら、その標識の車両が走行する方向における相対位置を「左」にする。標識位置判定部13は、標識が対象とする道路の始点から終点へ向かう方向と車両の進行方向がなす角度が、90度を超える場合、地図データ記憶部12が含む相対位置を逆転させた相対位置を、車両が走行する方向における相対位置にすればよい。この場合、地図データ記憶部12が記憶するある標識の相対位置が例えば「左」であるなら、その標識の車両が走行する方向における相対位置を「右」にする。
 以上のように、本実施形態の標識位置判定部13は、ステップS107およびステップS108で抽出された地図座標の、その地図座標が対象とする道路に対する相対位置を地図データ記憶部12から読み出す。そして、標識位置判定部13は、検出標識の、車両が走行する道路に対する相対位置と、相対位置が一致する地図標識が、検出標識に適合すると判定する。前述のように、ステップS107において標識検出部11によって抽出される地図標識は、測定された車両の位置から所定距離以内の場所に設置されている地図標識である。ステップS108において標識検出部11によって抽出される地図標識は、ステップS107において抽出された標識の中で、標識認識部11が検出した検出標識と同じ種別の地図標識である。さらに、標識位置判定部13は、映像を撮影する撮影装置2が搭載された車両が走行する道路に対して検出標識が存在する側と、地図標識が対象とする道路に対してその地図標識が存在する側が同じ場合に、その検出標識とその地図標識が適合すると判定する。
 標識位置判定部13は、地図データ記憶部12からデータを読み出した標識が、検出された標識に適合するか否かを判定することにより、検出された標識が、車両が走行する道路を対象とする標識であるか否かを判定する。すなわち、標識位置判定部13は、地図データ記憶部12からデータを読み出した標識が、検出された標識に適合する場合、検出された標識が、車両が走行する道路を対象とする標識であると判定する。また、標識位置判定部13は、地図データ記憶部12からデータを読み出した標識が、検出された標識に適合しない場合、検出された標識が、車両が走行する道路を対象とする標識ではないと判定する。
 検出された標識に適合する標識が存在しない場合(ステップS110においてNo)、運転支援装置1の処理は、ステップS101に戻る。
 図5および図6の例では、標識データに含まれる相対位置は、標識データが対象とする道路に対する、車両の進行方向における相対位置を表す。
 図6に示す標識データでは、標識が対象とする道路に対する標識の相対位置は「右」である。図6の標識データにより表される標識は、この標識が対象とする道路に対して、右側に設置されている。
 例えば、車両が図4の道路202を、図4の下から上に向かう方向に走行している場合、車両が走行する道路に対する標識の相対位置は「左」である。この場合、図6の標識と、標識認識部11により検出された標識は、適合しない。
 一方、車両が図4の道路201を、図4の下から上に向かう方向に走行している場合、車両が走行する道路に対する標識の相対位置は「右」である。この場合、図6の標識と、標識認識部11により検出された標識は、適合する。
 検出された標識に適合する標識が存在する場合(ステップS110においてYes)、出力部14は、検出された標識が表す情報を出力する(ステップS111)。
 出力部14は、例えば、車両に搭載されたスピーカなどの音声出力装置である出力装置3に、検出された標識の種別に対応付けられた音声データを、音声に変換して出力する。あるいは、出力部14は、例えば、車両に搭載された表示装置である出力装置3に、検出された標識の種別に対応付けられた映像あるいは画像を表示させてもよい。出力部14は、音声と、映像あるいは画像とを組み合わせて、出力装置3に出力してもよい。運転支援装置1の図示されない記憶部が、標識の種別に対応付けられた音声データや、映像あるいは画像のデータを記憶していればよい。出力部14は、検出された標識が表す情報を出力することにより、車両の運転者に検出された標識が表す情報を伝達する。出力部14は、さらに、検出された標識に適合する標識が対象とする道路の道路IDを出力してもよい。出力部14は、道路IDの代わりに、その道路IDが表す道路の地図を出力してもよい。
 以上の本実施形態の説明では、相対位置は、例えば車両の進行方向における、道路に対して「右」か「左」で表される、標識の設置位置である。しかし、相対位置は、他の方法で表される位置であってもよい。
 例えば、相対位置は、標識の設置位置の道路に対する方位であってもよい。この場合の方位は、例えば、道路から標識の設置位置に向かう道路の垂線の方向である。また、方位は、所定の角度の範囲で区分された有限個数の方位によって表されていればよい。例えば、方位は、東西南北のいずれかで表されうる。この場合、位置測定部15は、さらに、車両が走行する道路の方位として、例えば車両の前方の方位を測定する。また、標識認識部11は、さらに、車両の前方に対する、検出された標識の角度を算出する。また、標識認識部11は、例えば、検出された標識が標準的な大きさである場合の直径と、映像内の標識の直径と、撮影装置2のカメラパラメータから、撮影装置2から標識までの距離を算出する。そして、標識位置判定部13は、車両の前方の方位と、車両の前方に対する、検出された標識の角度と、撮影装置2から標識までの距離から、車両の位置に対する、検出された標識の方位を算出する。また、地図データ記憶部12は、標識が対象とする道路に対する標識の相対位置として、道路から標識の設置位置に向かう道路の垂線の方向を記憶していればよい。
 以上で説明した本実施形態には、複数の道路に近接して設置された標識への接近時に、走行中の道路を対象とする標識の情報を選択的に出力できるという効果がある。
 その理由は、標識位置判定部13が、撮影装置2が撮影した映像から検出された標識と車両が走行している道路に対する相対位置と、地図データ記憶部12が記憶する標識の、その標識が対象とする道路に対する相対位置の適合を判定するからである。標識の道路に対する相対位置は、例えば、道路を走行する車両の進行方向に対して、標識が道路の右側に設置されているか、左側に設置されているかを表す。そして、上述の2つの相対位置の適合が判定された場合、出力部14は、映像から検出された標識が表す情報を出力する。
 例えば、標識が対象とする道路の右側にその標識が設置されており、その標識の右側に隣接する道路を車両が走行している場合、車両に搭載された撮影装置2の映像に、その標識の像が含まれる。撮影装置2の映像から検出される全ての標識の情報を出力する場合、標識が撮影装置2の撮影の範囲に入れば、車両が走行する道路を対象としない標識の情報であっても、出力される。しかし、検出された標識と相対位置が適合する地図標識が存在しない場合、検出された標識の対象である道路は、車両が走行している道路ではない。本実施形態の標識位置判定部13は、検出された標識と相対位置が適合する地図標識が存在するか否かを判定する。そして、本実施形態の出力部14は、検出された標識と相対位置が適合する地図標識が存在する場合、標識が表す情報を出力する。本実施形態の出力部14は、検出された標識と相対位置が適合する地図標識が存在しない場合、検出された標識が表す情報を出力しない。このことにより、本実施形態の運転支援装置1は、車両が走行する道路が対象でない標識の情報の出力を抑制することができる。そして、本実施形態の運転支援装置1は、車両が走行する道路が対象である標識の情報を選択的に出力することができる。
 (第2の実施形態)
 次に、本発明の第2の実施形態について、図面を参照して詳細に説明する。
 図1は、本実施形態の運転支援システム100の構成を表す図である。本実施形態の運転支援システム100の構成は、第1の実施形態の運転支援システム100の構成と同じである。以下では、主に、第1の実施形態に対する本実施形態の相違点について説明する。
 本実施形態では、相対位置は、第1の実施形態の相対位置に加えて、標識と道路との間の距離を含む。標識と道路の間の距離は、例えば、標識と道路の中心線との間の最短距離である。標識と道路の間の距離は、例えば、標識と道路の領域との間の最短距離であってもよい。標識と道路の間の距離は、他の方法によって測定された、標識と道路の間の近さを表す値であってもよい。
 図7は、道路と標識の配置の例を表す図である。
 図7に示す例では、道路602と道路603が存在する。道路603の左側の路側に、道路603を対象とする標識601が設置されている。道路603と標識601の間の距離は、距離604である。
 本実施形態の標識認識部11は、車両が走行する道路に対する、検出された標識の相対位置として、第1の実施形態における相対位置に加えて、車両が走行する道路と標識との間の距離を算出する。標識認識部11は、車両が走行する道路と標識との間の距離として、例えば、車両が走行する道路の中心線と標識の設置位置との間の距離を算出する。ただし、本実施形態では、標識認識部11は、車両が走行する道路の中心線と標識の設置位置との間の距離の近似値として、撮影装置2の光軸と、標識の設置位置との間の距離を算出する。すなわち、標識認識部11は、検出された標識の相対位置に含まれる距離、すなわち、車両が走行する道路と標識との間の距離として、撮影装置2の光軸と、標識の設置位置との間の距離を算出する。標識認識部11は、車両が走行する道路と標識との間の距離として、車両が走行する道路と標識との間の近さを表す他の値を算出してもよい。
 また、本実施形態の地図データ記憶部12は、標識が対象とする道路に対する、その標識の相対位置として、第1の実施形態の相対位置に加えて、標識が対象とする道路と標識との距離を記憶する。前述のように、道路と標識との間の距離は、例えば、道路の中心線と標識との間の距離である。標識の対象である道路が、複数の道路である場合、地図データ記憶部12は、各標識に対して、標識が対象とする各道路に対する距離を全て記憶していてもよい。
 図8は、地図データ記憶部12が記憶する標識データの例を表す図である。図8を参照すると、本実施形態の地図データ記憶部12は、相対位置として、第1の実施形態の相対位置に相当する「方向」と、標識とその標識が対象とする道路との距離を表す「距離」を記憶する。
 本実施形態の他の構成要素は、同じ符号が付けられた第1の実施形態の構成要素と同じである。
 次に、本実施形態の運転支援装置1の動作について、図面を参照して詳細に説明する。
 図9は、本実施形態の運転支援装置1の動作を表すフローチャートである。
 本実施形態の運転支援装置1のステップS101からステップS105の動作は、それぞれ、第1の実施形態の運転支援装置1の同じ符号のステップの動作と同じである。
 ステップS105の動作の後、標識認識部11は、撮影装置2の光軸と標識の設置位置との間の距離を算出する(ステップS201)。撮影装置2の光軸と標識の設置位置との間の距離は、撮影装置2の光軸と標識の設置位置との間の最短距離である。
 図10は、標識と、道路と、道路を走行する車両の例を表す図である。
 図10の例では、車両700は道路603を走行している。また、道路603から分岐する道路602の左側に、標識601が設置されている。標識601と道路602の間の距離は、距離604である。また、車両700が搭載する撮影装置2の光軸701と、標識601の間の距離が、距離702である。
 図11は、標識601と撮影装置2の関係の例を表す図である。
 図11の例では、標識601を通り撮影装置2の光軸701と垂直な平面と、カメラ中心704の距離が、距離705である。また、撮影装置2の光軸701と、カメラ中心704と標識601を通る直線との間の角度が、角度706である。撮影装置2の画像面703上には、標識601の像が存在する。
 本実施形態の撮影装置2は、内部パラメータが既知のステレオカメラを含んで構成されていてもよい。撮影装置2がステレオカメラを構成に含む場合、標識認識部11は、立体視の原理に基づく既存のいずれかの方法により、ステレオカメラの映像から、カメラ座標系における標識の三次元位置を算出する。カメラ座標系における標識の三次元位置を算出する方法として、既存のさまざまな方法が適用可能である。標識認識部11は、算出された、カメラ座標系における標識の位置から、カメラの光軸から標識までの距離を算出する。この場合、カメラ座標系は、ステレオカメラを構成するいずれのカメラに基づく座標系であってもよい。カメラの光軸は、ステレオカメラを構成するいずれのカメラの光軸であってもよい。
 撮影装置2は、カメラの内部パラメータが既知の1台のカメラを含んで構成されていてもよい。撮影装置2が1台のカメラを構成に含む場合、標識認識部11は、検出された標識の標準的なサイズと、検出された標識の映像上におけるサイズと、撮影装置2のカメラの内部パラメータから、カメラの光軸と標識との間の距離を算出する。標識認識部11による、カメラの光軸と標識との間の距離の算出の方法は、例えば図形の相似の原理に基づいた、既存のいずれかの方法であればよい。図11の例の場合、標識認識部11は、検出された標識の標準的なサイズと、検出された標識の映像上におけるサイズと、撮影装置2のカメラの内部パラメータから、カメラから道路標識までの距離705を推定する。また、標識認識部11は、検出された標識の画像上での水平位置から角度706の正接を算出する。そして、標識認識部11は、角度706の正接と距離705を掛け合わせて、光軸701から標識601までの距離702を推定する。
 本実施形態の運転支援装置1のステップS106からステップS110の動作は、それぞれ、第1の実施形態の運転支援装置1の同じ符号のステップの動作と同じである。
 検出された標識に適合する標識が存在する場合(ステップS110においてYes)、出力部14は、検出された標識と撮影装置2の光軸の距離と、検出された標識に適合する標識からその標識が対象とする道路までの距離を比較する。
 検出された標識と撮影装置2の光軸の距離と、検出された標識に適合する標識からその標識が対象とする道路までの距離との差が、所定値以上である場合(ステップS202においてNo)、運転支援装置1の動作はステップS101に戻る。
 検出された標識と撮影装置2の光軸の距離と、検出された標識に適合する標識からその標識が対象とする道路までの距離との差が、所定値より小さい場合(ステップS202においてYes)、出力部14は、検出された標識が表す情報を出力する(ステップS111)。
 上述の所定値は、検出された標識と撮影装置2の光軸の距離と、検出された標識に適合する標識からその標識が対象とする道路までの距離との差に対する閾値である。上述の所定値すなわち閾値は、一定値でなくてもよい。例えば、地図データ記憶部12は、各標識に対して、標識が対象とする道路で標識に最も近い道路に対する距離と、閾値を記憶していてもよい。この閾値は、例えば、標識が対象とする道路のうち、標識に最も近い道路と標識の距離と、標識から最も遠い道路と標識の距離との差以上の値であればよい。そして、出力部14は、ステップS202において上述の2つの距離の比較を行う際、標識に対応する閾値を、地図データ記憶部12から読み出せばよい。
 以上で説明した本実施形態には、第1の実施形態と同じ効果がある。その理由は、第1の実施形態の効果の理由と同じである。
 また、本実施形態には、複数の道路に近接して設置された標識への接近時に、走行中の道路を対象とする標識の情報を出力する際、走行中の道路を対象としない標識の情報の出力をさらに精度よく抑制することができるという効果がある。
 その理由は、出力部14が、前述の2つの相対位置が適合する場合、さらに、検出された標識と撮影装置2の光軸の距離と、検出された標識に適合する標識からその標識が対象とする道路までの距離を比較するからである。そして、出力部14は、比較が行われた2つの距離の差が、所定値より小さい場合、検出された標識が表す情報を出力するからである。
 例えば図10の例で、設置されている標識601の対象である道路が、道路602だけである場合、道路603は標識601の対象ではない。しかし、標識601が、道路603を走行する車両が搭載する撮影装置2の撮影の範囲に含まれる場合、運転支援装置1は撮影装置2の映像から標識601を検出することがある。また、標識601は、標識601の対象である道路602の左側に設置されている。さらに、標識601は、車両が走行する道路603の左側に設置されている。従って、このような場合、第1の実施の形態の運転支援装置1は、車両が、標識601の対象でない道路603を走行していても、標識601の情報を出力する。
 しかし、車両が道路603を走行する場合、車両に搭載される撮影装置2の光軸と標識601の距離と、標識601が対象とする道路602と標識601の距離との差は、車両が道路602を走行する場合と比較すると、大きい。従って、出力部14が、比較が行われた2つの距離の差が、所定値より小さい場合、検出された標識が表す情報を出力することにより、本実施形態の運転支援装置1は、走行中の道路を対象としない標識の情報の出力をさらに精度よく抑制することができる。この所定値は、前述の2つの距離の差と、車両が標識の対象である道路を走行している場合とそれ以外の場合の判別が可能なように、予め設定されていればよい。地図データ記憶部12が、それぞれの標識に対して、前述の閾値として、この所定値を記憶していてもよい。
 (第3の実施形態)
 次に、本発明の第3の実施形態について、図面を参照して詳細に説明する。
 図1は、本実施形態の運転支援システム100の構成を表す図である。本実施形態の運転支援システム100の構成は、第1の実施形態の運転支援システム100の構成と同じである。以下では、主に、第1の実施形態に対する本実施形態の相違点について説明する。
 本実施形態の相対位置は、第1の実施形態と同じである。
 本実施形態の標識認識部11は、さらに、検出された標識と撮影装置2の間の距離を算出する。
 本実施形態の地図データ記憶部12は、標識が対象とする道路に、標識からの距離が所定距離以内である分岐点が存在する各標識に対して、さらに、標識が対象とする道路の分岐点とその標識との間の距離を記憶する。標識が対象とする道路に複数の分岐点が存在する場合、地図データ記憶部12は、それらの分岐点のうち標識に最も近い分岐点までの距離を記憶していればよい。地図データ記憶部12は、分岐点と標識との間の距離に加えて、分岐点の座標を記憶していてもよい。標識が対象とする道路に複数の分岐点が存在する場合、地図データ記憶部12は、その標識に対して、標識を中心とした道路のそれぞれの方向で、標識に最も近い分岐点の座標とその分岐点から標識までの距離を記憶していてもよい。地図データ記憶部12が、一方通行でない道路に対して車両の走行方向毎に別の道路として道路データを記憶している場合、地図データ記憶部12は、車両が標識に接近する方向に存在する分岐点と標識の間の距離や、その分岐点の座標を記憶していればよい。
 図12は、道路と標識の配置の例を表す図である。
 図12に示す例では、道路201と道路202は、分岐点1102で分岐している。また、分岐点1102から標識203までの距離は、距離1103である。
 本実施形態の他の構成要素は、同じ符号が付された第1の実施形態の構成要素と同じである。
 次に、本実施形態の動作について、図面を参照して詳細に説明する。
 図13は、本実施形態の運転支援装置1の動作を表すフローチャートである。
 本実施形態の運転支援装置1のステップS101からステップS105の動作は、それぞれ、第1の実施形態の運転支援装置1の同じ符号のステップの動作と同じである。
 ステップS105の動作の後、標識認識部11は、撮影装置2と標識の設置位置との間の距離を算出する(ステップS301)。
 標識認識部11は、撮影装置2と標識の設置位置との間の距離として、撮影装置2のカメラ中心と標識の設置位置との間の距離を算出すればよい。標識認識部11は、第2の実施形態のステップS201の動作と同様の方法で、撮影装置2と標識の設置位置との間の距離を算出する。
 本実施形態の運転支援装置1のステップS106からステップS110の動作は、それぞれ、第1の実施形態の運転支援装置1の同じ符号のステップの動作と同じである。
 検出された標識に適合する標識が存在する場合(ステップS110においてYes)、出力部14は、検出された標識に適合する標識が対象とする道路における分岐点の有無を判定する(ステップS302)。
 出力部14は、地図データ記憶部12が、検出された標識に適合する標識に対して、分岐点までの距離を記憶している場合、検出された標識に適合する標識が対象とする道路に分岐点があると判定すればよい。出力部14は、地図データ記憶部12が、検出された標識に適合する標識に対して、分岐点までの距離を記憶していない場合、検出された標識に適合する標識が対象とする道路に分岐点が無いと判定すればよい。
 出力部14は、検出された標識に適合する標識の位置と、分岐点の位置と、位置測定部15が測定した車両の位置から、分岐点が標識より、車両の位置を基準として遠い場所にあるか否かを判定してもよい。この場合、出力部14は、分岐点が標識より、車両の位置を基準として近い場合に、分岐点が存在すると判定すればよい。
 検出された標識に適合する標識が対象とする道路における分岐点がない場合(ステップS302においてNo)、運転支援装置1の動作はステップS111に進む。
 検出された標識に適合する標識が対象とする道路における分岐点がない場合(ステップS302においてYes)、運転支援装置1の動作はステップS303に進む。
 出力部14は、検出された標識と撮影装置2の距離と、検出された標識に適合する標識とその標識が対象とする道路の分岐点との距離を比較する(ステップS303)。
 検出された標識と撮影装置2の距離が、検出された標識に適合する標識とその標識が対象とする道路の分岐点との距離より大きい場合(ステップS303においてNo)、運転支援装置1の動作はステップS101に戻る。
 検出された標識と撮影装置2の距離が、検出された標識に適合する標識とその標識が対象とする道路の分岐点との距離以下である場合(ステップS303においてYes)、出力部14は、検出された標識が表す情報を出力する(ステップS111)。
 本実施形態では、相対位置は、第2の実施形態と同様に、さらに、標識と道路との間の距離を含んでいてもよい。標識と道路の間の距離は、例えば、標識と道路の中心線との間の最短距離である。
 本実施形態の標識認識部11は、第2の実施形態の標識認識部11と同様に、車両が走行する道路に対する、検出された標識の相対位置として、第1の実施形態の相対位置に加えて、車両が走行する道路の中心線と標識の設置位置との間の距離を算出してもよい。
 また、本実施形態の地図データ記憶部12は、第2の実施形態の地図データ記憶部12と同様に、標識が対象とする道路に対する、その標識の相対位置として、第1の実施形態の相対位置に加えて、標識が対象とする道路の中心線と標識との距離を記憶してもよい。
 そして、標識認識部11は、図13のステップS301の代わりに、ステップS301の動作を含む、図9のステップS201の動作を行ってもよい。
 また、本実施形態の出力部14は、出力部14は、図13のステップS110とステップS302の間に、図9のステップS202の動作を行ってもよい。
 以上で説明した本実施形態には、第1の実施形態と同じ効果がある。その理由は、第1の実施形態の効果の理由と同じである。
 また、本実施形態には、複数の道路に近接して設置された標識への接近時に、走行中の道路を対象とする標識の情報を出力する際、走行中の道路を対象としない標識の情報の出力をさらに精度よく抑制することができるという効果がある。
 その理由は、検出された標識と撮影装置2の距離が、検出された標識に適合する標識とその標識が対象とする道路の分岐点との距離以下である場合、出力部14が、検出された標識が表す情報を出力するからである。
 道路を走行する車両の前方で、道路が分岐している場合、車両が分岐点を過ぎるまで、運転支援装置1は、分岐している道路のいずれに車両が進むか判断することはできない。車両が分岐点を過ぎる前に、検出された標識が表す情報を出力する場合、車両が進まない道路が対象である標識の情報を出力することがある。
 例えば、図12に示す例では、車両1101が分岐点1102を過ぎるまで、運転支援装置1は、車両1101が道路201と道路202のどちらに進むか判断できない。標識203の対象である道路が道路202だけである場合、道路202から道路201に進む車両は標識203により規制されない。一方、車両1101が分岐点1102を過ぎる前に、車両1101に搭載された撮影装置2の映像から標識203が検出されることがある。出力部14が、車両1101が分岐点1102を過ぎる前に検出された標識203の情報を出力した場合、出力部14は、標識203の対象でない道路201に進む車両1101に対して、標識203の情報を出力する可能性がある。
 しかし、上述のように、本実施形態では、検出された標識と撮影装置2の距離が、検出された標識に適合する標識とその標識が対象とする道路の分岐点との距離以下である場合、出力部14が、検出された標識が表す情報を出力する。従って、出力部14は、標識203の対象でない道路201に進む車両1101に対して、標識203の情報を出力しない。よって、本実施形態の運転支援装置1は、複数の道路に近接して設置された標識への接近時に、走行中の道路を対象とする標識の情報を出力する際、走行中の道路を対象としない標識の情報の出力をさらに精度よく抑制することができる。
 (第4の実施形態)
 次に、本発明の第4の実施形態について、図面を参照して詳細に説明する。
 図14は、本実施形態の運転支援装置1の構成を表す図である。
 図14を参照すると、本実施形態の運転支援装置1は、映像取得部10と、標識認識部11と、地図データ記憶部12と、標識位置判定部13と、出力部14とを含む。映像取得部10は、道路を走行する車両に搭載された撮影装置2から映像を取得する。標識認識部11は、前記映像から、標識を検出し、検出された前記標識である検出標識が表す情報と、前記道路に対する前記検出標識の相対位置である第1の相対位置を認識する。地図データ記憶部12は、前記道路に対する前記標識の相対位置である第2の相対位置を記憶する。標識位置判定部13は、前記第2の相対位置と前記第1の相対位置とが適合することを判定することにより、前記検出標識と、前記地図データ記憶部12が前記第2の相対位置を記憶する前記標識である地図標識との適合を判定する。出力部14は、前記検出標識と前記地図標識が適合すると判定された場合、前記検出標識が表す情報を出力する。
 以上で説明した本実施形態には、第1の実施形態の効果と同じ効果がある。その理由は、第1の実施形態の効果の理由と同じである。
 運転支援装置1、運転支援装置1Aは、それぞれ、コンピュータ及びコンピュータを制御するプログラム、専用のハードウェア、又は、コンピュータ及びコンピュータを制御するプログラムと専用のハードウェアの組合せにより実現することができる。
 図15は、運転支援装置1、運転支援装置1Aを実現するために使用される、コンピュータ1000の構成の一例を表す図である。図15を参照すると、コンピュータ1000は、プロセッサ1001と、メモリ1002と、記憶装置1003と、I/O(Input/Output)インタフェース1004とを含む。また、コンピュータ1000は、記録媒体1005にアクセスすることができる。メモリ1002と記憶装置1003は、例えば、RAM(Random Access Memory)、ハードディスクなどの記憶装置である。記録媒体1005は、例えば、RAM、ハードディスクなどの記憶装置、ROM(Read Only Memory)、可搬記録媒体である。記憶装置1003が記録媒体1005であってもよい。プロセッサ1001は、メモリ1002と、記憶装置1003に対して、データやプログラムの読み出しと書き込みを行うことができる。プロセッサ1001は、I/Oインタフェース1004を介して、例えば、撮影装置2及び出力装置3にアクセスすることができる。プロセッサ1001は、記録媒体1005にアクセスすることができる。記録媒体1005には、コンピュータ1000を、運転支援装置1、又は運転支援装置1Aとして動作させるプログラムが格納されている。
 プロセッサ1001は、記録媒体1005に格納されている、コンピュータ1000を、運転支援装置1、又は運転支援装置1Aとして動作させるプログラムを、メモリ1002にロードする。そして、プロセッサ1001が、メモリ1002にロードされたプログラムを実行することにより、コンピュータ1000は、運転支援装置1、又は運転支援装置1Aとして動作する。
 映像取得部10は、例えば、プログラムを記憶する記録媒体からメモリに読み込まれた、各部の機能を実現するための専用のプログラムと、そのプログラムを実行するプロセッサにより実現することができる。標識認識部11は、例えば、プログラムを記憶する記録媒体からメモリに読み込まれた、各部の機能を実現するための専用のプログラムと、そのプログラムを実行するプロセッサにより実現することができる。標識位置判定部13は、例えば、プログラムを記憶する記録媒体からメモリに読み込まれた、各部の機能を実現するための専用のプログラムと、そのプログラムを実行するプロセッサにより実現することができる。出力部14は、例えば、プログラムを記憶する記録媒体からメモリに読み込まれた、各部の機能を実現するための専用のプログラムと、そのプログラムを実行するプロセッサにより実現することができる。位置測定部15は、例えば、プログラムを記憶する記録媒体からメモリに読み込まれた、各部の機能を実現するための専用のプログラムと、そのプログラムを実行するプロセッサにより実現することができる。位置推定部16は、例えば、プログラムを記憶する記録媒体からメモリに読み込まれた、各部の機能を実現するための専用のプログラムと、そのプログラムを実行するプロセッサにより実現することができる。また、地図データ記憶部12は、コンピュータが含むメモリやハードディスク装置により実現することができる。あるいは、映像取得部10、標識認識部11、地図データ記憶部12、標識位置判定部13、出力部14、位置測定部15、位置推定部16の一部又は全部を、各部の機能を実現する専用の回路によって実現することもできる。
 以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2013年1月28日に出願された日本出願特願2013-013312を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 1、1A  運転支援装置, 2  撮影装置, 3  出力装置, 10  映像取得部, 11  標識認識部, 12  地図データ記憶部, 13  標識位置判定部, 14  出力部, 15  位置測定部, 16  位置推定部, 100  運転支援システム, 201、202、602、603  道路, 203、601  標識, 604、702、705、1103  距離, 700、1101  車両, 701  光軸, 703  画像面, 704  カメラ中心, 706  角度, 1102  分岐点, 901  ECU, 902  GPSアンテナ, 903  カメラ, 904  CPU, 905  信号処理回路, 906  RAM, 907  ROM, 908  電源回路, 1000  コンピュータ, 1001  プロセッサ, 1002  メモリ, 1003  記憶装置, 1004  I/Oインタフェース, 1005  記録媒体

Claims (13)

  1.  道路を走行する車両に搭載された撮影装置から取得された映像から、標識を検出し、検出された前記標識である検出標識が表す情報と、前記道路に対する前記検出標識の相対位置である第1の相対位置を認識する標識認識手段と、
     前記道路に対する前記標識の相対位置である第2の相対位置を記憶する地図データ記憶手段と、
     前記第2の相対位置と前記第1の相対位置とが適合することを判定することにより、前記検出標識と、前記地図データ記憶手段が前記第2の相対位置を記憶する前記標識である地図標識との適合を判定する標識位置判定手段と、
     前記検出標識と前記地図標識が適合すると判定された場合、前記検出標識が表す情報を出力する出力手段と
     を含む運転支援装置。
  2.  前記地図データ記憶手段は、道路の位置を表す道路データと、複数の前記地図標識に対して、当該地図標識の位置を表す座標である標識座標と、前記地図標識の対象である前記道路の各々に対する前記第2の相対位置とを記憶し、
     前記運転支援装置は、
     前記車両の位置を表す座標である車両座標を測定する位置測定手段と、
     測定された前記車両座標から、前記道路データに含まれるいずれの前記道路を前記車両が走行するかを推定する位置推定手段と
     を含み、
     前記標識位置判定手段は、前記車両が走行すると推定された前記道路が対象である前記地図標識の各々に対して、当該地図標識の前記標識座標と前記車両座標との距離が所定距離を超えないことを判定することにより、前記検出標識と前記地図標識との適合を判定し
     前記出力手段は、前記検出標識といずれかの前記地図標識とが適合すると判定された場合、前記検出標識が表す情報を出力する
     請求項1に記載の運転支援装置。
  3.  前記地図データ記憶手段は、前記地図標識の各々に対して、さらに、前記地図標識の種別を記憶し、
     前記標識認識手段は、前記映像から、さらに、前記検出標識の種別を判定し、
     前記標識位置判定手段は、前記車両が走行すると推定された前記道路が対象である前記地図標識の各々に対して、前記地図標識の種別と前記検出標識の種別が合致することを判定することにより、前記検出標識と前記地図標識との適合を判定する
     請求項1又は2に記載の運転支援装置。
  4.  前記標識認識手段は、前記検出標識の前記映像上の位置が、前記映像上に設定された所定の基準の右側であるか左側であるかを判定し、当該判定の結果を、前記第1の相対位置として導出し、
     前記地図データ記憶手段は、前記地図標識の前記標識座標で表される位置が、前記地図標識の対象である前記道路のどちら側であるかを表す情報を、前記第2の相対位置として記憶し、
     前記標識位置判定手段は、前記車両の進行方向を推定し、前記第2の相対位置から、前記地図標識が推定された進行方向に対して前記道路のどちら側にあるのかを判定し、当該判定の結果が、前記第1の相対位置と一致する場合、前記第2の相対位置と前記第1の相対位置とが適合すると判定する
     請求項1乃至3のいずれかに記載の運転支援装置。
  5.  前記第2の相対位置は、前記地図標識の前記標識座標と、前記地図標識の対象である前記道路との間の最短距離である第2の距離を含み、
     前記標識認識手段は、前記映像から、さらに、前記撮影装置の光軸と前記検出標識との間の最短距離である第1の距離を推定し、
     前記出力手段は、前記検出標識と適合する前記地図標識の前記第2の距離と、前記第1の距離との差が所定値以下である場合に、前記検出標識が表す情報を出力する
     請求項1乃至4のいずれかに記載の運転支援装置。
  6.  前記地図データ記憶手段は、前記道路の分岐点の位置をさらに記憶し、
     前記出力手段は、さらに、前記検出標識と適合する前記地図標識の前記標識座標と前記分岐点との間の距離が、当該標識座標と前記車両座標との距離である標識距離以下である前記分岐点が存在する場合、前記検出標識が表す情報を出力せず、前記標識座標と前記分岐点と間の距離が、前記標識距離以下である前記分岐点が存在しない場合、前記検出標識が表す情報を出力する
     請求項1乃至5のいずれかに記載の運転支援装置。
  7.  道路を走行する車両に搭載された撮影装置から映像を取得し、
     前記映像から、標識を検出し、検出された前記標識である検出標識が表す情報と、前記道路に対する前記検出標識の相対位置である第1の相対位置を認識し、
     前記道路に対する前記標識の相対位置である第2の相対位置を地図データ記憶手段に記憶し、
     前記第2の相対位置と前記第1の相対位置とが適合することを判定することにより、前記検出標識と、前記地図データ記憶手段が前記第2の相対位置を記憶する前記標識である地図標識との適合を判定し、
     前記検出標識と前記地図標識が適合すると判定された場合、前記検出標識が表す情報を出力する
     運転支援方法。
  8.  道路の位置を表す道路データと、複数の前記地図標識に対して、当該地図標識の位置を表す座標である標識座標と、前記地図標識の対象である前記道路の各々に対する前記第2の相対位置とを前記地図データ記憶手段に記憶し、
     前記車両の位置を表す座標である車両座標を測定し、
     測定された前記車両座標から、前記道路データに含まれるいずれの前記道路を前記車両が走行するかを推定し、
     前記車両が走行すると推定された前記道路が対象である前記地図標識の各々に対して、当該地図標識の前記標識座標と前記車両座標との距離が所定距離を超えないことを判定することにより、前記検出標識と前記地図標識との適合を判定し
     前記検出標識といずれかの前記地図標識とが適合すると判定された場合、前記検出標識が表す情報を出力する
     請求項7に記載の運転支援方法。
  9.  コンピュータを、
     道路を走行する車両に搭載された撮影装置から取得された映像から、標識を検出し、検出された前記標識である検出標識が表す情報と、前記道路に対する前記検出標識の相対位置である第1の相対位置を認識する標識認識手段と、
     前記道路に対する前記標識の相対位置である第2の相対位置を記憶する地図データ記憶手段と、
     前記第2の相対位置と前記第1の相対位置とが適合することを判定することにより、前記検出標識と、前記地図データ記憶手段が前記第2の相対位置を記憶する前記標識である地図標識との適合を判定する標識位置判定手段と、
     前記検出標識と前記地図標識が適合すると判定された場合、前記検出標識が表す情報を出力する出力手段と
     して動作させる運転支援プログラムを記憶する記録媒体。
  10.  コンピュータを、
     道路の位置を表す道路データと、複数の前記地図標識に対して、当該地図標識の位置を表す座標である標識座標と、前記地図標識の対象である前記道路の各々に対する前記第2の相対位置とを記憶する前記地図データ記憶手段と、
     前記車両の位置を表す座標である車両座標を測定する位置測定手段と、
     測定された前記車両座標から、前記道路データに含まれるいずれの前記道路を前記車両が走行するかを推定する位置推定手段と、
     前記車両が走行すると推定された前記道路が対象である前記地図標識の各々に対して、当該地図標識の前記標識座標と前記車両座標との距離が所定距離を超えないことを判定することにより、前記検出標識と前記地図標識との適合を判定する前記標識位置判定手段と、
     前記検出標識といずれかの前記地図標識とが適合すると判定された場合、前記検出標識が表す情報を出力する前記出力手段と
     して動作させる前記運転支援プログラムを記憶する請求項9に記載の記録媒体。
  11.  道路を走行する車両に搭載された撮影装置から取得された映像に含まれる標識の前記道路に対する第1の相対位置を認識する標識認識手段と、
     道路に対する標識の相対位置である第2の相対位置を記憶する地図データ記憶手段と、
     前記第1の相対位置と、前記地図データ記憶手段に記憶されている、前記映像に含まれる標識及び前記車両の位置情報により特定される第2の相対位置とが適合すると判定された場合、前記映像に含まれる標識が表す情報を出力する出力手段と
     を含む情報処理装置。
  12.  道路に対する標識の相対位置である第2の相対位置を記憶する地図データ記憶手段を含む情報処理装置によって実行される方法であって、
     道路を走行する車両に搭載された撮影装置から取得された映像に含まれる標識の前記道路に対する第1の相対位置を認識し、
     前記第1の相対位置と、前記地図データ記憶手段に記憶されている、前記映像に含まれる標識及び前記車両の位置情報により特定される第2の相対位置とが適合すると判定された場合、前記映像に含まれる標識が表す情報を出力する、
     方法。
  13.  道路に対する標識の相対位置である第2の相対位置を記憶するメモリを含むコンピュータを、
     道路を走行する車両に搭載された撮影装置から取得された映像に含まれる標識の前記道路に対する第1の相対位置を認識する標識認識手段と、
     前記第1の相対位置と、前記メモリに記憶されている、前記映像に含まれる標識及び前記車両の位置情報により特定される第2の相対位置とが適合すると判定された場合、前記映像に含まれる標識が表す情報を出力する出力手段と
     して動作させるプログラムを記憶する記録媒体。
PCT/JP2014/000375 2013-01-28 2014-01-27 運転支援装置、運転支援方法、および運転支援プログラムを記憶する記録媒体 WO2014115563A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014558511A JP6241422B2 (ja) 2013-01-28 2014-01-27 運転支援装置、運転支援方法、および運転支援プログラムを記憶する記録媒体
US14/759,719 US9651393B2 (en) 2013-01-28 2014-01-27 Driving support device, driving support method, and recording medium storing driving support program
EP14743214.0A EP2950292B1 (en) 2013-01-28 2014-01-27 Driving support device, driving support method, and recording medium storing driving support program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-013312 2013-01-28
JP2013013312 2013-01-28

Publications (1)

Publication Number Publication Date
WO2014115563A1 true WO2014115563A1 (ja) 2014-07-31

Family

ID=51227355

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/000375 WO2014115563A1 (ja) 2013-01-28 2014-01-27 運転支援装置、運転支援方法、および運転支援プログラムを記憶する記録媒体

Country Status (4)

Country Link
US (1) US9651393B2 (ja)
EP (1) EP2950292B1 (ja)
JP (1) JP6241422B2 (ja)
WO (1) WO2014115563A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105599610A (zh) * 2014-11-17 2016-05-25 本田技研工业株式会社 标识信息显示***及标识信息显示方法
JP2016151967A (ja) * 2015-02-18 2016-08-22 株式会社東芝 情報処理装置、道路構造物管理システム、及び道路構造物管理方法
JP2016212693A (ja) * 2015-05-11 2016-12-15 トヨタ自動車株式会社 車両の規制速度表示装置
JP2016224715A (ja) * 2015-05-29 2016-12-28 株式会社デンソー 運転支援装置及び運転支援方法
JP2016224716A (ja) * 2015-05-29 2016-12-28 株式会社デンソー 運転支援装置及び運転支援方法
JP2017045427A (ja) * 2015-08-28 2017-03-02 株式会社東芝 走行路附属物検出装置、走行路附属物および走行路検出方法
JP2017058874A (ja) * 2015-09-15 2017-03-23 マツダ株式会社 標識認識表示装置
JP2017102665A (ja) * 2015-12-01 2017-06-08 株式会社デンソー 運転支援装置
JP2017142756A (ja) * 2016-02-12 2017-08-17 トヨタ自動車株式会社 車両用運転支援装置
JP2019536184A (ja) * 2016-12-16 2019-12-12 日立オートモティブシステムズ株式会社 交通標識情報を用いた道路検出
JP2020535541A (ja) * 2017-09-29 2020-12-03 トヨタ モーター ヨーロッパ 運転者支援のためのシステムおよび方法
CN113968229A (zh) * 2021-11-30 2022-01-25 广州文远知行科技有限公司 道路区域的确定方法、装置和电子设备

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014214713A1 (de) * 2014-07-25 2016-01-28 Conti Temic Microelectronic Gmbh Verfahren zum Betrieb eines Assistenzsystems eines Kraftfahrzeugs sowie Assistenzsystem
JP2016103249A (ja) * 2014-11-28 2016-06-02 富士通株式会社 運転支援装置および運転支援方法
WO2016093028A1 (ja) * 2014-12-08 2016-06-16 日立オートモティブシステムズ株式会社 自車位置推定装置
DE102016208025B4 (de) * 2016-05-10 2019-06-27 Continental Automotive Gmbh Verfahren zur Erfassung von Verkehrszeichen
KR101843774B1 (ko) * 2016-05-18 2018-03-30 엘지전자 주식회사 차량 운전 보조 장치 및 차량
US11130500B2 (en) * 2016-10-03 2021-09-28 Hitachi Automotive Systems, Ltd. In-vehicle electronic control apparatus
DE102016015514A1 (de) * 2016-12-23 2018-06-28 Lucas Automotive Gmbh Fahrassistenz für ein Kraftfahrzeug
WO2019185165A1 (en) * 2018-03-30 2019-10-03 Toyota Motor Europe System and method for adjusting external position information of a vehicle
US20190325237A1 (en) * 2018-04-19 2019-10-24 Here Global B.V. Method, apparatus, and system for traffic sign learning near a ramp
US11081000B2 (en) * 2018-07-12 2021-08-03 Here Global B.V. Method and system for generating heading information of vehicles
WO2020031295A1 (ja) * 2018-08-08 2020-02-13 日産自動車株式会社 自己位置推定方法及び自己位置推定装置
US10891501B2 (en) * 2019-01-28 2021-01-12 Uber Technologies, Inc. Automatically associating road sign information with road segments using image data
US11243085B2 (en) 2019-05-14 2022-02-08 Here Global B.V. Systems, methods, and a computer program product for updating map data
CN112629546B (zh) * 2019-10-08 2023-09-19 宁波吉利汽车研究开发有限公司 一种位置调节参数确定方法、装置、电子设备及存储介质
US11125575B2 (en) 2019-11-20 2021-09-21 Here Global B.V. Method and apparatus for estimating a location of a vehicle
JP2021189304A (ja) * 2020-05-29 2021-12-13 トヨタ自動車株式会社 地図データ収集装置及び地図データ収集用コンピュータプログラム
GB2599082A (en) * 2020-09-14 2022-03-30 Jaguar Land Rover Ltd Vehicle control system and method for generating speed limit signal
US11519750B2 (en) * 2020-11-20 2022-12-06 Here Global B.V. Estimating a device location based on direction signs and camera output
EP4341922A1 (en) * 2021-06-29 2024-03-27 Netradyne, Inc. Trajectory and traffic sign database system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62108396A (ja) 1985-11-07 1987-05-19 株式会社デンソー 道路標識認識装置
JPH0973700A (ja) 1995-09-08 1997-03-18 Funai Electric Co Ltd ディスクオートチェンジャー
JPH10185607A (ja) 1996-12-24 1998-07-14 Aqueous Res:Kk ナビゲーション装置
JP2000346653A (ja) * 1999-06-01 2000-12-15 Matsushita Electric Ind Co Ltd 車両走行支援方法及び車両走行支援装置
JP2002243469A (ja) 2001-02-19 2002-08-28 Alpine Electronics Inc ナビゲーション装置および地図データベース更新システム
JP2005106722A (ja) * 2003-10-01 2005-04-21 Alpine Electronics Inc ナビゲーション装置及び案内標識表示方法
JP2005128790A (ja) 2003-10-23 2005-05-19 Fuji Heavy Ind Ltd 制限速度認識装置、制限速度表示装置、速度警報装置及び速度制御装置
JP2007322283A (ja) * 2006-06-01 2007-12-13 Aisin Aw Co Ltd 描画システム
JP2010519550A (ja) * 2007-02-21 2010-06-03 テレ アトラス ノース アメリカ インコーポレイテッド 絶対座標及び相対座標を含む車両ナビゲーション及び案内のためのシステム及び方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19852631C2 (de) * 1998-11-14 2001-09-06 Daimler Chrysler Ag Vorrichtung und Verfahren zur Verkehrszeichenerkennung
US7466841B2 (en) * 2004-08-16 2008-12-16 Siemens Corporate Research, Inc. Method for traffic sign detection
EP1906339B1 (en) * 2006-09-01 2016-01-13 Harman Becker Automotive Systems GmbH Method for recognizing an object in an image and image recognition device
US7928905B2 (en) * 2008-10-26 2011-04-19 Mitac International Corp. Method of using road signs to augment global positioning system (GPS) coordinate data for calculating a current position of a personal navigation device
JP5361541B2 (ja) * 2009-06-02 2013-12-04 三菱電機株式会社 標識認識装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62108396A (ja) 1985-11-07 1987-05-19 株式会社デンソー 道路標識認識装置
JPH0973700A (ja) 1995-09-08 1997-03-18 Funai Electric Co Ltd ディスクオートチェンジャー
JPH10185607A (ja) 1996-12-24 1998-07-14 Aqueous Res:Kk ナビゲーション装置
JP2000346653A (ja) * 1999-06-01 2000-12-15 Matsushita Electric Ind Co Ltd 車両走行支援方法及び車両走行支援装置
JP2002243469A (ja) 2001-02-19 2002-08-28 Alpine Electronics Inc ナビゲーション装置および地図データベース更新システム
JP2005106722A (ja) * 2003-10-01 2005-04-21 Alpine Electronics Inc ナビゲーション装置及び案内標識表示方法
JP2005128790A (ja) 2003-10-23 2005-05-19 Fuji Heavy Ind Ltd 制限速度認識装置、制限速度表示装置、速度警報装置及び速度制御装置
JP2007322283A (ja) * 2006-06-01 2007-12-13 Aisin Aw Co Ltd 描画システム
JP2010519550A (ja) * 2007-02-21 2010-06-03 テレ アトラス ノース アメリカ インコーポレイテッド 絶対座標及び相対座標を含む車両ナビゲーション及び案内のためのシステム及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2950292A4

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105599610A (zh) * 2014-11-17 2016-05-25 本田技研工业株式会社 标识信息显示***及标识信息显示方法
JP2016151967A (ja) * 2015-02-18 2016-08-22 株式会社東芝 情報処理装置、道路構造物管理システム、及び道路構造物管理方法
US10005360B2 (en) 2015-05-11 2018-06-26 Toyota Jidosha Kabushiki Kaisha Vehicle speed limit display device
JP2016212693A (ja) * 2015-05-11 2016-12-15 トヨタ自動車株式会社 車両の規制速度表示装置
JP2016224715A (ja) * 2015-05-29 2016-12-28 株式会社デンソー 運転支援装置及び運転支援方法
JP2016224716A (ja) * 2015-05-29 2016-12-28 株式会社デンソー 運転支援装置及び運転支援方法
JP2017045427A (ja) * 2015-08-28 2017-03-02 株式会社東芝 走行路附属物検出装置、走行路附属物および走行路検出方法
JP2017058874A (ja) * 2015-09-15 2017-03-23 マツダ株式会社 標識認識表示装置
JP2017102665A (ja) * 2015-12-01 2017-06-08 株式会社デンソー 運転支援装置
JP2017142756A (ja) * 2016-02-12 2017-08-17 トヨタ自動車株式会社 車両用運転支援装置
JP2019536184A (ja) * 2016-12-16 2019-12-12 日立オートモティブシステムズ株式会社 交通標識情報を用いた道路検出
US11113545B2 (en) 2016-12-16 2021-09-07 Hitachi Automotive Systems, Ltd. Road detection using traffic sign information
JP2020535541A (ja) * 2017-09-29 2020-12-03 トヨタ モーター ヨーロッパ 運転者支援のためのシステムおよび方法
CN113968229A (zh) * 2021-11-30 2022-01-25 广州文远知行科技有限公司 道路区域的确定方法、装置和电子设备

Also Published As

Publication number Publication date
US9651393B2 (en) 2017-05-16
EP2950292A1 (en) 2015-12-02
JP6241422B2 (ja) 2017-12-06
US20150345974A1 (en) 2015-12-03
EP2950292A4 (en) 2016-11-16
EP2950292B1 (en) 2024-04-17
JPWO2014115563A1 (ja) 2017-01-26

Similar Documents

Publication Publication Date Title
JP6241422B2 (ja) 運転支援装置、運転支援方法、および運転支援プログラムを記憶する記録媒体
US9208389B2 (en) Apparatus and method for recognizing current position of vehicle using internal network of the vehicle and image sensor
US9933268B2 (en) Method and system for improving accuracy of digital map data utilized by a vehicle
EP2598842B1 (en) Guidance device, guidance method, and guidance program
EP3650814B1 (en) Vision augmented navigation
JP5304882B2 (ja) 車載情報処理装置及び情報処理方法
US20100292895A1 (en) Driving support device
WO2015096717A1 (zh) 一种定位方法及装置
US20100103040A1 (en) Method of using road signs to augment Global Positioning System (GPS) coordinate data for calculating a current position of a personal navigation device
CN111507130B (zh) 车道级定位方法及***、计算机设备、车辆、存储介质
EP1901259A1 (en) Vehicle and lane recognizing device
JP2009250718A (ja) 車両位置検出装置及び車両位置検出方法
KR101442703B1 (ko) Gps 단말기 및 gps 위치 보정 방법
KR20150144681A (ko) 전자 장치 및 그의 제어 방법
JP6759175B2 (ja) 情報処理装置および情報処理システム
CN113316706A (zh) 路标位置估计设备和方法以及存储被编程为执行该方法的计算机程序的计算机可读记录介质
CN111507129A (zh) 车道级定位方法及***、计算机设备、车辆、存储介质
JP6834914B2 (ja) 物体認識装置
KR20140064424A (ko) 차량의 위치 인식 장치 및 방법
KR20140085848A (ko) 차량 위치 기반 교통 신호 검출 시스템 및 이를 이용한 교통 신호 검출 방법
US11187815B2 (en) Method of determining location of vehicle, apparatus for determining location, and system for controlling driving
JP4220354B2 (ja) 他車位置表示装置及び他車情報提示方法
WO2020258222A1 (en) Method and system for identifying object
CN114987531A (zh) 地图生成装置
CN113168535A (zh) 一种积水深度确定方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14743214

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014558511

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14759719

Country of ref document: US

Ref document number: 2014743214

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE