WO2022018970A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2022018970A1
WO2022018970A1 PCT/JP2021/020670 JP2021020670W WO2022018970A1 WO 2022018970 A1 WO2022018970 A1 WO 2022018970A1 JP 2021020670 W JP2021020670 W JP 2021020670W WO 2022018970 A1 WO2022018970 A1 WO 2022018970A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
intersection
information
road
model
Prior art date
Application number
PCT/JP2021/020670
Other languages
English (en)
French (fr)
Inventor
洸 二宮
英彰 城戸
竜彦 門司
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Priority to CN202180037427.7A priority Critical patent/CN115917619A/zh
Priority to EP21846610.0A priority patent/EP4184479A1/en
Priority to US18/010,661 priority patent/US20230236021A1/en
Publication of WO2022018970A1 publication Critical patent/WO2022018970A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to, for example, an information processing device capable of correctly recognizing a road around an own vehicle.
  • the recognition device mounted on the vehicle can correctly recognize, for example, an intersection where roads intersect.
  • the purpose is basically to control the vehicle on a single road, so the recognition device recognizes the shape of the road using only the information obtained from sensors such as cameras mounted on the vehicle. rice field.
  • the conventional recognition device it has been difficult for the conventional recognition device to properly recognize a complicated road shape such as an intersection only by the information obtained from the sensor alone. Therefore, it has been considered that the technique disclosed in Patent Document 1 enables the recognition device to recognize a complicated road shape.
  • Patent Document 1 describes, "Road shape pattern selection means for selecting a road shape pattern based on the position of the own vehicle detected by the own vehicle position detecting means and the road map information stored in the road map information storage means.
  • a recognition device provided with a road shape recognition means for recognizing the road shape in front of the own vehicle based on the detection information of the road shape information detecting means ahead and the road shape pattern selected by the road shape pattern selection means.
  • the intersection shape in front of the own vehicle is modeled based on the map that stores the road structure, and the intersection shape is estimated by fitting the intersection model to the sensor information.
  • this technology does not take into consideration that the appearance of the intersection differs depending on the distance from the vehicle position to the intersection due to the influence of the sensor resolution.
  • an inconsistency occurs between the actual intersection shape and the intersection modeled by the recognition device (hereinafter referred to as "intersection model"). Therefore, the recognition device can substantially estimate the shape of the intersection only when the own vehicle approaches the intersection.
  • the recognition device could not effectively utilize the sensor information obtained from the sensor that observed the intersection far away from the position of the own vehicle.
  • the present invention has been made in view of such a situation, and an object of the present invention is to correctly recognize the shape of the road on which the vehicle travels.
  • the information processing device estimates the road shape of the road on which the own vehicle travels based on the map information acquired from the map information unit and the sensor information acquired from the sensor unit.
  • This information processing device is acquired from the sensor resolution characteristic management unit that manages the sensor resolution characteristics of the sensor unit and the sensor resolution characteristic management unit according to the distance from the vehicle's own vehicle position to the position where the road shape changes.
  • An appearance prediction unit that predicts the appearance of the road according to the distance based on the sensor resolution characteristics, and a model generation unit that generates a road model that models the road based on the appearance of the road predicted by the appearance prediction unit.
  • the appearance of the road according to the distance from the own vehicle is predicted based on the sensor resolution characteristic, and the road model is generated, so that the shape of the road on which the vehicle travels can be correctly recognized. Issues, configurations and effects other than those described above will be clarified by the following description of the embodiments.
  • FIG. 14A is a table showing the types of roads and the types of roads of types 1 to 4 defined for each region.
  • FIG. 14B is a table showing the types of roads and the grades of roads defined by the planned daily traffic volume for the topography of the area. It is a table showing an example of the classification of roads defined in the Road Structure Ordinance and the lane width of ordinary roads. It is a table showing an example of the classification of roads defined in the Road Structure Ordinance and the width of the shoulder of ordinary roads.
  • FIG. 17A is a table storing information on the number of lanes on each side, the lane width, and the roadside zone according to the type and type of road.
  • FIG. 17B is a table storing information on the number of lanes on each side, the lane width, the design speed, and the roadside zone according to the grade of the road.
  • FIG. 18A is a table storing information on the number of lanes on each side, the lane width, the design speed, and the roadside zone according to the type of road.
  • FIG. 18A is a table storing information on the number of lanes on each side, the lane width, the design speed, and the roadside zone according to the type of road.
  • 18B is a table storing information on the number of lanes on each side, the lane width, the design speed, and the roadside zone according to the speed limit. It is a figure which shows the detailed structure of the intersection which concerns on one Embodiment of this invention, and the example of the intersection model. It is a figure which shows the example of the 1st model and the 2nd model generated from the detailed structure of the intersection which concerns on one Embodiment of this invention. It is a figure which shows the example of the 1st model and the 2nd model generated for each type of intersection which concerns on one Embodiment of this invention.
  • FIGS. 1 to 9 are drawings for explaining an internal configuration example of the information processing apparatus according to the present embodiment, and FIGS. 10 and 10 and thereafter explain the operation of each functional unit constituting the information processing apparatus. It is a drawing to do.
  • FIGS. 14 to 18 show information such as the type of road specified in the Road Structure Ordinance of Japan.
  • components having substantially the same function or configuration are designated by the same reference numerals, and duplicate description will be omitted.
  • FIG. 1 is a block diagram showing an overall configuration example of the information processing apparatus 1.
  • the information processing device 1 according to the present embodiment is mounted on a vehicle (not shown).
  • the vehicle on which the information processing device 1 is mounted is referred to as a "own vehicle”.
  • the information processing device (information processing device 1) is a road on which the own vehicle travels based on the map information acquired from the map information unit (map information unit 200) and the sensor information acquired from the sensor unit (sensor unit 100). Estimate the road shape of.
  • the information processing device 1 utilizes sensor information obtained from an in-vehicle sensor mounted on the vehicle (hereinafter, abbreviated as "sensor”) and information on a map that stores the road structure in the vicinity of the vehicle. It is possible to recognize a certain road, etc. and specify the position of the own vehicle. Further, the information processing apparatus 1 can estimate a complicated road shape such as an intersection by utilizing the sensor information obtained from the sensor and the map in which the road structure is stored. For example, the road whose road shape is estimated by the information processing device 1 in the present embodiment is an intersection.
  • This information processing device 1 includes a sensor unit 100, a map information unit 200, an intersection information processing unit 300, an intersection shape estimation unit 400, an intersection consistency determination unit 500, and a display / alarm / control unit 600.
  • the sensor unit 100 for example, an in-vehicle front sensor capable of observing an object, a road, or the like in the front direction of the vehicle is used.
  • the stereo camera is described as an example of the front sensor, but the sensor may be, for example, a monocular camera or Lidar (Laser Imaging Detection and Ringing).
  • the sensor unit 100 outputs the information in front of the vehicle observed by the sensor to the intersection information processing unit 300 as sensor information.
  • the map information unit 200 stores map information including information on the road on which the vehicle travels (map, road type, road structure order, etc.).
  • the information stored by the map information unit 200 may be, for example, map information used in a car navigation system mounted on a vehicle, or map information obtained by wireless communication from the Internet. These map information are stored in a large-capacity storage medium such as an HDD (Hard Disk Drive) or SSD (Solid State Drive) mounted on the vehicle, for example.
  • the map information that can be acquired by the map information unit 200 may represent a simple road shape, but the sensor information that is the sensor information obtained by sensing the observation range by the sensor unit 100 is saved and updated. It also retains the function to do.
  • the intersection information processing unit 300 acquires the map information in a certain section held by the map information unit 200. Next, the intersection information processing unit 300 analyzes the position where the own vehicle travels in this section and the traveling direction of the own vehicle, and acquires the intersection information of the intersection existing in front of the own vehicle from the map information unit 200. .. Then, the intersection information processing unit 300 performs intersection information processing for generating an intersection model from the acquired intersection information using the default lane width, the road shoulder position, and the like.
  • the intersection model is a representation of the shape of an intersection with a mathematical formula or a point cloud.
  • the intersection information processing unit 300 If the map information includes information such as the number of lanes, the intersection information processing unit 300 generates an intersection model using the information such as the number of lanes. Further, if the map information does not include information such as the number of lanes, the intersection information processing unit 300 generates an intersection model after determining a default number of lanes based on the upper limit vehicle speed information in the map information. .. The intersection information processing unit 300 may acquire information on the intersection model based on the sensor information obtained by sensing by the sensor in the past.
  • the road shape estimation unit estimates the road shape (intersection shape) based on the road model (intersection model) and sensor information, and outputs the estimation result. For example, the intersection shape estimation unit 400 performs estimation processing for recognizing the intersection shape by using the sensor information obtained from the sensor unit 100 for the intersection model generated by the intersection information processing unit 300. Therefore, the intersection shape estimation unit 400 recognizes and processes road shapes such as lanes and roadsides according to the intersection model predicted by the intersection information processing unit 300 and the amount of error of the sensor used in the sensor unit 100. By dynamically changing the area etc., the intersection shape is recognized more stably and with high accuracy.
  • the consistency determination unit determines the consistency between the sensor information acquired from the sensor unit 100 and the estimation result acquired from the intersection shape estimation unit 400, and outputs the determination result. Therefore, the intersection consistency determination unit 500 acquires the processing result including the intersection shape estimated by the intersection shape estimation unit 400. Then, the intersection consistency determination unit 500 determines and determines the consistency between the intersection model used by the intersection shape estimation unit 400 for estimating the intersection shape and the sensor information acquired from the sensor unit 100 by the intersection shape estimation unit 400. Output the result. At this time, the consistency determination unit (intersection consistency determination unit 500) uses the road model (intersection model) in which the road shape (intersection shape) is estimated and the accuracy information, and compares the accuracy information with a predetermined threshold value.
  • the accuracy information is information indicating how much the sensor information and the road model (intersection model) match when the sensor information and the road model (intersection model) are fitted, for example. , Expressed as reliability. Therefore, if the accuracy information is higher than a predetermined threshold value, the sensor information and the road model (intersection model) are sufficiently matched, so that the sensor information and the estimation result acquired from the intersection shape estimation unit 400 are used. The determination result that is consistent is obtained.
  • the intersection information processing unit 300 refers to the map information unit 200 based on the position of the own vehicle and generates an intersection model in front of the own vehicle. Therefore, if the position of the own vehicle is incorrect, the intersection information processing unit 300 acquires the intersection information different from the intersection in front of the own vehicle from the map information unit 200. For example, when the intersection information processing unit 300 considers that a cross intersection exists in front of the own vehicle based on the intersection information acquired from the map information unit 200, it generates a cross-shaped intersection model. However, when the T-shaped intersection is actually in front of the vehicle, the intersection shape estimation unit 400 acquires the sensor information output by the sensor observing the T-shaped intersection from the sensor unit 100. A situation can occur.
  • the intersection consistency determination unit 500 determines whether or not there is a contradiction between the generated intersection model and the sensor information of the sensor unit 100. For example, when the intersection information acquired from the map information unit 200 is regarded as correct, the intersection consistency determination unit 500 can determine that the sensor information of the sensor unit 100 is defective. Such a determination process is called "consistency determination". Note that the map information managed by the map information unit 200 is old, and the sensor information actually observed by the sensor unit 100 is new, so that the map information and the sensor information may not match. In this case, it is not possible to unconditionally determine that the sensor information is defective.
  • the consistency determination unit connects the road model (intersection model) estimated by the road shape estimation unit (intersection shape estimation unit 400) with the road width and road structure indicated by the map information. By comparing the relationships, the consistency between the sensor information and the estimation result is determined. For example, when the intersection consistency determination unit 500 can acquire the intersection model as the estimation result from the intersection shape estimation unit 400, the intersection model and the sensor information are obtained based on the information such as the road width and the road connection relationship of the acquired intersection model. To determine the consistency of.
  • intersection consistency determination unit 500 may directly acquire the intersection model generated by the intersection information processing unit 300 and use this intersection model for the consistency determination (connection form shown by the broken line in FIG. 1). Further, the intersection consistency determination unit 500 may perform the consistency determination by comparing the map information acquired from the map information unit 200 with the intersection model of the estimation result in which the intersection shape is estimated. Further, when the intersection consistency determination unit 500 can obtain the reliability of the estimation result from which the intersection shape is estimated from the intersection shape estimation unit 400, the intersection consistency determination unit 500 may perform the consistency determination using the reliability. Then, the consistency determination unit (intersection consistency determination unit 500) saves the result of the consistency determination of the intersection on which the own vehicle has traveled in the past.
  • the display / alarm / control unit 600 acquires the result of the intersection shape estimation unit 400 and displays the recognition result.
  • the display / warning / control unit 600 displays driving support information to the driver of the own vehicle, provides warnings for safety support, vehicle control, automatic driving support, and the like.
  • the display / alarm / control unit 600 may display or give a warning of the determination result of the intersection consistency determination unit 500. Therefore, the display / alarm / control unit 600 is composed of a display device for displaying various information, a speaker for emitting an alarm, and the like.
  • FIG. 2 is a block diagram showing a configuration example of the sensor unit 100.
  • the sensor unit 100 includes a left camera 101, a right camera 102, a matching unit 103, and a 3D point cloud unit 104.
  • the sensor unit 100 includes an in-vehicle front sensor.
  • a stereo camera composed of the left camera 101 and the right camera 102 will be described as an example of the front sensor.
  • an embodiment of a stereo camera will be described.
  • the sensing method for measuring the distance to an object using a stereo camera is performed by the following procedure.
  • the left camera 101 and the right camera 102 installed at two different positions in front of the vehicle body output the left image and the right image taken within the range of each angle of view.
  • the matching unit 103 identifies the image position of the same object in the left image and the right image by matching.
  • the matching unit 103 identifies the image position of the same object, and then identifies the difference in the positions of the left and right images when the same object is photographed by the left camera 101 and the right camera 102. Measure the distance from the position where the stereo camera is mounted to the object.
  • the position where the left camera 101 and the right camera 102 are installed is set as the tops of both ends of the base of the triangle, and the triangle whose apex is the position of the same object on the image is specified by triangulation.
  • the 3D point cloud unit 104 obtains a large number of 3D point clouds by repeatedly performing a 3D point restoration process on the same object.
  • the 3D point cloud unit 104 outputs the three-dimensional position of the object represented by the 3D point cloud to the intersection shape estimation unit 400.
  • FIG. 3 is a block diagram showing a configuration example of the map information unit 200.
  • the map information unit 200 has a function of holding map information about the road and specifying the position of the own vehicle on the map.
  • the map information unit 200 according to the present embodiment includes a general-purpose map data unit 201, a GNSS (Global Navigation Satellite System) unit 202, a sensing detailed map storage unit 203, and a sensing detailed map updating unit 204.
  • GNSS Global Navigation Satellite System
  • the general-purpose map data unit 201 uses a map owned by a car navigation system that expresses a road network with nodes and links as general-purpose map data.
  • the general-purpose map data unit 201 does not have to be limited to the map owned by the car navigation system.
  • a map that is open to the public for free on the Internet may be used, or a commercial map that can be accessed via a server may be used.
  • the general-purpose map data unit 201 is data including a node indicating a position on a map and a link connecting the nodes to form a road network. Then, the general-purpose map data unit 201 expresses the road network based on this node and the link information.
  • the GNSS unit 202 identifies the position of the own vehicle in the road network composed of the node and the link information represented by the general-purpose map data unit 201 by using the GNSS information. Further, this GNSS information may be used for correcting the position of the own vehicle by using other sensors such as a camera, a radar, a gyro, and the behavior of the own vehicle.
  • the sensing detailed map storage unit 203 is enhanced by information reinforced by the sensing of the sensor unit 100, such as lane width, road angle, number of lanes, distance from the outermost lane to the shoulder, and road shape, which are not found in general-purpose maps.
  • the created map is saved as sensing detailed map data (referred to as "sensing detailed map data").
  • the sensing detailed map data updated by the sensing detailed map storage unit 203 is added to the general-purpose map data managed by the general-purpose map data unit 201.
  • the sensor unit 100 uses the general-purpose map data to which the sensing detailed map data is added, and when the own vehicle passes the same road next time, the sensor unit 100 uses the sensing detailed map saved during the previous driving. Sensing. As a result, the sensor unit 100 enables more accurate and stable sensing.
  • the sensing detailed map update unit 204 has a function of updating the stored general-purpose map data with the sensing detailed map data, for example, when the general-purpose map data is old or the road is closed due to temporary construction. Has.
  • This update function is performed by using the sensor information output by the sensor unit 100. With this update function, information such as new roads that do not exist in the general-purpose map data will be added to the general-purpose map data. In addition, even for roads that were previously passable, if this road cannot be passed, the sensing detailed map data updated to be impassable is saved in the sensing detail map storage unit 203, and then a general-purpose map. The data is updated.
  • the sensing detailed map updating unit 204 does not decide to update the general-purpose map data only once the vehicle travels on the road, but only saves it as sensing detailed map data in the sensing detailed map storage unit 203. Therefore, after the sensor unit 100 repeatedly senses that the vehicle is impassable, the sensing detailed map updating unit 204 determines that the road is impassable, and finally obtains the sensing detailed map data. Use to update general-purpose map data. The determination of such update processing is the same for new roads that are not stored in the general-purpose map data. That is, the sensing detailed map updating unit 204 temporarily registers the information of the new road sensed by the sensor unit 100 in the sensing detailed map data at first, but does not register it as the final map data. The sensing detailed map update unit 204 confirms that the vehicle is a reliable road by passing through the road several times, and then uses the sensing detailed map data including the new road as the final map data for general purpose. Register additionally to the map data.
  • FIG. 4 is a block diagram showing a configuration example of the intersection information processing unit 300.
  • the intersection information processing unit 300 is based on the intersection information of the intersection existing in front of the own vehicle acquired from the map information unit 200 and the sensor resolution characteristic according to the sensor acquired from the sensor resolution characteristic storage unit 312. Predict the appearance of the intersection and generate an intersection model corresponding to the predicted appearance.
  • the intersection information processing unit 300 includes a sensor resolution characteristic management unit 310, an intersection appearance prediction unit 320, and an intersection model generation unit 330.
  • the sensor resolution characteristic management unit (sensor resolution characteristic management unit 310) manages the sensor resolution characteristics of the sensor unit (sensor unit 100) according to the distance from the position of the own vehicle to the position where the road shape changes. ..
  • the sensor resolution characteristic management unit 310 acquires the distance from the vehicle position to the intersection and the environmental information that affects the sensor resolution characteristic of the sensor, and predicts the sensor resolution characteristic according to the acquired environmental information at the intersection appearance.
  • the sensor resolution characteristic management unit 310 includes an environmental information acquisition unit 311 and a sensor resolution characteristic storage unit 312.
  • the sensor resolution characteristic management unit has an environmental information acquisition unit (environmental information acquisition unit 311) that acquires environmental information that affects the limit distance.
  • the environmental information acquisition unit 311 has a function of acquiring environmental information that affects the sensor resolution characteristics and the observation limit of the sensor. For example, in the case of a sensor that observes a luminance value such as a stereo camera or a monocular camera, the visibility of an intersection changes depending on the change in the illuminance of the environment. In this way, the difficulty level of the sensor observing the object differs depending on the environmental conditions, so the time related to the change in the illuminance of the environment is acquired as environmental information.
  • the environmental information acquisition unit 311 may acquire the weather information as the environmental information.
  • the environmental information acquisition unit 311 determines the operating status of the headlights. It may be acquired as information.
  • the environmental information acquisition unit 311 may acquire the operating status of the streetlight as environmental information.
  • the environmental information acquisition unit 311 may acquire information on obstacles around the own vehicle.
  • the sensor resolution characteristic management unit stores the limit distance at which the sensor unit (sensor unit 100) can observe the unique shape of the road as the sensor resolution characteristic. It has a storage unit 312).
  • the sensor resolution characteristic storage unit 312 stores the distance at which the road width on the side of the intersection can be observed, the distance at which the curve of the lane in which the own vehicle travels can be observed, and the like as the sensor resolution characteristic.
  • the sensor resolution characteristic management unit reads out the sensor resolution characteristics according to the environmental information from the sensor resolution characteristic storage unit (sensor resolution characteristic storage unit 312), and the appearance prediction unit (intersection appearance prediction). Output to unit 320).
  • FIG. 10 is a diagram showing an example of sensor information at a cross intersection.
  • the mark 31 near the center of each figure represents the center position (the position where the two roads intersect) of the cross intersection sensed by the sensor.
  • intersection information processing unit 300 cannot accurately capture the width of the road that branches to the left and right based on the sensor information.
  • the sensor resolution characteristic storage unit 312 stores the limit distance (hereinafter referred to as "first distance") at which the sensor unit 100 can observe the road width on the side of the intersection that branches to the left and right as the sensor resolution characteristic.
  • first distance the limit distance at which the sensor unit 100 can observe the road width on the side of the intersection that branches to the left and right as the sensor resolution characteristic.
  • the sensor resolution characteristic storage unit 312 uses the sensor type of the sensor used to recognize the shape of the intersection or the road and the map information.
  • the first distance can be calculated by combining it with the road width information acquired from the unit 200.
  • the map information unit 200 does not include road width information but instead contains information on the type and grade of the road specified by the Road Structure Ordinance, it is based on this type and grade information.
  • the first distance may be calculated by using the specified values of the lane width and the distance to the road shoulder specified in the Road Structure Ordinance as road width information. Further, when the sensor resolution characteristic storage unit 312 stores the road width information acquired when the vehicle has traveled before, the first distance may be calculated using this road width information.
  • the sensor resolution characteristic storage unit 312 may store the observation limit distance of the sensor as the sensor resolution characteristic.
  • the observation range of the sensor is narrowed in a low-light environment. For example, when the observation range of the sensor is narrowed at night or in bad weather, sensor information indicating that the sensor can observe only in the vicinity of the own vehicle can be obtained as shown in the explanatory diagram (c) of FIG. For this reason, the state of the intersection in the distance of the own vehicle cannot be observed.
  • the observation limit distance according to the change in illuminance in the environment greatly affects the appearance of the intersection, so the relationship between the change in illuminance and the second distance is a sensor resolution characteristic. It may be stored in the storage unit 312. On the other hand, even in a low-light environment, the second distance becomes long when the headlights are operating or the streetlights near the intersection are lit. Therefore, the sensor resolution characteristic storage unit 312 may store a second distance in consideration of the operating status of the street light and the lighting status of the street light, or information indicating these situations may be stored together with the second distance. ..
  • the sensor resolution characteristic storage unit 312 may store the position and size of the obstacle acquired by the environmental information acquisition unit 311. For example, suppose that there is a car parked on the street in front of an intersection as an obstacle. In this case, as shown in the explanatory diagram (d) of FIG. 10, an intersection partially shielded by an obstacle is observed by the sensor.
  • the shielding range 32 (the area shaded in the figure) in which the obstacle shields the intersection or the road is determined by the position and size of the obstacle. Therefore, the sensor resolution characteristic storage unit 312 may store information indicating the shielding range 32 or the position and size of the obstacle.
  • intersection appearance prediction unit 320 predicts the appearance of the road according to the distance based on the sensor resolution characteristics acquired from the sensor resolution characteristic management unit (sensor resolution characteristic management unit 310). For example, the intersection appearance prediction unit 320 predicts the appearance of the intersection observed by the sensor based on the sensor resolution characteristic input from the sensor resolution characteristic management unit 310.
  • the intersection appearance prediction unit 320 includes a vehicle position specifying unit 321, an intersection information analysis unit 322, and a model selection unit 323.
  • FIG. 5 is a block diagram showing a configuration example of the own vehicle position specifying unit 321.
  • the own vehicle position specifying unit (own vehicle position specifying unit 321) specifies the own vehicle position on the map included in the map information.
  • the own vehicle position specifying unit 321 includes a GNSS error analysis unit 3211, a sensor error analysis unit 3212, and a time series integrated correction unit 3213.
  • the GNSS error analysis unit 3211 performs error analysis of the position of the own vehicle by utilizing the behavior of the own vehicle and the GNSS information acquired by the navigation system (not shown).
  • the GNSS error analysis unit 3211 analyzes an error (GNSS error) while comparing which part of the map the own vehicle is traveling with the map information.
  • the error information which is the analysis result, is used for more accurate correction of the vehicle position. Therefore, the GNSS error analysis unit 3211 outputs the analyzed error information to the time series integrated correction unit 3213.
  • the sensor error analysis unit 3212 uses information obtained from sensors such as an inertial sensor (gyro), a camera, millimeter wave, and lidar to make errors in the vertical and horizontal positions of the vehicle's position on the map (sensor error). To analyze. Then, the sensor error analysis unit 3212 outputs error information to the time series integrated correction unit 3213.
  • sensors such as an inertial sensor (gyro), a camera, millimeter wave, and lidar to make errors in the vertical and horizontal positions of the vehicle's position on the map (sensor error). To analyze. Then, the sensor error analysis unit 3212 outputs error information to the time series integrated correction unit 3213.
  • the time-series integrated correction unit 3213 corrects the position of the own vehicle on the map by using the error information acquired from the GNSS error analysis unit 3211 and the sensor error analysis unit 3212. However, if the time-series integrated correction unit 3213 corrects the vehicle position based on the GNSS error or sensor error from the instantaneous judgment result, the vehicle position is updated with uncertain information or the position is unstable. It is easy to become. Therefore, the time-series integrated correction unit 3213 analyzes the error in the time series and integrates the analysis results to perform stable error correction.
  • FIG. 6 is a block diagram showing a configuration example of the intersection information analysis unit 322.
  • the road information analysis unit represents a road shape (intersection shape) existing in front of the vehicle in the traveling direction based on the specified vehicle position and map information. Obtain information (intersection information) and analyze road shape information (intersection information).
  • the intersection information analysis unit 322 analyzes the intersection information acquired from the map information unit 200.
  • the intersection information analysis unit 322 includes a travel path data reading unit 3221 and a basic shape analysis unit 3222.
  • the intersection information analysis unit 322 first reads the map information corresponding to the travel path of the own vehicle, and reads the data including the node and link information shown at the upper part of FIG. 11 to be described later in the travel path data reading unit 3221. Let me.
  • FIG. 11 is a diagram showing an example of the basic structure of an intersection.
  • An example of the map and the position of the own vehicle is shown in the upper part of FIG. 11, and an example of the shape of the intersection predicted from the basic structure of the intersection of the Y-shape, the T-shape, and the cross is shown in the lower part of FIG.
  • a roughly divided map area where the vehicle is located is shown.
  • the map area is divided into 5 km squares.
  • the traveling path data reading unit 3221 reads, for example, the data of the node and the link information existing in the 5 km square where the own vehicle exists from the map information unit 200.
  • the node and link information data shown in the basic structure is used to recognize the road (referred to as "travel path") existing in the traveling direction of the own vehicle from the map.
  • the basic shape analysis unit 3222 shown in FIG. 6 acquires the basic structure composed of the nodes of the intersections around the vehicle and the link information read by the travel path data reading unit 3221 from the travel path data reading unit 3221. Further, the basic shape analysis unit 3222 predicts the intersection shape of the intersection existing in front of the own vehicle according to the analysis result of the own vehicle position and the own vehicle traveling path.
  • the basic shape analysis unit 3222 tells that the intersection in front of the vehicle is a crossroad and that the intersection is up to the crossroad. Predict the distance from the vehicle position.
  • the basic shape analysis unit 3222 selects that the basic structure of the intersection in front of the own vehicle is a cross from the intersections represented by the plurality of basic structures.
  • the basic structure of the Y-shaped and T-shaped intersections other than the cross is grayed out.
  • the model selection unit (model selection unit 323) is a model generation unit (model generation unit) based on the sensor resolution characteristics acquired from the sensor resolution characteristic management unit (sensor resolution characteristic management unit 310) based on the road shape information and the sensor information.
  • the intersection model generation unit 330) selects a model that can be generated.
  • the model selection unit 323 has a high resolution model or a low resolution based on the intersection information of the intersection existing in front of the vehicle acquired from the map information unit 200 and the sensor resolution characteristics acquired from the sensor resolution characteristic storage unit 312. Which of the models is to be used is selected, and the selection result is output to the intersection model generation unit 330.
  • the high-resolution model is a model used when it is estimated that the lateral road width can be detected by using the sensor information of the sensor unit 100, and is referred to as a "first model” in the following description.
  • the low-resolution model is a model used when it is estimated that the lateral road width cannot be detected using the sensor information of the sensor unit 100, and is referred to as a "second model” in the following description.
  • the model selection unit 323 first acquires the intersection type in front of the own vehicle from the intersection information analysis unit 322. Next, the model selection unit 323 acquires the first distance managed by the sensor resolution characteristic management unit 310 based on the acquired intersection type. After that, the model selection unit 323 compares the distance from the own vehicle position to the intersection acquired from the intersection information analysis unit 322 with the first distance. Then, when the model selection unit 323 determines that the distance from the vehicle position to the intersection is shorter than the first distance and the sensor can observe the road width on the side of the intersection, the model selection unit 323 selects the first model.
  • the model selection unit 323 determines that the distance from the vehicle position to the intersection is larger than the first distance and the sensor cannot observe the road width on the side of the intersection.
  • the model selection unit 323 selects the second model.
  • the model selection unit 323 outputs the selection result to the intersection model generation unit 330.
  • the model selection unit 323 does not switch only one of the first model or the second model by comparing the distance from the own vehicle position to the intersection with the first distance, but three or more models. May be switched and used.
  • FIG. 12 is a diagram showing an example in which the model selection unit 323 switches and uses a plurality of models.
  • a variable model that can treat a plurality of models as one model is called a "third model”.
  • the model selection unit 323 selects the third model, a plurality of models that can be switched as follows are generated by the intersection model generation unit 330.
  • intersection model generation unit 330 generates a cross intersection farther than the first distance from the position of the own vehicle as a model shown in the explanatory diagram (a) of FIG.
  • the intersection model generation unit 330 generates a cross intersection at a position equal to or less than the first distance from the position of the own vehicle as a model shown in the explanatory diagram (b) of FIG.
  • the intersection model generation unit 330 generates a cross intersection in the vicinity of the own vehicle as a model shown on the right side of the explanatory diagram (c) of FIG. This model shows that the boundaries of the roads that make up the crossroads are clear.
  • the model selection unit 323 outputs the selection result that the third model is selected and the size of the road width on the side of the intersection observed by the sensor to the intersection model generation unit 330.
  • the intersection model generation unit 330 generates an intersection model that continuously changes in the order of the explanatory views (a), (b), and (c) of FIG.
  • the intersection model generated by the intersection model generation unit 330 continuously changes as the own vehicle approaches the intersection.
  • the model selection unit 323 uses the acquired second distance as an intersection model together with the selection result of whether to use the first model or the second model. It may be output to the generation unit 330.
  • the intersection model generation unit 330 can generate a first model or a second model based on the second distance.
  • the model selection unit 323 may output the obstacle information to the intersection model generation unit 330 when the obstacle information around the own vehicle can be acquired from the sensor resolution characteristic management unit 310. By using the obstacle information, the intersection model generation unit 330 grasps that the sensor cannot accurately observe the front of the own vehicle at the present time because there is an obstacle in the observation range of the sensor.
  • intersection model generation unit 330 generates a road model (intersection model) that models the road based on the appearance of the road predicted by the appearance prediction unit (intersection appearance prediction unit 320).
  • the intersection model generation unit 330 acquires the intersection information acquired from the intersection information analysis unit 322 and the information of the model selected by the model selection unit 323, and uses the sensor resolution characteristics acquired from the sensor resolution characteristic management unit 310. Generate the corresponding intersection model.
  • the intersection model generation unit 330 includes a model addition information acquisition unit 331, a model addition information update unit 332, a high-resolution model generation unit 333, and a low-resolution model generation unit 334.
  • FIG. 13 is a diagram showing an example of the basic structure of the intersection model and the detailed structure of the restored intersection model.
  • a cross intersection is shown as an example of the basic structure of the intersection. It is assumed that the basic structure of the cross intersection is predicted by, for example, the analysis process of the basic shape analysis unit 3222 shown in FIG.
  • the intersection model generation unit 330 shown in FIG. 4 acquires the basic structure of the intersection shown on the upper side of FIG. 13 from the intersection information analysis unit 322.
  • the model additional information acquisition unit 331 acquires additional information (road width, angle, etc.) and adds additional information to the basic structure represented by the node and link information, so that the detailed structure of the intersection shown at the lower side of FIG. 13 is obtained. To restore.
  • the lower part of FIG. 13 shows how the detailed structure of the intersection model is restored by adding the default value or the sensing value acquired up to the previous time to the basic structure of the intersection.
  • the default value or the sensing value acquired up to the previous time includes, for example, the number of lanes, the lane width, the shoulder position, and the intersection angle.
  • an intersection model in which the road shoulder position is 1.6 m, the lane width is 3.0 m, one side has three lanes, the road shoulder intersection angle and the white line intersection angle are 90 degrees is generated. ..
  • the model additional information acquisition unit 331 acquires additional information from the map information unit 200. However, depending on the map information used by the map information unit 200, detailed additional information such as the number of lanes, the lane width, the angles between roads, and the distance from the lane to the shoulder may not be acquired. If the model additional information acquisition unit 331 cannot acquire these information even partially, the intersection model generation unit 330 uses the default information.
  • This default information may also be fixed information that is always constant, for example, two lanes, a lane width of 3 m, a road shoulder of 1.5 m, etc., but a default based on information such as the type and grade of the road in the map information unit 200. You may set a value and generate additional model information.
  • the intersection model generation unit 330 uses indirect information to set a default value according to the road condition.
  • the intersection model generation unit 330 restores a more accurate detailed road shape by switching and using the default value set according to the road condition, rather than using a fixed default value, and uses it for sensor observation. can do.
  • FIG. 14 is a table showing an example of information on road types and road grades defined in the Road Structure Ordinance.
  • FIG. 14A is a table showing the types of roads and the types of roads of types 1 to 4 defined for each region.
  • FIG. 14B is a table showing road grades defined by the planned daily traffic volume (vehicles / day) for the type of road and the topography of the area.
  • intersection model generation unit 330 uses the specified value defined in the Road Structure Ordinance as the default value based on the road type and grade information acquired from the map information unit 200 to obtain a detailed road shape.
  • the intersection model may be restored with high accuracy.
  • FIG. 15 is a table showing an example of the type classification of roads defined in the Road Structure Ordinance and the lane width of ordinary roads.
  • the road grade one or more of the first to fourth grades
  • the lane width of the ordinary road is defined as a specified value for each type of road. Therefore, it is assumed that the road type classification shown in FIG. 15 and the information on the lane width of the ordinary road are stored in the map information unit 200.
  • the intersection model generation unit 330 is detailed by using the specified value defined in the Road Structure Ordinance as the default value based on the road classification acquired from the map information unit 200 and the lane width of the ordinary road. The intersection model of a road shape may be restored with high accuracy.
  • FIG. 16 is a table showing an example of the classification of roads defined in the Road Structure Ordinance and the width of the shoulder of an ordinary road.
  • the road grade one or more of the first grade to the fifth grade
  • the width of the shoulder provided on the left side of the ordinary road and the width of the shoulder provided on the right side of the ordinary road are defined as specified values for each type of road. Therefore, it is assumed that the information on the classification of the road shown in FIG. 16 and the width of the shoulders on the left and right sides of the ordinary road is stored in the map information unit 200.
  • the intersection model generation unit 330 uses the specified value as the default value based on the road type classification acquired from the map information unit 200 and the width of the shoulder of the ordinary road, so that the detailed road shape can be obtained.
  • the intersection model may be restored with high accuracy.
  • the map information unit 200 may not have information such as the type and grade of the road shown in FIGS. 14 to 16. Therefore, the intersection model generation unit 330 may not be able to refer to the default value defined according to the information such as the type and grade of the road from the map information unit 200. Therefore, the intersection model generation unit 330 may restore an intersection model having a detailed road shape by switching the default value according to the road based on another information held by the map information unit 200. .. This example will be described with reference to FIGS. 17 and 18.
  • FIG. 17 is a table showing an example of road information corresponding to the type and type of road or the grade of road.
  • the map information unit 200 does not have information such as the direct lane width, the number of lanes, and the road shoulder for the intersection model generation unit 330 to generate the intersection model, and further, the road type or grade information. It is represented as an alternative example used when either one is missing.
  • FIG. 17A is a table storing information on the number of lanes on each side, the lane width, and the roadside zone according to the type and type of road.
  • the information stored in the table of FIG. 17A is useful in predicting a rough road width and number of lanes. Therefore, the intersection model generation unit 330 can accurately predict the road information and restore the intersection model as compared with the case where there is no information at all.
  • FIG. 17B is a table storing information on the number of lanes on each side, lane width, design speed, and roadside zone according to the grade of the road.
  • the table in FIG. 17B has only road grade information and no type information.
  • the table of FIG. 17B alone cannot express the detailed standard of the Road Structure Ordinance with one-dimensional type information.
  • the information stored in the table of FIG. 17B is useful in predicting a rough road width and number of lanes. Therefore, the intersection model generation unit 330 can accurately predict the road information and restore the intersection model as compared with the case where there is no information at all.
  • FIG. 18 is a table showing an example of road information corresponding to the type of road or the speed limit.
  • the map information unit 200 does not have information such as the direct lane width, the number of lanes, and the road shoulder for the intersection model generation unit 330 to generate the intersection model, and further, the road type and grade information are not included. It is represented as an alternative example used when there is no such thing.
  • FIG. 18A is a table storing information on the number of lanes on each side, lane width, design speed, and roadside zone according to the type of road. There is no road type or grade information in the table of FIG. 18A, but the road type is roughly stored. That is, in the table of FIG. 18A, default values are set according to the type of road. According to the table of FIG. 18A, the information for the intersection model generation unit 330 to generate the intersection model is appropriately set by the default value (fixed value) according to the type of the road on which the vehicle is traveling. Further, a default value for each detailed road shape is set in a table (not shown) that can be referred to by the intersection model generation unit 330.
  • intersection model generation unit 330 preferentially uses the information stored in the general-purpose map and uses only the missing information. The accuracy of the intersection model will be improved by using the default value according to the situation.
  • FIG. 18B is a table storing information on the number of lanes on each side, the lane width, the design speed, and the roadside zone according to the speed limit. Also in the table of FIG. 18B, there is no information on the road type and grade, but the default value according to the speed limit is set. According to the table of FIG. 18B, the information for the intersection model generation unit 330 to generate the intersection model is appropriately set by the default value according to the speed limit of the road on which the vehicle is traveling. Then, the default value for each detailed road shape is set in the table.
  • the intersection model generation unit 330 may dynamically switches the default value according to the speed limit based on the table shown in the table of FIG. 18B.
  • the intersection model generation unit 330 may be a method of indirectly dynamically setting the number of lanes, the lane width, the distance of the roadside zone, and the like according to the condition of the road on which the own vehicle travels.
  • intersection model generation unit 330 Even if the intersection model generation unit 330 cannot obtain the information based on the tables shown in FIGS. 14 to 18, the information received by the map information unit 200 by communication, the map information possessed by the map information unit 200, or the sensor.
  • the limited vehicle speed of the road may be obtained by any of the sensor information by the unit 100.
  • the intersection model generation unit 330 may generate an intersection model by using a table that can refer to the default value of the road according to the obtained limited vehicle speed. Further, when the intersection model generation unit 330 cannot obtain any information of the information received by communication, the map information, and the sensor information, the intersection model may be generated by setting a completely fixed default value.
  • FIG. 7 is a block diagram showing a configuration example of the model additional information update unit 332.
  • the model additional information update unit 332 determines whether or not the sensor information acquired up to the previous time may be used when the vehicle travels in the same place, based on the reliability of the sensor information. In making this determination, sensor information obtained by observation by the sensor unit 100, such as roadsides and lanes of the road on which the own vehicle has traveled in the past, and undulation information of the road, is used. Here, if the reliability of the sensor information is lower than a certain threshold value, the model additional information update unit 332 uses this sensor information as a provisional value only for this time, and saves or updates the data in the map information unit 200. Do not send to. On the contrary, when the sensor information is equal to or more than the threshold value and has sufficient reliability, the model additional information update unit 332 transmits this sensor information to the map information unit 200. Then, the map information unit 200 saves or updates the received sensor information.
  • the map information unit 200 does not store or update the data using this sensor information. Therefore, when the map information unit 200 receives the highly reliable sensor information several times, the map information unit 200 saves or updates the data by using the highly reliable sensor information. Alternatively, if the reliability of the sensor information observed by the sensor unit 100 this time is extremely high and the degree of coincidence with the already stored data is high, the map information unit 200 will use the stored data. And the sensor information of this time may be fused to update the map data.
  • This model additional information update unit 332 includes a roadside update unit 3321, a lane update unit 3322, and an undulation update unit 3323. Roadsides, lanes, and undulations are all used as model addition information that is useful when the intersection model generator 330 is added to generate a highly accurate intersection model.
  • the roadside update unit 3321 updates the information regarding the positional relationship between the outermost lane and the roadside. Further, the roadside updating unit 3321 also updates information such that the shape of the lane and the roadside is deformed.
  • the lane updating unit 3322 Based on the number of lanes on the road, the lane updating unit 3322 relates to information that the map information unit 200 does not have, such as complicated changes in lane shape at intersections and junctions, lane width information, and angles between roads. Determine the reuse of sensor information according to the reliability.
  • the undulation update unit 3323 handles information on the unevenness and slope of the road. For example, if there is a certain degree of reliability in the shape and position of a small convex hump or a large hump for speed control set on a road entering a residential area, the undulation update unit 3323 may use the undulation update unit 3323 on these roads. It is determined whether or not to pass the information on the undulations to the map information unit 200.
  • intersection model generation unit 330 stores the sensor information in the map information unit 200. Then, the intersection model generation unit 330 reuses the sensor information stored in the map information unit 200, so that the sensor unit 100 senses the lane width and the like according to the road this time as the vehicle travels. In addition, the intersection model generation unit 330 can be used as prior knowledge.
  • the intersection model generation unit 330 confirms that the recognized lane width during driving exceeds a certain degree of reliability, and at the same time, makes the same lane width when the own vehicle passes the same road. By repeating the confirmation of recognition, the reliability of the sensor information (sensor information) is increased. This reliability is added to, for example, the sensor information stored in the map information unit 200. Since the sensor information is not stored in the map information unit 200 on the road on which the own vehicle has traveled only once, the intersection model generation unit 330 often recognizes this sensor information as low reliability.
  • the intersection model generation unit 330 acquires model addition information from the model addition information acquisition unit 331, and then generates an intersection model based on the selection result of the model selection unit 323.
  • the model generation unit exists in front of the vehicle position when the distance is within a predetermined value, and corresponds to a specific road observed by the sensor unit (sensor unit 100). It has a high-resolution model generation unit (high-resolution model generation unit 333) that generates one model.
  • the model generation unit (intersection model generation unit 330) is a low-resolution model generation unit that generates a second model corresponding to a specific road that the sensor unit (sensor unit 100) cannot observe when the distance is larger than a predetermined value. (Low resolution model generation unit 334).
  • the intersection model is generated by the high resolution model generation unit 333 or the low resolution model generation unit 334.
  • the high-resolution model generation unit 333 When the sensor unit 100 can observe the road width on the side of the intersection and the model selection unit 323 selects the first model, the high-resolution model generation unit 333 generates the intersection model.
  • the intersection model is generated by the low resolution model generation unit 334.
  • FIG. 19 is a diagram showing a detailed structure of an intersection and an example of an intersection model.
  • An example of the detailed structure of an intersection is shown in the upper left of FIG.
  • the detailed structure of this intersection is restored by adding the additional information acquired by the model additional information acquisition unit 331 to the basic structure represented by the node and the link information.
  • the model diagram (a) of FIG. 19 shows an example of a linear model.
  • the intersection model generation unit 330 expresses the detailed structure of the intersection with a straight line
  • the straight line model shown in the model diagram (a) is used.
  • This linear model is used to estimate the shape of an intersection that exists in a residential area and is surrounded by walls and walls of the house.
  • the model diagram (b) of FIG. 19 shows an example of an arc model.
  • the intersection model generation unit 330 expresses the detailed structure of the intersection with an arc
  • the arc model shown in the model diagram (b) is used.
  • the corners of the intersection are designed to be arcuate. Therefore, the arc model is used to estimate the shape of an intersection whose corners are designed to be arcuate in this way.
  • the model diagram (c) of FIG. 19 shows an example of a polygonal line model.
  • the polygonal line model shown in the model diagram (c) is used.
  • the intersection model generation unit 330 wants to express a more detailed intersection shape, such as a curved mirror or a sign existing inside the intersection, or a right / left turn lane added in front of the intersection, a polygonal line model is used.
  • the model diagram (d) of FIG. 19 shows an example of a camera viewpoint model.
  • the camera viewpoint model shown in the model diagram (d) may be used.
  • the intersection model generation unit 330 selects one model from each model shown in FIG. 19 having a different method of expressing the detailed structure of the intersection, based on the road width of the intersection acquired by the model additional information acquisition unit 331. May be good. For example, when the model additional information acquisition unit 331 estimates that the road width is about one lane on each side, the intersection model generation unit 330 is an intersection existing in a residential area and surrounded by a wall or a wall of a house. Choose a linear model because it is likely. Further, when the model additional information acquisition unit 331 estimates that the road width is two or more lanes on each side, the intersection model generation unit 330 may be a large intersection compared to an intersection in a residential area such as a main arterial road. Select the arc model because is high.
  • the intersection model generation unit 330 may select a model based on the application to be used. For example, when an application having a locator function for determining an erroneous estimation of the vehicle position based on the consistency between the map and the sensor input is used, the intersection model generation unit 330 may estimate the outline of the intersection. Therefore, the intersection model generation unit 330 selects a straight line model or an arc model to generate an intersection model. In addition, when the model is used for vehicle control that enables the vehicle to automatically turn left and right at the intersection, the intersection model generator 330 selects the intersection model that can estimate the detailed shape of the intersection and selects the intersection model. May be generated.
  • FIG. 20 is a diagram showing an example of a first model and a second model generated from the detailed structure of an intersection.
  • FIG. 20 In the upper left of FIG. 20, an example of a detailed structure of an intersection similar to that shown in the upper left of FIG. 19 is shown.
  • the model diagram (a) of FIG. 20 shows an example of the first model.
  • the high-resolution model generation unit 333 generates a first model used as an example of a high-resolution model based on the detailed structure of the intersection shown in the upper left of FIG.
  • the model diagram (a) of FIG. 20 shows a case where the high-resolution model generation unit 333 represents the first model of the cross intersection by the linear model shown in the model diagram (a) of FIG.
  • the high-resolution model generation unit 333 may use a model having a different expression method shown in the model diagrams (b), (c), and (d) of FIG. 19 depending on the road width information and the application to which the application is applied.
  • the model diagram (b) of FIG. 20 shows an example of the second model.
  • the low-resolution model generation unit 334 generates a second model used as an example of the low-resolution model based on the detailed structure of the intersection shown in the upper left of FIG.
  • the model diagram (b) of FIG. 20 shows a case where the low-resolution model generation unit 334 represents the second model of the cross intersection by the linear model shown in the model diagram (a) of FIG.
  • the low-resolution model generation unit 334 may use a model having a different expression method shown in the model diagrams (b), (c), and (d) of FIG. 19 depending on the road width information and the application to which the application is applied.
  • FIG. 21 is a diagram showing an example of a first model and a second model generated for each type of intersection.
  • An example of a second model produced by 334 is shown. Since the first model is generated when the vehicle is close to the intersection, the shape of the intersection is close to the detailed structure. On the other hand, since the second model is generated when the vehicle is far from the intersection, the shape of the intersection is rough. Therefore, when the vehicle is far away from the intersection, the second model is generated, and when the vehicle is close to the intersection, the first model is generated, so that an intersection model close to the detailed structure of the intersection can be obtained.
  • FIG. 8 is a block diagram showing a configuration example of the intersection shape estimation unit 400.
  • the road shape estimation unit 400 estimates the road shape (intersection shape) based on the sensor information and the road model (intersection model) generated by the model generation unit (intersection model generation unit 330). The completed road model (intersection model) and accuracy information regarding the estimation result are output. Therefore, the intersection shape estimation unit 400 fits the intersection model generated by the intersection model generation unit 330 to the characteristics of the intersection indicated by the sensor information acquired from the sensor unit 100. At this time, the intersection shape estimation unit 400 estimates parameters constituting the intersection model (for example, two-dimensional coordinates of a node capable of expressing the model shown in FIG. 19 described later).
  • the intersection shape estimation unit 400 includes a roadside recognition unit 410, a lane recognition unit 420, and a parameter estimation unit 430.
  • the intersection shape estimation unit 400 uses the roadside recognition unit 410 to obtain roadside features used for model fitting of the intersection.
  • the roadside feature is information extracted from the sensor information by the roadside recognition unit 410 as a feature amount of the roadside having a three-dimensionally high step portion and a three-dimensionally low step portion with respect to the road. Therefore, the roadside recognition unit 410 extracts the feature quantities of both the road shoulder and the wall from the sensor information when there is a road shoulder and a wall on the side of the road shoulder with respect to the road. Further, the roadside recognition unit 410 extracts various three-dimensional objects such as walls, buildings, trees, utility poles, and gutters from the sensor information as feature quantities.
  • the important step for the own vehicle traveling on the road is the step that comes into contact with the vehicle first, so it is important for the vehicle to travel so as not to touch this step.
  • the roadside recognition unit 410 emphasizes the step that may come into contact with the vehicle first, considering the vehicle as the center, and deletes the three-dimensional object that exists at a position farther from the vehicle. Perform noise removal processing.
  • the roadside recognition unit 410 uses, centering on the own vehicle, a step that the own vehicle may first come into contact with as a point cloud on the roadside. Further, the roadside recognition unit 410 uses the point cloud of the roadside for the behavior of the own vehicle, or uses the corresponding points of the image to form the roadside point cloud of the road in chronological order. Then, the parameter estimation unit 430 fits the roadside point group configured in this time series and the intersection model generated by the intersection model generation unit 330, and estimates the parameters of the intersection model.
  • the intersection shape estimation unit 400 may use the lane feature recognized by the lane recognition unit 420 for fitting the intersection model. good.
  • the lane recognition unit 420 detects a point cloud that is characteristic of the boundary line between lanes along the traveling direction of the own vehicle or the boundary line between the lane and the shoulder. Further, the lane recognition unit 420 also utilizes the behavior of the own vehicle to generate a lane feature in which the detected point clouds are continuously connected in time series, and recognizes the lane based on the lane feature.
  • the parameter estimation unit 430 can estimate the parameters of the intersection model by fitting the generated lane feature to the intersection model.
  • the parameter estimation unit 430 acquires the roadside feature from the roadside recognition unit 410 and acquires the lane feature from the lane recognition unit 420. Then, the parameter estimation unit 430 obtains the parameters of the intersection model (two-dimensional coordinates of the node shown in FIG. 19) that best fits to these acquired features. After that, as shown in FIG. 1, the intersection shape estimation unit 400 determines the parameters of the estimated intersection model and model selection information as to whether the first model, the second model, or the third model is selected as the intersection model. Is output to the intersection consistency determination unit 500. Further, when the intersection shape estimation unit 400 can calculate the fitting degree of the intersection model with respect to the sensor information, the intersection shape estimation unit 400 also outputs the fitting degree to the intersection consistency determination unit 500.
  • the process performed by the intersection shape estimation unit 400 may include a process of estimating the intersection shape without using the information of the map information unit 200.
  • the intersection model generation unit 330 does not perform parameter estimation by the parameter estimation unit 430, and the intersection model generated by the intersection model generation unit 330 is directly combined with the intersection shape estimated by the sensor unit 100 for intersection consistency. It may be output to the determination unit 500.
  • FIG. 9 is a block diagram showing a configuration example of the intersection consistency determination unit 500.
  • the consistency determination unit determines the consistency of a plurality of roads (intersections) existing in front of the vehicle in the traveling direction.
  • the intersection consistency determination unit 500 includes a reliability determination unit 510, a vehicle position determination unit 520, a vehicle position search unit 530, and a vehicle position storage unit 540.
  • the reliability determination unit 510 determines the consistency between the intersection model used for estimating the shape of the intersection and the sensor information acquired from the sensor unit 100, based on the estimation result input from the intersection shape estimation unit 400.
  • the reliability determination unit 510 can acquire the first model after the intersection shape is estimated by the intersection shape estimation unit 400, the consistency determination is performed based on the road width of the acquired first model. For example, a case where the intersection whose shape is estimated by the intersection shape estimation unit 400 is a cross intersection where two (two lanes) roads intersect will be described.
  • the reliability determination unit 510 may use four roads existing at a cross intersection (two roads in the traveling direction and the opposite direction of the own vehicle, and right and left directions at which these two roads intersect at the intersection. Regarding the road width of (two roads), it is assumed that there is a road narrower than the width of the own vehicle. In this case, the model used by the intersection shape estimation unit 400 to estimate the shape of the intersection is incorrect, or the sensor information acquired from the sensor unit 100 contains a lot of noise, so that the model fits into a feature that is not an intersection. It is thought that it was. Therefore, the reliability determination unit 510 determines that the intersection model and the sensor information are not consistent.
  • the reliability determination unit 510 compares the road widths of the two roads that the own vehicle passes through when the vehicle goes straight through the intersection with respect to the four roads existing at the cross intersection, the road width acquired from the intersection model is a sensor. It may differ significantly from the actual road width estimated from the information. In this case, the reliability determination unit 510 may determine that the intersection model and the sensor information are not consistent.
  • the reliability determination unit 510 can acquire the second model after the intersection shape is estimated by the intersection shape estimation unit 400, the road width of the acquired second model is the same as the determination process performed in the first model. Consistency judgment is performed based on.
  • the second model is a model in which the cross intersection is represented by two straight lines as described with reference to FIG. Therefore, the reliability determination unit 510 determines the consistency by comparing the distance between the two straight lines and the vehicle width of the own vehicle.
  • the reliability determination unit 510 can acquire the third model after the intersection shape is estimated by the intersection shape estimation unit 400, the first model when the distance from the own vehicle position to the intersection is smaller than the first distance. To determine the consistency of. Then, when the distance from the vehicle position to the intersection is larger than the first distance, the reliability determination unit 510 determines the consistency in the same manner as the consistency determination of the second model.
  • the reliability determination unit 510 compares the map information acquired from the map information unit 200 with the intersection model after the intersection shape is estimated by the intersection shape estimation unit 400 to obtain the map information and the intersection model. Consistency determination may be performed. When the cross intersection exists in front of the own vehicle in the map information unit 200, the connection angles of the four roads existing at the cross intersection are right angles. Therefore, the reliability determination unit 510 may determine that the consistency is not obtained when the connection angle of the intersection model after the model estimation by the intersection shape estimation unit 400 is significantly deviated from the right angle.
  • the map information unit 200 may include information that can estimate the road width (road width information, road type and grade in the Road Structure Ordinance, road width estimation result at the time of the previous driving, etc.). Therefore, the reliability determination unit 510 reads the map information unit 200 and compares the road width information acquired from the information capable of estimating the road width with the intersection model after the model estimation by the intersection shape estimation unit 400, thereby causing the road width information and the intersection. Consistency determination with the model may be performed.
  • the reliability determination unit 510 may set a threshold value for the reliability and perform the consistency determination. Further, when the reliability determination unit 510 can acquire the intersection model generated by the intersection model generation unit 330 and the intersection shape estimated by the sensor unit 100 from the intersection shape estimation unit 400, the intersection model is obtained by comparing the two. And the intersection shape may be determined.
  • the intersection model generation unit 330 refers to the map information unit 200 based on the vehicle position processed by the intersection information processing unit 300, generates an intersection model in front of the vehicle, and then generates an intersection shape.
  • the estimation unit 400 estimates the shape of the intersection. Therefore, if the position of the vehicle on the map is incorrect, the intersection model generation unit 330 acquires intersection information different from the intersection in front of the vehicle from the map information unit 200, and obtains an incorrect intersection model. May be generated. Therefore, the reliability determination unit 510 determines the correctness of the position of the own vehicle by determining the consistency between the intersection model used for estimating the shape of the intersection and the sensor information acquired from the sensor unit 100.
  • the consistency when the first model is used for the shape estimation of the intersection in the intersection shape estimation unit 400 and the consistency when the second model is used for the shape estimation are the consistency of the intersection consistency determination unit 500.
  • the amount of information required for judgment is different.
  • the intersection shape estimation unit 400 can estimate the shape including the road width on the side of the intersection. Therefore, for example, when the reliability determination unit 510 determines that the cross intersection model and the sensor information are consistent, the intersection consistency determination unit 500 exists in front of the vehicle at the cross intersection. It can be concluded that there is.
  • the reliability determination unit 510 determines that the cross intersection model and the sensor information are consistent, the cross intersection or the T-shaped intersection is used. There is a possibility of an intersection. Therefore, the reliability determination unit 510 cannot determine that the intersection existing in front of the own vehicle is a cross intersection.
  • the same second model is applied to the three types of road shapes: T-shaped, corner, and dead end. Therefore, even if the shape of the intersection is T-shaped, the second model having the same shape as the corner and the dead end is selected. Therefore, the reliability determination unit 510 indicates that the intersection existing in front of the vehicle is a T-shaped intersection. I can't conclude that there is. As described above, the reliability determination unit 510 cannot determine the intersection existing in front of the own vehicle in the same manner in the relationship between the cross intersection and the T-shaped intersection.
  • the reliability determination unit 510 uses the sensor information that can be acquired from the sensor unit 100 and is output by the sensor observing the front of the vehicle at present, the intersection existing far away from the vehicle is wrong at the cross intersection. It can be determined that there is no such thing.
  • the second model of the cross intersection is acquired, the shape of the cross, which is the second model, is different from that of the T-shape, the corner, or the dead end. Therefore, the reliability determination unit 510 is generated when the intersection existing in the distance of the own vehicle is a cross intersection, and the shape of the second model is formed when the road shape is a T-shape, a corner, or a dead end. It can be determined that none of the shapes of the two models is applicable. Therefore, the reliability determination unit 510 can limit the shape candidates of the distant intersection.
  • the consistency determination unit determines whether the vehicle position is correct or incorrect based on the result of the road consistency determination, and outputs the determination result of the vehicle position (the vehicle position determination unit). It has a vehicle position determination unit 520). For example, the own vehicle position determination unit 520 matches the model type information (either the first model, the second model, or the third model) selected from the reliability determination unit 510 with the intersection consistency determination unit 500. The judgment result is acquired, the correctness of the position of the own vehicle is judged, and the judgment result is output. A detailed example of the processing performed by the own vehicle position determination unit 520 will be described below.
  • the own vehicle position determination unit 520 can acquire the result from the reliability determination unit 510 that the first model is used for shape estimation and the sensor information is consistent with the first model. Outputs the determination result that the position of the own vehicle is determined to be correct.
  • the own vehicle position determination unit 520 can acquire the result from the reliability determination unit 510 that the first model is used for shape estimation and it is determined that the sensor information is not consistent with the first model. Outputs the determination result that the position of the own vehicle is determined to be incorrect.
  • the own vehicle position determination unit 520 can acquire the result from the reliability determination unit 510 that the second model is used for shape estimation and it is determined that the sensor information is consistent with the second model. At this point, the position of the vehicle is considered to be correct. Therefore, the own vehicle position determination unit 520 outputs a determination result that the own vehicle position is determined to be correct. Further, although the vehicle position is not wrong at the present time, the vehicle position determination unit 520 may not be able to determine that the vehicle position is correct. In this case, the own vehicle position determination unit 520 may output a determination result that the own vehicle position is determined to be undetermined.
  • the own vehicle position determination unit 520 acquires information from the reliability determination unit 510 that the third model has been used for shape estimation. At this time, the own vehicle position determination unit 520 determines the own vehicle position of the first model when the distance from the own vehicle position to the intersection is smaller than the first distance, and when this distance is larger than the first distance, the first Consistency is determined in the same way as the vehicle position determination of the two models.
  • FIG. 22 is a diagram showing an example of a process in which the vehicle position determination unit 520 determines whether the vehicle position is correct or incorrect based on an intersection in front of the vehicle.
  • first vehicle position the true vehicle position where the vehicle actually exists
  • second vehicle position the vehicle position erroneously estimated by GNSS
  • the explanatory diagram (a) shown on the left side of FIG. 22 shows an example of processing when the own vehicle position determination unit 520 does not use the distant intersection information for the locator. Not using the distant intersection information for the locator means that the own vehicle position determination unit 520 does not use the intersection information of the distant intersection of the own vehicle to determine the own vehicle position on the map.
  • the first vehicle position is indicated by the vehicle icon 51
  • the second vehicle position is indicated by the vehicle icon 52.
  • an intersection 62 is shown in front of the position of the second vehicle, and a corner 64 is shown in the distance.
  • the vehicle icon 51 indicates a range 56 in which the information processing apparatus 1 can estimate the intersection model.
  • the range 56 is substantially equal to the range observable by the sensor unit 100. Then, the range 56 including the intersection 61 in front of the own vehicle represented by the first own vehicle position is observed by the sensor unit 100.
  • the vehicle position determination unit 520 may make a mistake in determining the vehicle position.
  • cross intersections 61 and 62 are present on the map in front of the vehicle icons 51 and 52.
  • the intersection model generation unit 330 generates an intersection model based on the cross intersection 62 existing in front of the second own vehicle position (vehicle icon 52).
  • the reliability determination unit 510 ensures that the generated intersection model and the sensor information are consistent. It is determined that it is.
  • the own vehicle position determination unit 520 determines that the own vehicle position determined to be the second own vehicle position is correct even though the own vehicle position is actually the first own vehicle position.
  • the information of the distant intersections 63 and 64 is not used for the locator, when the own vehicle goes straight beyond the first intersection 61 and approaches the intersection 63. For the first time, you will notice an error in the position of your vehicle. Therefore, when the distant intersection information is not used for the locator and the intersection of the same type (cross, etc.) exists in the vicinity of the own vehicle, it is difficult to specify the position of the own vehicle.
  • the vehicle position determination unit 520 uses the intersection information of a distant intersection as a locator, and determines whether the vehicle position is correct or incorrect based on the consistency of a plurality of intersections existing in front of the vehicle. do.
  • a locator means that the own vehicle position determination unit 520 uses the intersection information to determine the correctness of the own vehicle position on the map.
  • the vehicle icon 51 indicates a model estimable range 57 in which the information processing device 1 can estimate the intersection model. Then, the model estimable range 57 including the intersections 61 and 63 in front of the own vehicle is observed by the sensor unit 100.
  • intersection model generation unit 330 generates an intersection model at the second own vehicle position indicated by the vehicle icon 52.
  • the intersection model generation unit 330 generates the cross intersection model 63a, which is the first model, based on the cross intersection 62 existing in front of the vehicle, and is based on the corner 64 far away from the vehicle. Then, a second model, the corner model 64a, is generated.
  • the reliability determination unit 510 can ensure the consistency of the cross intersection of the first model. It is determined that it is. However, there is a cross intersection 63 far away from the position of the first vehicle.
  • the intersection model generation unit 330 generates the second model from the corner 64.
  • the shape of the corner model 64a is different from the shape of the cross intersection model 63a of the second model generated from the cross intersection 63. Therefore, the reliability determination unit 510 determines that the corner model 64a of the second model is not consistent with the shape of the intersection 63 observed by the sensor unit 100 by the model estimable range 57. As a result, the own vehicle position determination unit 520 can determine that the own vehicle position is incorrect. In this way, the own vehicle position determination unit 520 can determine the correctness of the own vehicle position by confirming the consistency between the intersection information of the continuous intersections in front of the own vehicle and the map and the sensor information. It will be possible.
  • FIG. 22 an example of a process in which the own vehicle position determination unit 520 determines the own vehicle position by using two intersections, an intersection 61 closer to the first distance and an intersection 63 farther than the first distance. Indicated. However, as the intersection used for the own vehicle position determination by the own vehicle position determination unit 520, there may be two or more intersections closer to the own vehicle position than the first distance, and the intersection is farther than the first distance. There may be two or more intersections. Further, two or more intersections may all be closer to the vehicle position than the first distance, and all two or more intersections may be farther than the first distance.
  • the own vehicle position determination unit 520 holds the result of the reliability determination unit 510 determined based on a plurality of intersections through which the own vehicle has passed in the past, and the own vehicle position is also combined with the past time series information. You may make a correctness judgment of.
  • FIG. 9 is a diagram showing an operation example of the own vehicle position search unit 530.
  • the first model of the T-shaped intersection 72 or the second model of the T-shaped intersection 72 is generated according to the distance from the position of the second vehicle to the intersection.
  • the own vehicle position determination unit 520 differs from the shape of the intersection found by the sensor information 82 and the shape of the intersection model 81. Is determined. Therefore, the own vehicle position determination unit 520 outputs information that the second own vehicle position is incorrect to the own vehicle position search unit 530.
  • the consistency determination unit determines the consistency of the road. Based on the result, it has a own vehicle position search unit (own vehicle position search unit 530) that searches for the correct own vehicle position on the map. Therefore, when the own vehicle position search unit 530 receives information from the own vehicle position determination unit 520 that the own vehicle position is incorrect, the own vehicle position search unit 530 determines the intersection adjacent to the intersection 72 in front of the second own vehicle position on the map. By searching, the third own vehicle position, which is a candidate for the own vehicle position, is determined.
  • the own vehicle position search unit 530 sets an intersection at a distance that the own vehicle can reach in one step (for example, one section on the map) on the graph structure showing the road relationship shown by the node and the edge. Recognize as an intersection adjacent to 72.
  • the intersection adjacent to the intersection 72 in front of the second vehicle position has one T-shaped intersection 73 and two cross intersections 71 and 74. Therefore, the intersection model generation unit 330 generates a first model or a second model according to the distance from the position of the second own vehicle to each intersection. Then, the intersection consistency determination unit 500 determines the consistency between the generated first model or the second model and the sensor information.
  • the own vehicle position search unit 530 determines the position in front of the cross intersections 71 and 74 that are consistent with the sensor information as the third own vehicle positions 53a and 53b. Then, the own vehicle position search unit 530 outputs the three third own vehicle positions 53a and 53b shown in the explanatory diagram (a) to the display / alarm / control unit 600.
  • the own vehicle position search unit 530 outputs the third own vehicle position only when the third own vehicle position is determined to be only one as a result of searching for the own vehicle position, and when there are a plurality of third own vehicle positions. May output information that the position of the own vehicle is undetermined. Further, the own vehicle position search unit 530 may save the information output to the display / alarm / control unit 600 in the own vehicle position storage unit 540.
  • the explanatory diagram (b) of FIG. 23 shows how the own vehicle position search unit 530 searches for the own vehicle position using the second model.
  • the intersection model generation unit 330 for example, as shown in FIG. 23, has an intersection model 83 in which the T-shaped intersection 75 and the corner 76 have the same shape. To generate. Even if the types of intersections in front of the vehicle are different on the map (T-shaped intersection 75 and corner 76), if the shape of the intersection shown in the sensor information 84 is the same as the intersection model 83, the vehicle position The search unit 530 outputs both of the two third vehicle positions 53c and 53d as candidates for the vehicle position.
  • the own vehicle position search unit 530 does not output only the third own vehicle position, but is said to be the third own vehicle position estimated by the second model.
  • the information may be combined and output.
  • intersection searched by the own vehicle position search unit 530 from around the own vehicle position does not have to be limited to the intersection adjacent to the intersection existing in front of the second own vehicle position. For example, on a graph structure showing a road relationship shown by a node and an edge, an intersection existing at a distance that the own vehicle can go in two or more steps may be searched. The number of steps used in this search may be determined by a default value or may be dynamically determined from the position estimation accuracy of GNSS.
  • the own vehicle position search unit 530 may select an intersection within the range of the circle centered on the second own vehicle position, instead of searching for the intersection to be searched by the number of steps on the graph structure.
  • the radius of the circle may be determined by a default value or may be dynamically determined from the position estimation accuracy of GNSS.
  • the own vehicle position search unit 530 may search for the third own vehicle position from a plurality of intersections existing in front of the second own vehicle position. Similar to when the vehicle position determination unit 520 determines whether the vehicle position is correct or incorrect based on the consistency of a plurality of intersections, when the vehicle position search unit 530 searches for the third vehicle position, the information on the plurality of intersections is used. Search for the position of the third vehicle. By such an operation, even when there are many intersections of the same type around the own vehicle, the own vehicle position search unit 530 can more accurately estimate the position of the third own vehicle.
  • the own vehicle position search unit 530 holds the result of the intersection shape estimation unit 400 and the result of the reliability determination unit 510 at a plurality of intersections that have passed in the past, not limited to the intersection existing in front of the own vehicle. You may search for the position of the third vehicle together with the past time series information.
  • the own vehicle position storage unit 540 shown in FIG. 9 includes the first own vehicle position, the second own vehicle position determined by the own vehicle position determination unit 520, and the own vehicle position together with the past time series information on which the own vehicle has traveled.
  • the position of the third vehicle searched by the search unit 530 can be saved. Therefore, if it is possible to grasp that the road on which the own vehicle is currently traveling is near the road on which the own vehicle has traveled in the past by using information such as GNSS, the intersection consistency determination unit 500 will perform the own vehicle.
  • the consistency of the intersection can be determined by using the information of the own vehicle position read from the position storage unit 540.
  • FIG. 24 is a block diagram showing a hardware configuration example of the computer 90.
  • the computer 90 is an example of hardware used as a computer that can operate as an information processing device 1.
  • the computer 90 includes a CPU (Central Processing Unit) 91, a ROM (Read Only Memory) 92, and a RAM (Random Access Memory) 93, which are connected to the bus 94, respectively. Further, the computer 90 includes a display device 95, an input device 96, a non-volatile storage 97, and a network interface 98.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 91 reads the program code of the software that realizes each function according to the present embodiment from the ROM 92, loads it into the RAM 93, and executes it. Variables and parameters generated during the arithmetic processing of the CPU 91 are temporarily written in the RAM 93, and these variables and parameters are appropriately read by the CPU 91.
  • an MPU Micro Processing Unit
  • the processing of each functional unit performed by the information processing apparatus 1 is performed by the CPU 91.
  • the display device 95 is, for example, a liquid crystal display monitor, and displays the result of processing performed by the computer 90 to the driver.
  • a keyboard, a mouse, or the like is used as the input device 96, and the driver can perform predetermined operation inputs and instructions.
  • the display device 95 and the input device 96 may be integrated as a touch panel display.
  • the display device 95 and the input device 96 correspond to the display / alarm / control unit 600 shown in FIG.
  • the information processing device 1 does not include the display / alarm / control unit 600 in FIG. 1, the information processing device 1 may include the display / alarm / control unit 600.
  • non-volatile storage 97 for example, an HDD, SSD, a flexible disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory, or the like is used.
  • OS Operating System
  • a program for operating the computer 90 is recorded.
  • the ROM 92 and the non-volatile storage 97 record programs, data, and the like necessary for the CPU 91 to operate, and as an example of a computer-readable non-transient storage medium that stores a program executed by the computer 90. Used.
  • Various information and data generated in the information processing apparatus 1 are stored in the non-volatile storage 97.
  • the information processing device 1 is not provided with the map information unit 200 in FIG. 1, the information processing device 1 may be provided with the map information unit 200.
  • a NIC Network Interface Card
  • the information processing apparatus 1 performs wireless communication via the network interface 98 and uploads data to an external server via the Internet or the like. It is possible to download data from this server. Further, the information processing apparatus 1 accesses an in-vehicle network (for example, CAN (Controller Area Network)) via the network interface 98, acquires sensor information from the sensor unit 100, or has a navigation system (not shown) or automatic operation. It is possible to output information on the position of the own vehicle to the system.
  • CAN Controller Area Network
  • inconsistency with the intersection model is eliminated by using sensor information of not only the intersection near the own vehicle but also the intersection far from the own vehicle. Can be done.
  • the information processing apparatus 1 predicts the appearance of the road according to the distance based on the sensor resolution characteristic and generates an intersection model, so that the shape of the intersection on which the vehicle travels can be correctly recognized.
  • the information processing apparatus 1 can accurately predict the appearance of the intersection generated by the sensor information based on the sensor resolution characteristics that change depending on the environment around the intersection and the environment around the own vehicle. In this way, since the information processing device 1 can correctly recognize the shape of the road on which the own vehicle travels, it can output the correct shape of the road even in a complicated scene around a general road or an intersection. Therefore, the driver or the automatic driving device can safely drive the own vehicle by using the recognition result.
  • the sensor resolution of the sensor unit 100 changes depending on the environment in which the vehicle is currently located. Therefore, the environmental information acquisition unit 311 acquires the environmental information, and the sensor resolution characteristic storage unit 312 stores the sensor resolution characteristics according to the environmental information. Therefore, the intersection information processing unit 300 can generate different intersection models based on the sensor resolution characteristics, for example, even at the same location but at different times.
  • the intersection appearance prediction unit 320 predicts the appearance of the intersection based on the vehicle position specified on the map by the vehicle position specifying unit 321 and the intersection information analyzed by the intersection information analysis unit 322.
  • the model selection unit 323 selects the intersection model generated by the intersection model generation unit 330.
  • As the intersection model a first model as a high-resolution model, a second model as a low-resolution model is selected, or a plurality of models are switched according to a time series.
  • the intersection model generation unit 330 generates an intersection model according to the model selected by the model selection unit 323. Therefore, an appropriate model is selected according to the distance from the vehicle position to the intersection, and is utilized for processing of the intersection model generation unit 330.
  • intersection model generation unit 330 uses the specified value defined in the Road Structure Ordinance as the default value based on the map information acquired from the map information unit 200, thereby making the intersection model of the detailed road shape highly accurate. Can be restored. Therefore, since the information processing device 1 correctly recognizes which part of the road the vehicle position is located on, for example, automatic driving or guidance of the vehicle position by the navigation system can be performed with high accuracy.
  • intersection shape estimation unit 400 fits the intersection model generated by the intersection model generation unit 330 to the features of the intersection indicated by the sensor information. Then, the intersection shape estimation unit 400 can add the features of the actual intersection to the intersection model and estimate the parameters of the intersection model in detail.
  • intersection consistency determination unit 500 can correctly determine the shape of the intersection existing in front of the own vehicle by determining the consistency between the intersection model used for estimating the intersection shape and the sensor information. ..
  • intersection consistency determination unit 500 uses the information of the intersections distant from the own vehicle as the locator to identify the wrong position in the situation where there are a plurality of intersections having the same shape around the own vehicle. It is possible to re-identify the position of the own vehicle that has been set at the correct position.
  • the sensor information of the sensor unit 100 includes information that can reproduce the shape of the intersection
  • the sensor information of the sensor unit 100 is input to the intersection consistency determination unit 500 without passing through the intersection shape estimation unit 400. It may be (the connection form shown by the broken line in FIG. 1).
  • the intersection model is input from the intersection information processing unit 300 to the intersection consistency determination unit 500.
  • the intersection consistency determination unit 500 can also determine the consistency of the intersection shown in the map information based on the intersection model and the sensor information input from the sensor unit 100.
  • the information processing device 1 performs a process of performing sensor information with the intersection model without passing through the intersection shape estimation unit 400, an intersection model whose shape is estimated via the intersection shape estimation unit 400, and an intersection shown in the map information.
  • the process of determining the consistency with the above may be appropriately selected.
  • the information processing device 1 predicts the appearance of the intersection in the traveling direction of the own vehicle, generates an intersection model, and estimates the shape of the intersection.
  • the information processing device 1 predicts the appearance of the road, generates a road model, and shapes the road. Estimates may be made.
  • a railroad crossing the road or a road whose angle is changed when viewed from the traveling direction of the own vehicle position is recognized as a specific road.
  • the curved road and the road crossed by the railroad track are also subject to the shape estimation of the road according to the present embodiment.
  • the information processing device 1 may be an in-vehicle device mounted on a vehicle, or may be a terminal device that can be removed from the vehicle and carried.
  • the present invention is not limited to the above-described embodiment, and it goes without saying that various other application examples and modifications can be taken as long as they do not deviate from the gist of the present invention described in the claims.
  • the above-described embodiment describes the configuration of the system in detail and concretely in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations.
  • the control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.
  • 1 Information processing device, 100 ... Sensor unit, 200 ... Map information unit, 300 ... Intersection information processing unit, 310 ... Sensor resolution characteristic management unit, 320 ... Intersection appearance prediction unit, 330 ... Intersection model generation unit, 400 ... Intersection shape Estimating unit, 410 ... Roadside recognition unit, 420 ... Lane recognition unit, 430 ... Parameter estimation unit, 500 ... Intersection consistency determination unit, 510 ... Reliability determination unit, 520 ... Own vehicle position determination unit, 530 ... Own vehicle position Search unit, 540 ... Own vehicle position storage unit, 600 ... Display / alarm / control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

情報処理装置は、地図情報部から取得した地図情報と、センサ部から取得したセンサ情報とに基づいて、自車が走行する道路の道路形状を推定する。この情報処理装置は、自車の自車位置から、交差点形状が変化する位置までの距離に応じた、センサ部のセンサ分解能特性を管理するセンサ分解能特性管理部と、センサ分解能特性に基づいて、距離に応じた交差点の外観を予測する交差点外観予測部と、交差点外観予測部により予測された交差点の外観に基づいて、交差点をモデル化した交差点モデルを生成する交差点モデル生成部と、を備える。

Description

情報処理装置
 本発明は、例えば、自車の周辺にある道路を正しく認識することが可能な情報処理装置に関する。
 自動車分野における予防安全技術の製品化が普及期に入りつつあり、より多機能化かつ高機能化すると共に、対応シーンの拡大が進んでいる。対応シーンとして、例えば、車両が走行する一般道、交差点等の複雑なシーンが想定される。
 近年は、車両の対応シーンが拡大しており、特に、車両に搭載される認識装置が、例えば、道路が交差する交差点を正しく認識できることが重要な課題として挙げられるようになった。しかし、従来の技術では、基本的に単路での車両制御を目的としていたので、認識装置は、車両に搭載されたカメラ等のセンサから得られる情報のみを用いて道路の形状を認識していた。しかし、従来の認識装置は、センサのみから得られる情報だけでは、交差点のような複雑な道路形状を適切に認識することが困難であった。そこで、特許文献1に開示された技術により、認識装置が複雑な道路形状を認識することが可能になると考えられていた。
 特許文献1には、「自車位置検出手段により検出された自車の位置と道路地図情報記憶手段に記憶された道路地図情報とに基づいて道路形状パターンを選択する道路形状パターン選択手段と、前方道路形状情報検出手段の検出情報と、道路形状パターン選択手段で選択された道路形状パターンとに基づいて、自車前方の道路形状の認識を行なう道路形状認識手段とを備えた認識装置」について記載されている。
特開2000-30198号公報
 特許文献1に開示された認識装置では、道路構造を保存した地図に基づいて自車前方の交差点をモデル化し、センサ情報に交差点のモデルをフィッティングさせることで交差点形状を推定していた。しかし、この技術ではセンサ分解能の影響により、自車位置から交差点までの距離に応じて交差点の見え方が異なることが考慮されていなかった。特に自車の遠方に存在する交差点において、実際の交差点形状と、認識装置によりモデル化された交差点(以下、「交差点モデル」と呼ぶ)との不整合が生じてしまう。このため、認識装置が、実質的に交差点の形状を推定できるのは自車が交差点に接近した時に限られていた。また、認識装置が、自車位置の遠方にある交差点を観測したセンサから得たセンサ情報を有効に活用することができていなかった。
 本発明はこのような状況に鑑みて成されたものであり、車両が走行する道路の形状を正しく認識することを目的とする。
 本発明に係る情報処理装置は、地図情報部から取得した地図情報と、センサ部から取得したセンサ情報とに基づいて、自車が走行する道路の道路形状を推定する。この情報処理装置は、自車の自車位置から、道路形状が変化する位置までの距離に応じた、センサ部のセンサ分解能特性を管理するセンサ分解能特性管理部と、センサ分解能特性管理部から取得したセンサ分解能特性に基づいて、距離に応じた道路の外観を予測する外観予測部と、外観予測部により予測された道路の外観に基づいて、道路をモデル化した道路モデルを生成するモデル生成部と、を備える。
 本発明によれば、センサ分解能特性に基づいて、自車からの距離に応じた道路の外観を予測し、道路モデルを生成するので、車両が走行する道路の形状を正しく認識することができる。
 上記した以外の課題、構成及び効果は、以下の実施の形態の説明により明らかにされる。
本発明の一実施の形態に係る情報処理装置の全体構成例を示すブロック図である。 本発明の一実施の形態に係るセンサ部の構成例を示すブロック図である。 本発明の一実施の形態に係る地図情報部の構成例を示すブロック図である。 本発明の一実施の形態に係る交差点情報処理部の構成例を示すブロック図である。 本発明の一実施の形態に係る自車位置特定部の構成例を示すブロック図である。 本発明の一実施の形態に係る交差点情報解析部の構成例を示すブロック図である。 本発明の一実施の形態に係るモデル付加情報更新部の構成例を示すブロック図である。 本発明の一実施の形態に係る交差点形状推定部の構成例を示すブロック図である。 本発明の一実施の形態に係る交差点整合性判定部の構成例を示すブロック図である。 本発明の一実施の形態に係る十字交差点のセンサ情報の例を示す図である。 本発明の一実施の形態に係る交差点の基本構造の例を示す図である。 本発明の一実施の形態に係るモデル選択部が複数のモデルを切り替えて使用する例を示す図である。 本発明の一実施の形態に係る交差点モデルの基本構造と、復元された交差点モデルの詳細構造の例を示す図である。 道路構造令に定義される道路の種別と、道路の等級の情報の例を示す表である。図14Aは、道路の種類及び地域ごとに定義された第1種~第4種の道路の種別が記載された表である。図14Bは、道路の種類及び地域の地形に対する1日当たりの計画交通量で規定される道路の等級が記載された表である。 道路構造令に定義される道路の種級区分と、普通道路の車線幅の例を示す表である。 道路構造令に定義される道路の種級区分と、普通道路の路肩の幅員の例を示す表である。 道路の種類及び種別、又は道路の等級に対応する道路情報の例を示す表である。図17Aは、道路の種類及び種別に応じた片側車線数、車線幅及び路側帯の情報を格納した表である。図17Bは、道路の等級に応じた片側車線数、車線幅、設計速度及び路側帯の情報を格納した表である。 道路の種類、又は制限速度に対応する道路情報の例を示す表である。図18Aは、道路の種類に応じた片側車線数、車線幅、設計速度及び路側帯の情報を格納した表である。図18Bは、制限速度に応じた片側車線数、車線幅、設計速度及び路側帯の情報を格納した表である。 本発明の一実施の形態に係る交差点の詳細構造、及び交差点モデルの例を示す図である。 本発明の一実施の形態に係る交差点の詳細構造から生成される第1モデル及び第2モデルの例を示す図である。 本発明の一実施の形態に係る交差点の各種別に対して生成される第1モデル及び第2モデルの例を示す図である。 本発明の一実施の形態に係る自車位置判定部が、自車前方の手前にある交差点に基づいて、自車位置の正誤判定をする処理の例を示す図である。 本発明の一実施の形態に係る自車位置探索部の動作例を示す図である。 本発明の一実施の形態に係る情報処理装置を構成する計算機のハードウェア構成例を示すブロック図である。
[一実施の形態]
 以下、本発明の一実施の形態に係る情報処理装置の構成例及び動作例について、添付図面を参照して説明する。ここで、図1~図9は、本実施の形態に係る情報処理装置の内部構成例を説明するための図面であり、図10以降は、情報処理装置を構成する各機能部の動作を説明するための図面である。ただし、図14~図18には、日本国の道路構造令に規定される道路の種別等の情報が示される。本明細書及び図面において、実質的に同一の機能又は構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。
<情報処理装置の全体構成例>
 始めに、本実施の形態に係る情報処理装置の全体構成例について、図1を参照して説明する。
 図1は、情報処理装置1の全体構成例を示すブロック図である。本実施の形態に係る情報処理装置1は、不図示の車両に搭載されている。以下、情報処理装置1が搭載される車両を、「自車」と呼ぶ。情報処理装置(情報処理装置1)は、地図情報部(地図情報部200)から取得した地図情報と、センサ部(センサ部100)から取得したセンサ情報とに基づいて、自車が走行する道路の道路形状を推定する。この際、情報処理装置1は、車両に搭載された車載センサ(以下、「センサ」と略記する)から得られるセンサ情報と、道路構造を保存した地図の情報とを活用して車両の周辺にある道路等を認識し、自車位置を特定することが可能である。また、情報処理装置1は、センサから得たセンサ情報と、道路構造を保存した地図とを活用することで、交差点のような複雑な道路形状も推定することが可能である。例えば、本実施の形態で情報処理装置1により道路形状が推定される道路は、交差点である。
 この情報処理装置1は、センサ部100、地図情報部200、交差点情報処理部300、交差点形状推定部400、交差点整合性判定部500及び表示・警報・制御部600を備える。
 センサ部100には、例えば、車両の前方方向にある物体や道路等を観測可能な車載フロントセンサが用いられる。本実施の形態ではステレオカメラをフロントセンサの例として記載するが、センサとして、例えば、単眼カメラであっても、Lidar(Laser Imaging Detection and Ranging)であってもよい。そして、センサ部100は、センサが観測した車両の前方の情報を、センサ情報として交差点情報処理部300に出力する。
 地図情報部200は、車両が走行する道路の情報(地図、道路種別、道路構造令等)を含む地図情報を保存する。地図情報部200が保存する情報としては、例えば、車両に搭載されたカーナビゲーションシステムで用いられる地図情報であってもよいし、インターネットから無線通信により得られた地図情報であってもよい。これらの地図情報は、例えば、車両に搭載されたHDD(Hard Disk Drive)、SSD(Solid State Drive)等の大容量記憶媒体に保存される。また、地図情報部200が取得可能な地図情報は簡易的な道路の形状を表現したものとしてよいが、センサ部100が観測範囲をセンシングして得たセンサ情報であるセンサ情報を保存し、更新するための機能も保持する。
 交差点情報処理部300は、地図情報部200が保持する、ある区間内の地図情報を取得する。次に、交差点情報処理部300は、この区間内における自車が走行する位置、及び自車の進行方向を解析し、自車の前方に存在する交差点の交差点情報を地図情報部200から取得する。そして、交差点情報処理部300は、取得した交差点情報から、デフォルトの車線幅や路肩位置などを用いて交差点モデルを生成するための交差点情報処理を行う。交差点モデルとは、交差点の形状を数式や点群で表現したものである。
 交差点情報処理部300は、地図情報に車線数などの情報が含まれていれば、車線数などの情報を利用して交差点モデルを生成する。また、交差点情報処理部300は、地図情報に車線数などの情報が含まれていなければ、地図情報にある上限車速情報などをベースとして、デフォルトの車線数を決めた上で交差点モデルを生成する。なお、交差点情報処理部300は、過去にセンサがセンシングして得たセンサ情報に基づいて、交差点モデルの情報を取得してもよい。
 道路形状推定部(交差点形状推定部400)は、道路モデル(交差点モデル)及びセンサ情報に基づいて、道路形状(交差点の形状)を推定し、推定結果を出力する。例えば、交差点形状推定部400は、交差点情報処理部300が生成した交差点モデルに対して、センサ部100から得たセンサ情報を利用して交差点形状を認識するための推定処理を実施する。そこで、交差点形状推定部400は、交差点情報処理部300が予測した交差点モデルや、センサ部100で用いられるセンサが持つ誤差量などに応じて、車線や路端などの道路形状の認識手法や処理領域などを動的に変更させて、より安定的かつ高精度に交差点形状を認識する。
 整合性判定部(交差点整合性判定部500)は、センサ部100から取得したセンサ情報と、交差点形状推定部400から取得した推定結果との整合性を判定し、判定結果を出力する。このため、交差点整合性判定部500は、交差点形状推定部400が推定した交差点形状を含む処理結果を取得する。そして、交差点整合性判定部500は、交差点形状推定部400が交差点形状の推定に利用した交差点モデルと、交差点形状推定部400がセンサ部100から取得したセンサ情報との整合性を判定し、判定結果を出力する。この際、整合性判定部(交差点整合性判定部500)は、道路形状(交差点形状)が推定された道路モデル(交差点モデル)と、精度情報を利用し、精度情報を所定の閾値と比較することで、センサ情報と、推定結果との整合性を判定する。ここで、精度情報とは、センサ情報と、道路モデル(交差点モデル)とをフィッティングした時に、どれ位、センサ情報と、道路モデル(交差点モデル)とが一致しているかを示す情報であり、例えば、信頼度として表現される。このため、精度情報が、所定の閾値より高ければ、センサ情報と、道路モデル(交差点モデル)とは十分に一致しているので、センサ情報と、交差点形状推定部400から取得される推定結果とは整合しているとの判定結果が得られる。
 ただし、交差点情報処理部300は、自車位置に基づいて地図情報部200を参照し、自車前方の交差点モデルを生成する。このため、自車位置が誤っていた場合には、交差点情報処理部300が地図情報部200から自車前方の交差点とは異なる交差点情報を取得してしまう。例えば、交差点情報処理部300が、地図情報部200から取得した交差点情報に基づいて自車前方には十字交差点が存在するとみなした場合、十字形の交差点モデルを生成する。しかし、実際に自車前方にあるのはT字型のT字交差点であった場合、センサ部100からはセンサがT字交差点を観測して出力したセンサ情報を交差点形状推定部400が取得する状況が発生しうる。そこで、交差点整合性判定部500は、生成された交差点モデルと、センサ部100のセンサ情報とで矛盾が存在するか否かを判定する。例えば、地図情報部200から取得した交差点情報を正しいものとみなした時には、交差点整合性判定部500は、センサ部100のセンサ情報を不良と判定することが可能である。このような判定処理を「整合性判定」と呼ぶ。なお、地図情報部200が管理する地図情報が古く、センサ部100が実際に観測したセンサ情報が新しいことで、地図情報とセンサ情報とが整合しない場合もある。この場合、一概にセンサ情報を不良と判定することはできない。
 ここで整合性判定の具体例について説明する。整合性判定部(交差点整合性判定部500)は、道路形状推定部(交差点形状推定部400)が推定した道路モデル(交差点モデル)と、地図情報で示される道路の道幅、及び道路構造の接続関係を比較することで、センサ情報と推定結果の整合性を判定する。例えば、交差点整合性判定部500は、交差点形状推定部400から推定結果として交差点モデルを取得できるときは、取得した交差点モデルの道幅、道路の接続関係といった情報に基づいて、交差点モデルとセンサ情報との整合性判定を行う。
 また、交差点整合性判定部500は、交差点情報処理部300が生成した交差点モデルを直接取得して、この交差点モデルを整合性判定に使用してもよい(図1に破線で示す接続形態)。また、交差点整合性判定部500は、地図情報部200から取得した地図情報と、交差点形状が推定された推定結果の交差点モデルとを比較することで整合性判定を行ってもよい。また、交差点整合性判定部500は、交差点形状推定部400から、交差点形状が推定された推定結果に関する信頼度が取得できるときは、信頼度を使用して整合性判定を行ってもよい。そして、整合性判定部(交差点整合性判定部500)は、自車が過去に走行した交差点の整合性判定の結果を保存する。
 表示・警報・制御部600は、交差点形状推定部400の結果を取得し、認識結果の表示を行う。また、表示・警報・制御部600は、自車のドライバーに対し、運転サポート情報を表示したり、安全支援のための警報や車両制御、自動運転のサポートなどを実施したりする。また、表示・警報・制御部600は、交差点整合性判定部500の判定結果の表示や警告を行ってもよい。このため、表示・警報・制御部600は、各種の情報を表示するための表示装置、警報を放音するためのスピーカ等により構成される。
<センサ部100の構成例>
 図2は、センサ部100の構成例を示すブロック図である。
 センサ部100は、左カメラ101、右カメラ102、マッチング部103及び3D点群部104を備える。
 上述したようにセンサ部100は、車載フロントセンサを含む。本実施の形態では、左カメラ101及び右カメラ102で構成されるステレオカメラを、フロントセンサの例として記載する。ここで、ステレオカメラの実施の形態について説明する。ステレオカメラを用いた対象物までの距離を測定するセンシング方式は、以下の手順で行われる。
 まず、車体前方の2つの異なる位置に設置された左カメラ101と右カメラ102は、それぞれの画角の範囲内で撮影した左画像と右画像を出力する。次に、左画像と右画像に同一の対象物が写り込んでいる場合に、マッチング部103が、左画像と右画像での同一対象物の画像位置をマッチングにより特定する。マッチング部103は、同一対象物の画像位置を特定した後、左カメラ101と右カメラ102のそれぞれで同一対象物を撮影した場合に、左右画像に写される位置の違いを特定することで、ステレオカメラが搭載された位置から対象物までの距離を測定する。
 3D点群部104は、左カメラ101と右カメラ102が設置された位置を三角形の底辺両端の頂部とし、画像上の同一対象物の位置を頂点とする三角形を特定することで、三角測量により対象物の3次元位置を表す3D点を復元する。そして、3D点群部104は、同一対象物に対して、3D点の復元処理を繰り返し行うことで、多数の3D点群を得る。そして、3D点群部104は、3D点群により表される対象物の3次元位置を、交差点形状推定部400に出力する。
<地図情報部200の構成例>
 図3は、地図情報部200の構成例を示すブロック図である。
 上述したように地図情報部200は、道路に関する地図情報を保有し、その地図上における自車の位置を特定する機能を持つ。本実施の形態に係る地図情報部200は、汎用地図データ部201、GNSS(Global Navigation Satellite System)部202、センシング詳細地図保存部203及びセンシング詳細地図更新部204を備える。
 汎用地図データ部201は、道路網をノードとリンクで表現するカーナビゲーションシステムが保有する地図を汎用地図データとして用いる。ただし、汎用地図データ部201は、カーナビゲーションシステムが保有する地図に限定する必要はない。例えば、インターネット上にてフリーで公開されているような地図でもよいし、サーバー経由でアクセス可能な商用の地図であっても問題ない。後述する図11の上部に示すように、汎用地図データ部201は、地図上の位置を示すノードと、そのノードをつないで道路網を構成するリンクからなるデータである。そして、汎用地図データ部201は、このノードとリンク情報を基本として道路網を表現する。
 GNSS部202は、汎用地図データ部201にて表現されるノードとリンク情報から構成された道路網における自車の位置を、GNSS情報を利用して特定する。更に、このGNSS情報は、他センサ、例えばカメラやレーダ、ジャイロ、自車挙動を利用した自車位置の補正に用いられてもよい。
 センシング詳細地図保存部203は、センサ部100のセンシングによって補強された情報、例えば車線幅や道路角度、車線数、最も外側車線から路肩までの距離、道路形状など、汎用地図にはない情報により強化した地図を、センシング詳細地図のデータ(「センシング詳細地図データ」と呼ぶ)として保存する。また、センシング詳細地図保存部203で更新されたセンシング詳細地図データが、汎用地図データ部201が管理する汎用地図データに追加される。センサ部100は、センシング詳細地図データが追加された汎用地図データを利用することで、自車が次回同じ道路を通過する場合には、前回までの走行時に保存されたセンシング詳細地図を利用してセンシングする。この結果、センサ部100は、更に高精度かつ安定的なセンシングを可能とする。
 センシング詳細地図更新部204は、例えば、汎用地図データが古い、又は一時的な工事などにより道路が通行止めにされている場合に、保存されている汎用地図データを、センシング詳細地図データで更新する機能を有する。この更新機能は、センサ部100が出力するセンサ情報を利用して行われる。この更新機能により汎用地図データに存在しない新しい道路などの情報が、汎用地図データに追加されることとなる。また、従来通行可能であった道路に関しても、この道路が通れないような場合には、通行不可であることを更新したセンシング詳細地図データがセンシング詳細地図保存部203に保存され、その後、汎用地図データが更新される。
 ただし、センシング詳細地図更新部204は、車両が道路を一度走行しただけでは汎用地図データの更新を決定せず、センシング詳細地図データとしてセンシング詳細地図保存部203に保存するのみとする。このため、車両が通行不可であることを、センサ部100が何度もセンシングした後に、センシング詳細地図更新部204は、道路が通行不可であると判断して、最終的にセンシング詳細地図データを用いて汎用地図データの更新を実施する。このような更新処理の判断は、汎用地図データに記憶されていない新しい道路においても同様である。つまり、センシング詳細地図更新部204は、最初のうちはセンサ部100がセンシングした新しい道路の情報をセンシング詳細地図データに仮登録するが、最終的な地図のデータとしては登録しない。センシング詳細地図更新部204は、車両が何度かその道路を通過することによって信頼できる道路であることを確認してから、新しい道路を含むセンシング詳細地図データを最終的な地図のデータとして、汎用地図データに追加登録する。
<交差点情報処理部300の構成例>
 図4は、交差点情報処理部300の構成例を示すブロック図である。
 交差点情報処理部300は、地図情報部200から取得した自車前方に存在する交差点の交差点情報と、センサ分解能特性保存部312から取得したセンサに応じたセンサ分解能特性とに基づいて、センサからの交差点の見え方を予測し、予測した見え方に対応した交差点モデルを生成する。この交差点情報処理部300は、センサ分解能特性管理部310、交差点外観予測部320、及び交差点モデル生成部330を備える。
(センサ分解能特性管理部310の構成例)
 始めに、センサ分解能特性管理部310の構成例について説明する。
 センサ分解能特性管理部(センサ分解能特性管理部310)は、自車の自車位置から、道路形状が変化する位置までの距離に応じた、センサ部(センサ部100)のセンサ分解能特性を管理する。例えば、センサ分解能特性管理部310は、自車位置から交差点までの距離と、センサのセンサ分解能特性に影響を与える環境情報とを取得し、取得した環境情報に応じたセンサ分解能特性を交差点外観予測部320に出力する。このセンサ分解能特性管理部310は、環境情報取得部311及びセンサ分解能特性保存部312を備える。
 センサ分解能特性管理部(センサ分解能特性管理部310)は、限界距離に影響を与える環境情報を取得する環境情報取得部(環境情報取得部311)を有する。環境情報取得部311は、センサ分解能特性や、センサの観測限界に影響を与える環境情報を取得する機能を持つ。例えば、ステレオカメラや単眼カメラのような輝度値を観測するセンサの場合、環境の照度変化により交差点の見えやすさが変化する。このように環境状況によってセンサが対象物を観測する難易度は異なるため、環境の照度変化に関わる時刻を環境情報として取得する。
 また、環境の照度変化に影響を与える要因として天候も考えられるため、環境情報取得部311は、天候情報を環境情報として取得してもよい。また、自車のヘッドライトが点灯していた場合、夜間や悪天候などの低照度環境においてもセンサの観測範囲は広がる可能性があるため、環境情報取得部311は、ヘッドライトの作動状況を環境情報として取得してもよい。同様に、交差点周辺の街灯が点灯している場合も、センサの観測範囲に影響を及ぼすため、環境情報取得部311は、街灯の作動状況を環境情報として取得してもよい。また、自車周辺に他車や歩行者などの障害物が存在する場合、障害物後方の交差点をセンサで観測することができず、交差点情報処理部300が交差点情報を取得することができない。そのため、環境情報取得部311は、自車周辺の障害物に関する情報を取得してもよい。
 センサ分解能特性管理部(センサ分解能特性管理部310)は、道路の特有の形状をセンサ部(センサ部100)が観測できる限界距離を、センサ分解能特性として保存するセンサ分解能特性保存部(センサ分解能特性保存部312)を有する。例えば、センサ分解能特性保存部312は、交差点側方の道幅を観測できる距離や、自車が走行する車線のカーブを観測可能な距離などをセンサ分解能特性として保存する。そして、センサ分解能特性管理部(センサ分解能特性管理部310)は、環境情報に応じたセンサ分解能特性をセンサ分解能特性保存部(センサ分解能特性保存部312)から読み出して、外観予測部(交差点外観予測部320)に出力する。ここで、センサ部100が観測した十字交差点のセンサ情報の例について、図10を参照して説明する。
<十字交差点のセンサ情報の例>
 図10は、十字交差点のセンサ情報の例を示す図である。各図の中心付近にあるマーク31は、センサがセンシングした十字交差点の中心位置(2本の道路が交差する位置)を表す。
(a)自車の近傍にある十字交差点
 自車が交差点に接近した時、センサは、図10の説明図(a)に示すように十字交差点で分岐する道路の道幅を観測することができる。
(b)自車から遠方にある十字交差点
 交差点が自車の遠方にある場合、センサは、図10の説明図(b)に示すように左右に分岐する道路の道幅を正確に観測できない。このため、交差点情報処理部300は、センサ情報に基づいて左右に分岐する道路の道幅を正確に捉えることができない。
 そこで、センサ分解能特性保存部312は、センサ部100が、左右に分岐する交差点側方の道幅を観測できる限界距離(以降、「第1距離」と呼ぶ)をセンサ分解能特性として保存する。センサ分解能特性保存部312が地図情報部200から道路の道幅情報を取得できる場合、センサ分解能特性保存部312は、交差点や道路の形状を認識するために使用されるセンサのセンサ種別と、地図情報部200から取得した道幅情報とを合わせて第1距離を算出することができる。
 また、地図情報部200に道幅情報が含まれておらず、代わりに道路構造令で定められている道路の種別と等級の情報が含まれている場合には、この種別と等級の情報に基づき道路構造令に示されている車線幅や路肩までの距離の規定値を道幅情報として使用して第1距離を算出してもよい。また、センサ分解能特性保存部312は、以前に車両が走行した際に取得した道幅情報を保存している場合は、この道幅情報を使用して第1距離を算出してもよい。
(c)低照度時の十字交差点
 また、センサ分解能特性保存部312は、センサの観測限界距離をセンサ分解能特性として保存してもよい。ステレオカメラや単眼カメラのような輝度値を観測するセンサの場合、低照度環境ではセンサの観測範囲が狭まる。例えば、夜間、又は悪天候下においてセンサの観測範囲が狭まった場合、図10の説明図(c)に示すように自車の近辺しかセンサが観測できていないことを示すセンサ情報が得られる。このため、自車の遠方にある交差点の様子は観測できていない。
 このように、環境の照度変化に応じた観測限界距離(以降、「第2距離」と呼ぶ)は、交差点の見え方に大きく影響するため、照度変化と第2距離との関係をセンサ分解能特性保存部312に保存してもよい。一方で、低照度環境においても、ヘッドライトが作動していたり、交差点近辺の街灯が点灯していたりする状況では第2距離は長くなる。そこで、センサ分解能特性保存部312には、街灯の作動状況や街灯の点灯状況を考慮した第2距離が保存されてもよいし、これらの状況を示す情報が第2距離と共に保存されてもよい。
(d)障害物により一部が隠れた十字交差点
 また、センサ分解能特性保存部312は、環境情報取得部311が取得した障害物の位置、大きさを保存してもよい。例えば、障害物として、交差点の手前に路上駐車されている自動車が存在していたとする。この場合、図10の説明図(d)に示すよう障害物によって一部が遮蔽された交差点がセンサで観測される。障害物が交差点や道路を遮蔽する遮蔽範囲32(図中に影付きで示す領域)は、障害物の位置、大きさで決まる。そこで、遮蔽範囲32、又は障害物の位置、大きさを表す情報をセンサ分解能特性保存部312が保存してもよい。
(交差点外観予測部320の構成例)
 次に、交差点外観予測部320の構成例について、図4を参照して説明する。
 外観予測部(交差点外観予測部320)は、センサ分解能特性管理部(センサ分解能特性管理部310)から取得したセンサ分解能特性に基づいて、距離に応じた道路の外観を予測する。例えば、交差点外観予測部320は、センサ分解能特性管理部310から入力したセンサ分解能特性に基づいて、センサが観測した交差点の外観を予測する。この交差点外観予測部320は、自車位置特定部321、交差点情報解析部322及びモデル選択部323を備える。
(自車位置特定部321の構成例)
 次に、自車位置特定部321の動作を説明するために、図5を参照して自車位置特定部321の構成例を説明する。
 図5は、自車位置特定部321の構成例を示すブロック図である。
 自車位置特定部(自車位置特定部321)は、地図情報に含まれる地図における自車位置を特定する。この自車位置特定部321は、GNSS誤差解析部3211、センサ誤差解析部3212及び時系列統合補正部3213を備える。
 GNSS誤差解析部3211は、自車の挙動と、不図示のナビゲーションシステムが取得したGNSS情報とを活用した、自車位置の誤差解析を実施する。ここで、GNSS誤差解析部3211は、自車が地図上のどの部分を走行しているかを地図情報と照らし合わせながら誤差(GNSS誤差)を解析する。解析結果である誤差情報は、より高精度な自車位置の補正に利用される。このため、GNSS誤差解析部3211は、解析した誤差情報を時系列統合補正部3213に出力する。
 センサ誤差解析部3212は、慣性センサ(ジャイロ)やカメラ、ミリ波、Lidarなどのセンサから得た情報を利用することで、地図上における自車位置の縦位置、横位置の誤差(センサ誤差)を解析する。そして、センサ誤差解析部3212は、時系列統合補正部3213に誤差情報を出力する。
 時系列統合補正部3213は、GNSS誤差解析部3211及びセンサ誤差解析部3212から取得した誤差情報を利用して、地図上の自車位置の補正を実施する。ただし、時系列統合補正部3213が、瞬間的な判定結果からGNSS誤差やセンサ誤差に基づく自車位置の補正を実施すると、不確定な情報で自車位置が更新されたり、不安定な位置更新となったりしやすい。このため、時系列統合補正部3213は、時系列に誤差を解析し、解析結果を統合することで安定的な誤差補正を実施する。
(交差点情報解析部322の構成例)
 次に、交差点情報解析部322の動作を説明するために、図6を参照して交差点情報解析部322の構成例を説明する。
 図6は、交差点情報解析部322の構成例を示すブロック図である。
 道路情報解析部(交差点情報解析部322)は、特定された自車位置と、地図情報とに基づいて、自車の進行方向の前方に存在する道路形状(交差点の形状)を表した道路形状情報(交差点情報)を取得し、道路形状情報(交差点情報)を解析する。例えば、交差点情報解析部322は、地図情報部200から取得した交差点情報を解析する。この交差点情報解析部322は、進行路データ読込部3221及び基本形状解析部3222を備える。交差点情報解析部322は、最初に自車の進行路に相当する地図情報の読み込みと、後述する図11の上部に示すノードとリンク情報を含むデータの読み込みとを進行路データ読込部3221で実施させる。
(交差点の基本構造)
 ここで、交差点の基本構造について、図11を参照して説明する。
 図11は、交差点の基本構造の例を示す図である。図11の上部には、地図と自車位置の例が示され、図11の下部には、Y字、T字、十字の交差点の基本構造から予測される交差点の形状の例が示される。
 図11の上部には、自車が存在する大まかに区切られた地図領域が示される。この地図領域は、例えば、5km四方に地図領域が分割されている。そして、進行路データ読込部3221は、例えば、自車が存在する5km四方に存在するノードとリンク情報のデータを地図情報部200から読み込む。基本構造に示されるノードとリンク情報のデータは、地図から自車の進行方向に存在する道路(「進行路」と呼ぶ)を認識するために用いられる。
 図6に示す基本形状解析部3222は、進行路データ読込部3221が読み込んだ自車周辺の交差点のノードとリンク情報からなる基本構造を、進行路データ読込部3221から取得する。更に、基本形状解析部3222は、自車位置と、自車進行路との解析結果に応じて、自車前方に存在する交差点の交差点形状を予測する。
 例えば、図11の上部に示す地図上で自車が上方向に進行することが表される場合に、基本形状解析部3222は、自車前方の交差点が十字路であること、及びその十字路までの自車位置からの距離などを予測する。図11の下部には、基本形状解析部3222が、自車前方の交差点の基本構造が十字であることを、複数の基本構造で表される交差点から選択したことが示される。ここでは、十字以外の基本構造で表される交差点が選択されていないことを表すため、十字以外のY字、T字の交差点の基本構造がグレーアウトされる。
(モデル選択部323の動作例)
 次に、図4に戻ってモデル選択部323の動作を説明する。
 モデル選択部(モデル選択部323)は、道路形状情報に基づいて、センサ分解能特性管理部(センサ分解能特性管理部310)から取得したセンサ分解能特性と、センサ情報とに基づいて、モデル生成部(交差点モデル生成部330)が生成可能なモデルを選択する。例えば、モデル選択部323は、地図情報部200から取得した自車前方に存在する交差点の交差点情報と、センサ分解能特性保存部312から取得したセンサ分解能特性とに基づいて、高分解能モデル又は低分解能モデルのいずれを使用するかを選択し、選択結果を交差点モデル生成部330に出力する。ここで、高分解能モデルは、センサ部100のセンサ情報を用いて側方の道幅を検知できると推定された場合に使用されるモデルであり、以下の説明では、「第1モデル」と呼ぶ。一方、低分解能モデルは、センサ部100のセンサ情報を用いて側方の道幅を検知できないと推定された場合に使用されるモデルであり、以下の説明では、「第2モデル」と呼ぶ。
(一つのモデルを選択して使用する例)
 モデル選択部323は、まず交差点情報解析部322から自車前方の交差点種別を取得する。次に、モデル選択部323は、取得した交差点種別をもとに、センサ分解能特性管理部310で管理されている第1距離を取得する。その後、モデル選択部323は、交差点情報解析部322から取得した、自車位置から交差点までの距離と、第1距離とを比較する。そして、モデル選択部323は、自車位置から交差点までの距離が第1距離より短く、交差点側方の道幅をセンサが観測できると判断した場合には第1モデルを選択する。一方、モデル選択部323は、自車位置から交差点までの距離が第1距離より大きく、交差点側方の道幅をセンサが観測できないと判断した場合には第2モデルを選択する。最終的に、モデル選択部323は、選択結果を交差点モデル生成部330に出力する。
(複数のモデルを切り替えて使用する例)
 なお、モデル選択部323は、自車位置から交差点までの距離と、第1距離との比較により、第1モデル又は第2モデルのいずれかだけを切り替えるのではなく、3つ以上の複数のモデルを切り替えて使用してもよい。
 図12は、モデル選択部323が複数のモデルを切り替えて使用する例を示す図である。ここで、複数のモデルを1つのモデルとして扱うことのできる可変モデルを「第3モデル」と呼ぶ。モデル選択部323が第3モデルを選択すると、以下のように切り替え可能な複数のモデルが交差点モデル生成部330により生成される。
 例えば、交差点が第1距離より遠方にある場合には、センサが交差点側方の道幅を観測できない。このため、交差点モデル生成部330は、自車位置から第1距離より遠方にある十字交差点を、図12の説明図(a)に示すモデルとして生成する。
 一方、交差点が第1距離より近傍にある場合には、自車が交差点に接近するにつれセンサが観測する交差点側方の道幅の大きさも拡大する。そして、自車位置から交差点までの距離が第1距離を下回った直後は、センサが交差点側方の道幅をわずかに観測できる。そこで、交差点モデル生成部330は、自車位置から第1距離以下の位置にある十字交差点を、図12の説明図(b)に示すモデルとして生成する。
 さらに、自車が交差点に接近すると、交差点側方の道幅が拡大する。図12の説明図(c)の左側には、自車が十字交差点の近傍に接近した時の様子が示される。図中の太い実線は、交差点を構成する側道の道路境界を表す。図中の自車位置を扇形の要として、一点鎖線の扇形で表すセンサの視野範囲内のうち、障害物等で遮られることなくセンサが観測可能な範囲が破線で表される。そして、交差点モデル生成部330は、自車の近傍にある十字交差点を、図12の説明図(c)の右側に示すモデルとして生成する。このモデルでは、十字交差点を構成する道路の境界が明確になっていることが示される。
 モデル選択部323は、第3モデルを選択したという選択結果と、センサが観測する交差点側方の道幅の大きさとを、交差点モデル生成部330に出力する。交差点モデル生成部330では、図12の説明図(a)、(b)、(c)の順に連続変化する交差点モデルが生成される。このようにモデル選択部323によって第3モデルが選択されると、自車が交差点に接近するにつれて、交差点モデル生成部330が生成する交差点モデルが連続的に変化する。
 なお、モデル選択部323は、センサ分解能特性管理部310から第2距離を取得できる場合は、第1モデル又は第2モデルのどちらを使用するかの選択結果と共に、取得した第2距離を交差点モデル生成部330に出力してもよい。交差点モデル生成部330は、第2距離に基づいて、第1モデル又は第2モデルを生成することができる。また、モデル選択部323は、自車周辺の障害物情報がセンサ分解能特性管理部310から取得できる場合は、この障害物情報を交差点モデル生成部330に出力してもよい。交差点モデル生成部330は、障害物情報を用いることで、センサの観測範囲に障害物があることで、現時点ではセンサが自車の前方を正確に観測できないことを把握する。
(交差点モデル生成部330の構成例)
 次に、図4に戻って交差点モデル生成部330の構成例及び動作例を説明する。
 モデル生成部(交差点モデル生成部330)は、外観予測部(交差点外観予測部320)により予測された道路の外観に基づいて、道路をモデル化した道路モデル(交差点モデル)を生成する。例えば、交差点モデル生成部330は、交差点情報解析部322から取得した交差点情報と、モデル選択部323により選択されたモデルの情報とを取得し、センサ分解能特性管理部310から取得したセンサ分解能特性に応じた交差点モデルを生成する。この交差点モデル生成部330は、モデル付加情報取得部331、モデル付加情報更新部332、高分解能モデル生成部333及び低分解能モデル生成部334を備える。
 ここで、交差点モデル生成部330が生成する交差点モデルについて、図13を参照して説明する。
 図13は、交差点モデルの基本構造と、復元された交差点モデルの詳細構造の例を示す図である。
 図13の上側には、交差点の基本構造の一例として、十字交差点が示される。十字交差点の基本構造は、例えば、図11に示した基本形状解析部3222の解析処理により予測されたものとする。
 図4に示す交差点モデル生成部330は、交差点情報解析部322から、図13の上側に示す交差点の基本構造を取得する。モデル付加情報取得部331は、付加情報(道幅、角度等)を取得し、ノードとリンク情報で表される基本構造に付加情報を付加することで、図13の下側に示す交差点の詳細構造を復元する。
 図13の下側には、デフォルト値、又は前回までに取得されたセンシング値を交差点の基本構造に付加して、交差点モデルの詳細構造が復元される様子が示される。デフォルト値、又は前回までに取得されたセンシング値として、例えば、車線数、車線幅、路肩位置、及び交差点角度がある。そして、図13の下側に示すように、例えば、路肩位置が1.6m、車線幅が3.0m、片側3車線、路肩交差点角度及び白線交差点角度が90度である交差点モデルが生成される。
 地図情報部200に車線数や車線幅、道路や白線同士の角度情報などの付加情報が保存されている場合、モデル付加情報取得部331は、地図情報部200から付加情報を取得する。しかし、地図情報部200が利用する地図情報によっては、車線数や車線幅、道路同士の角度、車線から路肩までの距離などの詳細な付加情報を取得できない場合もある。モデル付加情報取得部331が、これらの情報を部分的にでも取得できない場合、交差点モデル生成部330は、デフォルトの情報を利用する。このデフォルト情報についても常に一定の、例えば車線数2本、車線幅3m、路肩1.5mなどの固定情報としてもよいが、地図情報部200にある道路の種別や等級などの情報に基づいたデフォルト値を設定し、モデル付加情報を生成してもよい。
(デフォルト値の例)
 次に、交差点モデル生成部330が利用するデフォルト値を含むデフォルト情報について、図14~図16を参照して説明する。
 上述したように地図情報部200にモデル付加情報がない場合、交差点モデル生成部330は、間接的な情報を利用して道路の状況に応じたデフォルト値を設定する。交差点モデル生成部330は、固定のデフォルト値を利用するより、道路の状況に応じて設定したデフォルト値を切り替えて利用することで、より精度の高い詳細道路形状を復元し、センサの観測に利用することができる。
 図14は、道路構造令に定義される道路の種別と、道路の等級の情報の例を示す表である。
 図14Aは、道路の種類及び地域ごとに定義された第1種~第4種の道路の種別が記載された表である。
 図14Bは、道路の種類及び地域の地形に対する1日当たりの計画交通量(台/日)で規定される道路の等級が記載された表である。
 図14A,図14Bに示す道路の種別と等級の情報が地図情報部200に保存されているとする。この場合、交差点モデル生成部330は、地図情報部200から取得した道路の種別と等級の情報に基づいて、道路構造令に定義される規定値をデフォルト値として利用することで詳細な道路形状の交差点モデルを高精度に復元してもよい。
 図15は、道路構造令に定義される道路の種級区分と、普通道路の車線幅の例を示す表である。
 道路の種級区分は、道路の種別(第1種~第4種)に対して、道路の等級(第1級~第4級のいずれか1つ以上)が定義される。そして、道路の種級区分ごとに普通道路の車線幅が規定値として定義されている。そこで、図15に示す道路の種級区分と、普通道路の車線幅の情報が地図情報部200に保存されているとする。この場合、交差点モデル生成部330は、地図情報部200から取得した道路の区分と、普通道路の車線幅に基づいて、道路構造令に定義される規定値をデフォルト値に利用することで、詳細な道路形状の交差点モデルを高精度に復元してもよい。
 図16は、道路構造令に定義される道路の種級区分と、普通道路の路肩の幅員の例を示す表である。
 道路の種級区分は、道路の種別(第1種~第4種)に対して、道路の等級(第1級~第5級のいずれか1つ以上)が定義される。そして、道路の種級区分ごとに、普通道路の左側に設けられる路肩の幅員と、普通道路の右側に設けられる路肩の幅員とが規定値として定義されている。そこで、図16に示す道路の種級区分と、普通道路の左側及び右側の路肩の幅員の情報が地図情報部200に保存されているとする。この場合、交差点モデル生成部330は、地図情報部200から取得した道路の種級区分と、普通道路の路肩の幅員に基づいて、規定値をデフォルト値に利用することで、詳細な道路形状の交差点モデルを高精度に復元してもよい。
 ところで、地図情報部200には、図14~図16に示した道路の種別と等級などの情報がない場合もある。このため、交差点モデル生成部330は、道路の種別と等級などの情報に応じて規定されるデフォルト値を地図情報部200から参照できない場合もある。そこで、交差点モデル生成部330は、地図情報部200が保有する別の情報をベースとし、道路に応じてデフォルト値を切り替えて利用することで、詳細な道路形状の交差点モデルを復元してもよい。この例について、図17と図18を参照して説明する。
 図17は、道路の種類及び種別、又は道路の等級に対応する道路情報の例を示す表である。図17に示す各表は、交差点モデル生成部330が交差点モデルを生成するための直接的な車線幅や車線数、路肩などの情報が地図情報部200に無く、更に道路の種別又は等級情報のいずれか一方が無い場合に用いられる代案例として表される。
 図17Aは、道路の種類及び種別に応じた片側車線数、車線幅及び路側帯の情報を格納した表である。図17Aの表には、道路の種類と種別情報のみがあり、等級情報がない。図17Aの表だけでは、詳細な道路構造令の規格を1次元の種別情報では表現しきれない。しかし、図17Aの表に格納される情報は、大まかな道路の幅や車線数を予測する際には、有用である。このため、全く情報が無い場合と比較すれば、交差点モデル生成部330は、道路情報を正確に予測して、交差点モデルを復元することができる。
 図17Bは、道路の等級に応じた片側車線数、車線幅、設計速度及び路側帯の情報を格納した表である。図17Bの表には、道路の等級情報のみがあり、種別情報がない。この図17Bの表だけでも詳細な道路構造令の規格を1次元の種別情報では表現しきれない。しかし、図17Bの表に格納される情報は、大まかな道路の幅や車線数を予測する際に、有用である。このため、全く情報が無い場合と比較すれば、交差点モデル生成部330は、道路情報を正確に予測して、交差点モデルを復元することができる。
 図18は、道路の種類、又は制限速度に対応する道路情報の例を示す表である。図18に示す各表は、交差点モデル生成部330が交差点モデルを生成するための直接的な車線幅、車線数、路肩などの情報が地図情報部200に無く、更に道路の種別及び等級情報が無い場合に用いられる代案例として表される。
 図18Aは、道路の種類に応じた片側車線数、車線幅、設計速度及び路側帯の情報を格納した表である。図18Aの表には、道路種別や等級の情報が存在しないが、道路の種類がおおまかに保存されている。つまり、図18Aの表には、道路の種類に応じたデフォルト値が設定されている。この図18Aの表により、車両が走行している道路の種類に応じて、交差点モデル生成部330が交差点モデルを生成するための情報がデフォルト値(固定値)により適切に設定される。また、詳細な道路形状ごとのデフォルト値が、交差点モデル生成部330が参照可能な不図示のテーブルに設定される。なお、汎用地図に部分的にでも車線数のような情報が保存されている場合、交差点モデル生成部330は、汎用地図に保存された情報を優先して利用し、不足している情報のみを状況に応じたデフォルト値を利用することで交差点モデルの高精度化を図るようにする。
 図18Bは、制限速度に応じた片側車線数、車線幅、設計速度及び路側帯の情報を格納した表である。図18Bの表においても、道路種別や等級の情報が存在しないが、制限速度に応じたデフォルト値が設定されている。この図18Bの表により、車両が走行している道路の制限速度に応じて、交差点モデル生成部330が交差点モデルを生成するための情報がデフォルト値により適切に設定される。そして、詳細な道路形状ごとのデフォルト値がテーブルに設定される。
 また、地図情報部200には、道路の種類に関する情報が保存されていないものの、制限速度に関する情報が保存されている場合、又はセンサ情報若しくは通信により、制限速度に関する情報が得られた場合がある。これらの場合には、図18Bの表に示すテーブルに基づいて、交差点モデル生成部330が制限速度に応じてデフォルト値を動的に切り替えるような方法を採用してもよい。また、交差点モデル生成部330は、自車が走行する道路の状況に応じて、間接的に車線数や車線幅、路側帯の距離などを動的に設定する方法であってもよい。
 なお、交差点モデル生成部330が、図14~図18に示す各表に基づく情報を得られなくても、地図情報部200が通信により受信した情報、地図情報部200が有する地図情報、又はセンサ部100によるセンサ情報のいずれかにより、道路の制限車速が得られる場合がある。この場合、交差点モデル生成部330は、得られた制限車速に応じた道路のデフォルト値を参照可能なテーブルを利用して、交差点モデルを生成してもよい。更に、交差点モデル生成部330が、通信により受信する情報、地図情報、及びセンサ情報のいずれの情報も得られない場合、全固定のデフォルト値を設定して、交差点モデルを生成してもよい。
(モデル付加情報更新部332の構成例)
 次に、図4に示したモデル付加情報更新部332の構成例及び動作例について、図7を参照して説明する。
 図7は、モデル付加情報更新部332の構成例を示すブロック図である。
 モデル付加情報更新部332は、車両が同じ場所を走行した際に、前回までに取得したセンサ情報を利用してもよいか否かを、センサ情報の信頼度に基づいて判断する。この判断に際して、過去に自車が走行した道路の路端や車線、道路の起伏情報など、センサ部100が観測して得たセンサ情報が用いられる。ここで、モデル付加情報更新部332は、センサ情報の信頼度が、ある閾値よりも低ければ、このセンサ情報を今回だけの暫定値として利用し、地図情報部200へのデータ保存や更新のために送信しない。逆に、センサ情報が閾値以上であり、十分な信頼度がある場合、モデル付加情報更新部332は、このセンサ情報を地図情報部200へ送信する。そして、地図情報部200が、受信したセンサ情報の保存や更新を実施する。
 ただし、地図情報部200は、一度しかセンサ情報を受信していなければ、このセンサ情報を用いる地図情報部200へのデータの保存や更新を実施しない。このため、地図情報部200は、何度か信頼度の高いセンサ情報を受信した場合に、信頼度の高いセンサ情報を用いて、データの保存や更新を実施する。あるいは、今回、センサ部100が観測して得たセンサ情報の信頼度が極めて高く、更に既に保存されていたデータとの一致度が高い場合には、地図情報部200は、保存されていたデータと今回のセンサ情報とを融合して地図データを更新してもよい。
 このモデル付加情報更新部332は、路端更新部3321、車線更新部3322、及び起伏更新部3323を備える。路端、車線、及び起伏は、いずれも交差点モデル生成部330が、高精度な交差点モデルを生成するために付加されると有用なモデル付加情報として用いられる。
 路端更新部3321は、最も外側車線と路端との位置関係に関する情報の更新を実施する。また、路端更新部3321は、車線と路端の形状が変形するような情報に関しても更新などを実施する。
 車線更新部3322は、道路の車線数に基づいて、交差点や分岐合流における車線形状の複雑な変化や、車線幅の情報、道路同士の角度など、地図情報部200が保有していない情報に関して、信頼度に応じたセンサ情報の再利用の判断を実施する。
 起伏更新部3323は、道路の凹凸や傾斜に関する情報を取り扱う。例えば、住宅地に入る道路に設定されている速度抑制用の凸形状の小さなこぶや大きなこぶなどについても、形状や位置についてある程度の信頼度がある場合、起伏更新部3323は、これらの道路の起伏に関する情報を地図情報部200へ渡すかどうかを判断する。
 更に、センサ部100のセンサ情報がある程度の信頼度を超えた場合、交差点モデル生成部330は、地図情報部200にセンサ情報を保存する。そして、交差点モデル生成部330は、地図情報部200に保存されたセンサ情報を再利用することで、道路に応じた車線幅などを、今回、車両が走行することでセンサ部100がセンシングする前に、交差点モデル生成部330が事前知識として利用することを可能とする。
 ただし、自車が一度走行しただけでは、道路の車線幅などが正確に得られたかどうかは分かりにくい。例えば、センサ情報に含まれる車線幅は、工事中の暫定的な車線幅であるかもしれない。また、センサ情報には、センサ部100が誤った情報を観測した可能性や、駐車車両によって白線が隠されていたことで、本来の車線とは異なる情報が観測された可能性も想定される。このような場合を想定し、交差点モデル生成部330は、走行時の認識車線幅がある程度の信頼度を超えていることを確認すると同時に、自車が同じ道路を通過したときに同じ車線幅を認識していることの確認を繰り返すことで、センサ情報(センサ情報)に対する信頼度を上昇させていく。この信頼度は、例えば、地図情報部200に保存されたセンサ情報に付加される。なお、自車が一度走行しただけの道路では、地図情報部200にセンサ情報が保存されないので、交差点モデル生成部330は、このセンサ情報を低い信頼度として認識することが多い。
 交差点モデル生成部330は、モデル付加情報取得部331からモデル付加情報を取得した後、モデル選択部323の選択結果をもとに交差点モデルを生成する。ここで、モデル生成部(交差点モデル生成部330)は、距離が所定値以内の場合に、自車位置の前方に存在し、センサ部(センサ部100)が観測する特定の道路に対応する第1モデルを生成する高分解能モデル生成部(高分解能モデル生成部333)を有する。また、モデル生成部(交差点モデル生成部330)は、距離が所定値より大きい場合に、センサ部(センサ部100)が観測できない特定の道路に対応する第2モデルを生成する低分解能モデル生成部(低分解能モデル生成部334)を有する。
 交差点モデルの生成は、高分解能モデル生成部333又は低分解能モデル生成部334により行われる。センサ部100が交差点側方の道幅を観測できた場合であって、モデル選択部323が、第1モデルを選択した場合、高分解能モデル生成部333により交差点モデルが生成される。一方、センサ部100が交差点側方の道幅を観測できない場合であって、モデル選択部323が第2モデルを選択した場合、低分解能モデル生成部334により交差点モデルが生成される。
<交差点モデルの表現方法>
 ここで、交差点モデル生成部330により生成される交差点モデルの表現方法について、図19を参照して説明する。
 図19は、交差点の詳細構造、及び交差点モデルの例を示す図である。
 図19の左上には、交差点の詳細構造の例が示される。この交差点の詳細構造は、ノードとリンク情報で表される基本構造に対して、モデル付加情報取得部331で取得された付加情報が付加されて復元されたものである。
 図19のモデル図(a)は、直線モデルの例を示す。交差点モデル生成部330が、交差点の詳細構造を直線で表現する場合、モデル図(a)に示す直線モデルが用いられる。この直線モデルは、住宅地に存在する周囲が家の壁や塀で囲まれている交差点の形状推定に用いられる。
 図19のモデル図(b)は、円弧モデルの例を示す。交差点モデル生成部330が、交差点の詳細構造を円弧で表現する場合、モデル図(b)に示す円弧モデルが用いられる。主要幹線道路など、住宅地の交差点と比較して大きな交差点では、交差点の角が円弧状に設計されている。そこで、円弧モデルは、このように角が円弧状に設計される交差点の形状推定に用いられる。
 図19のモデル図(c)は、折れ線モデルの例を示す。交差点の詳細構造を折れ線で表現する場合、モデル図(c)に示す折れ線モデルが用いられる。交差点内部に存在するカーブミラーや標識、交差点手前で増設される右左折車線など、交差点モデル生成部330が、より詳細な交差点形状を表現したい場合には、折れ線モデルが用いられる。
 図19のモデル図(d)は、カメラ視点モデルの例を示す。カメラ視点で見た時の交差点モデルを表現したい場合、モデル図(d)に示すカメラ視点モデルが用いられてもよい。
 交差点モデル生成部330は、図19に示した交差点の詳細構造を表現する方法が異なる各モデルから、モデル付加情報取得部331で取得された交差点の道幅に基づいて、一つのモデルを選択してもよい。例えば、モデル付加情報取得部331で道路の道幅が片側1車線程度だと推定された場合、交差点モデル生成部330は、住宅地に存在する周囲が家の壁や塀で囲まれている交差点である可能性が高いことから直線モデルを選択する。また、モデル付加情報取得部331で道路の道幅が片側2車線以上だと推定された場合、交差点モデル生成部330は、主要幹線道路など、住宅地の交差点と比較すると、大きな交差点である可能性が高いことから円弧モデルを選択する。
 また、交差点モデル生成部330は、使用されるアプリケーションに基づいてモデルを選択してもよい。例えば、地図とセンサ入力の整合性に基づいて自車位置の誤推定を判定するロケータ機能を有するアプリケーションが用いられる場合、交差点モデル生成部330は交差点の概形を推定できればよい。このため、交差点モデル生成部330は、直線モデルや円弧モデルを選択して交差点モデルを生成する。また、車両が交差点を自動的に右左折することを可能とする車両制御にモデルが使われる場合は、交差点モデル生成部330は、交差点の詳細形状を推定できる折れ線モデルを選択して交差点モデルを生成してもよい。
<複数の交差点モデルの生成方法>
 ここで、高分解能モデル生成部333と低分解能モデル生成部334がそれぞれ生成するモデルの生成方法について、図20を参照して説明する。
 図20は、交差点の詳細構造から生成される第1モデル及び第2モデルの例を示す図である。図20の左上には、図19の左上に示されたものと同様の交差点の詳細構造の例が示される。
 図20のモデル図(a)は、第1モデルの例を示す。高分解能モデル生成部333は、図20の左上に示される交差点の詳細構造に基づいて、高分解能モデルの一例として用いられる第1モデルを生成する。図20のモデル図(a)は、高分解能モデル生成部333が、十字交差点の第1モデルを図19のモデル図(a)で示す直線モデルで表現した場合を示す。ただし、高分解能モデル生成部333は、道幅情報や適応するアプリケーションにより、図19のモデル図(b)、(c)、(d)で示す表現方法の異なるモデルを使用してもよい。
 図20のモデル図(b)は、第2モデルの例を示す。低分解能モデル生成部334は、図20の左上に示される交差点の詳細構造に基づいて、低分解能モデルの一例として用いられる第2モデルを生成する。図20のモデル図(b)は、低分解能モデル生成部334が、十字交差点の第2モデルを図19のモデル図(a)で示す直線モデルで表現した場合を示す。ただし、低分解能モデル生成部334は、道幅情報や適応するアプリケーションにより、図19のモデル図(b)、(c)、(d)で示す表現方法の異なるモデルを使用してもよい。
<交差点の種別に応じた第1モデル及び第2モデルの例>
 図20では十字交差点の場合を示したが、その他の交差点種別に対しても、低分解能モデル生成部334がセンサ分解能を考慮して、第1モデル及び第2モデルを生成することが可能である。
 図21は、交差点の各種別に対して生成される第1モデル及び第2モデルの例を示す図である。
 図21には、4差路、3差路、その他の交差点ごとに設けられる十字、T字等の交差点種別ごとに、高分解能モデル生成部333が生成する第1モデルと、低分解能モデル生成部334が生成する第2モデルの例とが示される。第1モデルは、車両が交差点に近接した時に生成されるため、交差点の形状が詳細構造に近い。一方、第2モデルは、車両が交差点の遠方にある時に生成されるため、交差点の形状が粗い。このため、車両が交差点の遠方にある時は第2モデルを生成し、車両が交差点に近接した時は第1モデルを生成することで交差点の詳細構造に近い交差点モデルが得られる。
<交差点形状推定部400>
 次に、交差点形状推定部400の構成例及び動作例について、図8を参照して説明する。
 図8は、交差点形状推定部400の構成例を示すブロック図である。
 道路形状推定部(交差点形状推定部400)は、センサ情報と、モデル生成部(交差点モデル生成部330)により生成された道路モデル(交差点モデル)とに基づいて、道路形状(交差点形状)が推定された道路モデル(交差点モデル)と、推定結果に関する精度情報を出力する。このため、交差点形状推定部400は、交差点モデル生成部330が生成した交差点モデルを、センサ部100から取得したセンサ情報で示される交差点の特徴にフィッティングさせる。この際、交差点形状推定部400は、交差点モデルを構成するパラメータ(例えば、後述する図19に示すモデルを表現可能なノードの2次元座標)を推定する。この交差点形状推定部400は、路端認識部410、車線認識部420及びパラメータ推定部430を備える。
(路端認識部410の動作例)
 ここで、路端認識部410の動作例について説明する。
 交差点形状推定部400は、路端認識部410を使用して、交差点のモデルフィッティングに利用する路端特徴を求める。路端特徴とは、路端認識部410が、道路に対して、立体的に高い段差部分と、立体的に低い段差部分とを路端の特徴量としてセンサ情報から抽出した情報である。このため、路端認識部410は、道路に対して路肩と、更に路肩の側方に壁などがあった場合には、路肩と壁の両方の特徴量をセンサ情報から抽出する。また、路端認識部410は、壁や建築物、樹木、電柱、側溝などの様々な立体物をも特徴量としてセンサ情報から抽出する。
 道路を走行している自車にとって重要な段差は、自車を中心に最初に接触する段差であるので、この段差に接触しないように自車が走行することが重要である。このため、路端認識部410は、自車を中心に考えて最初に接触する可能性のある段差を強調し、それよりも自車から遠い位置に存在する立体物に関しては、削除するようなノイズ除去処理を実施する。
 これらの処理の実施後、路端認識部410は、自車を中心に、最初に自車が接触する可能性のある段差を路端の点群として利用する。更に、路端認識部410は、この路端の点群を自車挙動に利用し、又は、画像の対応点を利用して時系列に道路の路端点群を構成する。そして、パラメータ推定部430は、この時系列に構成された路端点群と、交差点モデル生成部330により生成された交差点モデルとをフィッティングさせ、交差点モデルのパラメータを推定する。
(車線認識部420の動作例)
 次に、車線認識部420の動作例について説明する。
 交差点形状推定部400は、上記の路端認識部410の認識結果を用いて交差点形状を推定する処理と同様に、車線認識部420が認識した車線特徴を、交差点モデルのフィッティングに使用してもよい。車線認識部420は、自車の走行方向に沿った車線間の境界線、又は車線と路肩間の境界線の特徴となる点の点群を検出する。さらに、車線認識部420は、自車の挙動も利用して、検出した点群を時系列に連続的につないだ車線特徴を生成し、この車線特徴に基づいて車線を認識する。パラメータ推定部430は、生成された車線特徴と、交差点モデルとフィッティングさせることで、交差点モデルのパラメータを推定することができる。
(パラメータ推定部430の動作例)
 次に、パラメータ推定部430の動作例について説明する。
 パラメータ推定部430は、路端認識部410から路端特徴を取得し、車線認識部420から車線特徴を取得する。そして、パラメータ推定部430は、取得したこれらの特徴に最もフィッティングする交差点モデルのパラメータ(図19に示したノードの2次元座標)を求める。その後、交差点形状推定部400は、図1に示したように、推定した交差点モデルのパラメータと、交差点モデルとして第1モデル、第2モデル、又は第3モデルのいずれを選択したかというモデル選択情報を、交差点整合性判定部500に出力する。また、交差点形状推定部400は、センサ情報に対する交差点モデルのフィッティング度合いを算出できる場合には、それも交差点整合性判定部500に出力する。
 なお、交差点形状推定部400で行われる処理に、地図情報部200の情報を使用せずに交差点形状を推定する処理が含まれている場合がある。この場合、交差点モデル生成部330は、パラメータ推定部430にパラメータ推定を行わせず、センサ部100が推定した交差点形状と合わせて、交差点モデル生成部330が生成した交差点モデルを、そのまま交差点整合性判定部500に出力してもよい。
<交差点整合性判定部500の構成例及び動作例>
 次に、交差点整合性判定部500の構成例及び動作例について、図9を参照して説明する。
 図9は、交差点整合性判定部500の構成例を示すブロック図である。
 整合性判定部(交差点整合性判定部500)は、自車の進行方向の前方に存在する複数の道路(交差点)の整合性を判定する。この交差点整合性判定部500は、信頼度判定部510、自車位置判定部520、自車位置探索部530、及び自車位置保存部540を備える。
(信頼度判定部510の動作例)
 信頼度判定部510は、交差点形状推定部400から入力した推定結果に基づいて、交差点の形状推定に利用された交差点モデルと、センサ部100から取得されるセンサ情報との整合性を判定する。
 信頼度判定部510が、交差点形状推定部400により交差点形状が推定された後の第1モデルを取得できる場合、取得した第1モデルの道幅に基づいて整合性判定を行う。例えば、交差点形状推定部400により形状が推定される交差点が、2本(2車線)の道路が交差する十字交差点の場合について説明する。
 例えば、信頼度判定部510は、十字交差点に存在する4本の道路(自車の進行方向、及び逆方向の2本の道路と、これら2本の道路に交差点で交差する右方向及び左方向の2本の道路)の道幅に関して、自車の車幅より狭い道路がある場合を想定する。この場合、交差点形状推定部400が交差点の形状推定に利用したモデルが誤っている、又はセンサ部100から取得したセンサ情報にノイズが多く含まれたため、交差点ではない特徴にモデルがフィッティングしてしまったと考えられる。そこで、信頼度判定部510は、交差点モデルとセンサ情報との整合性がとれていないと判定する。また、信頼度判定部510は、十字交差点に存在する4本の道路に関して、自車が交差点を直進した時に通過する2本の道路の道幅を比較した時に、交差点モデルから取得した道幅が、センサ情報から推定される実際の道幅に対して大きく異なる場合がある。この場合、信頼度判定部510は、交差点モデルとセンサ情報との整合性がとれていないと判定してもよい。
 また、信頼度判定部510が、交差点形状推定部400により交差点形状が推定された後の第2モデルを取得できる場合、第1モデルで行った判定処理と同様に、取得した第2モデルの道幅に基づいて整合性判定を行う。しかし、第2モデルは、図20を参照して説明した通り、十字交差点を2本の直線で表現するモデルである。そこで、信頼度判定部510は、2本の直線間の距離と自車の車幅を比較することで整合性を判定する。
 また、信頼度判定部510が、交差点形状推定部400により交差点形状が推定された後の第3モデルを取得できる場合、自車位置から交差点までの距離が第1距離より小さい場合は第1モデルの整合性判定を行う。そして、信頼度判定部510は、自車位置から交差点までの距離が第1距離より大きい場合には第2モデルの整合性判定と同様に整合性の判定を行う。
 また、信頼度判定部510は、地図情報部200から取得した地図情報と、交差点形状推定部400により交差点形状が推定された後の交差点モデルとを比較することで、地図情報と、交差点モデルとの整合性判定を行ってもよい。地図情報部200において自車の前方に十字交差点が存在していた場合、十字交差点に存在する4本の道路の接続角度は直角である。そこで、信頼度判定部510は、交差点形状推定部400によるモデル推定後の交差点モデルの接続角度を見た時に直角から大きくずれている場合に整合性がとれていないと判定してもよい。
 また、地図情報部200に道路の道幅を推定できる情報(道幅情報、道路構造令における道路の種別と等級、前回走行時の道幅推定結果など)が含まれている場合がある。そこで、信頼度判定部510は、地図情報部200を読み込み、道幅を推定できる情報から取得した道幅情報と、交差点形状推定部400によるモデル推定後の交差点モデルを比較することで、道幅情報と交差点モデルとの整合性判定を行ってもよい。
 また、信頼度判定部510は、交差点形状推定部400から推定結果に関する信頼度が取得できる場合、信頼度に閾値を設け、整合性判定を行ってもよい。また、信頼度判定部510は、交差点形状推定部400から、交差点モデル生成部330が生成した交差点モデルと、センサ部100で推定した交差点形状を取得できる場合、両者を比較することで、交差点モデルと交差点形状との整合性判定を行ってもよい。
(自車位置判定部520の動作例)
 次に、自車位置判定部520の動作例について、説明する。
 本実施の形態に係る交差点モデル生成部330は、交差点情報処理部300で処理された自車位置に基づいて地図情報部200を参照し、自車前方の交差点モデルを生成した上で、交差点形状推定部400が交差点形状を推定する。このため、地図上の自車位置が誤っていた場合には、交差点モデル生成部330は、地図情報部200から自車前方の交差点とは異なる交差点情報を取得してしまい、誤った交差点モデルを生成することがある。そこで、信頼度判定部510が、交差点の形状推定に利用した交差点モデルと、センサ部100から取得したセンサ情報との整合性を判定することで、自車位置の正誤を判定する。
 ところで、交差点形状推定部400における交差点の形状推定に第1モデルを使用した場合の整合性と、形状推定に第2モデルを使用した場合の整合性とでは、交差点整合性判定部500の整合性判定に要する情報の情報量が異なる。例えば、第1モデルの場合、自車が第1距離より交差点に接近しているため、交差点形状推定部400は、交差点側方の道幅も含めた形状推定ができる。そのため、信頼度判定部510により、例えば、十字交差点モデルとセンサ情報との整合性がとれていると判定された場合、交差点整合性判定部500は、自車前方に存在するのは十字交差点であると断定することができる。
 一方、第2モデルの場合では交差点側方の道幅も含めた形状推定ができない。このため、図21に示したとおり、十字交差点とト字(T-Right)交差点で全く同じ交差点モデルが使用される。十字交差点とト字交差点で全く同じ交差点モデルが使用されると、信頼度判定部510により、十字交差点モデルとセンサ情報との整合性がとれていると判定された場合でも、十字交差点かト字交差点の可能性がある。このため、信頼度判定部510は、自車前方に存在する交差点が、十字交差点であると断定できない。
 なお、T字、曲がり角、行き止まりの3種別の道路形状についても同じ第2モデルが適用される。このため、交差点の形状がT字であっても、曲がり角、行き止まりと同形状の第2モデルが選択されるため、信頼度判定部510が、自車前方に存在する交差点が、T字交差点であると断定できない。このように信頼度判定部510が、自車前方に存在する交差点を断定できないのは、十字交差点とト字交差点の関係においても同様である。
 しかし、信頼度判定部510は、センサ部100から取得できる、現時点でセンサが自車前方を観測して出力するセンサ情報を用いれば、自車の遠方に存在する交差点が、十字交差点で間違っていないという判定ができる。逆に、十字交差点の第2モデルを取得した場合であっても、第2モデルである十字と、T字、曲がり角又は行き止まりとは形状が異なる。このため、信頼度判定部510は、自車の遠方に存在する交差点が十字交差点である時に生成される第2モデルの形状は、道路形状がT字、曲がり角又は行き止まりである時に形成される第2モデルの形状のいずれにも該当しないと判定できる。このため、信頼度判定部510は、遠方の交差点の形状候補を限定することができる。
 そこで、整合性判定部(交差点整合性判定部500)は、道路の整合性判定の結果に基づいて自車位置の正誤を判定し、自車位置の判定結果を出力する自車位置判定部(自車位置判定部520)を有する。例えば、自車位置判定部520は、信頼度判定部510から選択されたモデルの種類情報(第1モデル、第2モデル又は第3モデルのいずれか)と、交差点整合性判定部500による整合性判定結果を取得し、自車位置の正誤を判定し、判定結果を出力する。以下に、自車位置判定部520で行われる処理の詳細例を説明する。
 まず、自車位置判定部520は、信頼度判定部510から、第1モデルが形状推定に使用され、第1モデルとセンサ情報に整合性がとれていると判定された結果を取得できた場合には、自車位置が正しいと判定した判定結果を出力する。一方、自車位置判定部520は、信頼度判定部510から、第1モデルが形状推定に使用され、第1モデルとセンサ情報に整合性がとれていないと判定された結果を取得できた場合には、自車位置が誤りと判定した判定結果を出力する。
 また、自車位置判定部520は、信頼度判定部510から、第2モデルが形状推定に使用され、第2モデルとセンサ情報に整合性がとれていると判定された結果を取得できた場合には、現時点で自車位置は正しいと考えられる。このため、自車位置判定部520は自車位置が正しいと判定した判定結果を出力する。また、自車位置判定部520は、現時点では自車位置は間違っていないが、正しいとも確定できない場合がある。この場合、自車位置判定部520は、自車位置が未確定と判定した判定結果を出力してもよい。
 また、自車位置判定部520は、信頼度判定部510から、第3モデルが形状推定に使用されたという情報を取得した場合を想定する。この際、自車位置判定部520は、自車位置から交差点までの距離が第1距離より小さい場合は第1モデルの自車位置判定を行い、この距離が第1距離より大きい場合には第2モデルの自車位置判定と同様に整合性の判定を行う。
 ここで、自車位置判定部520が、自車位置の正誤判定をする処理の例について、図22を参照して説明する。
 図22は、自車位置判定部520が、自車前方の手前にある交差点に基づいて、自車位置の正誤判定をする処理の例を示す図である。図中には、実際に自車が存在する真の自車位置(以下、「第1自車位置」と呼ぶ)と、GNSSが誤推定した自車位置(以下、「第2自車位置」と呼ぶ)が示されている。
 図22の左側に示す説明図(a)は、自車位置判定部520が、遠方の交差点情報をロケータに使用しない場合の処理の例を示す。遠方の交差点情報をロケータに使用しないとは、自車位置判定部520が、自車の遠方にある交差点の交差点情報を、地図上の自車位置を判定するために使用しないことを意味する。
 図中では、第1自車位置が車両アイコン51で示され、第2自車位置が車両アイコン52で示される。第1自車位置の前方の手前に交差点61、遠方に交差点63が存在する。また、第2自車位置の前方の手前に交差点62、遠方に曲がり角64が示される。さらに、車両アイコン51には、情報処理装置1が交差点モデルを推定可能な範囲56が示される。範囲56は、センサ部100が観測可能な範囲とほぼ等しい。そして、第1自車位置で表される自車の前方にある交差点61を含む範囲56がセンサ部100により観測される。
 地図上に示される自車の周辺に同種別の交差点(例えば、十字交差点)が複数存在する場合には、自車位置判定部520が、自車位置判定を誤る場合がある。図22に示す例では、車両アイコン51,52の前方には、いずれも地図上に十字交差点61,62が存在している。ここで、交差点モデル生成部330が、第2自車位置(車両アイコン52)の前方に存在する十字交差点62に基づいて交差点モデルを生成したことを想定する。この場合、第1自車位置(車両アイコン51)の前方にも同じく十字交差点61が存在しているので、信頼度判定部510では、生成された交差点モデルと、センサ情報との整合性がとれていると判定する。
 この結果、自車位置判定部520は、実際には自車位置が第1自車位置であるにも関わらず、第2自車位置と判断した自車位置が正しいと判定してしまう。このように説明図(a)では、遠方の交差点63,64の情報がロケータに使用されていないので、自車が、一つ目の交差点61を越えて直進し、交差点63に近づいたときに初めて、自車位置の誤りに気付くこととなる。このため、遠方の交差点情報をロケータに使用しない場合であって、同種別(十字など)の交差点が自車の周辺に存在した場合には、自車位置の特定が困難となっていた。
 次に、図22の右側に示す説明図(b)を参照して、自車位置判定部520が自車位置を誤判定する動作への対策について説明する。ここでは、自車位置判定部520が、遠方にある交差点の交差点情報をロケータに使用し、自車前方に存在する複数の交差点の整合性に基づいて、自車位置の正誤判定を行うものとする。ロケータに使用するとは、自車位置判定部520が、地図上の自車位置を正誤判定するために交差点情報を使用することを言う。
 説明図(b)は、第1自車位置(車両アイコン51)の前方において、自車からの距離が第1距離未満の位置に十字交差点があり、自車からの距離が第1距離以上の位置にも十字交差点がある状況を示している。また、説明図(b)は、第2自車位置(車両アイコン52)の前方において、自車からの距離が第1距離未満の位置に十字交差点62が、自車からの距離が第1距離以上の位置に曲がり角64がある状況を示している。車両アイコン51には、情報処理装置1が交差点モデルを推定可能なモデル推定可能範囲57が示される。そして、自車の前方にある交差点61,63を含むモデル推定可能範囲57がセンサ部100により観測される。
 ここで、交差点モデル生成部330が、車両アイコン52で示される第2自車位置で交差点モデルを生成した場合について検討する。この場合、交差点モデル生成部330は、自車から見て手前に存在する十字交差点62に基づいて、第1モデルである十字交差点モデル63aを生成し、自車から見て遠方の曲がり角64に基づいて、第2モデルである曲がり角モデル64aを生成する。
 一方で、実際に車両が存在する第1自車位置(車両アイコン51)の手前には、十字交差点61が存在するため、信頼度判定部510は、第1モデルの十字交差点の整合性がとれていると判定する。しかし、第1自車位置の遠方には十字交差点63が存在している。
 仮に、自車位置判定部520が地図上の自車位置を第2自車位置(車両アイコン52)と判定していた場合には、交差点モデル生成部330が曲がり角64から生成する第2モデルの曲がり角モデル64aの形状は、十字交差点63から生成される第2モデルの十字交差点モデル63aの形状とは異なる。このため、信頼度判定部510は、第2モデルの曲がり角モデル64aと、モデル推定可能範囲57によりセンサ部100が観測した交差点63の形状との整合性がとれていないと判定する。この結果、自車位置判定部520は、自車位置が誤っていると判定することができる。このように、自車位置判定部520は、自車の前方にある連続した交差点の交差点情報と、地図及びセンサ情報との整合性を確認することで、自車位置の正誤を判定することが可能となる。
 図22では、自車位置判定部520が、第1距離より近傍にある交差点61と、第1距離より遠方にある交差点63の2つの交差点を利用して自車位置を判定する処理の例を示した。ただし、自車位置判定部520による自車位置判定に用いられる交差点としては、第1距離より自車位置の近傍にある交差点が2つ以上であってもよく、また第1距離より遠方にある交差点が2つ以上であってもよい。また、2つ以上の交差点が全て第1距離より自車位置の近傍であってもよく、また2つ以上の交差点が全て第1距離より遠方にあってもよい。また、自車位置判定部520は、過去に自車が通過した複数の交差点に基づいて判定された信頼度判定部510の結果を保持しておき、過去の時系列情報も合わせて自車位置の正誤判定を行ってもよい。
(自車位置探索部530の動作例)
 ここで、図9に示す自車位置探索部530は、自車位置判定部520により地図上での自車位置が誤っていると判定された場合に、地図上で最も可能性のある自車の現在位置(以下、「第3自車位置」と呼ぶ)を探索する。
 ここで、自車位置探索部530の動作例について、図23を参照して説明する。
 図23は、自車位置探索部530の動作例を示す図である。
 図23の説明図(a)に示すように、第2自車位置(車両アイコン52)の前方にはT字交差点72が存在する。このため、第2自車位置から交差点までの距離に応じてT字交差点72の第1モデル、又はT字交差点72の第2モデルが生成される。この時、センサ部100が十字交差点を観測したことを示すセンサ情報が入力されると、自車位置判定部520は、センサ情報82で判明する交差点の形状と、交差点モデル81の形状とが異なると判定する。このため、自車位置判定部520は、第2自車位置が誤りであるという情報を自車位置探索部530に出力する。
 整合性判定部(交差点整合性判定部500)は、自車位置判定部520が、地図情報で表される地図で特定された自車位置を誤りと判定した場合に、道路の整合性判定の結果に基づいて、地図における正しい自車位置を探索する自車位置探索部(自車位置探索部530)を有する。このため、自車位置探索部530は、自車位置判定部520から自車位置が誤りであるという情報を受け取ると、地図上で第2自車位置の前方にある交差点72に隣接する交差点を探索することで、自車位置の候補である第3自車位置を決定する。ここで、自車位置探索部530は、ノードとエッジで示した道路関係を示すグラフ構造上で、自車が1ステップ(例えば、地図上の1区画分)で行ける距離にある交差点を、交差点72に隣接する交差点として認識する。
 図23の説明図(a)に示すように、第2自車位置の前方にある交差点72に隣接する交差点は、T字交差点73が1つ、十字交差点71,74が2つ存在する。そこで、交差点モデル生成部330は、第2自車位置から、それぞれの交差点までの距離に応じて第1モデル又は第2モデルを生成する。そして、交差点整合性判定部500は、生成された第1モデル又は第2モデルと、センサ情報との整合性を判定する。
 ここで、交差点モデル生成部330により生成された交差点モデルと、センサ情報との整合性が取れるのは、2つの十字交差点71,74である。そこで、自車位置探索部530は、センサ情報と整合性がとれた十字交差点71,74の手前の位置を第3自車位置53a,53bとして決定する。そして、自車位置探索部530は、説明図(a)に示した2ヵ所の第3自車位置53a,53bを表示・警報・制御部600に出力する。
 なお、自車位置探索部530は、自車位置を探索した結果、第3自車位置がただ1つに定まる場合にのみ第3自車位置を出力し、第3自車位置が複数ある場合には、自車位置が未確定という情報を出力してもよい。また、自車位置探索部530は、表示・警報・制御部600に出力した情報を、自車位置保存部540に保存してもよい。
 図23の説明図(b)は、自車位置探索部530が、第2モデルを使用して自車位置を探索する様子を示す。モデル選択部323により第2モデルが選択されると、交差点モデル生成部330は、例えば、図23で示したように、T字交差点75と、曲がり角76とをいずれも同じ形状とした交差点モデル83を生成する。地図上では自車の前方にある交差点の種別が異なっていた(T字交差点75及び曲がり角76)としても、センサ情報84に示す交差点の形状が、交差点モデル83と同じであれば、自車位置探索部530は、2ヵ所の第3自車位置53c,53dのいずれをも自車位置の候補として出力する。
 ここで、図中には示していないが、真の自車位置から交差点までの距離が第1距離を下回った時に、第3自車位置53c,53dのいずれかの出力結果が、正しい第3自車位置を表せなくなる。また、第1自車位置の前にある交差点が行き止まりだった場合、自車位置から交差点までの距離が第1距離を下回ったときに、どちらの出力結果も第3自車位置ではなくなる。このため、自車位置探索部530は、第2モデルが選択された場合に、第3自車位置のみを出力とするのではなく、第2モデルで推定された第3自車位置であるという情報を合わせて出力してもよい。
 また、自車位置探索部530が、自車位置の周囲から探索する交差点に関しては、第2自車位置の前方に存在する交差点に隣接する交差点だけに限定する必要はない。例えば、ノードとエッジで示した道路関係を示すグラフ構造上で、自車が2ステップ以上で行ける距離に存在する交差点を探索してもよい。この探索時に用いられるステップ数は、デフォルト値で決定してもよいし、GNSSの位置推定精度から動的に決定してもよい。
 また、自車位置探索部530は、グラフ構造上のステップ数で探索する交差点を探索するのではなく、第2自車位置を中心とした円の範囲内にある交差点を選択してもよい。円の半径はデフォルト値で決定してもよいし、GNSSの位置推定精度から動的に決定してもよい。
 また、自車位置探索部530は、第2自車位置の前方に存在する複数の交差点から第3自車位置を探索してもよい。自車位置判定部520において、複数の交差点の整合性から自車位置の正誤判定を行う時と同様に、自車位置探索部530が第3自車位置を探索する際も複数の交差点情報から第3自車位置を探索する。このような動作により、自車の周辺に同種別の交差点が多く存在する場合においても、自車位置探索部530が第3自車位置をより正しく推定することができる。
 また、自車位置探索部530は、自車の前方に存在する交差点に限らず、過去に通過した複数の交差点における交差点形状推定部400の結果と、信頼度判定部510の結果とを保持しておき、過去の時系列情報も合わせて第3自車位置を探索してもよい。
(自車位置保存部540の動作例)
 図9に示す自車位置保存部540は、自車が走行した過去の時系列情報と合わせて、第1自車位置、自車位置判定部520が判定した第2自車位置、自車位置探索部530が探索した第3自車位置をそれぞれ保存することができる。このため、GNSS等の情報を使って、現在、自車が走行している道路が、過去に自車が走行した道路の付近であることを把握できれば、交差点整合性判定部500は、自車位置保存部540から読み出した自車位置の情報を使って、交差点の整合性を判定することができる。
<情報処理装置のハードウェア構成>
 次に、情報処理装置1を構成する計算機90のハードウェア構成を説明する。
 図24は、計算機90のハードウェア構成例を示すブロック図である。計算機90は、情報処理装置1として動作可能なコンピューターとして用いられるハードウェアの一例である。
 計算機90は、バス94にそれぞれ接続されたCPU(Central Processing Unit)91、ROM(Read Only Memory)92、及びRAM(Random Access Memory)93を備える。さらに、計算機90は、表示装置95、入力装置96、不揮発性ストレージ97及びネットワークインターフェイス98を備える。
 CPU91は、本実施の形態に係る各機能を実現するソフトウェアのプログラムコードをROM92から読み出してRAM93にロードし、実行する。RAM93には、CPU91の演算処理の途中で発生した変数やパラメータ等が一時的に書き込まれ、これらの変数やパラメータ等がCPU91によって適宜読み出される。ただし、CPU91に代えてMPU(Micro Processing Unit)を用いてもよい。情報処理装置1で行われる各機能部の処理は、CPU91によって行われる。
 表示装置95は、例えば、液晶ディスプレイモニターであり、計算機90で行われる処理の結果等をドライバーに表示する。入力装置96には、例えば、キーボード、マウス等が用いられ、ドライバーが所定の操作入力、指示を行うことが可能である。また、表示装置95及び入力装置96は、タッチパネルディスプレイとして一体化された構成とされてもよい。表示装置95及び入力装置96は、図1に示した表示・警報・制御部600に対応する。なお、図1では、表示・警報・制御部600を情報処理装置1が備えない構成としているが、情報処理装置1が表示・警報・制御部600を備える構成としてもよい。
 不揮発性ストレージ97としては、例えば、HDD、SSD、フレキシブルディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ又は不揮発性のメモリ等が用いられる。この不揮発性ストレージ97には、OS(Operating System)、各種のパラメータの他に、計算機90を機能させるためのプログラムが記録されている。ROM92及び不揮発性ストレージ97は、CPU91が動作するために必要なプログラムやデータ等を記録しており、計算機90によって実行されるプログラムを格納したコンピューター読取可能な非一過性の記憶媒体の一例として用いられる。情報処理装置1内で生成される各種の情報、データは、不揮発性ストレージ97に保存される。なお、図1では、情報処理装置1が地図情報部200を備えない構成としているが、情報処理装置1が地図情報部200を備える構成としてもよい。
 ネットワークインターフェイス98には、例えば、NIC(Network Interface Card)等が用いられ、情報処理装置1は、ネットワークインターフェイス98を介して、無線通信を行い、インターネット等を経由して外部のサーバーにデータをアップロードしたり、このサーバーからデータをダウンロードしたりすることが可能である。また、情報処理装置1は、ネットワークインターフェイス98を介して、車載ネットワーク(例えば、CAN(Controller Area Network))にアクセスし、センサ部100からセンサ情報を取得したり、不図示のナビゲーションシステム又は自動運転システムに自車位置の情報を出力したりすることが可能である。
 以上説明した一実施の形態に係る情報処理装置1では、自車の近傍にある交差点だけでなく、自車から遠方にある交差点のセンサ情報を用いて、交差点モデルとの不整合を解消することができる。この際、情報処理装置1は、センサ分解能特性に基づいて、距離に応じた道路の外観を予測し、交差点モデルを生成するので、車両が走行する交差点の形状を正しく認識することができる。
 また、情報処理装置1は、交差点の周辺における環境や、自車の周辺の環境により変化するセンサ分解能特性に基づいて、センサ情報により生成される交差点の外観を正確に予測することができる。このように情報処理装置1は、自車が走行する道路の形状を正しく認識できるので、一般道や交差点の周辺における複雑なシーンであっても、正しい道路の形状を出力することができる。このため、ドライバー又は自動運転装置は、認識結果を用いて自車を安全に走行させることができる。
 また、センサ部100のセンサ分解能は、現在、自車のいる環境によって変わる。そこで、環境情報取得部311が環境情報を取得し、センサ分解能特性保存部312が環境情報に合わせたセンサ分解能特性を保存する。このため、交差点情報処理部300は、例えば、同じ場所であっても、時間が異なる場合には、センサ分解能特性に基づいて異なる交差点モデルを生成することができる。
 また、交差点外観予測部320は、自車位置特定部321により地図上で特定された自車位置と、交差点情報解析部322により解析された交差点情報に基づいて、交差点の外観を予測する。この際、モデル選択部323は、交差点モデル生成部330が生成する交差点モデルを選択する。交差点モデルとしては、高分解能モデルとしての第1モデル、低分解能モデルとしての第2モデルの選択、又は時系列に従って複数のモデルの切り替えが行われる。そして、交差点モデル生成部330は、モデル選択部323により選択されたモデルに応じて、交差点モデルを生成する。このため、自車位置から交差点までの距離に応じて適切なモデルが選択され、交差点モデル生成部330の処理に活用される。
 また、交差点モデル生成部330は、地図情報部200から取得する地図情報に基づいて、道路構造令に定義される規定値をデフォルト値として利用することで詳細な道路形状の交差点モデルを高精度に復元することができる。このため、情報処理装置1は、自車位置が道路のどの辺りにあるかを正しく認識するので、例えば、自動運転、又はナビゲーションシステムによる自車位置の案内が高精度で行われるようになる。
 また、交差点形状推定部400は、交差点モデル生成部330により生成された交差点モデルを、センサ情報で示される交差点の特徴にフィッティングさせる。そして、交差点形状推定部400は、実際の交差点の特徴が交差点モデルに付加して、交差点モデルのパラメータを詳細に推定することができる。
 また、交差点整合性判定部500は、交差点形状の推定に利用された交差点モデルと、センサ情報との整合性を判定することで、自車前方に存在する交差点の形状を正しく断定することができる。
 また、交差点整合性判定部500は、自車の遠方に存在する交差点の情報をロケータに使用することで、自車の周囲に同じような形状の交差点が複数存在する状況で誤った位置で特定された自車位置を、正しい位置で特定し直すことができる。
[変形例]
 なお、センサ部100のセンサ情報に交差点の形状を再現可能な情報が含まれるのであれば、センサ部100のセンサ情報が交差点形状推定部400を経ずに、交差点整合性判定部500に入力されてもよい(図1に破線で示す接続形態)。この場合、情報処理装置1では、交差点情報処理部300から交差点整合性判定部500に対して、交差点モデルが入力される。そして、交差点整合性判定部500は、交差点モデルと、センサ部100から入力したセンサ情報とに基づいて、地図情報に示される交差点の整合性を判定することも可能である。ただし、情報処理装置1は、交差点形状推定部400を経ずに、交差点モデルとセンサ情報を行う処理と、交差点形状推定部400を経て形状が推定された交差点モデルと、地図情報に示される交差点との整合性を判定する処理とを適宜選択可能としてもよい。
 また、上述した実施の形態では、情報処理装置1が、自車の走行方向にある交差点の外観予測、交差点モデルの生成、及び交差点の形状推定を行うものであった。しかし、交差点に限らず、例えば、道路が枝分かれせず曲がっている場合や、道路を横切る線路がある場合においても、情報処理装置1が、道路の外観予測、道路モデルの生成、及び道路の形状推定を行ってもよい。この場合、道路を横切る線路や、自車位置の走行方向から見て角度が変わった道路が特定の道路として認識される。そして、曲がっている道路や、線路が横切る道路についても、本実施の形態に係る道路の形状推定の対象となる。
 また、上述した実施の形態に係る情報処理装置1は、車両に搭載される車載型の装置であってもよいし、車両から取り外して持ち運び可能な端末装置であってもよい。
 なお、本発明は上述した実施の形態に限られるものではなく、請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の応用例、変形例を取り得ることは勿論である。
 例えば、上述した実施の形態は本発明を分かりやすく説明するためにシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、本実施の形態の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 1…情報処理装置、100…センサ部、200…地図情報部、300…交差点情報処理部、310…センサ分解能特性管理部、320…交差点外観予測部、330…交差点モデル生成部、400…交差点形状推定部、410…路端認識部、420…車線認識部、430…パラメータ推定部、500…交差点整合性判定部、510…信頼度判定部、520…自車位置判定部、530…自車位置探索部、540…自車位置保存部、600…表示・警報・制御部

Claims (15)

  1.  地図情報部から取得した地図情報と、センサ部から取得したセンサ情報とに基づいて、自車が走行する道路の道路形状を推定する情報処理装置であって、
     前記自車の自車位置から、前記道路形状が変化する位置までの距離に応じた、前記センサ部のセンサ分解能特性を管理するセンサ分解能特性管理部と、
     前記センサ分解能特性管理部から取得した前記センサ分解能特性に基づいて、前記距離に応じた前記道路の外観を予測する外観予測部と、
     前記外観予測部により予測された前記道路の外観に基づいて、前記道路をモデル化した道路モデルを生成するモデル生成部と、を備える
     情報処理装置。
  2.  前記センサ分解能特性管理部は、前記道路の特有の形状を前記センサ部が観測できる限界距離を、前記センサ分解能特性として保存するセンサ分解能特性保存部を有する
     請求項1に記載の情報処理装置。
  3.  前記センサ分解能特性管理部は、前記限界距離に影響を与える環境情報を取得する環境情報取得部を有し、
     前記センサ分解能特性管理部は、前記環境情報に応じた前記センサ分解能特性を前記センサ分解能特性保存部から読み出して、前記外観予測部に出力する
     請求項2に記載の情報処理装置。
  4.  前記モデル生成部は、
     前記距離が所定値以内の場合に、前記自車位置の前方に存在し、前記センサ部が観測する特定の道路に対応する第1モデルを生成する高分解能モデル生成部と、
     前記距離が前記所定値より大きい場合に、前記センサ部が観測できない前記特定の道路に対応する第2モデルを生成する低分解能モデル生成部を有する
     請求項3に記載の情報処理装置。
  5.  前記外観予測部は、
     前記地図情報に含まれる地図における前記自車位置を特定する自車位置特定部と、
     特定された前記自車位置と、前記地図情報とに基づいて、前記自車の進行方向の前方に存在する前記道路の形状を表した道路形状情報を取得し、前記道路形状情報を解析する道路情報解析部と、
     前記道路形状情報に基づいて前記センサ分解能特性管理部から取得した前記センサ分解能特性と、前記センサ情報とに基づいて、前記モデル生成部が生成可能なモデルを選択するモデル選択部と、を有する
     請求項4に記載の情報処理装置。
  6.  前記道路モデル及び前記センサ情報に基づいて、前記道路の形状を推定し、推定結果を出力する道路形状推定部を備える
     請求項1に記載の情報処理装置。
  7.  前記道路形状推定部は、前記センサ情報と、前記モデル生成部により生成された前記道路モデルとに基づいて、道路形状が推定された前記道路モデルと、前記推定結果に関する精度情報を出力する
     請求項6に記載の情報処理装置。
  8.  前記センサ部から取得した前記センサ情報と、前記道路形状推定部から取得した前記推定結果との整合性を判定し、判定結果を出力する整合性判定部を備える
     請求項7に記載の情報処理装置。
  9.  前記整合性判定部は、道路形状が推定された前記道路モデルと、前記精度情報を利用し、前記精度情報を所定の閾値と比較することで、前記センサ情報と、前記推定結果との整合性を判定する
     請求項8に記載の情報処理装置。
  10.  前記整合性判定部は、前記道路形状推定部が推定した道路モデルと、前記地図情報で示される前記道路の道幅、及び道路構造の接続関係を比較することで、前記センサ情報と、前記推定結果の整合性を判定する
     請求項8に記載の情報処理装置。
  11.  前記整合性判定部は、前記自車の進行方向の前方に存在する複数の前記道路の整合性を判定する
     請求項8に記載の情報処理装置。
  12.  前記整合性判定部は、前記自車が過去に走行した前記道路の整合性判定の結果を保存する
     請求項8に記載の情報処理装置。
  13.  前記整合性判定部は、前記道路の整合性判定の結果に基づいて前記自車位置の正誤を判定し、前記自車位置の判定結果を出力する自車位置判定部を有する
     請求項8に記載の情報処理装置。
  14.  前記整合性判定部は、前記自車位置判定部が、前記地図情報で表される地図で特定された前記自車位置を誤りと判定した場合に、前記道路の整合性判定の結果に基づいて、前記地図における正しい前記自車位置を探索する自車位置探索部を有する
     請求項13に記載の情報処理装置。
  15.  道路形状が推定される前記道路は、交差点である
     請求項1に記載の情報処理装置。
PCT/JP2021/020670 2020-07-20 2021-05-31 情報処理装置 WO2022018970A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180037427.7A CN115917619A (zh) 2020-07-20 2021-05-31 信息处理装置
EP21846610.0A EP4184479A1 (en) 2020-07-20 2021-05-31 Information processing device
US18/010,661 US20230236021A1 (en) 2020-07-20 2021-05-31 Information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020123888A JP7344182B2 (ja) 2020-07-20 2020-07-20 情報処理装置
JP2020-123888 2020-07-20

Publications (1)

Publication Number Publication Date
WO2022018970A1 true WO2022018970A1 (ja) 2022-01-27

Family

ID=79728612

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/020670 WO2022018970A1 (ja) 2020-07-20 2021-05-31 情報処理装置

Country Status (5)

Country Link
US (1) US20230236021A1 (ja)
EP (1) EP4184479A1 (ja)
JP (1) JP7344182B2 (ja)
CN (1) CN115917619A (ja)
WO (1) WO2022018970A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116380107B (zh) * 2023-05-29 2023-08-22 速度科技股份有限公司 一种基于高精地图对车辆进行定位的***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013201545A1 (de) * 2013-01-30 2014-07-31 Bayerische Motoren Werke Aktiengesellschaft Erstellen eines Umfeldmodells für ein Fahrzeug
US20200023842A1 (en) * 2019-09-27 2020-01-23 David Gomez Gutierrez Potential collision warning system based on road user intent prediction

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216083A (ja) 2004-01-30 2005-08-11 Nissan Motor Co Ltd 車両のリスク回避ガイド装置
JP6552064B2 (ja) 2017-03-31 2019-07-31 株式会社Subaru 車両の走行制御システム
JP6870475B2 (ja) 2017-05-25 2021-05-12 日産自動車株式会社 車線情報出力方法および車線情報出力装置
JP7052786B2 (ja) 2018-12-14 2022-04-12 株式会社デンソー 表示制御装置および表示制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013201545A1 (de) * 2013-01-30 2014-07-31 Bayerische Motoren Werke Aktiengesellschaft Erstellen eines Umfeldmodells für ein Fahrzeug
US20200023842A1 (en) * 2019-09-27 2020-01-23 David Gomez Gutierrez Potential collision warning system based on road user intent prediction

Also Published As

Publication number Publication date
JP7344182B2 (ja) 2023-09-13
JP2022020411A (ja) 2022-02-01
EP4184479A1 (en) 2023-05-24
US20230236021A1 (en) 2023-07-27
CN115917619A (zh) 2023-04-04

Similar Documents

Publication Publication Date Title
EP3673407B1 (en) Automatic occlusion detection in road network data
JP6714688B2 (ja) 正確な道路データベースを生成および更新するために道路データ物体を突き合わせるためのシステムおよび方法
US11874119B2 (en) Traffic boundary mapping
JP5301448B2 (ja) 車両周辺の解析方法
CN111656135A (zh) 基于高清地图的定位优化
RU2742213C1 (ru) Способ управления информацией о полосах движения, способ управления движением и устройство управления информацией о полосах движения
CN110832417A (zh) 使用高清地图为自主车辆生成路线
US20200232806A1 (en) Local map server and multiplexer
US20160210383A1 (en) Virtual autonomous response testbed
US20120065811A1 (en) Map data update system, map data update method, computer-readable storage medium storing map data update program
JP6870475B2 (ja) 車線情報出力方法および車線情報出力装置
GB2536771A (en) Autonomous driving refined in virtual environments
US9983307B2 (en) Method for providing information about at least one object in a surrounding region of a motor vehicle and system
JP6492469B2 (ja) 自車走行レーン推定装置及びプログラム
CN101159014A (zh) 在图像中识别对象的方法和图像识别设备
US11193789B2 (en) Method, apparatus, and computer program product for identifying at-risk road infrastructure
CN108106620A (zh) 一种拓扑道路匹配方法、***及电子设备
CN108332761B (zh) 一种使用及创建路网地图信息的方法与设备
JP5141969B2 (ja) 画像認識装置及び画像認識プログラム、並びにそれを用いた地点情報収集装置及びナビゲーション装置
CN111402387A (zh) 从用于导航自主车辆的高清晰度地图的点云中移除短时点
Rabe et al. Ego-lane estimation for lane-level navigation in urban scenarios
WO2022018970A1 (ja) 情報処理装置
Matthaei et al. Robust grid-based road detection for ADAS and autonomous vehicles in urban environments
JP5637381B2 (ja) 道路ノード位置管理システム、道路ノード位置管理方法及び道路ノード位置管理プログラム
JP3222438B2 (ja) 地図表示装置及びその方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21846610

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021846610

Country of ref document: EP

Effective date: 20230220