WO2022254535A1 - 走行領域判定装置および走行領域判定方法 - Google Patents

走行領域判定装置および走行領域判定方法 Download PDF

Info

Publication number
WO2022254535A1
WO2022254535A1 PCT/JP2021/020716 JP2021020716W WO2022254535A1 WO 2022254535 A1 WO2022254535 A1 WO 2022254535A1 JP 2021020716 W JP2021020716 W JP 2021020716W WO 2022254535 A1 WO2022254535 A1 WO 2022254535A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
travel
information
target moving
surrounding
Prior art date
Application number
PCT/JP2021/020716
Other languages
English (en)
French (fr)
Inventor
悠司 濱田
純一 岡田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US18/287,783 priority Critical patent/US20240190475A1/en
Priority to JP2023525179A priority patent/JP7387068B2/ja
Priority to DE112021007740.6T priority patent/DE112021007740T5/de
Priority to PCT/JP2021/020716 priority patent/WO2022254535A1/ja
Publication of WO2022254535A1 publication Critical patent/WO2022254535A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Definitions

  • the present disclosure relates to travel area determination of a moving object.
  • Patent Document 1 discloses a technique for creating a route for traveling on the shoulder of a road or a route for following a preceding vehicle when there is an obstacle in front of the vehicle and the vehicle cannot change lanes.
  • Patent Document 2 discloses a technique for creating a travelable area for a vehicle based on lane marker information on a travel path and information on objects around the vehicle, and creating a target route within the travelable area.
  • the present disclosure has been made in order to solve the above-mentioned problems, and determines with high accuracy an area in which the target moving body can automatically travel even when other moving bodies exist around the target moving body. for the purpose.
  • the traveling area determination device of the present disclosure determines the area type of the surrounding area of the target moving object based on the measurement information of the surrounding monitoring sensor mounted on the target moving object, and creates traveling area information including information on the area type.
  • a peripheral travel including information about the region type of the peripheral region of the peripheral moving object determined based on the measurement result of the peripheral monitoring sensor mounted on the peripheral moving object, which is a moving object existing in the vicinity of the target moving object, and the area creating unit
  • An integration unit that integrates the area information with the travel area information, and an automatic travel determination unit that determines an automatic travelable area in which the target moving body can automatically travel from the integrated travel area information.
  • the target moving body moves the free space between the target moving body and the obstacles.
  • the target moving object can travel within the drivable area determined based on the measurement result of the peripheral monitoring sensor mounted on the surrounding moving object.
  • the automatic traveling determination unit determines that the target moving object travelable area and the peripheral travelable area are automatically travelable areas, and moves the target to the automatically travelable area. A travel route is created for the body to automatically travel.
  • FIG. 1 is a configuration diagram of a travel area determination device according to Embodiment 1;
  • FIG. FIG. 4 is a diagram showing an example of travel area determination according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of travel area determination according to Embodiment 1;
  • FIG. 5 is a diagram showing an example of travel area determination according to Embodiment 1 when there are surrounding vehicles;
  • FIG. 5 is a diagram showing an example of travel area determination according to Embodiment 1 when there are surrounding vehicles;
  • 4 is a diagram showing an example of a travel area determination table according to Embodiment 1;
  • FIG. FIG. 4 is a diagram showing an example of integrating travel areas of surrounding vehicles according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of integrating travel areas of surrounding vehicles according to Embodiment 1; FIG. 4 is a diagram showing an example of a travel area using predicted trajectories of surrounding vehicles according to Embodiment 1.
  • FIG. 4 is a diagram showing an example of a travel area using predicted trajectories of surrounding vehicles according to Embodiment 1.
  • FIG. It is a figure which shows the determination example of the driving
  • FIG. 4 is a flow chart showing overall processing of the device for determining whether it is possible to travel according to Embodiment 1; 4 is a flowchart showing processing of a traffic lane estimation unit according to Embodiment 1; 4 is a flow chart showing processing of a vehicle travel area determination unit according to Embodiment 1; 4 is a flow chart showing processing of a travel area integration unit according to Embodiment 1; 4 is a flowchart showing processing of an attribute identification unit according to Embodiment 1;
  • FIG. 1 is a configuration diagram of a travel area determination device 101 according to Embodiment 1.
  • the travel area determining device 101 determines an area where the vehicle can travel (hereinafter referred to as a "travelable area") from the surrounding area of the vehicle, and creates a route for traveling in the travelable area.
  • the vehicle for which the travelable area determination device 101 determines the travelable area will be referred to as the target vehicle, and other vehicles traveling around the target vehicle will be referred to as peripheral vehicles.
  • a vehicle is an example of a mobile object.
  • the target vehicle is sometimes called a target moving body, and the surrounding vehicles are sometimes called a surrounding moving body.
  • the travel area determination device 101 is composed of the processor 50 .
  • the travel area determination device 101 is connected to the vehicle sensor 21, the surroundings monitoring sensor 22, the communication device 23, and the vehicle control ECU 24 via the external interface 20, and is also connected to the storage device 30 so that they can be used. there is
  • the processor 50 is connected to other hardware including the storage device 30 and an external interface via signal lines, and controls these other hardware.
  • the processor 50 is an IC (Integrated Circuit) for executing instructions written in a program and executing processes such as data transfer, calculation, processing, control, and management.
  • the processor 50 comprises arithmetic circuitry, registers and cache memory in which instructions and information are stored.
  • the processor 50 is specifically a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit).
  • the arithmetic circuit executes the program to create the travel area creation unit 11, the travel area processing unit 12, the integration unit 13, the attribute identification unit 14, the automatic travel determination unit 15, the route creation unit 16, the reception unit 17, A lane estimator 18 and a position estimator 19 are implemented.
  • the plurality of processors 50 cooperate to execute programs that implement the functions of the travel area creating unit 11 and the like.
  • the external interface 20 includes a receiver that receives data from nearby vehicles and a transmitter that transmits data to the nearby vehicles.
  • the external interface 20 is specifically a sensor data acquisition LSI (Large Scale Integration), USB (Universal Serial Bus), or CAN (Controller Area Network) port.
  • the vehicle sensor 21 periodically detects vehicle information including the latitude, longitude, altitude, speed, direction, acceleration, or yaw rate of the target vehicle V, and notifies the external interface 20 of the detected vehicle information.
  • the vehicle sensor 21 includes an in-vehicle ECU (Electronic Control Unit), EPS (Electric Power Steering), a car navigation system, or a GPS (Global Positioning System) connected to the cockpit, a speed sensor, an acceleration sensor, or a direction sensor.
  • the peripheral monitoring sensor 22 includes a positioning sensor. Positioning sensors include millimeter wave radar, monocular camera, stereo camera, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), sonar, GPS (Global Positioning System), and the like.
  • the perimeter monitoring sensor 22 includes a DMS (Driver Monitoring System) that monitors the driver on board the target vehicle V, or a drive recorder.
  • the perimeter monitoring sensor 22 periodically measures obstacles, lane markings, and free space around the target vehicle V. As shown in FIG. Free space is an area where no obstacles exist.
  • the measurement information of the surroundings monitoring sensor 22 is called surroundings monitoring sensor information. That is, the perimeter monitoring sensor information includes obstacle information, lane marking information, and free space information.
  • the obstacle information includes information on the position, speed, angle and type of surrounding vehicles.
  • the marking line information includes information on the position, shape and line type of the marking line.
  • the free space information includes free space coordinates, angle and type information.
  • the communication device 23 uses DSRC (Dedicated Short Range Communication) dedicated to vehicle communication and a communication protocol such as IEEE802.11p. Also, the communication device 23 may use a cellular network such as LTE (Long Term Evolution, registered trademark) or a fifth generation mobile communication system (5G). Also, the communication device 23 may use a wireless LAN such as Bluetooth (registered trademark) or IEEE802.11a/b/g/n/ac.
  • the communication device 23 receives surrounding vehicle information from surrounding vehicles and notifies the received surrounding vehicle information to the external interface 20 .
  • the peripheral vehicle information includes vehicle information of the peripheral vehicle, peripheral monitoring sensor information measured by the peripheral monitoring sensor 22 mounted on the peripheral vehicle, and driving area information of the peripheral vehicle.
  • the vehicle control ECU 24 controls the accelerator, brake, and steering of the target vehicle V.
  • the vehicle control ECU 24 is notified of vehicle control information including the travel route and target speed of the target vehicle V from the external interface 20, and controls the target vehicle V according to the notified vehicle control information.
  • the storage device 30 stores map information 31.
  • the storage device 30 is, for example, a RAM (Random Access Memory), a HDD (Hard Disk Drive), or an SSD (Solid State Drive).
  • the storage device 30 includes portable storage media such as SD (Secure Digital, registered trademark) memory cards, CF (Compact Flash, registered trademark), NAND flash, flexible discs, optical discs, compact discs, Blu-ray (registered trademark) discs, and DVDs. may be used to store data 31.
  • the storage device 30 includes portable storage media such as SD (Secure Digital, registered trademark) memory cards, CF (Compact Flash, registered trademark), NAND flash, flexible discs, optical discs, compact discs, Blu-ray (registered trademark) discs, and DVDs.
  • SD Secure Digital, registered trademark
  • CF Compact Flash
  • NAND flash NAND flash
  • flexible discs optical discs
  • compact discs compact discs
  • Blu-ray registered trademark
  • the map information 31 includes medium-precision map information 32 and high-precision map information 33.
  • the high-precision map information 33 is configured by layering a plurality of pieces of map information corresponding to a predetermined reduced scale.
  • the high-precision map information 33 includes road information, lane information, and configuration line information.
  • Road information is information about roads, and includes information about road shape, latitude, longitude, curvature, slope, identifier, number of lanes, line type, and attributes, for example.
  • the information about road attributes refers to information indicating, for example, whether a road is a general road, an expressway, or a priority road.
  • the lane information is information about the lanes that make up the road, and includes, for example, information about identifiers, latitudes, longitudes, and center lines of the lanes that make up the road.
  • the constituent line information is information about the lines that make up the lane (hereinafter referred to as "constituent lines"), and includes, for example, information about the constituent line identifier, latitude, longitude, line type, and curvature.
  • Road information is managed for each road, and lane information and constituent line information are managed for each lane.
  • the high-precision map information 33 is used for navigation, driving support, or automatic driving.
  • the high-precision map information 33 may be a dynamic map containing dynamic information that changes with time.
  • the dynamic information included in the high-precision map information 33 includes traffic regulation information, toll gate regulation information, traffic congestion information, traffic accident information, obstacle information, road condition information, and surrounding vehicle information.
  • Traffic regulation information includes information such as lane regulation, speed regulation, traffic regulation, or chain regulation.
  • the traffic accident information includes information on stopped vehicles or slow-moving vehicles.
  • Obstacle information includes information about fallen objects or animals on the road.
  • the road anomaly information includes information on locations where roads are damaged or where anomalies occur on the road surface.
  • the medium-precision map information 32 includes road information. Unlike the high-precision map information 33, the medium-precision map information 32 does not include lane information and configuration line information, and includes errors in road information such as road latitude and longitude.
  • the travel area creating unit 11 acquires the vehicle information of the target vehicle V, the peripheral monitoring sensor information of the target vehicle V, the peripheral vehicle information, the high-precision map information 33 and the medium-precision map information 32 from the receiving unit 17 .
  • the travel area creation unit 11 acquires information on the travel lane of the target vehicle V (hereinafter referred to as travel lane information) from the lane estimation unit 18 .
  • the travel area creating unit 11 uses these pieces of information to determine the area type of the peripheral area of the target vehicle V, and creates travel area information including information on the area type.
  • FIG. 2 and 3 are maps showing the travel area information created by the travel area creation unit 11.
  • FIG. A map representing the travel area information is also referred to as a travel area map.
  • the travel area creating unit 11 creates a travel area map as shown in FIG. 2 using the position information of the target vehicle V, the free space information, and the lane marking information.
  • an obstacle such as a sidewalk curb or a guardrail is detected as a boundary point BP, and the area between the boundary point BP and the target vehicle V becomes a free space FS.
  • the lane marking information includes information on the lane marking LM detected by the perimeter monitoring sensor 22 .
  • the travel area creating unit 11 may correct the information of the lane marking LM detected by the perimeter monitoring sensor 22 using the medium-precision map information 32 . Specifically, the travel area creating unit 11 combines the section position y0 (see FIG. 2) of the lane marking LM detected by the perimeter monitoring sensor 22 and the road curvature information included in the medium-precision map information 32, The shape of the lane marking LM in the travel area map is set. On a straight road, all lane markings LM may have the same curvature. On a curved road, an offset is given to each lane marking LM to set a different curvature.
  • the travel area creation unit 11 corrects the shape of the lane marking detected by the surrounding monitoring sensor 22 using the curvature information included in the medium-precision map information 32, and based on the corrected shape of the lane marking, the target The driving lane of vehicle V is estimated. Also, the driving area creating unit 11 sets the number of lane markings LM in the driving area map according to the number of lanes acquired from the medium-precision map information 32 .
  • the travel area creating unit 11 uses the travel area map shown in FIG. 2 and the information on the travel lanes, the number of lanes, and the lane markings to determine the area type of the peripheral area of the target vehicle V, and creates travel area information. .
  • the driving lane L2 of the target vehicle V in the free space FS and the lane L1 in the same direction as the driving lane L2 are determined as the normal drivable area R11.
  • the oncoming lanes L3 and L4 and the road shoulder 34 are determined as the emergency travelable area R12.
  • the peripheral area other than the free space FS is determined as the travel-impossible area R2.
  • Both the normal travelable region R11 and the emergency travelable region R12 are regions in which the target vehicle V can travel. However, the emergency travelable region R12 has a lower travel priority for the target vehicle V than the normal travelable region R11.
  • the route creation unit 16 creates a travel route for the target vehicle V within the emergency travelable area only in an emergency, such as when the normal travelable area does not exist.
  • the normal drivable area and the emergency drivable area are collectively referred to simply as the drivable area.
  • the travel-impossible region R2 is a region in which the target vehicle V does not travel.
  • FIGS. 4 and 5 show the travel area information when surrounding vehicles A, B, C, and D are present in front of the target vehicle V.
  • boundary points BP are provided along the peripheral vehicles A, B, C, and D, and the area between the boundary points BP and the target vehicle V becomes the free space FS.
  • the traveling lane L2 of the target vehicle V and the lane L1 in the same direction of the free space FS are determined as the normal travelable area R11. Also, in the free space FS, the oncoming lanes L3 and L4 and the road shoulder 34 are determined as the emergency travelable area R12. Also, the peripheral area other than the free space FS is determined as the travel-impossible area R2.
  • FIG. 6 shows the relationship between area types, road attributes, and processing priorities.
  • the driving lane and the same direction lane are normal drivable areas
  • the road shoulder, the opposite lane, and the emergency drivable area for surrounding vehicles in the same direction are the emergency drivable areas.
  • sidewalks, curbs, and non-driving areas for surrounding vehicles are non-driving areas.
  • the position of the surrounding vehicle and the drivable area are determined as the drivable area.
  • intersections, railroad crossings, tunnels and pedestrian crossings are determined as no-stop areas.
  • an area where an oncoming vehicle is approaching in an intersection is determined as an entry prohibited area.
  • the travel area information includes information on these area types for the surrounding areas.
  • the processing priority is set according to the area type or road attribute.
  • the normal drivable area, the peripheral drivable area, the predicted drivable area, and the no-stop area have high processing priority.
  • the processing priority of the emergency drivable area and the predicted drivable area is medium.
  • the processing priority of the no-driving area and the no-entry area is low.
  • the higher the processing priority the higher the processing frequency and the shorter the processing cycle.
  • the travel area creating unit 11 uses, for example, the area type determined in the previous process to preferentially process or skip the process in the next determination process.
  • the travel area creating unit 11 integrates the type or road attribute determined previously and the type or road attribute determined this time, and determines the type or road attribute in consideration of the number of determinations made within a certain period of time. good too.
  • the driving area processing unit 12 receives the positions of the surrounding vehicles and the surrounding driving area information, which is the driving area information of the surrounding vehicles, from the receiving unit 17 and outputs the information to the integrating unit 13 .
  • the surrounding travel area information includes area type information of the surrounding area of the surrounding vehicle determined based on the surrounding area monitoring sensor information of the surrounding area monitoring sensor 22 mounted on the surrounding vehicle.
  • the driving area processing unit 12 receives the surroundings monitoring sensor information of the surroundings monitoring sensor 22 mounted on the surrounding vehicle from the surrounding vehicle.
  • the driving area information of the surrounding vehicles is created based on the positions of the surrounding vehicles and the free space information in the same way as the area information was created.
  • the integration unit 13 acquires the travel area information of the target vehicle V from the travel area creation unit 11 and acquires the surrounding travel area information from the travel area processing unit 12 .
  • the integration unit 13 integrates the surrounding travel area information with the travel area information of the target vehicle V based on the positional relationship between the target vehicle V and the surrounding vehicles.
  • FIG. 7 and 8 show an example of integrating the travel area information of the target vehicle V and the travel area information of the surrounding vehicles A and B.
  • FIG. The surrounding vehicles A and B are traveling in the same direction in front of the target vehicle V.
  • the surrounding vehicle A has a travelable area R1A ahead of the surrounding vehicle A
  • the surrounding vehicle B has a travelable area R1B ahead of the surrounding vehicle B.
  • the drivable area R1A and the drivable area R1B partially overlap.
  • the target vehicle V and the peripheral vehicles A, B, C, and D there is a travelable area R1 for the target vehicle V.
  • the drivable area R1A of the peripheral vehicle A and the drivable area R1B of the peripheral vehicle B are integrated as the drivable area R1X, which is defined separately from the drivable area R1 of the target vehicle V. be.
  • the integration unit 13 When integrating the travel area information of the target vehicle V and the travel area information of the surrounding vehicles, the integration unit 13 changes the processing priority according to the area type shown in FIG. may be integrated. In addition, the integration unit 13 may process the drivable areas of surrounding vehicles in order from those closest to the target vehicle V, or may process the drivable areas of surrounding vehicles having a high risk of collision with the target vehicle V in order. good. In addition, the integration unit 13 may change a physically impossible area, such as an area narrower than the width of the target vehicle V, to a travelable area.
  • FIG. 9 and 10 show an example of integration of the driving area information of the target vehicle V and the driving area information of the surrounding vehicles A, B, C, and D.
  • Surrounding vehicles A and B are vehicles traveling in the same direction ahead of the target vehicle V, and surrounding vehicles C and D are oncoming vehicles.
  • dotted lines indicate positions where the surrounding vehicles A, B, C, and D are predicted to stop if they start to stop suddenly from now (hereinafter referred to as predicted stop positions).
  • the predicted stop position is predicted using the positions, orientations, yaw rates, or the like of surrounding vehicles A, B, C, and D.
  • the integration unit 13 determines the area from the current positions of the surrounding vehicles A and B in the same direction as the target vehicle V to the predicted stop position as the predicted travelable area R1P.
  • the integration unit 13 determines the region from the current positions of the oncoming vehicles C and D to the predicted stop position as the predicted travel-impossible region R2P.
  • the integrating unit 13 compares the driving area information of the target vehicle V and the driving area information of the surrounding vehicles, and if the area type or road attribute differs for the same point between the two, the driving area of the vehicle near the point is determined. information may be adopted. Further, when the area type or road attribute differs for the same point among the traveling area information of a plurality of surrounding vehicles, the result with the largest number may be adopted. Since the position information and the travel area information of the target vehicle V and the surrounding vehicles contain errors, the integrating unit 13 absorbs the errors by matching the feature points in the travel area information of the target vehicle V and the surrounding vehicles, and calculates the travel area. Integrate information.
  • the integration unit 13 increases the frequency of determination of points having different area types or road attributes among the driving area information of each surrounding vehicle, and determines the driving area of each surrounding vehicle.
  • the determination frequency of points having the same area type or road attribute between pieces of information may be lowered.
  • the integration unit 13 outputs information on the integrated travel area to the attribute identification unit 14 .
  • the attribute identification unit 14 acquires travel area information from the integration unit 13 .
  • the attribute identification unit 14 detects areas with specific road attributes including at least one of intersections, railroad crossings, tunnels, and pedestrian crossings from the map information and the shape of the surrounding area, and the target vehicle is prohibited from stopping in these areas. Determined as stop prohibited area.
  • FIG. 11 shows a method of detecting the position of the intersection P from the shape of the peripheral area R.
  • the peripheral area R is an area detected by the peripheral monitoring sensor 22 . Since the corner of the intersection P is a blind spot from the perimeter monitoring sensor 22 mounted on the target vehicle V, the outline of the peripheral area R at the intersection P is oblique.
  • the attribute identification unit 14 uses the medium-precision map information 32 to set the starting point P1 and the ending point P2 of the intersection P. Specifically, the attribute identifying unit 14 sets the x-axis in the lane width direction and the y-axis in the traveling direction with the current position of the target vehicle V as a starting point. The attribute identification unit 14 also acquires the distance D from the target vehicle V to the center point C of the intersection P and the number of lanes N that intersect the intersection P from the medium-precision map information 32 . Then, the attribute identification unit 14 sets an area of the number of lanes N ⁇ width W in the y-axis direction at the position of the intersection P with the central point C as the center. That is, the starting point P1 of the intersection P is set as (CN/2 ⁇ W), and the end point P2 of the intersection P is set as (C+N/2 ⁇ W).
  • the attribute identification unit 14 determines the start point P1 and the end point P2 of the intersection P from the coordinates of the boundary of the surrounding area R. Specifically, when increasing the value of the y-axis along the boundary of the peripheral region R, if the value of the x-axis takes a constant value and then suddenly increases, the attribute identification unit 14 determines that the value of the x-axis is The starting point P1 of the intersection P is determined as the point where it suddenly increases. Also, if the y-axis value stays within a certain range even if the x-axis value is increased along the boundary of the peripheral region R, the attribute identification unit 14 determines the point to be the end point P2 of the intersection P. Accordingly, the attribute identification unit 14 corrects the positions of the start point P1 and the end point P2 of the intersection P set using the medium-precision map information 32 .
  • FIG. 12 shows a state in which the stop prohibited area R3 is set at the intersection P.
  • a stop prohibited area R3 is set including a certain range before the start point P1 of the intersection P and a certain range behind the end point P2.
  • a stop-prohibited region R4 is set in a certain range before the stop-prohibited region R3 and a certain range behind the stop-prohibited region R3.
  • the attribute identification unit 14 may align the end point of the possible stop area R4 before the intersection P and the start point of the possible stop area R4 behind the intersection P with the position of the stop line detected by the perimeter monitoring sensor 22.
  • FIG. 13 shows a state in which peripheral vehicles A, B, C, D, and E are stopped at an intersection P in front of a target vehicle V or in front thereof, and peripheral vehicles D and E are in a stop prohibited area R3.
  • the target vehicle V enters the intersection P in this state, it has no choice but to stop within the stop prohibited area R3. Therefore, the target vehicle V stops in the stoppable area R4 before the intersection P.
  • the attribute identification unit 14 may dynamically change the travel area information according to the position of the surrounding vehicle or the signal light color.
  • FIG. 14 shows a state in which peripheral vehicles A and B, which are oncoming vehicles, are approaching the intersection P when the target vehicle V is turning right. It is assumed that the traveling area creating unit 11 sets an area of the intersection P that is not on the traveling lane of the target vehicle V or an extension of the same lane as the emergency travelable area R12. However, considering that the surrounding vehicles A and B are approaching the intersection P, the attribute identification unit 14 changes the emergency travelable area R12 in the intersection P to the no-entry area R5. After that, when the peripheral vehicles A and B pass through the intersection P, the attribute identification unit 14 returns the no entry area R5 in the intersection P to the emergency travelable area R12.
  • FIG. 15 shows a case where the signal at the intersection P ahead of the target vehicle V is red. It is assumed that the travel area creating unit 11 has set the intersection P to the normal travelable area R11. However, the attribute identification unit 14 considers that the traffic light at the intersection P is red, and changes the normal travelable area R11 in the intersection P to the no-entry area R5. After that, when the traffic light at the intersection P turns blue, the attribute identification unit 14 returns the no-entry area R5 in the intersection P to the normal travelable area R11.
  • FIG. 15 shows an example in which the signal at the intersection P is red, but if the signal is yellow or the target vehicle V is traveling in the dilemma zone of the intersection P, the intersection P is set as an emergency travelable area R12. You may
  • the attribute identification unit 14 adds a no-stop area, a possible stop area, a no-entry area, etc. to the area types in the travel area information based on the attributes of the surrounding area.
  • the attribute identification unit 14 outputs the updated travel area information to the automatic travel determination unit 15 .
  • the automatic driving determining unit 15 acquires the driving area information from the attribute identifying unit 14, determines an area in which the target vehicle V can automatically drive (hereinafter referred to as an automatic driving area) from the surrounding area according to the driving area information, and automatically drives. Information on the possible area is included in the travel area information and output to the route generation unit 16 . Specifically, the automatic travel determination unit 15 determines that the normal travelable region R11, the emergency travelable region R12, the peripheral travelable region R1X, and the predicted travelable region R1P are automatically travelable regions, and R2 and predicted travel-prohibited region R2P are determined as automatic travel-prohibited regions, and stop-prohibited region R3 is determined as a region where automatic travel is possible but target vehicle V cannot stop.
  • the route creation unit 16 acquires the travel area information from the automatic travel determination unit 15 and creates a travel route for the target vehicle V within the automatically travelable area based on the travel area information.
  • the travel route of the target vehicle V created by the route creation unit 16 is output to the vehicle control ECU 24 via the external interface 20 .
  • the receiving unit 17 is connected to the vehicle sensor 21, the surroundings monitoring sensor 22, the communication device 23, and the vehicle control ECU 24 via the external interface 20.
  • the receiving unit 17 receives vehicle information of the target vehicle V from the vehicle sensor 21 , receives surroundings monitoring sensor information from the surroundings monitoring sensor 22 , and receives vehicle information of surrounding vehicles from the communication device 23 .
  • the receiving unit 17 is also connected to the storage device 30 and acquires the map information 31 from the storage device 30 .
  • the position estimation unit 19 acquires the map information and the position information included in the vehicle information of the target vehicle V from the reception unit 17, and identifies the position of the target vehicle V by comparing both.
  • the lane estimation unit 18 acquires the map information, the lane marking information, and the position information of the target vehicle V from the position estimation unit 19, and estimates the driving lane of the target vehicle V based on this information.
  • FIG. 16 shows the relationship between the position of the target vehicle V and the lane markings.
  • the lane marking that serves as the left boundary line of the traveling lane of the target vehicle V is called a left lane marking line LM1
  • the lane marking that serves as the right boundary line of the traveling lane is called a right lane marking line LM2.
  • FIG. 17 shows an example of estimating the driving lane of the target vehicle V based on the presence or absence of the left lane marking line LM3 and the right lane marking line LM4 and the map information.
  • the driving lane is estimated as follows according to the number of lanes in the map information (hereinafter referred to as "map lane number").
  • map lane number the number of lanes on the map
  • the number of map lanes is 2 or 3
  • the driving lane is estimated as follows according to the number of map lanes.
  • the map lane number is 1, it is estimated that the driving lane is the first lane, the right lane is the opposite lane, and that there is a wide shoulder on the left side of the driving lane.
  • the number of lanes on the map is 2, it is estimated that the driving lane is the second lane, the lane one lane to the left of the driving lane (hereinafter referred to as the "left lane”) is the lane in the same direction, and the right lane is the opposite lane.
  • the number of map lanes is 3
  • the driving lane is estimated to be the second lane or the third lane, and it is not possible to specify whether the right lane is in the same direction or in the opposite direction.
  • FIG. 18 is a flow chart showing the overall operation of the travel area determination device 101. As shown in FIG. The overall operation of the travel area determination device 101 will be described below with reference to FIG.
  • the receiving unit 17 receives various information (step S101). Specifically, the receiving unit 17 receives vehicle information of the target vehicle V from the vehicle sensor 21 , free space information, lane marking information and obstacle information from the surroundings monitoring sensor 22 , vehicle information of surrounding vehicles from the communication device 23 , and storage device 30 .
  • medium-precision map information 32 is obtained from the
  • the position estimation unit 19 acquires the vehicle information of the target vehicle V and the medium-precision map information 32 from the reception unit 17, and estimates the position of the target vehicle V based on these (step S102).
  • the lane estimating unit 18 acquires the position information of the target vehicle V from the position estimating unit 19, the medium-precision map information 32 and the lane marking information from the receiving unit 17, and estimates the driving lane of the target vehicle V based on these. (Step S103).
  • the travel area creation unit 11 acquires the position information and the travel lane information of the target vehicle V from the lane estimation unit 18, and acquires the free space information, the lane marking information, and the obstacle information from the reception unit 17. Then, the travel area creating unit 11 determines the area type of the surrounding area based on these pieces of information, and creates a travel area map, which is the travel area information of the target vehicle V (step S104). In addition, the travel area creating unit 11 sets the processing priority according to the area type of the peripheral area determined last time, and changes the order or cycle of processing.
  • the driving area processing unit 12 acquires the surrounding vehicle information from the receiving unit 17, and based on the free space information, the lane marking information, and the obstacle information included in the surrounding vehicle information, the driving area processing unit 12, which is the driving area information of the surrounding vehicle.
  • a map is created (step S105).
  • the integration unit 13 integrates the travel area map of the target vehicle V and the travel area maps of the surrounding vehicles (step S106).
  • the attribute identification unit 14 adds area types such as stop-enabled areas and stop-prohibited areas to the travel area map integrated in step S106 (step S107).
  • the automatic travel determination unit 15 identifies an area in which automatic travel is possible from the travel area map (step S108).
  • the route creation unit 16 creates a route for traveling in an area where automatic travel is possible, and transmits it to the vehicle control ECU 24 via the external interface 20 (step S109).
  • FIG. 19 is a flowchart showing the operation of the lane estimation unit 18.
  • FIG. The operation of the lane estimation unit 18 will be described below with reference to FIG.
  • the lane estimation unit 18 acquires the position information of the target vehicle V from the position estimation unit 19, and acquires the lane marking information and the map information from the reception unit 17 (step S201).
  • the lane estimation unit 18 determines the positional relationship between the target vehicle V and the lane markings from the lane marking information (step S202).
  • the lane estimation unit 18 estimates the driving lane of the target vehicle V from the determination result of step S202 and the number of lanes on the map (step S203).
  • the position information acquired by the lane estimation unit 18 in step S201 is measured by the vehicle sensor 21. If the accuracy of this positional information is high, the lane estimating section 18 may estimate the driving lane from the positional information and the map information without using the lane marking information.
  • FIG. 20 is a flowchart showing the operation of the travel area creation unit 11.
  • FIG. The operation of the travel area creating unit 11 will be described below with reference to FIG.
  • the travel area creating unit 11 acquires free space information, lane line information, obstacle information, and map information from the receiving unit 17 (step S301).
  • the travel area creation unit 11 acquires the position information and travel lane information of the target vehicle V from the lane estimation unit 18 (step S302).
  • the travel area creating unit 11 creates a grid map from the boundary points of the free space information (step S303).
  • the travel area creation unit 11 integrates the division lines and obstacles into the grid map (step S304).
  • the travel area creation unit 11 determines the area type of the surrounding area from the division lines and free spaces on the grid map, and creates a travel area map (step S305).
  • the travel area creation unit 11 notifies the integration unit 13 of the travel area map (step S306).
  • FIG. 21 is a flowchart showing the operation of the integrating section 13.
  • FIG. The operation of the integration unit 13 will be described below with reference to FIG.
  • the integration unit 13 acquires the travel area map of the target vehicle V from the travel area creation unit 11 and the travel area maps of the surrounding vehicles from the travel area processing unit 12 (step S401).
  • the integration unit 13 integrates the travel area map of the target vehicle V and the travel area maps of the surrounding vehicles (step S402).
  • the integration unit 13 determines the presence area of the surrounding vehicles in consideration of the dimensions such as the length and width of the surrounding vehicles (step S403).
  • the integration unit 13 determines the travelable area and the existence area of the surrounding vehicle as the peripheral travelable area (step S404).
  • the integration unit 13 calculates predicted stop positions of surrounding vehicles (step S405).
  • the integration unit 13 determines the area from the current position of the surrounding vehicle to the predicted stop position as the predicted travelable area (step S406).
  • the integration unit 13 outputs the integrated travel area map to the attribute identification unit 14 (step S407).
  • FIG. 22 is a flowchart showing the operation of the attribute identification unit 14. The operation of the attribute identification unit 14 will be described below with reference to FIG.
  • the attribute identification unit 14 acquires the travel area map from the integration unit 13 and the map information from the reception unit 17, respectively. Then, the attribute identification unit 14 acquires the position of a specific road attribute such as an intersection, a railroad crossing, a tunnel, or a pedestrian crossing from the map information (step S501).
  • the attribute identification unit 14 adds area types such as stop-prohibited areas to the travel area map according to the road attributes acquired in step S501 (step S502).
  • the attribute identification unit 14 determines whether the high-precision map information 33 is stored in the storage device 30 (step S503). If the high-precision map information 33 is stored in step S503, the attribute identification unit 14 terminates the processing.
  • the attribute identification unit 14 estimates the start point and end point of the road attribute whose position was acquired in step S501 from the shape of the travelable area (step S504).
  • step S504 the attribute identification unit 14 corrects the position of the road attribute on the travel area map according to the estimation result of step S504 (step S505).
  • the driving area determination device 101 of Embodiment 1 determines the area type of the surrounding area of the target vehicle V based on the measurement information of the surrounding monitoring sensor 22 mounted on the target vehicle V, and the driving area information including the information of the area type. and information on the area type of the surrounding area of the surrounding vehicle determined based on the measurement result of the surrounding monitoring sensor mounted on the surrounding vehicle that is the vehicle existing around the target vehicle V
  • An integration unit 13 that integrates surrounding driving area information with driving area information
  • an automatic driving determination unit 15 that determines an automatic driving possible area in which the target vehicle can automatically drive from the integrated driving area information.
  • the travel area creating unit 11 creates an area between the target vehicle V and the obstacle based on the positions of the obstacles existing around the target vehicle V measured by the perimeter monitoring sensor 22 mounted on the target vehicle V.
  • the free space FS is determined as a travelable region R1 in which the target vehicle V can travel.
  • the integration unit 13 determines a drivable area in which the surrounding vehicle can travel, which is determined based on the measurement result of the surrounding monitoring sensor mounted in the surrounding vehicle, as a drivable area R1X in which the target vehicle V can travel, and travels. Integrate with domain information.
  • the automatic travel determination unit 15 determines the travelable region R1 of the target vehicle and the peripheral travelable region R1X as the automatically travelable regions.
  • the travel area determination device 101 can determine the travelable area of the target vehicle V even if there are obstacles in the surrounding area.
  • the driving area determination device 101 can determine the driving area of the area where the target vehicle V cannot be detected by utilizing the surrounding driving area information detected by the surrounding vehicles.
  • the area type of the surrounding area of the target vehicle V is determined based on the measurement information of the surrounding monitoring sensor 22 mounted on the target vehicle V, and the driving area information including the area type information is obtained.
  • surrounding driving area information including information on the area type of the surrounding area of the surrounding vehicle determined based on the measurement result of the surrounding monitoring sensor mounted on the surrounding vehicle, which is a vehicle existing around the target vehicle V, are integrated into area information, an automatic travelable area in which the target vehicle can automatically travel is determined from the integrated travel area information, and the existence around the target vehicle V is measured by a perimeter monitoring sensor 22 mounted on the target vehicle V.
  • a free space FS which is an area between the object vehicle V and the obstacle, is determined as a travelable area R1 in which the object vehicle V can travel, based on the positions of the obstacles, and the perimeter monitoring sensors mounted on the surrounding vehicles are determined.
  • the drivable area in which the surrounding vehicle can travel which is determined based on the measurement result, is determined as the drivable peripheral drivable area R1X in which the target vehicle V can travel, and integrated into the drivable area information.
  • the travelable region R1X is determined as an automatically travelable region, and a travel route along which the target vehicle V automatically travels is created in the automatically travelable region.
  • the travelable area of the target vehicle V can be determined even if there are obstacles in the vicinity. Further, according to the driving area determination method of Embodiment 1, by utilizing the surrounding driving area information detected by surrounding vehicles, it is possible to determine the drivable area of the area where the target vehicle V cannot be detected.
  • driving area creation unit 11 driving area creation unit, 12 driving area processing unit, 13 integration unit, 14 attribute identification unit, 15 automatic driving determination unit, 16 route creation unit, 17 reception unit, 18 lane estimation unit, 19 position estimation unit, 20 external interface, 1 Vehicle sensor, 22 Perimeter monitoring sensor, 23 Communication device, 24 Vehicle control ECU, 30 Storage device, 31 Map information, 32 Medium-precision map information, 33 High-precision map information, 34 Road shoulder, 50 Processor, 101 Driving area determination device, BP: Boundary point, FS: Free space, LM: Division line, R: Surrounding area, R1: Drivable area, R11: Normal drivable area, R12: Emergency drivable area, R1A: Drivable area, R1B: Drivable area, R1P: Predicted drivable area , R1X surrounding drivable area, R2 drivable area, R2P predictive drivable area, R3 stop prohibited area, R4 stopable area, R5 entry prohibited area, V target vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本開示は、他の移動体が周囲に存在する場合でも走行可能領域を高精度に判断することを目的とする。本開示に係る走行領域判定装置は、対象車両(V)の周辺領域の領域種別を判定する走行領域作成部(11)と、周辺走行領域情報を走行領域情報に統合する統合部(13)と、統合された走行領域情報から自動走行可能領域を判定する自動走行判定部(15)と、を備える。走行領域作成部(11)は、フリースペース(FS)を対象車両(V)が走行可能な走行可能領域(R1)と判定する。統合部(13)は、周辺移動体が走行可能な走行可能領域を対象車両(V)が走行可能な周辺走行可能領域(R1X)と判定して走行領域情報に統合する。自動走行判定部(15)は、対象移動体の走行可能領域(R1)および周辺走行可能領域(R1X)を自動走行可能領域と判定する。自動走行可能領域に対象車両(V)が自動走行する走行経路が作成される。

Description

走行領域判定装置および走行領域判定方法
 本開示は、移動体の走行領域判定に関する。
 近年、車両などの移動体に搭載されるカメラまたはミリ波センサなどの周辺監視センサを利用した自律型の自動運転システムの普及が始まっている。その一例として、車線をキープして走行するように車両を制御するレーンキープアシストシステム、または一定条件下で車線変更を行うように車両を制御するレーンチェンジシステムなどがある。自動運転システムは、センサにより検知した区画線または障害物の情報、ならびに高精度地図情報から、車両が走行する領域を判断し、走行経路を作成する。
 特許文献1には、車両の前方に障害物が存在し、かつ車線変更ができない状況において、路肩等を走行する経路または先行車両を追従走行する経路を作成する技術が開示されている。
 特許文献2には、走行路のレーンマーカ情報と車両の周囲の物体情報とに基づいて車両の走行可能領域を作成し、走行可能領域内に目標経路を作成する技術が開示されている。
特開2019-197399号公報 国際公開第2020/157532号
 周辺監視センサを利用した自動運転システムでは、周囲に存在する他の移動体によってオクルージョンが発生し、センシングできない領域が存在することにより、走行可能領域を判断するうえで誤差が生じるという問題がある。
 本開示は、上記の問題点を解決するためになされたものであり、対象移動体の周囲に他の移動体が存在する場合でも対象移動体の自動走行が可能な領域を高精度に判断することを目的とする。
 本開示の走行領域判定装置は、対象移動体に搭載された周辺監視センサの測定情報に基づき対象移動体の周辺領域の領域種別を判定し、領域種別の情報を含む走行領域情報を作成する走行領域作成部と、対象移動体の周辺に存在する移動体である周辺移動体に搭載された周辺監視センサの測定結果に基づき判定された周辺移動体の周辺領域の領域種別の情報を含む周辺走行領域情報を、走行領域情報に統合する統合部と、統合された走行領域情報から対象移動体が自動走行可能な自動走行可能領域を判定する自動走行判定部と、を備え、走行領域作成部は、対象移動体に搭載された周辺監視センサにより測定された対象移動体の周辺に存在する障害物の位置に基づき、対象移動体と障害物との間の領域であるフリースペースを対象移動体が走行可能な走行可能領域と判定し、統合部は、周辺移動体に搭載された周辺監視センサの測定結果に基づき判定された周辺移動体が走行可能な走行可能領域を、対象移動体が走行可能な周辺走行可能領域と判定して走行領域情報に統合し、自動走行判定部は、対象移動体の走行可能領域および周辺走行可能領域を自動走行可能領域と判定し、自動走行可能領域に対象移動体が自動走行する走行経路が作成される。
 本開示の技術によれば、対象移動体の周囲に他の移動体が周囲に存在する場合でも自動走行可能領域を高精度に判断することができる。本開示の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1の走行領域判定装置の構成図である。 実施の形態1の走行領域判定の例を示す図である。 実施の形態1の走行領域判定の例を示す図である。 周辺車両が存在する場合の実施の形態1の走行領域判定の例を示す図である。 周辺車両が存在する場合の実施の形態1の走行領域判定の例を示す図である。 実施の形態1の走行領域判定テーブルの例を示す図である。 実施の形態1の周辺車両の走行領域を統合する例を示す図である。 実施の形態1の周辺車両の走行領域を統合する例を示す図である。 実施の形態1の周辺車両の予測軌跡を用いた走行領域の例を示す図である。 実施の形態1の周辺車両の予測軌跡を用いた走行領域の例を示す図である。 交差点における走行領域の判定例を示す図である。 交差点における停止不可領域の判定例を示す図である。 交差点における停止不可領域の判定例を示す図である。 交差点における進入禁止の判定例を示す図である。 交差点における進入禁止の判定例を示す図である。 走行車線の判定例を示す図である。 走行車線の判定例を示す図である。 実施の形態1の走行可能判定装置の全体処理を示すフローチャートである。 実施の形態1の走行車線推定部の処理を示すフローチャートである。 実施の形態1の自車走行領域判定部の処理を示すフローチャートである。 実施の形態1の走行領域統合部の処理を示すフローチャートである。 実施の形態1の属性識別部の処理を示すフローチャートである。
 <A.実施の形態1>
 <A-1.構成>
 図1は、実施の形態1の走行領域判定装置101の構成図である。走行領域判定装置101は、車両の周辺領域から車両が走行可能な領域(以下、「走行可能領域」と称する)を判定し、走行可能領域を走行する経路を作成する。以下、走行領域判定装置101が走行可能領域を判定する対象の車両を対象車両と称し、対象車両の周辺を走行する他の車両を周辺車両と称する。車両は移動体の一例である。対象車両を対象移動体、周辺車両を周辺移動体と称することもある。
 図1において、走行領域判定装置101は対象車両Vに搭載されている。しかし、走行領域判定装置101は、対象車両V、対象車両Vの外部に設けられたクラウドサーバまたはエッジサーバ、もしくは路側装置に分散して配置されてもよいし、いずれか一つにまとめて配置されていてもよい。
 走行領域判定装置101はプロセッサ50により構成される。走行領域判定装置101は、外部インタフェース20を介して車両センサ21、周辺監視センサ22、通信器23、および車両制御ECU24と接続され、また記憶装置30と接続され、これらを利用可能に構成されている。
 プロセッサ50は、信号線を介して記憶装置30および外部インタフェースを含む他のハードウェアと接続され、これら他のハードウェアを制御する。プロセッサ50は、プログラムに記述された命令を実行して、データの転送、計算、加工、制御、管理といった処理を実行するためのIC(Integrated Circuit)である。プロセッサ50は、演算回路と、命令および情報が格納されるレジスタおよびキャッシュメモリとを備える。プロセッサ50は、具体的には、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、またはGPU(Graphics Processing Unit)である。プロセッサ50において、演算回路がプログラムを実行することによって、走行領域作成部11、走行領域処理部12、統合部13、属性識別部14、自動走行判定部15、経路作成部16、受信部17、車線推定部18、および位置推定部19が実現される。図1には1つのプロセッサ50が示されているが、走行領域判定装置101は複数のプロセッサ50を備えていてもよい。この場合、複数のプロセッサ50が、走行領域作成部11等の各機能を実現するプログラムを連携して実行する。
 外部インタフェース20は、周辺車両からデータを受信するレシーバーと周辺車両にデータを送信するトランスミッターとを含む。外部インタフェース20は、具体的には、センサデータ取得LSI(Large Scale Integration)、USB(Universal Serial Bus)、またはCAN(Controller Area Network)のポートである。
 車両センサ21は、対象車両Vの緯度、経度、高度、速度、方位、加速度、またはヨーレートを含む車両情報を周期的に検知し、検知した車両情報を外部インタフェース20に通知する。車両センサ21は、車載ECU(Electronic Control Unit)、EPS(Electric Power Steering)、カーナビ、またはコックピットに接続された、GPS(Global Positioning System)、速度センサ、加速度センサ、または方位センサを含む。
 周辺監視センサ22は、測位センサを含む。測位センサは、ミリ波レーダ、単眼カメラ、ステレオカメラ、LiDAR(Light Detection and Ranging,Laser Imaging Detection and Ranging)、ソナー、GPS(Global Positioning System)等を含む。また、周辺監視センサ22は、対象車両Vに搭乗しているドライバを監視するDMS(Driver Monitoring System)、またはドライブレコーダーを含む。周辺監視センサ22は、対象車両Vの周囲の障害物、区画線、およびフリースペースを周期的に測定する。フリースペースとは障害物が存在しない領域のことである。周辺監視センサ22の測定情報を周辺監視センサ情報と称する。すなわち、周辺監視センサ情報は、障害物情報、区画線情報、およびフリースペース情報を含む。障害物情報は、周辺車両の位置、速度、角度および種別の情報を含む。区画線情報は、区画線の位置、形状および線種の情報を含む。フリースペース情報は、フリースペースの座標、角度および種別の情報を含む。
 通信器23は、車両通信専用のDSRC(Dedicated Short Range Communication)と、IEEE802.11pといった通信プロトコルを用いる。また、通信器23は、LTE(Long Term Evolution,登録商標)、第5世代移動通信システム(5G)といったセルラー網を用いてもよい。また、通信器23は、Bluetooth(登録商標)またはIEEE802.11a/b/g/n/acといった無線LANを用いてもよい。通信器23は、周辺車両から周辺車両情報を受信し、受信した周辺車両情報を外部インタフェース20に通知する。周辺車両情報は、周辺車両の車両情報、周辺車両に搭載された周辺監視センサ22で測定された周辺監視センサ情報、および周辺車両の走行領域情報を含む。
 車両制御ECU24は、対象車両Vのアクセル、ブレーキ、およびステアリングを制御する。車両制御ECU24は、外部インタフェース20から対象車両Vの走行経路および目標速度を含む車両制御情報を通知され、通知された車両制御情報に応じて対象車両Vを制御する。
 記憶装置30は、地図情報31を記憶する。記憶装置30は、例えばRAM(Random Access Memory)、HDD(Hard Disk Drive)、またはSSD(Solid State Drive)である。また、記憶装置30は、SD(Secure Digital、登録商標)メモリカード、CF(CompactFlash、登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVDといった可搬記憶媒体であってもよい。
 地図情報31は、中精度地図情報32と高精度地図情報33とを含む。高精度地図情報33は、予め定められた縮尺に対応する複数の地図情報が階層化されて構成されたものである。高精度地図情報33は、道路情報、車線情報および構成線情報を含む。道路情報は、道路に関する情報であり、例えば道路の形状、緯度、経度、曲率、勾配、識別子、車線数、線種、および属性に関する情報を含む。道路の属性に関する情報とは、例えば道路が一般道路、高速道路または優先道路のいずれであるかを示す情報を指す。車線情報は、道路を構成する車線に関する情報であり、例えば道路を構成する車線の識別子、緯度、経度、および中央線に関する情報を含む。構成線情報は、車線を構成する線(以下、「構成線」と称する)に関する情報であり、例えば構成線の識別子、緯度、経度、線種および曲率に関する情報を含む。道路情報は道路毎に管理され、車線情報および構成線情報は車線毎に管理される。
 高精度地図情報33は、ナビゲーション、走行支援、または自動運転などに利用される。高精度地図情報33は、時間によって変化する動的情報を含んだダイナミックマップであってもよい。ここで、高精度地図情報33に含まれる動的情報は、交通規制情報、料金所規制情報、交通渋滞情報、交通事故情報、障害物情報、道路以上情報、周辺車両情報を含む。交通規制情報は、車線規制、速度規制、通行規制、またはチェーン規制等の情報を含む。交通事故情報は、停止車両または低速車両の情報を含む。障害物情報は、道路上の落下物または動物の情報を含む。道路異常情報は、道路が損傷している箇所または、路面に異常が発生している箇所の情報を含む。
 中精度地図情報32は道路情報を含む。中精度地図情報32は、高精度地図情報33と異なり車線情報および構成線情報を含まず、道路の緯度および経度などの道路情報にも誤差を含む。
 走行領域作成部11は、受信部17から対象車両Vの車両情報、対象車両Vの周辺監視センサ情報、周辺車両情報、高精度地図情報33および中精度地図情報32を取得する。また、走行領域作成部11は、車線推定部18から対象車両Vの走行車線の情報(以下、走行車線情報)を取得する。走行領域作成部11は、これらの情報を用いて対象車両Vの周辺領域の領域種別を判定し、領域種別の情報を含む走行領域情報を作成する。
 図2および図3は、走行領域作成部11により作成される走行領域情報をマップで表したものである。走行領域情報をマップで表したものを走行領域マップとも称する。走行領域作成部11は、対象車両Vの位置情報、フリースペース情報、および区画線情報を用いて図2に示されるような走行領域マップを生成する。対象車両Vの周辺領域において、歩道の縁石またはガードレールなどの障害物が境界点BPとして検出され、境界点BPと対象車両Vとの間の領域がフリースペースFSとなる。区画線情報は、周辺監視センサ22が検知した区画線LMの情報を含む。ここで、走行領域作成部11は、周辺監視センサ22が検知した区画線LMの情報を、中精度地図情報32を用いて補正してもよい。具体的には、走行領域作成部11は、周辺監視センサ22が検知した区画線LMの切片位置y0(図2参照)と、中精度地図情報32に含まれる道路の曲率情報とを組み合わせて、走行領域マップにおける区画線LMの形状を設定する。直線道路において全区画線LMの曲率は同じでよい。曲線道路においては区画線LMごとにオフセットが付与され異なる曲率が設定される。このように、走行領域作成部11は、周辺監視センサ22が検知した区画線の形状を、中精度地図情報32に含まれる曲率情報を用いて補正し、補正された区画線の形状に基づき対象車両Vの走行車線を推定する。また、走行領域作成部11は、中精度地図情報32から取得した車線数に応じて走行領域マップにおける区画線LMの数を設定する。
 走行領域作成部11は、図2に示される走行領域マップと、走行車線、車線数および区画線の情報を用いて、対象車両Vの周辺領域の領域種別を判定し、走行領域情報を作成する。
 図3の例では、フリースペースFSのうち対象車両Vの走行車線L2と、走行車線L2と同一方向の車線L1(以下、同一方向車線)とが通常時走行可能領域R11と判定される。また、フリースペースFSのうち対向車線L3,L4および路肩34が非常時走行可能領域R12と判定される。また、フリースペースFS以外の周辺領域が走行不可領域R2と判定される。通常時走行可能領域R11と非常時走行可能領域R12は、いずれも対象車両Vが走行可能な領域である。しかし、非常時走行可能領域R12は通常時走行可能領域R11よりも対象車両Vの走行優先度が低い。経路作成部16は、通常時走行可能領域が存在しない場合など、非常時に限って非常時走行可能領域内に対象車両Vの走行経路を作成する。通常時走行可能領域と非常時走行可能領域とをあわせて単に走行可能領域とも称する。走行不可領域R2は、対象車両Vが走行しない領域である。
 図2および図3は、周辺車両が存在しない場合の例が示された。これに対して図4および図5は、対象車両Vの前方に周辺車両A,B,C,Dが存在する場合の走行領域情報を示す。
 図4に示されるように、周辺車両A、B,C,Dに沿って境界点BPが設けられ、境界点BPと対象車両Vとの間の領域がフリースペースFSとなる。
 図5に示されるように、フリースペースFSのうち対象車両Vの走行車線L2と同一方向車線L1とが通常時走行可能領域R11と判定される。また、フリースペースFSのうち対向車線L3,L4および路肩34が非常時走行可能領域R12と判定される。また、フリースペースFS以外の周辺領域が走行不可領域R2と判定される。
 図6は、領域種別、道路属性、および処理優先度の関係を示している。図6に示されるように、走行車線および同一方向車線は通常時走行可能領域であり、路肩、対向車線、および同一方向の周辺車両の非常時走行可能領域は非常時走行可能領域である。また、歩道、縁石および周辺車両の走行不可領域は走行不可領域である。また、周辺車両の位置および走行可能領域は周辺走行可能領域と判断される。また、対象車両の前方を同一方向に走行する周辺車両が急停止を行った場合に停止するまでに通過すると予測される領域は予測走行可能領域と判断される。また、交差点、踏切、トンネルまたは横断歩道は停止禁止領域と判断される。また、交差点のうち対向車両が接近中の領域は進入禁止領域と判断される。走行領域情報は、周辺領域に対してこれらの領域種別の情報を含む。
 また、図6に示されるように、領域種別または道路属性に応じて処理優先度が設定される。通常時走行可能領域、周辺走行可能領域、予測走行可能領域および停止禁止領域の処理優先度は高い。非常時走行可能領域、予測走行不可領域の処理優先度は中程度である。走行不可領域および進入禁止領域の処理優先度は低い。処理優先度が高いほど処理頻度が高く処理周期が短い。走行領域作成部11は、例えば前回の処理で判定した領域種別を用いて、次回の判定処理において優先的に処理したり、処理をスキップしたりする。走行領域作成部11は、前回までに判定した種別または道路属性と、今回判定した種別または道路属性とを総合し、一定時間内に判定した回数を考慮して、種別または道路属性を判定してもよい。
 走行領域処理部12は、受信部17から周辺車両の位置と、周辺車両の走行領域情報である周辺走行領域情報とを受信し、統合部13に出力する。周辺走行領域情報は、周辺車両に搭載された周辺監視センサ22の周辺監視センサ情報に基づき判定された周辺車両の周辺領域の領域種別の情報を含む。走行領域処理部12は、周辺車両から、周辺車両に搭載された周辺監視センサ22の周辺監視センサ情報を受信するが走行領域情報を受信しない場合には、走行領域作成部11が対象車両の走行領域情報を作成したのと同じ方法で、周辺車両の位置とフリースペース情報とに基づき周辺車両の走行領域情報を作成する。
 統合部13は、走行領域作成部11から対象車両Vの走行領域情報を取得し、走行領域処理部12から周辺走行領域情報を取得する。統合部13は、対象車両Vと周辺車両との位置関係に基づき、周辺走行領域情報を対象車両Vの走行領域情報に統合する。
 図7および図8は、対象車両Vの走行領域情報と周辺車両A,Bの走行領域情報の統合例を示している。周辺車両A,Bは対象車両Vの前方を同一方向に走行している。図7に示されるように、周辺車両Aの前方には周辺車両Aの走行可能領域R1Aがあり、同様に周辺車両Bの前方には周辺車両Bの走行可能領域R1Bがある。走行可能領域R1Aと走行可能領域R1Bは一部重複している。また、対象車両Vと周辺車両A,B,C,Dとの間には対象車両Vの走行可能領域R1がある。
 図8に示されるように、周辺車両Aの走行可能領域R1Aと周辺車両Bの走行可能領域R1Bとは、周辺走行可能領域R1Xとして統合され、対象車両Vの走行可能領域R1とは別に定義される。
 統合部13は、対象車両Vの走行領域情報と周辺車両の走行領域情報とを統合する場合に、図6に示される領域種別に応じて処理優先度を変更し、優先度の高いものから順に統合してもよい。また、統合部13は、周辺車両のうち対象車両Vに近い車両の走行可能領域から順に処理したり、対象車両Vとの衝突リスクの大きい周辺車両の走行可能領域から順に処理したりしてもよい。また、統合部13は、走行可能領域であっても、対象車両Vの幅より狭い領域など、物理的に走行不可能な領域を走行不可領域に変更してもよい。
 図9および図10は、対象車両Vの走行領域情報と周辺車両A,B,C,Dの走行領域情報の統合例を示している。周辺車両A,Bは対象車両Vの前方を走行する同一方向車両であり、周辺車両C,Dは対向車両である。図9において、周辺車両A,B,C,Dが現在から急停止を開始した場合に停止すると予測される位置(以下、予測停止位置)が点線で示されている。予測停止位置は、周辺車両A,B,C,Dの位置、方位、またはヨーレートなどを用いて予測される。統合部13は、対象車両Vと同一方向の周辺車両A,Bの現在の位置から予測停止位置までの領域を予測走行可能領域R1Pと判定する。また、統合部13は、対向車両である周辺車両C,Dの現在の位置から予測停止位置までの領域を予測走行不可領域R2Pと判定する。
 統合部13は、対象車両Vの走行領域情報と周辺車両の走行領域情報とを比較し、両者の間で同一地点について領域種別または道路属性が異なる場合には、当該地点から近い車両の走行領域情報を採用してもよい。また、複数の周辺車両の走行領域情報間で同一地点について領域種別または道路属性が異なる場合には、最も多い結果を採用してもよい。対象車両Vおよび周辺車両の位置情報および走行領域情報には誤差が含まれるため、統合部13は、対象車両Vおよび周辺車両の走行領域情報における特徴点を合わせることによって誤差を吸収し、走行領域情報を統合する。また、統合部13は、複数の周辺車両の走行領域情報を利用する場合、各周辺車両の走行領域情報間で領域種別または道路属性が異なる地点の判定頻度を高くし、各周辺車両の走行領域情報間で領域種別または道路属性が同じ地点の判定頻度を低くしてもよい。
 このようにして、対象車両Vの走行領域情報と周辺車両の走行領域情報とが統合される。統合部13は、統合した走行領域の情報を属性識別部14に出力する。
 属性識別部14は、統合部13から走行領域情報を取得する。属性識別部14は、地図情報と周辺領域の形状から、交差点、踏切、トンネルおよび横断歩道のいずれかを少なくとも含む特定道路属性の領域を検出し、これらの領域を対象車両の停止が禁止された停止禁止領域と判定する。
 図11は、周辺領域Rの形状から交差点Pの位置を検出する方法を示している。周辺領域Rは周辺監視センサ22により検知される領域である。交差点Pの角は対象車両Vに搭載された周辺監視センサ22からは死角になるため、交差点Pにおいて周辺領域Rの外形は斜めになる。
 属性識別部14は中精度地図情報32を用いて交差点Pの始点P1および終点P2を設定する。具体的には、属性識別部14は、対象車両Vの現在位置を起点として車線幅方向にx軸、進行方向にy軸を設定する。また、属性識別部14は、対象車両Vから交差点Pの中心地点Cまでの距離Dと、交差点Pと交差する車線数Nとを中精度地図情報32から取得する。そして、属性識別部14は、中心地点Cを中心として、車線数N×幅員Wだけy軸方向の領域を交差点Pの位置に設定する。つまり、交差点Pの始点P1は(C-N/2×W)と設定され、交差点Pの終点P2は、(C+N/2×W)と設定される。
 また、属性識別部14は、周辺領域Rの境界の座標から交差点Pの始点P1および終点P2を判定する。具体的には、周辺領域Rの境界に沿ってy軸の値を大きくしたとき、x軸の値が一定値を取った後、急に大きくなる場合、属性識別部14はx軸の値が急に大きくなる地点を交差点Pの始点P1と判断する。また、属性識別部14は、周辺領域Rの境界に沿ってx軸の値を大きくしてもy軸の値が一定範囲に留まる場合、当該地点を交差点Pの終点P2と判断する。これにより、属性識別部14は、中精度地図情報32を用いて設定した交差点Pの始点P1および終点P2の位置を補正する。
 図12は、交差点Pに停止禁止領域R3が設定された状態を示している。なお、図12の例では、交差点Pの始点P1より手前の一定範囲と、終点P2より後方の一定範囲を含んで停止禁止領域R3が設定されている。また、停止禁止領域R3より手前の一定範囲と、停止禁止領域R3より後方の一定範囲に停止可能領域R4が設定されている。属性識別部14は、交差点Pの手前の停止可能領域R4の終点、および交差点Pの後方の停止可能領域R4の始点を、周辺監視センサ22が検知した停止線の位置にあわせてもよい。
 このように、走行領域情報において停止禁止領域R3と停止可能領域R4が設定されることにより、交差点Pまたはその先の交通状況に応じて対象車両Vが交差点Pに進入するか否かを判断することが可能となる。図13は、対象車両Vの前方の交差点Pまたはその前方に周辺車両A,B,C,D,Eが停止しており、周辺車両D,Eが停止禁止領域R3内にいる状態を表している。この状態で対象車両Vは、交差点Pに侵入すると停止禁止領域R3内に停止せざるを得ない。そのため、対象車両Vは、交差点Pの手前の停止可能領域R4で停止する。
 属性識別部14は、周辺車両の位置または信号灯色に応じて、走行領域情報を動的に変化させてもよい。図14は、対象車両Vが右折する際に対向車両である周辺車両A,Bが交差点Pに接近している状態を示している。走行領域作成部11は、交差点Pのうち対象車両Vの走行車線または同一車線の延長線上にない領域を非常時走行可能領域R12と設定しているものとする。しかし、属性識別部14は周辺車両A,Bが交差点Pに接近していることを考慮し、交差点P内の非常時走行可能領域R12を進入禁止領域R5に変更する。その後、属性識別部14は周辺車両A,Bが交差点Pを通過すると、交差点P内の進入禁止領域R5を非常時走行可能領域R12に戻す。
 図15は、対象車両Vの前方の交差点Pの信号が赤色である場合を示している。走行領域作成部11は、交差点Pを通常時走行可能領域R11に設定しているものとする。しかし、属性識別部14は交差点Pの信号が赤色であることを考慮し交差点P内の通常時走行可能領域R11を進入禁止領域R5に変更する。その後、属性識別部14は交差点Pの信号が青色になると、交差点P内の進入禁止領域R5を通常時走行可能領域R11に戻す。
 図15は交差点Pの信号が赤色の例を示しているが、黄色の場合または対象車両Vが交差点Pのジレンマゾーンを走行している場合に、交差点P内を非常時走行可能領域R12と設定してもよい。
 このように、属性識別部14は周辺領域の属性に基づき、走行領域情報における領域種別に停止禁止領域、停止可能領域、進入禁止領域などを追加する。属性識別部14は、更新した走行領域情報を自動走行判定部15に出力する。
 自動走行判定部15は属性識別部14から走行領域情報を取得し、走行領域情報に応じて周辺領域から対象車両Vが自動走行可能な領域(以下、自動走行可能領域)を判定し、自動走行可能領域の情報を走行領域情報に含めて経路作成部16に出力する。具体的には、自動走行判定部15は、通常時走行可能領域R11、非常時走行可能領域R12、周辺走行可能領域R1X、および予測走行可能領域R1Pを自動走行可能領域と判定し、走行不可領域R2および予測走行不可領域R2Pを自動走行不可領域と判定し、停止禁止領域R3を自動走行可能領域だが対象車両Vが停止できない領域と判定する。
 経路作成部16は、自動走行判定部15から走行領域情報を取得し、走行領域情報に基づき自動走行可能領域内に対象車両Vの走行経路を作成する。経路作成部16が作成した対象車両Vの走行経路は、外部インタフェース20を介して車両制御ECU24に出力される。
 受信部17は、外部インタフェース20を介して車両センサ21、周辺監視センサ22、通信器23、および車両制御ECU24と接続される。受信部17は、車両センサ21から対象車両Vの車両情報を受信し、周辺監視センサ22から周辺監視センサ情報を受信し、通信器23から周辺車両の車両情報を受信する。また、受信部17は記憶装置30と接続され、記憶装置30から地図情報31を取得する。
 位置推定部19は、受信部17から地図情報および対象車両Vの車両情報に含まれる位置情報を取得し、両者を照合して対象車両Vの位置を特定する。
 車線推定部18は、位置推定部19から地図情報、区画線情報、および対象車両Vの位置情報を取得し、これらの情報に基づき対象車両Vの走行車線を推定する。図16は、対象車両Vの位置と区画線との関係を示している。対象車両Vの走行車線の左側境界線となる区画線を左区画線LM1と称し、走行車線の右側境界線となる区画線を右区画線LM2と称する。また、左区画線LM1の一つ左隣の区画線を左隣区画線LM3と称し、右区画線LM2の一つ右隣の区画線を右隣区画線LM4と称する。図17は、左隣区画線LM3および右隣区画線LM4の有無および地図情報に基づく対象車両Vの走行車線の推定例を示している。
 左隣区画線LM3はないが右隣区画線LM4はある場合、走行車線は地図情報における車線数(以下、「地図車線数」と称する)に応じて以下のように推定される。地図車線数が1の場合、走行車線が第1車線、走行車線の1つ右側の車線(以下、「右側車線」と称する)は対向車線と推定される。地図車線数が2または3の場合、走行車線が第1車線、右側車線は同一方向の車線と推定される。
 左隣区画線LM3および右隣区画線LM4がある場合、または左隣区画線LM3はあるが右隣区画線LM4はない場合、走行車線は地図車線数に応じて以下のように推定される。地図車線数が1の場合、走行車線が第1車線、右側車線は対向車線と推定され、走行車線の左側に広い路肩があると推定される。地図車線数が2の場合、走行車線が第2車線、走行車線の1つ左側の車線(以下、「左側車線」と称する)は同一方向の車線、右側車線は対向車線と推定される。地図車線数が3の場合、走行車線は第2車線または第3車線と推定され、右側車線は同一方向または対向方向のいずれであるか特定できない。
 <A-2.動作>
 図18は、走行領域判定装置101の全体動作を示すフローチャートである。以下、図18に沿って走行領域判定装置101の全体動作を説明する。
 まず、受信部17が各種の情報を受信する(ステップS101)。具体的には、受信部17は車両センサ21から対象車両Vの車両情報、周辺監視センサ22からフリースペース情報、区画線情報および障害物情報、通信器23から周辺車両の車両情報、記憶装置30から中精度地図情報32を取得する。
 その後、位置推定部19は、受信部17から対象車両Vの車両情報および中精度地図情報32を取得し、これらに基づき対象車両Vの位置を推定する(ステップS102)。
 次に、車線推定部18は、位置推定部19から対象車両Vの位置情報、受信部17から中精度地図情報32および区画線情報を取得し、これらに基づき対象車両Vの走行車線を推定する(ステップS103)。
 その後、走行領域作成部11は、車線推定部18から対象車両Vの位置情報および走行車線情報を取得し、受信部17からフリースペース情報、区画線情報および障害物情報を取得する。そして、走行領域作成部11はこれらの情報に基づき周辺領域の領域種別を判定し、対象車両Vの走行領域情報である走行領域マップを作成する(ステップS104)。また、走行領域作成部11は、前回判定した周辺領域の領域種別に応じて処理優先度を設定し、処理する順序または周期を変更する。
 次に、走行領域処理部12は、受信部17から周辺車両情報を取得し、周辺車両情報に含まれるフリースペース情報、区画線情報および障害物情報から、周辺車両の走行領域情報である走行領域マップを作成する(ステップS105)。
 その後、統合部13は、対象車両Vの走行領域マップと周辺車両の走行領域マップとを統合する(ステップS106)。
 次に、属性識別部14は、ステップS106で統合された走行領域マップに、停止可能領域および停止禁止領域などの領域種別を追加する(ステップS107)。
 その後、自動走行判定部15は、走行領域マップから自動走行可能な領域を識別する(ステップS108)。
 次に、経路作成部16は、自動走行可能な領域を走行する経路を作成し、外部インタフェース20を介して車両制御ECU24に送信する(ステップS109)。
 図19は、車線推定部18の動作を示すフローチャートである。以下、図19に沿って、車線推定部18の動作を説明する。
 まず、車線推定部18は、位置推定部19から対象車両Vの位置情報を取得し、受信部17から区画線情報および地図情報を取得する(ステップS201)。
 次に、車線推定部18は、区画線情報から対象車両Vと区画線との位置関係を判断する(ステップS202)。
 その後、車線推定部18は、ステップS202の判断結果と地図車線数とから、対象車両Vの走行車線を推定する(ステップS203)。
 なお、車線推定部18がステップS201で取得する位置情報は、車両センサ21で測定されたものである。この位置情報の精度が高い場合、車線推定部18は区画線情報を用いずに位置情報および地図情報から走行車線を推定してもよい。
 図20は、走行領域作成部11の動作を示すフローチャートである。以下、図20に沿って、走行領域作成部11の動作を説明する。
 まず、走行領域作成部11は、受信部17からフリースペース情報、区画線情報、障害物情報、および地図情報を取得する(ステップS301)。
 次に、走行領域作成部11は、車線推定部18から対象車両Vの位置情報および走行車線情報を取得する(ステップS302)。
 その後、走行領域作成部11は、フリースペース情報の境界点からグリッドマップを作成する(ステップS303)。
 次に、走行領域作成部11は、グリッドマップに区画線および障害物を統合する(ステップS304)。
 その後、走行領域作成部11は、グリッドマップ上で区画線およびフリースペースから周辺領域の領域種別を判断し、走行領域マップを作成する(ステップS305)。
 次に、走行領域作成部11は、走行領域マップを統合部13に通知する(ステップS306)。
 図21は、統合部13の動作を示すフローチャートである。以下、図21に沿って統合部13の動作を説明する。
 まず、統合部13は、走行領域作成部11から対象車両Vの走行領域マップを、走行領域処理部12から周辺車両の走行領域マップをそれぞれ取得する(ステップS401)。
 次に、統合部13は、対象車両Vの走行領域マップと周辺車両の走行領域マップとを統合する(ステップS402)。
 その後、統合部13は、周辺車両の車長および車幅などの寸法を考慮して、周辺車両の存在領域を判定する(ステップS403)。
 次に、統合部13は、周辺車両の走行可能領域および存在領域を周辺走行可能領域と判定する(ステップS404)。
 その後、統合部13は、周辺車両の予測停止位置を算出する(ステップS405)。
 次に、統合部13は、周辺車両の現在位置から予測停止位置までの領域を予測走行可能領域と判定する(ステップS406)。
 その後、統合部13は、統合した走行領域マップを属性識別部14に出力する(ステップS407)。
 図22は、属性識別部14の動作を示すフローチャートである。以下、図22に沿って属性識別部14の動作を説明する。
 まず、属性識別部14は統合部13から走行領域マップを、受信部17から地図情報をそれぞれ取得する。そして、属性識別部14は、地図情報から交差点、踏切、トンネルまたは横断歩道など、特定の道路属性の位置を取得する(ステップS501)。
 次に、属性識別部14は、ステップS501で取得した道路属性に応じて停止禁止領域等の領域種別を走行領域マップに追加する(ステップS502)。
 その後、属性識別部14は記憶装置30に高精度地図情報33が格納されているか否かを判断する(ステップS503)。ステップS503において高精度地図情報33が格納されていれば、属性識別部14は処理を終了する。
 ステップS503において高精度地図情報33が格納されていなければ、属性識別部14は走行可能領域の形状からステップS501で位置を取得した道路属性の始点および終点を推定する(ステップS504)。
 ステップS504の後、属性識別部14はステップS504の推定結果に従い走行領域マップにおいて道路属性の位置を補正する(ステップS505)。
 <A-3.効果>
 実施の形態1の走行領域判定装置101は、対象車両Vに搭載された周辺監視センサ22の測定情報に基づき対象車両Vの周辺領域の領域種別を判定し、領域種別の情報を含む走行領域情報を作成する走行領域作成部11と、対象車両Vの周辺に存在する車両である周辺車両に搭載された周辺監視センサの測定結果に基づき判定された周辺車両の周辺領域の領域種別の情報を含む周辺走行領域情報を、走行領域情報に統合する統合部13と、統合された走行領域情報から対象車両が自動走行可能な自動走行可能領域を判定する自動走行判定部15と、を備える。走行領域作成部11は、対象車両Vに搭載された周辺監視センサ22により測定された対象車両Vの周辺に存在する障害物の位置に基づき、対象車両Vと障害物との間の領域であるフリースペースFSを対象車両Vが走行可能な走行可能領域R1と判定する。統合部13は、周辺車両に搭載された周辺監視センサの測定結果に基づき判定された周辺車両が走行可能な走行可能領域を、対象車両Vが走行可能な周辺走行可能領域R1Xと判定して走行領域情報に統合する。自動走行判定部15は、対象車両の走行可能領域R1および周辺走行可能領域R1Xを自動走行可能領域と判定する。自動走行可能領域に対象車両Vが自動走行する走行経路が作成される。従って、走行領域判定装置101は、周辺に障害物が存在しても、対象車両Vの走行可能領域を判断することができる。また、走行領域判定装置101は、周辺車両により検知された周辺走行領域情報を活用することで、対象車両Vが検知できない領域の走行可能領域を判断することができる。
 実施の形態1の走行領域判定方法は、対象車両Vに搭載された周辺監視センサ22の測定情報に基づき対象車両Vの周辺領域の領域種別を判定し、領域種別の情報を含む走行領域情報を作成し、対象車両Vの周辺に存在する車両である周辺車両に搭載された周辺監視センサの測定結果に基づき判定された周辺車両の周辺領域の領域種別の情報を含む周辺走行領域情報を、走行領域情報に統合し、統合された走行領域情報から対象車両が自動走行可能な自動走行可能領域を判定し、対象車両Vに搭載された周辺監視センサ22により測定された対象車両Vの周辺に存在する障害物の位置に基づき、対象車両Vと障害物との間の領域であるフリースペースFSを対象車両Vが走行可能な走行可能領域R1と判定し、周辺車両に搭載された周辺監視センサの測定結果に基づき判定された周辺車両が走行可能な走行可能領域を、対象車両Vが走行可能な周辺走行可能領域R1Xと判定して走行領域情報に統合し、対象車両の走行可能領域R1および周辺走行可能領域R1Xを自動走行可能領域と判定し、自動走行可能領域に対象車両Vが自動走行する走行経路が作成される。従って、実施の形態1の走行領域判定方法によれば、周辺に障害物が存在しても、対象車両Vの走行可能領域を判断することができる。また、実施の形態1の走行領域判定方法によれば、周辺車両により検知された周辺走行領域情報を活用することで、対象車両Vが検知できない領域の走行可能領域を判断することができる。
 なお、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。上記の説明は、すべての態様において例示である。例示されていない無数の変形例が想定され得るものと解される。
 11 走行領域作成部、12 走行領域処理部、13 統合部、14 属性識別部、15 自動走行判定部、16 経路作成部、17 受信部、18 車線推定部、19 位置推定部、20 外部インタフェース、1 車両センサ、22 周辺監視センサ、23 通信器、24 車両制御ECU、30 記憶装置、31 地図情報、32 中精度地図情報、33 高精度地図情報、34 路肩、50 プロセッサ、101 走行領域判定装置、BP 境界点、FS フリースペース、LM 区画線、R 周辺領域、R1 走行可能領域、R11 通常時走行可能領域、R12 非常時走行可能領域、R1A 走行可能領域、R1B 走行可能領域、R1P 予測走行可能領域、R1X 周辺走行可能領域、R2 走行不可領域、R2P 予測走行不可領域、R3 停止禁止領域、R4 停止可能領域、R5 進入禁止領域、V 対象車両。

Claims (11)

  1.  対象移動体に搭載された周辺監視センサの測定情報に基づき前記対象移動体の周辺領域の領域種別を判定し、前記領域種別の情報を含む走行領域情報を作成する走行領域作成部と、
     前記対象移動体の周辺に存在する移動体である周辺移動体に搭載された周辺監視センサの測定結果に基づき判定された前記周辺移動体の周辺領域の前記領域種別の情報を含む周辺走行領域情報を、前記走行領域情報に統合する統合部と、
     統合された前記走行領域情報から前記対象移動体が自動走行可能な自動走行可能領域を判定する自動走行判定部と、を備え、
     前記走行領域作成部は、前記対象移動体に搭載された周辺監視センサにより測定された前記対象移動体の周辺に存在する障害物の位置に基づき、前記対象移動体と前記障害物との間の領域であるフリースペースを前記対象移動体が走行可能な走行可能領域と判定し、
     前記統合部は、前記周辺移動体に搭載された周辺監視センサの測定結果に基づき判定された前記周辺移動体が走行可能な走行可能領域を、前記対象移動体が走行可能な周辺走行可能領域と判定して前記走行領域情報に統合し、
     前記自動走行判定部は、前記対象移動体の前記走行可能領域および前記周辺走行可能領域を前記自動走行可能領域と判定し、
     前記自動走行可能領域に前記対象移動体が自動走行する走行経路が作成される、
    走行領域判定装置。
  2.  前記自動走行可能領域に前記対象移動体が自動走行する走行経路を作成する経路作成部をさらに備える、
    請求項1に記載の走行領域判定装置。
  3.  前記走行可能領域は、通常時走行可能領域と、前記通常時走行可能領域より前記対象移動体の走行優先度が低い非常時走行可能領域とを含み、
     前記走行領域作成部は、
     前記対象移動体の走行車線情報に基づき、前記フリースペースのうち前記対象移動体の走行車線および同一方向の車線を前記通常時走行可能領域と判定し、前記フリースペースのうち前記対象移動体の対向車線および路肩を前記非常時走行可能領域と判定し、
     前記経路作成部は、前記通常時走行可能領域内に前記走行経路を作成できない場合に、前記非常時走行可能領域内に前記走行経路を作成する、
    請求項2に記載の走行領域判定装置。
  4.  前記走行領域作成部は、前記対象移動体に搭載された周辺監視センサにより測定された区画線の情報と、地図情報に含まれる車線数の情報とに基づき、前記対象移動体の走行車線を推定する、
    請求項3に記載の走行領域判定装置。
  5.  前記走行領域作成部は、前記対象移動体に搭載された周辺監視センサにより測定された区画線の形状を、地図情報に含まれる道路の曲率情報に基づき補正し、補正された区画線の形状に基づき前記対象移動体の走行車線を推定する、
    請求項4に記載の走行領域判定装置。
  6.  前記統合部は、前記周辺移動体が現在急停止を開始した場合に停止する位置である予測停止位置を算出し、前記対象移動体の前方を同一方向に走行する前記周辺移動体の現在位置から前記予測停止位置までの領域を、前記対象移動体が走行可能な予測走行可能領域と判定し、
     前記自動走行判定部は、前記予測走行可能領域を前記自動走行可能領域と判定する、
    請求項1から請求項5のいずれか1項に記載の走行領域判定装置。
  7.  前記走行領域作成部は、前記フリースペース以外の領域を前記対象移動体が走行不可能な走行不可領域と判定し、
     前記統合部は、前記対象移動体の前方を対向方向に走行する前記周辺移動体の現在位置から前記予測停止位置までの領域を、前記対象移動体が走行不可能な予測走行不可領域と判定し、
     前記自動走行判定部は、前記対象移動体の前記走行不可領域および前記予測走行不可領域を前記自動走行可能領域と判定しない、
    請求項6に記載の走行領域判定装置。
  8.  前記周辺領域のうち交差点、踏切、トンネルおよび横断歩道のいずれかを少なくとも含む特定道路属性の領域を、前記対象移動体の停止が禁止された停止禁止領域と判定し、判定結果を前記走行領域情報に含める属性識別部をさらに備え、
     前記対象移動体は前記走行経路に沿って自動走行する場合、前記停止禁止領域で停止しない、
    請求項1から請求項7のいずれか1項に記載の走行領域判定装置。
  9.  前記属性識別部は、前記特定道路属性の領域の位置を地図情報を用いて判定し、判定した前記特定道路属性の領域の位置を、前記対象移動体に搭載された周辺監視センサが測定した前記フリースペースの情報に基づき補正する、
    請求項8に記載の走行領域判定装置。
  10.  クラウドサーバにより構成される、
    請求項1から請求項9のいずれか1項に記載の走行領域判定装置。
  11.  対象移動体に搭載された周辺監視センサの測定情報に基づき前記対象移動体の周辺領域の領域種別を判定し、前記領域種別の情報を含む走行領域情報を作成し、
     前記対象移動体の周辺に存在する移動体である周辺移動体に搭載された周辺監視センサの測定結果に基づき判定された前記周辺移動体の周辺領域の領域種別の情報を含む周辺走行領域情報を、前記走行領域情報に統合し、
     統合された前記走行領域情報から前記対象移動体が自動走行可能な自動走行可能領域を判定し、
     前記対象移動体に搭載された周辺監視センサにより測定された前記対象移動体の周辺に存在する障害物の位置に基づき、前記対象移動体と前記障害物との間の領域であるフリースペースを前記対象移動体が走行可能な走行可能領域と判定し、
     前記周辺移動体に搭載された周辺監視センサの測定結果に基づき判定された前記周辺移動体が走行可能な走行可能領域を、前記対象移動体が走行可能な周辺走行可能領域と判定して前記走行領域情報に統合し、
     前記対象移動体の前記走行可能領域および前記周辺走行可能領域を前記自動走行可能領域と判定し、
     前記自動走行可能領域に前記対象移動体が自動走行する走行経路が作成される、
    走行領域判定方法。
PCT/JP2021/020716 2021-05-31 2021-05-31 走行領域判定装置および走行領域判定方法 WO2022254535A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US18/287,783 US20240190475A1 (en) 2021-05-31 2021-05-31 Travel area determination device and travel area determination method
JP2023525179A JP7387068B2 (ja) 2021-05-31 2021-05-31 走行領域判定装置および走行領域判定方法
DE112021007740.6T DE112021007740T5 (de) 2021-05-31 2021-05-31 Fahrgebietsbestimmungsvorrichtung und Fahrgebietsbestimmungsverfahren
PCT/JP2021/020716 WO2022254535A1 (ja) 2021-05-31 2021-05-31 走行領域判定装置および走行領域判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/020716 WO2022254535A1 (ja) 2021-05-31 2021-05-31 走行領域判定装置および走行領域判定方法

Publications (1)

Publication Number Publication Date
WO2022254535A1 true WO2022254535A1 (ja) 2022-12-08

Family

ID=84323968

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/020716 WO2022254535A1 (ja) 2021-05-31 2021-05-31 走行領域判定装置および走行領域判定方法

Country Status (4)

Country Link
US (1) US20240190475A1 (ja)
JP (1) JP7387068B2 (ja)
DE (1) DE112021007740T5 (ja)
WO (1) WO2022254535A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230278587A1 (en) * 2022-03-02 2023-09-07 Xiaomi Ev Technology Co., Ltd. Method and apparatus for detecting drivable area, mobile device and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117191A (ja) * 2015-12-24 2017-06-29 三菱自動車工業株式会社 運転支援装置
JP2019034664A (ja) * 2017-08-18 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 制御装置および制御システム
JP2019172166A (ja) * 2018-03-29 2019-10-10 アイシン・エィ・ダブリュ株式会社 自動運転システムおよび自動運転プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197399A (ja) 2018-05-10 2019-11-14 トヨタ自動車株式会社 車両の経路決定装置
JP7192890B2 (ja) 2019-01-31 2022-12-20 日産自動車株式会社 車両の走行制御方法及び走行制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117191A (ja) * 2015-12-24 2017-06-29 三菱自動車工業株式会社 運転支援装置
JP2019034664A (ja) * 2017-08-18 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 制御装置および制御システム
JP2019172166A (ja) * 2018-03-29 2019-10-10 アイシン・エィ・ダブリュ株式会社 自動運転システムおよび自動運転プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230278587A1 (en) * 2022-03-02 2023-09-07 Xiaomi Ev Technology Co., Ltd. Method and apparatus for detecting drivable area, mobile device and storage medium

Also Published As

Publication number Publication date
JPWO2022254535A1 (ja) 2022-12-08
DE112021007740T5 (de) 2024-04-11
US20240190475A1 (en) 2024-06-13
JP7387068B2 (ja) 2023-11-27

Similar Documents

Publication Publication Date Title
US11340094B2 (en) Updating map data for autonomous driving vehicles based on sensor data
CN106340197B (zh) 一种车路协同辅助驾驶***及方法
US11433894B2 (en) Driving assistance method and driving assistance device
JP2019519048A (ja) 動的車線画定
US20150153184A1 (en) System and method for dynamically focusing vehicle sensors
CN108780605B (zh) 自动行驶辅助装置、路边设备及自动行驶辅助***
JP2024045402A (ja) 車両制御装置、車両制御方法、車両制御プログラム
WO2020045318A1 (ja) 車両側装置、サーバ、方法および記憶媒体
WO2023071959A1 (zh) 避障方法、装置、电子设备和存储介质
WO2015009218A1 (en) Determination of lane position
US11697416B2 (en) Travel assistance method and travel assistance device
US11042160B2 (en) Autonomous driving trajectory determination device
US11932253B2 (en) Vehicle control method and vehicle control device
JP2015121959A (ja) 障害物検知装置
JP2008014870A (ja) 走行軌跡推定装置
WO2022254535A1 (ja) 走行領域判定装置および走行領域判定方法
US11753014B2 (en) Method and control unit automatically controlling lane change assist
JP2023017383A (ja) 車両制御システム、車両制御方法、及び車両制御プログラム
US11188071B2 (en) Driving control system
KR20230168638A (ko) 운전자 보조 시스템 및 운전자 보조 방법
JP2008145247A (ja) 車両用現在位置特定装置
US20210191423A1 (en) Self-Location Estimation Method and Self-Location Estimation Device
JP2021075117A (ja) 車両制御方法及び車両制御装置
WO2024154231A1 (ja) 環境認識装置、走行可能エリア決定方法及び電子制御装置
EP4130669A1 (en) Device and method for generating lane information

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21944043

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023525179

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18287783

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112021007740

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21944043

Country of ref document: EP

Kind code of ref document: A1