DE102019116892A1 - Lane event anticipation through LiDAR road boundary detection - Google Patents
Lane event anticipation through LiDAR road boundary detection Download PDFInfo
- Publication number
- DE102019116892A1 DE102019116892A1 DE102019116892.9A DE102019116892A DE102019116892A1 DE 102019116892 A1 DE102019116892 A1 DE 102019116892A1 DE 102019116892 A DE102019116892 A DE 102019116892A DE 102019116892 A1 DE102019116892 A1 DE 102019116892A1
- Authority
- DE
- Germany
- Prior art keywords
- road
- lane
- lidar
- vehicle
- road boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 claims abstract description 32
- 238000012545 processing Methods 0.000 claims abstract description 16
- 230000006978 adaptation Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 description 28
- 230000009471 action Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/30—Road curve radius
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
Die vorliegende Erfindung betrifft ein Verfahren zum Bestimmen eines besonderen Fahrspurereignisses (60) in einem Fahrunterstützungssystem (12) eines Fahrzeugs (10), mit den Schritten zum Bereitstellen von Sensorinformation von einem LiDAR-basierten Umgebungssensor (14), der eine Straße (30) vor dem Fahrzeug (10) abdeckt, Ausführen einer Straßenbegrenzungserfassung für eine erste Straßenbegrenzung (34) der Straße (30) vor dem Fahrzeug (10) basierend auf der bereitgestellten Sensorinformation vom LiDAR-basierten Umgebungssensor (14), Ausführen einer Parameterschätzung für die erste Straßenbegrenzung (34) und Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse (60) basierend auf der Parameterschätzung für die erste Straßenbegrenzung (34) zum Bestimmen eines ersten besonderen Fahrspurereignisses (60). Die vorliegende Erfindung betrifft auch ein Fahrunterstützungssystem (12) für ein Fahrzeug (10) mit einem LiDAR-basierten Umgebungssensor (14) und einer mit dem LiDAR-basierten Umgebungssensor (14) verbundenen Verarbeitungseinheit (16) zum Empfangen von Sensorinformation vom Sensor, wobei das Fahrunterstützungssystem (12) dazu eingerichtet ist, das vorstehende Verfahren auszuführen.The present invention relates to a method for determining a particular lane event (60) in a driving support system (12) of a vehicle (10), comprising the steps of providing sensor information from a LiDAR-based environment sensor (14) that is facing a road (30) the vehicle (10), performing a road boundary detection for a first road boundary (34) of the road (30) in front of the vehicle (10) based on the sensor information provided by the LiDAR-based environment sensor (14), performing a parameter estimation for the first road boundary ( 34) and performing a pattern similarity comparison for the lane events (60) based on the parameter estimate for the first road boundary (34) to determine a first particular lane event (60). The present invention also relates to a driving support system (12) for a vehicle (10) with a LiDAR-based environment sensor (14) and a processing unit (16) connected to the LiDAR-based environment sensor (14) for receiving sensor information from the sensor, the Driving support system (12) is set up to carry out the above method.
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Bestimmen eines besonderen Fahrspurereignisses in einem Fahrunterstützungssystem eines Fahrzeugs, insbesondere durch unabhängige Detektion von den physikalischen Straßenbegrenzungen.The present invention relates to a method for determining a particular lane event in a driving support system of a vehicle, in particular by means of independent detection of the physical road boundaries.
Die vorliegende Erfindung betrifft auch ein Fahrunterstützungssystem für ein Fahrzeug, das einen LiDAR-basierten Umgebungssensor und eine mit dem LiDAR-basierten Umgebungssensor verbundene Verarbeitungseinheit zum Empfangen von Sensorinformation vom Sensor aufweist, wobei das Fahrunterstützungssystem dazu eingerichtet ist, das obige Verfahren auszuführen.The present invention also relates to a driving support system for a vehicle, which has a LiDAR-based environment sensor and a processing unit connected to the LiDAR-based environment sensor for receiving sensor information from the sensor, the driving support system being configured to carry out the above method.
Außer LiDAR kann das Verfahren mit anderen Sensoren wie Fernradar, Wärmebildkamera, Ultraschallsensoren, Kamera usw. arbeiten und im Allgemeinen mit jedem Sensor, der eine Punktwolke generiert.In addition to LiDAR, the method can work with other sensors such as remote radar, thermal imaging camera, ultrasonic sensors, camera, etc. and in general with any sensor that generates a point cloud.
Weltweit dienen Straßennetze tagtäglich unzähligen Fahrzeugen. Um einen sicheren und effizienten Verkehr zu gewährleisten, sind Straßen in der Regel mit aufgemalten Begrenzungen markiert, die zulässige Fahrbereiche definieren. Außerdem existieren physikalische Begrenzungen der Straßen, d.h. ein seitliches Ende der Straße, oder sie können als Leitplanken bereitgestellt sein, die mögliche Fahrbereiche definieren. Am häufigsten werden auf der Straße aufgemalte Begrenzungen mit einem Abstand von den physikalischen Begrenzungen bereitgestellt.Road networks serve countless vehicles around the world every day. In order to ensure safe and efficient traffic, roads are usually marked with painted borders that define permitted driving areas. In addition, there are physical limitations of the roads, i.e. a side end of the road, or they can be provided as guard rails that define possible driving areas. Most often, boundaries painted on the road are provided at a distance from the physical boundaries.
Autonomes und halbautonomes Fahren wird in der Automobilindustrie ein immer wichtigerer Faktor. Prototypen für autonomes Fahren sind bereits entwickelt und eingesetzt worden und werden aktuell getestet, in einigen Fällen sogar unter realen Fahrbedingungen. Autonomes Fahren wird im Automobilsektor als bahnbrechende Technologie angesehen.Autonomous and semi-autonomous driving is becoming an increasingly important factor in the automotive industry. Prototypes for autonomous driving have already been developed and used and are currently being tested, in some cases even under real driving conditions. Autonomous driving is seen as a breakthrough technology in the automotive sector.
Für Fahrunterstützungssysteme ist es ein wesentlicher Schritt hin zum autonomen Fahren, eine Straßenverfolgung zu ermöglichen oder zu unterstützen. Jüngste Untersuchungen und Tests im Bereich des autonomen Fahrens zeigen, dass es sehr wichtig ist, die Begrenzungen der Straße zu kennen. Dies ist insbesondere dann eine Herausforderung, wenn die Begrenzungen nicht durchgehend sind, z.B. im Fall von Fahrspurereignissen wie Straßenabfahrten und -verzweigungen. Verzweigungen und Ausfahrtbereiche stellen beim Fahren die größte Herausforderung der Straßennetze dar. Verzweigungen stellen beispielsweise eine gabelartige Fahrspursituation auf der Straße dar, die eine Verzweigungsstelle für zwei Schnellstraßen oder eine Straßenteilung aufgrund einer Baustelle oder dergleichen sein kann. Es können Ausfahrtspuren zum Verlassen einer Straße, insbesondere einer Schnellstraße, sowie Auffahrtspuren zum Auffahren auf eine Straße vorgesehen sein. Es ist daher wichtig, diese Fahrspurereignisse so früh wie möglich zu antizipieren. Insbesondere für autonomes Fahren ist das Erfassen dieser Fahrspurereignisse wesentlich, um robuste Einsatz- und Trajektorienplanungsaufgaben zu erfüllen.For driving support systems, enabling or supporting road tracking is an essential step towards autonomous driving. Recent research and tests in the field of autonomous driving show that it is very important to know the boundaries of the road. This is particularly a challenge when the boundaries are not continuous, e.g. in the case of lane events such as road exits and junctions. Branches and exit areas represent the greatest challenge of road networks when driving. Branches represent, for example, a fork-like lane situation on the road that can be a junction for two expressways or a road division due to a construction site or the like. Exit lanes can be provided for leaving a road, in particular an expressway, as well as access lanes for entering a road. It is therefore important to anticipate these lane events as early as possible. For autonomous driving in particular, the detection of these lane events is essential in order to perform robust operational and trajectory planning tasks.
Bekannte Ansätze zum Erfassen von Fahrspurereignissen basieren typischerweise auf einer Erfassung von Fahrspuren der Straße basierend auf Linienmarkierungen. Die Linienmarkierungen werden auf der Straße bereitgestellt, um Fahrspuren zu markieren, d.h. Fahrspuren voneinander zu trennen, und Fahrspuren von Bereichen jenseits der Straße zu trennen. Die Linienmarkierungen können als durchgehende Linien oder als unterbrochene Linien bereitgestellt werden. Die Linienmarkierungen werden typischerweise durch kamerabasierte Umgebungssensoren erfasst. In einigen Fällen ist auch ein LiDAR-basierter Umgebungssensor verwendet worden, um Linienmarkierungen basierend auf Reflektivitätsinformation, die für Messpunkte des LiDAR-basierten Umgebungssensors bereitgestellt wird, zu erfassen. Somit liefert der LiDAR-basierte Umgebungssensor nicht nur Abstandsinformation für jeden Messpunkt, sondern bestimmt zusätzlich auch eine Intensität der empfangenen Reflexionen für jeden Messpunkt. Bei diesen Ansätzen gibt es jedoch zwei Hauptschwierigkeiten. Erstens kann das spezifische Erscheinungsbild von Linienmarkierungen von Land zu Land oder sogar von Region zu Region variieren. Zweitens folgen Linienmarkierungen typischerweise einer bestimmten Fahrspurgeometrie, gemäß der zwei Linien, die eine Fahrspur begrenzen, parallel zueinander verlaufen. Insbesondere im Bereich von Fahrspurereignissen werden die Linienmarkierungen nicht immer auf diese Weise bereitgestellt, was die Erfassungsfähigkeiten von Fahrspurereignissen einschränkt.Known approaches to detecting lane events are typically based on detecting lanes of the road based on line markings. The line markings are provided on the road to mark driving lanes, i.e. Separate lanes from one another and separate lanes from areas across the road. The line markings can be provided as solid lines or as broken lines. The line markings are typically detected by camera-based environmental sensors. In some cases, a LiDAR-based environment sensor has also been used to detect line markings based on reflectivity information provided for measurement points of the LiDAR-based environment sensor. Thus, the LiDAR-based environment sensor not only provides distance information for each measuring point, but also determines the intensity of the reflections received for each measuring point. However, there are two main difficulties with these approaches. First, the specific appearance of line markers can vary from country to country or even region to region. Second, line markings typically follow a certain lane geometry, according to which two lines delimiting a lane run parallel to one another. In the area of lane events in particular, the line markings are not always provided in this way, which restricts the detection capabilities of lane events.
In diesem Zusammenhang beschreibt das Dokument
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Bestimmen eines besonderen Fahrspurereignisses in einem Fahrunterstützungssystem eines Fahrzeugs sowie ein Fahrunterstützungssystem für ein Fahrzeug, das dazu eingerichtet ist, das obige Verfahren auszuführen, anzugeben, welche die Fahrsicherheit erhöhen und insbesondere eine verbesserte Bestimmung von Fahrspurereignissen ermöglichen.The present invention is based on the object of specifying a method for determining a particular lane event in a driving support system of a vehicle, as well as a driving support system for a vehicle which is set up to carry out the above method, which increase driving safety and in particular an improved determination of lane events enable.
Die Lösung dieser Aufgabe erfolgt durch die unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.This problem is solved by the independent claims. Advantageous refinements are given in the subclaims.
Insbesondere ist durch die vorliegende Erfindung ein Verfahren zum Bestimmen eines besonderen Fahrspurereignisses in einem Fahrunterstützungssystem eines Fahrzeugs angegeben, aufweisend die Schritte zum Bereitstellen von Sensorinformation von einem LiDAR-basierten Umgebungssensor, die eine Straße vor dem Fahrzeug abdeckt, Ausführen einer Straßenbegrenzungserfassung für eine erste Straßenbegrenzung der Straßevor dem Fahrzeug basierend auf der bereitgestellten Sensorinformation vom LiDAR-basierten Umgebungssensor, Ausführen einer Parameterschätzung für die erste Straßenbegrenzung und Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse basierend auf der Parameterschätzung für die erste Straßenbegrenzung zum Bestimmen eines ersten besonderen Fahrspurereignisses.In particular, the present invention specifies a method for determining a particular lane event in a driving support system of a vehicle, comprising the steps of providing sensor information from a LiDAR-based environment sensor that covers a road in front of the vehicle, executing a road boundary detection for a first road boundary of the Road ahead of the vehicle based on the provided sensor information from the LiDAR-based environment sensor, executing a parameter estimation for the first road boundary and executing a pattern similarity comparison for the lane events based on the parameter estimation for the first road boundary to determine a first particular lane event.
Durch die vorliegende Erfindung ist auch ein Fahrunterstützungssystem für ein Fahrzeug angegeben, das einen LiDAR-basierten Umgebungssensor und eine mit dem LiDAR-basierten Umgebungssensor verbundene Verarbeitungseinheit zum Empfangen von Sensorinformation vom Sensor aufweist, wobei das Fahrunterstützungssystem dazu eingerichtet ist, das obige Verfahren auszuführen.The present invention also specifies a driving support system for a vehicle which has a LiDAR-based environment sensor and a processing unit connected to the LiDAR-based environment sensor for receiving sensor information from the sensor, the driving support system being configured to carry out the above method.
Grundidee der Erfindung ist es, eine robuste Einsatz- und Trajektorienplanung durch Antizipation von Fahrspurereignissen, z.B. Abfahrtfahrspuren, Verzweigungen und dergleichen, schon weit im Voraus zu ermöglichen. Daher besteht die Idee darin, die Fahrspurereignisse basierend auf einer ersten Straßenbegrenzung zu bestimmen, die unter Verwendung eines LiDAR-basierten Umgebungssensors erfasst wird. Die erste Straßenbegrenzung kann entweder eine rechte oder eine linke Begrenzung der Straße sein. Sie kann daher auch einfach als Straßenbegrenzung bezeichnet werden. Es ist lediglich erforderlich, dass das Fahrspurereignis für die jeweilige Straßenbegrenzung unabhängig von der anderen Straßenbegrenzung bestimmt wird, d.h. ohne Berücksichtigung der anderen Straßenbegrenzung. Dies trägt dazu bei, Unterbrechungen zu eliminieren.The basic idea of the invention is to provide robust deployment and trajectory planning by anticipating lane events, e.g. To enable departure lanes, branches and the like, well in advance. The idea is therefore to determine the lane events based on a first road delimitation that is detected using a LiDAR-based environment sensor. The first road boundary can be either a right or left boundary of the road. It can therefore also be referred to simply as the road boundary. It is only necessary that the lane event for the respective road boundary is determined independently of the other road boundary, i.e. without considering the other road delimitation. This helps eliminate interruptions.
Der LiDAR-basierte Umgebungssensor hat eine Sensorreichweite, die typischerweise der Reichweite beispielsweise eines Kamerasensors, der herkömmlich zum Erfassen von Linienzeichnungen von Fahrspuren der Straße eingesetzt wird, überlegen ist. Gängige LiDAR-basierte Umgebungssensoren haben eine Reichweite von bis zu 200 m, während Kamerasensoren lediglich eine Reichweite von 20 - 80 m erreichen. Darüber hinaus liefern LiDAR-basierte Umgebungssensoren die Sensorinformation der Umgebung mit hoher Auflösung. Die Sensorinformation des LiDAR-basierten Umgebungssensors enthält daher eine hohe Anzahl relevanter Sensorinformation, die die jeweiligen Straßenbegrenzungen abdeckt, so dass die Parameter der jeweiligen Straßenbegrenzung auch in Bereichen zuverlässig geschätzt werden können, die weit vom Fahrzeug entfernt sind. Aufgrund der Fähigkeiten des LiDAR-basierten Umgebungssensors können insbesondere durch 3D-Strukturen definierte Straßenbegrenzungen leicht erfasst werden.The LiDAR-based environment sensor has a sensor range that is typically superior to the range of a camera sensor, for example, which is conventionally used to record line drawings of lanes on the road. Common LiDAR-based environmental sensors have a range of up to 200 m, while camera sensors only achieve a range of 20 - 80 m. In addition, LiDAR-based environment sensors provide the sensor information of the environment with high resolution. The sensor information of the LiDAR-based environment sensor therefore contains a large number of relevant sensor information that covers the respective road limits, so that the parameters of the respective road limit can also be reliably estimated in areas that are far away from the vehicle. Due to the capabilities of the LiDAR-based environment sensor, road boundaries defined by 3D structures can easily be recorded.
Die Verwendung von Straßenbegrenzungen als Grundlage zum Bestimmen von Fahrspurereignissen hat mehrere Vorteile. Erstens sind Straßenbegrenzungen leicht identifizierbar, insbesondere wenn die Straßenbegrenzungen nicht auf Linienzeichnungen auf der Straße beschränkt sind. Darüber hinaus kann das genaue Erscheinungsbild der Fahrspurereignisse, die die Linienmarkierungen aufweisen, von Land zu Land oder sogar von Region zu Region variieren, während Straßenbegrenzungen immer vorhanden sind. Weiterhin kann, wie bereits vorstehend erwähnt wurde, das Erfassen von Straßenbegrenzungen unter Verwendung von LiDAR-basierten Umgebungssensoren ausgeführt werden, die eine größere Sensorreichweite als z.B. Kamerasensoren haben, die typischerweise zum Erfassen der Linienmarkierungen verwendet werden. Daher kann eine reibungslose Steuerung basierend auf den bestimmten Fahrspurereignissen ermöglicht werden. Schließlich sind LiDAR-basierte Umgebungssensoren relativ unabhängig von Beleuchtungsbedingungen, so dass sie auch unter Bedingungen ohne Licht verwendet werden können, z.B. bei Dunkelheit, und unter Bedingungen mit eingeschränkter Sicht.Using road boundaries as a basis for determining lane events has several advantages. First, road boundaries are easy to identify, especially if the road boundaries are not limited to line drawings on the road. In addition, the exact appearance of the lane events exhibited by the line markings may vary from country to country or even region to region while road boundaries are always present. Furthermore, as already mentioned above, the detection of road boundaries can be carried out using LiDAR-based environmental sensors which have a greater sensor range than e.g. Have camera sensors that are typically used to detect the line markings. Therefore, smooth control based on the determined lane events can be enabled. Finally, LiDAR-based environmental sensors are relatively independent of lighting conditions, so they can also be used in non-light conditions, e.g. in the dark and in conditions with limited visibility.
Das Verfahren ist insbesondere bei einer Fahrt auf Schnellstraßen oder anderen Straßen anwendbar, mit denen häufige Fahrspurereignisse verbunden sein können und die von der Antizipation solcher Fahrspurereignisse profitieren. Beim Fahren auf einer derartigen Schnellstraße oder Straße bewegt sich das Fahrzeug typischerweise mit einer erhöhten Geschwindigkeit, was zu einer erhöhten Zeit führt, die erforderlich ist, um das Fahrzeug bis zum Stillstand abzubremsen.The method is particularly applicable when driving on expressways or other roads with which frequent lane events can be connected and which benefit from the anticipation of such lane events. When traveling on such an expressway or road, the vehicle typically moves at an increased speed, which results in an increased time required to brake the vehicle to a stop.
Der LiDAR-basierte Umgebungssensor weist eine Laserquelle zum Emittieren von Laserlicht auf. Das Laserlicht kann als ein Strahl emittiert und entlang einer horizontalen und einer vertikalen Richtung bewegt werden, um ein Sichtfeld des LiDAR-basierten Umgebungssensors abzudecken. Modernere LiDAR-basierte Umgebungssensoren verfügen über eine Laserquelle zum Emittieren von Laserlichtstreifen, die das Sichtfeld durch Bewegen des Laserlichtstreifens nur in einer vertikalen oder in einer horizontalen Richtung abdecken. Dies erhöht die Messgeschwindigkeit für das Sichtfeld des LiDAR-basierten Umgebungssensors. Es können mehrere punktuelle Messungen über die Länge des Streifens ausgeführt werden. Die Sensorinformation vom LiDAR-basierten Umgebungssensor wird typischerweise als eine sogenannte „Punktwolke“ bereitgestellt, wobei jeder Punkt der Sensorinformation Abstandsinformation enthält. LiDAR-basierte Umgebungssensoren sind auf dem Fachgebiet hinlänglich bekannt und werden daher nicht näher erläutert.The LiDAR-based environment sensor has a laser source for emitting laser light. The laser light can be emitted as a beam and moved along a horizontal and a vertical direction in order to cover a field of view of the LiDAR-based environmental sensor. More modern LiDAR-based environmental sensors have a laser source for emitting laser light strips that cover the field of view by moving the laser light strip only in a vertical or in a horizontal direction. This increases the measurement speed for the field of view of the LiDAR-based environmental sensor. Several point measurements can be made along the length of the strip. The sensor information from the LiDAR-based environment sensor is typically provided as a so-called “point cloud”, with each point of the sensor information containing distance information. LiDAR-based environmental sensors are well known in the technical field and are therefore not explained in more detail.
Die Sensorinformation vom LiDAR-basierten Umgebungssensor deckt eine Straße vor dem Fahrzeug ab. In diesem Zusammenhang bezieht sich der Ausdruck „vor dem Fahrzeug“ auf eine Fahrrichtung des Fahrzeugs. Beim Rückwärtsfahren wird also die Straße hinter dem Fahrzeug abgedeckt, allgemein wird aber die Straße vor dem Fahrzeug abgedeckt. Der LiDAR-basierte Umgebungssensor führt die Sensorinformation der Verarbeitungseinheit über eine Datenverbindung, d.h. einen Kommunikationsbus, zu. In der Automobilindustrie sind verschiedenartige Bustypen bekannt, z.B. CAN-Bus oder andere.The sensor information from the LiDAR-based environment sensor covers a street in front of the vehicle. In this context, the term “in front of the vehicle” refers to a direction of travel of the vehicle. When reversing, the road behind the vehicle is covered, but generally the road in front of the vehicle is covered. The LiDAR-based environment sensor carries the sensor information to the processing unit via a data connection, i.e. a communication bus, too. Various types of buses are known in the automotive industry, e.g. CAN bus or others.
Die Straßenbegrenzungserfassung erfasst die erste Straßenbegrenzung innerhalb der bereitgestellten Sensorinformation vom LiDAR-basierten Umgebungssensor. Daher wird die Sensorinformation, d.h. die Punktwolke, wie sie vom LiDAR-basierten Umgebungssensor bereitgestellt wird, verarbeitet, um die erste Straßenbegrenzung zu erfassen. Ohne weitere Vorverarbeitung der Sensorinformation kann das Erfassen der ersten Straßenbegrenzung auf eine effiziente Weise ausgeführt werden.The road boundary detection detects the first road boundary within the provided sensor information from the LiDAR-based environment sensor. Therefore, the sensor information, i.e. the point cloud, as provided by the LiDAR-based environment sensor, is processed in order to detect the first road boundary. Without further preprocessing of the sensor information, the detection of the first road delimitation can be carried out in an efficient manner.
Die Parameterschätzung liefert einen oder mehrere Parameter für die erste Straßenbegrenzung zur Weiterverarbeitung. Die Parameter basieren auf der ersten Straßenbegrenzung und ermöglichen einen effizienten, nachfolgenden Musterähnlichkeitsabgleich, um das erste besondere Fahrspurereignis zu bestimmen. Es können verschiedenartige Parameter zur weiteren Verwendung während des nachfolgenden Musterähnlichkeitsabgleichs geschätzt werden, wie nachstehend näher erörtert wird.The parameter estimation supplies one or more parameters for the first road delimitation for further processing. The parameters are based on the first road delimitation and enable an efficient, subsequent pattern similarity comparison in order to determine the first particular lane event. Various parameters can be estimated for further use during subsequent pattern similarity matching, as discussed in more detail below.
Der Musterähnlichkeitsabgleich bezieht sich auf eine Identifizierung eines am besten passenden Fahrspurereignisses von möglichen Fahrspurereignissen. Dies beinhaltet z.B., dass das besondere Fahrspurereignis als „kein Fahrspurereignis“ vorhanden, d.h. nominelles Fahren, bestimmt werden kann.The pattern similarity comparison relates to identifying a best match lane event from possible lane events. This includes, for example, that the particular lane event is present as "no lane event", i.e. nominal driving, can be determined.
Das Fahrunterstützungssystem kann als ein System zum Unterstützen eines menschlichen Fahrers des Fahrzeugs, typischerweise als Fahrassistenzsystem bezeichnet, oder zum Unterstützen von autonomem oder halbautonomem Fahren bereitgestellt werden. Im ersten Fall kann das Fahrassistenzsystem Information in Bezug auf besondere Fahrspurereignisse unter Verwendung einer Benutzerschnittstelle ausgeben, z.B. über ein Display und/oder einen Lautsprecher des Fahrzeugs. Das Fahrunterstützungssystem kann ein individuelles System zum Bestimmen des besonderen Fahrspurereignisses sein, oder es kann integraler Bestandteil eines autonomen oder zumindest halbautonomen Fahrunterstützungssystems sein, das z.B. eine Längssteuerung und/oder eine Quersteuerung des Fahrzeugs ausführt. Daher kann das Fahrunterstützungssystem eine Steuerung des Fahrzeugs ausführen oder die Steuerung des Fahrzeugs basierend auf den bestimmten besonderen Fahrspurereignissen anpassen.The driving support system can be provided as a system for supporting a human driver of the vehicle, typically referred to as a driving assistance system, or for supporting autonomous or semi-autonomous driving. In the first case, the driver assistance system can output information relating to particular lane events using a user interface, e.g. via a display and / or a loudspeaker in the vehicle. The driving support system can be an individual system for determining the particular lane event, or it can be an integral part of an autonomous or at least semi-autonomous driving support system, e.g. carries out a longitudinal control and / or a lateral control of the vehicle. Therefore, the driving support system can perform control of the vehicle or adjust control of the vehicle based on the particular lane events determined.
Das Verfahren kann unter Verwendung nur des LiDAR-basierten Umgebungssensors ausgeführt werden. In einigen Fällen kann die Verwendung des LiDAR-basierten Umgebungssensors in Verbindung mit einem Kamerasensor jedoch dazu beitragen, das Bestimmen der Fahrspurereignisse zu verbessern. Die zusätzliche Verwendung des Kamerasensors erhöht die Redundanz bei der Bestimmung des besonderen Fahrspurereignisses.The method can be carried out using only the LiDAR-based environmental sensor. In some cases, however, using the LiDAR-based environmental sensor in conjunction with a camera sensor can help improve the determination of lane events. The additional use of the camera sensor increases the redundancy when determining the particular lane event.
Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren die zusätzlichen Schritte zum Ausführen einer Straßenbegrenzungserfassung für eine zweite Straßenbegrenzung der Straße vor dem Fahrzeug basierend auf der bereitgestellten Sensorinformation vom LiDAR-basierten Umgebungssensor, das Ausführen einer Parameterschätzung für die zweite Straßenbegrenzung und das Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse basierend auf der Parameterschätzung für die zweite Straßenbegrenzung auf, um ein zweites besonderes Fahrspurereignis zu bestimmen. Daher können die Fahrspurereignisse basierend auf jeder der Straßenbegrenzungen bestimmt werden, wobei die Bestimmung für jede der Straßenbegrenzungen unabhängig ist. Dies ermöglicht in allen Fällen eine unabhängige Erfassung von Fahrspurereignissen basierend auf nur einer der Straßenbegrenzungen, d.h. unabhängig von dem Fahrspurereignis, das die jeweilige andere Begrenzung beinhaltet. Es können alle Fahrspurereignisse bestimmt werden, die eine der beiden Straßenbegrenzungen beinhalten.According to a modified embodiment of the invention, the method has the additional steps of performing a road boundary detection for a second road boundary of the road in front of the vehicle based on the provided sensor information from the LiDAR-based environment sensor, performing a parameter estimation for the second road boundary and performing a pattern similarity comparison for retrieve the lane events based on the parameter estimate for the second road boundary to determine a second particular lane event. Therefore, the lane events can be determined based on each of the road boundaries, with the determination being independent for each of the road boundaries. In all cases, this enables an independent detection of lane events based on only one of the road boundaries, that is to say independently of the lane event that contains the respective other boundary. All lane events that contain one of the two road boundaries can be determined.
Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren den zusätzlichen Schritt zum Ausführen einer kombinierten Fahrspurereignisbestimmung basierend auf dem ersten und dem zweiten besonderen Fahrspurereignis auf. Daher kann das Bestimmen des besonderen Fahrspurereignisses weiter verbessert werden, indem die Fahrspurereignisse wie sie basierend auf jeder der Straßenbegrenzungen identifiziert wurden gemeinsam betrachtet werden. Darüber hinaus können bestimmte Arten von Fahrspurereignissen am besten basierend auf beiden Straßenbegrenzungen bestimmt werden, z.B. Mautstellen, an denen sich die Straße zu beiden lateralen Seiten hin wesentlich verbreitert.According to a modified embodiment of the invention, the method has the additional step of executing a combined lane event determination based on the first and the second particular lane event. Therefore, the determination of the particular lane event can be further improved by considering the lane events as identified based on each of the road boundaries together. In addition, certain types of lane events can best be determined based on both road boundaries, e.g. Toll booths where the road widens significantly on both lateral sides.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Straßenbegrenzungserfassung für eine erste und/oder zweite Straßenbegrenzung der Straße vor dem Fahrzeug basierend auf der bereitgestellten Sensorinformation von einem LiDAR-basierten Umgebungssensor das Bestimmen einer strukturellen Begrenzung der Straße auf. Strukturelle Begrenzungen der Straße können z.B. Höhenunterschiede zwischen der Straße und einem Bereich jenseits der Straße oder Leitplanken sein, die die Straße begrenzen. Solche strukturellen Begrenzungen können erfasst werden, indem lediglich die Laufzeit des vom LiDAR-basierten Umgebungssensor emittierten Laserlichts zu einer Oberfläche und seiner Reflexion zurück zum LiDAR-basierten Umgebungssensor ausgewertet wird.According to a modified embodiment of the invention, the step of executing a road boundary detection for a first and / or second road boundary of the road in front of the vehicle based on the provided sensor information from a LiDAR-based environment sensor comprises determining a structural boundary of the road. Structural boundaries of the road can e.g. Differences in elevation between the road and an area beyond the road or guardrails delimiting the road. Such structural limitations can be detected by merely evaluating the transit time of the laser light emitted by the LiDAR-based environment sensor to a surface and its reflection back to the LiDAR-based environment sensor.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen von Sensorinformation von einem LiDAR-basierten Umgebungssensor das Bereitstellen von information von Reflexionen auf, die mit dem LiDAR-basierten Umgebungssensor empfangen werden, und weist der Schritt zum Ausführen einer Straßenbegrenzungserfassung für eine erste und/oder eine zweite Straßenbegrenzung der Straße vor dem Fahrzeug basierend auf der bereitgestellten Sensorinformation von einem LiDAR-basierten Umgebungssensor das Ausführen einer Straßenbegrenzungserfassung für die erste und/oder zweite Straßenbegrenzung basierend auf der bereitgestellten Intensitätsinformation der Reflexionen auf. Die Intensitätsinformation der Reflexionen bezieht sich auf die Intensität der empfangenen Reflexion an den einzelnen Messpunkten des LiDAR-basierten Umgebungssensors, während er sein gesamtes Sichtfeld abdeckt. Die Intensität ist abhängig von einer Oberflächenfarbe und einer Oberflächenstruktur der Umgebung. Die Intensität der Reflexionen ermöglicht es z.B. Farben und/oder Oberflächenstrukturen zu unterscheiden. Dies ermöglicht es, Linienmarkierungen zu identifizieren, die seitliche Begrenzungen der Straße anzeigen. Darüber hinaus ermöglicht es die Intensitätsinformation der Reflexionen z.B. unterschiedliche Reflexionsvermögen z.B. einer Oberfläche der Straße im Vergleich zu z.B. Gras neben der Straße zu unterscheiden, was dazu beiträgt, eine Begrenzung der Straße zu erfassen, auch wenn ein fließender Übergang von der Straße zum Bereich neben der Straße vorliegt.According to a modified embodiment of the invention, the step of providing sensor information from a LiDAR-based environment sensor includes providing information from reflections that are received with the LiDAR-based environment sensor, and has the step of performing a road boundary detection for a first and / or or a second road delimitation of the road in front of the vehicle based on the provided sensor information from a LiDAR-based environment sensor, the execution of a road delimitation detection for the first and / or second road delimitation based on the provided intensity information of the reflections. The intensity information of the reflections relates to the intensity of the received reflection at the individual measuring points of the LiDAR-based environmental sensor while it covers its entire field of view. The intensity depends on a surface color and a surface structure of the environment. The intensity of the reflections enables e.g. To distinguish colors and / or surface structures. This enables line markings to be identified which indicate lateral boundaries of the road. In addition, the intensity information of the reflections enables e.g. different reflectivities e.g. a surface of the road compared to e.g. Distinguish grass next to the road, which helps to capture a boundary of the road, even if there is a smooth transition from the road to the area next to the road.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Straßenbegrenzungserfassung für eine erste und/oder zweite Straßenbegrenzung der Straße vor dem Fahrzeug das Segmentieren der Sensorinformation vom LiDAR-basierten Umgebungssensor in Sensorinformation, die einer Sensorinformationsklasse zugeordnet ist, die mit der ersten und/oder zweiten Straßenbegrenzung in Beziehung steht, und das Herausfiltern von Sensorinformation auf, die nicht der ersten und/oder zweiten Straßenbegrenzung zugehörig ist. Daher werden Messpunkte der Punktwolke des LiDAR-basierten Umgebungssensors der jeweiligen Straßenbegrenzung zugeordnet, falls sie dieser Straßenbegrenzung zugehörig sind. Verbleibende Messpunkte werden herausgefiltert, damit sie nicht weiterverarbeitet werden. Daher kann die Weiterverarbeitung der vom LiDAR-basierten Umgebungssensor bereitgestellten Sensorinformation auf diese Messpunkte konzentriert oder beschränkt werden. Daher kann die Weiterverarbeitung mit geringem Rechenaufwand ausgeführt werden.According to a modified embodiment of the invention, the step of performing a road boundary detection for a first and / or second road boundary of the road in front of the vehicle comprises segmenting the sensor information from the LiDAR-based environment sensor into sensor information that is assigned to a sensor information class that is associated with the first and / or or the second road delimitation, and the filtering out of sensor information that is not associated with the first and / or second road delimitation. Therefore, measuring points of the point cloud of the LiDAR-based environment sensor are assigned to the respective road delimitation, if they belong to this street delimitation. Remaining measurement points are filtered out so that they are not processed further. The further processing of the sensor information provided by the LiDAR-based environment sensor can therefore be concentrated or limited to these measuring points. The further processing can therefore be carried out with little computational effort.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Parameterschätzung für die erste und/oder die zweite Straßenbegrenzung das Ausführen einer Krümmungsschätzung und/oder einer Fahrtrichtungsschätzung und/oder einer seitlichen Abstandsschätzung auf. Derartige Parameter haben sich zum Ausführen einer Parameterschätzung zum Bestimmen des jeweiligen Fahrspurereignisses als zuverlässig erwiesen. Die Parameter ermöglichen einen effizienten Musterähnlichkeitsabgleich bei geringem Rechenaufwand.According to a modified embodiment of the invention, the step of executing a parameter estimation for the first and / or the second road delimitation includes executing a curvature estimation and / or an estimation of the direction of travel and / or a lateral distance estimation. Such parameters have proven to be reliable for performing a parameter estimation for determining the respective lane event. The parameters enable an efficient pattern similarity comparison with little computational effort.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Krümmungsschätzung für die erste und/oder die zweite Straßenbegrenzung das Anwenden eines geometrischen Modells auf die erste und/oder die zweite Straßenbegrenzung auf. Anhand des geometrischen Modells kann die Krümmung für eine Weiterverarbeitung einfach definiert werden.According to a modified embodiment of the invention, the step of carrying out a curvature estimation for the first and / or the second road boundary includes the application of a geometric model to the first and / or the second road boundary. Using the geometric model, the curvature can be easily defined for further processing.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Anwenden eines geometrischen Modells auf die erste und/oder die zweite Straßenbegrenzung das Anwenden eines Polynom-Straßenmodells, insbesondere eines kubischen Polynom-Straßenmodells, vorzugsweise mit einer sich langsam ändernden Krümmung auf. Polynom-Straßenmodelle sind bei der Straßenplanung Stand der Technik. Daher kann das geometrische Modell die Krümmung bei gleicher Struktur mit hoher Genauigkeit darstellen. Das kubische Polynom-Straßenmodell kann als eine Funktion fc mit bereitgestellt werden:
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse das Ausführen des Musterähnlichkeitsabgleichs für mehrere Fahrspurereignisse aus einer Gruppe möglicher Fahrspurereignisse auf, die mindestens eine Ausfahrtfahrspur, eine Auffahrtfahrspur, eine Verzweigung, eine Mautstelle und nominelles Fahren beinhalten. Durch Abdecken dieser typischen Arten von Fahrspurereignissen kann eine effiziente Bestimmung von Fahrspurereignissen bereitgestellt und kann eine Trajektorienplanung zuverlässig an das besondere Fahrspurereignis vor dem Fahrzeug angepasst werden. Nominelles Fahren bezieht sich auf eine Art NULL-Ereignis, d.h. kein Fahrspurereignis.According to a modified embodiment of the invention, the step of performing a pattern similarity comparison for the lane events includes performing the pattern similarity comparison for a plurality of lane events from a group of possible lane events that include at least one exit lane, an entry lane, a junction, a toll booth and nominal driving. By covering these typical types of lane events, efficient determination of lane events can be provided and trajectory planning can be reliably adapted to the particular lane event in front of the vehicle. Nominal driving refers to some kind of NULL event, i.e. no lane event.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse das Ausführen des Musterähnlichkeitsabgleichs für mehrere Darstellungen mindestens eines der mehreren Fahrspurereignisse aus der Gruppe möglicher Fahrspurereignisse auf. Daher können verschiedene Realisierungen der gleichen Art eines Fahrspurereignisses berücksichtigt werden, um die Bestimmung des jeweiligen Fahrspurereignisses zu verbessern. Dadurch können Unterschiede im nationalen oder regionalen Straßenbau in Bezug auf Fahrspurereignisse berücksichtigt werden, um besondere Fahrspurereignisse zuverlässig zu bestimmen.According to a modified embodiment of the invention, the step of performing a pattern similarity comparison for the lane events includes performing the pattern similarity comparison for multiple representations of at least one of the multiple lane events from the group of possible lane events. Therefore, different realizations of the same type of lane event can be taken into account in order to improve the determination of the respective lane event. In this way, differences in national or regional road construction in relation to lane events can be taken into account in order to reliably determine particular lane events.
Gemäß einer modifizierten Ausführungsform der Erfindung ist das Fahrunterstützungssystem dazu eingerichtet, basierend auf dem bestimmten Fahrspurereignis eine Quersteuerung des Fahrzeugs auszuführen. Die Quersteuerung berücksichtigt das bestimmte Fahrspurereignis und trägt dazu bei, das Fahrspurereignis sicher zu passieren. Die Quersteuerung wird insbesondere unter Berücksichtigung des Abstands zum bestimmten Fahrspurereignis ausgeführt. Daher wird beim Bestimmen des Fahrspurereignisses in einer kurzen Entfernung in der Nähe des Fahrzeugs eine Steuerung ausgeführt, die z.B. eine sofortige und starke Lenkaktion beinhaltet, wohingegen im Fall eines weiter entfernten Fahrspurereignisses eine weniger starke Lenkaktion ausgeführt werden kann.According to a modified embodiment of the invention, the driving assistance system is configured to carry out lateral control of the vehicle based on the determined lane event. The lateral control takes into account the specific lane event and helps to safely pass the lane event. The lateral control is carried out in particular taking into account the distance to the specific lane event. Therefore, in determining the lane event at a short distance in the vicinity of the vehicle, control such as e.g. includes an immediate and strong steering action, whereas in the case of a more distant lane event, a less strong steering action can be performed.
Gemäß einer modifizierten Ausführungsform der Erfindung ist das Fahrunterstützungssystem dazu eingerichtet, basierend auf dem bestimmten Fahrspurereignis eine graduelle Anpassung einer Quersteuerung des Fahrzeugs auszuführen. Die graduelle Anpassung der Quersteuerung beinhaltet z.B. eine Anpassung einer Fahrtrajektorie und dergleichen. Dies ermöglicht ein komfortables Fahrerlebnis für Insassen des Fahrzeugs ohne starke Lenkmanöver. Im günstigsten Fall ist die Quersteuerung für die Insassen des Fahrzeugs kaum wahrnehmbar. Die graduelle Anpassung einer Quersteuerung erfolgt insbesondere unter Berücksichtigung des Abstands zum bestimmten Fahrspurereignis. Daher kann beim Bestimmen des Fahrspurereignisses in einem weiten Abstand vom Fahrzeug die Steuerung mit einer minimalen Lenkaktion ausgeführt werden.According to a modified embodiment of the invention, the driving support system is set up to carry out a gradual adjustment of a lateral control of the vehicle based on the determined lane event. The gradual adjustment of the lateral control includes e.g. an adaptation of a driving trajectory and the like. This enables a comfortable driving experience for occupants of the vehicle without heavy steering maneuvers. In the best case, the transverse control is barely perceptible to the occupants of the vehicle. The gradual adaptation of a lateral control takes place in particular taking into account the distance to the specific lane event. Therefore, when determining the lane event at a long distance from the vehicle, the control can be performed with a minimum steering action.
Diese und andere Aspekte der Erfindung werden anhand der nachstehend beschriebenen Ausführungsformen ersichtlich und erläutert. Einzelne Merkmale, die in den Ausführungsformen dargestellt sind, können für sich alleine oder in Kombination einen Aspekt der vorliegenden Erfindung bilden. Merkmale der verschiedenen Ausführungsformen können von einer Ausführungsform auf eine andere Ausführungsform übertragen werden.These and other aspects of the invention will be apparent and illustrated in the embodiments described below. Individual features that are shown in the embodiments can form an aspect of the present invention on their own or in combination. Features of the various embodiments can be transferred from one embodiment to another embodiment.
Es zeigen:
-
1 eine schematische Seitenansicht eines Fahrzeugs gemäß einer ersten bevorzugten Ausführungsform mit einem Fahrunterstützungssystem; -
2 ein Ablaufdiagramm eines Verfahrens zum Bestimmen eines besonderen Fahrspurereignisses, das durch das Fahrunterstützungssystem des Fahrzeugs von1 ausgeführt wird; -
3 eine schematische Ansicht einer geraden Straße mit seitlichen Straßenbegrenzungen, wie sie von einem LiDAR-basierten Umgebungssensor des Fahrunterstützungssystems des Fahrzeugs von1 gesehen werden; -
4 eine schematische Ansicht einer gekrümmten Straße mit seitlichen Straßenbegrenzungen, wie sie durch einen LiDAR-basierten Umgebungssensor des Fahrunterstützungssystems des Fahrzeugs von1 gesehen werden; -
5 eine schematische Ansicht verschiedener Fahrspurvereinigungssituationen; -
6 eine schematische Ansicht verschiedener Fahrspurverzweigungs- und - ausfahrtsituationen ; -
7 eine schematische Zeichnung zum Darstellen von Hauptparametern, die eine Straßenbegrenzung definieren, mit einem Fahrzeug auf einer geraden Straße; -
8 eine schematische Zeichnung zum Darstellen von Hauptparametern, die eine Straßenbegrenzung definieren, mit einem Fahrzeug auf einer geraden Straße; -
9 eine schematische Zeichnung zum Darstellen von Hauptparametern, die eine Straßenbegrenzung definieren, mit einem Fahrzeug auf einer gekrümmten Straße; -
10 eine schematische Zeichnung von Modulen wie ein Modul zur Abschätzung von Krümmungen zum Ausführen des Verfahrens von2 ; -
11 eine schematische Zeichnung verschiedener Realisierungen von Autobahnausfahrt- und/oder -auffahrtsituationen; und -
12 eine Tabelle mit Musterabgleichkriterien für verschiedene Fahrspurereignisse basierend auf verschiedenen Parametern.
-
1 a schematic side view of a vehicle according to a first preferred embodiment with a driving support system; -
2 FIG. 12 is a flow diagram of a method for determining a particular lane event that is generated by the driving assistance system of the vehicle of1 is performed; -
3 FIG. 3 is a schematic view of a straight road with lateral road boundaries as determined by a LiDAR-based environment sensor of the driving assistance system of the vehicle of FIG1 be seen; -
4th FIG. 3 is a schematic view of a curved road with side road boundaries as determined by a LiDAR-based environmental sensor of the driving assistance system of the vehicle of FIG1 be seen; -
5 a schematic view of various lane merging situations; -
6th a schematic view of various lane branching and exit situations; -
7th a schematic drawing to show main parameters defining a road boundary with a vehicle on a straight road; -
8th a schematic drawing to show main parameters defining a road boundary with a vehicle on a straight road; -
9 a schematic drawing showing main parameters defining a road boundary with a vehicle on a curved road; -
10 FIG. 13 is a schematic drawing of modules such as a curvature estimation module for carrying out the method of FIG2 ; -
11 a schematic drawing of various realizations of motorway exit and / or entry situations; and -
12th a table of pattern matching criteria for different lane events based on different parameters.
Das Fahrzeug
Das Fahrzeug
Der LiDAR-basierte Umgebungssensor
Der LiDAR-basierte Umgebungssensor
Nachfolgend wird ein Verfahren zum Bestimmen eines besonderen Fahrspurereignisses
Das Verfahren beginnt mit Schritt S100, der sich auf das Bereitstellen von Sensorinformation vom LiDAR-basierten Umgebungssensor
Schritt S110 bezieht sich auf das Ausführen einer Straßenbegrenzungserfassung für eine erste Straßenbegrenzung
Schritt S120 bezieht sich auf das Ausführen einer Straßenbegrenzungserfassung für eine zweite Straßenbegrenzung
Die erste (links) und zweite (rechts) Straßenranderkennung sind unabhängig voneinander.The first (left) and second (right) roadside detection are independent of each other.
Die Schritte S110 und S120 basieren beide auf der in Schritt S100 bereitgestellten Sensorinformation und können in einer beliebigen Reihenfolge oder parallel ausgeführt werden. Die Straßenbegrenzungserfassung wird in einem jeweiligen Straßenbegrenzungserfassungsmodul
In dieser Ausführungsform bezieht sich die erste Straßenbegrenzung
Gemäß den Schritten S110 und S120 weist die Straßenbegrenzungserfassung für die erste und/oder die zweite Straßenbegrenzung
Schritt S130 bezieht sich auf das Ausführen einer Parameterschätzung für die erste Straßenbegrenzung
Die Schritte S130 und S140 basieren auf der Straßenbegrenzungserfassung der ersten und der zweiten Straßenbegrenzung
Die Parameterschätzung liefert unterschiedliche Parameter für die erste und die zweite Straßenbegrenzung
Das Ausführen einer Krümmungsschätzung für die erste und die zweite Straßenbegrenzung
In der vorliegenden Ausführungsform wird ein kubisches Polynom-Straßenmodell für jedes der ersten und dem zweiten geometrischen Modelle
Schritt S150 bezieht sich auf das Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse
In Schritt S160 wird ein Musterähnlichkeitsabgleich für die Fahrspurereignisse
Die Schritte S150 und S160 basieren auf den unterschiedlichen Parametern für die erste und die zweite Straßenbegrenzung
Die Schritte S120, S140 und S160 können parallel zu den Schritten S110, S130 und S150 ausgeführt werden. In diesem Fall braucht man nicht zu warten, bis die erste Randerkennung S110 abgeschlossen ist, bevor die zweite Randerkennung S120 abgeschlossen ist.Steps S120, S140 and S160 can be carried out in parallel with steps S110, S130 and S150. In this case, there is no need to wait until the first edge detection S110 is completed before the second edge detection S120 is completed.
Die
Die
Das Ausführen des Musterähnlichkeitsabgleichs für die Fahrspurereignisse
Ein Mittel zum Bestimmen eines besonderen Fahrspurereignisses
Wie vorstehend diskutiert wurde, beziehen sich die Schritte S110, S130 und S150 auf eine Verarbeitung von Fahrspurereignissen
Schritt S170 bezieht sich auf das Ausführen einer kombinierten Fahrspurereignisbestimmung basierend auf dem ersten und dem zweiten besonderen Fahrspurereignis
Das Verfahren wird jedoch kontinuierlich wiederholt, um das Fahrunterstützungssystem
Basierend auf dem bestimmten Fahrspurereignis
Das Fahrunterstützungssystem
Das vorstehend beschriebene Verfahren ist insbesondere für eine Fahrt auf Schnellstraßen oder anderen Straßen
BezugszeichenlisteList of reference symbols
- 1010
- Fahrzeugvehicle
- 1212
- FahrunterstützungssystemDriving support system
- 1414th
- LiDAR-basierter UmgebungssensorLiDAR-based environmental sensor
- 1616
- VerarbeitungseinheitProcessing unit
- 1818th
- KommunikationsbusCommunication bus
- 2020th
- Vorderseitefront
- 2222nd
- FahrrichtungDirection of travel
- 3030th
- StraßeStreet
- 3232
- PunktwolkePoint cloud
- 3434
- erste Straßenbegrenzung, rechtsseitige Straßenbegrenzungfirst road boundary, right-hand road boundary
- 3636
- zweite Straßenbegrenzung, linksseitige Straßenbegrenzungsecond road barrier, left side road barrier
- 3838
- StraßenbegrenzungserfassungsmodulRoad boundary detection module
- 4040
- Bereich jenseits der StraßeArea across the street
- 4242
- LinienmarkierungLine marking
- 4444
- Fahrspurlane
- 4646
- KrümmungsschätzmodulCurvature estimation module
- 4848
- seitlicher Abstandlateral distance
- 5050
- FahrtrichtungDirection of travel
- 5252
- AusrichtungAlignment
- 5454
- Krümmungcurvature
- 5656
- erstes geometrisches Modellfirst geometric model
- 5858
- zweites geometrisches Modellsecond geometric model
- 6060
- FahrspurereignisLane Event
- 6262
- MusterähnlichkeitsabgleichmodulPattern similarity matching module
- 6464
- Richtung der StraßenbegrenzungDirection of the road boundary
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- US 7933433 B2 [0008]US 7933433 B2 [0008]
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019116892.9A DE102019116892A1 (en) | 2019-06-24 | 2019-06-24 | Lane event anticipation through LiDAR road boundary detection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019116892.9A DE102019116892A1 (en) | 2019-06-24 | 2019-06-24 | Lane event anticipation through LiDAR road boundary detection |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019116892A1 true DE102019116892A1 (en) | 2020-12-24 |
Family
ID=73654167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019116892.9A Pending DE102019116892A1 (en) | 2019-06-24 | 2019-06-24 | Lane event anticipation through LiDAR road boundary detection |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019116892A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113936465A (en) * | 2021-10-26 | 2022-01-14 | 公安部道路交通安全研究中心 | Traffic incident detection method and device |
DE102021202233A1 (en) | 2021-03-09 | 2022-09-15 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for detecting a lane using a LiDAR system |
DE102022213486A1 (en) | 2022-12-12 | 2024-06-13 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for detecting a road marking or an object with a LiDAR sensor |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7933433B2 (en) * | 2006-05-23 | 2011-04-26 | Denso Corporation | Lane marker recognition apparatus |
DE112015002868T5 (en) * | 2014-06-19 | 2017-03-02 | Toyota Motor Engineering & Manufacturing North America Inc. | Road branch detection and lane selection for lane centering |
DE102017005921A1 (en) * | 2017-06-23 | 2017-12-21 | Daimler Ag | Method for the autonomous detection of a lane course of at least one lane |
DE102017126822A1 (en) * | 2016-11-29 | 2018-05-30 | Subaru Corporation | Automatic drive control device |
DE102017011564A1 (en) * | 2017-12-14 | 2018-05-30 | Daimler Ag | Method for detecting a road exit |
DE102018125207A1 (en) * | 2017-10-13 | 2019-04-18 | Ford Global Technologies, Llc | VEHICLE INTERNAL TRANSPORT ASSISTANCE |
DE102019100034A1 (en) * | 2018-01-04 | 2019-07-04 | Ford Global Technologies, Llc | AUTONOMOUS STEERING CONTROL |
-
2019
- 2019-06-24 DE DE102019116892.9A patent/DE102019116892A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7933433B2 (en) * | 2006-05-23 | 2011-04-26 | Denso Corporation | Lane marker recognition apparatus |
DE112015002868T5 (en) * | 2014-06-19 | 2017-03-02 | Toyota Motor Engineering & Manufacturing North America Inc. | Road branch detection and lane selection for lane centering |
DE102017126822A1 (en) * | 2016-11-29 | 2018-05-30 | Subaru Corporation | Automatic drive control device |
DE102017005921A1 (en) * | 2017-06-23 | 2017-12-21 | Daimler Ag | Method for the autonomous detection of a lane course of at least one lane |
DE102018125207A1 (en) * | 2017-10-13 | 2019-04-18 | Ford Global Technologies, Llc | VEHICLE INTERNAL TRANSPORT ASSISTANCE |
DE102017011564A1 (en) * | 2017-12-14 | 2018-05-30 | Daimler Ag | Method for detecting a road exit |
DE102019100034A1 (en) * | 2018-01-04 | 2019-07-04 | Ford Global Technologies, Llc | AUTONOMOUS STEERING CONTROL |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021202233A1 (en) | 2021-03-09 | 2022-09-15 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for detecting a lane using a LiDAR system |
CN113936465A (en) * | 2021-10-26 | 2022-01-14 | 公安部道路交通安全研究中心 | Traffic incident detection method and device |
CN113936465B (en) * | 2021-10-26 | 2023-08-18 | 公安部道路交通安全研究中心 | Traffic event detection method and device |
DE102022213486A1 (en) | 2022-12-12 | 2024-06-13 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for detecting a road marking or an object with a LiDAR sensor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3160813B1 (en) | Method for producing a model of the surroundings of a vehicle | |
EP3094530B1 (en) | Method and system for estimating a course of a traffic lane | |
EP2561419B1 (en) | Method for determining the lane course for a vehicle | |
EP1844373B1 (en) | Method for predicting the course in driver assistance systems for motor vehicles | |
DE19749086C1 (en) | Device for determining data indicating the course of the lane | |
DE112017003974B4 (en) | speed control device | |
DE102017005967A1 (en) | Driver assistance method and system | |
DE102018218220A1 (en) | Control device for a vehicle | |
DE102019215403A1 (en) | DEVICE FOR GENERATING AT A CROSSOVER AND METHOD AND DEVICE FOR CONTROLLING A VEHICLE AT A CROSSOVER | |
DE102011117554A1 (en) | Driving environment detection device | |
DE102015202099A1 (en) | Processing sensor data for a driver assistance system | |
EP1680317A1 (en) | Driver assist method and device based on lane information | |
DE102009046699A1 (en) | Driving support device | |
EP2676857A2 (en) | Method and apparatus for generating a control parameter for a gap assistance system of a vehicle | |
DE102005045017A1 (en) | Method and driver assistance system for sensor-based approach control of a motor vehicle | |
DE102017212607A1 (en) | Method and device for environment-based adaptation of driver assistance system functions | |
DE112018007484T5 (en) | Obstacle detection device, automatic braking device using an obstacle detection device, obstacle detection method, and automatic braking method using an obstacle detection method | |
DE102020203756A1 (en) | MOTORWAY EXIT DETECTION AND LINE REFLECTION FOR VEHICLE TRACTION DETERMINATION | |
DE112015004817T5 (en) | OBSTACLE WARNING DEVICE | |
DE102019116892A1 (en) | Lane event anticipation through LiDAR road boundary detection | |
DE102017118651A1 (en) | Method and system for collision avoidance of a vehicle | |
DE102017126452A1 (en) | Vehicle control system | |
DE102011076795A1 (en) | Method for determining a pitching movement of a camera installed in a vehicle and method for controlling a light emission of at least one headlight of a vehicle | |
DE102019115327A1 (en) | Line marker identification using LiDAR | |
DE102020105192A1 (en) | Method for detecting moving objects in a vehicle environment and motor vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |