DE102019116892A1 - Lane event anticipation through LiDAR road boundary detection - Google Patents

Lane event anticipation through LiDAR road boundary detection Download PDF

Info

Publication number
DE102019116892A1
DE102019116892A1 DE102019116892.9A DE102019116892A DE102019116892A1 DE 102019116892 A1 DE102019116892 A1 DE 102019116892A1 DE 102019116892 A DE102019116892 A DE 102019116892A DE 102019116892 A1 DE102019116892 A1 DE 102019116892A1
Authority
DE
Germany
Prior art keywords
road
lane
lidar
vehicle
road boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019116892.9A
Other languages
German (de)
Inventor
Ferit Uzer
Rachid Benmokhtar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102019116892.9A priority Critical patent/DE102019116892A1/en
Publication of DE102019116892A1 publication Critical patent/DE102019116892A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Bestimmen eines besonderen Fahrspurereignisses (60) in einem Fahrunterstützungssystem (12) eines Fahrzeugs (10), mit den Schritten zum Bereitstellen von Sensorinformation von einem LiDAR-basierten Umgebungssensor (14), der eine Straße (30) vor dem Fahrzeug (10) abdeckt, Ausführen einer Straßenbegrenzungserfassung für eine erste Straßenbegrenzung (34) der Straße (30) vor dem Fahrzeug (10) basierend auf der bereitgestellten Sensorinformation vom LiDAR-basierten Umgebungssensor (14), Ausführen einer Parameterschätzung für die erste Straßenbegrenzung (34) und Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse (60) basierend auf der Parameterschätzung für die erste Straßenbegrenzung (34) zum Bestimmen eines ersten besonderen Fahrspurereignisses (60). Die vorliegende Erfindung betrifft auch ein Fahrunterstützungssystem (12) für ein Fahrzeug (10) mit einem LiDAR-basierten Umgebungssensor (14) und einer mit dem LiDAR-basierten Umgebungssensor (14) verbundenen Verarbeitungseinheit (16) zum Empfangen von Sensorinformation vom Sensor, wobei das Fahrunterstützungssystem (12) dazu eingerichtet ist, das vorstehende Verfahren auszuführen.The present invention relates to a method for determining a particular lane event (60) in a driving support system (12) of a vehicle (10), comprising the steps of providing sensor information from a LiDAR-based environment sensor (14) that is facing a road (30) the vehicle (10), performing a road boundary detection for a first road boundary (34) of the road (30) in front of the vehicle (10) based on the sensor information provided by the LiDAR-based environment sensor (14), performing a parameter estimation for the first road boundary ( 34) and performing a pattern similarity comparison for the lane events (60) based on the parameter estimate for the first road boundary (34) to determine a first particular lane event (60). The present invention also relates to a driving support system (12) for a vehicle (10) with a LiDAR-based environment sensor (14) and a processing unit (16) connected to the LiDAR-based environment sensor (14) for receiving sensor information from the sensor, the Driving support system (12) is set up to carry out the above method.

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Bestimmen eines besonderen Fahrspurereignisses in einem Fahrunterstützungssystem eines Fahrzeugs, insbesondere durch unabhängige Detektion von den physikalischen Straßenbegrenzungen.The present invention relates to a method for determining a particular lane event in a driving support system of a vehicle, in particular by means of independent detection of the physical road boundaries.

Die vorliegende Erfindung betrifft auch ein Fahrunterstützungssystem für ein Fahrzeug, das einen LiDAR-basierten Umgebungssensor und eine mit dem LiDAR-basierten Umgebungssensor verbundene Verarbeitungseinheit zum Empfangen von Sensorinformation vom Sensor aufweist, wobei das Fahrunterstützungssystem dazu eingerichtet ist, das obige Verfahren auszuführen.The present invention also relates to a driving support system for a vehicle, which has a LiDAR-based environment sensor and a processing unit connected to the LiDAR-based environment sensor for receiving sensor information from the sensor, the driving support system being configured to carry out the above method.

Außer LiDAR kann das Verfahren mit anderen Sensoren wie Fernradar, Wärmebildkamera, Ultraschallsensoren, Kamera usw. arbeiten und im Allgemeinen mit jedem Sensor, der eine Punktwolke generiert.In addition to LiDAR, the method can work with other sensors such as remote radar, thermal imaging camera, ultrasonic sensors, camera, etc. and in general with any sensor that generates a point cloud.

Weltweit dienen Straßennetze tagtäglich unzähligen Fahrzeugen. Um einen sicheren und effizienten Verkehr zu gewährleisten, sind Straßen in der Regel mit aufgemalten Begrenzungen markiert, die zulässige Fahrbereiche definieren. Außerdem existieren physikalische Begrenzungen der Straßen, d.h. ein seitliches Ende der Straße, oder sie können als Leitplanken bereitgestellt sein, die mögliche Fahrbereiche definieren. Am häufigsten werden auf der Straße aufgemalte Begrenzungen mit einem Abstand von den physikalischen Begrenzungen bereitgestellt.Road networks serve countless vehicles around the world every day. In order to ensure safe and efficient traffic, roads are usually marked with painted borders that define permitted driving areas. In addition, there are physical limitations of the roads, i.e. a side end of the road, or they can be provided as guard rails that define possible driving areas. Most often, boundaries painted on the road are provided at a distance from the physical boundaries.

Autonomes und halbautonomes Fahren wird in der Automobilindustrie ein immer wichtigerer Faktor. Prototypen für autonomes Fahren sind bereits entwickelt und eingesetzt worden und werden aktuell getestet, in einigen Fällen sogar unter realen Fahrbedingungen. Autonomes Fahren wird im Automobilsektor als bahnbrechende Technologie angesehen.Autonomous and semi-autonomous driving is becoming an increasingly important factor in the automotive industry. Prototypes for autonomous driving have already been developed and used and are currently being tested, in some cases even under real driving conditions. Autonomous driving is seen as a breakthrough technology in the automotive sector.

Für Fahrunterstützungssysteme ist es ein wesentlicher Schritt hin zum autonomen Fahren, eine Straßenverfolgung zu ermöglichen oder zu unterstützen. Jüngste Untersuchungen und Tests im Bereich des autonomen Fahrens zeigen, dass es sehr wichtig ist, die Begrenzungen der Straße zu kennen. Dies ist insbesondere dann eine Herausforderung, wenn die Begrenzungen nicht durchgehend sind, z.B. im Fall von Fahrspurereignissen wie Straßenabfahrten und -verzweigungen. Verzweigungen und Ausfahrtbereiche stellen beim Fahren die größte Herausforderung der Straßennetze dar. Verzweigungen stellen beispielsweise eine gabelartige Fahrspursituation auf der Straße dar, die eine Verzweigungsstelle für zwei Schnellstraßen oder eine Straßenteilung aufgrund einer Baustelle oder dergleichen sein kann. Es können Ausfahrtspuren zum Verlassen einer Straße, insbesondere einer Schnellstraße, sowie Auffahrtspuren zum Auffahren auf eine Straße vorgesehen sein. Es ist daher wichtig, diese Fahrspurereignisse so früh wie möglich zu antizipieren. Insbesondere für autonomes Fahren ist das Erfassen dieser Fahrspurereignisse wesentlich, um robuste Einsatz- und Trajektorienplanungsaufgaben zu erfüllen.For driving support systems, enabling or supporting road tracking is an essential step towards autonomous driving. Recent research and tests in the field of autonomous driving show that it is very important to know the boundaries of the road. This is particularly a challenge when the boundaries are not continuous, e.g. in the case of lane events such as road exits and junctions. Branches and exit areas represent the greatest challenge of road networks when driving. Branches represent, for example, a fork-like lane situation on the road that can be a junction for two expressways or a road division due to a construction site or the like. Exit lanes can be provided for leaving a road, in particular an expressway, as well as access lanes for entering a road. It is therefore important to anticipate these lane events as early as possible. For autonomous driving in particular, the detection of these lane events is essential in order to perform robust operational and trajectory planning tasks.

Bekannte Ansätze zum Erfassen von Fahrspurereignissen basieren typischerweise auf einer Erfassung von Fahrspuren der Straße basierend auf Linienmarkierungen. Die Linienmarkierungen werden auf der Straße bereitgestellt, um Fahrspuren zu markieren, d.h. Fahrspuren voneinander zu trennen, und Fahrspuren von Bereichen jenseits der Straße zu trennen. Die Linienmarkierungen können als durchgehende Linien oder als unterbrochene Linien bereitgestellt werden. Die Linienmarkierungen werden typischerweise durch kamerabasierte Umgebungssensoren erfasst. In einigen Fällen ist auch ein LiDAR-basierter Umgebungssensor verwendet worden, um Linienmarkierungen basierend auf Reflektivitätsinformation, die für Messpunkte des LiDAR-basierten Umgebungssensors bereitgestellt wird, zu erfassen. Somit liefert der LiDAR-basierte Umgebungssensor nicht nur Abstandsinformation für jeden Messpunkt, sondern bestimmt zusätzlich auch eine Intensität der empfangenen Reflexionen für jeden Messpunkt. Bei diesen Ansätzen gibt es jedoch zwei Hauptschwierigkeiten. Erstens kann das spezifische Erscheinungsbild von Linienmarkierungen von Land zu Land oder sogar von Region zu Region variieren. Zweitens folgen Linienmarkierungen typischerweise einer bestimmten Fahrspurgeometrie, gemäß der zwei Linien, die eine Fahrspur begrenzen, parallel zueinander verlaufen. Insbesondere im Bereich von Fahrspurereignissen werden die Linienmarkierungen nicht immer auf diese Weise bereitgestellt, was die Erfassungsfähigkeiten von Fahrspurereignissen einschränkt.Known approaches to detecting lane events are typically based on detecting lanes of the road based on line markings. The line markings are provided on the road to mark driving lanes, i.e. Separate lanes from one another and separate lanes from areas across the road. The line markings can be provided as solid lines or as broken lines. The line markings are typically detected by camera-based environmental sensors. In some cases, a LiDAR-based environment sensor has also been used to detect line markings based on reflectivity information provided for measurement points of the LiDAR-based environment sensor. Thus, the LiDAR-based environment sensor not only provides distance information for each measuring point, but also determines the intensity of the reflections received for each measuring point. However, there are two main difficulties with these approaches. First, the specific appearance of line markers can vary from country to country or even region to region. Second, line markings typically follow a certain lane geometry, according to which two lines delimiting a lane run parallel to one another. In the area of lane events in particular, the line markings are not always provided in this way, which restricts the detection capabilities of lane events.

In diesem Zusammenhang beschreibt das Dokument US 7933433 B2 das Extrahieren von Daten für eine Fahrspurmarkierung basierend auf einer Mittellinienposition, einer Mittellinienform und einer Breite einer Fahrspur, die für den vorliegenden Zyklus projiziert werden. Daten für eine Fahrspurmittellinie werden durch Anpassen von x-Achsenkomponenten der extrahierten Daten generiert. Eine Mittellinienposition und eine Mittellinienform werden mit der Hough-Transformation unter Verwendung der für die Fahrspurmittellinie generierten Daten berechnet. Eine Häufigkeitsverteilung wird für gegenüberliegende Positionen in Bezug auf die Fahrspurmittellinie berechnet. Eine Fahrspurbreite der Straße wird berechnet, indem eine Autokorrelationsfunktion in Bezug auf die Häufigkeitsverteilung berechnet wird. Durch einen Kalman-Filter werden eine Mittellinienposition, eine Mittellinienform und eine Fahrspurbreite im aktuellen Zyklus und in nachfolgenden Zyklen geschätzt/projiziert.In this context, the document describes US 7933433 B2 extracting data for a lane marker based on a centerline position, a centerline shape, and a width of a lane projected for the present cycle. Data for a lane centerline is generated by adjusting x-axis components of the extracted data. A centerline position and a centerline shape are calculated with the Hough transform using the data generated for the lane centerline. A frequency distribution is calculated for opposite positions with respect to the lane center line. A lane width of the road is calculated by calculating an auto-correlation function with respect to the frequency distribution. A center line position, a center line shape and a lane width in the current cycle and estimated / projected in subsequent cycles.

Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Bestimmen eines besonderen Fahrspurereignisses in einem Fahrunterstützungssystem eines Fahrzeugs sowie ein Fahrunterstützungssystem für ein Fahrzeug, das dazu eingerichtet ist, das obige Verfahren auszuführen, anzugeben, welche die Fahrsicherheit erhöhen und insbesondere eine verbesserte Bestimmung von Fahrspurereignissen ermöglichen.The present invention is based on the object of specifying a method for determining a particular lane event in a driving support system of a vehicle, as well as a driving support system for a vehicle which is set up to carry out the above method, which increase driving safety and in particular an improved determination of lane events enable.

Die Lösung dieser Aufgabe erfolgt durch die unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.This problem is solved by the independent claims. Advantageous refinements are given in the subclaims.

Insbesondere ist durch die vorliegende Erfindung ein Verfahren zum Bestimmen eines besonderen Fahrspurereignisses in einem Fahrunterstützungssystem eines Fahrzeugs angegeben, aufweisend die Schritte zum Bereitstellen von Sensorinformation von einem LiDAR-basierten Umgebungssensor, die eine Straße vor dem Fahrzeug abdeckt, Ausführen einer Straßenbegrenzungserfassung für eine erste Straßenbegrenzung der Straßevor dem Fahrzeug basierend auf der bereitgestellten Sensorinformation vom LiDAR-basierten Umgebungssensor, Ausführen einer Parameterschätzung für die erste Straßenbegrenzung und Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse basierend auf der Parameterschätzung für die erste Straßenbegrenzung zum Bestimmen eines ersten besonderen Fahrspurereignisses.In particular, the present invention specifies a method for determining a particular lane event in a driving support system of a vehicle, comprising the steps of providing sensor information from a LiDAR-based environment sensor that covers a road in front of the vehicle, executing a road boundary detection for a first road boundary of the Road ahead of the vehicle based on the provided sensor information from the LiDAR-based environment sensor, executing a parameter estimation for the first road boundary and executing a pattern similarity comparison for the lane events based on the parameter estimation for the first road boundary to determine a first particular lane event.

Durch die vorliegende Erfindung ist auch ein Fahrunterstützungssystem für ein Fahrzeug angegeben, das einen LiDAR-basierten Umgebungssensor und eine mit dem LiDAR-basierten Umgebungssensor verbundene Verarbeitungseinheit zum Empfangen von Sensorinformation vom Sensor aufweist, wobei das Fahrunterstützungssystem dazu eingerichtet ist, das obige Verfahren auszuführen.The present invention also specifies a driving support system for a vehicle which has a LiDAR-based environment sensor and a processing unit connected to the LiDAR-based environment sensor for receiving sensor information from the sensor, the driving support system being configured to carry out the above method.

Grundidee der Erfindung ist es, eine robuste Einsatz- und Trajektorienplanung durch Antizipation von Fahrspurereignissen, z.B. Abfahrtfahrspuren, Verzweigungen und dergleichen, schon weit im Voraus zu ermöglichen. Daher besteht die Idee darin, die Fahrspurereignisse basierend auf einer ersten Straßenbegrenzung zu bestimmen, die unter Verwendung eines LiDAR-basierten Umgebungssensors erfasst wird. Die erste Straßenbegrenzung kann entweder eine rechte oder eine linke Begrenzung der Straße sein. Sie kann daher auch einfach als Straßenbegrenzung bezeichnet werden. Es ist lediglich erforderlich, dass das Fahrspurereignis für die jeweilige Straßenbegrenzung unabhängig von der anderen Straßenbegrenzung bestimmt wird, d.h. ohne Berücksichtigung der anderen Straßenbegrenzung. Dies trägt dazu bei, Unterbrechungen zu eliminieren.The basic idea of the invention is to provide robust deployment and trajectory planning by anticipating lane events, e.g. To enable departure lanes, branches and the like, well in advance. The idea is therefore to determine the lane events based on a first road delimitation that is detected using a LiDAR-based environment sensor. The first road boundary can be either a right or left boundary of the road. It can therefore also be referred to simply as the road boundary. It is only necessary that the lane event for the respective road boundary is determined independently of the other road boundary, i.e. without considering the other road delimitation. This helps eliminate interruptions.

Der LiDAR-basierte Umgebungssensor hat eine Sensorreichweite, die typischerweise der Reichweite beispielsweise eines Kamerasensors, der herkömmlich zum Erfassen von Linienzeichnungen von Fahrspuren der Straße eingesetzt wird, überlegen ist. Gängige LiDAR-basierte Umgebungssensoren haben eine Reichweite von bis zu 200 m, während Kamerasensoren lediglich eine Reichweite von 20 - 80 m erreichen. Darüber hinaus liefern LiDAR-basierte Umgebungssensoren die Sensorinformation der Umgebung mit hoher Auflösung. Die Sensorinformation des LiDAR-basierten Umgebungssensors enthält daher eine hohe Anzahl relevanter Sensorinformation, die die jeweiligen Straßenbegrenzungen abdeckt, so dass die Parameter der jeweiligen Straßenbegrenzung auch in Bereichen zuverlässig geschätzt werden können, die weit vom Fahrzeug entfernt sind. Aufgrund der Fähigkeiten des LiDAR-basierten Umgebungssensors können insbesondere durch 3D-Strukturen definierte Straßenbegrenzungen leicht erfasst werden.The LiDAR-based environment sensor has a sensor range that is typically superior to the range of a camera sensor, for example, which is conventionally used to record line drawings of lanes on the road. Common LiDAR-based environmental sensors have a range of up to 200 m, while camera sensors only achieve a range of 20 - 80 m. In addition, LiDAR-based environment sensors provide the sensor information of the environment with high resolution. The sensor information of the LiDAR-based environment sensor therefore contains a large number of relevant sensor information that covers the respective road limits, so that the parameters of the respective road limit can also be reliably estimated in areas that are far away from the vehicle. Due to the capabilities of the LiDAR-based environment sensor, road boundaries defined by 3D structures can easily be recorded.

Die Verwendung von Straßenbegrenzungen als Grundlage zum Bestimmen von Fahrspurereignissen hat mehrere Vorteile. Erstens sind Straßenbegrenzungen leicht identifizierbar, insbesondere wenn die Straßenbegrenzungen nicht auf Linienzeichnungen auf der Straße beschränkt sind. Darüber hinaus kann das genaue Erscheinungsbild der Fahrspurereignisse, die die Linienmarkierungen aufweisen, von Land zu Land oder sogar von Region zu Region variieren, während Straßenbegrenzungen immer vorhanden sind. Weiterhin kann, wie bereits vorstehend erwähnt wurde, das Erfassen von Straßenbegrenzungen unter Verwendung von LiDAR-basierten Umgebungssensoren ausgeführt werden, die eine größere Sensorreichweite als z.B. Kamerasensoren haben, die typischerweise zum Erfassen der Linienmarkierungen verwendet werden. Daher kann eine reibungslose Steuerung basierend auf den bestimmten Fahrspurereignissen ermöglicht werden. Schließlich sind LiDAR-basierte Umgebungssensoren relativ unabhängig von Beleuchtungsbedingungen, so dass sie auch unter Bedingungen ohne Licht verwendet werden können, z.B. bei Dunkelheit, und unter Bedingungen mit eingeschränkter Sicht.Using road boundaries as a basis for determining lane events has several advantages. First, road boundaries are easy to identify, especially if the road boundaries are not limited to line drawings on the road. In addition, the exact appearance of the lane events exhibited by the line markings may vary from country to country or even region to region while road boundaries are always present. Furthermore, as already mentioned above, the detection of road boundaries can be carried out using LiDAR-based environmental sensors which have a greater sensor range than e.g. Have camera sensors that are typically used to detect the line markings. Therefore, smooth control based on the determined lane events can be enabled. Finally, LiDAR-based environmental sensors are relatively independent of lighting conditions, so they can also be used in non-light conditions, e.g. in the dark and in conditions with limited visibility.

Das Verfahren ist insbesondere bei einer Fahrt auf Schnellstraßen oder anderen Straßen anwendbar, mit denen häufige Fahrspurereignisse verbunden sein können und die von der Antizipation solcher Fahrspurereignisse profitieren. Beim Fahren auf einer derartigen Schnellstraße oder Straße bewegt sich das Fahrzeug typischerweise mit einer erhöhten Geschwindigkeit, was zu einer erhöhten Zeit führt, die erforderlich ist, um das Fahrzeug bis zum Stillstand abzubremsen.The method is particularly applicable when driving on expressways or other roads with which frequent lane events can be connected and which benefit from the anticipation of such lane events. When traveling on such an expressway or road, the vehicle typically moves at an increased speed, which results in an increased time required to brake the vehicle to a stop.

Der LiDAR-basierte Umgebungssensor weist eine Laserquelle zum Emittieren von Laserlicht auf. Das Laserlicht kann als ein Strahl emittiert und entlang einer horizontalen und einer vertikalen Richtung bewegt werden, um ein Sichtfeld des LiDAR-basierten Umgebungssensors abzudecken. Modernere LiDAR-basierte Umgebungssensoren verfügen über eine Laserquelle zum Emittieren von Laserlichtstreifen, die das Sichtfeld durch Bewegen des Laserlichtstreifens nur in einer vertikalen oder in einer horizontalen Richtung abdecken. Dies erhöht die Messgeschwindigkeit für das Sichtfeld des LiDAR-basierten Umgebungssensors. Es können mehrere punktuelle Messungen über die Länge des Streifens ausgeführt werden. Die Sensorinformation vom LiDAR-basierten Umgebungssensor wird typischerweise als eine sogenannte „Punktwolke“ bereitgestellt, wobei jeder Punkt der Sensorinformation Abstandsinformation enthält. LiDAR-basierte Umgebungssensoren sind auf dem Fachgebiet hinlänglich bekannt und werden daher nicht näher erläutert.The LiDAR-based environment sensor has a laser source for emitting laser light. The laser light can be emitted as a beam and moved along a horizontal and a vertical direction in order to cover a field of view of the LiDAR-based environmental sensor. More modern LiDAR-based environmental sensors have a laser source for emitting laser light strips that cover the field of view by moving the laser light strip only in a vertical or in a horizontal direction. This increases the measurement speed for the field of view of the LiDAR-based environmental sensor. Several point measurements can be made along the length of the strip. The sensor information from the LiDAR-based environment sensor is typically provided as a so-called “point cloud”, with each point of the sensor information containing distance information. LiDAR-based environmental sensors are well known in the technical field and are therefore not explained in more detail.

Die Sensorinformation vom LiDAR-basierten Umgebungssensor deckt eine Straße vor dem Fahrzeug ab. In diesem Zusammenhang bezieht sich der Ausdruck „vor dem Fahrzeug“ auf eine Fahrrichtung des Fahrzeugs. Beim Rückwärtsfahren wird also die Straße hinter dem Fahrzeug abgedeckt, allgemein wird aber die Straße vor dem Fahrzeug abgedeckt. Der LiDAR-basierte Umgebungssensor führt die Sensorinformation der Verarbeitungseinheit über eine Datenverbindung, d.h. einen Kommunikationsbus, zu. In der Automobilindustrie sind verschiedenartige Bustypen bekannt, z.B. CAN-Bus oder andere.The sensor information from the LiDAR-based environment sensor covers a street in front of the vehicle. In this context, the term “in front of the vehicle” refers to a direction of travel of the vehicle. When reversing, the road behind the vehicle is covered, but generally the road in front of the vehicle is covered. The LiDAR-based environment sensor carries the sensor information to the processing unit via a data connection, i.e. a communication bus, too. Various types of buses are known in the automotive industry, e.g. CAN bus or others.

Die Straßenbegrenzungserfassung erfasst die erste Straßenbegrenzung innerhalb der bereitgestellten Sensorinformation vom LiDAR-basierten Umgebungssensor. Daher wird die Sensorinformation, d.h. die Punktwolke, wie sie vom LiDAR-basierten Umgebungssensor bereitgestellt wird, verarbeitet, um die erste Straßenbegrenzung zu erfassen. Ohne weitere Vorverarbeitung der Sensorinformation kann das Erfassen der ersten Straßenbegrenzung auf eine effiziente Weise ausgeführt werden.The road boundary detection detects the first road boundary within the provided sensor information from the LiDAR-based environment sensor. Therefore, the sensor information, i.e. the point cloud, as provided by the LiDAR-based environment sensor, is processed in order to detect the first road boundary. Without further preprocessing of the sensor information, the detection of the first road delimitation can be carried out in an efficient manner.

Die Parameterschätzung liefert einen oder mehrere Parameter für die erste Straßenbegrenzung zur Weiterverarbeitung. Die Parameter basieren auf der ersten Straßenbegrenzung und ermöglichen einen effizienten, nachfolgenden Musterähnlichkeitsabgleich, um das erste besondere Fahrspurereignis zu bestimmen. Es können verschiedenartige Parameter zur weiteren Verwendung während des nachfolgenden Musterähnlichkeitsabgleichs geschätzt werden, wie nachstehend näher erörtert wird.The parameter estimation supplies one or more parameters for the first road delimitation for further processing. The parameters are based on the first road delimitation and enable an efficient, subsequent pattern similarity comparison in order to determine the first particular lane event. Various parameters can be estimated for further use during subsequent pattern similarity matching, as discussed in more detail below.

Der Musterähnlichkeitsabgleich bezieht sich auf eine Identifizierung eines am besten passenden Fahrspurereignisses von möglichen Fahrspurereignissen. Dies beinhaltet z.B., dass das besondere Fahrspurereignis als „kein Fahrspurereignis“ vorhanden, d.h. nominelles Fahren, bestimmt werden kann.The pattern similarity comparison relates to identifying a best match lane event from possible lane events. This includes, for example, that the particular lane event is present as "no lane event", i.e. nominal driving, can be determined.

Das Fahrunterstützungssystem kann als ein System zum Unterstützen eines menschlichen Fahrers des Fahrzeugs, typischerweise als Fahrassistenzsystem bezeichnet, oder zum Unterstützen von autonomem oder halbautonomem Fahren bereitgestellt werden. Im ersten Fall kann das Fahrassistenzsystem Information in Bezug auf besondere Fahrspurereignisse unter Verwendung einer Benutzerschnittstelle ausgeben, z.B. über ein Display und/oder einen Lautsprecher des Fahrzeugs. Das Fahrunterstützungssystem kann ein individuelles System zum Bestimmen des besonderen Fahrspurereignisses sein, oder es kann integraler Bestandteil eines autonomen oder zumindest halbautonomen Fahrunterstützungssystems sein, das z.B. eine Längssteuerung und/oder eine Quersteuerung des Fahrzeugs ausführt. Daher kann das Fahrunterstützungssystem eine Steuerung des Fahrzeugs ausführen oder die Steuerung des Fahrzeugs basierend auf den bestimmten besonderen Fahrspurereignissen anpassen.The driving support system can be provided as a system for supporting a human driver of the vehicle, typically referred to as a driving assistance system, or for supporting autonomous or semi-autonomous driving. In the first case, the driver assistance system can output information relating to particular lane events using a user interface, e.g. via a display and / or a loudspeaker in the vehicle. The driving support system can be an individual system for determining the particular lane event, or it can be an integral part of an autonomous or at least semi-autonomous driving support system, e.g. carries out a longitudinal control and / or a lateral control of the vehicle. Therefore, the driving support system can perform control of the vehicle or adjust control of the vehicle based on the particular lane events determined.

Das Verfahren kann unter Verwendung nur des LiDAR-basierten Umgebungssensors ausgeführt werden. In einigen Fällen kann die Verwendung des LiDAR-basierten Umgebungssensors in Verbindung mit einem Kamerasensor jedoch dazu beitragen, das Bestimmen der Fahrspurereignisse zu verbessern. Die zusätzliche Verwendung des Kamerasensors erhöht die Redundanz bei der Bestimmung des besonderen Fahrspurereignisses.The method can be carried out using only the LiDAR-based environmental sensor. In some cases, however, using the LiDAR-based environmental sensor in conjunction with a camera sensor can help improve the determination of lane events. The additional use of the camera sensor increases the redundancy when determining the particular lane event.

Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren die zusätzlichen Schritte zum Ausführen einer Straßenbegrenzungserfassung für eine zweite Straßenbegrenzung der Straße vor dem Fahrzeug basierend auf der bereitgestellten Sensorinformation vom LiDAR-basierten Umgebungssensor, das Ausführen einer Parameterschätzung für die zweite Straßenbegrenzung und das Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse basierend auf der Parameterschätzung für die zweite Straßenbegrenzung auf, um ein zweites besonderes Fahrspurereignis zu bestimmen. Daher können die Fahrspurereignisse basierend auf jeder der Straßenbegrenzungen bestimmt werden, wobei die Bestimmung für jede der Straßenbegrenzungen unabhängig ist. Dies ermöglicht in allen Fällen eine unabhängige Erfassung von Fahrspurereignissen basierend auf nur einer der Straßenbegrenzungen, d.h. unabhängig von dem Fahrspurereignis, das die jeweilige andere Begrenzung beinhaltet. Es können alle Fahrspurereignisse bestimmt werden, die eine der beiden Straßenbegrenzungen beinhalten.According to a modified embodiment of the invention, the method has the additional steps of performing a road boundary detection for a second road boundary of the road in front of the vehicle based on the provided sensor information from the LiDAR-based environment sensor, performing a parameter estimation for the second road boundary and performing a pattern similarity comparison for retrieve the lane events based on the parameter estimate for the second road boundary to determine a second particular lane event. Therefore, the lane events can be determined based on each of the road boundaries, with the determination being independent for each of the road boundaries. In all cases, this enables an independent detection of lane events based on only one of the road boundaries, that is to say independently of the lane event that contains the respective other boundary. All lane events that contain one of the two road boundaries can be determined.

Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren den zusätzlichen Schritt zum Ausführen einer kombinierten Fahrspurereignisbestimmung basierend auf dem ersten und dem zweiten besonderen Fahrspurereignis auf. Daher kann das Bestimmen des besonderen Fahrspurereignisses weiter verbessert werden, indem die Fahrspurereignisse wie sie basierend auf jeder der Straßenbegrenzungen identifiziert wurden gemeinsam betrachtet werden. Darüber hinaus können bestimmte Arten von Fahrspurereignissen am besten basierend auf beiden Straßenbegrenzungen bestimmt werden, z.B. Mautstellen, an denen sich die Straße zu beiden lateralen Seiten hin wesentlich verbreitert.According to a modified embodiment of the invention, the method has the additional step of executing a combined lane event determination based on the first and the second particular lane event. Therefore, the determination of the particular lane event can be further improved by considering the lane events as identified based on each of the road boundaries together. In addition, certain types of lane events can best be determined based on both road boundaries, e.g. Toll booths where the road widens significantly on both lateral sides.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Straßenbegrenzungserfassung für eine erste und/oder zweite Straßenbegrenzung der Straße vor dem Fahrzeug basierend auf der bereitgestellten Sensorinformation von einem LiDAR-basierten Umgebungssensor das Bestimmen einer strukturellen Begrenzung der Straße auf. Strukturelle Begrenzungen der Straße können z.B. Höhenunterschiede zwischen der Straße und einem Bereich jenseits der Straße oder Leitplanken sein, die die Straße begrenzen. Solche strukturellen Begrenzungen können erfasst werden, indem lediglich die Laufzeit des vom LiDAR-basierten Umgebungssensor emittierten Laserlichts zu einer Oberfläche und seiner Reflexion zurück zum LiDAR-basierten Umgebungssensor ausgewertet wird.According to a modified embodiment of the invention, the step of executing a road boundary detection for a first and / or second road boundary of the road in front of the vehicle based on the provided sensor information from a LiDAR-based environment sensor comprises determining a structural boundary of the road. Structural boundaries of the road can e.g. Differences in elevation between the road and an area beyond the road or guardrails delimiting the road. Such structural limitations can be detected by merely evaluating the transit time of the laser light emitted by the LiDAR-based environment sensor to a surface and its reflection back to the LiDAR-based environment sensor.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen von Sensorinformation von einem LiDAR-basierten Umgebungssensor das Bereitstellen von information von Reflexionen auf, die mit dem LiDAR-basierten Umgebungssensor empfangen werden, und weist der Schritt zum Ausführen einer Straßenbegrenzungserfassung für eine erste und/oder eine zweite Straßenbegrenzung der Straße vor dem Fahrzeug basierend auf der bereitgestellten Sensorinformation von einem LiDAR-basierten Umgebungssensor das Ausführen einer Straßenbegrenzungserfassung für die erste und/oder zweite Straßenbegrenzung basierend auf der bereitgestellten Intensitätsinformation der Reflexionen auf. Die Intensitätsinformation der Reflexionen bezieht sich auf die Intensität der empfangenen Reflexion an den einzelnen Messpunkten des LiDAR-basierten Umgebungssensors, während er sein gesamtes Sichtfeld abdeckt. Die Intensität ist abhängig von einer Oberflächenfarbe und einer Oberflächenstruktur der Umgebung. Die Intensität der Reflexionen ermöglicht es z.B. Farben und/oder Oberflächenstrukturen zu unterscheiden. Dies ermöglicht es, Linienmarkierungen zu identifizieren, die seitliche Begrenzungen der Straße anzeigen. Darüber hinaus ermöglicht es die Intensitätsinformation der Reflexionen z.B. unterschiedliche Reflexionsvermögen z.B. einer Oberfläche der Straße im Vergleich zu z.B. Gras neben der Straße zu unterscheiden, was dazu beiträgt, eine Begrenzung der Straße zu erfassen, auch wenn ein fließender Übergang von der Straße zum Bereich neben der Straße vorliegt.According to a modified embodiment of the invention, the step of providing sensor information from a LiDAR-based environment sensor includes providing information from reflections that are received with the LiDAR-based environment sensor, and has the step of performing a road boundary detection for a first and / or or a second road delimitation of the road in front of the vehicle based on the provided sensor information from a LiDAR-based environment sensor, the execution of a road delimitation detection for the first and / or second road delimitation based on the provided intensity information of the reflections. The intensity information of the reflections relates to the intensity of the received reflection at the individual measuring points of the LiDAR-based environmental sensor while it covers its entire field of view. The intensity depends on a surface color and a surface structure of the environment. The intensity of the reflections enables e.g. To distinguish colors and / or surface structures. This enables line markings to be identified which indicate lateral boundaries of the road. In addition, the intensity information of the reflections enables e.g. different reflectivities e.g. a surface of the road compared to e.g. Distinguish grass next to the road, which helps to capture a boundary of the road, even if there is a smooth transition from the road to the area next to the road.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Straßenbegrenzungserfassung für eine erste und/oder zweite Straßenbegrenzung der Straße vor dem Fahrzeug das Segmentieren der Sensorinformation vom LiDAR-basierten Umgebungssensor in Sensorinformation, die einer Sensorinformationsklasse zugeordnet ist, die mit der ersten und/oder zweiten Straßenbegrenzung in Beziehung steht, und das Herausfiltern von Sensorinformation auf, die nicht der ersten und/oder zweiten Straßenbegrenzung zugehörig ist. Daher werden Messpunkte der Punktwolke des LiDAR-basierten Umgebungssensors der jeweiligen Straßenbegrenzung zugeordnet, falls sie dieser Straßenbegrenzung zugehörig sind. Verbleibende Messpunkte werden herausgefiltert, damit sie nicht weiterverarbeitet werden. Daher kann die Weiterverarbeitung der vom LiDAR-basierten Umgebungssensor bereitgestellten Sensorinformation auf diese Messpunkte konzentriert oder beschränkt werden. Daher kann die Weiterverarbeitung mit geringem Rechenaufwand ausgeführt werden.According to a modified embodiment of the invention, the step of performing a road boundary detection for a first and / or second road boundary of the road in front of the vehicle comprises segmenting the sensor information from the LiDAR-based environment sensor into sensor information that is assigned to a sensor information class that is associated with the first and / or or the second road delimitation, and the filtering out of sensor information that is not associated with the first and / or second road delimitation. Therefore, measuring points of the point cloud of the LiDAR-based environment sensor are assigned to the respective road delimitation, if they belong to this street delimitation. Remaining measurement points are filtered out so that they are not processed further. The further processing of the sensor information provided by the LiDAR-based environment sensor can therefore be concentrated or limited to these measuring points. The further processing can therefore be carried out with little computational effort.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Parameterschätzung für die erste und/oder die zweite Straßenbegrenzung das Ausführen einer Krümmungsschätzung und/oder einer Fahrtrichtungsschätzung und/oder einer seitlichen Abstandsschätzung auf. Derartige Parameter haben sich zum Ausführen einer Parameterschätzung zum Bestimmen des jeweiligen Fahrspurereignisses als zuverlässig erwiesen. Die Parameter ermöglichen einen effizienten Musterähnlichkeitsabgleich bei geringem Rechenaufwand.According to a modified embodiment of the invention, the step of executing a parameter estimation for the first and / or the second road delimitation includes executing a curvature estimation and / or an estimation of the direction of travel and / or a lateral distance estimation. Such parameters have proven to be reliable for performing a parameter estimation for determining the respective lane event. The parameters enable an efficient pattern similarity comparison with little computational effort.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Krümmungsschätzung für die erste und/oder die zweite Straßenbegrenzung das Anwenden eines geometrischen Modells auf die erste und/oder die zweite Straßenbegrenzung auf. Anhand des geometrischen Modells kann die Krümmung für eine Weiterverarbeitung einfach definiert werden.According to a modified embodiment of the invention, the step of carrying out a curvature estimation for the first and / or the second road boundary includes the application of a geometric model to the first and / or the second road boundary. Using the geometric model, the curvature can be easily defined for further processing.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Anwenden eines geometrischen Modells auf die erste und/oder die zweite Straßenbegrenzung das Anwenden eines Polynom-Straßenmodells, insbesondere eines kubischen Polynom-Straßenmodells, vorzugsweise mit einer sich langsam ändernden Krümmung auf. Polynom-Straßenmodelle sind bei der Straßenplanung Stand der Technik. Daher kann das geometrische Modell die Krümmung bei gleicher Struktur mit hoher Genauigkeit darstellen. Das kubische Polynom-Straßenmodell kann als eine Funktion fc mit bereitgestellt werden: f c ( x ) = c 0 + c 1  x + c 2  x 2 + c 3  x 3 ,

Figure DE102019116892A1_0001
wobei sich c0 auf einen lateralen Mittenversatz bei s = 0 bezieht, c1 auf eine Fahrtrichtungsneigung innerhalb der Straße oder einen Gierwinkelversatz (Fahrtrichtungswinkelfehler) bei s = 0 bezieht, c2 auf eine Krümmung/2 bei s = 0 bezieht und c3 auf eine Krümmungsrate/6 bezieht. Die sich langsam ändernde Krümmung k ist definiert als k=6 c 3 x+2 c 2 .
Figure DE102019116892A1_0002
According to a modified embodiment of the invention, the step of applying a geometric model to the first and / or the second road boundary includes applying a polynomial road model, in particular a cubic polynomial road model, preferably with a slowly changing curvature. Polynomial road models are state of the art in road planning. Hence the geometric Model represent the curvature with the same structure with high accuracy. The cubic polynomial road model can be provided as a function f c with: f c ( x ) = c 0 + c 1 x + c 2 x 2 + c 3 x 3 ,
Figure DE102019116892A1_0001
where c 0 refers to a lateral center offset at s = 0, c 1 refers to a driving direction inclination within the road or a yaw angle offset (driving direction angle error) at s = 0, c 2 refers to a curvature / 2 at s = 0 and c 3 to a curvature rate / 6 relates. The slowly changing curvature k is defined as k = 6 c 3 x + 2 c 2 .
Figure DE102019116892A1_0002

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse das Ausführen des Musterähnlichkeitsabgleichs für mehrere Fahrspurereignisse aus einer Gruppe möglicher Fahrspurereignisse auf, die mindestens eine Ausfahrtfahrspur, eine Auffahrtfahrspur, eine Verzweigung, eine Mautstelle und nominelles Fahren beinhalten. Durch Abdecken dieser typischen Arten von Fahrspurereignissen kann eine effiziente Bestimmung von Fahrspurereignissen bereitgestellt und kann eine Trajektorienplanung zuverlässig an das besondere Fahrspurereignis vor dem Fahrzeug angepasst werden. Nominelles Fahren bezieht sich auf eine Art NULL-Ereignis, d.h. kein Fahrspurereignis.According to a modified embodiment of the invention, the step of performing a pattern similarity comparison for the lane events includes performing the pattern similarity comparison for a plurality of lane events from a group of possible lane events that include at least one exit lane, an entry lane, a junction, a toll booth and nominal driving. By covering these typical types of lane events, efficient determination of lane events can be provided and trajectory planning can be reliably adapted to the particular lane event in front of the vehicle. Nominal driving refers to some kind of NULL event, i.e. no lane event.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse das Ausführen des Musterähnlichkeitsabgleichs für mehrere Darstellungen mindestens eines der mehreren Fahrspurereignisse aus der Gruppe möglicher Fahrspurereignisse auf. Daher können verschiedene Realisierungen der gleichen Art eines Fahrspurereignisses berücksichtigt werden, um die Bestimmung des jeweiligen Fahrspurereignisses zu verbessern. Dadurch können Unterschiede im nationalen oder regionalen Straßenbau in Bezug auf Fahrspurereignisse berücksichtigt werden, um besondere Fahrspurereignisse zuverlässig zu bestimmen.According to a modified embodiment of the invention, the step of performing a pattern similarity comparison for the lane events includes performing the pattern similarity comparison for multiple representations of at least one of the multiple lane events from the group of possible lane events. Therefore, different realizations of the same type of lane event can be taken into account in order to improve the determination of the respective lane event. In this way, differences in national or regional road construction in relation to lane events can be taken into account in order to reliably determine particular lane events.

Gemäß einer modifizierten Ausführungsform der Erfindung ist das Fahrunterstützungssystem dazu eingerichtet, basierend auf dem bestimmten Fahrspurereignis eine Quersteuerung des Fahrzeugs auszuführen. Die Quersteuerung berücksichtigt das bestimmte Fahrspurereignis und trägt dazu bei, das Fahrspurereignis sicher zu passieren. Die Quersteuerung wird insbesondere unter Berücksichtigung des Abstands zum bestimmten Fahrspurereignis ausgeführt. Daher wird beim Bestimmen des Fahrspurereignisses in einer kurzen Entfernung in der Nähe des Fahrzeugs eine Steuerung ausgeführt, die z.B. eine sofortige und starke Lenkaktion beinhaltet, wohingegen im Fall eines weiter entfernten Fahrspurereignisses eine weniger starke Lenkaktion ausgeführt werden kann.According to a modified embodiment of the invention, the driving assistance system is configured to carry out lateral control of the vehicle based on the determined lane event. The lateral control takes into account the specific lane event and helps to safely pass the lane event. The lateral control is carried out in particular taking into account the distance to the specific lane event. Therefore, in determining the lane event at a short distance in the vicinity of the vehicle, control such as e.g. includes an immediate and strong steering action, whereas in the case of a more distant lane event, a less strong steering action can be performed.

Gemäß einer modifizierten Ausführungsform der Erfindung ist das Fahrunterstützungssystem dazu eingerichtet, basierend auf dem bestimmten Fahrspurereignis eine graduelle Anpassung einer Quersteuerung des Fahrzeugs auszuführen. Die graduelle Anpassung der Quersteuerung beinhaltet z.B. eine Anpassung einer Fahrtrajektorie und dergleichen. Dies ermöglicht ein komfortables Fahrerlebnis für Insassen des Fahrzeugs ohne starke Lenkmanöver. Im günstigsten Fall ist die Quersteuerung für die Insassen des Fahrzeugs kaum wahrnehmbar. Die graduelle Anpassung einer Quersteuerung erfolgt insbesondere unter Berücksichtigung des Abstands zum bestimmten Fahrspurereignis. Daher kann beim Bestimmen des Fahrspurereignisses in einem weiten Abstand vom Fahrzeug die Steuerung mit einer minimalen Lenkaktion ausgeführt werden.According to a modified embodiment of the invention, the driving support system is set up to carry out a gradual adjustment of a lateral control of the vehicle based on the determined lane event. The gradual adjustment of the lateral control includes e.g. an adaptation of a driving trajectory and the like. This enables a comfortable driving experience for occupants of the vehicle without heavy steering maneuvers. In the best case, the transverse control is barely perceptible to the occupants of the vehicle. The gradual adaptation of a lateral control takes place in particular taking into account the distance to the specific lane event. Therefore, when determining the lane event at a long distance from the vehicle, the control can be performed with a minimum steering action.

Diese und andere Aspekte der Erfindung werden anhand der nachstehend beschriebenen Ausführungsformen ersichtlich und erläutert. Einzelne Merkmale, die in den Ausführungsformen dargestellt sind, können für sich alleine oder in Kombination einen Aspekt der vorliegenden Erfindung bilden. Merkmale der verschiedenen Ausführungsformen können von einer Ausführungsform auf eine andere Ausführungsform übertragen werden.These and other aspects of the invention will be apparent and illustrated in the embodiments described below. Individual features that are shown in the embodiments can form an aspect of the present invention on their own or in combination. Features of the various embodiments can be transferred from one embodiment to another embodiment.

Es zeigen:

  • 1 eine schematische Seitenansicht eines Fahrzeugs gemäß einer ersten bevorzugten Ausführungsform mit einem Fahrunterstützungssystem;
  • 2 ein Ablaufdiagramm eines Verfahrens zum Bestimmen eines besonderen Fahrspurereignisses, das durch das Fahrunterstützungssystem des Fahrzeugs von 1 ausgeführt wird;
  • 3 eine schematische Ansicht einer geraden Straße mit seitlichen Straßenbegrenzungen, wie sie von einem LiDAR-basierten Umgebungssensor des Fahrunterstützungssystems des Fahrzeugs von 1 gesehen werden;
  • 4 eine schematische Ansicht einer gekrümmten Straße mit seitlichen Straßenbegrenzungen, wie sie durch einen LiDAR-basierten Umgebungssensor des Fahrunterstützungssystems des Fahrzeugs von 1 gesehen werden;
  • 5 eine schematische Ansicht verschiedener Fahrspurvereinigungssituationen;
  • 6 eine schematische Ansicht verschiedener Fahrspurverzweigungs- und - ausfahrtsituationen ;
  • 7 eine schematische Zeichnung zum Darstellen von Hauptparametern, die eine Straßenbegrenzung definieren, mit einem Fahrzeug auf einer geraden Straße;
  • 8 eine schematische Zeichnung zum Darstellen von Hauptparametern, die eine Straßenbegrenzung definieren, mit einem Fahrzeug auf einer geraden Straße;
  • 9 eine schematische Zeichnung zum Darstellen von Hauptparametern, die eine Straßenbegrenzung definieren, mit einem Fahrzeug auf einer gekrümmten Straße;
  • 10 eine schematische Zeichnung von Modulen wie ein Modul zur Abschätzung von Krümmungen zum Ausführen des Verfahrens von 2;
  • 11 eine schematische Zeichnung verschiedener Realisierungen von Autobahnausfahrt- und/oder -auffahrtsituationen; und
  • 12 eine Tabelle mit Musterabgleichkriterien für verschiedene Fahrspurereignisse basierend auf verschiedenen Parametern.
Show it:
  • 1 a schematic side view of a vehicle according to a first preferred embodiment with a driving support system;
  • 2 FIG. 12 is a flow diagram of a method for determining a particular lane event that is generated by the driving assistance system of the vehicle of 1 is performed;
  • 3 FIG. 3 is a schematic view of a straight road with lateral road boundaries as determined by a LiDAR-based environment sensor of the driving assistance system of the vehicle of FIG 1 be seen;
  • 4th FIG. 3 is a schematic view of a curved road with side road boundaries as determined by a LiDAR-based environmental sensor of the driving assistance system of the vehicle of FIG 1 be seen;
  • 5 a schematic view of various lane merging situations;
  • 6th a schematic view of various lane branching and exit situations;
  • 7th a schematic drawing to show main parameters defining a road boundary with a vehicle on a straight road;
  • 8th a schematic drawing to show main parameters defining a road boundary with a vehicle on a straight road;
  • 9 a schematic drawing showing main parameters defining a road boundary with a vehicle on a curved road;
  • 10 FIG. 13 is a schematic drawing of modules such as a curvature estimation module for carrying out the method of FIG 2 ;
  • 11 a schematic drawing of various realizations of motorway exit and / or entry situations; and
  • 12th a table of pattern matching criteria for different lane events based on different parameters.

1 zeigt ein Fahrzeug 10 gemäß einer ersten bevorzugten Ausführungsform der vorliegenden Erfindung. 1 shows a vehicle 10 according to a first preferred embodiment of the present invention.

Das Fahrzeug 10 weist ein Fahrunterstützungssystem 12 zum Unterstützen eines menschlichen Fahrers des Fahrzeugs 10, das typischerweise als Fahrassistenzsystem bezeichnet wird, oder zum Unterstützen von autonomem oder halbautonomem Fahren auf. Im ersten Fall kann das Fahrassistenzsystem 12 Information unter Verwendung einer Benutzerschnittstelle, z.B. eines Displays und/oder eines Lautsprechers, des Fahrzeugs 10 ausgeben. Das Fahrunterstützungssystem 12 kann in einem zweiten Fall Teil eines autonomen oder zumindest halbautonomen Fahrunterstützungssystems sein, das z.B. eine Längssteuerung und/oder eine Quersteuerung des Fahrzeugs 10 ausführt.The vehicle 10 has a driving assistance system 12th for assisting a human driver of the vehicle 10 , which is typically referred to as a driver assistance system, or to support autonomous or semi-autonomous driving. In the first case, the driver assistance system 12th Information using a user interface, for example a display and / or a loudspeaker, of the vehicle 10 output. The driving support system 12th can in a second case be part of an autonomous or at least semi-autonomous driving support system, for example a longitudinal control and / or a lateral control of the vehicle 10 executes.

Das Fahrzeug 10 weist ein Fahrunterstützungssystem 12 mit einem LiDAR-basierten Umgebungssensor 14 und einer Verarbeitungseinheit 16 auf, die mit dem LiDAR-basierten Umgebungssensor 14 verbunden ist, um Sensorinformation vom Sensor zu empfangen. Der LiDAR-basierte Umgebungssensor 14 weist eine Laserquelle zum Emittieren von Laserlichtstreifen auf, die ein Sichtfeld abdecken, indem der Streifen in einer vertikalen oder in einer horizontalen Richtung bewegt wird. Es werden mehrere punktuelle Messungen über die Länge des Streifens und zusätzlich während der Bewegung des Streifens ausgeführt. Der LiDAR-basierte Umgebungssensor 14 liefert Sensorinformation als eine sogenannte „Punktwolke“, wobei jeder Punkt der Sensorinformation Abstandsinformation enthält. Weiterhin enthält die Sensorinformation vom LiDAR-basierten Umgebungssensor 14 Intensitätsinformation von Reflexionen des von der Laserquelle emittierten Laserlichts an jedem Punkt. Es ist darauf hinzuweisen, dass es mehrere LiDARs gibt. Als Beispiel 3 vordere LiDARs und 3 hintere LiDARs die an den Stoßstangen des Fahrzeugs 10 angebracht sind.The vehicle 10 has a driving assistance system 12th with a LiDAR-based environmental sensor 14th and a processing unit 16 on that with the LiDAR-based environmental sensor 14th is connected to receive sensor information from the sensor. The LiDAR-based environmental sensor 14th comprises a laser source for emitting strips of laser light that cover a field of view by moving the strip in a vertical or horizontal direction. Several point measurements are made over the length of the strip and additionally during the movement of the strip. The LiDAR-based environmental sensor 14th supplies sensor information as a so-called “point cloud”, with each point of the sensor information containing distance information. It also contains the sensor information from the LiDAR-based environment sensor 14th Intensity information of reflections of the laser light emitted by the laser source at each point. It should be noted that there are several LiDARs. As an example 3 front LiDARs and 3 rear LiDARs on the bumpers of the vehicle 10 are attached.

Der LiDAR-basierte Umgebungssensor 14 und die Verarbeitungseinheit 16 sind über einen Kommunikationsbus 18 verbunden. In der Automobilindustrie sind verschiedene Bustypen bekannt, z.B. CAN-Bus oder dergleichen, die als Kommunikationsbus 18 verwendet werden können.The LiDAR-based environmental sensor 14th and the processing unit 16 are via a communication bus 18th connected. Various bus types are known in the automotive industry, for example CAN bus or the like, which act as a communication bus 18th can be used.

Der LiDAR-basierte Umgebungssensor 14 hat eine Sensorreichweite von bis zu 200 m. Die Sensorinformation vom LiDAR-basierten Umgebungssensor 14 deckt eine Straße 30 vor dem Fahrzeug 10, d.h. an einer Vorderseite 20 des Fahrzeugs 10, ab. Der Ausdruck „vor dem Fahrzeug“ bezieht sich in diesem Zusammenhang auf eine Fahrrichtung 22 des Fahrzeugs 10. Daher wird beim Rückwärtsfahren die Straße 30 hinter dem Fahrzeug 10 abgedeckt, allgemein wird aber die Straße 30 an der Vorderseite 20 des Fahrzeugs 10 abgedeckt.The LiDAR-based environmental sensor 14th has a sensor range of up to 200 m. The sensor information from the LiDAR-based environmental sensor 14th covers a road 30th in front of the vehicle 10 , ie on a front 20th of the vehicle 10 , from. The term “in front of the vehicle” in this context refers to a direction of travel 22nd of the vehicle 10 . Therefore, when reversing, the road becomes 30th behind the vehicle 10 covered, but generally the road 30th on the front side 20th of the vehicle 10 covered.

Nachfolgend wird ein Verfahren zum Bestimmen eines besonderen Fahrspurereignisses 60 durch das Fahrunterstützungssystem 12 eines Fahrzeugs 10 gemäß der ersten Ausführungsform beschrieben. Das Verfahren wird unter weiterer Bezugnahme auf die 3 bis 12 beschrieben.The following is a method for determining a particular lane event 60 through the driving assistance system 12th of a vehicle 10 according to the first embodiment. The procedure is described with further reference to the 3 to 12th described.

Das Verfahren beginnt mit Schritt S100, der sich auf das Bereitstellen von Sensorinformation vom LiDAR-basierten Umgebungssensor 12 bezieht, die die Straße 30 vor dem Fahrzeug 10 abdeckt. Die Sensorinformation vom LiDAR-basierten Umgebungssensor 14 wird über den Kommunikationsbus 18 an die Verarbeitungseinheit 16 übertragen. Die Sensorinformation vom LiDAR-basierten Umgebungssensor 14 wird als eine Punktwolke 32 mit mehreren Punkten bereitgestellt, von denen jeder Abstandsinformation und Intensitätsinformation der Reflexion des Laserlichts enthält, das mit dem LiDAR-basierten Umgebungssensor 14 empfangen wird. Jeder Punkt wird mit einer Position im Sichtfeld des LiDAR-basierten Umgebungssensors 14 identifiziert, z.B. mit horizontaler und vertikaler Winkelinformation.The method begins with step S100, which focuses on providing sensor information from the LiDAR-based environmental sensor 12th that relates to the street 30th in front of the vehicle 10 covers. The Sensor information from the LiDAR-based environmental sensor 14th is via the communication bus 18th to the processing unit 16 transfer. The sensor information from the LiDAR-based environmental sensor 14th is called a point cloud 32 provided with a plurality of points, each of which contains distance information and intensity information of the reflection of the laser light generated by the LiDAR-based environment sensor 14th Will be received. Each point is assigned a position in the field of view of the LiDAR-based environmental sensor 14th identified, e.g. with horizontal and vertical angle information.

Schritt S110 bezieht sich auf das Ausführen einer Straßenbegrenzungserfassung für eine erste Straßenbegrenzung 34 der Straße 30 vor dem Fahrzeug 10 basierend auf der bereitgestellten Sensorinformation vom LiDAR-basierten Umgebungssensor 14.Step S110 relates to performing a road boundary detection for a first road boundary 34 the street 30th in front of the vehicle 10 based on the sensor information provided by the LiDAR-based environmental sensor 14th .

Schritt S120 bezieht sich auf das Ausführen einer Straßenbegrenzungserfassung für eine zweite Straßenbegrenzung 36 der Straße 30 vor dem Fahrzeug 10 basierend auf der bereitgestellten Sensorinformation vom LiDAR-basierten Umgebungssensor 14.Step S120 relates to performing a road boundary detection for a second road boundary 36 the street 30th in front of the vehicle 10 based on the sensor information provided by the LiDAR-based environmental sensor 14th .

Die erste (links) und zweite (rechts) Straßenranderkennung sind unabhängig voneinander.The first (left) and second (right) roadside detection are independent of each other.

Die Schritte S110 und S120 basieren beide auf der in Schritt S100 bereitgestellten Sensorinformation und können in einer beliebigen Reihenfolge oder parallel ausgeführt werden. Die Straßenbegrenzungserfassung wird in einem jeweiligen Straßenbegrenzungserfassungsmodul 38 ausgeführt, das in 10 zu sehen ist.Steps S110 and S120 are both based on the sensor information provided in step S100 and can be carried out in any order or in parallel. The road boundary detection is carried out in a respective road boundary detection module 38 executed in 10 you can see.

In dieser Ausführungsform bezieht sich die erste Straßenbegrenzung 34 auf eine rechte Seitenbegrenzung 34 der Straße 30 in Bezug auf die Ausrichtung des Fahrzeugs 10, und die zweite Straßenbegrenzung 36 bezieht sich auf eine linke Seitenbegrenzung 36 der Straße in Bezug auf die Ausrichtung des Fahrzeugs 10. Die erste und die zweite Straßenbegrenzung 34, 36 sind jedoch beliebig definiert worden und können ausgetauscht werden.In this embodiment, the first road boundary relates 34 on a right side border 34 the street 30th in relation to the orientation of the vehicle 10 , and the second road boundary 36 refers to a left margin 36 the road in relation to the orientation of the vehicle 10 . The first and second road limits 34 , 36 however, have been defined arbitrarily and can be exchanged.

Gemäß den Schritten S110 und S120 weist die Straßenbegrenzungserfassung für die erste und/oder die zweite Straßenbegrenzung 34, 36 der Straße 30 vor dem Fahrzeug 10 das Segmentieren der Sensorinformation vom LiDAR-basierten Umgebungssensor 14 in Sensorinformation auf, die einer Sensorinformationsklasse zugeordnet ist, die mit der ersten und/oder der zweiten Straßenbegrenzung 34, 36 in Beziehung steht. Daher werden Messpunkte der Punktwolke 32 des LiDAR-basierten Umgebungssensors 14 der jeweiligen Straßenbegrenzung 34, 36 zugeordnet, falls diese der Straßenbegrenzung 34, 36 zugehörig sind. Die Straßenbegrenzungserfassung für die erste und die zweite Straßenbegrenzung 34, 36 der Straße 30 vor dem Fahrzeug 10 beinhaltet das Bestimmen einer strukturellen Abgrenzung der Straße 10, z.B. Höhenunterschiede zwischen der Straße 30 und einem Bereich 40 jenseits der Straße 30 oder Leitplanken, die die Straße 30 begrenzen. Die strukturellen Abgrenzungen werden durch Auswerten der Laufzeit jedes der Punkte der Punktwolke 32, z.B. des Abstands jedes der Punkte zum Fahrunterstützungssystem 12 des Fahrzeugs 10, erfasst. Die Straßenbegrenzungserfassung für die erste und die zweite Straßenbegrenzung 32, 34 der Straße 30 vor dem Fahrzeug 10 beinhaltet ferner das Ausführen einer Straßenbegrenzungserfassung für die erste und die zweite Straßenbegrenzung 34, 36 basierend auf der bereitgestellten Intensitätsinformation der Reflexionen.According to steps S110 and S120, the road boundary detection points for the first and / or the second road boundary 34 , 36 the street 30th in front of the vehicle 10 segmenting the sensor information from the LiDAR-based environmental sensor 14th in sensor information that is assigned to a sensor information class associated with the first and / or the second road delimitation 34 , 36 is related. Therefore, measuring points become the point cloud 32 of the LiDAR-based environmental sensor 14th the respective street limits 34 , 36 assigned, if this is within the street limit 34 , 36 are associated. The road boundary detection for the first and second road boundary 34 , 36 the street 30th in front of the vehicle 10 includes determining a structural demarcation of the road 10 , e.g. height differences between the road 30th and an area 40 across the street 30th or guard rails that line the road 30th limit. The structural demarcations are made by evaluating the travel time of each of the points of the point cloud 32 , e.g. the distance of each of the points to the driving assistance system 12th of the vehicle 10 , detected. The road boundary detection for the first and second road boundary 32 , 34 the street 30th in front of the vehicle 10 further includes performing road boundary detection for the first and second road boundaries 34 , 36 based on the provided intensity information of the reflections.

Schritt S130 bezieht sich auf das Ausführen einer Parameterschätzung für die erste Straßenbegrenzung 34, und Schritt S140 bezieht sich auf das Ausführen einer Parameterschätzung für die zweite Straßenbegrenzung 36.Step S130 relates to performing parameter estimation for the first road boundary 34 and Step S140 relates to performing parameter estimation for the second road boundary 36 .

Die Schritte S130 und S140 basieren auf der Straßenbegrenzungserfassung der ersten und der zweiten Straßenbegrenzung 34, 36, wie sie in den Schritten S110 bzw. 120 bereitgestellt werden. Daher können die Schritte S130 und S140 in einer beliebigen Folge oder parallel ausgeführt werden. Die Schritte S130 und S140 werden einzeln in einem Krümmungsschätzmodul 46 ausgeführt, das in 10 dargestellt ist.The steps S130 and S140 are based on the road boundary detection of the first and second road limits 34 , 36 , as they are provided in steps S110 and 120, respectively. Therefore, steps S130 and S140 can be carried out in any sequence or in parallel. Steps S130 and S140 are performed individually in a curvature estimation module 46 executed in 10 is shown.

Die Parameterschätzung liefert unterschiedliche Parameter für die erste und die zweite Straßenbegrenzung 34, 36 zur Weiterverarbeitung. Die Parameter basieren auf der ersten und der zweiten Straßenbegrenzung 34, 36. In der vorliegenden Ausführungsform beinhaltet die Parameterschätzung eine Krümmungsschätzung, eine Fahrtrichtungsschätzung und eine Seitenabstandsschätzung. Die Parameter werden in Bezug auf die 7 bis 9 dargestellt, die das Fahrzeug 10 auf der Straße 30 zeigen, wobei die Straße 30 drei unabhängige Fahrspuren 44 aufweist. Die Fahrspuren 44 sind durch Linienmarkierungen 42 getrennt. Die Straße 30 ist seitlich durch Straßenbegrenzungen 34, 36 begrenzt. 7 zeigt den allgemeinen Aufbau zum Bestimmen der Parameter. 8 zeigt einen seitlichen Abstand 48 zwischen der ersten und der zweiten Straßenbegrenzung 34, 36. 9 zeigt eine Fahrtrichtung 50 als Winkel zwischen einer Richtung 64 der jeweiligen Straßenbegrenzung 34, 36 und einer Ausrichtung 52 des Fahrzeugs 10. Eine Krümmung 54 ist durch eine Form der jeweiligen Straßenbegrenzung 34, 36 definiert, wie auch in 9 zu sehen ist.The parameter estimation provides different parameters for the first and the second road delimitation 34 , 36 for further processing. The parameters are based on the first and second road boundaries 34 , 36 . In the present embodiment, the parameter estimation includes a curvature estimation, a heading estimation, and a lateral distance estimation. The parameters are related to the 7th to 9 shown showing the vehicle 10 in the street 30th show the street 30th three independent lanes 44 having. The lanes 44 are by line markings 42 Cut. The street 30th is sideways through road boundaries 34 , 36 limited. 7th shows the general structure for determining the parameters. 8th shows a lateral distance 48 between the first and second road delimitation 34 , 36 . 9 shows a direction of travel 50 as an angle between a direction 64 the respective street limits 34 , 36 and an alignment 52 of the vehicle 10 . A curve 54 is by a form of the respective street boundary 34 , 36 as defined in 9 you can see.

Das Ausführen einer Krümmungsschätzung für die erste und die zweite Straßenbegrenzung 34, 36 beinhaltet das Anwenden eines geometrischen Modells 56, 58 auf die erste und die zweite Straßenbegrenzung 34, 36. Ein erstes geometrisches Modell 56 wird für die erste Straßenbegrenzung 34 bereitgestellt, und ein zweites geometrisches Modell 58 wird für die zweite Straßenbegrenzung 36 bereitgestellt, wie in 10 dargestellt ist.Performing curvature estimation for the first and second road boundaries 34 , 36 involves applying a geometric model 56 , 58 on the first and second road delimitation 34 , 36 . A first geometric model 56 is used for the first street boundary 34 provided, and a second geometric model 58 will be for the second street boundary 36 provided as in 10 is shown.

In der vorliegenden Ausführungsform wird ein kubisches Polynom-Straßenmodell für jedes der ersten und dem zweiten geometrischen Modelle 56, 58 angewendet. Das kubische Polynom-Straßenmodell wird mit einer sich langsam ändernden Krümmung ausgewählt. Daher wird sowohl das erste als auch das zweite geometrische Modell 56, 58 als eine Funktion fc bereitgestellt: f c ( x ) = c 0 + c 1  x + c 2  x 2 + c 3  x 3 ,

Figure DE102019116892A1_0003
wobei sich c0 auf den lateralen Mittenversatz bei s = 0 bezieht, c1 auf eine Fahrtrichtungsneigung innerhalb der Straße 30 oder einen Gierwinkelversatz (Fahrtrichtungswinkelfehler) bei s = 0 bezieht, c2 auf eine Krümmung/2 bei s = 0 bezieht und c3 auf eine Krümmungsrate/6 bezieht. Die sich langsam ändernde Krümmung k ist definiert als k = 6  c 3  x + 2  c 2 .
Figure DE102019116892A1_0004
In the present embodiment, a polynomial cubic road model is used for each of the first and second geometric models 56 , 58 applied. The cubic polynomial road model is selected with a slowly changing curvature. Hence, both the first and the second geometric model 56 , 58 provided as a function f c : f c ( x ) = c 0 + c 1 x + c 2 x 2 + c 3 x 3 ,
Figure DE102019116892A1_0003
where c 0 relates to the lateral center offset at s = 0, c 1 to an inclination in the direction of travel within the road 30th or a yaw angle offset (travel direction angle error) at s = 0, c 2 relates to a curvature / 2 at s = 0 and c 3 relates to a curvature rate / 6. The slowly changing curvature k is defined as k = 6th c 3 x + 2 c 2 .
Figure DE102019116892A1_0004

Schritt S150 bezieht sich auf das Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse 60 basierend auf der Parameterschätzung für die erste Straßenbegrenzung 34, um ein erstes besonderes Fahrspurereignis 60 zu bestimmen.Step S150 relates to performing pattern similarity matching for the lane events 60 based on the parameter estimate for the first street boundary 34 to a first special lane event 60 to determine.

In Schritt S160 wird ein Musterähnlichkeitsabgleich für die Fahrspurereignisse 60 basierend auf der Parameterschätzung für die zweite Straßenbegrenzung 36 ausgeführt, um ein zweites besonderes Fahrspurereignis 60 zu bestimmen.In step S160, a pattern similarity match is made for the lane events 60 based on the parameter estimate for the second road boundary 36 executed a second special lane event 60 to determine.

Die Schritte S150 und S160 basieren auf den unterschiedlichen Parametern für die erste und die zweite Straßenbegrenzung 34, 36, die durch die Parameterschätzung in den Schritten S130 bzw. S140 bereitgestellt werden. Daher können die Schritte S150 und S160 in einer beliebigen Folge oder parallel ausgeführt werden. Die Schritte S150 und S160 werden einzeln in einem Musterähnlichkeitsabgleichmodul 62 ausgeführt, das in 10 zu sehen ist. Der Musterähnlichkeitsabgleich bezieht sich auf eine Identifizierung eines am besten passenden Fahrspurereignisses 60 aus möglichen Fahrspurereignissen 60. Dies beinhaltet z.B., dass das besondere Fahrspurereignis 60 als „kein Fahrspurereignis“ vorhanden, d.h. nominelles Fahren, bestimmt werden kann.Steps S150 and S160 are based on the different parameters for the first and second road delimitation 34 , 36 which are provided by the parameter estimation in steps S130 and S140. Therefore, steps S150 and S160 can be carried out in any sequence or in parallel. Steps S150 and S160 are performed individually in a pattern similarity matching module 62 executed in 10 you can see. The pattern similarity comparison relates to identifying a best match lane event 60 from possible lane events 60 . This includes, for example, the particular lane event 60 can be determined as "no lane event" present, ie nominal driving.

Die Schritte S120, S140 und S160 können parallel zu den Schritten S110, S130 und S150 ausgeführt werden. In diesem Fall braucht man nicht zu warten, bis die erste Randerkennung S110 abgeschlossen ist, bevor die zweite Randerkennung S120 abgeschlossen ist.Steps S120, S140 and S160 can be carried out in parallel with steps S110, S130 and S150. In this case, there is no need to wait until the first edge detection S110 is completed before the second edge detection S120 is completed.

Die und zeigen einen Vergleich zwischen LiDAR und Kamera. In erkennt die Kamera die dunklen schwarzen Fahrspurmarkierungen, hat jedoch im Vergleich zu LiDAR eine begrenzte Reichweite. Der LiDAR kann, im Vergleich zur Kamera, graue Punktwolken erkennen, die aus einer viel größeren Entfernung kommen. In decken die von der Kamera erkannten Markierungen nur den ersten Teil der vom LiDAR detektierte Punktwolke ab. In detektiert die Kamera die Fahrspurmarkierungen nicht, während der LiDAR eine Punktwolke bereitstellt.The and show a comparison between LiDAR and camera. In the camera recognizes the dark black lane markings, but has a limited range compared to LiDAR. Compared to the camera, the LiDAR can recognize gray point clouds that come from a much greater distance. In the markings recognized by the camera only cover the first part of the point cloud detected by the LiDAR. In if the camera does not detect the lane markings, while the LiDAR provides a point cloud.

Die 5 und 6 zeigen verschiedene Darstellungen solcher Fahrspurereignisse 60. 5 zeigt in den Zeichnungen a) und b) eine Straße 30 mit einem Fahrspurereignis 60, bei dem zwei Fahrspuren 44, die durch eine Linienmarkierung 42 getrennt sind, sich zu einer einzigen Fahrspur 44 vereinigen. Das Fahrzeug 10 befindet sich in den beiden Zeichnungen auf einer unterschiedlichen Fahrspur 44, so dass unterschiedliche Aktionen erforderlich sind, um der Straße 30 zu folgen. Die Zeichnung c) in 5 zeigt ein Fahrspurereignis 60, bei dem zwei Straßen 30 mit einer einzelnen Fahrspur 44 sich zu einer Straße 30 mit einer einzelnen Fahrspur 44 vereinigen, oder zwei strukturell getrennte Fahrspuren 44 einer einzelnen Straße 30 sich zu einer einzelnen Fahrspur 44 vereinigen.The 5 and 6th show different representations of such lane events 60 . 5 shows in the drawings a) and b) a street 30th with a lane event 60 with two lanes 44 marked by a line marker 42 are separated into a single lane 44 unite. The vehicle 10 is on a different lane in the two drawings 44 so different actions are required to get down the road 30th to follow. The drawing c) in 5 shows a lane event 60 where two streets 30th with a single lane 44 turn to a street 30th with a single lane 44 unite, or two structurally separate lanes 44 a single street 30th to a single lane 44 unite.

6 zeigt in den Zeichnungen a) und b) eine Straße 30 mit einem Fahrspurereignis 60, bei dem die Straße 30 mit einer einzelnen Fahrspur 44 sich zu zwei Fahrspuren 44 erweitert, die durch eine Linienmarkierung 42 getrennt sind. In Zeichnung a) beginnt die Linienmarkierung 42 zwischen den beiden Fahrspuren 44 sofort, wenn die Straße 30 beginnt sich zu verbreitern, wohingegen in Zeichnung b) die Linienmarkierung 42 beginnt, wenn die Straße 30 vollständig in die beiden Fahrspuren 44 verbreitert ist. Zeichnung c) in 6 zeigt ein Fahrspurereignis 60, bei dem eine Straße 30 mit einer einzelnen Fahrspur 44 sich in zwei Straßen 30 mit jeweils einer einzelnen Fahrspur 44 teilt, oder eine Straße 30 mit einer einzelnen Fahrspur 44 sich in eine Straße 30 mit zwei strukturell getrennten Fahrspuren 44 teilt. Zeichnung d) von 6 zeigt ein Fahrspurereignis 60, bei dem die Straße 30 mit einer einzelnen Fahrspur 44 auf zwei Fahrspuren 44 verbreitert wird. Im Gegensatz zu den Zeichnungen a) und b) von 6 zeigt die Zeichnung d) eine Verbreiterung, bei der die Straße 30 sich zu beiden Straßenbegrenzungen 34, 36 hin verbreitert. 6th shows in the drawings a) and b) a street 30th with a lane event 60 where the road 30th with a single lane 44 become two lanes 44 extended by a line marker 42 are separated. Line marking begins in drawing a) 42 between the two lanes 44 immediately when the road 30th begins to widen, whereas in drawing b) the line marking 42 starts when the road 30th completely in the two lanes 44 is widened. Drawing c) in 6th shows a lane event 60 on which a street 30th with a single lane 44 in two streets 30th each with a single lane 44 divides, or a road 30th with a single lane 44 down a street 30th with two structurally separate lanes 44 Splits. Drawing d) of 6th shows a lane event 60 where the road 30th with a single lane 44 on two lanes 44 is widened. In contrast to the drawings a) and b) of 6th shows drawing d) a widening in which the road 30th go to both road limits 34 , 36 widened out.

Das Ausführen des Musterähnlichkeitsabgleichs für die Fahrspurereignisse 60 beinhaltet das Ausführen eines Abgleichs für mehrere Fahrspurereignisse 60 aus einer Gruppe möglicher Fahrspurereignisse 60, die mindestens eine Ausfahrtspur, eine Auffahrspur, eine Verzweigung, eine Mautstelle und nominelles Fahren beinhalten. Nominelles Fahren bezieht sich auf eine Art NULL-Ereignis, d.h. kein Fahrspurereignis 60. Aufgrund unterschiedlicher möglicher Realisierungen der gleichen Art eines Fahrspurereignisses 60 weist das Ausführen des Musterähnlichkeitsabgleichs für die Fahrspurereignisse 60 das Ausführen des Musterähnlichkeitsabgleichs für mehrere Darstellungen der mehreren Fahrspurereignisse 60 aus der Gruppe möglicher Fahrspurereignisse 60 auf. Derartige verschiedene mögliche Realisierungen von Fahrspurereignissen sind in 11 dargestellt, die unterschiedliche Konfigurationen von Ausfahrten mit einer einzelnen Fahrspur 44 visualisieren, die sich an einer rechten Seite der Straße 30 teilt. Die Form der Ausfahrten variiert in den verschiedenen Zeichnungen ebenso wie die Linienmarkierungen 42 an den Ausfahrten.Performing pattern similarity matching on the lane events 60 includes performing a comparison for multiple lane events 60 from a group of possible lane events 60 that include at least one exit lane, one entry lane, one junction, one toll booth and nominal driving. Nominal driving refers to a type of NULL event, i.e. not a lane event 60 . Due to different possible realizations of the same type of lane event 60 instructs to perform pattern similarity matching for the lane events 60 performing pattern similarity matching on multiple representations of the multiple lane events 60 from the group possible lane events 60 on. Such various possible realizations of lane events are shown in FIG 11 illustrated the different configurations of exits with a single lane 44 visualize that is on a right side of the road 30th Splits. The shape of the exits varies in the various drawings, as do the line markings 42 at the exits.

Ein Mittel zum Bestimmen eines besonderen Fahrspurereignisses 60 ist in 12 als Abgleichtabelle dargestellt. Die Fahrspurereignisse 60 werden für die erste und die zweite Straßenbegrenzung 34, 36 unabhängig und basierend auf Ableitungen der Krümmung 54, der Fahrtrichtung 50 und des seitlichen Abstands 48 bestimmt. Somit kann eine Ausfahrspur 44 auf der rechten Seite basierend auf der ersten Straßenbegrenzung 34 als besonderes Fahrspurereignis 60 bestimmt werden, wenn erfasst wird, dass die erste Straßenbegrenzung 34 eine Krümmung 54 (Ableitung der Krümmung ungleich Null) aufweist, d.h. keine gerade Linie ist, die Fahrtrichtung 50 sich in Bezug auf die erste Straßenbegrenzung 34 ändert (Ableitung der Fahrtrichtung ungleich Null), und der seitliche Abstand 48 zur ersten Straßenbegrenzung 34 sich ebenfalls ändert (Ableitung des seitlichen Abstands ist wesentlich von Null verschieden). Die zweite Straßenbegrenzung 36 ist in diesem Fall nicht erkennbar und kann nicht von nominellem Fahren, d.h. einem NULL-Fahrspurereignis, unterschieden werden. Das gleiche gilt umgekehrt bei einer Ausfahrtspur 44 auf der linken Seite als besonderes Fahrspurereignis 60. Als weiteres Beispiel kann jeweils basierend auf der ersten und der zweiten Fahrbahnbegrenzung 34, 36 eine Verzweigung bestimmt werden, wenn die Krümmung 54 der jeweiligen Straßenbegrenzung 34, 36 sich ändert (Ableitung der Krümmung ungleich Null), die Fahrtrichtung 50 sich ändert (Ableitung der Fahrtrichtung ungleich null) und der seitliche Abstand 48 sich nicht ändert (Ableitung des seitlichen Abstands beträgt im Wesentlichen Null).A means for determining a particular lane event 60 is in 12th shown as a comparison table. The lane events 60 are used for the first and second road delimitation 34 , 36 independent and based on derivatives of curvature 54 , the direction of travel 50 and the lateral clearance 48 certainly. Thus, an exit lane 44 on the right based on the first street boundary 34 as a special lane event 60 be determined when it is detected that the first road boundary 34 a curvature 54 (Derivation of the curvature not equal to zero), ie there is no straight line, the direction of travel 50 in relation to the first street boundary 34 changes (derivative of the direction of travel not equal to zero), and the lateral distance 48 to the first road delimitation 34 also changes (derivative of the lateral distance is substantially different from zero). The second road boundary 36 is not recognizable in this case and cannot be distinguished from nominal driving, ie a ZERO lane event. The same applies in reverse to an exit lane 44 on the left as a special lane event 60 . As a further example, each based on the first and the second lane delimitation 34 , 36 a branch can be determined when the curvature 54 the respective street limits 34 , 36 changes (derivative of the curvature not equal to zero), the direction of travel 50 changes (derivation of the direction of travel not equal to zero) and the lateral distance 48 does not change (derivative of the lateral distance is essentially zero).

Wie vorstehend diskutiert wurde, beziehen sich die Schritte S110, S130 und S150 auf eine Verarbeitung von Fahrspurereignissen 60 basierend auf der ersten Straßenbegrenzung 34, wohingegen sich die Schritte S120, S140 und S160 auf eine Verarbeitung von Fahrspurereignissen 60 basierend auf der zweiten Straßenbegrenzung 36 beziehen. Daher können die Schritte S110, S130 und S150 weggelassen werden oder können unabhängig von den Schritten S120, S140 und S160 verarbeitet werden. In gleicher Weise können auch die Schritte S120, S140 und S160 weggelassen oder unabhängig von den Schritten S110, S130 und S150 verarbeitet werden.As discussed above, steps S110, S130 and S150 relate to processing of lane events 60 based on the first street boundary 34 whereas steps S120, S140 and S160 relate to processing of lane events 60 based on the second street boundary 36 Respectively. Therefore, steps S110, S130 and S150 can be omitted or can be processed independently of steps S120, S140 and S160. In the same way, steps S120, S140 and S160 can also be omitted or processed independently of steps S110, S130 and S150.

Schritt S170 bezieht sich auf das Ausführen einer kombinierten Fahrspurereignisbestimmung basierend auf dem ersten und dem zweiten besonderen Fahrspurereignis 60. Daher werden die Fahrspurereignisse 60, wie sie basierend auf jeder der Straßenbegrenzungen 34, 36 identifiziert werden, gemeinsam betrachtet. Ferner werden besondere Arten von Fahrspurereignissen 60 basierend auf beiden Straßenbegrenzungen 34, 36 bestimmt, z.B. Mautstellen, an denen sich die Straße 30 zu beiden Seiten hin deutlich verbreitert. Daher kann Schritt S170 nur ausgeführt werden, nachdem die Schritte S150 und S160 beendet sind.Step S170 relates to performing a combined lane event determination based on the first and second particular lane events 60 . Hence, the lane events 60 like them based on each of the street limits 34 , 36 be identified, considered together. There are also special types of lane events 60 based on both road boundaries 34 , 36 determined, e.g. toll booths at which the road is 30th significantly widened on both sides. Therefore, step S170 can only be performed after steps S150 and S160 are completed.

Das Verfahren wird jedoch kontinuierlich wiederholt, um das Fahrunterstützungssystem 12 in Bezug auf Fahrspurereignisse 60 vor dem Fahrzeug 10 kontinuierlich zu aktualisieren.However, the process is repeated continuously to the driving assistance system 12th in relation to lane events 60 in front of the vehicle 10 to update continuously.

Basierend auf dem bestimmten Fahrspurereignis 60 führt das Fahrunterstützungssystem 12 eine Quersteuerung des Fahrzeugs 10 aus. Die Quersteuerung wird unter Berücksichtigung eines Abstands zu dem bestimmten Fahrspurereignis 60 ausgeführt. Daher wird die Steuerung nach der Bestimmung des Fahrspurereignisses 60 in einem kurzen Abstand vom Fahrzeug 10 z.B. durch eine sofortige und starke Lenkaktion ausgeführt, wohingegen im Fall eines Fahrspurereignisses 60 in einer größeren Entfernung vom Fahrzeug 10 eine weniger starke Lenkaktion ausgeführt wird.Based on the determined lane event 60 runs the driving support system 12th a lateral control of the vehicle 10 out. The lateral control is performed taking into account a distance to the determined lane event 60 executed. Therefore, the control becomes after the determination of the lane event 60 at a short distance from the vehicle 10 eg carried out by an immediate and strong steering action, whereas in the case of a lane event 60 at a greater distance from the vehicle 10 a less powerful steering action is performed.

Das Fahrunterstützungssystem 12 ist ferner dazu eingerichtet, eine graduelle Anpassung einer Quersteuerung des Fahrzeugs 10 basierend auf dem bestimmten Fahrspurereignis 60 auszuführen. Daher wird eine Anpassung einer Fahrtrajektorie ausgeführt. Auch die graduelle Anpassung der Quersteuerung wird unter Berücksichtigung des Abstands zum bestimmten Fahrspurereignis 60 ausgeführt.The driving support system 12th is also set up to gradually adapt a lateral control of the vehicle 10 based on the determined lane event 60 execute. Therefore, an adaptation of a travel trajectory is carried out. The gradual adjustment of the lateral control is also made taking into account the distance to the specific lane event 60 executed.

Das vorstehend beschriebene Verfahren ist insbesondere für eine Fahrt auf Schnellstraßen oder anderen Straßen 30 geeignet, die häufige Fahrspurereignisse 60 beinhalten können und die von der Antizipation solcher Fahrspurereignisse 60 profitieren. Beim Fahren auf einer derartigen Schnellstraße oder Straße 30 bewegt sich das Fahrzeug 10 typischerweise mit einer erhöhten Geschwindigkeit, was zu einer erhöhten Zeit führt, die erforderlich ist, um das Fahrzeug 10 bis zum Stillstand abzubremsen. The method described above is particularly suitable for driving on expressways or other roads 30th suitable to the frequent lane events 60 and that of the anticipation of such lane events 60 benefit. When driving on such an expressway or road 30th the vehicle moves 10 typically at an increased speed, which results in an increased time required to drive the vehicle 10 brake to a standstill.

BezugszeichenlisteList of reference symbols

1010
Fahrzeugvehicle
1212
FahrunterstützungssystemDriving support system
1414th
LiDAR-basierter UmgebungssensorLiDAR-based environmental sensor
1616
VerarbeitungseinheitProcessing unit
1818th
KommunikationsbusCommunication bus
2020th
Vorderseitefront
2222nd
FahrrichtungDirection of travel
3030th
StraßeStreet
3232
PunktwolkePoint cloud
3434
erste Straßenbegrenzung, rechtsseitige Straßenbegrenzungfirst road boundary, right-hand road boundary
3636
zweite Straßenbegrenzung, linksseitige Straßenbegrenzungsecond road barrier, left side road barrier
3838
StraßenbegrenzungserfassungsmodulRoad boundary detection module
4040
Bereich jenseits der StraßeArea across the street
4242
LinienmarkierungLine marking
4444
Fahrspurlane
4646
KrümmungsschätzmodulCurvature estimation module
4848
seitlicher Abstandlateral distance
5050
FahrtrichtungDirection of travel
5252
AusrichtungAlignment
5454
Krümmungcurvature
5656
erstes geometrisches Modellfirst geometric model
5858
zweites geometrisches Modellsecond geometric model
6060
FahrspurereignisLane Event
6262
MusterähnlichkeitsabgleichmodulPattern similarity matching module
6464
Richtung der StraßenbegrenzungDirection of the road boundary

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • US 7933433 B2 [0008]US 7933433 B2 [0008]

Claims (14)

Verfahren zum Bestimmen eines besonderen Fahrspurereignisses (60) in einem Fahrunterstützungssystem (12) eines Fahrzeugs (10), mit den Schritten: Bereitstellen von Sensorinformation von einem LiDAR-basierten Umgebungssensor (14), die eine Straße (30) vor dem Fahrzeug (10) abdeckt; Ausführen einer Straßenbegrenzungserfassung für eine erste Straßenbegrenzung (34) der Straße (30) vor dem Fahrzeug (10) basierend auf der bereitgestellten Sensorinformation vom LiDAR-basierten Umgebungssensor (14); Ausführen einer Parameterschätzung für die erste Straßenbegrenzung (34); und Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse (60) basierend auf der Parameterschätzung für die erste Straßenbegrenzung (34) zum Bestimmen eines ersten besonderen Fahrspurereignisses (60).Method for determining a special lane event (60) in a driving support system (12) of a vehicle (10), comprising the steps: Providing sensor information from a LiDAR-based environment sensor (14) that covers a road (30) in front of the vehicle (10); Carrying out a road boundary detection for a first road boundary (34) of the road (30) in front of the vehicle (10) based on the provided sensor information from the LiDAR-based environment sensor (14); Performing a parameter estimation for the first road boundary (34); and Performing a pattern similarity comparison for the lane events (60) based on the parameter estimate for the first road boundary (34) to determine a first particular lane event (60). Verfahren nach Anspruch 1, mit den zusätzlichen Schritten Ausführen einer Straßenbegrenzungserfassung für eine zweite Straßenbegrenzung (36) der Straße (30) vor dem Fahrzeug (10) basierend auf der bereitgestellten Sensorinformation vom LiDAR-basierten Umgebungssensor (14); Ausführen einer Parameterschätzung für die zweite Straßenbegrenzung (36); und Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse (60) basierend auf der Parameterschätzung für die zweite Straßenbegrenzung (36) zum Bestimmen eines zweiten besonderen Fahrspurereignisses (60).Procedure according to Claim 1 , with the additional steps of executing a road boundary detection for a second road boundary (36) of the road (30) in front of the vehicle (10) based on the provided sensor information from the LiDAR-based environment sensor (14); Performing a parameter estimation for the second road boundary (36); and performing a pattern similarity match for the lane events (60) based on the parameter estimate for the second road boundary (36) to determine a second particular lane event (60). Verfahren nach Anspruch 2, mit dem zusätzlichen Schritt zum Ausführen einer kombinierten Fahrspurereignisbestimmung basierend auf dem ersten und dem zweiten besonderen Fahrspurereignis (60).Procedure according to Claim 2 , with the additional step of performing a combined lane event determination based on the first and second particular lane events (60). Verfahren nach einem der vorhergehenden Ansprüche, wobei der Schritt zum Bereitstellen von Sensorinformation von einem LiDAR-basierten Umgebungssensor (14) das Bereitstellen von Intensitätsinformation von Reflexionen aufweist, die mit dem LiDAR-basierten Umgebungssensor (14) empfangen wurden, und der Schritt zum Ausführen einer Straßenbegrenzungserfassung für eine erste und/oder eine zweite Straßenbegrenzung (34, 36) der Straße (30) vor dem Fahrzeug (10) basierend auf der bereitgestellten Sensorinformation von einem LiDAR-basierten Umgebungssensor (14) das Ausführen einer Straßenbegrenzungserfassung für die erste und/oder die zweite Straßenbegrenzung (34, 36) basierend auf der bereitgestellten Intensitätsinformation der Reflexionen aufweist.Method according to one of the preceding claims, wherein the step of providing sensor information from a LiDAR-based environment sensor (14) comprises providing intensity information of reflections received with the LiDAR-based environment sensor (14), and the step of performing a road boundary detection for a first and / or a second road boundary (34, 36) of the road (30) in front of the vehicle (10) based on the provided sensor information from a LiDAR-based environment sensor (14), the execution of a road boundary detection for the first and / or the second road delimitation (34, 36) based on the provided intensity information of the reflections. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Schritt zum Ausführen einer Straßenbegrenzungserfassung für eine erste und/oder eine zweite Straßenbegrenzung (34, 36) der Straße (30) vor dem Fahrzeug (10) basierend auf der bereitgestellten Sensorinformation von einem LiDAR-basierten Umgebungssensor (14) das Bestimmen einer strukturellen Abgrenzung der Straße (30) aufweist.Method according to one of the preceding claims, wherein the step of executing a road boundary detection for a first and / or a second road boundary (34, 36) of the road (30) in front of the vehicle (10) based on the provided sensor information from a LiDAR-based environment sensor (14) comprises determining a structural demarcation of the road (30). Verfahren nach einem der vorhergehenden Ansprüche, wobei der Schritt zum Ausführen einer Straßenbegrenzungserfassung für eine erste und/oder eine zweite Straßenbegrenzung (34, 36) der Straße (30) vor dem Fahrzeug (10) das Segmentieren der Sensorinformation vom LiDAR-basierten Umgebungssensor (14) in Sensorinformation, die einer Sensorinformationsklasse zugehörig ist, die mit der ersten und mit der zweiten Straßenbegrenzung (34, 36) in Beziehung steht, und das Herausfiltern von Sensorinformation aufweist, die nicht der ersten bzw. der zweiten Straßenbegrenzung (34, 36) zugehörig ist.Method according to one of the preceding claims, wherein the step of carrying out a road boundary detection for a first and / or a second road boundary (34, 36) of the road (30) in front of the vehicle (10) is segmenting the sensor information from the LiDAR-based environment sensor (14) ) in sensor information that is associated with a sensor information class that is related to the first and the second road delimitation (34, 36) and has the filtering out of sensor information that does not belong to the first or the second road delimitation (34, 36) is. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Schritt zum Ausführen einer Parameterschätzung für die erste und/oder zweite Straßenbegrenzung (34, 36) das Ausführen einer Krümmungsschätzung und/oder einer Fahrtrichtungsschätzung und/oder einer seitlichen Abstandsschätzung aufweist.Method according to one of the preceding claims, wherein the step of executing a parameter estimation for the first and / or second road delimitation (34, 36) comprises executing a curvature estimation and / or an estimation of the direction of travel and / or a lateral distance estimation. Verfahren nach vorhergehendem Anspruch 7, wobei der Schritt zum Ausführen einer Krümmungsschätzung für die erste und/oder die zweite Straßenbegrenzung (34, 36) das Anwenden eines geometrischen Modells (56, 58) auf die erste und/oder die zweite Straßenbegrenzung (34, 36) aufweist.Procedure according to the previous Claim 7 wherein the step of performing a curvature estimation for the first and / or the second road boundary (34, 36) comprises applying a geometric model (56, 58) to the first and / or the second road boundary (34, 36). Verfahren nach Anspruch 8, wobei der Schritt zum Anwenden eines geometrischen Modells (56, 58) auf die erste und/oder die zweite Straßenbegrenzung (34, 36) das Anwenden eines Polynom-Straßenmodells, insbesondere eines kubischen Polynom-Straßenmodells, vorzugsweise mit einer sich langsam ändernden Krümmung aufweist.Procedure according to Claim 8 wherein the step of applying a geometric model (56, 58) to the first and / or the second road boundary (34, 36) comprises applying a polynomial road model, in particular a cubic polynomial road model, preferably with a slowly changing curvature . Verfahren nach einem der vorhergehenden Ansprüche, wobei der Schritt zum Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse (60) das Ausführen des Musterähnlichkeitsabgleichs für mehrere Fahrspurereignisse (60) aus einer Gruppe möglicher Fahrspurereignisse (60) aufweist, die mindestens eine Ausfahrtspur, eine Auffahrtspur, eine Verzweigung, eine Mautstelle und nominelles Fahren aufweisen.The method according to any one of the preceding claims, wherein the step of performing a pattern similarity comparison for the lane events (60) comprises performing the pattern similarity comparison for a plurality of lane events (60) from a group of possible lane events (60), the at least one exit lane, one entry lane, one junction , have a toll booth and nominal driving. Verfahren nach Anspruch 10, wobei der Schritt zum Ausführen eines Musterähnlichkeitsabgleichs für die Fahrspurereignisse (60) das Ausführen des Musterähnlichkeitsabgleichs für mehrere Darstellungen mindestens eines der mehreren Fahrspurereignisse (60) aus der Gruppe möglicher Fahrspurereignisse (60) aufweist.Procedure according to Claim 10 wherein the step of performing pattern similarity matching for the lane events (60) includes performing the pattern similarity matching for a plurality of Has representations of at least one of the plurality of lane events (60) from the group of possible lane events (60). Fahrunterstützungssystem (12) für ein Fahrzeug (10) mit einem LiDAR-basierten Umgebungssensor (14) und einer mit dem LiDAR-basierten Umgebungssensor (14) verbundenen Verarbeitungseinheit (16) zum Empfangen von Sensorinformation davon, wobei das Fahrunterstützungssystem (12) dazu eingerichtet ist, das obige Verfahren auszuführen.Driving support system (12) for a vehicle (10) with a LiDAR-based environment sensor (14) and a processing unit (16) connected to the LiDAR-based environment sensor (14) for receiving sensor information therefrom, the driving support system (12) being configured to do so to perform the above procedure. Fahrunterstützungssystem (12) nach Anspruch 12, dadurch gekennzeichnet, dass das Fahrunterstützungssystem (12) dazu eingerichtet ist, eine Quersteuerung des Fahrzeugs (10) basierend auf dem bestimmten Fahrspurereignis (60) auszuführen.Driving support system (12) according to Claim 12 characterized in that the driving support system (12) is set up to carry out lateral control of the vehicle (10) based on the determined lane event (60). Fahrunterstützungssystem (12) nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass das Fahrunterstützungssystem (12) dazu eingerichtet ist, eine graduelle Anpassung einer Quersteuerung des Fahrzeugs (10) basierend auf dem bestimmten Fahrspurereignis (60) auszuführen.Driving support system (12) according to Claim 12 or 13 characterized in that the driving support system (12) is configured to carry out a gradual adaptation of a lateral control of the vehicle (10) based on the determined lane event (60).
DE102019116892.9A 2019-06-24 2019-06-24 Lane event anticipation through LiDAR road boundary detection Pending DE102019116892A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019116892.9A DE102019116892A1 (en) 2019-06-24 2019-06-24 Lane event anticipation through LiDAR road boundary detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019116892.9A DE102019116892A1 (en) 2019-06-24 2019-06-24 Lane event anticipation through LiDAR road boundary detection

Publications (1)

Publication Number Publication Date
DE102019116892A1 true DE102019116892A1 (en) 2020-12-24

Family

ID=73654167

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019116892.9A Pending DE102019116892A1 (en) 2019-06-24 2019-06-24 Lane event anticipation through LiDAR road boundary detection

Country Status (1)

Country Link
DE (1) DE102019116892A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113936465A (en) * 2021-10-26 2022-01-14 公安部道路交通安全研究中心 Traffic incident detection method and device
DE102021202233A1 (en) 2021-03-09 2022-09-15 Robert Bosch Gesellschaft mit beschränkter Haftung Method for detecting a lane using a LiDAR system
DE102022213486A1 (en) 2022-12-12 2024-06-13 Robert Bosch Gesellschaft mit beschränkter Haftung Method for detecting a road marking or an object with a LiDAR sensor

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7933433B2 (en) * 2006-05-23 2011-04-26 Denso Corporation Lane marker recognition apparatus
DE112015002868T5 (en) * 2014-06-19 2017-03-02 Toyota Motor Engineering & Manufacturing North America Inc. Road branch detection and lane selection for lane centering
DE102017005921A1 (en) * 2017-06-23 2017-12-21 Daimler Ag Method for the autonomous detection of a lane course of at least one lane
DE102017126822A1 (en) * 2016-11-29 2018-05-30 Subaru Corporation Automatic drive control device
DE102017011564A1 (en) * 2017-12-14 2018-05-30 Daimler Ag Method for detecting a road exit
DE102018125207A1 (en) * 2017-10-13 2019-04-18 Ford Global Technologies, Llc VEHICLE INTERNAL TRANSPORT ASSISTANCE
DE102019100034A1 (en) * 2018-01-04 2019-07-04 Ford Global Technologies, Llc AUTONOMOUS STEERING CONTROL

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7933433B2 (en) * 2006-05-23 2011-04-26 Denso Corporation Lane marker recognition apparatus
DE112015002868T5 (en) * 2014-06-19 2017-03-02 Toyota Motor Engineering & Manufacturing North America Inc. Road branch detection and lane selection for lane centering
DE102017126822A1 (en) * 2016-11-29 2018-05-30 Subaru Corporation Automatic drive control device
DE102017005921A1 (en) * 2017-06-23 2017-12-21 Daimler Ag Method for the autonomous detection of a lane course of at least one lane
DE102018125207A1 (en) * 2017-10-13 2019-04-18 Ford Global Technologies, Llc VEHICLE INTERNAL TRANSPORT ASSISTANCE
DE102017011564A1 (en) * 2017-12-14 2018-05-30 Daimler Ag Method for detecting a road exit
DE102019100034A1 (en) * 2018-01-04 2019-07-04 Ford Global Technologies, Llc AUTONOMOUS STEERING CONTROL

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021202233A1 (en) 2021-03-09 2022-09-15 Robert Bosch Gesellschaft mit beschränkter Haftung Method for detecting a lane using a LiDAR system
CN113936465A (en) * 2021-10-26 2022-01-14 公安部道路交通安全研究中心 Traffic incident detection method and device
CN113936465B (en) * 2021-10-26 2023-08-18 公安部道路交通安全研究中心 Traffic event detection method and device
DE102022213486A1 (en) 2022-12-12 2024-06-13 Robert Bosch Gesellschaft mit beschränkter Haftung Method for detecting a road marking or an object with a LiDAR sensor

Similar Documents

Publication Publication Date Title
EP3160813B1 (en) Method for producing a model of the surroundings of a vehicle
EP3094530B1 (en) Method and system for estimating a course of a traffic lane
EP2561419B1 (en) Method for determining the lane course for a vehicle
EP1844373B1 (en) Method for predicting the course in driver assistance systems for motor vehicles
DE19749086C1 (en) Device for determining data indicating the course of the lane
DE112017003974B4 (en) speed control device
DE102017005967A1 (en) Driver assistance method and system
DE102018218220A1 (en) Control device for a vehicle
DE102019215403A1 (en) DEVICE FOR GENERATING AT A CROSSOVER AND METHOD AND DEVICE FOR CONTROLLING A VEHICLE AT A CROSSOVER
DE102011117554A1 (en) Driving environment detection device
DE102015202099A1 (en) Processing sensor data for a driver assistance system
EP1680317A1 (en) Driver assist method and device based on lane information
DE102009046699A1 (en) Driving support device
EP2676857A2 (en) Method and apparatus for generating a control parameter for a gap assistance system of a vehicle
DE102005045017A1 (en) Method and driver assistance system for sensor-based approach control of a motor vehicle
DE102017212607A1 (en) Method and device for environment-based adaptation of driver assistance system functions
DE112018007484T5 (en) Obstacle detection device, automatic braking device using an obstacle detection device, obstacle detection method, and automatic braking method using an obstacle detection method
DE102020203756A1 (en) MOTORWAY EXIT DETECTION AND LINE REFLECTION FOR VEHICLE TRACTION DETERMINATION
DE112015004817T5 (en) OBSTACLE WARNING DEVICE
DE102019116892A1 (en) Lane event anticipation through LiDAR road boundary detection
DE102017118651A1 (en) Method and system for collision avoidance of a vehicle
DE102017126452A1 (en) Vehicle control system
DE102011076795A1 (en) Method for determining a pitching movement of a camera installed in a vehicle and method for controlling a light emission of at least one headlight of a vehicle
DE102019115327A1 (en) Line marker identification using LiDAR
DE102020105192A1 (en) Method for detecting moving objects in a vehicle environment and motor vehicle

Legal Events

Date Code Title Description
R163 Identified publications notified