DE102022004774A1 - System für die Fahrspurbestimmung eines Ego-Fahrzeugs unter Verwendung von Fahrspurattributen und Verfahren davon - Google Patents

System für die Fahrspurbestimmung eines Ego-Fahrzeugs unter Verwendung von Fahrspurattributen und Verfahren davon Download PDF

Info

Publication number
DE102022004774A1
DE102022004774A1 DE102022004774.8A DE102022004774A DE102022004774A1 DE 102022004774 A1 DE102022004774 A1 DE 102022004774A1 DE 102022004774 A DE102022004774 A DE 102022004774A DE 102022004774 A1 DE102022004774 A1 DE 102022004774A1
Authority
DE
Germany
Prior art keywords
lane
attributes
sensors
real
lane attributes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022004774.8A
Other languages
English (en)
Inventor
Battagiri Mallikarjuna Reddy
Deepak Panda
Florian RIES
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Publication of DE102022004774A1 publication Critical patent/DE102022004774A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Offenbarung stellt ein System und Verfahren für die Fahrspurbestimmung eines Ego-Fahrzeugs bereit, bei dem SMPC- und LRL-Sensoren dazu konfiguriert sind, die Grenzentfernung, d. h. die Entfernung der Grenze von jeder Seite des Ego-Fahrzeugs, zu erkennen. Die in Block 902 erhaltene SMPC-Grenzentfernung und die in Block 904 erhaltene LRL-Grenzentfernung werden in Block 906 miteinander verglichen. Die Mindestentfernung zwischen der SMPC-Grenzentfernung und der LRL-Grenzentfernung wird verwendet, um in Block 908 die Wahrscheinlichkeit abzuschätzen/zu berechnen, dass jede der Fahrspuren eine Ego-Fahrspur ist. Ferner wird die Mindestentfemung in Block 910 in den Bayes-Filter eingespeist, um die Fusion der zweiten Spurattribute zu ermöglichen, die mehreren Sensoren zugeordnet sind, wobei dadurch die Fahrspurbestimmung des Ego-Fahrzeugs erleichtert wird.

Description

  • Die vorliegende Offenbarung bezieht sich auf das Gebiet der Navigation und Fahrspurerkennung. Insbesondere stellt die vorliegende Offenbarung ein System für die Fahrspurbestimmung eines Fahrzeugs unter Verwendung von Fahrspurattributen und ein Verfahren davon bereit.
  • Bei den bestehenden Techniken stützen sich Fahrerassistenzsysteme (Advanced Driver Assistance Systems, ADAS), einstimmig auf eine Art von Kartendaten, um die Weg- und Fahrspurwahrnehmung auf Grundlage der von dem Fahrzeug gefolgten Strecke zu verbessern. Bei einer genau ausgerichteten Position kann die Karte eine reichweitenunabhängige und verdeckungsfreie Erweiterung der sensorbasierten Fahrspurerkennung liefern. Die Techniken erfordern eine genaue Fahrspurlokalisierung des (Ego-) Fahrzeugs in der entsprechenden ADAS- oder HD-Karte, d. h. man muss wissen, welche Fahrspur in der Karte die aktuelle Ego-Fahrspur ist. Je höher die Automatisierungsstufe, desto höher die Anforderungen an die Integrität der Positionierung auf Fahrspurebene.
  • Die meisten der bestehenden Verfahren verwenden Sensoren, um das Fahrzeug relativ zu dem Fahrspurprofil in einer Karte zu positionieren; dies funktioniert am besten, wenn die Karte Lokalisierungsattribute bereitstellt, die dem, was das Fahrzeug sieht, zugeordnet werden können. Bei der Lokalisierung ist es üblich, eine einzelne Position zu verfolgen und Übereinstimmungen auf Grundlage der Nähe zu dieser Position auszuwählen, allerdings werden in dem Prozess inkompatible Attribute in der Regel einfach ignoriert. Außerdem wird, wenn eine kompatible Übereinstimmung nahe genug ist, die Position aktualisiert, um mit ihr übereinzustimmen. Daher kann es in diesem Fall leicht passieren, dass eine falsche Position beibehalten wird, weil kompatible Attribute gefunden werden, die sie bestätigen.
  • Das Patentdokument DE102016213783A1 offenbart ein Verfahren, eine Einrichtung und ein computerlesbares Speichermedium mit Anweisungen für die Bestimmung der seitlichen Position eines Fahrzeugs relativ zu den Fahrspuren einer Fahrbahn. Eine Bildverarbeitungseinheit erkennt die Fahrbahnmarkierungen. Eine Positionsbestimmungseinheit bestimmt eine Ausgangsposition für das Fahrzeug. Eine Auswerteeinheit bestimmt mögliche seitliche Positionen des Fahrzeugs, indem sie die erkannten Fahrbahnmarkierungen mit Fahrbahnmarkierungsinformationen aus einer Fahrbahngeometriekarte für die bestimmte Startposition des Fahrzeugs vergleicht. In diesem Fall werden wenigstens ein erster Satz möglicher seitlicher Positionen für eine erste erkannte Fahrbahnmarkierung und ein zweiter Satz möglicher seitlicher Positionen für eine zweite erkannte Fahrbahnmarkierung bestimmt. Außerdem bestimmt die Auswerteeinheit eine endgültige seitliche Position des Fahrzeugs, indem sie wenigstens eine Auswertefunktion auf die möglichen seitlichen Positionen anwendet. Allerdings bestimmt sie die Ego-Spur nicht genau.
  • Das Patentdokument EP3254138B1 offenbart ein Verfahren zum Erhalten von Querpositionsinformationen eines Kraftfahrzeugs auf einer Fahrbahn, dadurch gekennzeichnet, dass wenigstens ein Teil der die Fahrbahn beschreibenden Radardaten mit wenigstens einem Radarsensor des Kraftfahrzeugs aufgenommen wird, die die Lage einer Fahrbahnbegrenzung beschreibenden Umgebungsmerkmale durch Auswertung der Radardaten erkannt und lokalisiert werden, aus diesen ein Verlauf der Fahrbahnbegrenzungen der Fahrbahn und seitliche Abstände des Kraftfahrzeugs zu den Fahrbahnbegrenzungen erhalten werden und die Querpositionsinformationen als die oder in Abhängigkeit von den seitlichen Abständen des Kraftfahrzeugs zu den Fahrbahnbegrenzungen erhalten wird, wobei ein hochpräziser Radarsensor mit einem durch den Radarsendeempfänger implementierten Halbleiterchip als ein Sensor verwendet wird und ein Übergang von der Straßenoberfläche zu einer anderen Bodenoberfläche als Umgebungsmerkmale erkannt und lokalisiert wird, wobei als die Querpositionsinformationen eine Fahrspurpositionszuordnung des Kraftfahrzeugs unter zusätzlicher Berücksichtigung wenigstens einer zusätzlichen Information von wenigstens der Anzahl der Fahrspuren der Fahrbahn bestimmt wird, wobei Fahrbahnverteilungsinformationen, die aus digitalen Kartendaten abgeleitet sind, die Teilinformationen umfassen, die die Anwesenheit und/oder Breite und/oder die Lage eines Bereichs der Fahrbahn, der nicht als eine Fahrspur verwendet wird, als die zusätzliche Information berücksichtigt wird. Es ist jedoch sehr rechenintensiv und besteht aus komplexen Algorithmen, um das Problem zu lösen.
  • Das Patentdokument US9710714B2 offenbart ein System, bei dem Punktwolkendaten empfangen und eine horizontale Projektionsebene segmentiert wird. Ein zweidimensionales Bild der segmentierten horizontalen Projektionsebene wird auf der Grundlage der Intensitätswerte der segmentierten horizontalen Projektionsebene erzeugt. Die Kandidaten für die Fahrspurmarkierung werden auf Grundlage der Intensität des erzeugten zweidimensionalen Bildes bestimmt. Bilddaten werden empfangen und das erzeugte zweidimensionale Bild wird mit den empfangenen Bilddaten registriert. Die Fahrspurmarkierungskandidaten der empfangenen Bilddaten werden auf Grundlage der Fahrspurmarkierungskandidaten des registrierten zweidimensionalen Bildes bestimmt. Aus dem zweidimensionalen Bild und den empfangenen Bilddaten werden auf Grundlage der bestimmten Fahrbahnmarkierungen Bildfelder ausgewählt. Aus dem registrierten zweidimensionalen Bild und den empfangenen Daten werden Merkmalskarten einschließlich ausgewählter Bildfelder erzeugt. Der Satz von Merkmalskarten wird unterabgetastet, und ein Merkmalsvektor wird auf Grundlage des Satzes von Merkmalskarten erzeugt. Die Fahrspurmarkierungen werden aus dem erzeugten Merkmalsvektor bestimmt. Dies erfordert jedoch einen übermäßigen Einsatz von Rechenressourcen.
  • Es besteht daher ein Bedarf, eine effiziente, optimale und kostengünstige Lösung bereitzustellen, die die vorstehend genannten Einschränkungen beseitigt und eine effektive und zuverlässige Auswertung der möglichen Ego-Spur ermöglicht.
  • Eine allgemeine Aufgabe der vorliegenden Offenbarung ist es, ein effizientes und schnelles System und Verfahren bereitzustellen, das die vorstehend genannten Beschränkungen herkömmlicher Systeme und Verfahren umgeht und eine genaue Bestimmung der Ego-Fahrspur ermöglicht.
  • Eine Aufgabe der vorliegenden Offenbarung ist es, ein System und Verfahren bereitzustellen, das den Prozess der Fahrspurlokalisierung extrem fehlerresistent macht, und überschätzte Grenzabstände zu unterdrücken.
  • Eine weitere Aufgabe der vorliegenden Offenbarung ist es, ein System und ein Verfahren zum Lösen des Problems der Erkennung widersprüchlicher Sensoren sowie zum Optimieren der für die Bestimmung der Ego-Fahrspur erforderlichen Laufzeit bereitzustellen, sodass Nicht-Erkennungen von einem Sensor durch Erkennungen von dem anderen Sensor gefüllt werden, sofern vorhanden.
  • Eine weitere Aufgabe der vorliegenden Offenbarung ist es, ein System und ein Verfahren zum Minimieren der mit der Erkennung zusammenhängenden Redundanz, der Zeit und des verbrauchten Speichers und zum Bereitstellen zuverlässiger Ergebnisse bereitzustellen und dadurch Unterstützung an Fahrzeuge auf Basis des Fahrerassistenzsystems (ADAS) bereitzustellen.
  • Aspekte der vorliegenden Offenbarung bezieht sich auf das Gebiet der Navigation und Fahrspurerkennung. Insbesondere stellt die vorliegende Offenbarung ein System für die Fahrspurbestimmung eines Fahrzeugs unter Verwendung von Fahrspurattributen und ein Verfahren davon bereit.
  • Ein Aspekt der vorliegenden Offenbarung betrifft ein System für die Bestimmung einer Fahrspur eines Ego-Fahrzeugs unter Verwendung von Fahrspurattributen, wobei das System umfasst: mehrere Sensoren, die an vordefinierten Positionen auf dem Ego-Fahrzeug konfiguriert sind, wobei jeder der mehreren Sensoren dazu konfiguriert ist, erste Fahrspurattribute innerhalb eines ersten vordefinierten Bereichs von einer Echtzeitposition des Ego-Fahrzeugs zu erkennen; eine Navigationseinheit, die dazu konfiguriert ist, eine Echtzeitkarte zu erzeugen, die mehrere Fahrspuren umfasst, die innerhalb einer zweiten vordefinierten Entfernung von der Echtzeitposition des Ego-Fahrzeugs vorhanden sind; und eine Lokalisierungsvorrichtung, die mit den mehreren Sensoren und der Navigationseinheit kommuniziert, wobei die Lokalisierungsvorrichtung einen Speicher umfasst, der eine oder mehrere Anweisungen speichert, die von der Lokalisierungsvorrichtung ausgeführt werden können, zum: Empfangen von Sätzen von Erkennungsdatenpaketen von den mehreren Sensoren, die sich auf die erkannten ersten Fahrspurattribute beziehen, und entsprechendes Extrahieren zweiter Fahrspurattribute, die durch jeden der mehreren Sensoren erkannt werden; Empfangen eines Satzes von Navigationsdatenpaketen von der Navigationseinheit und Ableiten auf Grundlage der produzierten Echtzeitkarte entsprechender Fahrspurattribute, die innerhalb eines ersten vordefinierten Bereichs vorhanden sind, von der Echtzeitposition des Ego-Fahrzeugs; Abbilden durch Übereinstimmen der extrahierten zweiten Fahrspurattribute mit den abgeleiteten Fahrspurattributen und entsprechendes Berechnen eines elementaren Werts für die abgebildeten Fahrspurattribute, die jedem der mehreren Sensoren zugeordnet sind; und Einbetten in einen Zustandsraumfilter der abgebildeten Fahrspurattribute mit dem niedrigsten elementaren Wert, der eine Fusion der zweiten Fahrspurattribute, die jedem der mehreren Sensoren zugeordnet sind, ermöglicht; wobei die Wahrscheinlichkeit für jede der mehreren Fahrspur, eine Ego-Fahrspur zu sein, unter Berücksichtigung der fusionierten zweiten Fahrspurattribute geschätzt wird, wobei dadurch eine Fahrspurbestimmung des Ego-Fahrzeugs erleichtert wird.
  • In einem Aspekt für den Fall, dass die zweiten Fahrspurattribute, die den mehreren Sensoren zugeordnet sind, nicht übereinstimmen, betrachtet das System dann die zweiten Fahrspurattribute als mehrdeutige Attribute, und wobei das System den elementaren Wert für jeden der mehreren Sensoren berechnet, sodass Nichterkennungen durch einen der mehreren Sensoren durch Erkennungen durch die anderen Sensoren gefüllt werden.
  • In einem Aspekt umfassen die ersten Fahrspurattribute beliebige oder eine Kombination von durchgezogenen Fahrspurmarkierungen, gestrichelten Fahrspurmarkierungen, Fahrspurbreite, Position des Ego-Fahrzeugs, Entfernung des Ego-Fahrzeugs von den Fahrspurmarkierungen und Abmessungen eines auf der Fahrspur vorhandenen Objekts und Position und Entfernung des Objekts in Bezug auf das Ego-Fahrzeug; und wobei die zweiten Fahrspurattributen eine Entfernung des Ego-Fahrzeugs von einer oder mehreren Begrenzungen umfassen.
  • In einem Aspekt umfassen die abgeleiteten Fahrspurattribute die Entfernung der einen oder mehreren Begrenzungen von jeder Fahrspur der mehreren Fahrspuren.
  • In einem Aspekt ist der Zustandsraumfilter ein Bayes-Filter.
  • In einem Aspekt umfassen die mehreren Sensoren eine beliebige oder eine Kombination aus einer Stereo-Mehrzweckkamera (SMPC), Langstreckenradar- (LRR-), Multimodus-Radar- (MMR-) und Langstrecken-LiDAR- (LRL-) Sensoren.
  • In einem Aspekt führt das System die fusionierten zweiten Fahrspurattribute mit der produzierten Echtzeitkarte zusammen, indem es die fusionierten zweiten Fahrspurattribute in die produzierte Echtzeitkarte einpasst und entsprechend ein Wahrscheinlichkeitshistogramm erzeugt; und wobei das System einen Satz von Einpassungsbewertungen auf Grundlage der zusammengetragenen fusionierten Fahrspurattribute und der produzierten Echtzeitkarte aus dem erzeugten Wahrscheinlichkeitshistogramm berechnet, wobei der berechnete Satz von Einpassungsbewertungen die Wahrscheinlichkeit anzeigt, dass eine Fahrspur eine Ego-Spur ist.
  • Ein weiterer Aspekt der vorliegenden Offenbarung betrifft ein Verfahren für die Fahrspurbestimmung eines Ego-Fahrzeugs unter Verwendung von Fahrspurattributen, wobei das Verfahren die Schritte umfasst von: Erkennen durch mehrere Sensoren, die an vordefinierten Positionen auf dem Ego-Fahrzeug konfiguriert sind, erster Fahrspurattribute innerhalb eines vordefinierten Bereichs von einer Echtzeitposition des Ego-Fahrzeugs; Produzieren an einer Navigationseinheit einer Echtzeitkarte, die mehrere Fahrspuren umfasst, die innerhalb einer zweiten vordefinierten Entfernung von der Echtzeitposition des Ego-Fahrzeugs vorhanden sind; Empfangen an einer Lokalisierungsvorrichtung in Kommunikation mit den mehreren Sensoren und der Navigationseinheit von Sätzen von Erkennungsdatenpaketen von den mehreren Sensoren, die sich auf die erkannten ersten Fahrspurattribute beziehen, und entsprechendes Extrahieren zweiter Fahrspurattribute aus den ersten Fahrspurattributen, die durch jeden der mehreren Sensoren erkannt werden; Empfangen an der Lokalisierungsvorrichtung eines Satzes von Navigationsdatenpaketen von der Navigationseinheit und Ableiten auf Grundlage der produzierten Echtzeitkarte entsprechender Fahrspurattribute, die innerhalb eines ersten vordefinierten Bereichs vorhanden sind, von der Echtzeitposition des Ego-Fahrzeugs; Abbilden an der Lokalisierungsvorrichtung durch Übereinstimmen der extrahierten zweiten Fahrspurattribute mit den abgeleiteten Fahrspurattributen und entsprechendes Berechnen eines elementaren Werts für die abgebildeten Fahrspurattribute, die jedem der mehreren Sensoren zugeordnet sind; und Einbetten durch die Lokalisierungsvorrichtung der abgebildeten Fahrspurattribute mit dem niedrigsten elementaren Wert in einen Zustandsraumfilter, der eine Fusion der zweiten Fahrspurattribute, die jedem der mehreren Sensoren zugeordnet sind, ermöglicht; wobei die Wahrscheinlichkeit für jede der mehreren Fahrspur, eine Ego-Fahrspur zu sein, unter Berücksichtigung der fusionierten zweiten Fahrspurattribute geschätzt wird, wobei dadurch eine Fahrspurbestimmung des Ego-Fahrzeugs erleichtert wird.
  • In einem Aspekt für den Fall, dass die zweiten Fahrspurattribute, die den mehreren Sensoren zugeordnet sind, nicht übereinstimmen, dann die zweiten Fahrspurattribute als mehrdeutige Attribute betrachtet werden, und wobei das Verfahren das Berechnen des elementaren Werts für jeden der mehreren Sensoren umfasst, sodass Nichterkennungen durch einen der mehreren Sensoren durch Erkennungen durch die anderen Sensoren gefüllt werden.
  • In einem Aspekt umfasst das System das Zusammenführen der fusionierten zweiten Fahrspurattribute mit der produzierten Echtzeitkarte, indem es die fusionierten zweiten Fahrspurattribute in die produzierte Echtzeitkarte einpasst, und das entsprechende Erzeugen eines Wahrscheinlichkeitshistogramm; und wobei das Verfahren das Berechnen eines Satzes von Einpassungsbewertungen auf Grundlage der zusammengetragenen fusionierten Fahrspurattribute und der produzierten Echtzeitkarte aus dem erzeugten Wahrscheinlichkeitshistogramm umfasst, wobei der berechnete Satz von Einpassungsbewertungen die Wahrscheinlichkeit anzeigt, dass eine Fahrspur eine Ego-Spur ist.
  • Verschiedene Aufgaben, Merkmale, Aspekte und Vorteile des Erfindungsgegenstandes werden aus der folgenden ausführlichen Beschreibung bevorzugter Ausführungsformen zusammen mit den beigefügten Zeichnungen, in denen gleiche Ziffern gleiche Komponenten darstellen, deutlicher.
  • Die beigefügten Zeichnungen sind beinhaltet, um ein weiteres Verständnis der vorliegenden Offenbarung bereitzustellen, und sind in diese Patentschrift einbezogen und bilden einen Teil dieser. Die Zeichnungen veranschaulichen beispielhafte Ausführungsformen der vorliegenden Offenbarung und dienen zusammen mit der Beschreibung für die Erläuterung der Grundsätze der vorliegenden Offenbarung.
    • 1 veranschaulicht eine beispielhafte Netzarchitektur des vorgeschlagenen Systems für die Fahrspurbestimmung eines Ego-Fahrzeugs, um seine allgemeine Funktionsweise in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung zu veranschaulichen.
    • 2 veranschaulicht beispielhafte Funktionseinheiten einer Lokalisierungsvorrichtung des vorgeschlagenen Systems in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung.
    • 3 veranschaulicht die Bestimmung der Ego-Fahrspur durch das vorgeschlagene System unter Verwendung der Grenzentfernung in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung.
    • 4 veranschaulicht eine beispielhafte Darstellung von Fahrspuren, Entfernung zu den Grenzen, dem Objekt und dem Ego-Fahrzeug in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung.
    • 5 veranschaulicht ein Blockdiagramm des Verfahrens für die Aggregation mehrdeutiger Informationen in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung.
    • 6 veranschaulicht ein beispielhaftes Blockdiagramm, das den Bayes-Filter und die zugehörige Technik in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung darstellt.
    • 7 veranschaulicht den Vergleich der Daten jedes Sensors mit den Kartendaten auf separate Weise und unabhängig voneinander.
    • 8 veranschaulicht ein Blockdiagramm der allgemeinen Architektur für den Datenabgleich in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung.
    • 9 veranschaulicht ein Flussdiagramm für den Datenabgleich durch das vorgeschlagene System unter Verwendung des Bayes-Filters in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung.
    • 10 ist ein Flussdiagramm, in dem das vorgeschlagene Verfahren für die Fahrspurbestimmung eines Ego-Fahrzeugs in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung dargestellt ist.
  • Es folgt eine ausführliche Beschreibung der in den beigefügten Zeichnungen dargestellten Ausführungsformen der Offenbarung. Die Ausführungsformen sind so ausführlich, um die Offenbarung klar zu vermitteln. Es ist jedoch nicht beabsichtigt, durch die Menge der angebotenen Details die vorhersehbaren Variationen von Ausführungsformen einzuschränken; im Gegenteil, die Absicht ist, alle Modifikationen, Äquivalente und Alternativen abzudecken, die in den Geist und den Umfang der vorliegenden Offenbarungen fallen, wie durch die beigefügten Ansprüche definiert.
  • Die hierin erläuterten Ausführungsformen beziehen sich auf das Gebiet der Navigation und Fahrspurerkennung. Insbesondere stellt die vorliegende Offenbarung ein System für die Fahrspurbestimmung eines Fahrzeugs unter Verwendung von Fahrspurattributen und ein Verfahren davon bereit.
  • Unter Bezugnahme auf 1 kann die beispielhafte Netzarchitektur des vorgeschlagenen Systems 100 (hierin austauschbar als System 100 bezeichnet) mehrere Sensoren beinhalten, die an vordefinierten Positionen an einem Fahrzeug 402 (hierin austauschbar als Ego-Fahrzeug 402 bezeichnet) konfiguriert sind, wie in 4 veranschaulicht, wobei die mehreren Sensoren (die hierin gemeinsam als Sensoren oder Satz von Sensoren und einzeln als Sensor bezeichnet werden) dazu konfiguriert werden können, erste Fahrspurattribute innerhalb einer ersten vordefinierten Entfernung von einer Echtzeitposition des Ego-Fahrzeugs 402 zu erkennen. Ferner kann der Satz von Sensoren Sätze von Erkennungsdatenpaketen erzeugen, die den erkannten ersten Fahrspurattributen entsprechen.
  • In einer beispielhaften Ausführungsform kann ein erster Sensor 102-1 (hierin ebenso als Sensor 102-1 bezeichnet) aus dem Satz von Sensoren an einer ersten vordefinierten Position an dem Ego-Fahrzeug 402 konfiguriert werden, sodass der Sensor 102-1 erste Fahrspurattributen innerhalb des ersten vordefinierten Bereichs um das Ego-Fahrzeug herum erkennen kann. In einer Ausführungsform kann der Sensor 102-1 einen ersten Satz von Erkennungsdatenpaketen erzeugen, die den ersten Fahrspurattributen entsprechen, die von dem Sensor 102-1 erkannt werden.
  • In einer weiteren beispielhaften Ausführungsform kann ein zweiter Sensor 102-2 (hierin ebenso als Sensor 102-2 bezeichnet) aus dem Satz von Sensoren an einer zweiten vordefinierten Position an dem Ego-Fahrzeug 402 konfiguriert werden, sodass der Sensor 102-2 erste Fahrspurattributen innerhalb des ersten vordefinierten Bereichs um das Ego-Fahrzeug herum erkennen kann. Der Sensor 102-2 kann einen zweiten Satz von Erkennungsdatenpaketen erzeugen, die den ersten Fahrspurattributen entsprechen, die von dem Sensor 102-2 erkannt werden. In noch einer weiteren beispielhaften Ausführungsform kann der Satz von Sensoren, einschließlich des Sensors 102-1 und des Sensors 102-2, unter Verwendung von Stereo-Mehrzweck-Kameras (SMPC), Langstreckenradar- (LRR-), Multimodus-Radar- (MMR-) und Langstrecken-LiDAR- (LRL-) Sensoren und dergleichen implementiert werden.
  • In einer anderen Ausführungsform kann das System 100 eine Navigationseinheit 110 beinhalten, die eine Echtzeitkarte einschließlich mehrerer Fahrspuren und jeweiliger Fahrspurattributen bilden kann, die in einem zweiten vordefinierten Bereich um die Echtzeitposition des Ego-Fahrzeugs 402 vorhanden sind, beispielsweise ein 4-spuriges Wegsegment einschließlich Fahrspur 410-1, Fahrspur 410-2, Fahrspur 410-3 und Fahrspur 410-4 mit Straßengrenzen. In einer beispielhaften Ausführungsform kann die Navigationseinheit 110 einen Satz von Navigationsdatenpaketen erzeugen, die der erzeugten Echtzeitkarte entsprechen. In einer anderen beispielhaften Ausführungsform kann die Navigationseinheit 110 die globale Navigationseinheit (GPS), das globale Navigationssatellitensystem (GLONASS), Galileo, das indische regionale Navigationssatellitensystem (IRNSS/NAVIC), ein WiFi-basiertes Positionierungssystem und andere regionale und lokale Positionierungssysteme beinhalten, ohne jedoch darauf beschränkt zu sein.
  • Gemäß einer Ausführungsform kann das System 100 eine Lokalisierungsvorrichtung 106 beinhalten, die über ein Netz 104 mit dem Satz von Sensoren, einschließlich des ersten Sensors 102-1 und des zweiten Sensors 102-2, und der Navigationseinheit 110 kommunizieren kann. In einer beispielhaften Ausführungsform kann das Netz 104 ein drahtloses Netz, ein kabelgebundenes Netz oder eine Kombination davon sein, das als eine der verschiedenen Arten von Netzen implementiert werden kann, wie Intranet, lokales Netz (LAN), Weitverbundnetz (WAN), Internet und dergleichen. Ferner kann das Netz 104 entweder ein dediziertes Netz oder ein gemeinsam genutztes Netz sein. Das gemeinsame Netz kann eine Zuordnung verschiedener Arten von Netzen darstellen, die eine Vielzahl von Protokollen verwenden können, beispielsweise Hypertext-Übertragungsprotokoll (HTTP), Übertragungssteuerungsprotokoll/Internetprotokoll (TCP/IP), drahtloses Anwendungsprotokoll (WAP) und dergleichen.
  • In einer Ausführungsform kann die Lokalisierungsvorrichtung 106 den ersten Satz von Erkennungsdatenpaketen, die von dem ersten Sensor 102-1 übertragen werden, und den zweiten Satz von Erkennungsdatenpaketen empfangen, die von dem zweiten Sensor 102-2 übertragen werden. Ferner kann die Lokalisierungsvorrichtung 106 zweite Fahrspurattribute aus den ersten Fahrspurattributen extrahieren, die von dem ersten Sensor 102-1 und dem zweiten Sensor 102-2 erkannt werden.
  • In einer weiteren Ausführungsform kann die Lokalisierungsvorrichtung 106 den Satz von Navigationsdatenpaketen, die von der Navigationseinheit 110 übertragen werden, empfangen und ferner kann die Lokalisierungsvorrichtung 106 auf Grundlage der erzeugten Echtzeitkarte entsprechende Fahrspurattribute ableiten, die innerhalb des ersten vordefinierten Bereichs um die Echtzeitposition des Ego-Fahrzeugs 402 vorhanden sind. In einer beispielhaften Ausführungsform können die ersten Fahrspurattribute durchgezogene Fahrspurmarkierungen, gestrichelte Fahrspurmarkierungen, Fahrspurbreite, Position des Ego-Fahrzeugs 402, Entfernung des Ego-Fahrzeugs 402 von den Fahrspurmarkierungen 412-1, 412-2 und 412-3 (hierin gemeinsam als Fahrspurmarkierungen 412 bezeichnet), und Abmessungen von Objekten, beispielsweise Objekt 404, Objekt 406 und Objekt 408, die auf der Fahrspur vorhanden sind, und Position und Entfernung der Objekte 404, 406 und 408 in Bezug auf das Ego-Fahrzeug 402 beinhalten, ohne jedoch darauf beschränkt zu sein. In einer anderen beispielhaften Ausführungsform können die zweiten Fahrspurattribute die Entfernung des Ego-Fahrzeugs von einer oder mehreren Barrieren beinhalten.
  • In einer Ausführungsform kann die Lokalisierungsvorrichtung 106 die extrahierten zweiten Fahrspurattribute mit den abgeleiteten Fahrspurattributen abbilden, indem sie die extrahierten zweiten Fahrspurattribute und die abgeleiteten Fahrspurattribute abgleicht. Ferner kann die Lokalisierungsvorrichtung 106 einen elementaren Wert für die zugeordneten Fahrspurattribute berechnen, die jedem der Sensoren zugeordnet sind.
  • In einer anderen Ausführungsform kann die Lokalisierungsvorrichtung 106 die abgebildeten Fahrspurattribute mit dem niedrigsten elementaren Wert in einen Zustandsraumfilter 112 einbetten, der die Fusion der zweiten Fahrspurattribute ermöglicht, die jedem der Sensoren zugeordnet sind. Wenn beispielsweise festgestellt wird, dass der elementare Wert für die abgebildeten Fahrspurattribute, die dem Sensor 102-1 zugeordnet sind, niedriger ist als der elementare Wert für die abgebildeten Fahrspurattribute, die dem Sensor 102-2 zugeordnet sind, dann werden die abgebildeten Fahrspurattribute, die dem Sensor 102-1 zugeordnet sind, von der Lokalisierungsvorrichtung 106 in den Zustandsraumfilter 112 eingespeist. Wenn jedoch festgestellt wird, dass der elementare Wert der abgebildeten Fahrspurattribute, die dem Sensor 102-2 zugeordnet sind, niedriger ist als der elementare Wert der abgebildeten Fahrspurattribute, die dem Sensor 102-1 zugeordnet sind, dann werden die abgebildeten Fahrspurattribute, die dem Sensor 102-2 zugeordnet sind, von der Lokalisierungsvorrichtung 106 in den Zustandsraumfilter 112 eingespeist.
  • In einer Ausführungsform kann der Zustandsraumfilter 112 die Fusion der zweiten Fahrspurattribute erleichtern, die jedem der mehreren Sensoren zugeordnet sind, was ferner die Abschätzung der Wahrscheinlichkeit ermöglicht, dass jede der mehreren Fahrspuren eine Ego-Fahrspur ist, wobei die fusionierten zweiten Fahrspurattribute berücksichtigt werden, wobei dadurch die Fahrspurbestimmung des Ego-Fahrzeugs 402 erleichtert wird.
  • In einer Ausführungsform kann der Zustandsraumfilter 112 kontinuierlich die Wahrscheinlichkeit berechnen, dass jede Fahrspur in der Karte die Ego-Spur ist, und zwar anhand eines Wahrscheinlichkeitshistogramms/Wahrscheinlichkeitsdiagramms, und ferner kann das System 100 die wahrscheinlichste Ego-Spur als Ausgabe bereitstellen. Das System 100 wird insbesondere bei der „effizienten Verwendung von nicht übereinstimmenden Sensordaten für die Lokalisierung des Ego-Fahrzeugs“ verwendet. Darüber hinaus hat das System 100 einen großen Effekt auf die Unterdrückung von übergeschätzten Grenzentfernungen und die Ego-Spur kann mit höherer Sicherheit und weniger Widersprüchen bestimmt werden. Das System 100 ist schneller und durch die Nutzung des vorgeschlagenen Systems 100 können die gesamten Rechenkosten auf wenigstens die Hälfte reduziert werden.
  • In einer Ausführungsform kann die Lokalisierungsvorrichtung 106 unter Verwendung beliebiger oder einer Kombination von Hardwarekomponenten und Softwarekomponenten implementiert werden, wie einer Cloud, eines Servers 108, eines Rechensystems, einer Rechenvorrichtung, einer Netzwerkvorrichtung und dergleichen. Ferner kann die Lokalisierungsvorrichtung 106 über eine Website oder eine Anwendung, die sich in dem vorgeschlagenen System 100 befinden kann, mit dem Satz von Sensoren und der Navigationseinheit 110 interagieren. In einer Implementierung kann über eine Website oder eine Anwendung auf das System 100 zugegriffen werden, die mit einem beliebigen Betriebssystem konfiguriert werden kann, einschließlich, jedoch ohne darauf beschränkt zu sein, Android™, iOS™ und dergleichen.
  • Unter Bezugnahme auf 2, können beispielhafte Funktionseinheiten der Lokalisierungsvorrichtung 106 einen oder mehrere Prozessoren) 202 und Speicher 204 beinhalten, die aus dem Stand der Technik bekannt sind. Die Lokalisierungsvorrichtung 106 kann ebenso eine Schnittstelle(n) 206 beinhalten. Die Schnittstelle(n) 206 kann/können eine Mehrzahl von Schnittstellen beinhalten, beispielsweise Schnittstellen für Dateneingabe- und -ausgabevorrichtungen, die als E/A-Vorrichtungen bezeichnet werden, Sekundärspeichervorrichtungen und dergleichen. Die Schnittstelle(n) 206 kann/können die Kommunikation der Lokalisierungsvorrichtung 106 mit verschiedenen Vorrichtungen, die mit der Lokalisierungsvorrichtung 106 gekoppelt sind, erleichtern. Die Schnittstelle(n) 206 kann/können ebenso einen Kommunikationsweg für eine oder mehrere Komponenten der Lokalisierungsvorrichtung 106 bereitstellen. Beispiele für solche Komponenten beinhalten, ohne jedoch darauf beschränkt zu sein, Verarbeitungsmaschine(n) 208 und die Datenbank 210.
  • In einer Ausführungsform kann/können die Verarbeitungsmaschine(n) 208 als eine Kombination aus Hardware und Programmierung (beispielsweise programmierbare Anweisungen) implementiert werden, um eine oder mehrere Funktionalitäten der Verarbeitungsmaschine(n) 208 zu implementieren. Die Datenbank 210 kann Daten beinhalten, die entweder gespeichert oder als ein Ergebnis von Funktionalitäten erzeugt werden, die von einer der Komponenten der Verarbeitungsmaschine(n) 208 implementiert werden. In einer Ausführungsform kann/können die Verarbeitungsmaschine(n) 208 eine Extraktionseinheit 212, eine Abbildungseinheit 214, eine Fahrspurwahrscheinlichkeitsbestimmungseinheit 216 und eine andere Einheit(en) 218 beinhalten. Ferner kann/können die andere(n) Einheit(en) 218 Funktionen implementieren, die die von der Lokalisierungsvorrichtung 106 ausgeführten Anwendungen/Funktionen ergänzen.
  • Gemäß einer Ausführungsform kann die Extraktionseinheit 212 die zweiten Fahrspurattribute aus einem ersten Satz von Erkennungsdatenpaketen extrahieren, die von dem ersten Sensor 102-1 empfangen werden. In einer anderen Ausführungsform kann die Extraktionseinheit 212 zweite Fahrspurattribute aus einem zweiten Satz von Erkennungsdatenpaketen extrahieren, die von dem zweiten Sensor 102-2 empfangen werden. In noch einer weiteren Ausführungsform kann die Extraktionseinheit 212 auf Grundlage der erzeugten Echtzeitkarte dritte Fahrspurattribute, die in dem ersten vordefinierten Bereich um die Echtzeitposition des Ego-Fahrzeugs 402 vorhanden sein können, aus dem Satz von Navigationsdatenpaketen ableiten, die von der Navigationseinheit 110 empfangen werden.
  • Gemäß einer Ausführungsform kann die Abbildungseinheit 214 die extrahierten zweiten Fahrspurattribute, die jeweils dem ersten Sensor 102-1 und dem zweiten Sensor 102-2 zugeordnet sind, auf die abgeleiteten Fahrspurattribute abbilden, indem sie die extrahierten zweiten Fahrspurattribute mit den abgeleiteten Fahrspurattributen abgleicht. In einer Ausführungsform kann die Abbildungseinheit 214 einen elementaren Wert für die abgebildeten Fahrspurattribute berechnen, die jedem der Sensoren zugeordnet sind.
  • In einer Ausführungsform werden die abgebildeten Fahrspurattribute mit dem niedrigsten elementaren Wert in einen Zustandsraumfilter 112 eingespeist, der einen Bayes-Filter sein kann, um die Fusion der zweiten Fahrspurattribute zu ermöglichen, die jedem der Sensoren zugeordnet sind.
  • In einer beispielhaften Ausführungsform kann die produzierte Karte die Grenzentfernung nach links und rechts einer Straße in Bezug auf jede Fahrspur bereitstellen, und die Sensoren können die Grenzentfernung nach links und rechts in Bezug auf die Ego-Position des Fahrzeugs 302 auf der Straße bereitstellen, wie in 3 veranschaulicht. Ferner kann die Abbildungseinheit 214 die von der Karte bereitgestellten Grenzentfernungen in Bezug auf die Ego-Fahrspur mit den von den Sensoren bereitgestellten Grenzentfernungen vergleichen, um Wahrscheinlichkeiten für jede Fahrspur festzustellen, wobei die Fahrspur mit der höchsten Wahrscheinlichkeit als Ego-Fahrspur betrachtet werden kann.
  • In einer Ausführungsform in dem Fall, dass die zweiten Fahrspurattribute, die den mehreren Sensoren zugeordnet sind, nicht übereinstimmen, d. h., wenn die zweiten Fahrspurattribute, die einem der Sensoren, z. B. dem ersten Sensor 102-1, zugeordnet sind, nicht mit den zweiten Fahrspurattributen übereinstimmen, die dem anderen Sensor, z. B. dem zweiten Sensor 102-2, zugeordnet sind, dann kann das System 100 die zweiten Attribute, die beiden der Sensoren zugeordnet sind, als mehrdeutige Attribute betrachten, und ferner kann die Abbildungseinheit 214 einen elementaren Wert für jeden der Sensoren berechnen, sodass Nichterkennungen durch den ersten Sensor 102-1 durch Erkennungen durch den zweiten Sensor 102-2 gefüllt werden können und umgekehrt. In einer beispielhaften Ausführungsform werden in dem Fall, dass die zweiten Fahrspurattribute, die den Sensoren zugeordnet sind, als nicht übereinstimmend befunden werden, werden dann die zweiten Fahrspurattribute als mehrdeutige Attribute betrachtet, und es können Daten in Bezug auf die mehrdeutigen Attribute gesammelt werden. Die gesammelten Daten, die sich auf die mehrdeutigen Attribute beziehen, können als mehrdeutige Informationen bezeichnet werden, die aggregiert werden können. In einer beispielhaften Ausführungsform können Straßenabschnittsdaten 502, die aus der von der Navigationseinheit 110 erzeugten Karte abgeleitet wurden, und Sensordaten 504, die aus den ersten und den zweiten Erfassungsdatenpaketen, die von den Sensoren 102-1 beziehungsweise 102-2 empfangen wurden, extrahiert wurden, in dem Abbildungsblock 506 abgebildet werden und ferner in dem Bayes-Filter 112 aggregiert werden, wie in 5 gezeigt.
  • In einer Ausführungsform kann die Abbildungseinheit 214 ferner die Daten der Karte und der Sensoren bezüglich der Entfernung zu den Grenzen vergleichen, sodass die Ego-Entfernung zu den Grenzen, d. h. die Entfernung zu den Grenzen, die der Spur zugeordnet sind, auf der das Ego-Fahrzeug 402 fährt, beispielsweise die Entfernung zu der linken Grenze 414 und die Entfernung zu der rechten Grenze 416, bestimmt werden kann. In einem Fall können nur beidseitig gestrichelte Ego-Linienmarkierungen sichtbar sein. In einer anderen Ausführungsform kann die Abbildungseinheit 214 die Entfernung der Karte und der Sensoren zu den Grenzen in Bezug auf das Ego-Fahrzeug 402 vergleichen. In einem anderen Fall kann auf der linken Seite des Ego-Fahrzeugs 402 ein Freiraum von einer Fahrspurbreite auf der Fahrspur 410-1 sichtbar sein. In einer anderen Ausführungsform kann die Abbildungseinheit 214 die Flugbahnen und die Entfernung anderer Objekte 404, 406 und 408 zu dem Ego-Fahrzeug 402 nutzen, und kann dadurch die Ego-Spur bestimmt werden. In einem anderen Fall kann beobachtet werden, dass zwei Fahrspuren rechts von dem Ego-Fahrzeug 402 mit Objektfahrzeugen 404, 406 und 408 belegt sind.
  • In einer Ausführungsform verwendet der Bayes-Filter 112 einen allgemeinen probabilistischen Ansatz zum Schätzen einer unbekannten
  • Wahrscheinlichkeitsdichtefunktion (PDF), wie der PDF für die Bestimmung der Ego-Fahrspur, unter Verwendung eingehender Messungen und eines mathematischen Prozessmodells. In einer beispielhaften Ausführungsform können die Steuerungsaktualisierung (ut) und die Messungsaktualisierung (zt) als Eingaben in den Bayes-Filter 112 eingespeist werden, der die eingespeisten Eingaben unter Verwendung eines probabilistischen Ansatzes verarbeiten kann, um eine Ausgabe „Belief of State (xt)“ zu erhalten, wie in 6 gezeigt. Der probabilistische Ansatz kann unter Verwendung folgender Gleichungen implementiert werden: b e l ( x t ) ¯ = P ( x t | u t , x t 1 ) b e l ( x t 1 ) d x t 1   = x t 1 P ( x t | u t , x t 1 ) b e l ( x t 1 )
    Figure DE102022004774A1_0001
    b e l ( x t ) = η P ( z t | x t ) b e l ( x t ) ¯
    Figure DE102022004774A1_0002
    wobei,
  • die vorherige Annahme, dass sich das Fahrzeug auf der Fahrspur x ∈ X zu dem Zeitpunkt t; 0 < bel(xt) < 1 befindet, unter Verwendung des von SMPC und LRL gegebenen Spurwechselsignals berechnet wird.
    bel(xt)
    Die Annahme, dass sich das Fahrzeug auf der Fahrspur x ∈ X zu dem Zeitpunkt t; 0 < bel(xt) < 1 befindet; ist die Nachfolgewahrscheinlichkeit nach Berücksichtigung der Wahrnehmungsdaten des Sensors bei der Aktualisierung der Messung.
    P(xt|ut,xt-1)
    Die Wahrscheinlichkeit, die Fahrspur xt von der Fahrspur xt-1 durch Kontrolle ut zu erreichen
    P(zt|xt)
    Die Wahrscheinlichkeit, Fahrbahnmarkierungen zt auf der Fahrspur xt zu messen
    η
    Normalisierungsfaktor
  • Gemäß einer Ausführungsform kann die Bestimmungseinheit 216 für die Fahrspurwahrscheinlichkeit die Wahrscheinlichkeit für jede der mehreren Fahrspur, eine Ego-Fahrspur zu sein, unter Berücksichtigung der fusionierten zweiten Fahrspurattribute schätzen, wobei dadurch eine Fahrspurbestimmung des Ego-Fahrzeugs 402 erleichtert wird.
  • In einer beispielhaften Ausführungsform kann die Bestimmungseinheit 216 für die Fahrspurwahrscheinlichkeit die fusionierten zweiten Fahrspurattribute mit der erzeugten Echtzeitkarte abgleichen, indem sie die fusionierten zweiten Fahrspurattribute in die erzeugte Echtzeitkarte einpasst, und dementsprechend kann die Bestimmungseinheit 216 für die Fahrspurwahrscheinlichkeit ein Wahrscheinlichkeitshistogramm erstellen. In einer Ausführungsform kann die Bestimmungseinheit 216 für die Fahrspurwahrscheinlichkeit einen Satz Einpassungsbewertungen auf Grundlage der zusammengeführten Fahrbahnattribute und der erzeugten Echtzeitkarte aus dem gebildeten Wahrscheinlichkeitshistogramm berechnen, wobei der berechnete Satz Einpassungsbewertungen die Wahrscheinlichkeit einer Fahrbahn als Ego-Fahrbahn, d. h. der Fahrbahn, auf der das Ego-Fahrzeug 402 fährt, anzeigen kann.
  • Unter Bezugnahme auf 7 werden die Erkennungen von SMPC 702 und LiDAR 704 mit den Attributen in der Karte 706 verglichen, und entsprechend wird eine Ego-Spur geschätzt. In einer beispielhaften Ausführungsform kann, wenn der dem SMPC 702 zugeordnete elementare Wert beim Vergleich mit den Attributen in der Karte 706 übereinstimmt, eine erste Ego-Spur durch das System 100 geschätzt werden, und das entsprechende Ergebnis kann in den Bayes-Filter 708 eingespeist werden. Wenn andererseits der dem LiDAR 704 zugeordnete elementare Wert beim Vergleich nicht mit den Attributen in der Karte 706 übereinstimmt, kann eine zweite Ego-Spur durch das System 100 geschätzt werden und kann dieselbe in den Bayes-Filter 710 eingespeist werden. Diese elementaren Werte werden auf zwei verschiedene Filter, d. h. den Bayes-Filter 708 und den Bayes-Filter 710, unabhängig und getrennt voneinander angewendet, was zu mehrdeutigen Ergebnissen führen kann, die nicht für die Lokalisierung verwendet werden können.
  • Für ein selbstfahrendes Auto ist es wichtig zu wissen, wo sich das Ego-Fahrzeug auf der Straße befindet, und die Sensoren sind nicht immer zuverlässig und können aus verschiedenen Gründen wie Verdeckung, starke Sonneneinstrahlung, geringer Reflexionsgrad, geringe oder gar keine Sichtbarkeit von Entfernung zu den Grenzen und dergleichen fälschlicherweise erkennen (falsch positiv). Daher kann der Vergleich einzelner Sensordaten mit Kartendaten zu einer geringen Wahrscheinlichkeit führen, und die Wahrscheinlichkeit der Fahrspurgenauigkeit kann unter die gewünschte Schwelle fallen. Ferner, wenn beide Erkennungen getrennt verarbeitet werden, können die abgeleiteten Einpassungsbewertungen aufgrund widersprüchlicher Attribute miteinander in Konflikt geraten. Wenn die widersprüchlichen Attribute verworfen würden, wäre das Ergebnis nicht schlüssig. Daher ist dieser Ansatz nicht zu empfehlen.
  • Unter Bezugnahme auf 8, in der allgemeinen Architektur für den Datenabgleich können die Erkennungen 802 der Sensoren 102-1 und 102-2 mit den Attributen in der Karte 804 in einem Abbildungsblock 806 abgebildet werden, und die entsprechenden Einpassungsbewertungen 808 können berechnet werden. Ferner können die Einpassungsbewertungen 808 zusammen mit dem aktuellen Zustand 810 verarbeitet werden, und dementsprechend kann eine Messungsaktualisierung 812 ausgeführt werden. In einer Ausführungsform kann ein Wahrscheinlichkeitsdiagramm für einen neuen Zustand 814 gebildet werden, das die Aktualisierung der Messung 812 berücksichtigt. Dann kann das Wahrscheinlichkeitsdiagramm für den neuen Zustand 814 in dem z-1-Block 816 transformiert werden, und das transformierte Ergebnis kann für die Bestimmung der Steuerungsaktualisierung 818, z. B. der Fahrspurwechselerkennung, verwendet werden. Ferner kann die Steuerungsaktualisierung 818 den Status des aktuellen Zustands 810 auf eine gesteuerte Weise aktualisieren.
  • In einer Ausführungsform kann das vorgeschlagene System 100 in der allgemeinen Architektur für den Datenabgleich implementiert werden, wobei dadurch die Erzielung genauer Ergebnisse mit höherer Wahrscheinlichkeit für die Bestimmung der Ego-Spur erleichtert wird. Diese Technik kann das Problem der Erkennung von Sensorkonflikten lösen sowie die Laufzeit des Systems 100, die für die Bestimmung der Ego-Fahrspur erforderlich ist, optimieren. Je nach Situation ist die Technik für sich genommen genauso gut oder besser als das einfache Verwerfen des widersprüchlichen Typs. Die Technik hat ebenso eine große Wirkung auf die Unterdrückung von falsch-positiven Erkennungen.
  • Unter Bezugnahme auf 9 kann der erste Sensor 102-1 einen SMPC beinhalten und kann der zweite Sensor 102-2 einen LRL beinhalten, wobei der SMPC und der LRL dazu konfiguriert sein können, die Grenzentfernung, d. h. die Entfernung der Grenze von jeder Seite des Ego-Fahrzeugs 402, zu erkennen. In einer Ausführungsform kann die von dem SMPC erkannte Entfernung der Grenze, die ebenso als SMPC-Grenzentfernung bezeichnet wird, in Block 902 bestimmt werden, und die von dem LRL erkannte Entfernung der Grenze, die ebenso als LRL-Grenzentfernung bezeichnet wird, kann in Block 904 bestimmt werden. Ferner kann in Block 906 die SMPC-Grenzentfernung mit der LRL-Grenzentfernung verglichen werden. In einer beispielhaften Ausführungsform kann, wenn der SMPC zugeordnete elementare Wert niedriger ist als der LRL zugeordnete elementare Wert, der SMPC zugeordnete elementare Wert verwendet werden, um die Wahrscheinlichkeit abzuschätzen, dass jede der Fahrspuren eine Ego-Fahrspur ist. Daher kann die Grenzentfernung mit einem niedrigeren elementaren Wert verwendet werden, um in Block 908 die Wahrscheinlichkeit abzuschätzen/zu berechnen, dass jede der Fahrspuren eine Ego-Fahrspur ist, beispielsweise kann die Mindestentfernung zwischen der SMPC-Grenzentfernung und der LRL-Grenzentfernung bei der Berechnung der wahrscheinlichsten Ego-Fahrspur helfen.
  • In einer Ausführungsform kann die Mindestentfernung in den Bayes-Filter 112 eingespeist werden. In einer beispielhaften Ausführungsform kann, wenn der der SMPC-Grenzentfernung zugeordnete elementare Wert niedriger ist als der der LRL-Grenzentfernung zugeordnete elementare Wert, der der SMPC-Grenzentfernung zugeordnete elementare Wert in Block 910 in den Bayes-Filter eingespeist werden, um die Fusion der mehreren Sensoren zugeordneten zweiten Fahrspurattribute zu ermöglichen, wobei dadurch die Fahrspurbestimmung des Ego-Fahrzeugs 402 erleichtert wird.
  • Unter Bezugnahme auf 10 kann das Verfahren 1000 in Block 1002 das Erkennen durch mehrere Sensoren, die an vordefinierten Positionen auf dem Ego-Fahrzeug konfiguriert sind, erster Fahrspurattribute innerhalb eines vordefinierten Bereichs von einer Echtzeitposition des Ego-Fahrzeugs beinhalten.
  • In einer Ausführungsform kann das Verfahren 1000 in Block 1004 das Produzieren an einer Navigationseinheit einer Echtzeitkarte beinhalten, die mehrere Fahrspuren umfasst, die innerhalb einer zweiten vordefinierten Entfernung von der Echtzeitposition des Ego-Fahrzeugs vorhanden sind.
  • In einer anderen Ausführungsform kann das Verfahren 1000 in Block 1006 das Empfangen an einer Lokalisierungsvorrichtung in Kommunikation mit den mehreren Sensoren und der Navigationseinheit von Sätzen von Erkennungsdatenpaketen von den mehreren Sensoren beinhalten, die sich auf die erkannten ersten Fahrspurattribute beziehen, und entsprechendes Extrahieren zweiter Fahrspurattribute aus den ersten Fahrspurattributen, die durch jeden der mehreren Sensoren erkannt werden.
  • In einer anderen Ausführungsform kann das Verfahren 1000 in Block 1008 das Empfangen an der Lokalisierungsvorrichtung eines Satzes von Navigationsdatenpaketen von der Navigationseinheit und Ableiten auf Grundlage der produzierten Echtzeitkarte entsprechender Fahrspurattribute, die innerhalb eines ersten vordefinierten Bereichs vorhanden sind, von der Echtzeitposition des Ego-Fahrzeugs beinhalten.
  • In einer anderen Ausführungsform kann das Verfahren 1000 in Block 1010 das Abbilden an der Lokalisierungsvorrichtung durch Übereinstimmen der extrahierten zweiten Fahrspurattribute mit den abgeleiteten Fahrspurattributen und entsprechendes Berechnen eines elementaren Werts für die abgebildeten Fahrspurattribute beinhalten, die jedem der mehreren Sensoren zugeordnet sind.
  • In einer anderen Ausführungsform kann das Verfahren 1000 in Block 1012 das Einbetten an der Lokalisierungsvorrichtung durch die Lokalisierungsvorrichtung der abgebildeten Fahrspurattribute mit dem niedrigsten elementaren Wert in einen Zustandsraumfilter, der eine Fusion der zweiten Fahrspurattribute, die jedem der mehreren Sensoren zugeordnet sind, ermöglicht. In einer weiteren Ausführungsform wird die Wahrscheinlichkeit für jede der mehreren Fahrspur durch das Verfahren 1000 geschätzt, eine Ego-Fahrspur zu sein, unter Berücksichtigung der fusionierten zweiten Fahrspurattribute geschätzt wird, wobei dadurch eine Fahrspurbestimmung des Ego-Fahrzeugs erleichtert wird.
  • In einer Ausführungsform für den Fall, dass die zweiten Fahrspurattribute, die den mehreren Sensoren zugeordnet sind, nicht übereinstimmen, dann die zweiten Fahrspurattribute als mehrdeutige Attribute betrachtet werden können, und wobei das Verfahren 1000 das Berechnen des elementaren Werts für jeden der mehreren Sensoren beinhalten kann, sodass Nichterkennungen durch einen der mehreren Sensoren durch Erkennungen durch die anderen Sensoren gefüllt werden.
  • In einer Ausführungsform beinhaltet das Verfahren 1000 das Zusammenführen der fusionierten zweiten Fahrspurattribute mit der produzierten Echtzeitkarte durch Einpassen der fusionierten zweiten Fahrspurattribute in die produzierte Echtzeitkarte, und das entsprechende Erzeugen eines Wahrscheinlichkeitshistogramms. Ferner kann das Verfahren 1000 das Berechnen eines Satzes von Einpassungsbewertungen auf Grundlage der zusammengeführten fusionierten Fahrspurattribute und der erzeugten Echtzeitkarte aus dem erzeugten Wahrscheinlichkeitshistogramm beinhalten, wobei der berechnete Satz von Einpassungsbewertungen die Wahrscheinlichkeit einer Fahrspur als Ego-Fahrspur angibt.
  • Während das Vorstehende verschiedene Ausführungsformen der Erfindung beschreibt, können andere und weitere Ausführungsformen der Erfindung formuliert werden, ohne von dem grundsätzlichen Umfang davon abzuweichen. Der Umfang der Erfindung wird durch die Ansprüche bestimmt, die folgen. Die Erfindung ist nicht auf die beschriebenen Ausführungsformen, Varianten oder Beispiele beschränkt, die beinhaltet sind, um es einem Durchschnittsfachmann zu ermöglichen, die Erfindung herzustellen und zu verwenden, wenn sie mit den Informationen und Kenntnissen kombiniert werden, die dem Durchschnittsfachmann zur Verfügung stehen.
  • Die vorliegende Offenbarung stellt ein System und Verfahren bereit, das den Prozess der Fahrspurlokalisierung extrem fehlerresistent macht, und überschätzte Grenzabstände zu unterdrücken.
  • Die vorliegende Offenbarung stellt ein System und ein Verfahren zum Lösen des Problems der Erkennung widersprüchlicher Sensoren sowie zum Optimieren der für die Bestimmung der Ego-Fahrspur erforderlichen Laufzeit bereit, sodass Nichterkennungen von einem Sensor durch Erkennungen von dem anderen Sensor gefüllt werden.
  • Die vorliegende Offenbarung stellt ein System und ein Verfahren zum Minimieren der mit der Erkennung zusammenhängenden Redundanz, der Zeit und des verbrauchten Speichers und zum Bereitstellen zuverlässiger Ergebnisse bereitzustellen und dadurch Unterstützung an Fahrzeuge auf Basis des Fahrerassistenzsystems (ADAS) bereitzustellen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102016213783 A1 [0004]
    • EP 3254138 B1 [0005]
    • US 9710714 B2 [0006]

Claims (10)

  1. System (100) für die Bestimmung der Fahrspur eines Ego-Fahrzeugs unter Verwendung von Fahrspurattributen, wobei das System (100) umfasst: mehrere Sensoren, die an vordefinierten Positionen auf dem Ego-Fahrzeug konfiguriert sind, wobei jeder der mehreren Sensoren dazu konfiguriert ist, erste Fahrspurattribute innerhalb eines ersten vordefinierten Bereichs von einer Echtzeitposition des Ego-Fahrzeugs zu erkennen; eine Navigationseinheit (110), die dazu konfiguriert ist, eine Echtzeitkarte zu erzeugen, die mehrere Fahrspuren und einen jeweiligen Satz von Fahrspur- und Positionsattributen umfasst, die in einem zweiten vordefinierten Bereich um die Echtzeitposition des Ego-Fahrzeugs herum vorhanden sind; und eine Lokalisierungsvorrichtung (106), die mit mehreren Sensoren und der Navigationseinheit (110) in Verbindung steht, wobei die Lokalisierungsvorrichtung (106) einen Speicher umfasst, wobei der Speicher eine oder mehrere Anweisungen speichert, die von der Lokalisierungsvorrichtung (106) ausgeführt werden können, zum: Empfangen von Sätzen von Erkennungsdatenpaketen von dem ersten Sensor und entsprechendes Extrahieren des ersten Satzes von Fahrspur- und Positionsattributen aus dem empfangenen ersten Satz von Erkennungsdatenpaketen; Empfangen des zweiten Satzes von Erkennungsdatenpaketen von den mehreren Sensoren, die sich auf die erkannten ersten Fahrspurattribute beziehen, und entsprechendes Extrahieren zweiter Fahrspurattribute aus den ersten Fahrspurattributen, die durch jeden der mehreren Sensoren erkannt werden; Empfangen eines Satzes von Navigationsdatenpaketen von der Navigationseinheit (110) und Ableiten auf Grundlage der produzierten Echtzeitkarte entsprechender Fahrspurattribute, die innerhalb eines ersten vordefinierten Bereichs vorhanden sind, von der Echtzeitposition des Ego-Fahrzeugs; Abbilden durch Übereinstimmen der extrahierten zweiten Fahrspurattribute mit den abgeleiteten Fahrspurattributen und entsprechendes Berechnen eines elementaren Werts für die abgebildeten Fahrspurattribute, die jedem der mehreren Sensoren zugeordnet sind; und Einbetten in einen Zustandsraumfilter (112) der abgebildeten Fahrspurattribute mit dem niedrigsten elementaren Wert, der eine Fusion der zweiten Fahrspurattribute, die jedem der mehreren Sensoren zugeordnet sind, ermöglicht; wobei die Wahrscheinlichkeit für jede der mehreren Fahrspur, eine Ego-Fahrspur zu sein, unter Berücksichtigung der fusionierten zweiten Fahrspurattribute geschätzt wird, wobei dadurch eine Fahrspurbestimmung des Ego-Fahrzeugs erleichtert wird.
  2. System (100) nach Anspruch 1, wobei in dem Fall, dass die zweiten Fahrspurattribute, die den mehreren Sensoren zugeordnet sind, nicht übereinstimmen, das System (100) die zweiten Fahrspurattribute als mehrdeutige Attribute betrachtet, und wobei das System (100) den elementaren Wert für jeden der mehreren Sensoren berechnet, sodass Nichterkennungen durch einen der mehreren Sensoren durch Erkennungen durch die anderen Sensoren aufgefüllt werden.
  3. System (100) nach Anspruch 1, wobei die ersten Fahrspurattribute eine beliebige oder eine Kombination aus durchgezogenen Fahrspurmarkierungen, gestrichelten Fahrspurmarkierungen, Fahrspurbreite, Position des Ego-Fahrzeugs, Entfernung des Ego-Fahrzeugs von den Fahrspurmarkierungen und Abmessungen eines auf der Fahrspur vorhandenen Objekts und Position und Entfernung des Objekts in Bezug auf das Ego-Fahrzeug umfassen; und wobei die zweiten Fahrspurattribute die Entfernung des Ego-Fahrzeugs von einer oder mehreren Barrieren umfassen.
  4. System (100) nach Anspruch 3, wobei die abgeleiteten Fahrspurattribute die Entfernung der einen oder mehreren Begrenzungen von jeder Fahrspur der mehreren Fahrspuren umfassen.
  5. System (100) nach Anspruch 1, wobei der Zustandsraumfilter (112) ein Bayes-Filter ist.
  6. System (100) nach Anspruch 1, wobei die mehreren Sensoren einen beliebigen oder eine Kombination aus einer Stereo-Mehrzweckkamera (SMPC), einem Langstreckenradar (LRR), einem Multimodus-Radar (MMR) und einem Langstrecken-LiDAR-Sensor (LRL) umfassen.
  7. System (100) nach Anspruch 1, wobei das System (100) die fusionierten zweiten Fahrspurattribute mit der erzeugten Echtzeitkarte zusammenführt, indem es die fusionierten zweiten Fahrspurattribute in die erzeugte Echtzeitkarte einpasst und dementsprechend ein Wahrscheinlichkeitshistogramm erzeugt; und wobei das System (100) aus dem erzeugten Wahrscheinlichkeitshistogramm einen Satz von Einpassungsbewertungen auf Grundlage der zusammengeführten fusionierten Fahrspurattribute und der erzeugten Echtzeitkarte aus dem erzeugten Wahrscheinlichkeitshistogramm berechnet, wobei der berechnete Satz von Einpassungsbewertungen die Wahrscheinlichkeit einer Fahrspur als Ego-Fahrspur angibt.
  8. Verfahren (1000) für die Fahrspurbestimmung eines Fahrzeugs unter Verwendung von Fahrspurattributen, wobei das Verfahren (1000) die Schritte umfasst: Erkennen (1002) durch mehrere Sensoren, die an vordefinierten Positionen auf dem Ego-Fahrzeug konfiguriert sind, erster Fahrspurattribute innerhalb eines vordefinierten Bereichs von einer Echtzeitposition des Ego-Fahrzeugs; Produzieren (1004) an einer Navigationseinheit einer Echtzeitkarte, die mehrere Fahrspuren umfasst, die innerhalb einer zweiten vordefinierten Entfernung von der Echtzeitposition des Ego-Fahrzeugs vorhanden sind; Empfangen (1006) an einer Lokalisierungsvorrichtung in Kommunikation mit den mehreren Sensoren und der Navigationseinheit von Sätzen von Erkennungsdatenpaketen von den mehreren Sensoren, die sich auf die erkannten ersten Fahrspurattribute beziehen, und entsprechendes Extrahieren zweiter Fahrspurattribute aus den ersten Fahrspurattributen, die durch jeden der mehreren Sensoren erkannt werden; Empfangen (1008) an der Lokalisierungsvorrichtung eines Satzes von Navigationsdatenpaketen von der Navigationseinheit und Ableiten auf Grundlage der produzierten Echtzeitkarte entsprechender Fahrspurattribute, die innerhalb eines ersten vordefinierten Bereichs vorhanden sind, von der Echtzeitposition des Ego-Fahrzeugs; Abbilden (1010) an der Lokalisierungsvorrichtung durch Übereinstimmen der extrahierten zweiten Fahrspurattribute mit den abgeleiteten Fahrspurattributen und entsprechendes Berechnen eines elementaren Werts für die abgebildeten Fahrspurattribute, die jedem der mehreren Sensoren zugeordnet sind; und Einbetten (1012) durch die Lokalisierungsvorrichtung der abgebildeten Fahrspurattribute mit dem niedrigsten elementaren Wert in einen Zustandsraumfilter, der eine Fusion der zweiten Fahrspurattribute, die jedem der mehreren Sensoren zugeordnet sind, ermöglicht; wobei die Wahrscheinlichkeit für jede der mehreren Fahrspur, eine Ego-Fahrspur zu sein, unter Berücksichtigung der fusionierten zweiten Fahrspurattribute geschätzt wird, wobei dadurch eine Fahrspurbestimmung des Ego-Fahrzeugs erleichtert wird.
  9. Verfahren (1000) nach Anspruch 8, wobei in dem Fall, dass die zweiten Fahrspurattribute, die den mehreren Sensoren zugeordnet sind, nicht übereinstimmen, die zweiten Fahrspurattribute als mehrdeutige Attribute betrachtet werden, und wobei das Verfahren (1000) das Berechnen des elementaren Wertes für jeden der mehreren Sensoren umfasst, sodass Nichterkennungen durch einen der mehreren Sensoren durch Erkennungen durch die anderen Sensoren aufgefüllt werden.
  10. Verfahren (1000) nach Anspruch 8, wobei das Verfahren (1000) das Zusammenführen der fusionierten zweiten Fahrspurattribute mit der produzierten Echtzeitkarte durch Einpassen der fusionierten zweiten Fahrspurattribute in die produzierte Echtzeitkarte, und das entsprechende Erzeugen eines Wahrscheinlichkeitshistogramms umfasst; und wobei das Verfahren (1000) das Berechnen aus dem erzeugten Wahrscheinlichkeitshistogramm eines Satzes von Einpassungsbewertungen auf Grundlage der zusammengeführten fusionierten Fahrspurattribute und der erzeugten Echtzeitkarte aus dem erzeugten Wahrscheinlichkeitshistogramm umfasst, wobei der berechnete Satz von Einpassungsbewertungen die Wahrscheinlichkeit einer Fahrspur als Ego-Fahrspur angibt.
DE102022004774.8A 2021-12-21 2022-12-16 System für die Fahrspurbestimmung eines Ego-Fahrzeugs unter Verwendung von Fahrspurattributen und Verfahren davon Pending DE102022004774A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN202111059756 2021-12-21
IN202111059756 2021-12-21

Publications (1)

Publication Number Publication Date
DE102022004774A1 true DE102022004774A1 (de) 2023-06-22

Family

ID=86606403

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022004774.8A Pending DE102022004774A1 (de) 2021-12-21 2022-12-16 System für die Fahrspurbestimmung eines Ego-Fahrzeugs unter Verwendung von Fahrspurattributen und Verfahren davon

Country Status (1)

Country Link
DE (1) DE102022004774A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9710714B2 (en) 2015-08-03 2017-07-18 Nokia Technologies Oy Fusion of RGB images and LiDAR data for lane classification
DE102016213783A1 (de) 2016-07-27 2018-02-01 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeugs relativ zu den Fahrstreifen einer Fahrbahn
EP3254138B1 (de) 2015-02-04 2019-03-13 Audi AG Verfahren zur ermittlung einer querpositionsinformation eines kraftfahrzeugs auf einer fahrbahn und kraftfahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3254138B1 (de) 2015-02-04 2019-03-13 Audi AG Verfahren zur ermittlung einer querpositionsinformation eines kraftfahrzeugs auf einer fahrbahn und kraftfahrzeug
US9710714B2 (en) 2015-08-03 2017-07-18 Nokia Technologies Oy Fusion of RGB images and LiDAR data for lane classification
DE102016213783A1 (de) 2016-07-27 2018-02-01 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeugs relativ zu den Fahrstreifen einer Fahrbahn

Similar Documents

Publication Publication Date Title
EP3380811B1 (de) Verfahren und system zum erstellen einer digitalen karte
DE102010006828B4 (de) Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
EP2561419B1 (de) Verfahren zur bestimmung des fahrbahnverlaufes für ein kraftfahrzeug
DE112014004990B4 (de) Verfahren zum Erzeugen exakter Fahrspurebenen-Karten
WO2017016799A1 (de) Bestimmung einer anordnungsinformation für ein fahrzeug
DE102011120497B4 (de) Systeme und Verfahren zur präzisen Fahrzeugpositionsbestimmung innerhalb einer Fahrspur
EP3380810B1 (de) Verfahren, vorrichtung, kartenverwaltungseinrichtung und system zum punktgenauen lokalisieren eines kraftfahrzeugs in einem umfeld
EP3490862B1 (de) Verfahren und vorrichtung zum ermitteln eines fahrbahnmodells für ein fahrzeugumfeld
WO2018019466A1 (de) Verfahren und system zum erfassen von landmarken in einem verkehrsumfeld einer mobilen einheit
DE112017007327T5 (de) Fahrzeugpositions-schätzvorrichtung
DE112015006622T5 (de) Fahrspurbestimmungsvorrichtung und Fahrspurbestimmungsverfahren
DE102016214030A1 (de) Verfahren und System zum Erfassen eines Verkehrsumfeldes einer mobilen Einheit
DE102015000399B4 (de) Kartographieren von Fahrspuren mittels Fahrzeugflottendaten
WO2020104551A1 (de) Objekterkennung mittels sensorsystem von fahrzeugen
DE112017008071B4 (de) Verfahren und System zur globalen Lokalisierung
DE102013001867A1 (de) Verfahren zur Ermittlung einer Fahrzeugorientierung und/oder einer korrigierten Fahrzeugposition eines Kraftfahrzeugs und Kraftfahrzeug
DE102022004774A1 (de) System für die Fahrspurbestimmung eines Ego-Fahrzeugs unter Verwendung von Fahrspurattributen und Verfahren davon
DE102019111656A1 (de) Simultane diagnose und formschätzung aus einem von wegsensoren abgeleiteten wahrnehmungssystem
DE102022002768A1 (de) System und Verfahren für die Spulokalisierung eines Fahrzeugs
DE102020116225B3 (de) Verfahren zum radarbasierten Nachverfolgen von fahrzeugexternen Objekten, Objektnachverfolgungseinrichtung und Kraftfahrzeug
DE102022004633A1 (de) System und Verfahren zur Fahrspurbestimmung von Ego-Fahrzeugen
DE102013217061A1 (de) Spurgenaue Positionierung eines Fahrzeugs
DE102023004673A1 (de) System und Verfahren zur Validierung des Strassenänderabstands bei der Ego-Lane-Schätzung
DE102022002921A1 (de) System für die Wegbestätigung eines Fahrzeugs und Verfahren davon
DE112022001225T5 (de) Aussenumgebungs-erkennungsvorrichtung und aussenumgebungs-erkennungssystem