DE102020127001A1 - Bildbasierte dreidimensionale fahrbahnerkennung - Google Patents

Bildbasierte dreidimensionale fahrbahnerkennung Download PDF

Info

Publication number
DE102020127001A1
DE102020127001A1 DE102020127001.1A DE102020127001A DE102020127001A1 DE 102020127001 A1 DE102020127001 A1 DE 102020127001A1 DE 102020127001 A DE102020127001 A DE 102020127001A DE 102020127001 A1 DE102020127001 A1 DE 102020127001A1
Authority
DE
Germany
Prior art keywords
image
points
anchor
lane
markings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020127001.1A
Other languages
English (en)
Inventor
Dan Levi
Noa Garnett
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102020127001A1 publication Critical patent/DE102020127001A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/543Depth or shape recovery from line drawings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20168Radial search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Electromagnetism (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Biomedical Technology (AREA)
  • Traffic Control Systems (AREA)

Abstract

Systeme und Verfahren zur Durchführung bildbasierter dreidimensionaler (3D) Fahrbahnerkennung beinhalten die Erfassung bekannter 3D-Punkte einer oder mehrerer Fahrbahnmarkierungen in einem Bild, das die eine oder mehreren Fahrbahnmarkierungen enthält. Das Verfahren umfasst die Überlagerung eines Gitters von Ankerpunkten auf dem Bild. Jeder der Ankerpunkte ist ein Mittelpunkt von i konzentrischen Kreisen. Das Verfahren umfasst auch die Erzeugung eines i-Längenvektors und das Setzen eines Indikatorwertes für jeden der Ankerpunkte auf der Grundlage der bekannten 3D-Punkte als Teil eines Trainingsprozesses eines neuronalen Netzes sowie die Verwendung des neuronalen Netzes, um 3D-Punkte einer oder mehrerer Fahrbahnmarkierungen in einem zweiten Bild zu erhalten.

Description

  • EINLEITUNG
  • Die vorliegende Offenbarung bezieht sich auf die bildbasierte dreidimensionale (3D) Fahrbahnerkennung.
  • Fahrzeuge (z.B. Automobile, Lastkraftwagen, Baumaschinen, landwirtschaftliche Geräte, automatisierte Fabrikausrüstungen) sind zunehmend mit autonomen oder halbautonomen Betriebsfähigkeiten verfügbar. Der autonome oder halbautonome Betrieb (z.B. Kollisionsvermeidung, adaptive Geschwindigkeitsregelung, automatisches Bremsen, Fahrbahnverlassenserkennung) stützt sich auf Sensoren, die Informationen über das Fahrzeug und seine Umgebung erfassen. Zu den beispielhaften Sensoren gehören Kameras, Radarsysteme und Lidarsysteme. Zu den beispielhaften Informationen, die von den Sensoren erfasst werden, gehören der Betriebszustand des Fahrzeugs (z.B. Geschwindigkeit, Kurs, Gierrate) und Kontextinformationen (z.B. Position des Fahrzeugs innerhalb der Fahrbahn oder relativ zum benachbarten Fahrzeug). Die Erkennung von Fahrbahnen, die durch die Erkennung von Fahrbahnlinien, Mittellinien und anderen Fahrbahnmarkierungen auf der Straße erleichtert wird, ist für viele halbautonome Operationen sowie für den autonomen Betrieb erforderlich. Dementsprechend ist es wünschenswert, eine bildbasierte dreidimensionale (3D) Fahrbahnerkennung bereitzustellen.
  • BESCHREIBUNG
  • In einer beispielhaften Ausführungsform umfasst ein Verfahren zur Durchführung einer bildbasierten dreidimensionalen (3D) Fahrbahnerkennung das Erhalten bekannter 3D-Punkte einer oder mehrerer Fahrbahnmarkierungen in einem Bild, das die eine oder mehreren Fahrbahnmarkierungen enthält, und die Überlagerung des Bildes mit einem Gitter von Ankerpunkten. Jeder der Ankerpunkte ist ein Mittelpunkt von i konzentrischen Kreisen. Das Verfahren umfasst auch die Erzeugung eines i-Längenvektors und das Setzen eines Indikatorwertes für jeden der Ankerpunkte auf der Grundlage der bekannten 3D-Punkte als Teil eines Trainingsprozesses eines neuronalen Netzes sowie die Verwendung des neuronalen Netzes, um 3D-Punkte einer oder mehrerer Fahrbahnmarkierungen in einem zweiten Bild zu erhalten.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Verfahren für jede der einen oder mehreren Fahrbahnmarkierungen die Bestimmung eines der Ankerpunkte, der einem Startpunkt der einen der einen oder mehreren Fahrbahnmarkierungen am nächsten liegt, als zugeordneten Ankerpunkt der einen der einen oder mehreren Fahrbahnmarkierungen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Verfahren für jede der einen oder mehreren Fahrbahnmarkierungen das Erhalten eines Schnittes der einen der einen oder mehreren Fahrbahnmarkierungen mit jedem konzentrischen Kreis des zugeordneten Ankerpunktes und einer Elevation am Schnitt.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale enthält der i-Längenvektor für den zugeordneten Ankerpunkt, der mit jeder der einen oder mehreren Fahrbahnmarkierungen verbunden ist, i-Paare des Schnitts und der Elevation, die den i konzentrischen Kreisen und dem Indikatorwert 1 zugeordnet sind.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale hat für jeden der Ankerpunkte, der nicht zu den zugeordneten Ankerpunkten gehört, der i-Längenvektor Werte von <0, 0> und der Indikatorwert ist 0 oder ein Wert größer als 0, aber kleiner als 1.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Verfahren die Überlagerung des Gitters von Ankerpunkten und der konzentrischen Kreise, die mit jedem der Ankerpunkte auf dem zweiten Bild korrespondieren.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Verfahren das Erhalten eines i-Längenvektors für jeden der Ankerpunkte auf dem zweiten Bild.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst die Verwendung des neuronalen Netzes zum Erhalten der 3D-Punkte der einen oder mehreren Fahrbahnmarkierungen im zweiten Bild das Übersetzen des i-Längenvektors für jeden der Ankerpunkte auf dem zweiten Bild in die 3D-Punkte der einen oder mehreren Fahrbahnmarkierungen in dem zweiten Bild basierend auf dem Trainingsprozess des neuronalen Netzes.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Verfahren die Aufnahme des zweiten Bildes mit einer Fahrzeugkamera.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Verfahren die Durchführung eines autonomen oder halbautonomen Betriebs des Fahrzeugs unter Verwendung der 3D-Punkte der einen oder mehreren Fahrbahnmarkierungen im zweiten Bild.
  • In einer anderen beispielhaften Ausführungsform umfasst ein System zur bildbasierten dreidimensionalen (3D) Fahrbahnerkennung eine Kamera, um ein Bild mit einer oder mehreren Fahrbahnmarkierungen zu erhalten, und eine Steuerung, um bekannte 3D-Punkte der einen oder mehreren Fahrbahnmarkierungen im Bild zu erhalten und ein Gitter von Ankerpunkten auf dem Bild zu überlagern. Jeder der Ankerpunkte ist ein Mittelpunkt von i konzentrischen Kreisen. Die Steuerung erzeugt auch einen i-Längenvektor und einen Indikatorwert für jeden der Ankerpunkte auf der Grundlage der bekannten 3D-Punkte als Teil eines Trainingsprozesses eines neuronalen Netzes und verwendet das neuronale Netz, um 3D-Punkte einer oder mehrerer Fahrbahnmarkierungen in einem zweiten Bild zu erhalten.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale bestimmt die Steuerung für jede der einen oder mehreren Fahrbahnmarkierungen einen der Ankerpunkte, der einem Startpunkt der einen oder mehreren Fahrbahnmarkierungen am nächsten liegt, als zugeordneten Ankerpunkt der einen der einen oder mehreren Fahrbahnmarkierungen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale erhält die Steuerung für jede der einen oder mehreren Fahrbahnmarkierungen einen Schnitt der einen oder mehreren Fahrbahnmarkierungen mit jedem konzentrischen Kreis des zugeordneten Ankerpunktes und eine Elevation am Schnitt.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale bestimmt die Steuerung für den zugeordneten Ankerpunkt, der jeder der einen oder mehreren Fahrbahnmarkierungen zugeordnet ist, den i-Längenvektor als i-Paare des Schnittes und der Elevation, die den i konzentrischen Kreisen und dem Indikatorwert als 1 zugeordnet sind.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale bestimmt die Steuerung für jeden der Ankerpunkte, der nicht zu den zugeordneten Ankerpunkten gehört, den i-Längenvektor als i-Werte von <0, 0> und den Indikatorwert als 0 oder einen Wert größer als 0, aber kleiner als 1.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale überlagert die Steuerung das Gitter der Ankerpunkte und die konzentrischen Kreise, die mit jedem der Ankerpunkte auf dem zweiten Bild korrespondieren.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale erhält die Steuerung einen i-Längenvektor für jeden der Ankerpunkte auf dem zweiten Bild.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale übersetzt die Steuerung den i-Längenvektor für jeden der Ankerpunkte auf dem zweiten Bild in die 3D-Punkte der einen oder mehreren Fahrbahnmarkierungen in dem zweiten Bild, basierend auf dem Trainingsprozess des neuronalen Netzes.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale erhält die Kamera das zweite Bild, und die Kamera befindet sich in einem Fahrzeug.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale führt die Steuerung einen autonomen oder halbautonomen Betrieb des Fahrzeugs unter Verwendung der 3D-Punkte der einen oder mehreren Fahrbahnmarkierungen im zweiten Bild durch.
  • Die oben genannten Merkmale und Vorteile sowie andere Merkmale und Vorteile der Offenbarung sind aus der folgenden detaillierten Beschreibung einfach ersichtlich, wenn sie in Verbindung mit den beigefügten Zeichnungen genommen werden.
  • Figurenliste
  • Weitere Merkmale, Vorteile und Details erscheinen lediglich beispielhaft in der folgenden ausführlichen Beschreibung, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, in denen:
    • 1 ein Blockdiagramm eines Fahrzeugs ist, das eine bildbasierte dreidimensionale Fahrbahnerkennung durchführt, gemäß einer oder mehrerer Ausführungsformen;
    • 2 Aspekte eines Trainings eines neuronalen Netzes zur Durchführung einer bildbasierten dreidimensionalen Fahrbahnerkennung veranschaulicht, gemäß einer oder mehrerer Ausführungsformen;
    • 3 zusätzliche Aspekte des Trainingsprozesses veranschaulicht, der verwendet wird, um bildbasierte dreidimensionale Fahrbahnerkennung durchzuführen, gemäß einer oder mehrerer Ausführungsformen; und
    • 4 ein Prozessablauf eines Verfahrens zur Durchführung einer bildbasierten dreidimensionalen Fahrbahnerkennung ist, gemäß einer oder mehrerer Ausführungsformen.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende Beschreibung hat lediglich beispielhaften Charakter und soll die vorliegende Offenbarung, ihre Anwendung oder Verwendungen nicht einschränken. Es ist zu verstehen, dass in den Zeichnungen durchgehend gleiche Referenzziffern auf gleiche oder entsprechende Teile und Merkmale hinweisen.
  • Wie bereits erwähnt, erfordert der autonome oder teilautonome Betrieb eines Fahrzeugs Informationen über das Fahrzeug und seine Umgebung. Zu den Informationen, die für den Fahrzeugbetrieb benötigt werden, gehört eine genaue Erfassung der auf der Fahrspur ausgewiesenen Fahrbahnen. Diese Informationen sind erforderlich, um einen sicheren Betrieb und eine autonome oder teilautonome Navigation des Fahrzeugs zu gewährleisten. Während die Fahrbahnerkennung auf Autobahnen oder in städtischen Gebieten zwischen Kreuzungen weniger problematisch ist, ist die Fahrbahnerkennung durch Kreuzungen oder in Bereichen, in denen sich Fahrbahnen kreuzen, komplizierter. Dies liegt an der Krümmung der Fahrbahnen (z.B. Fahrbahn, die eine 90-Grad-Kurve anzeigt). Im Allgemeinen müssen gemäß vorherigen Ansätzen relativ gerade Fahrbahnsegmente auf beiden Seiten einer Kreuzung erkannt und z.B. heuristisch kombiniert werden. Dies kann zu unzuverlässigen Ergebnissen führen. Die Ausführungsformen der hier beschriebenen Systeme und Verfahren beziehen sich auf die bildbasierte 3D-Fahrbahnerkennung. Konkret wird ein Ende-zu-Ende-Tiefenlernansatz (end-to-end deep learning approach) verwendet, um 3D-Punkte einer Fahrbahnlinie, Mittellinie oder ähnliches (hier zu Erklärungszwecken als Fahrbahnmarkierung bezeichnet) in Echtzeit auf der Grundlage eines Trainingsprozesses auszugeben. Der kurvenbasierte Ansatz zur Darstellung von Fahrbahnmarkierungen zu Trainingszwecken gemäß einer oder mehrerer Ausführungsformen eignet sich besser für Kreuzungen und Übergänge, bei denen die Fahrbahnen in der Regel nicht gerade sind. In Echtzeit werden die 3D-Punkte von Fahrbahnmarkierungen in einem Bild auf der Grundlage eines Wertevektors relativ zu Ankerpunkten, deren Positionen bekannt sind, bereitgestellt.
  • Gemäß einer beispielhaften Ausführungsform ist 1 ein Blockdiagramm eines Fahrzeugs 100, das eine bildbasierte 3D-Fahrbahnerkennung durchführt. Das beispielhafte Fahrzeug 100 in 1 ist ein Automobil 101. Das Fahrzeug 100 ist mit Kameras 110, einem Radarsystem 130 und einem Lidarsystem 140 dargestellt. Diese beispielhaften Sensoren sind nicht dazu gedacht, die Anzahl oder Platzierung zusätzlicher Sensoren im und am Fahrzeug 100 zu begrenzen. Zum Beispiel kann die Anzahl und Platzierung der Kameras 110 so konfiguriert werden, dass eine 360-Grad-Sicht um das Fahrzeug 100 herum entsteht. Eine Steuerung 120 ist ebenfalls abgebildet. Die Steuerung 120 kann die Fahrbahnerkennung und andere Informationen nutzen, um einen oder mehrere Aspekte des Betriebs des Fahrzeugs 100 zu steuern.
  • Gemäß einer oder mehrerer Ausführungsvarianten verwendet die Steuerung 120 auch Bilder einer oder mehrerer Kameras 110, um eine 3D-Darstellung einer Fahrbahnmarkierung 210 (2) (z.B. Fahrbahnlinie, Mittellinie) in der Nähe des Fahrzeugs 100 zu erhalten. Dazu trainiert die Steuerung 120 zunächst ein neuronales Netz. Konkret wird ein Ende-zu-Ende-Tiefenlernen verwendet. Beim Tiefenlernen werden die Algorithmen in Schichten strukturiert, um ein neuronales Netz zu schaffen, das selbstständig lernen und Ergebnisse liefern kann. Ende-zu-Ende zeigt an, dass eine Nachbearbeitung (z.B. Clustering, Kurvenanpassung) der Ausgabe des neuronalen Netzes nicht erforderlich ist. Stattdessen ist die Ausgabe des neuronalen Netzes im Echtzeiteinsatz nach dem Training die endgültige gewünschte Ausgabe (d.h. 3D-Darstellungen aller Fahrbahnmarkierungen 210 im Bild). Die Steuerung 120 umfasst eine Verarbeitungsschaltung, die eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder als Gruppe) und einen Speicher, der ein oder mehrere Software- oder Firmware-Programme ausführt, eine kombinierte Logikschaltung und/oder andere geeignete Komponenten, die die beschriebene Funktionalität bereitstellen, umfassen kann.
  • 2 veranschaulicht Aspekte des Trainings eines neuronalen Netzes zur Durchführung einer bildbasierten 3D-Fahrbahnerkennung gemäß einer oder mehrerer Ausführungsformen. Es wird ein Draufsichtbild einer beispielhaften Fahrbahnmarkierung 210 gezeigt. Im Trainingsprozess, der unter Bezugnahme auf 4 weiter diskutiert wird, werden bekannte 3D-Punkte einer Fahrbahnmarkierung 210 verwendet, um einen Vektor relativ zu einem Ankerpunkt 220 zu erhalten, wie beschrieben. Ein Ankerpunkt 220 ist der Mittelpunkt von drei exemplarischen konzentrischen Kreisen 230. Jeder der konzentrischen Kreise 230 repräsentiert einen radialen Abstand (z.B. 10 Meter (m), 20 m und 50 m) vom Ankerpunkt 220, wie angegeben. Der Schnitt 240 der Fahrbahnmarkierung 210 mit jedem konzentrischen Kreis 230 ist angegeben und wird mit I1, I2 und I3 bezeichnet. Die 3D-Positionen von I1, I2 und I3 sind während des Trainingsprozesses bekannt (d.h. es handelt sich um die Bodenwahrheit). Diese Positionen werden mit Hilfe des neuronalen Netzes des Trainings in Echtzeit bestimmt. Jeder der drei beispielhaften Schnitte 240 in 2 kann als <xi, zi> dargestellt werden, wobei i = 1, 2 oder 3 im Beispielfall ist. Jedes xi kann ein Winkel zwischen einer Linie vom Ankerpunkt 220 zum entsprechenden Schnitt 240 und einer x-Achsen-Linie, sin(Winkel) oder eine andere Darstellung des Schnittes 240 relativ zum Ankerpunkt 220 sein, und jedes zi ist eine Elevation am Schnitt 240. Da die Schnitte 240 der Fahrbahnmarkierung 210 mit konzentrischen Kreisen 230 von Interesse sind und nicht die Schnitte mit Linien, kommt dieser radiale Ansatz gemäß einer oder mehrerer Ausführungsformen jeder Form oder Richtung der Fahrbahn entgegen (d.h. jede Richtung schneidet sich mit einem Kreis, aber nicht unbedingt mit einer Linie).
  • Wie unter Bezugnahme auf 3 diskutiert, kann ein Vektor von <xi, zi> Werten für jede Fahrbahnmarkierung 210 in einem Bild als Teil des Trainingsprozesses des von der Steuerung 120 implementierten neuronalen Netzes erhalten werden. Das heißt, der Prozess des Erhaltens eines Vektors von <xi, z1> Werten für 3D-Punkte einer Fahrbahnmarkierung 210, der mit Bezug auf 2 diskutiert wird, wird während des Trainingsprozesses iterativ für verschiedene Fahrbahnmarkierungen 210 wiederholt. Der Ankerpunkt 220 und die entsprechenden konzentrischen Kreise 230, die zur Bestimmung des Vektors <xi, zi> für verschiedene Fahrbahnmarkierungen 210 verwendet werden, können unterschiedlich sein. Die Bestimmung, welcher Ankerpunkt 220 und entsprechenden konzentrischen Kreise 230 zu verwenden sind, wird unter Bezugnahme auf 3 diskutiert. Einige Ankerpunkte 220 mögen keiner Fahrbahn 210 zugeordnet werden. So kann jeder Ankerpunkt 220 einem Vektor der Länge i zugeordnet werden, wobei i die Anzahl der konzentrischen Kreise ist, die mit dem Ankerpunkt 220 korrespondieren. Darüber hinaus kann jedem Ankerpunkt 220 ein Indikator (z.B. 0, 1) zugeordnet werden, der angibt, ob eine Fahrbahnmarkierung 210 mit diesem Ankerpunkt 220 verbunden ist oder nicht. Das Training des neuronalen Netzes unter Verwendung der i-Längenvektoren und der entsprechenden Indikatorwerte wird unter Bezugnahme auf 4 weiter diskutiert.
  • 3 veranschaulicht zusätzliche Aspekte des Trainingsprozesses, der Teil der bildbasierten 3D-Fahrbahnerkennung gemäß einer oder mehrerer Ausführungsformen ist. Weiterführend wird auf 2 verwiesen. 3 zeigt ein Draufsichtbild, das beispielhafte Fahrbahnmarkierungen 210 zu Erklärungszwecken zeigt. Im Einzelnen sind die Fahrbahnmarkierungen 210a, 210b, 210c und 210d angegeben. Das Bild ist mit Anmerkungen versehen, die auf ein Gitter von Ankerpunkten 220 und die entsprechenden konzentrischen Kreise 230 hinweisen. Es wird davon ausgegangen, dass jede Fahrbahnmarkierung 210 eine Richtung und damit einen Startpunkt 310 innerhalb des Bildes hat. Die jeweiligen Startpunkte 310a, 310b (im Allgemeinen 310) der Fahrbahnmarkierungen 210a und 210b sind angegeben. Da die Darstellung in 3 Teil des Trainingsprozesses ist, sind die 3D-Punkte jeder der Fahrbahnmarkierungen 210a, 210b, 210c, 210d bekannt.
  • Der Ankerpunkt 220, der dem Startpunkt 310 einer gegebenen Fahrbahnmarkierung 210 am nächsten liegt, ist der Ankerpunkt 220, der der Fahrbahnmarkierung 210 für die Zwecke der Bestimmung des i-Längenvektors zugeordnet ist. Während jeder Ankerpunkt 220 mit nur zwei konzentrischen Kreisen 230 dargestellt wird, sollte verstanden werden, dass die Anzahl der konzentrischen Kreise 230 und der Abstand zwischen benachbarten der konzentrischen Kreise 230 nicht begrenzt ist. Je grösser die Anzahl der konzentrischen Kreise 230 (d.h. je grösser der Wert von i) und je kleiner der Abstand zwischen ihnen, desto grösser ist die Granularität in den erhaltenen Vektoren. Je größer der größte der konzentrischen Kreise 230 ist, desto größer ist auch die Wahrscheinlichkeit, dass ein wesentlicher Teil einer gegebenen Fahrbahnmarkierung 210 mit den konzentrischen Kreisen 230 interagiert (d.h. die gegebene Fahrbahnmarkierung 210 befindet sich innerhalb der konzentrischen Kreise 230).
  • Wie bereits erwähnt, werden die konzentrischen Kreise 230, die dem Ankerpunkt 220 zugeordnet sind, der dem Startpunkt 310 einer Fahrbahnmarkierung 210 am nächsten liegt, verwendet, um die Schnittpunkte 240 und den i-Längenvektor für die Fahrbahn 210 zu erhalten, gemäß dem unter Bezugnahme auf 2 diskutierten Verfahren. Einige Ankerpunkte 220 im Gitter liegen möglicherweise nicht am nächsten zum Startpunkt 310 einer Fahrbahnmarkierung 210. Zum Beispiel kann der Ankerpunkt 220x, der nicht einer der Ankerpunkte 220a, 220b, 220c, 220d ist, der einer der beispielhaften Fahrbahnmarkierungen 210a, 210b, 210c, 210d zugeordnet ist, einen Indikatorwert von 0 haben, um anzuzeigen, dass keine Fahrbahnmarkierung 210 mit ihm verbunden ist. Da sich der Startpunkt 310c der Fahrbahnmarkierung 210c zwischen den Ankerpunkten 220c und 220x befindet, kann der dem Ankerpunkt 220x zugeordnete Indikatorwert, der anzeigt, ob eine Fahrbahnmarkierung 210 diesem Ankerpunkt 220 zugeordnet ist oder nicht, alternativ einen Wert zwischen 0 und 1 haben. Außerdem schneidet sich die Fahrbahnmarkierung 210c mit einem der konzentrischen Kreise 230, die dem Ankerpunkt 220x zugeordnet sind, wie in 3 angegeben. Somit wird einer der i-Vektorwerte den entsprechenden <xi, zi> Wert dieses Schnittes anzeigen. Die feste Größe (i x 2) des Vektors für jeden Ankerpunkt 220, unabhängig davon, ob eine Fahrbahnmarkierung 210 dem Ankerpunkt 220 zugeordnet ist oder nicht, erleichtert das Training eines neuronalen Netzes, wie in 4 weiter diskutiert.
  • Im Allgemeinen werden als Eingabe für den Trainingsprozess für das neuronale Netz bodenwahre (d.h. bekannte) 3D-Punkte von Fahrbahnmarkierungen 210 und entsprechende Bilder verwendet. Unter Verwendung des unter Bezugnahme auf 2 und 3 besprochenen Prozesses werden für jeden Ankerpunkt 220 in einem Gitter von Ankerpunkten 220 auf der Grundlage der 3D-Punkte i-Längenvektoren und entsprechende Indikatorwerte bestimmt. Das heißt, das Training des neuronalen Netzes umfasst die Erzeugung von Bodenwahrheits-Vektordarstellungen aus bodenwahren 3D-Punkten, die jeder Fahrbahnmarkierung 210 eines Satzes von Fahrbahnmarkierungen 210 entsprechen. Anschließend wird in Echtzeit ein Bild mit den Fahrbahnmarkierungen 210 erzeugt. Die Steuerung 120 verwendet das trainierte neuronale Netz, um Vektoren zu erzeugen, die jeder im Bild angezeigten Fahrbahnmarkierung 210 entsprechen. D.h. die 3D-Punkte der Fahrbahnmarkierungen 210 sind in Echtzeit nicht bekannt, aber die Überlagerung der Ankerpunkte 220 und der entsprechenden konzentrischen Kreise 230 erleichtert es, die Vektoren entsprechend dem unter Bezugnahme auf 2 und 3 diskutierten Verfahren zu erhalten. Auf der Grundlage dieser Vektoren liefert das trainierte neuronale Netz 3D-Punkte für jede Fahrbahnmarkierung 210. Die Bereitstellung der 3D-Punkte basiert auf dem Training des neuronalen Netzes hinsichtlich der Korrespondenz zwischen den Vektoren und den zugeordneten Ankerpunkten 220 und den 3D-Punkten.
  • 4 ist ein Prozessablauf eines Verfahrens 400 zur Durchführung einer bildbasierten 3D-Fahrbahnerkennung gemäß einer oder mehrerer Ausführungsformen. Es wird weiter auf 2 und 3 verwiesen. Prozesse, die Teil der Trainingsphase 410 sind, werden von Prozessen unterschieden, die Teil der Echtzeit-Anwendungsphase 430 sind. Die Prozesse der Trainingsphase 410 können iterativ für mehrere Bilder, die Fahrbahnmarkierungen 210 enthalten, durchgeführt werden. Bei Block 415 umfassen die Prozesse der Trainingsphase 410 das Erhalten eines Bildes und einer Liste von 3D-Punkten, die jeder Fahrbahnmarkierung 210 im Bild zugeordnet sind. Im Block 420 umfasst die Zuordnung jeder Fahrbahnmarkierung 210 zu einem Ankerpunkt 220 die Überlagerung eines Gitters von Ankerpunkten 220 auf dem Bild, wie in 3 gezeigt, und die Bestimmung des Ankerpunktes 220, der einem Startpunkt 310 jeder Fahrbahnmarkierung 210 am nächsten liegt.
  • In Block 425 bezieht sich die Erzeugung eines Vektors für jeden Ankerpunkt 220 des Gitters auf die Erzeugung eines i-Längenvektors für jeden Ankerpunkt 220, wie unter Bezugnahme auf 2 und 3 diskutiert. Wie diskutiert, ist i die Anzahl der konzentrischen Kreise 230, die jedem Ankerpunkt 220 zugeordnet sind. Zusätzlich wird auch ein Indikatorwert für jeden Ankerpunkt 220 im Block 425 bestimmt. Dieser Indikatorwert gibt an, ob dieser Ankerpunkt 220 einer Fahrbahnmarkierung 210 zugeordnet ist oder nicht. Alternativ kann der Indikatorwert auch die Wahrscheinlichkeit angeben, dass ein bestimmter Ankerpunkt 220 einer Fahrbahnmarkierung 210 zugeordnet ist (z.B. ein Wert zwischen 0 und 1). Wie bereits erwähnt, können die Prozesse an den Blöcken 415, 420 und 425 für verschiedene Bilder einschließlich verschiedener Fahrbahnmarkierungen 210 mit bekannten 3D-Punkten wiederholt werden, um das neuronale Netz auf die Übersetzung zwischen 3D-Punkten und Vektoren zu trainieren.
  • Bei Block 435 umfassen die Prozesse der Echtzeit-Anwendungsphase 430 das Erhalten eines Bildes mit einer oder mehreren Kameras 110 des Fahrzeugs 100. Zum Beispiel kann ein kombiniertes Bild, wie z.B. ein 360-Grad-Umfeldbild, durch Zusammenfügen von Bildern verschiedener Kameras 110 erhalten werden. Alternativ kann auch ein einzelnes Bild von einer einzigen Kamera 110 erhalten werden. In Block 440 bezieht sich die Erzeugung eines Vektors pro Fahrbahnmarkierung 210 auf die Überlagerung eines Gitters von Ankerpunkten 220 auf dem in Block 415 erhaltenen Bild und die Durchführung des unter Bezugnahme auf 2 und 3 besprochenen Verfahrens. Konkret enthält jeder Ankerpunkt 220 des Gitters i entsprechende konzentrische Kreise 230, und der Vektor ist ein i-Längenvektor, der erzeugt wird, ohne die 3D-Punkte der Fahrbahnmarkierung 210 zu kennen, wobei jedoch der Schnitt der Fahrbahnmarkierung 210 mit den konzentrischen Kreisen 230 eines Ankerpunktes 220 bekannt ist. Der relevante Ankerpunkt 220 ist der Ankerpunkt 210, der dem Startpunkt 310 der Fahrbahnmarkierung 210 am nächsten liegt. Auch hier kann für jeden Ankerpunkt 220 ein Indikatorwert festgelegt werden, um seine Relevanz in Bezug auf jede Fahrbahnmarkierung 210 anzuzeigen (d.h. die Wahrscheinlichkeit, dass der Ankerpunkt 220 dem Startpunkt 310 einer Fahrbahnmarkierung 210 am nächsten liegt).
  • Im Block 445 bezieht sich das Setzen des Startpunktes jeder Fahrbahnmarkierung 210 als korrespondierender Ankerpunkt 220 auf das Setzen des 3D-Punktes des Startpunktes 310 der Fahrbahnmarkierung 210 als bekannter 3D-Punkt des korrespondierenden Ankerpunktes 220. Bei Block 450 bezieht sich die Übersetzung des bei Block 440 erzeugten Vektors in 3D-Punkte der Fahrbahnmarkierung 210 auf die Verwendung des neuronalen Netzes, das durch die Erzeugung von Vektoren aus bekannten 3D-Punkten in der Trainingsphase 410 trainiert wurde. Die 3D-Punkte der Fahrbahnmarkierung 210, die die Position der korrespondierenden Fahrbahn relativ zum Fahrzeug 100 anzeigen, können zur autonomen oder halbautonomen Navigation des Fahrzeugs 100 verwendet werden.
  • Während die obige Offenbarung unter Bezugnahme auf beispielhafte Ausführungsformen beschrieben wurde, wird es von den Fachleuten verstanden werden, dass verschiedene Änderungen vorgenommen werden können und Elemente davon durch Äquivalente ersetzt werden können, ohne von ihrem Anwendungsbereich abzuweichen. Darüber hinaus können viele Änderungen vorgenommen werden, um eine bestimmte Situation oder ein bestimmtes Material an die Lehren der Offenbarung anzupassen, ohne von ihrem wesentlichen Anwendungsbereich abzuweichen. Es ist daher beabsichtigt, dass die vorliegende Offenbarung nicht auf die einzelnen offenbarten Ausführungsformen beschränkt ist, sondern alle Ausführungsformen einschließt, die in ihren Anwendungsbereich fallen.

Claims (10)

  1. Verfahren zum Durchführen einer bildbasierten dreidimensionalen (3D) Fahrbahnerkennung, wobei das Verfahren umfasst: Erhalten bekannter 3D-Punkte einer oder mehrerer Fahrbahnmarkierungen in einem Bild, das die eine oder mehreren Fahrbahnmarkierungen enthält; Überlagern eines Gitters von Ankerpunkten auf dem Bild, wobei jeder der Ankerpunkte ein Mittelpunkt von i konzentrischen Kreisen ist; Erzeugen eines i-Längenvektors und Setzen eines Indikatorwertes für jeden der Ankerpunkte auf der Grundlage der bekannten 3D-Punkte als Teil eines Trainingsprozesses eines neuronalen Netzes; und Verwenden des neuronalen Netzes, um 3D-Punkte einer oder mehrerer Fahrbahnmarkierungen in einem zweiten Bild zu erhalten.
  2. Verfahren nach Anspruch 1, ferner umfassend, für jede der einen oder mehreren Fahrbahnmarkierungen, Bestimmen eines Ankerpunktes, der einem Startpunkt der einen der einen oder mehreren Fahrbahnmarkierungen am nächsten liegt, als zugeordneter Ankerpunkt der einen der einen oder mehreren Fahrbahnmarkierungen und Erhalten eines Schnittes der einen der einen oder mehreren Fahrbahnmarkierungen mit jedem konzentrischen Kreis des zugeordneten Ankerpunktes und einer Elevation an dem Schnitt, wobei für den zugeordneten Ankerpunkt, der jeder der einen oder mehreren Fahrbahnmarkierungen zugeordnet ist, der i-Längenvektor i-Paare des Schnittes und der Elevation umfasst, die den i konzentrischen Kreisen und dem Indikatorwert von 1 zugeordnet sind.
  3. Verfahren nach Anspruch 2, wobei für jeden der Ankerpunkte, der nicht einer der zugeordneten Ankerpunkte ist, der i-Längenvektor Werte von <0, 0> hat und der Indikatorwert 0 oder ein Wert größer als 0 aber kleiner als 1 ist.
  4. Verfahren nach Anspruch 1, ferner umfassend das Überlagern des Gitters von Ankerpunkten und der konzentrischen Kreise, die mit jedem der Ankerpunkte auf dem zweiten Bild korrespondieren, das Erhalten eines i-Längenvektors für jeden der Ankerpunkte auf dem zweiten Bild, wobei das Verwenden des neuronalen Netzes zum Erhalten der 3D-Punkte der einen oder mehreren Fahrbahnmarkierungen in dem zweiten Bild das Übersetzen des i-Längenvektors für jeden der Ankerpunkte auf dem zweiten Bild in die 3D-Punkte der einen oder mehreren Fahrbahnmarkierungen in dem zweiten Bild umfasst, basierend auf dem Trainingsprozesses des neuronalen Netzes.
  5. Verfahren nach Anspruch 1, ferner umfassend das Erhalten des zweiten Bildes mittels einer Kamera eines Fahrzeugs und das Durchführen eines autonomen oder halbautonomen Betriebs des Fahrzeugs unter Verwendung der 3D-Punkte der einen oder mehreren Fahrbahnmarkierungen in dem zweiten Bild.
  6. System zur Durchführung bildbasierter dreidimensionaler (3D) Fahrbahnerkennung, wobei das System umfasst: eine Kamera, die konfiguriert ist, um ein Bild mit einer oder mehreren Fahrbahnmarkierungen zu erhalten; und eine Steuerung, die konfiguriert ist, um bekannte 3D-Punkte der einen oder mehreren Fahrbahnmarkierungen in dem Bild zu erhalten, um ein Gitter von Ankerpunkten auf dem Bild zu überlagern, wobei jeder der Ankerpunkte ein Mittelpunkt von i konzentrischen Kreisen ist, um einen i-Längenvektor und einen Indikatorwert für jeden der Ankerpunkte basierend auf den bekannten 3D-Punkten als Teil eines Trainingsprozesses eines neuronalen Netzes zu erzeugen, und um das neuronale Netz zu verwenden, um 3D-Punkte einer oder mehrerer Fahrbahnmarkierungen in einem zweiten Bild zu erhalten.
  7. System nach Anspruch 6, wobei für jede der einen oder mehreren Fahrbahnmarkierungen die Steuerung konfiguriert ist, um einen der Ankerpunkte, der einem Startpunkt der einen der einen oder mehreren Fahrbahnmarkierungen am nächsten liegt, als zugeordneten Ankerpunkt der einen der einen oder mehreren Fahrbahnmarkierungen zu bestimmen, und die Steuerung konfiguriert ist, um einen Schnitt der einen der einen oder mehreren Fahrbahnmarkierungen mit jedem konzentrischen Kreis des zugeordneten Ankerpunktes und eine Elevation an dem Schnitt zu erhalten, und für den zugeordneten Ankerpunkt, der jeder der einen oder mehreren Fahrbahnmarkierungen zugeordnet ist, ist die Steuerung konfiguriert, um den i-Längenvektor als i-Paare des Schnitts und der Elevation zu bestimmen, die den i konzentrischen Kreisen und dem Indikatorwert als 1 zugeordnet sind.
  8. System nach Anspruch 7, wobei für jeden der Ankerpunkte, der nicht einer der zugeordneten Ankerpunkte ist, die Steuerung konfiguriert ist, um den i-Längenvektor als i-Werte von <0, 0> und den Indikatorwert als 0 oder einen Wert größer als 0, aber kleiner als 1 zu bestimmen.
  9. System nach Anspruch 6, wobei die Steuerung ferner konfiguriert ist, um das Gitter von Ankerpunkten und die konzentrischen Kreise, die mit jedem der Ankerpunkte auf dem zweiten Bild korrespondieren, zu überlagern, die Steuerung ferner konfiguriert ist, um einen i-Längenvektor für jeden der Ankerpunkte auf dem zweiten Bild zu erhalten, und die Steuerung konfiguriert ist, um den i-Längenvektor für jeden der Ankerpunkte auf dem zweiten Bild in die 3D-Punkte der einen oder mehreren Fahrbahnmarkierungen in dem zweiten Bild zu übersetzen, basierend auf dem Trainingsprozesses des neuronalen Netzes.
  10. System nach Anspruch 6, wobei die Kamera ferner konfiguriert ist, um das zweite Bild zu erhalten und sich die Kamera in einem Fahrzeug befindet, und die Steuerung ferner konfiguriert ist, um einen autonomen oder halbautonomen Betrieb des Fahrzeugs unter Verwendung der 3D-Punkte der einen oder mehreren Fahrbahnmarkierungen im zweiten Bild durchzuführen.
DE102020127001.1A 2019-11-21 2020-10-14 Bildbasierte dreidimensionale fahrbahnerkennung Pending DE102020127001A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/691,014 2019-11-21
US16/691,014 US11100344B2 (en) 2019-11-21 2019-11-21 Image-based three-dimensional lane detection

Publications (1)

Publication Number Publication Date
DE102020127001A1 true DE102020127001A1 (de) 2021-05-27

Family

ID=75784317

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020127001.1A Pending DE102020127001A1 (de) 2019-11-21 2020-10-14 Bildbasierte dreidimensionale fahrbahnerkennung

Country Status (3)

Country Link
US (1) US11100344B2 (de)
CN (1) CN112825131B (de)
DE (1) DE102020127001A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220012506A1 (en) * 2020-07-13 2022-01-13 Wisense Technologies Ltd. System and method of segmenting free space based on electromagnetic waves
DE102020210376A1 (de) * 2020-08-14 2022-02-17 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Steuern eines Hardware-Agenten in einer Steuersituation mit mehreren Hardware-Agenten
US20230281871A1 (en) * 2022-03-01 2023-09-07 GM Global Technology Operations LLC Fusion of imaging data and lidar data for improved object recognition
EP4242691A1 (de) * 2022-03-08 2023-09-13 Hyundai Mobis Co., Ltd. Verfahren und vorrichtung zur spurdetektion mit lidar

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2723118B2 (ja) * 1992-08-31 1998-03-09 インターナショナル・ビジネス・マシーンズ・コーポレイション 2次元オブジェクトの認識に用いるためのニューラル・ネットワーク及び光学式文字認識装置
JP3632313B2 (ja) * 1996-07-31 2005-03-23 アイシン精機株式会社 路面上のレーン検出方法及び装置
US8676431B1 (en) * 2013-03-12 2014-03-18 Google Inc. User interface for displaying object-based indications in an autonomous driving system
CN103605977B (zh) * 2013-11-05 2017-01-18 奇瑞汽车股份有限公司 一种车道线的提取方法及装置
JP6486069B2 (ja) * 2014-10-31 2019-03-20 株式会社東芝 画像処理装置、検査装置、検査方法及び画像処理プログラム
US9874447B2 (en) * 2015-03-06 2018-01-23 Here Global B.V. Turn lane configuration
US9884623B2 (en) * 2015-07-13 2018-02-06 GM Global Technology Operations LLC Method for image-based vehicle localization
EP3223196B1 (de) * 2016-03-24 2021-05-05 Aptiv Technologies Limited Verfahren und vorrichtung zur erzeugung eines zuverlässigkeitsmasses für eine schätzung, die aus aufgenommenen bildern abgeleitet ist, die von einer an einem kraftfahrzeug montierten kamera aufgenommen sind
KR102628654B1 (ko) * 2016-11-07 2024-01-24 삼성전자주식회사 차선을 표시하는 방법 및 장치
CN108460815B (zh) * 2017-02-22 2022-06-17 腾讯科技(深圳)有限公司 地图道路要素编辑方法和装置
CN107122737B (zh) * 2017-04-26 2020-07-31 聊城大学 一种道路交通标志自动检测识别方法
US10296795B2 (en) * 2017-06-26 2019-05-21 Here Global B.V. Method, apparatus, and system for estimating a quality of lane features of a roadway
US10402995B2 (en) * 2017-07-27 2019-09-03 Here Global B.V. Method, apparatus, and system for real-time object detection using a cursor recurrent neural network
US10528824B2 (en) * 2017-12-11 2020-01-07 GM Global Technology Operations LLC Artificial neural network for lane feature classification and localization
CN111095291B (zh) * 2018-02-27 2024-04-09 辉达公司 由自动驾驶车辆实时检测车道和边界
WO2019241022A1 (en) * 2018-06-13 2019-12-19 Nvidia Corporation Path detection for autonomous machines using deep neural networks
CN109117825B (zh) * 2018-09-04 2020-01-17 百度在线网络技术(北京)有限公司 车道线处理方法和装置
US11169531B2 (en) * 2018-10-04 2021-11-09 Zoox, Inc. Trajectory prediction on top-down scenes
US11003920B2 (en) 2018-11-13 2021-05-11 GM Global Technology Operations LLC Detection and planar representation of three dimensional lanes in a road scene
US11087173B2 (en) * 2018-12-27 2021-08-10 Beijing Didi Infinity Technology And Development Co., Ltd. Using image pre-processing to generate a machine learning model
CN110335322B (zh) * 2019-07-09 2024-03-01 成都理工大学 基于图像的道路识别方法及道路识别装置

Also Published As

Publication number Publication date
US20210158058A1 (en) 2021-05-27
CN112825131B (zh) 2023-09-01
CN112825131A (zh) 2021-05-21
US11100344B2 (en) 2021-08-24

Similar Documents

Publication Publication Date Title
DE102020127001A1 (de) Bildbasierte dreidimensionale fahrbahnerkennung
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
EP3695244B1 (de) Verfahren und vorrichtung zum erzeugen eines inversen sensormodells und verfahren zum erkennen von hindernissen
EP3385673B1 (de) Verfahren und einrichtung zur reduktion von zwischenpunkten in einem streckenzug
DE112019007451T5 (de) Hochpräzises Verfahren sowie Gerät zur Fahrzeugpositionierung in mehreren Szenen, und fahrzeugmontiertes Terminal
EP3765927B1 (de) Verfahren zum erzeugen eines trainingsdatensatzes zum trainieren eines künstlichen-intelligenz-moduls für eine steuervorrichtung eines fahrzeugs
DE102016211182A1 (de) Verfahren, Vorrichtung und System zum Durchführen einer automatisierten Fahrt eines Fahrzeugs entlang einer aus einer Karte bereitgestellten Trajektorie
WO2015173092A1 (de) Verfahren und vorrichtung zur kalibrierung eines kamerasystems eines kraftfahrzeugs
WO2020016385A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
EP3645969B1 (de) Verfahren und einrichtung zur erzeugung von digitalen kartenmodellen
DE102019214628A1 (de) Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten
DE102015206546A1 (de) Fahrbahnmarkierungserkennungsvorrichtung
DE102014212866A1 (de) Verfahren zum Ermitteln eines Parkplatzes aus einer Anzahl von Messpunkten
EP2381207A1 (de) 3D-Zielvermessung und Zieleinweisung aus IR-Daten
WO2020048669A1 (de) Verfahren zum bestimmen einer spurwechselangabe eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug
DE102018222862A1 (de) Verfahren und System zur Lokalisierung einer Akustikquelle relativ zu einem Fahrzeug
DE102020133092A1 (de) Positionsschätzungseinrichtung und positionsschätzungsverfahren
DE102019130204A1 (de) Verfahren und System zum Erstellen dynamischer Karteninformation, die zum Bereitstellen von Umgebungsinformationen geeignet ist
DE102022202548B3 (de) Verfahren zum Trainieren eines Computerprogrammprodukts
DE102022201279B3 (de) Verfahren zum Erfassen einer Umgebung eines Fahrzeugs, Kameravorrichtung und Fahrzeug
DE102022107907A1 (de) Sensorfusion-basierte dreidimensionale Stixel-Darstellung in einer Ansicht von oben zur Detektion eines allgemeinen Hindernisses in einem Fahrzeug
WO2022106336A1 (de) Verfahren zum steuern eines kraftfahrzeugs und steuergerät
DE102020130513A1 (de) Erfassung und klassifizierung von strassenattributen zur kartenerweiterung
DE102021116072A1 (de) System und Verfahren zur Erzeugung synthetischer Trainingsdaten
DE102020200875A1 (de) Verfahren zum Bereitstellen von Sensordaten durch eine Sensorik eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000