DE102021214763A1 - Verfahren und Steuervorrichtung zum Steuern eines automatisierten Fahrzeugs - Google Patents

Verfahren und Steuervorrichtung zum Steuern eines automatisierten Fahrzeugs Download PDF

Info

Publication number
DE102021214763A1
DE102021214763A1 DE102021214763.1A DE102021214763A DE102021214763A1 DE 102021214763 A1 DE102021214763 A1 DE 102021214763A1 DE 102021214763 A DE102021214763 A DE 102021214763A DE 102021214763 A1 DE102021214763 A1 DE 102021214763A1
Authority
DE
Germany
Prior art keywords
dynamic
automated vehicle
localization
measurement data
static
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021214763.1A
Other languages
English (en)
Inventor
Cong Wu
Carsten Hasberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021214763.1A priority Critical patent/DE102021214763A1/de
Publication of DE102021214763A1 publication Critical patent/DE102021214763A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es wird ein Verfahren zum Steuern eines automatisierten Fahrzeugs (100) beschrieben, bei dem statische und dynamische Messdaten (510, 520) wenigstens eines fahrzeugeigenen Umfeldsensors (111, 112, 113) bereitgestellt werden, wobei die statischen Messdaten (510) statischen Objekten (310) in der Umgebung (300) des automatisierten Fahrzeugs (100) zugeordnet sind, während die dynamischen Messdaten (520) dynamischen Objekten (320) in der Umgebung (300) des automatisierten Fahrzeugs (100) zugeordnet sind. Anschließend wird eine Lokalisierung (631) durchgeführt, bei der anhand der statischen Messdaten (510) ermittelte Merkmale statischer Objekte (310) in der Umgebung (300) des automatisierten Fahrzeugs (100) mit Merkmalen aus einer bereitgestellten digitalen Lokalisierungskarte (212) abgeglichen werden, um eine globale Pose des automatisierten Fahrzeugs (100) zu ermitteln. Ferner wird eine auch Objektverfolgung (632) durchgeführt, bei der anhand der dynamischen Messdaten (520) dynamische Objekte (320) in der Umgebung (300) des automatisierten Fahrzeugs (100) mit ihren relativen Positionen ermittelt werden. Anschließend werden die Ergebnisse (530) der Lokalisierung (631) und die Ergebnisse (540) der Objektverfolgung (632) in einem gemeinsamen Auswertungsprozess (630) und unter Verwendung sowohl der statischen als auch der dynamischen Messdaten (510, 520) ermittelt. Schließlich werden die ermittelten Ergebnisse (530) der Lokalisierung (631) und/oder die Ergebnisse (540) der Objektverfolgung (632) zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs (100) verwendet.

Description

  • Die Erfindung betrifft ein Verfahren zum Steuern eines automatisierten Fahrzeugs. Ferner betrifft die Erfindung eine Steuervorrichtung_zum Durchführen des Verfahrens.
  • Aktuelle Fahrassistenzsysteme (ADAS, Advanced Driver Assistance Systems) sowie hochautomatisierte Fahrzeugsysteme für autonomes Fahren (AD) setzen eine detaillierte Kenntnis über das Umfeld des Fahrzeugs sowie über die aktuelle Verkehrssituation voraus. Um geeignete Fahrmanöver mit ausreichender Genauigkeit planen und durchführen zu können, müssen sowohl die eigene Position bzw. Pose als auch die relative Positionen und gegebenenfalls auch die Geschwindigkeiten benachbarter Verkehrsteilnehmer bekannt sein. Die Lokalisierung des Fahrzeugs kann kartenbasiert erfolgen, wobei hierzu ein Umgebungsmodell, das durch Erfassen des Fahrzeugumfelds mittels Umfeldsensorik und anschließendes Extrahieren bestimmter Umfeldinformationen generiert wird, mit einer digitalen Lokalisierungskarte abgeglichen wird. Als digitale Lokalisierungskarte kann z.B. eine Radarmerkmalskarte dienen, die auf statischen Radarmessungen von Fahrzeugen einer Fahrzeugflotte (crowd-sourced radar feature map) basiert. Eine auf diese Weise ermittelte Position des Ego-Fahrzeugs innerhalb einer Navigationskarte dient in Navigationsgeräten ferner zum Erstellen einer Route und zum Navigieren des Fahrzeugs entlang der Route.
  • Darüber hinaus verwenden einige radarbasierte ADAS-Anwendungen (z. B. Abstandsregeltempomat ACC (Adaptive Cruise Control), Staupilot TJP (Traffic Jam Pilot), Autobahnpilot (Highway Pilot Hands-free), etc.) dynamische Objektverfolgung (dynamic object tracking) zum Detektieren dynamischer Objekte (z.B. umgebende Fahrzeuge oder Fußgänger) in der Fahrzeugumgebung. Im Unterschied zur radarbasierten Lokalisierungsfunktion verwenden die radarbasierten ADAS-Anwendungen hauptsächlich dynamische Radarmessungen zum Ermitteln der relativen Positionen der umgebenden dynamischen Objekte.
  • Die Lokalisierung und dynamische Objektverfolgung stellen somit zwei separate Komponenten innerhalb der ADAS/AD Architektur dar. Während statische Radarmessungen und die Radarmerkmalskarte zur Bestimmung der Fahrzeugposition (Eigenposition) verwendet werden, werden die unabhängig dazu erfolgenden dynamischen Radarmessungen zur Bestimmung der Positionen und gegebenenfalls auch Geschwindigkeiten benachbarter dynamischer Objekte relativ zum Ego-Fahrzeug verwendet. Anschließend werden die von der Lokalisierungs-Komponente bereitgestellten Informationen und die von der dynamischen Objektverfolgungs-Komponente bereitgestellten Informationen als Input für die Verhaltensgenerierung und die Fahrzeugbewegungssteuerung kombiniert. Da beide Komponenten (Lokalisierung und dynamische Objektverfolgung) voneinander unabhängige Schätzfehler aufweisen, kommt es in der Verhaltensgenerierung und Fahrzeugbewegungsteuerung zu einer Akkumulation dieser Schätzfehler, was mit einer größeren Unsicherheit bei der Verhaltensgenerierung und Fahrzeugbewegungssteuerung einhergeht. Ferner führt die Tatsache, dass beide Komponenten (Lokalisierung und dynamische Objektverfolgung) nicht alle Messdaten des Radarsensors, sondern jeweils nur einen Teil davon verwenden, zu einer zusätzlichen Unsicherheit der von den beiden Komponenten bereitgestellten Informationen. Dieser Fehler betrifft somit auch Anwendungen, die lediglich Informationen einer der beiden Komponenten (Lokalisation oder dynamische Objektverfolgung) verwenden.
  • Die der Erfindung zugrunde liegende Aufgabe kann daher darin gesehen werden, eine Möglichkeit zur Verbesserung der Genauigkeit der Lokalisierung und/oder dynamischen Objektverfolgung bereitzustellen. Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
  • Gemäß der Erfindung ist ein Verfahren zum Steuern eines automatisierten Fahrzeugs vorgesehen, bei dem statische und dynamische Messdaten wenigstens eines fahrzeugeigenen Umfeldsensors bereitgestellt werden, wobei die statischen Messdaten statischen Objekten in der Umgebung des automatisierten Fahrzeugs zugeordnet sind, während die dynamischen Messdaten dynamischen Objekten in der Umgebung des automatisierten Fahrzeugs zugeordnet sind. Anschließend wird eine Lokalisierung durchgeführt, bei der anhand der statischen Messdaten ermittelte Merkmale statischer Objekte in der Umgebung des automatisierten Fahrzeugs mit Merkmalen aus einer bereitgestellten digitalen Lokalisierungskarte abgeglichen werden, um globale Pose des automatisierten Fahrzeugs zu ermitteln. Ferner wird auch eine dynamische Objektverfolgung durchgeführt, bei der anhand der dynamischen Messdaten dynamische Objekte in der Umgebung des automatisierten Fahrzeugs mit ihren relativen Positionen ermittelt werden. Die Ergebnisse der Lokalisierung und die Ergebnisse der dynamischen Objektverfolgung werden dabei in einem gemeinsamen Auswertungsprozess und unter Verwendung sowohl der statischen als auch der dynamischen Messdaten ermittelt. Schließlich werden die Ergebnisse der Lokalisierung und/oder die Ergebnisse der dynamischen Objektverfolgung zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs verwendet. Durch die gemeinsame Verarbeitung der statischen und dynamischen Messdaten kann die Genauigkeit der damit erzielten Ergebnisse der Lokalisierung und der dynamischen Objektverfolgung verbessert werden. Unter anderem können durch die gemeinsame Verarbeitung und Optimierung der Messdaten verschiedene, mit dem jeweiligen Messverfahren einhergehende Fehler und Störungen kompensiert werden. So können beispielsweise systematische Messfehler des jeweiligen Sensors durch Verwendung der HD-Lokalisierungskarte als Referenz besser erkannt und reduziert wird. Ferner kann bei Verwendung statischer und dynamischer Messdaten insgesamt mehr Messungen zur Verfügung stehen, bereits statistisch betrachtet eine Verbesserung der Messgenauigkeit erzielt werden. Von dieser Genauigkeitsverbesserung profitieren dabei auch solche Funktionen des automatisierten Fahrzeugs, die lediglich die Ergebnisse der Lokalisierung oder lediglich die Ergebnisse der dynamischen Objektverfolgung nutzen. Durch die Verwendung der Messdaten sowohl statischer als auch dynamischer Objekte in der Fahrzeugumgebung kann sowohl die Lokalisierung als auch die dynamische Objektverfolgung verbessert werden. Für Anwendungen, die keine Lokalisierungsbetriebsweise Lokalisierungskarte benötigen. Die dynamische Objektverfolgung kann durch die Berücksichtigung der statischen Radarmessungen und Karteninformationen verbessert werden. Andererseits kann auch die Genauigkeit der Lokalisierung verbessert werden, indem dynamische Objekte und gegebenenfalls auch die unkartieren statischen Objekte, wie zum Beispiel parkende Fahrzeuge, mitberücksichtigt werden. Eine erweiterte Objektverfolgung inklusive Klassifikation kann somit die Lokalisierung unterstützen. Die kombinierte Lösung der beiden Probleme (Lokalisierung und dynamische Objektverfolgung) führt nicht nur zu einer Verbesserung der Genauigkeit der damit erzielten Ergebnisse (Fahrzeug-Pose und relative Position umgebender dynamischer Objekte), sondern ist auch effizienter als die separate Lösung der beiden Probleme.
  • In einer Ausführungsform ist vorgesehen, dass die Ergebnisse der Lokalisierung und dynamischen Objektverfolgung mithilfe eines graphbasierten Optimierungsverfahrens ermittelt werden, bei dem aus den statischen Messdaten abgeleitete Randbedingungen und aus den dynamischen Messdaten abgeleitete Randbedingungen zu einem gemeinsamen Optimierungsproblem addiert werden. Ein solches graphbasiertes Optimierungsverfahren stellt eine sehr effektive Methode zum Ermitteln sowohl der Ego-Pose mithilfe dynamischer Messdaten und einer HD-Lokalisierungskarte als auch der relativen Position benachbarter dynamischer Objekte dar.
  • In einer weiteren Ausführungsform ist vorgesehen, dass die Ergebnisse der Lokalisierung und dynamischen Objektverfolgung mithilfe eines filterbasierten Zustandsschätzverfahrens ermittelt werden. Der Filterzustand eines bei dem Zustandsschätzverfahren verwendeten Filters umfasst dabei sowohl die unbekannten Zustände der Lokalisierung als auch die unbekannten Zustände der dynamischen Objektverfolgung. Filterbasierte Zustandsschätzverfahren stellen ebenfalls besonders effektive Methoden zur Ermittlung unbekannter Zustände des Ego-Fahrzeugs und benachbarter dynamischer Objekte dar.
  • In einer weiteren Ausführungsform ist vorgesehen, dass der filterbasierter Optimierungsprozess einen Kalman-Filter oder einen Partikel-Filter verwendet. Hierbei handelt es sich um besonders effektive filterbasierte Methoden, mit denen auch eine größere Anzahl an Messdaten effektiv und genau verarbeitet werden kann.
  • In einer weiteren Ausführungsform ist vorgesehen, dass neben den statischen und dynamischen Objekten auch unkartierte statische Objekte für die Lokalisierung und/oder dynamische Objektverfolgung verwendet werden. Auch die unkartieren statischen Objekte, bei denen sich beispielsweise um parkende Fahrzeuge handeln kann, sind geeignet, die Anzahl der Einzelmessungen für die verwendeten Statistischen Verfahren zu erhöhen. Infolge dessen kann dieses Vorgehen zur Erhöhung der Genauigkeit bei der Schätzung oder Optimierung der Ego-Pose bzw. der Position benachbarter Fahrzeuge führen.
  • In einer weiteren Ausführungsform ist vorgesehen, dass nur die Ergebnisse der Lokalisierung oder nur die Ergebnisse der dynamischen Objektverfolgung zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs verwendet werden. Auch bei einer derartigen Konfiguration, bei der lediglich die Ergebnisse der Lokalisierung oder die Ergebnisse der dynamischen Objektverfolgung für die entsprechende Funktion benötigt werden, kann durch die gemeinsame Auswertung der statischen und dynamischen Messdaten eine Erhöhung der jeweils benötigten Ergebnisse erzielt werden.
  • In einer weiteren Ausführungsform ist vorgesehen, dass als Umfeldsensor wenigstens ein Radar-Sensor, ein Lidar-Sensor und/oder eine Videokamera verwendet werden. Diese Sensoren liefern besonders zuverlässige Messdaten zu statischen und dynamischen Objekten und sind daher besonders gut zur Sensierung des Fahrzeugumfelds geeignet.
  • Gemäß einem weiteren Aspekt ist ferner Steuervorrichtung für ein automatisiertes Fahrzeug die eingerichtet ist, wenigstens einen Teil der Schritte des oben genannten Verfahrens auszuführen. Für die Steuervorrichtung_ergeben sich die bereits im Zusammenhang mit dem Verfahren genannten Vorteile.
  • Gemäß einem weiteren Aspekt ist ein Computerprogramm umfassend Befehle vorgesehen, die bei einer Ausführung des Computerprogramms auf einem Computer diesen veranlassen eines der oben beschriebenen Verfahren auszuführen. Die Realisierung der oben beschriebenen Verfahren in Form eines Computerprogramms bietet eine besonders hohe Flexibilität.
  • Schließlich ist gemäß einem weiteren Aspekt ein computerlesbares Speichermedium vorgesehen, auf dem das oben genannte Computerprogramm gespeichert ist.
  • Die Erfindung wird im Folgenden anhand von Figuren näher beschrieben. Dabei zeigen:
    • 1 schematisch eine Verkehrssituation, bei der ein automatisiertes Fahrzeug mithilfe bordeigener Sensoren seine Umgebung abtastet;
    • 2 schematisch den Aufbau einer Anordnung zur separaten Durchführung einer Lokalisierung und dynamischen Objektverfolgung anhand statischer und dynamischer Messdaten;
    • 3 ein Diagramm zur Verdeutlichung der Funktionsweise eines graphbasierten Optimierungsprozesses zu Ermittlung der Ego-Pose des Fahrzeugs;
    • 4 ein Diagramm zur Verdeutlichung der Funktionsweise eines graphbasierten Optimierungsprozesses zur kombinierten Ermittlung der Ego-Pose des Fahrzeugs und der relativen Position wenigstens eines umgebenden dynamischen Objekts;
    • 5 schematisch den Aufbau einer Anordnung zur Durchführung einer kombinierten Lokalisierung und dynamischen Objektverfolgung;
    • 6 schematisch eine Variation der Anordnung aus 5,
    • 7 schematisch eine weitere Variation der Anordnung aus 5; und
    • 8 ein vereinfachtes Ablaufdiagramm zur Verdeutlichung des Verfahrens.
  • Das hier beschriebene Konzept sieht vor, dass die statischen und dynamischen Messdaten eines Radar-Sensors oder eines anderen Umfeldsensors des automatisierten Fahrzeugs im Rahmen einer Lokalisierung und dynamischen Objektverfolgung nicht getrennt, sondern gemeinsam ausgewertet werden.
  • Die 1 zeigt schematisch ein auf einer Straße 340 fahrendes automatisiertes Fahrzeug 100. Das automatisierte Fahrzeug 100 weist eine Umfeldsensorik 110 zum Erfassen von Objekten und Strukturen in seiner Umgebung 300 sowie eine Steuervorrichtung 120 zum Steuern des automatisierten Fahrzeugs 100 auf. Im vorliegenden Beispiel umfasst die Umfeldsensorik 110 mehrere Umfeldsensoren, wie z.B. einen Radar-Sensor 111, einen LiDAR-Sensor 112 und eine Videokamera 113. Im vorliegenden Beispiel erfasst der bordeigene Radarsensor 112 umgebende statische Objekte 310 (z.B. Verkehrsschilder), dynamische Objekte 320 (z.B. entgegenkommende Fahrzeuge) und auch unkartierte statische bzw. semidynamische Objekte 330 (z.B. parkende Fahrzeuge).
  • Ferner umfasst das automatisierte Fahrzeug 100 auch Sensoren zum Erfassen verschiedener Messgrößen und Parameter auf, wie z.B. Inertialsensoren 114 zum Erfassen des aktuellen Bewegungszustands des automatisierten Fahrzeugs 100, einen Lenkwinkelsensor 115, eine GNSS-Einrichtung 116 zum satellitengestützten Ermitteln der globalen Position des automatisierten Fahrzeugs 100 sowie eine Odometrie-Einrichtung 117 zum Ermitteln der zurückgelegten Wegstrecke z.B. anhand der Rotationsbewegung der Fahrzeugräder. Das automatisierte Fahrzeug 100 umfasst ferner eine drahtlose Kommunikationsvorrichtung 190 zum Aufbau einer drahtlosen Kommunikationsverbindung 201 zu einem externen Server 210. Wie in der 1 gezeigt ist, sind das automatisierte Fahrzeug 100 und der externe Server Teil eines Systems 200, das weitere Fahrzeuge und Server umfassen kann und bestimmte Dienstleistungen (z.B. Cloud-Services) anbietet. Im vorliegenden Beispiel weist der Server 210 eine Speichereinrichtung 211 auf, in der digitale digitalen Lokalisierungskarten 212 gespeichert sind. Im Betrieb empfängt das automatisierte Fahrzeug 100 von dem Server 210 eine geeignete digitale Lokalisierungskarte 212 der Umgebung 300, in der sich das betreffende automatisierte Fahrzeug 100 aktuell befindet. Die empfangene digitale Lokalisierungskarte 212 kann z. B. in einer fahrzeugeigenen Speichereinrichtung 122 abgelegt werden.
  • Wie aus 1 ferner ersichtlich ist, umfasst die Steuervorrichtung 120 im vorliegenden Beispiel neben der Speichereinrichtung 122 auch eine Steuereinrichtung 121 zum Ermitteln einer optimalen Trajektorie 301 sowie eine Bewegungssteuerungseinrichtung 123 zum Steuern der Bewegung des automatisierten Fahrzeugs 100 entlang der ermittelten Trajektorie 301.
  • In der 2 ist eine Anordnung 150 aus einem Radarsensor 111 und zwei Komponenten 121, 122 der Steuervorrichtung 120 eines automatisierten Fahrzeugs in Form eines vereinfachten Blockschaltbilds dargestellt. In dem hier gezeigten Beispiel umfasst die Steuereinrichtung 121 zwei separate Komponenten, nämlich ein Lokalisierungsmodul 131 und ein Objektverfolgungsmodul 132. Wie mittels der beiden Pfeile angedeutet ist, sendet der Radarsensor 111 die statischen Messdaten 510 an das Lokalisierungsmodul 131 und die dynamischen Messdaten 520 an das Objektverfolgungsmodul 132. Die statischen und dynamischen Messdaten 510, 520 werden dann separat voneinander mithilfe geeigneter Auswerteverfahren, wie zum Beispiel einem filterbasierten Zustandsschätzverfahren oder einem graphbasierten Optimierungsverfahren, verarbeitet bzw. ausgewertet. Als Ergebnis dieser Auswertung stellt das Lokalisierungsmodul 131 anschließend die Ego-Pose 530 des automatisierten Fahrzeugs 100 bereit, während das Objektverfolgungsmodul 132 als Ergebnis eine Liste 540 der in der Umgebung detektierten dynamische Objekte 320 mit ihren relativen Positionen bereitstellt. Neben den statischen Messdaten 510 verwendet das Lokalisierungsmodul 131 ferner auch die in der Speichereinrichtung 122 abgelegte digitale Lokalisierungskarte 212 zu Ermittlung der Ego-Pose 530. Die von dem Lokalisierungsmodul 131 und dem Objektverfolgungsmodul 132 bereitgestellten Ergebnisse 530, 540 verwendet die Planungseinrichtung 140 anschließend zur Planung des Verhaltens und der Trajektorie 301 des automatisierten Fahrzeugs 100. Hierzu weist die Planungseinrichtung 140 einen Verhaltensplaner 141 und einen Trajektorienplaner 142 auf.
  • Die Ermittlung der aktuellen Ego-Pose des automatisierten Fahrzeugs 100 sowie der Positionen umgebender dynamischer Objekte 320 kann grundsätzlich mithilfe verschiedener Verfahren erfolgen. In den hier beschriebenen Beispielen werden hierfür zwei Ansätze verwendet, die auch bei der Simultanen Lokalisierung und Kartierung (Simultaneous Localisation and Mapping, SLAM) zum Einsatz kommen. Der erste Ansatz betrifft eine filterbasierte Methode, die zum Beispiel einen Kalman-Filter bzw. einen erweiterten Kalman-Filter (EKF) oder einen Partikel-Filter verwendet. Bei diesem Ansatz wird der unbekannte Zustand des jeweiligen Objekts, zum Beispiel die Ego-Pose des automatisierten Fahrzeugs 100 oder die relativen Positionen umgebender dynamischer Objekte 320, geschätzt. Die Schätzung erfolgt dabei „on-the-go“, d.h. fortlaufend mit den jeweils neuesten Messdaten. Der Kalman-Filter stellt dabei einen besonders effizienten rekursiven Schätzalgorithmus dar, der den Zustand eines dynamischen Systems aus fehlerbehafteten Beobachtungen optimal im Sinne der kleinsten Quadrate schätzt. Bei dem Kalman-Filter handelt es sich folglich um ein mathematisches Verfahren zur iterativen Schätzung von Parametern zur Beschreibung von Systemzuständen auf Basis von fehlerbehafteten Beobachtungen bzw. Messungen.
  • Einen weiteren geeigneten Filter zur Verwendung in der filterbasierten Methode bildet ein sogenannter Partikel-Filter. Hierbei handelt es sich um eine Monte-Carlo-Methode, also ein stochastisches Verfahren zur Zustandsschätzung in einem dynamischen Prozess, dessen Dynamik nur im statistischen Mittel bekannt ist und der nur unvollständig beobachtet werden kann. Im Fall der dynamischen Objektverfolgung erfolgt eine genaue und kontinuierlich aktualisierte Bestimmung des Ortes und der Geschwindigkeit des betrachteten Objekts aufgrund einer ungenauen und fehlerhaften Messung des Ortes.
  • Die Bestimmung der Ego-Pose des Fahrzeugs 100 sowie der relativen Position umgebender dynamischer Objekte 320 kann ferner auch als ein Pose-Graph-Optimierungsproblem formuliert werden. Hierbei wird die gesamte Trajektorie jedes betrachteten Objekts unter Berücksichtigung aller bisherigen Messungen geschätzt bzw. optimiert. Das Ziel einer graphbasierten Optimierung der Pose eines Objekts ist es demnach, die sich durch die Aneinanderreihung nacheinander gemessener bzw. ermittelter Posen ergebende Trajektorie des jeweiligen Objekts anhand relativer Messungen der Pose zu schätzen.
  • Mithilfe der 3 und 4 soll der Unterschied zwischen einem einfachen graphbasierten Optimierungsprozess, welcher nur die statischen Messdaten 510 verwendet, und einem erweiterten graphbasierten Optimierungsprozess, welcher zusätzlich auch die dynamischen Messdaten 520 verwendet, verdeutlicht werden. Hierzu ist in der 3 ein sogenannter Sliding Graph dargestellt, in dem die anhand der dynamischen Messdaten 520 und der digitalen Lokalisierungskarte 212 ermittelte Ego-Posen 530 des automatisierten Fahrzeugs 100 über mehrere aufeinanderfolgende Messzyklen eingezeichnet sind. Ein solcher graphbasierter Optimierungsprozess berücksichtigt in der Regel alle bisherigen Messergebnisse gleichzeitig, welche gemeinsam mit den Merkmalen aus der digitalen Lokalisierungskarte abgeglichen werden.
  • Die 4 verdeutlicht hingegen die Auswertung der Messdaten mithilfe eines erweiterten graphbasierten Optimierungsverfahrens, das im vorliegenden Beispiel ebenfalls einen Sliding Graph verwendet. Im Unterschied zu dem in der 3 gezeigten Beispiel, umfasst dieser erweiterter Sliding Graph hier nunmehr sowohl die statischen als auch die dynamischen Messdaten 510, 520. So werden neben der anhand der statischen Messdaten 510 über mehrere Meßzyklen hinweg ermittelten globalen Ego-Posen des automatisierten Fahrzeugs 100 innerhalb der digitalen Lokalisierungskarte auch die ebenfalls über mehrere Meßzyklen hinweg anhand der dynamischen Messdaten 520 ermittelten Positionen benachbarter dynamischer Objekte 320 relativ zum automatisierten Fahrzeug 100 dargestellt. Bei dem erweiterten graphbasierten Optimierungsverfahren werden somit aus den statischen Messdaten 510 abgeleitete Randbedingungen und aus den dynamischen Messdaten 520 abgeleitete Randbedingungen zu einem gemeinsamen Optimierungsproblem addiert. Die kombinierte Lösung der beiden Probleme, nämlich der Lokalisierung und der dynamischen Objektverfolgung, addiert alle durch die statischen dynamischen Messdaten vorgegebenen Randbedingungen zu einem einzigen Optimierungsproblem. Im Vergleich zu der in der 3 gezeigten separaten Lösung der beiden Probleme wird das Optimierungsverfahren durch die zusätzlichen Informationen genauer. Ferner wird das Optimierungsverfahren auch effizienter, da hierbei lediglich eine Optimierung zur gelichzeitigen Lösung der beiden Probleme (Lokalisierung und dynamische Objektverfolgung) notwendig ist.
  • In der 5 ist eine verbesserte Anordnung 150 dargestellt, die ebenfalls einen Radarsensor 111 und eine Steuervorrichtung 120 mit einer Steuereirichtung 121 und einer Speichereinrichtung 122 umfasst. Im Unterschied zu der Anordnung 150 aus 2 sind das Lokalisierungsmodul 131 und das Objektverfolgungsmodul 132 der hier gezeigten Steuereirichtung 121 in einer gemeinsamen Messdatenverarbeitungseinrichtung 130 zusammengefasst. Folglich werden die vom Radarsensor 111 bereitgestellten statischen und dynamischen Messdaten 510, 520 gemeinsam an die Messdatenverarbeitungseinrichtung 130 gesendet. Nach Auswertung der Messdaten werden die Ergebnisse dieser Auswertung, nämlich die Ego-Pose 530 des automatisierten Fahrzeugs 100 sowie eine Liste 540 der umgebenden dynamische Objekte mitsamt deren relativer Position an die Planungseinrichtung 140 übergeben. Die Planungseinrichtung 41 ermittelt mithilfe ihres Verhaltensplaner 141 und Trajektorienplanung 142 die jeweils optimale Trajektorie 301 für das automatisierte Fahrzeug 100.
  • In der 6 ist eine Variation der in der 5 gezeigten verbesserten Anordnung 150 dargestellt. In diesem Fall benötigt eine Applikation des automatisierten Fahrzeugs, wie z. B. der Abstandsregelautomat (ACC, Adaptive Cruise Control) keine Position des automatisierten Fahrzeugs 100 auf der Karte, sondern lediglich die Positionen der umgebenden dynamischen Objekte 320 relativ zu dem automatisierten Fahrzeug. In diesem Fall können die Systemarchitektur und/oder der Datafluss der Steuereinrichtung 121 entsprechend dem in der 6 gezeigten Ausführungsbeispiel adaptiert werden. Dabei übermittelt die Messdatenbearbeitungseinrichtung 130 lediglich die Ergebnisse 540 der dynamischen Objektverfolgung, nämlich die Liste der umgebenden dynamischen Objekte 320 mitsamt deren relativen Positionen, an die die jeweilige Applikation durchführende Hard- oder Softwarekomponente (z.B. das ACC-Steuerungsmodul).
  • In der 7 ist eine weitere Variation der in der 5 gezeigten verbesserten Anordnung 150 dargestellt. In diesem Fall benötigt eine Applikation des automatischen Fahrzeugs 100, wie z.B. ein Navigationssystem auf Fahrspurebene, keine Kenntnis über benachbarte dynamische Objekte, sondern lediglich die aktuelle Pose des automatisierten Fahrzeugs 100. In diesem Fall liefert die gemeinsame Optimierung oder Filterung der Messdaten 510, 520 als Ergebnis lediglich die aktuelle Pose 530 des automatisierten Fahrzeugs, die von der Messdatenverarbeitungseinrichtung 130 für die die entsprechende Applikation ausführende Hard- oder Softwarekomponente (z.B. Entertainmentsystem für erweitertes Recruiting auf Fahrspurebene) bereitgestellt wird.
  • Die 8 zeigt schließlich ein vereinfachtes Ablaufdiagramm des hier beschriebenen Verfahrens 600. Demnach wird in einem ersten Schritt 610 eine digitale Lokalisierungskarte 212 von einer Speichereinrichtung 122 des Fahrzeugs 100 bereitgestellt. In einem weiteren Schritt 620 wird die Umgebung 300 des automatisierten Fahrzeugs 100 mittels wenigstens eines bordeigenen Umfeldsensors 111, 112, 113 abgetastet. Die dabei gewonnenen statischen und dynamischen Messdaten 510, 520 werden in dem Schritt 621 bereitgestellt. In dem Schritt 630 erfolgt eine gemeinsame Auswertung der statischen und dynamischen Messdaten 510, 520. Dieser Schritt umfasst die Lokalisierung 631, d. h. die Ermittlung der eigenen Pose des automatisierten Fahrzeugs 100 innerhalb der Lokalisierungskarte 212, sowie die dynamische Objektverfolgung 632, d. h. die Ermittlung umgebender dynamischer Objekte 320 sowie deren jeweiligen Positionen relativ zum automatisierten Fahrzeug. In dem nachfolgenden Schritt 633 werden die Ergebnisse der Lokalisierung und der dynamischen Objektverfolgung bereitgestellt. Anschließend findet in dem Schritt 640 eine Planung statt, die eine Verhaltensplanung 641 und eine Bewegungsplanung 642 umfasst. In dem darauffolgenden Verfahrensschritt 650 findet eine Steuerung des Fahrzeugs anhand der Ergebnisse der Planung statt.
  • Obwohl die Erfindung im Detail durch die bevorzugten Ausführungsbeispiele näher illustriert und beschrieben wurde, ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt. Vielmehr können hieraus auch andere Variationen vom Fachmann abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Beispielsweise können die hier beschriebenen Komponenten, Einrichtungen und Module je nach Anwendung in Form von Software oder Hardware oder auch als eine Kombination aus Software- und Hardware realisiert werden.

Claims (10)

  1. Verfahren zum Steuern oder automatisierten Fahrzeugs (100), wobei statische und dynamische Messdaten (510, 520) wenigstens eines fahrzeugeigenen Umfeldsensors (111, 112, 113) bereitgestellt werden, wobei die statischen Messdaten (510) statischen Objekten (310) in der Umgebung (300) des automatisierten Fahrzeugs (100) zugeordnet sind, während die dynamischen Messdaten (520) dynamischen Objekten (320) in der Umgebung (300) des automatisierten Fahrzeugs (100) zugeordnet sind, wobei eine Lokalisierung (631) durchgeführt wird, bei der anhand der statischen Messdaten (510) ermittelte Merkmale statischer Objekte (310) in der Umgebung (300) des automatisierten Fahrzeugs (100) mit Merkmalen aus einer bereitgestellten digitalen Lokalisierungskarte (212) abgeglichen werden, um eine globale Pose des automatisierten Fahrzeugs (100) zu ermitteln, wobei eine dynamische Objektverfolgung (632) durchgeführt wird, bei der anhand der dynamischen Messdaten (520) dynamische Objekte (320) in der Umgebung (300) des automatisierten Fahrzeugs (100) mit ihren relativen Positionen ermittelt werden, wobei die Ergebnisse (530) der Lokalisierung (631) und die Ergebnisse (540) der dynamischen Objektverfolgung (632) in einem gemeinsamen Auswertungsprozess (630) und unter Verwendung sowohl der statischen als auch der dynamischen Messdaten (510, 520) ermittelt werden, und wobei die Ergebnisse (530) der Lokalisierung (631) und/oder die Ergebnisse (540) der dynamischen Objektverfolgung (632) zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs (100) verwendet werden.
  2. Verfahren nach Anspruch 1, wobei die Ergebnisse (530, 540) der Lokalisierung (631) und dynamischen Objektverfolgung (632) mithilfe eines graphbasierten Optimierungsverfahrens ermittelt werden, bei dem aus den statischen Messdaten (510) abgeleitete Randbedingungen und aus den dynamischen Messdaten (520) abgeleitete Randbedingungen zu einem gemeinsamen Optimierungsproblem addiert werden.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Ergebnisse (530, 540) der Lokalisierung (631) und dynamischen Objektverfolgung (632) mithilfe eines filterbasierten Zustandsschätzalgorithmus ermittelt werden, wobei der Filterzustand eines bei dem Zustandsschätzalgorithmus verwendeten Filters sowohl die unbekannten Zustände der Lokalisierung (631) als auch die unbekannten Zustände der dynamischen Objektverfolgung (632) umfasst.
  4. Verfahren nach Anspruch 3, wobei der filterbasierte Zustandsschätzalgorithmus einen Kalman-Filter-Algorithmus oder einen Partikel-Filter-Algorithmus verwendet.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei neben den statischen und dynamischen Objekten (310, 320) auch unkartierte statische Objekte (330) für die Lokalisierung (631) und/oder dynamische Objektverfolgung (632) verwendet werden.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei nur die Ergebnisse (530) der Lokalisierung (631) oder nur die Ergebnisse (540) der dynamischen Objektverfolgung (632) zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs (100) verwendet werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei als Umfeldsensor (111, 112, 113) wenigstens ein Radar-Sensor (111), ein Lidar-Sensor (112) und/oder eine Videokamera (113) verwendet werden.
  8. Steuervorrichtung (120) für ein automatisiertes Fahrzeug (100) die eingerichtet ist, wenigstens einen Teil der Schritte des Verfahrens gemäß einem der Ansprüche 1 bis 7 auszuführen.
  9. Computerprogramm umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, ein Verfahren gemäß einem der Ansprüche 1 bis 7 auszuführen.
  10. Computerlesbares Speichermedium (122), auf dem ein Computerprogramm nach Anspruch 9 gespeichert ist.
DE102021214763.1A 2021-12-21 2021-12-21 Verfahren und Steuervorrichtung zum Steuern eines automatisierten Fahrzeugs Pending DE102021214763A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021214763.1A DE102021214763A1 (de) 2021-12-21 2021-12-21 Verfahren und Steuervorrichtung zum Steuern eines automatisierten Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021214763.1A DE102021214763A1 (de) 2021-12-21 2021-12-21 Verfahren und Steuervorrichtung zum Steuern eines automatisierten Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102021214763A1 true DE102021214763A1 (de) 2023-06-22

Family

ID=86606365

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021214763.1A Pending DE102021214763A1 (de) 2021-12-21 2021-12-21 Verfahren und Steuervorrichtung zum Steuern eines automatisierten Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102021214763A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022132986A1 (de) 2022-12-12 2024-06-13 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug mit einem solchen Fahrerassistenzsystem

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016015405A1 (de) 2016-12-22 2017-07-06 Daimler Ag Umfassende Umgebungserfassung für einen Kraftwagen mittels Radar
DE102019213403A1 (de) 2019-09-04 2021-03-04 Zf Friedrichshafen Ag Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges, Egofahrzeug und ein Computerprogramm
DE102019213929A1 (de) 2019-09-12 2021-03-18 Zf Friedrichshafen Ag Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016015405A1 (de) 2016-12-22 2017-07-06 Daimler Ag Umfassende Umgebungserfassung für einen Kraftwagen mittels Radar
DE102019213403A1 (de) 2019-09-04 2021-03-04 Zf Friedrichshafen Ag Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges, Egofahrzeug und ein Computerprogramm
DE102019213929A1 (de) 2019-09-12 2021-03-18 Zf Friedrichshafen Ag Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022132986A1 (de) 2022-12-12 2024-06-13 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug mit einem solchen Fahrerassistenzsystem

Similar Documents

Publication Publication Date Title
DE102015111535B4 (de) Algorithmus zur genauen Krümmungsschätzung für die Bahnplanung von autonom fahrenden Fahrzeugen
EP3329216A1 (de) Bestimmung einer anordnungsinformation für ein fahrzeug
DE102017103123A1 (de) Fahrzeugfahrbahnplatzierung
EP3581886B1 (de) Verfahren und vorrichtung zum bestimmen einer position eines kraftfahrzeugs
EP3254136B1 (de) Verarbeitung von sensormessungen eines fahrzeugumfeldes bei geringer querauflösung
DE102018114808A1 (de) Verfahren zur automatischen Querführung eines Folgefahrzeugs in einem Fahrzeug-Platoon
DE102013107861A1 (de) Tracking von Strassen-Fahrzeugen mit Sensoren unterschiedlicher Ausführungsarten
EP3824247A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
DE102020102962A1 (de) Fahrzeugzielverfolgung
DE102016214045A1 (de) Verfahren und Vorrichtung zum Ermitteln eines Fahrbahnmodells für ein Fahrzeugumfeld
EP3610224B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur schätzung einer pose eines kraftfahrzeugs
DE102016011366A1 (de) Verfahren zur Positionsbestimmung eines Fahrzeugs
DE102016213817A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn
DE102020105619A1 (de) System und verfahren zur bestimmung der fahrzeugposition
DE102020105657A1 (de) Verfahren und Systeme für die Kartierung und Lokalisierung eines Fahrzeuges
EP3155454B1 (de) Verfahren und system zur anpassung eines navigationssystems
DE102019132150A1 (de) Verfahren zum automatischen Kalibrieren eines Umfeldsensors, insbesondere eines Lidar-Sensors, eines Fahrzeugs auf Grundlage von Belegungskarten sowie Recheneinrichtung
DE102021214763A1 (de) Verfahren und Steuervorrichtung zum Steuern eines automatisierten Fahrzeugs
DE102018221864A1 (de) Verfahren und System zum Bestimmen einer Trajektorie eines Fahrzeugs
DE102016223999A1 (de) Bestimmen einer Referenztrajektorie mit einem Posen-Graphen
DE102016223072B4 (de) Bestimmen einer Eigenbewegung eines Fahrzeugs anhand von ortsfesten Objekten
DE102021130241A1 (de) Kartengestützte Zielfahrtrichtungs-Disambiguierung
DE112022002421T5 (de) Bewegungsbetragsschätzvorrichtung, Bewegungsbetragsschätzverfahren und Bewegungsbetragsschätzprogramm
WO2018095669A1 (de) Verfahren und vorrichtung zum bestimmen einer genauen position eines fahrzeugs anhand von radarsignaturen der fahrzeugumgebung
WO2022018007A1 (de) Verfahren zum schätzen einer eigenbewegung eines fahrzeugs anhand von messungen eines lidar-sensors sowie recheneinrichtung

Legal Events

Date Code Title Description
R163 Identified publications notified