DE102020100022A1 - Positionsbestimmungstechnik - Google Patents

Positionsbestimmungstechnik Download PDF

Info

Publication number
DE102020100022A1
DE102020100022A1 DE102020100022.7A DE102020100022A DE102020100022A1 DE 102020100022 A1 DE102020100022 A1 DE 102020100022A1 DE 102020100022 A DE102020100022 A DE 102020100022A DE 102020100022 A1 DE102020100022 A1 DE 102020100022A1
Authority
DE
Germany
Prior art keywords
vehicle
data
position data
point
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020100022.7A
Other languages
English (en)
Inventor
Codrin Cionca
Juan Enrique Castorena Martinez
Mostafa Parchami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102020100022A1 publication Critical patent/DE102020100022A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Diese Offenbarung stellt eine Positionsbestimmungstechnik bereit. Ein Computer beinhaltet einen Prozessor und einen Speicher. Der Speicher speichert Anweisungen, die durch den Prozessor ausführbar sind, um in einem Fahrzeug Objektdaten von einem externen Knoten zu empfangen und bei Identifizierung eines Punkts in den empfangenen Objektdaten, der innerhalb eines Volumens liegt, das auf Grundlage von einem Fahrzeugsensor empfangener Fahrzeugpositionsdaten definiert wird, eine angepasste Fahrzeugposition auf Grundlage des identifizierten Punkts und der Fahrzeugpositionsdaten zu bestimmen.

Description

  • TECHNISCHES GEBIET
  • Diese Offenbarung betrifft im Allgemeinen Fahrzeugnavigationssysteme.
  • ALLGEMEINER STAND DER TECHNIK
  • Ein Fahrzeug, wie etwa ein autonomes oder halbautonomes Fahrzeug, kann zur Unterstützung der Navigation Daten von einem Standortsensor, z. B. GPS (globales Positionsbestimmungssystem), verwenden. Ein autonomes Fahrzeug kann seine im Wesentlichen Echtzeit-Standortdaten mit einer Karte eines Gebiets vergleichen, in welchem das Fahrzeug betrieben wird, um die Position des Fahrzeugs in diesem Gebiet zu bestimmen und das Fahrzeug auf Grundlage des bestimmten Fahrzeugstandorts zu navigieren. Die Standortdaten können Ungenauigkeiten aufweisen, die das Navigieren des Fahrzeugs erschweren können.
  • KURZDARSTELLUNG
  • Hierin wird ein Computer offenbart, der einen Prozessor und einen Speicher umfasst. Der Speicher speichert Anweisungen, die durch den Prozessor ausführbar sind, um in einem Fahrzeug Objektdaten von einem externen Knoten zu empfangen und bei Identifizierung eines Punkts in den empfangenen Objektdaten, der innerhalb eines Volumens liegt, das unter Verwendung von einem Fahrzeugsensor empfangener Fahrzeugpositionsdaten definiert wird, eine angepasste Fahrzeugposition auf Grundlage des identifizierten Punkts und der Fahrzeugpositionsdaten zu bestimmen.
  • Der identifizierte Punkt kann ein Bezugspunkt eines in den empfangenen Objektdaten beschriebenen Objekts sein.
  • Die Anweisungen können ferner Anweisungen zum Bestimmen des Volumens zumindest teilweise auf Grundlage von Fahrzeugabmessungen umfassen.
  • Eine Untergrenze des Volumens kann an einer Projektion eines Fahrzeugbezugspunkts auf einer Bodenfläche zentriert sein, die auf Grundlage der Fahrzeugpositionsdaten bestimmt wird.
  • Die Anweisungen können ferner Anweisungen zum Betreiben des Fahrzeugs auf Grundlage der angepassten Fahrzeugposition umfassen.
  • Die Anweisungen können ferner Anweisungen zum Filtern der Fahrzeugpositionsdaten durch Anwendung eines ersten Kalman-Filters auf die Fahrzeugpositionsdaten und zum Filtern von Positionsdaten des identifizierten Punkts durch Anwendung eines zweiten Kalman-Filters auf die Positionsdaten des Punkts umfassen.
  • Die Anweisungen können ferner Anweisungen zum Betreiben des Fahrzeugs auf Grundlage der Fahrzeugpositionsdaten umfassen, wenn bestimmt wird, dass das Objekt von dem externen Knoten nicht über einen Punkt innerhalb des Volumens verfügt.
  • Die Anweisungen können ferner Anweisungen zum Identifizieren des Punkts in dem Volumen nur dann, wenn auf Grundlage der empfangenen Objektdaten bestimmt wird, dass der identifizierte Punkt ein Bezugspunkt eines Objekts von einer Art ist, die einer Fahrzeugart entspricht, umfassen.
  • Die Anweisungen können ferner Anweisungen zum Identifizieren des Punkts in dem Volumen nur dann, wenn auf Grundlage der empfangenen Objektdaten bestimmt wird, dass der identifizierte Punkt ein Bezugspunkt eines Objekts mit Abmessungen ist, die den Abmessungen des Fahrzeugs entspricht, das die Objektdaten empfangen hat, umfassen.
  • Die Anweisungen können ferner Anweisungen zum Bestimmen des Volumens mit einer Untergrenze auf einer Bodenfläche mit vorher festgelegten Abmessungen, die an einer auf eine Bodenfläche projizierten Fahrzeugposition zentriert sind, und zum Bestimmen der angepassten Fahrzeugposition teilweise auf Grundlage von Standortkoordinaten des Objektbezugspunkts bei Identifizierung eines Objekts anhand der gesendeten Daten mit einem Bezugspunkt, der innerhalb des bestimmten Volumens liegt, umfassen.
  • Die Positionsdaten können zumindest eine laterale Koordinate, eine longitudinale Koordinate, eine Ausrichtung, eine Quergeschwindigkeit, eine Längsgeschwindigkeit und eine Drehzahl des Fahrzeugs beinhalten.
  • Die Objektdaten können ferner zumindest eine laterale Koordinate, eine longitudinale Koordinate, eine Ausrichtung, eine Quergeschwindigkeit, eine Längsgeschwindigkeit und eine Drehzahl eines Objekts beinhalten.
  • Die Objektdaten können mindestens eines von Standortkoordinaten, einer Ausrichtung, einer Objektart, einer Geschwindigkeit, einer Drehzahl, einer Form und Abmessungen des Objekts beinhalten.
  • Außerdem wird in dieser Schrift ein Computer offenbart, der einen Prozessor und einen Speicher umfasst. Der Speicher speichert Anweisungen, die durch den Prozessor ausführbar sind, um aus einem über einen externen Knoten empfangenen Objektdatensatz Positionsdaten von außen zu extrahieren, die mit Fahrzeugpositionsdaten in Beziehung stehen, die Positionsdaten von außen und die Fahrzeugpositionsdaten unabhängig voneinander zu filtern und dann die gefilterten Positionsdaten von außen und Fahrzeugpositionsdaten zusammenzuführen, um die Positionsbestimmung des Fahrzeugs zu verbessern.
  • Die Anweisungen können ferner Anweisungen zum Betreiben des Fahrzeugs auf Grundlage der zusammengeführten gefilterten Positionsdaten von außen und Fahrzeugpositionsdaten umfassen.
  • Die Anweisungen können ferner Anweisungen zum Filtern der Fahrzeugpositionsdaten durch Anwendung eines ersten Kalman-Filters auf die Fahrzeugpositionsdaten und zum Filtern der Positionsdaten von außen, die mit den Fahrzeugpositionsdaten in Beziehung stehen, durch Anwendung eines zweiten Kalman-Filters auf die Positionsdaten von außen, die mit den Fahrzeugpositionsdaten in Beziehung stehen, umfassen.
  • Die Anweisungen können ferner ein Betreiben des Fahrzeugs auf Grundlage der Fahrzeugpositionsdaten umfassen, wenn bestimmt wird, dass die Positionsdaten von außen von dem externen Knoten mit den Fahrzeugpositionsdaten in Beziehung stehen.
  • Die Positionsdaten von außen können mindestens eines von Standortkoordinaten, einer Ausrichtung, einer Objektart, einer Geschwindigkeit, einer Drehzahl, einer Form und Abmessungen eines Fahrzeugs beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Extrahieren der Positionsdaten von außen, die mit der Fahrzeugposition in Beziehung stehen, umfassen, wenn auf Grundlage des empfangenen Objektdatensatzes bestimmt wird, dass die Positionsdaten von außen ein Objekt mit Abmessungen, die den Abmessungen des Fahrzeugs entsprechen, das den Objektdatensatz empfangen hat, beschreibt.
  • Außerdem wird hier ein System offenbart, das Mittel zum Empfangen gesendeter Objektdaten, Mittel zum Bestimmen einer ersten Position eines Fahrzeugs auf Grundlage von Fahrzeugsensordaten, Mittel zum Identifizieren einer zweiten Position des Fahrzeugs auf Grundlage gesendeter Objektdaten, die von einem entfernten Computer empfangen werden, und der ersten Position und Mittel zum Bestimmen einer zusammengeführten Position des Fahrzeugs auf Grundlage einer gefilterten ersten Position und einer gefilterten zweiten Position des Fahrzeugs umfasst.
  • Außerdem wird eine Rechenvorrichtung offenbart, die dazu programmiert ist, beliebige der vorstehenden Verfahrensschritte auszuführen.
  • Darüber hinaus wird ein Computerprogrammprodukt offenbart, das ein computerlesbares Medium umfasst, auf dem Anweisungen gespeichert sind, die durch einen Computerprozessor ausgeführt werden können, um beliebige der vorstehenden Verfahrensschritte auszuführen.
  • Figurenliste
    • 1A ist ein Blockdiagramm, das einen beispielhaften Sensor zeigt, der auf einen beispielhaften Straßenabschnitt ausgerichtet ist.
    • 1B ist eine Seitenansicht des Fahrzeugs aus 1A.
    • Die 2A-2B zeigen ein Ablaufdiagramm eines beispielhaften Prozesses zum Betreiben des Fahrzeugs.
  • DETAILLIERTE BESCHREIBUNG
  • Ein Fahrzeug kann unter anderem einen Standortsensor beinhalten, der Daten, einschließlich eines Fahrzeugstandorts (oder einer Fahrzeugposition) und/oder einer Fahrzeugausrichtung, bereitstellt. Ein Fahrzeugcomputer kann das Fahrzeug betreiben, indem er Antriebs-, Brems- und/oder Lenkaktoren des Fahrzeugs zumindest teilweise auf Grundlage der von dem Fahrzeugstandortsensor empfangenen Daten betätigt. Die von einem Fahrzeugsensor empfangenen Standort- und/oder Ausrichtungsdaten können ungenau sein, was zu Problemen bei der Fahrzeugnavigation führen kann, z. B. einem erhöhten Kollisionsrisiko mit anderen Objekten.
  • In dieser Schrift werden Systeme und Verfahren offenbart, die eine Genauigkeit eines Fahrzeugstandortsensors verbessern, indem (i) von dem Fahrzeugstandortsensor empfangene Daten und (ii) Daten, die von einem externen Objektdetektionssensor, z. B. einem stationären Sensor, wie etwa Lidar, Kamera, Radar usw., der an einer Stange am Straßenrand montiert ist und ein Sichtfeld aufweist, welches das Fahrzeug beinhaltet, einem Sensor, der an einem anderen Fahrzeug, einem Fahrrad, einer Drohne montiert ist, usw. empfangen werden, zusammengeführt werden. Gemäß einer in dieser Schrift beschriebenen Technik kann ein Fahrzeugcomputer zu Folgendem programmiert sein: Empfangen von Objektdaten (oder eines Objektdatensatzes, der zu einem oder mehreren Objekten gehörende Objektdaten beinhaltet) von einem externen Knoten, z. B. dem stationären Sensor, einem Sensor eines anderen Fahrzeugs usw.; Empfangen von Fahrzeugpositionsdaten von einem bordeigenen Fahrzeugsensor; unter Verwendung der Fahrzeugpositionsdaten und von Kartendaten, Korrelieren eines 3D-Volumens des Fahrzeugs mit den Kartendaten; Korrelieren der Objektdaten mit den 3D-Kartendaten; Identifizieren eines Punkts in den empfangenen Objektdaten, der innerhalb des Volumens liegt; und Bestimmen einer angepassten Fahrzeugposition auf Grundlage des identifizierten Punkts und der Fahrzeugpositionsdaten. Im vorliegenden Kontext handelt es sich bei einem externen Knoten um einen beliebigen drahtlosen Knoten außerhalb des Fahrzeugs 101, z. B. den Sensor 165, einen entfernten Computer, ein anderes Fahrzeug usw.
  • Die 1A-1B veranschaulichen ein beispielhaftes System 100, das (i) ein Fahrzeug 101, das einen Computer 110, (einen) Aktor(en) 120, (einen) Sensor(en) 130, eine drahtlose Schnittstelle 140 und einen Bezugspunkt 150, der sich in einem geografischen Gebiet 160 befindet, aufweist, und (ii) mindestens einen Sensor 165 (der in mindestens einem Beispiel an Infrastruktur befestigt ist), der einen Computer 170 und eine Kommunikationsschnittstelle 175 aufweist. Eine Beschreibung der Komponenten des Fahrzeugs 101 und des Betriebs des beispielhaften Fahrzeugs 101 erfolgt im Anschluss an eine beispielhafte Beschreibung des Sensors 165 und mehrerer beispielhafter Verfahren zum Betreiben des Sensors 165. Wie aus der folgenden Beschreibung ersichtlich wird, kann der Sensor 165 mit mehr als einem Fahrzeug kommunizieren (andere Fahrzeuge sind nicht gezeigt) und können in mindestens einem Beispiel mehrere Sensoren verwendet werden. In diesen Beispielen können alle Sensoren identisch sein; daher ist nur ein Sensor (Sensor 165) gezeigt.
  • Im vorliegenden Kontext ist mit einem geografischen Gebiet 160 (oder einfach Gebiet 160) ein zweidimensionales (2D) Gebiet auf der Erdoberfläche gemeint. Begrenzungen oder Ränder eines Gebiets 160 können durch Koordinaten eines globalen Positionsbestimmungssystems (GPS) definiert sein, z. B. als Scheitelpunkte eines dreieckigen oder rechteckigen Gebiets 160, als ein Mittelpunkt eines kreisförmigen Gebiets 160 usw. Ein Gebiet 160 kann beliebige Abmessungen und/oder eine beliebige Form aufweisen, z. B. rechteckig, oval, kreisförmig, eine nicht geometrische Form usw. Ein Gebiet 160 kann einen Abschnitt einer Straße, einer Kreuzung usw. beinhalten. Ein Gebiet 160 kann durch einen Detektionsbereich des Sensors 165 definiert sein, d. h. Standorte innerhalb einer vorher festgelegten Entfernung, z.B. 200 Metern (m) von dem Sensor 165. Zusätzlich zu dem Fahrzeug 101 können sich andere Objekte (nicht gezeigt), wie etwa andere Fahrzeuge, Fußgänger, Fahrräder usw., in dem Gebiet 160 befinden.
  • Weiterhin unter Bezugnahme auf 1A kann das System 100 einen oder mehrere Sensor(en) 165 beinhalten, die z. B. am Straßenrand, an einer Kreuzung usw. positioniert und/oder an einem beliebigen unbeweglichen Objekt, wie etwa einem Gebäude, einer Stange usw., montiert sind. Bei einem Detektionsbereich eines Sensors 165 handelt es sich im vorliegenden Kontext um eine vordefinierte Entfernung vom Standort des Sensors 165, die zudem ein unversperrtes Sichtfeld des Sensors 165 beinhaltet - z. B. einen Bereich und eine Sichtlinie, über die das Fahrzeug 101 und/oder andere Objekte detektiert werden können. In anderen Beispielen kann sich ein Lidarsensor 165 an einem beliebigen geeigneten beweglichen oder unbeweglichen Objekt befinden.
  • Der Computer 170 des Sensors 165 kann einen Prozessor und einen Speicher, der durch den Prozessor ausführbare Anweisungen speichert, beinhalten. Der Speicher des Computers 170 beinhaltet eine oder mehrere Formen computerlesbarer Medien und speichert Anweisungen, die durch den Prozessor des Sensors 165 ausgeführt werden können, um verschiedene Vorgänge durchzuführen, einschließlich der hierin offenbarten.
  • Der Sensor 165 beinhaltet einen Objektdetektionssensor und/oder einen Tiefendetektionssensor. Beispielsweise kann der Sensor 165 eines oder mehrere von einem Lidarsensor, einem Kamerasensor, einem Radarsensor usw. beinhalten. Der Sensor 165 kann stationär sein, z. B. an einer Stange montiert sein (siehe 1A) oder sich bewegen, z. B. an einem zweiten Fahrzeug montiert sein und ein Sichtfeld aufweisen, das ein Gebiet außerhalb des jeweiligen zweiten Fahrzeugs beinhaltet. Beispielsweise kann ein Lidarsensor 165 das beispielhafte Gebiet 160 abtasten, indem er Laserstrahlen aussendet und Reflektionen der ausgesendeten Lidarstrahlen von Außenflächen von Objekten, wie etwa des Fahrzeugs 101 usw., und/oder einer Bodenfläche empfängt (z. B. Punktwolkendaten). Unter Verwendung der Punktwolkendaten kann der Computer 170 des Lidarsensors 165 dazu programmiert sein, Lidarobjektdaten auf Grundlage der empfangenen Reflektionen zu erzeugen. Tabelle 1 veranschaulicht beispielhafte Informationen, aus denen Objektdaten bestehen können. Im hier verwendeten Sinne sind mit Objektdaten Daten gemeint, die Attribute, wie etwa Standort, Abmessungen usw., physischer Objekte in einer 3D-Region, z B. einem Volumen über dem Gebiet 160, beschreiben. Die Objektdaten können Standortkoordinaten xix, yix, zix von Punkten auf Außenflächen von Objekten, z. B. des Fahrzeugs 101, die eine Reflektion der ausgesendeten Lichtstrahlen verursachen, beinhalten. Anders ausgedrückt können die Objektdaten Punktwolkendaten beinhalten, d. h. 3D-Standortkoordinaten xix, yix, zix einer Vielzahl von Punkten im Sichtfeld des Lidarsensors 165. Tabelle 1
    Datenelement Beschreibung
    Obj ektkennung Ein numerischer Wert, z. B. 1, 2, 3 usw.
    Objektart Fahrzeug, Fahrrad, Fußgänger, Gebäude, Stange, Gehsteig, Straßenbelag usw.
    Standort 2D- oder 3D-Standortkoordinaten xix, yix, zix eines Objektbezugspunkts, z. B. Mittelpunkts.
    Abmessungen Physische Abmessungen, z. B. Länge L, Breite W, Höhe H.
    Form Physische Formen, z. B. rund, rechteckig usw.
    Ausrichtung Die Ausrichtung θix ist eine Bewegungsrichtung und/oder Objektrichtung (relativ zu einer X- oder Y-Achse auf der Bodenfläche) auf Grundlage einer Form des Objekts, z. B. die Längsrichtung eines Fahrzeugs.
    Geschwindigkeit Beinhaltet die Quer- und/oder Längsgeschwindigkeit ẋix, ẏix und/oder die skalare Geschwindigkeit des Objekts.
    Drehzahl Eine Ableitung θ̇̇ix der Ausrichtung 0ix des Objekts im Zeitverlauf.
  • Die Objektdaten können Daten beinhalten, die zu mehreren Objekten, z. B. n Objekten im Sichtfeld des Sensors 165, gehören. In einem Beispiel, das in Tabelle 2 gezeigt ist, können die den jeweiligen Objekten O1 bis Onzugeordneten Daten Objektdaten wie in Tabelle 1 beschrieben beinhalten. Tabelle 2
    Objektkennung Daten
    O1 Objektart
    Standort
    Abmessungen
    usw.
    ... ...
    On Objektart
    Standort
    Abmessungen
    usw.
  • Die Standortdaten können (zweidimensionale) 2D-Standortkoordinaten xix, yix eines Objekts in Bezug auf ein 2D-Koordinatensystem, z. B. X-, Y-Achsen 180, 185, oder (dreidimensionale) 3D-Standortkoordinaten xix, yix, zix eines Objekts in Bezug auf ein 3D-Koordinatensystem, z. B. X-, Y-, Z-Achsen 180, 185, 190, und/oder eine Ausrichtung θix des Objekts angeben. Die in den Objektdaten enthaltenen Standortdaten geben Koordinaten eines Punkts des Objekts an. Im hier unter Bezug auf die beispielhafte Tabelle 1 verwendeten Sinne kann ein Objektpunkt ein Bezugspunkt 155, z. B. ein Mittelpunkt, des Objekts sein, der auf Grundlage von Abmessungen, der Form usw. des Objekts identifiziert wird. In noch einem anderen Beispiel im Kontext von Punktwolkendaten können die Objektdaten die Standortdaten eines Punkts angeben, von dem eine Reflektion empfangen wird, z. B. eines beliebigen Punkts auf einer Außenfläche des Objekts.
  • Eine Ausrichtung θix ist im vorliegenden Kontext eine Richtung oder Stellung eines Objekts in der Bodenebene relativ zu einer X-Achse oder einer Y-Achse (z. B. ist als Beispiel in der folgenden Beschreibung die Ausrichtung θix relativ zur x-Achse 180 beschrieben. Somit kann es sich bei der Ausrichtung θix um einen Gierwinkel in der Bodenebene handeln. Beispielsweise kann eine Ausrichtung θix des Fahrzeugs 101 durch einen Winkel zwischen der X-Achse 180 und der Längsachse des Fahrzeugs angegeben sein. Im vorliegenden Kontext geben 2D-Standortkoordinaten xix, yix Standortkoordinaten einer Projektion des Punkts 155 auf der Bodenfläche an. Die X-, Y-, Z-Achse 180, 185, 190 können ein GPS-Koordinatensystem darstellen. Somit kann in einem Beispiel der Computer 170 dazu programmiert sein, die Koordinaten xix, yix eines Objekts relativ zum GPS-Koordinatensystem auf Grundlage gespeicherter Standortkoordinaten des Sensors 165 und von dem Sensor 165 empfangener Daten zu bestimmen.
  • In einem anderen Beispiel können die Lidarobjektdaten Abmessungen, Art, Standort, Ausrichtung, Form usw. eines oder mehrerer detektierter Objekte beinhalten. Beispielsweise kann der Prozessor des Sensors 165 dazu programmiert sein, ein Objekt unter Verwendung von Techniken wie etwa semantischer Segmentierung oder dergleichen als Auto, LKW, Fahrrad, Fußgänger, Gebäude, Vegetation usw. zu klassifizieren. Demnach können Standortkoordinaten xix, yix z. B. Standortkoordinaten einer Projektion eines Bezugspunkts 155, wie etwa eines Mittelpunkts (auf Grundlage detektierter Abmessungen, z. B. Länge L, Breite W, Höhe H, und/oder der detektierten Form des Objekts im Sensor 165), auf der Bodenfläche angeben. Der Computer 170 kann einen Mittelpunkt 155 für das detektierte Objekt berechnen und die Standortkoordinaten des berechneten Mittelpunkts 155 in den gesendeten Objektdaten bestimmen. Zusätzlich können die Objektdaten die Höhenkoordinate zix beinhalten, wie vorstehend erörtert.
  • Zusätzlich oder alternativ können mehrere Sensoren 165 gemeinsam ein Gebiet 160 abdecken. In einem Beispiel können mehrere Sensoren 165 an einem Standort platziert, z. B. an einer Stange montiert, sein, die jeweils ein Sichtfeld in eine bestimmte Richtung bereitstellen. Zusätzlich oder alternativ können sich mehrere Sensoren 165 in einem Gebiet 160 befinden, z. B. an mehreren Stangen, Gebäuden usw. montiert sein.
  • Der Sensor 165 kann über die Kommunikationsschnittstelle 175 mit der drahtlosen Schnittstelle 140 des Fahrzeugs 101, einem entfernten Computer, anderen Sensoren (z. B. an anderer Stelle an Infrastruktur montiert) usw. kommunizieren. Die Kommunikationsschnittstelle 175 kann drahtgebundene und/oder drahtlose Kommunikation bereitstellen. Der Sensor 165 kann dazu programmiert sein, Objektdaten über die Kommunikationsschnittstelle 175 zu senden.
  • Ein drahtloses Kommunikationsnetzwerk (nicht gezeigt), das ein Fahrzeug-zu-Fahrzeug(F-zu-F)- und/oder ein Fahrzeug-zu-Infrastruktur(F-zu-I)-Kommunikationsnetzwerk beinhalten kann, beinhaltet eine oder mehrere Strukturen, z. B. einen drahtlosen Chip, einen Sendeempfänger usw., anhand derer der Sensor 165, (ein) entfernte(r) Computer, Fahrzeuge (wie z. B. das Fahrzeug 101) usw. miteinander kommunizieren können, einschließlich einer beliebigen gewünschten Kombination aus drahtlosen (z. B. Mobilfunk, drahtlos, Satellit, Mikrowellen und Funkfrequenz) Kommunikationsmechanismen und einer beliebigen gewünschten Netzwerktopologie (oder -topologien, wenn eine Vielzahl von Kommunikationsmechanismen genutzt wird). Zu beispielhaften F-zu-F- oder F-zu-I-Kommunikationsnetzwerken zählen Mobilfunk-, Bluetooth-, IEEE 802.11-, dedizierte Nahbereichskommunikations(dedicated short range communications - DSRC)- und/oder Weitverkehrsnetzwerke (wide area networks - WAN), einschließlich des Internets, die Datenkommunikationsdienste bereitstellen. Beispielsweise kann der Sensor 165 Daten drahtlos über die drahtlose Kommunikationsschnittstelle 175 an ein Fahrzeug 101 übertragen.
  • Der Computer 110 des Fahrzeugs 101 kann dazu programmiert sein, Daten über die drahtlose Schnittstelle 140 des Fahrzeugs 101 zu empfangen.
  • Wie vorstehend erörtert, kann das beispielhafte Fahrzeug 101 verschiedene Komponenten, wie etwa den Computer 110, den/die Aktor(en) 120, die Sensoren 130, die drahtlose Schnittstelle 140 und/oder andere Komponenten, wie etwa die nachstehend in dieser Schrift erörterten, beinhalten. Das Fahrzeug 101 kann einen Bezugspunkt 150 aufweisen, bei dem es sich z. B. um einen Schnittpunkt der Längs- und der Querachse handeln kann (die Achsen können jeweils eine Mittellinie des Fahrzeugs 101 in Längs- bzw. Querrichtung definieren, sodass der Bezugspunkt 150 als Mittelpunkt des Fahrzeugs 101 bezeichnet werden kann). Die Abmessungen des Fahrzeugs 101 können über eine Länge L, eine Breite W, eine Höhe H angegeben sein (siehe 1B).
  • Der Computer 110 beinhaltet einen Prozessor und einen Speicher. Der Speicher beinhaltet eine oder mehrere Formen computerlesbarer Medien und speichert Anweisungen, die durch den Computer 110 ausgeführt werden können, um verschiedene Vorgänge durchzuführen, einschließlich der hierin offenbarten.
  • Der Computer 110 kann das Fahrzeug 101 in einem autonomen, halbautonomen oder nicht autonomen Modus betreiben. Für die Zwecke dieser Offenbarung ist ein autonomer Modus als einer definiert, in dem jedes von Antrieb, Bremsen und Lenken des Fahrzeugs 101 durch den Computer 110 gesteuert wird; in einem halbautonomen Modus steuert der Computer 110 eines oder zwei von Antrieb, Bremsen und Lenken des Fahrzeugs 101; in einem nicht autonomen Modus steuert ein menschlicher Bediener den Antrieb, das Bremsen und das Lenken des Fahrzeugs.
  • Der Computer 110 kann Programmierung beinhalten, um eines oder mehrere von Bremsen, Antrieb (z. B. Steuerung der Beschleunigung in dem Fahrzeug 101 durch Steuern eines oder mehrerer von einer Brennkraftmaschine, einem Elektromotor, einem Hybridmotor usw.), Lenkung, Klimasteuerung, Innen- und/oder Außenbeleuchtung usw. des Fahrzeugs zu betreiben, sowie um zu bestimmen, ob und wann der Computer 110 im Gegensatz zu einem menschlichen Bediener derartige Vorgänge steuern soll.
  • Der Computer 110 kann mehr als einen Prozessor, z. B. Steuerungen oder dergleichen, die in dem Fahrzeug zum Überwachen und/oder Steuern verschiedener Fahrzeugsteuerungen, z. B. einer Antriebsstrangsteuerung, einer Bremssteuerung, einer Lenksteuerung usw., enthalten sind, beinhalten oder kommunikativ mit diesen gekoppelt sein, z. B. über einen Fahrzeugkommunikationsbus (nicht gezeigt), wie nachstehend ausführlicher beschrieben. Der Computer 110 ist im Allgemeinen für Kommunikationen in einem Fahrzeugkommunikationsnetzwerk, wie etwa einem Bus im Fahrzeug, wie etwa einem Controller Area Network (CAN) oder dergleichen, angeordnet. Über das Fahrzeugnetzwerk kann der Computer 110 Nachrichten an verschiedene Vorrichtungen im Fahrzeug 101 übertragen und/oder Nachrichten von den Sensoren 130, Aktoren 120 usw. empfangen.
  • Die Aktoren 120 des Fahrzeugs 101 können über Schaltungen, Chips oder andere elektronische Komponenten umgesetzt sein, die verschiedene Fahrzeugteilsysteme gemäß geeigneten Steuersignalen, wie bekannt, betätigen können. Die Aktoren 120 können verwendet werden, um Bremsung, Beschleunigung und Lenkung des Fahrzeugs 101 zu steuern. Als ein Beispiel kann der Computer 110 des Fahrzeugs 101 Steueranweisungen ausgeben, um die Aktoren 120 zu steuern.
  • Das Fahrzeug 101 kann einen oder mehrere Positionssensor(en) 130 beinhalten, die Daten bereitstellen, welche die Standortkoordinaten xveh, yveh eines Bezugspunkts 158 und/oder eine Ausrichtung θveh des Fahrzeugs 101 einschließen. Wie vorstehend erörtert kann der Positionssensor 130 z. B. aufgrund einer Ungenauigkeit des Sensors 130 des Fahrzeugs 101 den Bezugspunkt 158 mithilfe der Standortkoordinaten xveh, yveh identifizieren anstelle des wahren Bezugspunkts 150. Die 2D-Standortkoordinaten geben hierin eine Projektion eines Bezugspunkts 158 des Fahrzeugs 101 auf der Bodenfläche an. Eine Höhenkoordinate zveh kann auf Grundlage der Höhe H des Fahrzeugs 101 bestimmt werden, die z. B. in einem Speicher des Computers 110 gespeichert ist. In einem Beispiel kann die Höhenkoordinate zveh eines Mittelpunkts 150 der Hälfte der Höhe H entsprechen. Der Positionssensor 130 kann einen GPS-Sensor 130, einen drahtlosen Sensor, der die Laufzeit (time-of-flight -ToF) misst, einen Kamerasensor, einen Radarsensor und/oder einen Lidarsensor beinhalten. Der Computer 110 kann dazu programmiert sein, auf Grundlage von dem/den Sensor(en) 130 empfangener Daten die Standortkoordinaten xveh, yveh, zveh und/oder eine Ausrichtung θveh relativ zu einem kartesischen Koordinatensystem mit den X-, Y-, Z-Achsen 180, 185, 190, z. B. einem GPS-Koordinatensystem, zu bestimmen.
  • In einem Beispiel kann der Computer 110 dazu programmiert sein, Standortkoordinaten xveh, yveh und/oder eine Ausrichtung θveh des Fahrzeugs 101 auf Grundlage von Daten, die von dem Tiefendetektionssensor 130 empfangen werden, und von Kartendaten, z. B. unter Verwendung von Positionsbestimmungstechniken, zu bestimmen.
  • Unter Bezugnahme auf 1A zeigen Standortkoordinaten x, y tatsächliche Standortkoordinaten des Bezugspunkts 150 des Fahrzeugs 101. Eine Ausrichtung θ ist eine tatsächliche Ausrichtung des Fahrzeugs 101. Die Standortkoordinaten xveh, yveh und/oder eine Ausrichtung θveh, die auf Grundlage der Daten der Fahrzeugsensoren 130 bestimmt werden können jedoch, wie in 1A gezeigt, von den tatsächlichen Standortkoordinaten x, y und/oder der tatsächlichen Ausrichtung θ des Fahrzeugs 101 abweichen, z. B. aufgrund einer Ungenauigkeit des Positionssensors 130.
  • In einem nicht einschränkenden Beispiel kann der Computer 110 dazu programmiert sein, Objektdaten von einem externen Knoten zu empfangen und bei Identifizierung eines Punkts 155 in den empfangenen Objektdaten, der innerhalb eines Volumens 195 liegt, das unter Verwendung von einem Sensor 130 des Fahrzeugs 101 empfangener Positionsdaten des Fahrzeugs 101 definiert wird, eine angepasste Fahrzeugposition auf Grundlage des identifizierten Punkts 155 und der Position des Fahrzeugs 101 zu bestimmen.
  • Im vorliegenden Kontext ist der Punkt 155 ein Punkt in und/oder an dem Fahrzeug 101, der in den vom Sensor 165 empfangenen Objektdaten angegeben ist. Beispielsweise kann der Punkt 155 ein in den empfangenen Objektdaten angegebener Bezugspunkt 155 sein (siehe Tabelle 1). In einem anderen Beispiel kann der Punkt 155 ein Punkt auf einer Außenfläche des Fahrzeugs 101 sein, der in den Punktwolkendaten enthalten ist. Unter Bezugnahme auf 1A beinhalten die in den Objektdaten enthaltenen Daten, die zu dem Punkt 155 gehören, die Standortkoordinaten xix, yix und/oder die Ausrichtung θix.
  • Im vorliegenden Kontext sind mit der von einem Sensor 130 des Fahrzeugs 101 empfangenen Position des Fahrzeugs 101 die Standortkoordinaten xveh, yveh (oder 3D-Standortkoordinaten xveh, yveh, zveh, wie vorstehend erörtert) und/oder die Ausrichtung θveh gemeint. Wie in 1A gezeigt, können die Standortkoordinaten xveh, yveh und/oder die Ausrichtung θveh von den tatsächlichen Standortkoordinaten x, y des Bezugspunkts 150 und/oder der tatsächlichen Ausrichtung θ des Fahrzeugs 101 abweichen.
  • Das Volumen 195 wird unter Verwendung der Standortdaten definiert, die von dem Sensor 130 des Fahrzeugs 101 empfangen werden, z. B. der Standortkoordinaten xveh, yveh und optional der Höhenkoordinate zveh und/oder der Fahrzeughöhe H. Das Volumen 195 kann ein rechteckiges durchgängig geformtes Volumen sein, das eine geschätzte Länge Le, eine geschätzte Breite We und eine geschätzte Höhe He aufweist (siehe 1B). Eine Untergrenze des Volumens 195 kann an den Standortkoordinaten xveh, yveh zentriert und in der gleichen Richtung ausgerichtet sein wie die Richtung des Fahrzeugs 101 (auf Grundlage der von den Sensoren 130 empfangenen Daten). Die geschätzte Höhe He kann auf Grundlage einer Höhe des Fahrzeugs 101, z. B. 2 Metern (m), angegeben werden. Der Computer 110 kann dazu programmiert sein, die Länge Le und die Breite We des Volumens 195 auf Grundlage der Gleichungen (1)-(2) zu schätzen. In einem Beispiel können die Parameter a, b jeweils auf einen Wert von 2 festgelegt sein, um z. B. Ungenauigkeiten des jeweiligen Sensors 130, 165 zu berücksichtigen. Anders ausgedrückt stellt eine Anpassung der Parameter a, b eine Möglichkeit zum Verkleinern oder Vergrößern des Volumens 195 bereit, damit bestimmt werden kann, ob die empfangenen Objektdaten ignoriert oder als dem Fahrzeug 101 entsprechende Daten akzeptiert werden sollen. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, die Abmessungen Le, We des Volumens 195 auf Grundlage gefilterter Daten von den Sensoren 130 zu schätzen, wie nachstehend unter Bezugnahme auf die 2A-2B erörtert. L e = a .L
    Figure DE102020100022A1_0001
    W e = b .W
    Figure DE102020100022A1_0002
  • Die 2A-2B veranschaulichen ein Ablaufdiagramm eines beispielhaften Prozesses 200 zum Betreiben des Fahrzeugs 101. In einem Beispiel kann der Computer 110 dazu programmiert sein, Blöcke des Prozesses 200 auszuführen.
  • Der Prozess 200 beginnt bei einem Block 210, bei dem der Computer 110 von dem Sensor 165 gesendete Objektdaten empfängt. Wie vorstehend erörtert, können die gesendeten Objektdaten Punktwolkendaten und/oder Objektdaten beinhalten, z. B. Tabelle 1.
  • Als Nächstes empfängt bei einem Block 220 der Computer 110 Daten von dem Sensor 130 des Fahrzeugs 101. Der Computer 110 kann dazu programmiert sein, Daten von dem Positionssensor 130, dem Tiefendetektionssensor 130 usw. zu empfangen.
  • Als Nächstes bestimmt bei einem Block 230 der Computer 110 erste Positionsdaten des Fahrzeugs 101, einschließlich der 2D-Standortkoordinaten xveh, yveh oder 3D-Standortkoordinaten xveh, yveh, zveh und/oder der Ausrichtung θveh. „Erste“ und „zweite“ werden hierin verwendet, um zwischen Daten, die von dem Sensor 130 des Fahrzeugs 101 empfangen werden, und Daten, die von einem externen Knoten empfangen werden, wie etwa Daten von dem Sensor 165, zu unterscheiden. Im vorliegenden Kontext werden die ersten und zweiten Positionsdaten mitunter als von dem Sensor 130 empfangene Fahrzeugpositionsdaten bzw. von einem externen Knoten, z. B. vom Sensor 165, empfangene Positionsdaten von außen bezeichnet. Der Computer 110 kann dazu programmiert sein, auf Grundlage der Standortkoordinaten xveh, yveh und/oder der Ausrichtung θveh eine Längs- und eine Quergeschwindigkeit ẋveh, ẏveh und/oder eine Drehzahl θ̇̇̇veh des Fahrzeugs zu bestimmen.
  • Als Nächstes wendet in einem Block 240 der Computer 110 ein erstes Filter F1 auf die empfangenen ersten Fahrzeugpositionsdaten an. Die von dem Sensor 130 empfangenen Daten können Rauschen beinhalten. Ein Filter ist ein beliebiges geeignetes Filter zur linearquadratischen Zustandsschätzung. Nicht einschränkende Beispiele beinhalten ein Kalman-Filter, ein Erweitertes Kalman-Filter, ein Unscented Kalman-Filter, eine rekursive bayessche Schätzung, ein Tiefpassfilter usw. In einem Beispiel kann der Computer 110 unter Bezugnahme auf die Gleichungen (3) und (4) dazu programmiert sein, die gefilterte erste Position Xveh f durch Anwendung eines ersten Kalman-Filters F1 auf die erste Position Xveh des Fahrzeugs 101 zu erzeugen. In Bezug auf Gleichung (3) kann die erste Position Xveh des Fahrzeugs 101 zusätzlich die Längs- und Quergeschwindigkeit ẋveh,ẏveh und/oder eine Drehzahl θ̇̇veh beinhalten. X veh = [ x veh y veh θ veh ]
    Figure DE102020100022A1_0003
    X veh f = F 1 ( X veh )
    Figure DE102020100022A1_0004
  • Das erste Kalman-Filter F1 kann auf Grundlage von Attributen, z. B. einer Rauschverteilung in den Sensordaten, einem Bewegungsmodell des Fahrzeugs 101 usw., angegeben werden. Ein Kalman-Filter F1 beinhaltet üblicherweise eine Kovarianzmatrix, z. B. die erste Kovarianzmatrix Qveh, zum Filtern der Daten des Sensors 130, die von dem Positionssensor 130 des Fahrzeugs 101 empfangen werden. Eine Kovarianz ist ein Messwert einer gemeinsamen Variabilität mehrerer Zufallsvariablen, z. B. der Standortkoordinaten xveh, yveh. Die Kovarianzmatrix Qveh kann zumindest teilweise auf Grundlage der technischen Eigenschaften des Sensors 130 und/oder über empirische Verfahren bestimmt werden, z. B. Sammeln von Daten von dem Sensor 130 und Analysieren der gesammelten Daten in Bezug auf Ground-Truth-Daten zum Bestimmen der Kovarianzmatrix Qveh.
  • Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, die erste Position Xveh des Fahrzeugs 101 durch Anwendung eines Tiefpassfilters F1 auf die erste Position Xveh zu filtern. Ein Tiefpassfilter ist ein Filter, das Signale mit einer Frequenz unter einer vorgegebenen Grenzfrequenz durchlässt und Signale mit Frequenzen über der Grenzfrequenz verringert (oder abschwächt). In einem Beispiel kann die Grenzfrequenz des Filters F1 auf Grundlage einer Frequenz, z. B. 100 Hz, des in den von dem Sensor 130 empfangenen Daten enthaltenen Rauschens angegeben werden. Beispielsweise kann die Grenzfrequenz eine Frequenz, z. B. 80 Hz, sein, die unter der angegebenen Rauschfrequenz liegt.
  • Als Nächstes bestimmt in einem Entscheidungsblock 250 der Computer 110, ob eine zweite Fahrzeugposition (oder Positionsdaten von außen) in den gesendeten Daten identifiziert wurde. Der Computer 110 kann dazu programmiert sein, Positionsdaten Xix von außen, die mit Fahrzeugpositionsdaten Xveh in Beziehung stehen, aus dem über den externen Knoten, z. B. den Sensor 165, empfangenen Objektdatensatz zu extrahieren. Beispielsweise kann der Computer 110 unter Bezugnahme auf Gleichung (5) dazu programmiert sein, zu bestimmen, dass die gesendeten Daten zweite Positionsdaten für das Fahrzeug 101 beinhalten, wenn in den gesendeten Daten ein Objekt mit einem Bezugspunkt 155 mit den Standortkoordinaten Xix in dem Volumen 195 identifiziert wird (d. h. wenn bestimmt wird, dass ein Bezugspunkt 155, wie etwa ein Mittelpunkt des Objekts, innerhalb des vorgegebenen Volumens 195 liegt). Demnach kann der Computer 110 dazu programmiert sein, die zweiten Standortkoordinaten Xix als die zweite Position des Fahrzeugs 101 zu bestimmen (die später mit der ersten Position zusammengeführt wird, um eine angepasste Position zu bestimmen). Unter Bezugnahme auf die Gleichung (5) kann die zweite Fahrzeugposition Xix zusätzlich die Längs- und Querschwindigkeit ẋix,ẏix und/oder die Drehzahl θ̇ix beinhalten. X ix = [ x ix y ix θ ix ]
    Figure DE102020100022A1_0005
  • Der Computer 110 kann ferner dazu programmiert sein, die identifizierten Objektstandortkoordinaten Xix als die zweite Position des Fahrzeugs 101 zu bestimmen, wenn bestimmt wird, dass zumindest entweder (i) eine Art, z. B. Auto, LKW usw, des in den gesendeten Daten identifizierten Objekts der Art des Fahrzeugs 101 entspricht, die z. B. in einem Speicher des Computers 110 gespeichert ist, oder (ii) Abmessungen des in den gesendeten Daten identifizierten Objekts den Abmessungen des Fahrzeugs 101 entsprechen. Im vorliegenden Kontext können mit „entsprechenden Abmessungen“ Abmessungen gemeint sein, die eine Differenz von weniger als einem Maximaldifferenzschwellenwert, z. B. 10 %, aufweisen. Zusätzlich oder alternativ kann der Computer 110 unter Bezugnahme auf Gleichung (6) dazu programmiert sein, die identifizierten Objektstandortkoordinaten Xix als die zweite Position des Fahrzeugs 101 zu bestimmen, wenn bestimmt wird, dass eine Differenz zwischen der Ausrichtung θix des identifizierten Objekts und der Ausrichtung θveh des Fahrzeugs 101, die auf Grundlage von Daten von dem Sensor 130 des Fahrzeugs 101 bestimmt wird, unter einem Schwellenwert θth, z. B. 30 Grad, liegt. | θ ix θ veh | < θ th
    Figure DE102020100022A1_0006
  • Wie vorstehend erörtert, können die gesendeten Objektdaten eine Punktwolke und/oder Objektdaten wie sie in Tabelle 1 gezeigt sind beinhalten. Demnach kann im vorliegenden Kontext der Punkt 155 (i) ein Punkt in den Punktwolkendaten sein, z. B. ein beliebiger Punkt auf einer Außenfläche des Fahrzeugs 101, d. h. ein beliebiger Punkt innerhalb des Volumens 195 mit einer Höhe, z.B. 30 Zentimetern (cm), über der Bodenfläche (um Lidarreflektionen von der Bodenfläche auszuschließen), und/oder (ii) ein Bezugspunkts 155 eines Objektes, das in einer Liste von Objekten, wie z. B. in Tabelle 1 angegeben, enthalten ist.
  • Wenn der Computer 110 bestimmt, dass die Standortkoordinaten xix, yix, yix des Punkts 155 innerhalb des Volumens 195 liegen oder die Standortkoordinaten xix, yix einer Projektion des Punkts 155 auf der Bodenfläche innerhalb einer Untergrenzenfläche (einem 2D-Gebiet auf der Bodenfläche) des Volumens 195 liegen, geht der Prozess 200 zu einem Block 270 über (siehe 2B); andernfalls geht der Prozess 200 zu einem Block 260 über.
  • Im Block 260 betreibt der Computer 110 das Fahrzeugs 101 zumindest teilweise auf Grundlage der ersten Position des Fahrzeugs 101, die auf Grundlage von Daten von dem Sensor 130 des Fahrzeugs 101 bestimmt wurde. Beispielsweise kann der Computer 110 dazu programmiert sein, (einen) Antriebs-, Lenk- und/oder Bremsaktor(en) 120 des Fahrzeugs 101 auf Grundlage eines vorgegebenen Ziels, der auf Grundlage von Daten von einem GPS-Sensor 130 bestimmten ersten Positionsdaten usw. zu betätigen. Anders ausgedrückt kann der Computer 110, wenn kein Punkt 155 innerhalb des Volumens 195 identifiziert wird, das Fahrzeug 101 ohne Zusammenführung der Daten des Sensors 130 mit etwaigen Daten von einem externen Knoten betreiben. Im Anschluss an den Block 260 endet der Prozess 200 oder kehrt zu einem Block 210 zurück, obwohl dies in 2A nicht gezeigt ist.
  • Nun unter Bezugnahme auf 2B wendet der Comuter 110 im Block 270 ein zweites Filter F2 auf die Positionsdaten des identifizierten Punkts 155 d.h. die zweiten Fahrzeugpositionsdaten) an. Zum Beispiel kann der Computer 110 unter Bezugnahme auf Gleichung (7) dazu programmiert sein, eine gefilterte zweite Position durch Anwendung eines zweiten Kalman-Filters F2 auf die zweite Position Xix des Fahrzeugs 101 zu erzeugen. Eine Kovarianzmatrix Qix des Sensors 165 kann eine Kovarianz der von dem Sensor 165 empfangenen gesendeten Daten angeben. Wie vorstehend erörtert, kann eine Kovarianzmatrix Qix auf Grundlage der technischen Eigenschaften des Sensors 165 und/oder über empirische Verfahren bestimmt werden. In einem Beispiel kann der Computer 110 dazu programmiert sein, die Kovarianzmatrix Qix und/oder eine oder mehrere Eigenschaften des zweiten Kalman-Filters F2 über das drahtlose Kommunikationsnetzwerk von dem Computer 170 des Sensors 165 empfangen. X i x f = F 2 ( X ix )
    Figure DE102020100022A1_0007
  • Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, die zweiten Positionsdaten xix durch Anwendung eines Tiefpassfilters F2 auf die zweite Position xix zu filtern. In einem Beispiel kann die Grenzfrequenz des Filters F2 auf Grundlage einer Frequenz, z.B. 100 Hz, des in den von dem Sensor 165 empfangenen gesendeten Daten enthaltenen Rauschens angegeben werden. Beispielsweise kann die Grenzfrequenz eine Frequenz, z. B. 80 Hz, sein, die unter der angegebenen Rauschfrequenz liegt.
  • Als Nächstes führt bei einem Block 280 der Computer 110 die gefilterte zweite Position xix f (oder die gefilterten Positionsdaten von außen) und die gefilterten Fahrzeugpositionsdaten Xvehf zusammen, um die Positionsbestimmung des Fahrzeugs 101 zu verbessern. Im vorliegenden Kontext ist mit „zusammenführen“ gemeint, dass zwei Sätze positionsbezogener Daten für die Zwecke der Verbesserung der Fahrzeugpositionsbestimmung zu einem einzelnen Satz vereint werden. Ein Ergebnis des Zusammenführens der Fahrzeugpositionsdaten und der Positionsdaten von außen von dem externen Knoten wird in dieser Schrift als angepasste Position bezeichnet. Der Computer 110 kann dazu programmiert sein, eine angepasste Fahrzeugposition Xa, die angepasste Standortkoordinaten xa, ya und/oder eine angepasste Ausrichtung θa beinhaltet, auf Grundlage der gefilterten ersten und zweiten Fahrzeugpositionsdaten xixf und Xvehf unter Verwendung verschiedener Datenzusammenführungstechniken zu bestimmen.
  • In einem Beispiel kann der Computer 110 auf Grundlage von Gleichung (8) dazu programmiert sein, die gefilterten ersten und zweiten Positionsdaten zusammenzuführen. 1A zeigt die angepasste Fahrzeugposition xa, ya und die angepasste Ausrichtung θa. X a = X v e h Q v e h + X i x Q i x 1 Q v e h + 1 Q i x
    Figure DE102020100022A1_0008
  • Als Nächstes betreibt bei einem Block 290 der Computer 110 das Fahrzeug 101 auf Grundlage der zusammengeführten ersten und zweiten Positionsdaten xixf und Xveh f . Zum Beispiel kann der Computer 110 dazu programmiert sein, das Fahrzeug 101 auf Grundlage der angepassten Position Xa des Fahrzeugs 101 zu betreiben. Der Computer 110 kann dazu programmiert sein, eine Fahrzeugfunktion auf Grundlage der Bestimmung der angepassten Positionsdaten Xa des Fahrzeugs 101 durchzuführen. Nicht einschränkende Beispiele für das Durchführen einer Fahrzeugfunktion beinhalten das Betätigen mindestens eines von den Antriebs-, Lenk- und/oder Bremsaktoren 120 des Fahrzeugs 101. Im Anschluss an Block 290 endet der Prozess 200 oder kehrt alternativ zum Block 210 zurück, obwohl dies in den 2A-2B nicht gezeigt ist.
  • Unter Bezugnahme auf Prozess 200 können (i) Mittel zum Empfangen gesendeter Objektdaten eine drahtlose Schnittstelle 140 des Fahrzeugs 101, die zur Kommunikation mit einem externen Knoten, z. B. der drahtlosen Kommunikationsschnittstelle 175 des Sensors 165 konfiguriert ist, beinhalten; kann es sich (ii) bei Mitteln zum Bestimmen einer ersten Position eines Fahrzeugs 101 um einen Positionssensor 130 oder eine beliebige andere Art von Sensor handeln, auf dessen Grundlage der Computer 110 die Position des Fahrzeugs 101 bestimmen kann, z. B. Positionsbestimmung auf Grundlage von Daten von einem Lidarsensor 130; können (iii) Mittel zum Identifizieren einer zweiten Position des Fahrzeugs 101 und Mittel zum Bestimmen einer zusammengeführten Position des Fahrzeugs 101 den Computer 110 des Fahrzeugs 101 beinhalten, der zum Ausführen von Blöcken des Prozesses 200 programmiert ist.
  • Demnach wurde ein System zum Verbessern einer Fahrzeugpositionsbestimmung beschrieben, das einen Fahrzeugcomputer und einen Fahrzeugpositionssensor umfasst. Gemäß einem Beispiel ist der Computer dazu programmiert, einen Prozess zum Verbessern der Genauigkeit von Fahrzeugpositionsdaten unter Verwendung von einem externen Knoten empfangener Objektdaten auszuführen. Der Fahrzeugcomputer kann dann das Fahrzeug auf Grundlage von Fahrzeugpositionsdaten mit verbesserten Daten betreiben.
  • Rechenvorrichtungen, wie sie hierin erörtert sind, beinhalten im Allgemeinen jeweils Anweisungen, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend identifizierten, und zum Ausführen von Blöcken oder Schritten vorstehend beschriebener Prozesse ausführbar sind. Computerausführbare Anweisungen können anhand von Computerprogrammen zusammengestellt oder ausgelegt werden, die unter Verwendung vielfältiger Programmiersprachen und/oder -technologien erstellt werden, einschließlich unter anderem und für sich oder in Kombination Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch ein oder mehrere Prozesse durchgeführt werden, einschließlich eines oder mehrerer der hierin beschriebenen Prozesse. Derartige Anweisungen und andere Daten können unter Verwendung vielfältiger computerlesbarer Medien gespeichert und übertragen werden. Eine Datei in der Rechenvorrichtung ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw., gespeichert ist.
  • Ein computerlesbares Medium beinhaltet ein beliebiges Medium, das am Bereitstellen von Daten (z. B. Anweisungen), die durch einen Computer gelesen werden können, beteiligt ist. Ein derartiges Medium kann viele Formen annehmen, einschließlich unter anderem nichtflüchtiger Medien, flüchtiger Medien usw. Zu nichtflüchtigen Medien gehören beispielsweise optische Platten oder Magnetplatten und andere dauerhafte Speicher. Zu flüchtigen Medien gehört ein dynamischer Direktzugriffsspeicher (dynamic random access memory - DRAM), der üblicherweise einen Hauptspeicher darstellt. Zu gängigen Formen computerlesbarer Medien gehören zum Beispiel eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, ein RAM, ein PROM, ein EPROM, ein FLASH-EEPROM, ein beliebiger anderer Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das durch einen Computer ausgelesen werden kann.
  • Hinsichtlich der hierin beschriebenen Medien, Prozesse, Systeme, Verfahren usw. versteht es sich, dass die Schritte solcher Prozesse usw. zwar als gemäß einer bestimmten Abfolge erfolgend beschrieben worden sind, solche Prozesse jedoch so umgesetzt werden könnten, dass die beschriebenen Schritte in einer anderen Reihenfolge als der hierin beschriebenen Reihenfolge durchgeführt werden. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte in dieser Schrift beschriebene Schritte weggelassen werden könnten. Anders ausgedrückt sind die Beschreibungen von Systemen und/oder Prozessen hierin zum Zwecke der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten keinesfalls dahingehend ausgelegt werden, dass sie den offenbarten Gegenstand einschränken.
  • Dementsprechend versteht es sich, dass die vorliegende Offenbarung, einschließlich der vorstehenden Beschreibung und der beigefügten Figuren und nachfolgenden Ansprüche, als veranschaulichend und nicht als einschränkend gedacht ist. Viele Ausführungsformen und Anwendungen, bei denen es sich nicht um die bereitgestellten Beispiele handelt, werden dem Fachmann bei der Lektüre der vorstehenden Beschreibung ersichtlich. Der Schutzumfang der Erfindung sollte nicht unter Bezugnahme auf die vorstehende Beschreibung, sondern stattdessen unter Bezugnahme auf die Patentansprüche, die dieser beigefügt und/oder in einer nicht vorläufigen Patentanmeldung auf Grundlage von dieser eingeschlossen sind, gemeinsam mit dem vollständigen Umfang von Äquivalenten, zu denen derartige Patentansprüche berechtigt sind, bestimmt werden. Es wird erwartet und ist beabsichtigt, dass es hinsichtlich der hierin erörterten Fachgebiete künftige Entwicklungen geben wird und dass die offenbarten Systeme und Verfahren in solche künftigen Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass der offenbarte Gegenstand modifiziert und variiert werden kann.
  • Gemäß der vorliegenden Erfindung wird ein Computer bereitgestellt, der einen Prozessor und einen Speicher aufweist, wobei der Speicher Anweisungen speichert, die vom Prozessor zu Folgendem ausgeführt werden können: Empfangen von Objektdaten in einem Fahrzeug von einem externen Knoten; und bei Identifizierung eines Punkts in den empfangenen Objektdaten, der innerhalb eines Volumens liegt, das unter Verwendung von einem Fahrzeugsensor empfangener Fahrzeugpositionsdaten definiert wird, Bestimmen einer angepassten Fahrzeugposition auf Grundlage des identifizierten Punkts und der Fahrzeugpositionsdaten.
  • Gemäß einer Ausführungsform ist der identifizierte Punkt ein Bezugspunkt eines in den empfangenen Objektdaten beschriebenen Objekts.
  • Gemäß einer Ausführungsform umfassen die Anweisungen ferner ein bestimmen des Volumens zumindest teilweise auf Grundlage von Fahrzeugabmessungen.
  • Gemäß einer Ausführungsform ist eine Untergrenze des Volumens an einer Projektion eines Fahrzeugbezugspunkts auf einer Bodenfläche zentriert, die auf Grundlage der Fahrzeugpositionsdaten bestimmt wird.
  • Gemäß einer Ausführungsform umfassen die Anweisungen ferner ein Betreiben des Fahrzeugs auf Grundlage der angepassten Fahrzeugposition.
  • Gemäß einer Ausführungsform umfassen die Anweisungen ferner Folgendes: Filtern der Fahrzeugpositionsdaten durch Anwendung eines ersten Kalman-Filters auf die Fahrzeugpositionsdaten; und Filtern der Positionsdaten des identifizierten Punkts durch Anwendung eines zweiten Kalman-Filters auf die Positionsdaten des Punkts.
  • Gemäß einer Ausführungsform umfassen die Anweisungen ferner ein Betreiben des Fahrzeugs auf Grundlage der Fahrzeugpositionsdaten, wenn bestimmt wird, dass das Objekt von dem externen Knoten nicht über einen Punkt innerhalb des Volumens verfügt.
  • Gemäß einer Ausführungsform umfassen die Anweisungen ferner ein Identifizieren des Punkts in dem Volumen nur dann, wenn auf Grundlage der empfangenen Objektdaten bestimmt wird, dass der identifizierte Punkt ein Bezugspunkt eines Objekts von einer Art ist, die einer Fahrzeugart entspricht.
  • Gemäß einer Ausführungsform umfassen die Anweisungen ferner ein Identifizieren des Punkts in dem Volumen nur dann, wenn auf Grundlage der empfangenen Objektdaten bestimmt wird, dass der identifizierte Punkt ein Bezugspunkt eines Objekts mit Abmessungen ist, die den Abmessungen des Fahrzeugs entsprechen, das die Objektdaten empfangen hat.
  • Gemäß einer Ausführungsform umfassen die Anweisungen ferner Folgendes: Bestimmen des Volumens mit einer Untergrenze auf einer Bodenfläche mit vorher festgelegten Abmessungen, die an einer auf eine Bodenfläche projizierten Fahrzeugposition zentriert sind; und bei Identifizierung eines Objekts aus den gesendeten Daten mit einem Bezugspunkts, der innerhalb des bestimmten Volumens liegt, Bestimmen der angepassten Fahrzeugposition teilweise auf Grundlage von Standortkoordinaten des Objektbezugspunkts.
  • Gemäß einer Ausführungsform beinhalten die Positionsdaten zumindest eine laterale Koordinate, eine longitudinale Koordinate, eine Ausrichtung, eine Quergeschwindigkeit, eine Längsgeschwindigkeit und eine Drehzahl des Fahrzeugs.
  • Gemäß einer Ausführungsform beinhalten die Objektdaten ferner zumindest eine laterale Koordinate, eine longitudinale Koordinate, eine Ausrichtung, eine Quergeschwindigkeit, eine Längsgeschwindigkeit und eine Drehzahl eines Objekts.
  • Gemäß einer Ausführungsform beinhalten die Objektdaten mindestens eines von Standortkoordinaten, einer Ausrichtung, einer Objektart, einer Geschwindigkeit, einer Drehzahl, einer Form und Abmessungen des Objekts.
  • Gemäß der vorliegenden Erfindung wird ein Computer bereitgestellt, der einen Prozessor und einen Speicher aufweist, wobei der Speicher Anweisungen speichert, die durch den Prozessor für Folgendes ausgeführt werden können: Extrahieren von Positionsdaten von außen, die mit Fahrzeugpositionsdaten in Beziehung stehen, aus einem über einen externen Knoten empfangenen Objektdatensatz; Filtern der Positionsdaten von außen und der Fahrzeugpositionsdaten unabhängig voneinander; und dann Zusammenführen der gefilterten Positionsdaten von außen und Fahrzeugpositionsdaten, um die Positionsbestimmung des Fahrzeugs zu verbessern.
  • Gemäß einer Ausführungsform umfassen die Anweisungen ferner ein Betreiben des Fahrzeugs auf Grundlage der zusammengeführten gefilterten Positionsdaten von außen und Fahrzeugpositionsdaten.
  • Gemäß einer Ausführungsform umfassen die Anweisungen ferner Folgendes: Filtern der Fahrzeugpositionsdaten durch Anwendung eines ersten Kalman-Filters auf die Fahrzeugpositionsdaten; und Filtern der Positionsdaten von außen, die mit den Fahrzeugpositionsdaten in Beziehung stehen, durch Anwendung eines zweiten Kalman-Filters auf die Positionsdaten von außen, die mit den Fahrzeugpositionsdaten in Beziehung stehen.
  • Gemäß einer Ausführungsform umfassen die Anweisungen ferner ein Betreiben eines Fahrzeugs auf Grundlage der Fahrzeugpositionsdaten, wenn bestimmt wird, dass die Positionsdaten von außen von dem externen Knoten mit den Fahrzeugpositionsdaten in Beziehung stehen.
  • Gemäß einer Ausführungsform beinhalten die Positionsdaten von außen mindestens eines von Standortkoordinaten, einer Ausrichtung, einer Objektart, einer Geschwindigkeit, einer Drehzahl, einer Form und Abmessungen eines Fahrzeugs.
  • Gemäß einer Ausführungsform umfassen die Anweisungen ferner ein Extrahieren der Positionsdaten von außen, die mit der Fahrzeugposition in Beziehung stehen, wenn auf Grundlage des empfangenen Objektdatensatzes bestimmt wird, dass die Positionsdaten von außen ein Objekt mit Abmessungen, die den Abmessungen des Fahrzeugs entsprechen, das den Objektdatensatz empfangen hat, beschreiben.
  • Gemäß der vorliegenden Erfindung wird ein System bereitgestellt, das Folgendes aufweist: Mittel zum Empfangen gesendeter Objektdaten; Mittel zum Bestimmen einer ersten Position eines Fahrzeugs auf Grundlage von Fahrzeugsensordaten; Mittel zum Identifizieren einer zweiten Position des Fahrzeugs auf Grundlage gesendeter Objektdaten, die von einem entfernten Computer empfangen werden, und der ersten Position; und Mittel zum Bestimmen einer zusammengeführten Position des Fahrzeugs auf Grundlage einer gefilterten ersten Position und einer gefilterten zweiten Position des Fahrzeugs.

Claims (15)

  1. Verfahren, umfassend: Empfangen von Objektdaten von einem externen Knoten in einem Fahrzeug; und bei Identifizierung eines Punkts in den empfangenen Objektdaten, der innerhalb eines Volumens liegt, das unter Verwendung von einem Fahrzeugsensor empfangener Fahrzeugpositionsdaten definiert wird, Bestimmen einer angepassten Fahrzeugposition auf Grundlage des identifizierten Punkts und der Fahrzeugpositionsdaten.
  2. Verfahren nach Anspruch 1, ferner umfassend ein Bestimmen des Volumens zumindest teilweise auf Grundlage von Fahrzeugabmessungen.
  3. Verfahren nach Anspruch 1, wobei eine Untergrenze des Volumens an einer Projektion eines Fahrzeugbezugspunkts auf einer Bodenfläche zentriert ist, die auf Grundlage der Fahrzeugpositionsdaten bestimmt wird.
  4. Verfahren nach Anspruch 1, ferner umfassend ein Betreiben des Fahrzeugs auf Grundlage der angepassten Fahrzeugposition.
  5. Verfahren nach Anspruch 1, ferner umfassend: Filtern der Fahrzeugpositionsdaten durch Anwendung eines ersten Kalman-Filters auf die Fahrzeugpositionsdaten; und Filtern von Positionsdaten des identifizierten Punkts durch Anwendung eines zweiten Kalman-Filters auf die Positionsdaten des Punkts.
  6. Verfahren nach Anspruch 1, ferner umfassend ein Betreiben des Fahrzeugs auf Grundlage der Fahrzeugpositionsdaten, wenn bestimmt wird, dass das Objekt von dem externen Knoten nicht über einen Punkt innerhalb des Volumens verfügt.
  7. Verfahren nach Anspruch 1, ferner umfassend ein Identifizieren des Punkts in dem Volumen nur dann, wenn auf Grundlage der empfangenen Objektdaten bestimmt wird, dass der identifizierte Punkt ein Bezugspunkt eines Objekts von einer Art ist, die einer Fahrzeugart entspricht.
  8. Verfahren nach Anspruch 1, ferner umfassend ein Identifizieren des Punkts in dem Volumen nur dann, wenn auf Grundlage der empfangenen Objektdaten bestimmt wird, dass der identifizierte Punkt ein Bezugspunkt eines Objekts mit Abmessungen ist, die den Abmessungen des Fahrzeugs entspricht, das die Objektdaten empfangen hat.
  9. Verfahren nach Anspruch 1, ferner umfassend: Bestimmen des Volumens mit einer Untergrenze auf einer Bodenfläche mit vorher festgelegten Abmessungen, die an einer auf die Bodenfläche projizierten Fahrzeugposition zentriert sind; und bei Identifizierung eines Objekts anhand der gesendeten Daten mit einem Bezugspunkt, der innerhalb des bestimmten Volumens liegt, Bestimmen der angepassten Fahrzeugposition teilweise auf Grundlage von Standortkoordinaten des Objektbezugspunkts.
  10. Verfahren nach Anspruch 1, wobei die Positionsdaten zumindest eine laterale Koordinate, eine longitudinale Koordinate, eine Ausrichtung, eine Quergeschwindigkeit, eine Längsgeschwindigkeit und eine Drehzahl des Fahrzeugs beinhalten.
  11. Verfahren nach Anspruch 1, wobei die Objektdaten ferner zumindest eine laterale Koordinate, eine longitudinale Koordinate, eine Ausrichtung, eine Quergeschwindigkeit, eine Längsgeschwindigkeit und eine Drehzahl eines Objekts, eine Objektart, eine Form und Abmessungen des Objekts beinhalten.
  12. Rechenvorrichtung, die zum Ausführen des Verfahrens nach einem der Ansprüche 1-11 programmiert ist.
  13. Rechenvorrichtung nach Anspruch 12, ferner umfassend einen oder mehrere Sensoren, die der Rechenvorrichtung Fahrzeugpositionsdaten bereitstellen.
  14. Computerprogrammprodukt, umfassend ein computerlesbares Medium, auf dem Anweisungen gespeichert sind, die durch einen Computerprozessor ausgeführt werden können, um das Verfahren nach einem der Ansprüche 1-11 auszuführen.
  15. Computer, umfassend einen Prozessor und einen Speicher, wobei im Speicher durch den Prozessor ausführbare Anweisungen zu Folgendem gespeichert sind: Extrahieren von Positionsdaten von außen, die mit den Fahrzeugpositionsdaten in Beziehung stehen, aus einem über einen externen Knoten empfangenen Objektdatensatz; Filtern der Positionsdaten von außen und der Fahrzeugpositionsdaten unabhängig voneinander; und dann Zusammenführen der gefilterten Positionsdaten von außen und Fahrzeugpositionsdaten, um die Positionsbestimmung des Fahrzeugs zu verbessern.
DE102020100022.7A 2019-01-04 2020-01-02 Positionsbestimmungstechnik Pending DE102020100022A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/239,952 2019-01-04
US16/239,952 US11035679B2 (en) 2019-01-04 2019-01-04 Localization technique

Publications (1)

Publication Number Publication Date
DE102020100022A1 true DE102020100022A1 (de) 2020-07-09

Family

ID=71104664

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020100022.7A Pending DE102020100022A1 (de) 2019-01-04 2020-01-02 Positionsbestimmungstechnik

Country Status (3)

Country Link
US (1) US11035679B2 (de)
CN (1) CN111412922A (de)
DE (1) DE102020100022A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10614709B2 (en) 2018-07-24 2020-04-07 May Mobility, Inc. Systems and methods for implementing multimodal safety operations with an autonomous agent
US10969470B2 (en) * 2019-02-15 2021-04-06 May Mobility, Inc. Systems and methods for intelligently calibrating infrastructure devices using onboard sensors of an autonomous agent
US11335187B2 (en) * 2019-06-20 2022-05-17 Here Global B.V. Dynamic privacy-sensitive operating modes
CN111854678B (zh) * 2020-07-17 2022-02-15 浙江工业大学 一种单目视觉下基于语义分割和卡尔曼滤波的位姿测量方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7739006B2 (en) * 2007-02-07 2010-06-15 Disney Enterprises, Inc. System and method for autonomous navigation in a ride vehicle
WO2010043658A1 (de) 2008-10-15 2010-04-22 Continental Teves Ag & Co. Ohg Verbesserung und validierung der positionsbestimmung
DE102009041586B4 (de) 2009-09-15 2017-06-01 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur Erhöhung der Genauigkeit sensorerfasster Positionsdaten
US8744644B2 (en) * 2011-01-19 2014-06-03 Electronics And Telecommunications Research Institute Apparatus and method for detecting location of vehicle
KR102263185B1 (ko) 2013-11-05 2021-06-10 현대모비스 주식회사 차량의 위치 결정 방법
DE102014201648A1 (de) 2014-01-30 2015-07-30 Siemens Aktiengesellschaft Verfahren zur Kommunikation innerhalb eines nach Art des ad-hoc zusammenwirkenden, insbesondere Drahtlos-, Kraftfahrzeugkommunikationssystems, Einrichtung der Verkehrsinfrastruktur sowie Verkehrsteilnehmereinrichtung
US10871782B2 (en) * 2016-07-01 2020-12-22 Uatc, Llc Autonomous vehicle control using submaps
DE102016212136A1 (de) 2016-07-04 2018-01-04 Laird Bochum GmbH Verfahren und Vorrichtung zur Bestimmung einer Distanz sowie Fahrzeug
IT201700087876A1 (it) * 2017-07-31 2019-01-31 St Microelectronics Srl Sistema per la navigazione di veicoli terrestri e procedimento corrispondenti
US20190079526A1 (en) * 2017-09-08 2019-03-14 Uber Technologies, Inc. Orientation Determination in Object Detection and Tracking for Autonomous Vehicles
US20190316914A1 (en) * 2018-04-17 2019-10-17 Faraday&Future Inc. Speed-bump based localization enhancement

Also Published As

Publication number Publication date
US11035679B2 (en) 2021-06-15
CN111412922A (zh) 2020-07-14
US20200217668A1 (en) 2020-07-09

Similar Documents

Publication Publication Date Title
DE102019121140A1 (de) Sensorfusion
DE102019127058A1 (de) Fahrzeugwegplanung
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102019131384A1 (de) Strassenbelagcharakterisierung unter verwendung von posenbeobachtungen von benachbarten fahrzeugen
DE102020100022A1 (de) Positionsbestimmungstechnik
DE102017108774A1 (de) Fahrzeugspurkartenschätzung
DE102019121420A1 (de) Regelung der lateralen bewegung eines fahrzeugs
DE102019133536A1 (de) Verfahren und Vorrichtung zum Ermöglichen der sequentiellen Bodenansichts-Bildprojektionssynthese und der komplizierten Szenenrekonstruktion an Kartenanomalie-Hotspots
DE102017125493A1 (de) Verkehrszeichenerkennung
DE102018120845A1 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102019119162A1 (de) Posenschätzung
DE102019126542A1 (de) Lokalisierung einer stationären kamera
EP3581886B1 (de) Verfahren und vorrichtung zum bestimmen einer position eines kraftfahrzeugs
DE102019123570A1 (de) Fahrzeugnavigation und -steuerung
DE102019106845A1 (de) Verschleierungsentfernung für Fahrzeugsensoren
DE102019110528A1 (de) Technik zur positionsbestimmung
DE102020100027A1 (de) Überwachungs- und steuerinfrastruktur für fahrzeuge
DE102019125131A1 (de) Sensorblickfeldabbildung
DE102020105399A1 (de) Erfassen von veränderten fahrbedingungen
DE102021105823A1 (de) Dynamische lidar-anpassung
DE102021125166A1 (de) Bestimmung von seitenwindrisiken
DE102019122536A1 (de) Exzentrizitätskarten
DE102019126446A1 (de) Fahrzeugsteuerungsvorrichtung
DE102020100749A1 (de) Ermittlung von wegen für fahrzeuge
DE102018218436A1 (de) Fahrzeugparkassistenz

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE