DE102013107861A1 - Tracking von Strassen-Fahrzeugen mit Sensoren unterschiedlicher Ausführungsarten - Google Patents

Tracking von Strassen-Fahrzeugen mit Sensoren unterschiedlicher Ausführungsarten Download PDF

Info

Publication number
DE102013107861A1
DE102013107861A1 DE201310107861 DE102013107861A DE102013107861A1 DE 102013107861 A1 DE102013107861 A1 DE 102013107861A1 DE 201310107861 DE201310107861 DE 201310107861 DE 102013107861 A DE102013107861 A DE 102013107861A DE 102013107861 A1 DE102013107861 A1 DE 102013107861A1
Authority
DE
Germany
Prior art keywords
observations
sensor
target object
graph network
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201310107861
Other languages
English (en)
Inventor
Avdhut S. JOSHI
Michael Robert James
Michael E. Samples
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Engineering and Manufacturing North America Inc
Original Assignee
Toyota Motor Engineering and Manufacturing North America Inc
Toyota Engineering and Manufacturing North America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Engineering and Manufacturing North America Inc, Toyota Engineering and Manufacturing North America Inc filed Critical Toyota Motor Engineering and Manufacturing North America Inc
Publication of DE102013107861A1 publication Critical patent/DE102013107861A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/295Means for transforming co-ordinates or for evaluating data, e.g. using computers
    • G01S7/2955Means for determining the position of the radar coordinate system for evaluating the position data of the target in another coordinate system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Navigation (AREA)

Abstract

Ein Fahrzeugsystem schließt einem ersten Sensor und einen zweiten Sensor ein, deren jeder jeweils unterschiedliche erste und zweite Ausführungsarten aufweist. Ein Steuergerät schließt einen Prozessor ein, der so gestaltet ist, daß er ein erstes Sensoreingangssignal vom ersten Sensor und ein zweites Sensoreingangssignal vom zweiten Sensor empfängt; synchron erste und zweite Beobachtungen vom ersten bzw. zweiten Sensoreingangssignal ermittelt; die ermittelten ersten und zweiten Beobachtungen auf ein Diagramm- bzw. Graphen- bzw. graphisches Netzwerk projiziert; die ersten und zweiten Beobachtungen einem Zielobjekt auf dem Diagramm- bzw. Graphen-Netzwerk zuordnet, wobei das Zielobjekt auf dem Graphen-Netzwerk eine Bewegungsbahn besitzt; entweder die erste oder die zweite Beobachtung auf der Basis von Charakteristika des ersten und des zweiten Sensors als die beste Beobachtung auswählt und eine aktuelle Position des Zielobjekts durch Ausführung einer Vorhersage auf der Basis der besten Beobachtung und eines aktuellen Zeitstempels abschätzt.

Description

  • HINTERGRUND
  • Die Anmeldung betrifft autonome und/oder automatisierte Fahrzeuge oder selbstbewegliche Systeme. Die US-Patentanmeldungsveröffentlichung Nummer 2011/0282581, eingereicht am 12. Mai 2012, diskutiert ein Verfahren und ein System zur Feststellung und Verfolgung von Objekten nahe einem Fahrzeug, das einen Laserentfernungsmesser verwendet und wird hier durch Bezugnahme in vollem Umfange einbezogen.
  • KURZFASSUNG ERLÄUTERNDER AUSFÜHRUNGSBEISPIELE
  • Bei einem zweidimensionalen (2D) Trackingsystem sind Zielobjekte frei, jeden Punkt in einem 2D-Raum zu besetzen, und deshalb kann die Bewegung von einem Aktualisierungszyklus zum nächsten beliebig und schwierig zu gestalten sein. Das kann ein Trackingsystem instabil und schwer abstimmbar machen.
  • Gemäß einem Aspekt dieser Offenbarung kann ein Trackingsystem auf einen Graph bzw. ein Diagramm eines Fahrbahnnetzes (hier einfach als Diagramm bzw. Graph bezeichnet) beschränkt werden, das eine vordefinierte Karte ist, in deren Bereich sich ein zu verfolgendes Objekt bewegen kann. Das kann die Bewegung von Straßen-Motorfahrzeugen und die Bewegung anderer, im allgemeinen an ein Wege bzw. Straßennetzwerk gebundener Fahrzeuge einschließen. Weil zur Verfolgung von Zielobjekten längs des Diagramms nur eine Dimension (1D) benutzt wird, kann der Zustandsraum für Filter klein und leicht abzustimmen sein, was sehr wirkungsvolle Anwendungen ermöglichen kann.
  • Bei einigen Aspekten werden Daten von verschiedenen Sensoren asynchron empfangen und die empfangenen Daten können zusammen korrekt in ein Trackingsystem integriert werden. Charakteristika verschiedener Sensoren können eingesetzt werden, um korrekt Stördaten bzw. verrauschte Daten aus dem Trackingsystem auszufiltern.
  • Ein Fahrzeugsystem kann einen ersten Sensor und einen zweiten Sensor einschließen, deren jeder entsprechende, unterschiedliche erste und zweite Modalitäten besitzt. Ein Steuergerät kann einen Prozessor einschließen, der gestaltet ist, um: ein erstes Sensoreingangssignal vom ersten Sensor und ein zweites Sensoreingangssignal vom zweiten Sensor zu empfangen; synchron erste und zweite Beobachtungen vom ersten bzw. zweiten Sensoreingangssignal zu ermitteln; die ermittelten ersten und zweiten Beobachtungen auf ein Diagramm- bzw. Graphen- bzw. graphisches Netzwerk zu projizieren, die ersten und zweiten Beobachtungen einem Zielobjekt auf dem Diagramm- bzw. Graphen-Netzwerk zuzuordnen, wobei das Zielobjekt eine Bewegungsbahn auf dem Graphen-Netzwerk besitzt; auf der Basis von Charakteristika des ersten und des zweiten Sensors entweder die erste oder die zweite Beobachtung als die beste Beobachtung auszuwählen; und durch Ausführung einer Vorhersage auf der Basis der besten Beobachtung und eines aktuellen Zeitstempels eine aktuelle Position des Zielobjekts abzuschätzen.
  • Die erste und die zweite Beobachtung können dem Zielobjekt dadurch zugeordnet werden, daß ein neues Zielobjekt auf dem Graphen-Netzwerk erzeugt wird, wenn die erste und die zweite Beobachtung nicht innerhalb eines vorgegebenen Abstands von einem aktuell verfolgten Zielobjekt liegen.
  • Der Prozessor kann weiter so gestaltet sein, daß er: das Diagramm- bzw. Graphen-Netzwerk von einer Straßenkarte und einer akquirierten Position ausgehend derart erzeugt, daß das Graphen-Netzwerk eindimensionale Fahrspuren als Verbindungsglieder zwischen Knoten einschließt, wobei die Bewegungsbahn des Zielobjekts auf einer der eindimensionalen Fahrspuren basiert ist.
  • Der erste Sensor kann ein Lidarsensor und der zweite Sensor ein Radarsensor sein.
  • Die aktuelle Position des Zielobjekts kann durch Ausführung eines Kalman-Filter-Vorhersageverfahrens abgeschätzt werden.
  • Die Charakteristika des ersten und des zweiten Sensors können eine Zeitverzögerung zur Verarbeitung der Sensordaten und Präzision bei der Ermittlung gültiger Hindernisse durch Verarbeitung der Sensordaten aufweisen.
  • Das Zielobjekt (z. B. ein Fahrzeug) kann durch aktuelle Positionsupdates während aufeinanderfolgender Beobachtungen durch die ersten und zweiten Sensoren verfolgt werden. Das Zielobjekt kann aus der Verfolgung herausgenommen werden, wenn während einer definierten Zeitspanne keine Beobachtung des Zielobjekts erfolgt.
  • Die ermittelten ersten und zweiten Beobachtungen können auf das Graphen-Netzwerk dadurch projiziert werden, daß entsprechende Koordinatensysteme des ersten und des zweiten Sensoreingangssignals in ein gemeinsames Koordinatensystem des Fahrzeugs, wie UTM, übertragen werden.
  • Das Steuergerät kann eine Liste von Zielobjekten in einer Zielobjekteliste in einem Speicher des Steuergeräts speichern und die Zielobjekteliste kann abgefragt werden, um die Beobachtungen den Zielobjekten hinzuzufügen.
  • Die synchrone Ermittlung von Beobachtungen kann auf Punkte auf oder innerhalb einer Fehlerbegrenzung einer Fahrspur des Graphen-Netzwerks beschränkt sein. In ähnlicher Weise kann das Tracking von Zielobjekten auf Punkte auf oder innerhalb einer Fehlerbegrenzung einer Fahrspur des Graphen-Netzwerks beschränkt sein.
  • Die ermittelten ersten und zweiten Beobachtungen können durch Korrigieren der ermittelten ersten und zweiten Beobachtungen zum Reflektieren eines aktuellen Zeitstempels auf das Graphen-Netzwerk projiziert werden. Das kann die Einstellung einer Position der ermittelten ersten und zweiten Beobachtungen auf dem Graphen-Netzwerk einschließen, um zur Zeitverzögerung zwischen der Akquirierung der entsprechenden Sensordaten und der Projizierung der resultierenden Beobachtungen auf das Graphen-Netzwerk beizutragen. Ein Betrag der Einstellung kann durch Nutzung einer kalibrierten (vordefinierten) Zeitverzögerung und einer Geschwindigkeit des der ersten und der zweiten Beobachtung zugeordneten Zielobjekts bestimmt werden.
  • Die vorstehende allgemeine Beschreibung der erläuternden Ausführungsformen und deren folgende detaillierte Beschreibung sind nur beispielhafte Aspekte der Lehren dieser Offenbarung und keinesfalls beschränkend.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Eine vollständigere Würdigung dieser Offenbarung und der mit ihr verbundenen Vorteile wird leicht vermittelt, wenn diese besser durch Bezugnahme auf die folgende detaillierte Beschreibung in Verbindung mit den beigefügten Zeichnungen verstanden wird, in denen:
  • 1 schematisch ein Verarbeitungssystem für eine Überwachungseinrichtung und/oder ein Computersystem darstellt;
  • 2 einen Algorithmus darstellt;
  • 3 ein Diagramm- bzw. Graphenerzeugungsverfahren für den Algorithmus darstellt;
  • 4 ein Hindernis-Ermittlungsverfahren des Algorithmus darstellt;
  • 5 ein Hindernis-Projektionsverfahren des Algorithmus darstellt;
  • 6 ein Datenzuordnungsverfahren des Algorithmus darstellt:
  • 79 graphische Darstellungen eines Trackingsystems sind, das in Betrieb befindlich ist, um verschiedene Zielobjekte mit verschiedenen Sensoren zu verfolgen;
  • 10 eine beispielsweise Kurve darstellt;
  • 11 ein beispielhaftes autonomes/Testfahrzeug darstellt;
  • 12 eine beispielhafte Punktwolkensegmentierung darstellt;
  • 13 schematisch eine Transformation zwischen Koordinatensystemen darstellt; und die
  • 1416 graphische Darstellungen eines Trackingsystems sind, das das Tracking verschiedener Zielobjekte mit verschiedenen Sensoren in verschiedenen Umgebungen durchführt.
  • DETAILLIERTE BESCHREIBUNG
  • In den Zeichnungen bezeichnen gleiche Bezugszahlen identische oder einander entsprechende Teile in den verschiedenen Ansichten.
  • Die 1 zeigt ein beispielhaftes Verarbeitungssystem 100 und stellt exemplarische Hardware dar, die bei einer Überwachungseinrichtung und/oder einem Computersystem gefunden wurden, um die in dieser Offenbarung beschriebenen Verfahren, Algorithmen und/oder Methoden einzurichten und/oder auszuführen. Das System 100 kann einbezogen oder angewandt werden als elektronische Steuereinheit (ECU) oder ein in ein Fahrzeug eingebauter eigenständiger Computer.
  • Wie in 1 gezeigt, kann ein Verarbeitungssystem 100 gemäß dieser Offenbarung durch Verwendung eines Mikrocomputers oder seines Äquivalents, wie eine Zentraleinheit (CPU) und/oder ein (nicht gezeigter) anwendungsspezifischer Prozessor (ASP), angewandt werden. Der Mikroprozessor benützt ein computerlesbares Speichermedium, wie ein Speicher (z. B. ein ROM, EPROM, EEPROM, Flash-Speicher, statischer Speicher, DRAM, SDRAM und andere Äquivalente). Die zur Steuerung des Mikroprozessors gestaltet sind, um die Verarbeitungen und Systeme dieser Offenbarung auszuführen und/oder zu steuern. Andere Speichermedien können durch eine Steuereinrichtung, wie eine Plattensteuerung, die einen Festplattenantrieb oder den Antrieb eines optischen Bildplattenlaufwerks steuern kann, gesteuert werden.
  • Bei einer alternativen Ausführungsform können der Mikroprozessor oder seine Aspekte eine logische Vorrichtung zur Erweiterung oder vollen Anwendung dieser Offenbarung einschließen oder ausschließlich einschließen. Eine solche logische Vorrichtung schließt eine anwendungsspezifische integrierte Schaltung (ASIC), ein am Einsatzort programmierbares Gate Array (FPGA), ein generisches logisches Array (GAL) und ihre Äquivalente ein, ist jedoch nicht darauf beschränkt. Der Mikrocomputer kann eine getrennte Vorrichtung sein oder ein einzelner Verarbeitungsmechanismus. Außerdem kann die Offenbarung einen Vorteil aus den Fähigkeiten einer Mehrkern-CPU zur Parallelverarbeitung gewinnen.
  • Nach einem anderen Aspekt können Ergebnisse der Verarbeitung gemäß dieser Offenbarung über eine Displaysteuerung auf einem Monitor angezeigt werden. Die Displaysteuerung würde dann vorzugsweise wenigstens eine graphische Verarbeitungseinheit für eine verbesserte Berechnungsleistung enthalten. Zusätzlich ist eine I/O-(Eingabe/Ausgabe)-Schnittstelle vorgesehen zur Eingabe von Sensordaten von Sensoren 1, 2 ... N und zur Ausgabe von Steuersignalen zu einem oder mehreren betätigbaren Aktuatoren, einschließlich Lenkung, Bremse und Drosselsteuerungen/Aktuatoren eines Fahrzeugs. Ein allgemeines Positionierungssystem (z. B. GPS) kann vorgesehen und mit der I/O-Schnittstelle verbunden sein, um Informationen über den Fahrzeugort zu erhalten.
  • Was des weiteren andere Eingabevorrichtungen betrifft, so können diese als ein Peripheriegerät mit der I/O-Schnittstelle verbunden sein. Beispielsweise kann eine Tastatur oder ein Zeigegerät (nicht gezeigt) zur Steuerung von Parametern der verschiedenen Verarbeitungen und Algorithmen dieser Offenbarung mit der I/O-Schnittstelle verbunden sein, um zusätzliche Optionen hinsichtlich Funktionsweise und Gestaltung vorzusehen oder Displaycharakteristika anzuzeigen. Außerdem kann der Monitor mit einer berührungssensitiven Schnittstelle bis zu einer Befehls-/Instruktionsschnittstelle versehen sein.
  • Die oben vermerkten Komponenten können, wie in 1 gezeigt, mit einem Netzwerk, wie dem Internet oder einem lokalen Intraet zur Übertragung oder dem Empfang von Daten, einschließlich steuerbarer Parameter, gekoppelt werden. Das Netzwerk kann auch ein lokales Netzwerk eines Fahrzeugs (VLAN) sein, in dem Eingangs-/Ausgangsdaten (z. B. Sensor-, Aktuatordaten,/-befehle und GPS-Informationen) über das VLAN übertragen werden. Ein zentraler BUS ist vorgesehen, um die obigen Hardware-Komponenten miteinander zu verbinden, und sieht wenigstens einen Pfad für digitale Kommunikation zwischen ihnen vor.
  • Ein durch das in 1 gezeigte System gezeigter beispielhafter Algorithmus 200 ist in 2 dargestellt. Der Algorithmus 200 schließt ein Verfahren 300 zur Erzeugung eines Diagramm- bzw. Graphen- bzw. graphischen Netzwerks, ein Verfahren 400 zur Feststellung von Hindernissen, ein Verfahren 500 zur Projizierung der Hindernisse auf das Graphen-Netzwerk und die Ausführung der Datenzuordnung und des Trackings bei 600 ein. Weitere beispielhafte Details des Algorithmus 200 sind unten unter Bezugnahme auf die 39 beschrieben.
  • Die 3 zeigt weitere Details des Verfahrens 300. Bei der Erzeugung eines Diagramm- bzw. Graphen- bzw. graphischen Netzwerks wird beim Schritt S302 eine Karte des Straßennetzes (d. h. eines Bereichs, in dem sich das Fahrzeug befindet) beschafft oder adressiert. Die Karte des Straßennetzes kann in das System 100 als Teil eines Navigationssystems vorinstalliert werden oder es kann ein Zugriff durch das System 100 erfolgen. Ein solcher Zugriff kann durch eine Netzwerkverbindung zu einem Navigationssystem oder einer anderen, lokalen oder entfernten Kartendatenbank (z. B. durch Downloaden einer lokalen Karte von einem entfernten Server über eine Netzwerkverbindung erfolgen). Das Netzdiagramm wird unter Verwendung dieser lokalen Karte erzeugt. Dieses Graphen-Netz besteht aus Knoten, die Positionen in einem globalen Koordinatensystem (z. B. UTM) sind, und Bindegliedern, die die Verbindungsfähigkeit dieser Knoten definieren. Die Knoten werden bei S304 erzeugt und die Bindeglieder bei S306. Die Erzeugung der Knoten und Bindeglieder kann synchron oder asynchron erfolgen. Das Tracking von Hindernissen (wie andere Fahrzeuge) wird längs des Graphen-Netzes ausgeführt.
  • Das Verfahren 400 wird mit weiteren Details durch die 4 erläutert, die Anwendungen mit mehreren Sensoren zur Fahrzeugerkennung darstellt. Insbesondere werden Fahrzeuge durch unabhängige Verwendung mehrerer Sensoren entdeckt. Bei dem durch das Verfahren 400 in 4 gezeigten Beispiel sind zwei Sensoren, Sensor 1 und Sensor 2, vorhanden. Jedoch kann dies durch den Einschluß weiterer Sensoren erweitert werden. Außerdem werden, wenn einer oder mehrere der Sensoren ein Lidar (Lichterkennung und Entfernungsmessung) ist bzw. sind, Verfahren zur Punktwolkensegmentierung benutzt, um Fahrzeuge von anderen Hindernissen zu unterscheiden. Die Objektermittlung und -erkennung kann Aspekte von Umriß- und Formermittlung und -erkennung einschließen und auch andere bekannte Aspekte der Objektsegmentation und -erkennung einschließen. Wenn einer oder mehrere der Sensoren eine Kamera ist bzw. sind, können Techniken zur visuellen Verarbeitung angewandt werden, um Fahrzeuge zu erkennen. Diese Techniken können Objekterkennung einschließlich Form- und Umrißermittlung einschließen. Sowohl Lidar als auch Kameraerkennungsverfahren können auf der Basis von eingeübten und/oder vordefinierten Datenbibliotheken mit bekannten und erkennbaren Formen und Umrissen von Hindernissen (z. B. Fahrzeuge, Radfahrer, etc.) durchgeführt werden. Radarsensoren können festgestellte Hindernisse zusammen mit deren Geschwindigkeit anzeigen.
  • Beim Verfahren 400 können bei S402 Hindernisse vom Sensor 1 entdeckt werden und die Geschwindigkeit der Hindernisse kann bei S404 ermittelt werden. Synchron können Hindernisse durch den Sensor 3 bei S406 entdeckt werden und die Geschwindigkeit der Hindernisse kann bei S408 erkannt/festgestellt werden. Das heißt, Hindernisse (z. B. Fahrzeuge, Radfahrer) können synchron von den Sensoren 1 und 2 (wie auch weiteren Sensoren) entdeckt werden. Die Geschwindigkeit eines Hindernisses kann beispielsweise, wie oben diskutiert, durch Radar festgestellt werden. Die Geschwindigkeit kann auch durch aufeinanderfolgende Messungen zur Positionsfeststellung und die Berechnung der Geschwindigkeit und/oder der darauf basierenden Bewegungsrichtung extrapoliert werden.
  • Die Projizierung der Hindernisse auf das Diagramm- bzw. Graphen- bzw. graphische Netz wird unter Bezugnahme auf das in 5 dargestellte Verfahren 500 erläutert. Bei S502 werden von jedem Sensor festgestellte Hindernisse in ein gemeinsames//gleiches Koordinatensystem übertragen. Insbesondere kann zur Übertragung der Daten von verschiedenen Sensoren zum Koordinatensystem des Fahrzeugs eine Kalibrierung durchgeführt werden. Diese übertragenen Hindernisse werden dann bei S504, beispielsweise durch Anwendung einer Nächster-Nachbar-Technik auf das Graphen-Netzwerk übertragen. Die Position des Fahrzeugs wird durch Anwendung von GPS + Inertialsystemen, einschließlich eines GPS-Empfängers, Beschleunigungsmessern und Gyroskopen bestimmt. Andere Vorrichtungen zum Positionstracking eines Fahrzeugs können entweder zusätzlich oder ergänzend zu GPS oder anderen satellitenbasierten Navigationssystemen benutzt werden.
  • Die 6 stellt das Verfahren 600 dar, um die Datenzuordnung und das Tracking zu beschreiben. Jedes Hindernis kann mehrfache Beobachtungen von unterschiedlichen Sensoren aufweisen, und diese mehrfachen Beobachtungen werden fusioniert. Außerdem wird, weil die Sensoren synchron arbeiten, eine Nächster-Nachbar-Annäherung nicht angewandt. Um eine korrekte zeitliche Zuordnung vorzunehmen, wird jede Beobachtung für den aktuellen Zeitstempel projiziert und längs des Graphen-Netzes korrigiert. Diese korrigierten Beobachtungen werden dann unter Anwendung der in einem Speicher des Systems 100 gespeicherten Nächster-Nachbar-Zuordnung einer aktuellen Liste von Zielobjekten zugeordnet. Mehrfache Beobachtungen werden der Beobachtungsliste für jedes Zielobjekt zugeordnet, und jedes Zielobjekt besitzt eine ihm zugeordnete wahrscheinlichkeitstheoretische Nachführeinrichtung (tracker), wie einen Kalman-Filter.
  • Das Verfahren 600 kann bei 602 eine Initialisierungsphase aufweisen. Bei der Initialisierung wird ein neues Zielobjekt geschaffen, wenn kein Zielobjekt für eine gültige Beobachtung zugeordnet ist. Sein Kalman-Filters wird für eine korrekte Beobachtung initialisiert. Ein Zustand des Kalman-Filters ist eine Bewegungsstrecke längs des Fahrwegs, die Geschwindigkeit und die Beschleunigung des Hindernisses. Falls die Beobachtung von Sensoren kommt, die die Geschwindigkeit nicht aufzeichnen, wird die Geschwindigkeit bei einem ersten Paar von Iterationen geschätzt.
  • Bei S604 wird eine Aktualisierungsphase durchgeführt, bei welcher eine beste Beobachtung aus einer Beobachtungsliste für jedes Zielobjekt ausgewählt wird. Diese beste Beobachtung wird dann benutzt, um den Kalman-Filter zu aktualisieren. Die beste Beobachtung kann bestimmt werden durch Korrelation einer Beobachtung mit einer erwarteten Position eines Zielobjekts, auf der Basis der Geschwindigkeit und des Graphen-Netzes. Das heißt, es kann erwartet werden, daß Zielobjekte direkt auf dem Graphen-Netzwerk existieren und sich basierend auf der festgestellten Geschwindigkeit über eine geschätzte Strecke längs des Graphen-Netzwerks bewegt haben. Die beste Beobachtung kann auch auf der Zeitverzögerung (Verzögerung bei der Verarbeitung der Sensordaten bei der Feststellung eines Objekts) basieren und auf der Sensorgenauigkeit. Die Kalman-Filtrierung kann benutzt werden, um Vorhersagen über den Pfad und Beobachtungen zu machen.
  • Falls während einer gewissen Zeitspanne keine Beobachtung für ein gegebenes Zielobjekt erfolgt, kann bei S606 das Zielobjekt aus dem Trackingsystem genommen werden. Das heißt, das Zielobjekt wird aus der Liste entfernt. Das Zielobjekt kann dann, wenn erneut Beobachtungen erfolgen, bei der Initialisierungsphase wieder erzeugt werden.
  • Bei einigen Aspekten kann der Algorithmus wie folgt zusammengefaßt werden:
    • 1. Zuordnung aller Beobachtungen mit ihren entsprechenden Zeitstempeln zur Liste der Beobachtungen.
    • 2. Erste Beobachtung: a. Falls die Beobachtung nahe genug bei der Graphen-Darstellung liegt, projiziere die Beobachtung in die Grafik bzw. das Diagramm. b. Für jede Bewegungsbahn in der Liste: i. Schätze die Position der Bewegungsbahn beim Zeitstempel der Beobachtungen. ii. Ordne die Beobachtung der Bewegungsbahn zu, wenn sie beim Zeitstempel nahe der Position der Bewegungsbahn ist. iii. Falls keine Bewegungsbahn gefunden wird, erzeuge eine neue Bewegungsbahn und ordne die aktuelle Beobachtung der Bewegungsbahn zu.
    • 3. Für jede Bewegungsbahn in der Liste: a. wähle die beste Beobachtung aus der Liste der der Bewegungsbahn zugeordneten Beobachtungen. Die beste Auswahl kann heuristisch auf der Basis der Sensorgenauigkeit, der Zeitverzögerung, etc. ausgeführt werden. b. Führe einen Kalman-Filter-Vorhersageschritt (a-priori-Wahrscheinlichkeit) beim Zeitstempel der besten Beobachtungen aus. Dies könnte den Filter rechtzeitig nach hinten setzen. c. Führe eine Aktualisierung der Kalman-Filter-Berechnung (a-posteriori-Wahrscheinlichkeit) unter Benutzung der echten Beobachtungswerte durch d. Führe einen Kalman-Filter-Vorhersageschritt wieder beim aktuellen Zeitstempelwert durch, um die aktuelle Position auf der Bewegungsbahn abzuschätzen.
  • Verschiedene der durch den vorstehend diskutierten Algorithmus oder die vorstehenden Algorithmen vorgesehenen Merkmale sind: auf einer Grafik bzw. einem Diagramm basierendes Tracking anstelle eines vollen 2-dimensionalen Trackings, wirksamere Gestaltung des Trackings und robuster gegenüber falschen Zielobjekten des Trackings, sowie korrekte Sensorfusion entdeckter Hindernisse, asynchrone Nutzung verschiedener Sensoren und Integration einer wahrscheinlichkeitstheoretischen Nachführeinrichtung im System.
  • Einige Implementationen des oben diskutierten Algorithmus oder der oben diskutierten Algorithmen sind in den 79 gezeigt, die graphische Darstellungen des Trackingsystems sind, das das Tracking verschiedener Zielobjekte mit verschiedenen Sensoren ausführt. Diese Figuren zeigen eine Implementation, die ein Lidar und ein Radar anwendet. Es können jedoch auch andere Sensoren benutzt werden. In den 79 bezeichnet ein Kreis in durchgezogener Linie ein Radarziel, ein Kreis in gestrichelter Linie bezeichnet ein Lidarziel und das Testfahrzeug ist schematisch dargestellt. Das Graphen-Netzwerk und insbesondere ein Fahrweg des Graphen-Netzwerks ist durch durchgezogene Linien abgegrenzt. Verschiedene Ziele, die die nur durch Verarbeitung jener Lidar- und Radarziele identifiziert werden können, die auf dem (oder innerhalb eines Fehlerspielraums des) Fahrweg(s) des Graphen-Netzwerks erscheinen, sind durch schraffierte Rauten dargestellt.
  • Die 8 zeigt beispielhafte Verbindungen (dicke Linien) und Knoten (ungefüllte Rauten) und veranschaulicht asynchrone/verzögerte Beobachtungen. Die Knoten können auch als eine Reihe von Punkten zwischen den ungefüllten Rauten erläutert werden, die durch dicke Linien verbunden sind. Kreise in durchgezogener Linie sind Radar-Beobachtungen und Kreise in gestrichelten Linien Lidarbeobachtungen, die aufgrund der Bearbeitung verzögert sind. Ein letztes graphisches Ziel (schraffierte Raute) wird nichtsdestoweniger korrekt aktualisiert, indem die Verzögerung der Lidarverarbeitung im Vergleich zur Radarverarbeitung in Betracht gezogen wird. Die 9 zeigt eine Fernstraßenanwendung, bei der schraffierte Rauten verfolgte Ziele zeigen. Das Display des Systems 100 kann so gestaltet werden, daß es das Graphen-Netzwerk anzeigt mit darauf identifizierten entsprechenden, verfolgten Zielobjekten, wobei die 79 ein Beispiel für ein solches Display sein können.
  • Basierend auf den Ergebnissen der Verfolgung der Zielobjekte durch das System 100 können entsprechende Ausgangssignale erzeugt werden. Beispielsweise kann eine Kollisionswarnung erzeugt und über ein Audio- und/oder visuelles System des Fahrzeugs ausgegeben werden, wenn bei einem verfolgten Zielobjekt erkannt wird, daß bei ihm eine vordefinierte Möglichkeit einer Kollision mit dem Fahrzeug besteht. Zur Kollisionsfeststellung kann eine Pfadplanung ausgeführt werden, die ein Zeithorizont-Vorhersageverfahren ausführt, um einen Pfad des verfolgten Zielobjekts vorherzusagen. Solche Berechnungen können durch ein anderes System ausgeführt werden, das mit dem System 100 kommuniziert. Des weiteren können Ergebnisse der Verfolgung des Zielobjekts in ein Geschwindigkeitssteuersystem eingegeben werden, um eine automatisierte Geschwindigkeit oder Fahrtrichtung des Fahrzeugs auf der Basis der Positionen des verfolgten Zielobjekts einzustellen. Das heißt das System 100 kann Steuerbefehle an den Aktuator des Fahrpedals, einen Bremsaktuator und/oder einen Lenkungsaktuator zur Steuerung der Geschwindigkeit und Fahrtrichtung des Fahrzeugs auf der Basis des Ergebnisses des Trackings des Zielobjekts ausgeben. Als solches kann das System 100 als robotergesteuertes, autonomes Fahrzeug eingesetzt werden, das zur Selbstführung und Kollisionsvermeidung befähigt ist.
  • Bei beispielhaften Anwendungen ist für das autonome Fahren das Tracking anderer Fahrzeuge auf Straßen eine kritische Komponente. Um sichere Fahrmanöver sowohl auf Fernstraßen wie auch im städtischen Verkehr zu planen, ist eine Information über die Bewegung anderer Fahrzeuge auf der Straße erforderlich. einem Aspekten dieser Offenbarung ist ein auf einer Grafik basierendes, mehrfache Sensoren (Radar und Lidar) benutzendes System vorgesehen und wurde erfolgreich als Teil eines ein autonomes Fahrzeug betreffenden Forschungsprojekts getestet.
  • Insbesondere wird unter Verwendung einer Karte eines Straßennetzes als ein der Verarbeitung vorangehender Schritt ein Diagramm bzw. Graph erzeugt. Von verschiedenen Sensoren mit unterschiedlichen Modalitäten ermittelte Hindernisse werden durch eine Nachführeinrichtung (tracker) längs des Diagramms unter Verwendung eines wahrscheinlichkeitstheoretischen Filters verfolgt. Das Ausgangssignal der Nachführeinrichtung schließt eine Position und eine erwartete Bewegung aller dynamischen Hindernisse ein, die von einem Planer benutzt werden, um ein sicheres Fahrmanöver zu planen.
  • Ein Straßennetz kann unter Verwendung von Straßennetzdefinitionsdatei (Road Network Definition File RNDF) genannten Daten, die aus einem Satz von Wegmarken (Punkten) im UTM-Koordinatensystem und Verbindungsinformationen für diese Wegmarken zur Erzeugung von Fahrspuren, Ausfahrten, Verflechtungen, etc., bestehen. Es sind auch andere semantische Informationen, wie Stoppzeichen- und Verkehrampelpositionen, in die Datenstruktur einbezogen. Diese Informationen werden vom Planer benutzt, um eine Route zu erzeugen.
  • Von diesen RNDF-Daten wird ein für das Tracking benutztes Diagramm bzw. Graph erzeugt. Jeder Knoten im Diagramm entspricht einer Wegmarke im RNDF. Die gleiche Verbindungskonstruktion wird beibehalten, um, die Knoten im RNDF zu verbinden. Im Falle von Verflechtungen und Ausfahrten, werden Verbindungen und Knoten unter Anwendung der Splineanpassung zwischen Endpunkten der Verbindungen interpoliert und zum Diagramm hinzugefügt.
  • Außerdem wird in jedem Knoten die Wegstrecke vom Beginn einer Fahrspur, zu der die Wegmarke gehört, gespeichert. Die Wegstrecke ist eher die Entfernung längs der Graphen- bzw. Diagrammkurve, als der direkte euklidische Abstand, die dann zur Spurverfolgung des Hindernisses längs der Diagrammkurve benutzt wird.
  • Ein typisches Diagramm ist in den 79, wie auch in 10 gezeigt.
  • Ein beispielhaftes autonomes Fahrzeug ist in 11 gezeigt, die ein Testfahrzeug zeigt, das mit Lichterkennung und Entfernungsmessung (Lidar) instrumentiert ist, die von Velodyne hergestellt sind, und mit einem Array von weitreichenden Radarsensoren, hergestellt von Bosch und Prosillica High Definition Cameras. Der Velodyne-Sensor kann ausreichend genaue Punktwolkendaten 360° um das Fahrzeug bis zu einer Entfernung von 40 m liefern. Unter Verwendung einer 3D-Punktwolkenwahrnehmungstechnik können Hindernisse aus der Punktwolke aussegmentiert werden. Ein Beispiel für Punktwolkensegmentierung ist in 12 gezeigt.
  • Ein Array von Radarsensoren (wie 8 Radarsensoren) ist so am Fahrzeug angebracht, daß jeder der Sensoren eine unterschiedliche Ausrichtung aufweist. Jeder der Radarsensoren besitzt ein Sichtfeld von ±15° auf 50 m und ±6° auf eine Entfernung von etwa 200 m. Das Radar sendet die ermittelte Position des Hindernisses und die relative Geschwindigkeit im Koordinatenfeld des Radars zurück. Weil die Position und Geschwindigkeit des Hindernisses im Koordinatenfeld des Radars enthalten sind, ist es erforderlich, jedes Hindernis auf das Koordinatenfeld des Fahrzeugs zu übertragen. Die richtige Transformation für jede Radareinheit zu finden, kann durch ein unten beschriebenes Kalibrierverfahren erfolgen.
  • Die 13 zeigt schematisch die durchzuführende Transformation. Alle Radarsensoren müssen kalibriert werden, um eine exakte Transformation vom Radarbezugsrahmen zum Bezugsrahmen des Roboters (des Fahrzeugs) zu haben. Für diesen Zweck wurde ein halbautomatisiertes Verfahren entwickelt, welches unten beschrieben wird.
  • Radarmarkierungen mit hoher Radareflexionsfähigkeit werden an verschiedenen Positionen um das Fahrzeug angeordnet. Diese Positionen sind exakt durch Anwendung von LIDAR-Punkten markiert. Weil der Wirkungsbereich von Velodyne-LIDAR kürzer ist als jener des Radars, wird das Fahrzeug innerhalb des Velodyne-Bereichs zu den Markierungen gefahren. Und das GPS-System im Fahrzeug wird benutzt, um die Markierungskoordinaten im gleichen Bezugsrahmen zu halten. Zugleich werden die Hindernisdaten vom Radar aufgezeichnet.
  • Die Transformation vom Radarbezugsrahmen zum Roboterbezugsrahmen ist durch die folgenden Gleichungen gegeben: xr = yccosθ + ycsinθ + tx yr = –xcsinθ + yccosθ + ty , wobei {xr, yr} Hindernispositionen im Radarbezugsrahmen sind, {xc, yc} Hindernispositionen im Fahrzeugbezugsrahmen und tx, ty und θ Kalibrierungsparameter. Die Parameter tx, ty und θ werden abgeschätzt aus den Daten, die unter Benutzung der nichtlinearen Annäherung der kleinsten Quadrate unter Anwendung eines Levenberg-Marquardt-Algorithmus gesammelt werden. Das Problem der kleinsten Quadrate wird formuliert als eine Minimierung des folgenden Ausdrucks
    Figure DE102013107861A1_0002
    {x i / o, x i / o} ith beobachtete Datenpunkte sind und {x i / e, y i / e} unter Verwendung der obigen Transformationsgleichung geschätzt sind. Eine durch dieses spezielle Verfahren erreichte Kalibrierungsgenauigkeit beträgt 0,01 m.
  • Übereinstimmend mit dem Obigen kann das Tracking durch ein dreiphasiges Verfahren ausgeführt werden: Assoziation, Initialisierung und Aktualisierung.
  • Assoziationsphase
  • Jedes festgestellte Hindernis wird auf das Diagramm bzw. auf den Graphen projiziert. Hindernisse, die nicht eng am Diagramm liegen, werden negiert. Jedes Hindernis kann mehrfache Beobachtungen durch verschiedene Sensoren aufweisen und diese Informationen müssen fusioniert werden. Weil die Sensoren asynchron arbeiten, kann eine einfache Annäherung an den nächsten Nachbarn nicht angewandt werden. Um eine korrekte zeitliche Zuordnung durchzuführen, wird jede Beobachtung für den aktuellen Zeitstempel längs der Diagrammkurve projiziert und korrigiert. Dese korrigierten Beobachtungen werden dann mit der aktuellen Liste der Ziele unter Anwendung der Verbindung mit dem nächsten Nachbarn verbunden. Mehrfache Beobachtungen werden mit der Liste der Beobachtungen für jedes Zielobjekt verbunden.
  • Initialisierungsphase
  • Falls einer Beobachtung kein gültiges Ziel zugeordnet werden kann, wird ein neues Zielobjekt erzeugt. Sein Kalman-Zustand zur korrekten Beobachtung initialisiert. Ein Zustand des Kalman-Filters ist eine Fahrtstrecke längs der Fahrbahn, sowie Geschwindigkeit und Beschleunigung des Hindernisses. Im Falle einer Nur-Velodyne-Beobachtung, wird die Geschwindigkeit, weil sie nicht beobachtet wird, bei einem ersten Paar von Iterationen geschätzt.
  • Aktualisierungsphase
  • Jedem Zielobjekt ist ein unabhängiger Kalman-Filter zugeordnet. Für jedes Zielobjekt wird eine beste Beobachtung aus der Liste der Beobachtungen ausgewählt und die volle Kalman-Aktualisierung wird wie unten angegeben durchgeführt (siehe A new approach to linear filtering and prediction problems. Journal of Basic Engineering 82, von Kalman, R. E.): x ⁀k|k–1 = Fkx ⁀k–1|k–1 Pk|k–1 = FkPk–1|k–1F T / k + Qk k = zk – Hkx ⁀k|k–1 Sk = HkPk|k–1H T / k + Rk Kk = Pk|k–1H T / kS –1 / k x ⁀k|k = x ⁀k|k–1 + Kkk Pk|k = (I – KkHk)Pk|k–1
  • Falls keine Beobachtung für gewisse Zielobjekte für irgendeine vorgegebene Zeitspanne erhalten wird, werden sie aus dem Tracking System entfernt.
  • Ein Pseudo-Code für einen Tracking-Algorithmus wird unten präsentiert.
    • 1. Füge alle Beobachtungen mit ihren entsprechenden Zeitstempeln der Liste der Beobachtungen hinzu.
    • 2. a. Falls die Beobachtung eng genug bei der Graphen- bzw. Diagrammkurve liegt, projiziere die Beobachtung auf die Kurve.
    • b. Für jede Bewegungsbahn in der Liste – Schätze die Position der Bewegungsbahn zum Zeitstempel der Beobachtungen. – Füge die Beobachtung der Bewegungsbahn hinzu, wenn sie der Position der Bewegungsbahn zu jenem Zeitstempel eng benachbart ist. – Falls keine Bewegungsbahn gefunden wird, erzeuge eine neue Bewegungsbahn und füge die aktuelle Beobachtung der Bewegungsbahn hinzu.
    • 3. Bei jeder Bewegungsbahn in der Liste;
    • a. Wähle die beste Beobachtung aus der Liste der der Bewegungsbahn zugeordneten Beobachtungen aus. Diese beste Auswahl kann heuristisch auf der Basis der Sensorgenauigkeit, der Zeitverzögerung, etc. ausgeführt werden.
    • b. Führe einen (früheren) Kalman-Filter-Vorhersageschritt zum Zeitstempel der besten Beobachtungen aus. Dies könnte den Filter zeitlich zurücksetzen.
    • c. Führe eine (spätere) Kalman-Filter-Messungsaktualisierung unter Verwendung des echten Beobachtungswertes aus.
  • Führe einen Kalman-Filter-Vorhersageschritt wieder zum aktuellen Zeitstempelwert aus, um die aktuelle Position auf der Bewegungsbahn abzuschätzen.
  • Die 1416 zeigen verschiedene Aspekte der durch den oben beschriebenen Algorithmus (die oben beschriebenen Algorithmen) bereitgestellten Merkmale. Die 14 zeigt asynchrone/verzögerte Beobachtungen, wobei der Kreis eine Radarbeobachtung und ein Quadrat eine Lidarbeobachtung ist, die aufgrund der Verarbeitung verzögert sind, jedoch wurde ein endgültiges Ziel auf der Graphen- bzw. Diagrammspur (Raute) korrekt aktualisiert. Die 15 zeigt das Tracking von Fahrzeugen auf Fernstraßen, wo Rauten die verfolgten Ziele anzeigen. 16 zeigt die das Tracking von Fahrzeugen an Kreuzungen, wo Rauten die verfolgten Ziele anzeigen
  • Eine Anzahl von Implementationen wurde beschrieben. Nichtsdestoweniger ist zu verstehen, daß verschiedene Abwandlungen erfolgen können, ohne daß von der Idee und dem Umfang dieser Offenbarung abgewichen wird. Beispielsweise können vorteilhafte Ergebnisse erzielt werden, falls die Schritte der offenbarten Techniken in unterschiedlicher Folge ausgeführt würden, falls Komponenten in den offenbarten Systemen in unterschiedlicher Weise kombiniert werden, oder falls die Komponenten ersetzt oder durch andere Komponenten ergänzt werden. Die hierin beschriebenen Funktionen, Verfahren und Algorithmen können realisiert werden durch Hardware oder durch von Hardware umgesetzte Software, einschließlich Computerprozessoren und/oder programmierbare Schaltungen, die zur Ausführung von Programmcode, oder Computerbefehlen gestaltet sind, um die hierin beschriebenen Funktionen, Verfahren und Algorithmen auszuführen. Außerdem können einige Implementationen auf Modulen oder Hardware ausgeführt werden, die nicht mit den beschriebenen identisch sind. Demgemäß können andere Implementationen innerhalb des beanspruchten Schutzbereichs liegen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • A new approach to linear filtering and prediction problems. Journal of Basic Engineering 82, von Kalman, R. E. [0065]

Claims (14)

  1. Steuergerät für ein Fahrzeug, das einen Prozessor enthält, der so gestaltet ist, daß er: ein erstes Eingangssignal von einem ersten Sensor und ein zweites Eingangssignal von einem zweiten Sensor empfängt, wobei der erste und der zweite Sensor jeweils unterschiedliche Modalitäten aufweisen; synchron erste und zweite Beobachtungen von den ersten bzw. zweiten Sensoreingangssignalen ermittelt; die ermittelte erste Position und zweite Position auf ein Graphen-Netzwerk projiziert; die erste und die zweite Beobachtung einem Zielobjekt auf dem Graphen-Netzwerk zuordnet, wobei das Zielobjekt auf dem Graphen-Netzwerk eine Bewegungsbahn besitzt; auf der Basis von Charakteristika des ersten und des zweiten Sensors entweder die erste oder die zweite Beobachtung als die beste Beobachtung auswählt und durch Ausführung einer Vorhersage auf der Basis der besten Beobachtung und eines aktuellen Zeitstempels eine aktuelle Position des Zielobjekts abschätzt.
  2. Steuergerät nach Anspruch 1, bei welchem die erste und die zweite Beobachtung dem Zielobjekt dadurch zugeordnet werden, daß ein neues Zielobjekt auf dem Graphen-Netzwerk erzeugt wird, wenn die erste und die zweite Beobachtung nicht innerhalb eines vorgegebenen Abstands von einem aktuell verfolgten Zielobjekt liegen.
  3. Steuergerät nach Anspruch 1, bei welchem der Prozessor weiter so gestaltet ist, daß er: das Graphen-Netzwerk von einer Straßenkarte und einer akquirierten Position ausgehend derart erzeugt, daß das Graphen-Netzwerk eindimensionale Fahrspuren als Verbindungsglieder zwischen Knoten einschließt, wobei die Bewegungsbahn des Zielobjekts auf einer der eindimensionalen Fahrspuren basiert ist.
  4. Steuergerät nach Anspruch 1, bei welchem der erste Sensor ein Lidarsensor und der zweite Sensor ein Radarsensor ist.
  5. Steuergerät nach Anspruch 1, bei welchem die aktuelle Position des Zielobjekts durch Ausführung eines Kalman-Filter-Vorhersageverfahrens abgeschätzt wird.
  6. Steuergerät nach Anspruch 1, bei welchem die Charakteristika des ersten und des zweiten Sensors eine Zeitverzögerung zur Verarbeitung der Sensordaten und eine Präzision bei der Ermittlung gültiger Hindernisse durch Verarbeitung der Sensordaten aufweisen.
  7. Steuergerät nach Anspruch 1, bei welchem das Zielobjekt durch aktuelle Positionsupdates während aufeinanderfolgender Beobachtungen durch die ersten und zweiten Sensoren verfolgt wird und das Zielobjekt aus der Verfolgung herausgenommen wird, wenn während einer definierten Zeitspanne keine Beobachtung des Zielobjekts erfolgt.
  8. Steuergerät nach Anspruch 1, bei welchem die ermittelten ersten und zweiten Beobachtungen auf das Graphen-Netzwerk dadurch projiziert werden, daß entsprechende Koordinatensysteme des ersten und des zweiten Sensoreingangssignals in ein gemeinsames Koordinatensystem des Fahrzeugs übertragen werden.
  9. Steuergerät nach Anspruch 1, bei welchem das Steuergerät eine Liste von Zielobjekten in einer Zielobjekteliste in einem Speicher des Steuergeräts speichert und die Zielobjekteliste abgefragt wird, um die Beobachtungen den Zielobjekten hinzuzufügen.
  10. Steuergerät nach Anspruch 1, bei welchem die synchrone Ermittlung von Beobachtungen auf Punkte auf oder innerhalb einer Fehlerbegrenzung einer Fahrspur des Graphen-Netzwerks beschränkt ist.
  11. Steuergerät nach Anspruch 1, bei welchem das Tracking von Zielobjekten auf Punkte auf oder innerhalb einer Fehlerbegrenzung einer Fahrspur des Graphen-Netzwerks beschränkt ist.
  12. Steuergerät nach Anspruch 1, bei welchem die ermittelten ersten und zweiten Beobachtungen durch Korrigieren der ermittelten ersten und zweiten Beobachtungen zum Reflektieren eines aktuellen Zeitstempels auf das Graphen-Netzwerk projiziert werden, wodurch eine Position der ermittelten ersten und zweiten Beobachtungen auf dem Graphen-Netzwerk eingestellt wird, um zur Zeitverzögerung zwischen der Akquirierung der entsprechenden Sensordaten und der Projizierung der resultierenden Beobachtungen auf das Graphen-Netzwerk beizutragen.
  13. Fahrzeugsystem umfassend einen ersten Sensor und einen zweiten Sensor, deren jeder entsprechende, unterschiedliche erste und zweite Modalitäten besitzt, und ein Steuergerät, das einen Prozessor einschließt, gestaltet, um: ein erstes Sensoreingangssignal vom ersten Sensor und ein zweites Sensoreingangssignal vom zweiten Sensor zu empfangen; synchron erste und zweite Beobachtungen vom ersten bzw. zweiten Sensoreingangssignal zu ermitteln; die ermittelten ersten und zweiten Beobachtungen auf ein Graphen-Netzwerk zu projizieren, die ersten und zweiten Beobachtungen einem Zielobjekt auf dem Graphen-Netzwerk zuzuordnen, wobei das Zielobjekt eine Bewegungsbahn auf dem Graphen-Netzwerk besitzt; auf der Basis von Charakteristika des ersten und des zweiten Sensors entweder die erste oder die zweite Beobachtung als die beste Beobachtung auszuwählen; und durch Ausführung einer Vorhersage auf der Basis der besten Beobachtung und eines aktuellen Zeitstempels eine aktuelle Position des Zielobjekts abzuschätzen.
  14. Verfahren, umfassend: Empfang eines ersten Sensoreingangssignals von einem ersten Sensor und eines zweiten Sensoreingangssignals von einem zweiten Sensor, wobei der erste und der zweite Sensor jeweils entsprechende, unterschiedliche erste und zweite Modalitäten besitzen; synchrone Ermittlung erster und zweiter Beobachtungen vom ersten bzw. zweiten Sensoreingangssignal; Projizierung der ermittelten ersten und zweiten Beobachtungen auf ein Graphen-Netzwerk; Zuordnung der ersten und zweiten Beobachtungen zu einem Zielobjekt auf dem Graphen-Netzwerk, wobei das Zielobjekt eine Bewegungsbahn auf dem Graphen-Netzwerk besitzt; Auswahl entweder der ersten oder der zweiten Beobachtung als die beste Beobachtung auf der Basis von Charakteristika des ersten und des zweiten Sensors, und Abschätzung einer aktuellen Position des Zielobjekts durch Ausführung einer Vorhersage auf der Basis der besten Beobachtung und eines aktuellen Zeitstempels.
DE201310107861 2012-07-24 2013-07-23 Tracking von Strassen-Fahrzeugen mit Sensoren unterschiedlicher Ausführungsarten Pending DE102013107861A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/556,802 US9255989B2 (en) 2012-07-24 2012-07-24 Tracking on-road vehicles with sensors of different modalities
US13/556,802 2012-07-24

Publications (1)

Publication Number Publication Date
DE102013107861A1 true DE102013107861A1 (de) 2014-01-30

Family

ID=49912348

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310107861 Pending DE102013107861A1 (de) 2012-07-24 2013-07-23 Tracking von Strassen-Fahrzeugen mit Sensoren unterschiedlicher Ausführungsarten

Country Status (3)

Country Link
US (1) US9255989B2 (de)
JP (1) JP6224370B2 (de)
DE (1) DE102013107861A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109791052A (zh) * 2016-09-28 2019-05-21 通腾全球信息公司 用于生成和使用定位参考数据的方法和***
US11354461B2 (en) 2018-09-07 2022-06-07 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for simulating a distribution of obstacles
DE102021209783A1 (de) 2021-09-06 2023-03-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bereitstellen von Daten zum Erstellen einer digitalen Karte
US11935250B2 (en) 2018-04-18 2024-03-19 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for processing sensor data

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9097800B1 (en) * 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
US9915950B2 (en) * 2013-12-31 2018-03-13 Polysync Technologies, Inc. Autonomous vehicle interface system
JP6340824B2 (ja) * 2014-02-25 2018-06-13 村田機械株式会社 自律走行台車
CN106463049B (zh) 2014-04-04 2019-12-10 飞利浦灯具控股公司 用来经由环境感知和传感器校准和验证支持自主车辆的***和方法
US9880056B2 (en) 2014-06-27 2018-01-30 Tdw Delaware, Inc. System and method for non-destructive, in situ, positive material identification of a pipe
DE102014111126A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte eines Umgebungsbereichs eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
US9933515B2 (en) * 2014-12-09 2018-04-03 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor calibration for autonomous vehicles
DE102015201010A1 (de) * 2015-01-22 2016-07-28 Robert Bosch Gmbh Vorrichtung zum Ansteuern eines Kraftfahrzeugs
US9921307B2 (en) * 2015-01-30 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Combined RADAR sensor and LIDAR sensor processing
US9555736B2 (en) 2015-04-03 2017-01-31 Magna Electronics Inc. Vehicle headlamp control using sensing and communication systems
CN107636546B (zh) * 2015-06-10 2021-03-02 株式会社道具 自主移动***
US10054678B2 (en) 2015-07-30 2018-08-21 Toyota Motor Engineering & Manufacturing North America, Inc. Minimizing incorrect sensor data associations for autonomous vehicles
KR101714233B1 (ko) * 2015-10-06 2017-03-08 현대자동차주식회사 도로상의 물체 검출 장치 및 그 방법
US9916703B2 (en) 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US9804599B2 (en) 2015-11-04 2017-10-31 Zoox, Inc. Active lighting control for communicating a state of an autonomous vehicle to entities in a surrounding environment
US9612123B1 (en) 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
US20240028031A1 (en) * 2015-11-04 2024-01-25 Zoox, Inc. Autonomous vehicle fleet service and system
US9507346B1 (en) 2015-11-04 2016-11-29 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9606539B1 (en) 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
US9494940B1 (en) 2015-11-04 2016-11-15 Zoox, Inc. Quadrant configuration of robotic vehicles
US9754490B2 (en) 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US10745003B2 (en) 2015-11-04 2020-08-18 Zoox, Inc. Resilient safety system for a robotic vehicle
US10401852B2 (en) 2015-11-04 2019-09-03 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9734455B2 (en) * 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US9958864B2 (en) 2015-11-04 2018-05-01 Zoox, Inc. Coordination of dispatching and maintaining fleet of autonomous vehicles
US9802661B1 (en) 2015-11-04 2017-10-31 Zoox, Inc. Quadrant configuration of robotic vehicles
US10000124B2 (en) 2015-11-04 2018-06-19 Zoox, Inc. Independent steering, power, torque control and transfer in vehicles
US9632502B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US9878664B2 (en) 2015-11-04 2018-01-30 Zoox, Inc. Method for robotic vehicle communication with an external environment via acoustic beam forming
US10496766B2 (en) 2015-11-05 2019-12-03 Zoox, Inc. Simulation system and methods for autonomous vehicles
US9910441B2 (en) 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic
US11283877B2 (en) 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US10334050B2 (en) 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9720415B2 (en) 2015-11-04 2017-08-01 Zoox, Inc. Sensor-based object-detection optimization for autonomous vehicles
WO2017079341A2 (en) 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US10248119B2 (en) 2015-11-04 2019-04-02 Zoox, Inc. Interactive autonomous vehicle command controller
WO2018105136A1 (ja) 2016-12-06 2018-06-14 本田技研工業株式会社 車両周辺情報取得装置および車両
KR101795432B1 (ko) 2016-02-26 2017-11-10 현대자동차주식회사 차량 및 차량의 제어방법
US9645577B1 (en) * 2016-03-23 2017-05-09 nuTonomy Inc. Facilitating vehicle driving and self-driving
US10160448B2 (en) 2016-11-08 2018-12-25 Ford Global Technologies, Llc Object tracking using sensor fusion within a probabilistic framework
EP3539838A4 (de) * 2016-11-29 2019-12-11 Mazda Motor Corporation Fahrzeugsteuerungsvorrichtung
CN109891474B (zh) * 2016-12-06 2021-10-29 本田技研工业株式会社 车辆用控制装置
WO2018154367A1 (en) * 2017-02-23 2018-08-30 Kpit Technologies Limited System and method for target track management of an autonomous vehicle
US10338594B2 (en) * 2017-03-13 2019-07-02 Nio Usa, Inc. Navigation of autonomous vehicles to enhance safety under one or more fault conditions
US10423162B2 (en) 2017-05-08 2019-09-24 Nio Usa, Inc. Autonomous vehicle logic to identify permissioned parking relative to multiple classes of restricted parking
CN109212530B (zh) * 2017-07-04 2022-03-11 阿波罗智能技术(北京)有限公司 用于确定障碍物速度的方法和装置
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10599931B2 (en) * 2017-08-21 2020-03-24 2236008 Ontario Inc. Automated driving system that merges heterogenous sensor data
CN107764266A (zh) * 2017-09-18 2018-03-06 千寻位置网络有限公司 室内组合导航仿真方法及***、导航装置、终端、存储器
US11465643B2 (en) 2017-11-20 2022-10-11 Mitsubishi Electric Corporation Obstacle recognition device and obstacle recognition method
US10501085B2 (en) 2017-12-07 2019-12-10 Waymo Llc Early object detection for unprotected turns
US11022971B2 (en) 2018-01-16 2021-06-01 Nio Usa, Inc. Event data recordation to identify and resolve anomalies associated with control of driverless vehicles
KR101882483B1 (ko) * 2018-01-24 2018-07-27 엘아이지넥스원 주식회사 무인 수상정의 장애물 탐지 장치 및 방법
EP3517996B1 (de) * 2018-01-25 2022-09-07 Aptiv Technologies Limited Verfahren zur bestimmung der position eines fahrzeugs
JP6576511B1 (ja) * 2018-05-29 2019-09-18 三菱電機株式会社 物体認識装置および物体認識方法
CN108897319A (zh) * 2018-06-23 2018-11-27 广州市柯乐名迪电子科技有限公司 基于数字几何图形的自动驾驶方法、装置及***
CN109215136B (zh) 2018-09-07 2020-03-20 百度在线网络技术(北京)有限公司 一种真实数据增强方法、装置以及终端
CN109143242B (zh) 2018-09-07 2020-04-14 百度在线网络技术(北京)有限公司 障碍物绝对速度估计方法、***、计算机设备和存储介质
CN109188419B (zh) * 2018-09-07 2021-06-15 百度在线网络技术(北京)有限公司 障碍物速度的检测方法、装置、计算机设备及存储介质
CN109146898B (zh) * 2018-09-07 2020-07-24 百度在线网络技术(北京)有限公司 一种仿真数据量增强方法、装置以及终端
JP6735801B2 (ja) 2018-10-16 2020-08-05 三菱電機株式会社 物体認識装置およびこれを用いた車両制御装置並びに物体認識方法およびこれを用いた車両制御方法
US20220390557A9 (en) * 2018-12-17 2022-12-08 Sony Semiconductor Solutions Corporation Calibration apparatus, calibration method, program, and calibration system and calibration target
KR102135443B1 (ko) * 2019-01-28 2020-07-17 네이버랩스 주식회사 그래프 구조 기반의 이동체 위치 추적방법 및 이를 이용하는 이동체
CN109703568B (zh) 2019-02-19 2020-08-18 百度在线网络技术(北京)有限公司 自动驾驶车辆行驶策略实时学习的方法、装置和服务器
CN109712421B (zh) 2019-02-22 2021-06-04 百度在线网络技术(北京)有限公司 自动驾驶车辆的速度规划方法、装置和存储介质
US11776143B2 (en) * 2019-03-28 2023-10-03 Nec Corporation Foreign matter detection device, foreign matter detection method, and program
CN112036422B (zh) * 2019-06-04 2024-03-05 广州汽车集团股份有限公司 一种基于多传感器信息融合的航迹管理方法、***及计算机可读介质
US11214261B2 (en) * 2019-06-11 2022-01-04 GM Global Technology Operations LLC Learn association for multi-object tracking with multi sensory data and missing modalities
US10699563B1 (en) * 2019-07-12 2020-06-30 GM Global Technology Operations LLC Multi-sensor multi-object tracking
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
US11932306B2 (en) * 2019-09-14 2024-03-19 Honda Motor Co., Ltd. Trajectory planner
US11927674B2 (en) 2019-09-16 2024-03-12 Honda Motor Co., Ltd. System and method for providing a comprehensive trajectory planner for a person-following vehicle
CN111016891B (zh) * 2019-11-06 2022-03-22 国汽(北京)智能网联汽车研究院有限公司 一种车辆行驶的路线跟踪控制方法及装置
US11688184B2 (en) 2020-06-17 2023-06-27 Toyota Motor Engineering & Manufacturing North America, Inc. Driving automation external communication location change
US11703335B2 (en) * 2020-06-19 2023-07-18 Toyota Research Institute, Inc. Coordinating and learning maps dynamically

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1240974B (it) 1990-07-05 1993-12-27 Fiat Ricerche Metodo e apparecchiatura per evitare la collisione di un autoveicolo contro ostacoli.
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US6393046B1 (en) * 1996-04-25 2002-05-21 Sirf Technology, Inc. Spread spectrum receiver with multi-bit correlator
GB2337386B (en) * 1996-09-09 2001-04-04 Dennis J Dupray Location of a mobile station
US6260759B1 (en) * 1998-08-11 2001-07-17 Northrop Grumman Corporation Method for tracking a target having substantially constrained movement
JP3923200B2 (ja) * 1998-10-23 2007-05-30 本田技研工業株式会社 車両の障害物検知方法
JP3866479B2 (ja) 2000-04-07 2007-01-10 株式会社デンソー 車間制御装置、記録媒体
WO2001094970A1 (en) * 2000-06-08 2001-12-13 Automotive Systems Laboratory, Inc. Track map generator
US6532191B2 (en) * 2000-08-08 2003-03-11 Lockhead Martin Corporation System and method for target tracking and motion anyalysis
JP4771657B2 (ja) * 2001-08-16 2011-09-14 ヴァレオ・レイダー・システムズ・インコーポレーテッド 近接物体検出システム
US20040006424A1 (en) * 2002-06-28 2004-01-08 Joyce Glenn J. Control system for tracking and targeting multiple autonomous objects
JP3996080B2 (ja) * 2003-04-02 2007-10-24 三菱電機株式会社 目標追尾装置
US7562123B2 (en) * 2003-09-05 2009-07-14 Palo Alto Research Center Incorporated Systems and methods for distributed group formation and maintenance in geographically based networks
JP3918791B2 (ja) 2003-09-11 2007-05-23 トヨタ自動車株式会社 物体検出装置
EP1714108A4 (de) * 2003-12-24 2010-01-13 Automotive Systems Lab Strassenkrümmungs-schätzsystem
US7991550B2 (en) * 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
US8947531B2 (en) 2006-06-19 2015-02-03 Oshkosh Corporation Vehicle diagnostics based on information communicated between vehicles
US8229163B2 (en) * 2007-08-22 2012-07-24 American Gnc Corporation 4D GIS based virtual reality for moving target prediction
US20100235129A1 (en) 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
US8482486B2 (en) 2009-04-02 2013-07-09 GM Global Technology Operations LLC Rear view mirror on full-windshield head-up display
JP5004992B2 (ja) * 2009-04-06 2012-08-22 三菱電機株式会社 ネットワークセンサ装置
JP5385009B2 (ja) 2009-05-29 2014-01-08 日立オートモティブシステムズ株式会社 車両制御装置および車両制御方法
US9292971B2 (en) * 2009-08-03 2016-03-22 The United States Of America As Represented By The Secretary Of The Navy Three-dimensional tactical display and method for visualizing data with a probability of uncertainty
EP2341352B1 (de) * 2009-12-15 2015-10-28 Université d'Aix-Marseille Verfahren und Vorrichtung zur Messung der Winkelgeschwindigkeit einer Luminenzübergangszone und Steuerhilfssystem zur Fixierung und Verfolgung eines Ziels, das mindestens eine Luminanzübergangszone umfasst
WO2012068064A1 (en) * 2010-11-15 2012-05-24 Image Sensing Systems, Inc. Hybrid traffic sensor system and associated method
US9165470B2 (en) * 2011-07-25 2015-10-20 GM Global Technology Operations LLC Autonomous convoying technique for vehicles

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A new approach to linear filtering and prediction problems. Journal of Basic Engineering 82, von Kalman, R. E.

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109791052A (zh) * 2016-09-28 2019-05-21 通腾全球信息公司 用于生成和使用定位参考数据的方法和***
US11935250B2 (en) 2018-04-18 2024-03-19 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for processing sensor data
US11354461B2 (en) 2018-09-07 2022-06-07 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for simulating a distribution of obstacles
DE102021209783A1 (de) 2021-09-06 2023-03-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bereitstellen von Daten zum Erstellen einer digitalen Karte

Also Published As

Publication number Publication date
JP6224370B2 (ja) 2017-11-01
US9255989B2 (en) 2016-02-09
JP2014025925A (ja) 2014-02-06
US20140032012A1 (en) 2014-01-30

Similar Documents

Publication Publication Date Title
DE102013107861A1 (de) Tracking von Strassen-Fahrzeugen mit Sensoren unterschiedlicher Ausführungsarten
EP3359914B1 (de) Fusion von positionsdaten mittels posen-graph
DE102016102283B4 (de) Kartendatenbearbeitungsvorrichtung für ein Fahrzeug
DE112016003285B4 (de) Routengenerator, Routenerzeugungsverfahren und Routenerzeugungsprogramm
DE102010005293B4 (de) System und Verfahren zur Spurpfadschätzung unter Verwendung einer Sensorvereinigung
DE102020123585A1 (de) Erweiterte objektverfolgung mittels radar
WO2017016799A1 (de) Bestimmung einer anordnungsinformation für ein fahrzeug
DE102015122825A1 (de) Techniken zum Gruppieren von Zielelementen für eine Objektfusion
DE102018117660A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
DE102010006828A1 (de) Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE112014004990T5 (de) Verfahren zum Erzeugen exakter Fahrspurebenen-Karten
DE102006040334A1 (de) Verfahren für die Spurerfassung mit einem Fahrerassistenzsystem und Fahrerassistenzsystem
DE102018005869A1 (de) System zur Erstellung eines Umgebungsmodells eines Fahrzeugs
DE102016225595A1 (de) Verfahren und Anordnung zur Kalibrierung mindestens eines Sensors eines Schienenfahrzeugs
WO2021043505A1 (de) Verfahren und vorrichtung zur ermittlung einer trajektorie eines fahrzeugs
DE102010007091A1 (de) Verfahren zur Positionsermittlung für ein Kraftfahrzeug
DE112015007054T5 (de) Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
DE102020105619A1 (de) System und verfahren zur bestimmung der fahrzeugposition
DE102016211730A1 (de) Verfahren zur Vorhersage eines Fahrbahnverlaufs einer Fahrbahn
DE102017108107A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur schätzung einer pose eines kraftfahrzeugs
DE102018216999A1 (de) Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen
DE102020124331A1 (de) Fahrzeugspurkartierung
DE102016205193A1 (de) Marginalisieren eines Posen-Graphen
DE102019102922A1 (de) Verfahren und Vorrichtung zur Multi-Sensor-Datenfusion für automatisierte und autonome Fahrzeuge
DE102021214763A1 (de) Verfahren und Steuervorrichtung zum Steuern eines automatisierten Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH, US

Free format text: FORMER OWNER: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA, INC., ERLANGER, KY., US

R082 Change of representative

Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE

R016 Response to examination communication