DE102018222195A1 - Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen - Google Patents

Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen Download PDF

Info

Publication number
DE102018222195A1
DE102018222195A1 DE102018222195.2A DE102018222195A DE102018222195A1 DE 102018222195 A1 DE102018222195 A1 DE 102018222195A1 DE 102018222195 A DE102018222195 A DE 102018222195A DE 102018222195 A1 DE102018222195 A1 DE 102018222195A1
Authority
DE
Germany
Prior art keywords
dimensional
frequency representation
knn
input
multidimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018222195.2A
Other languages
English (en)
Inventor
Oliver Kern
Michael Pfeifer
Thomas Brosche
Volker Fischer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018222195.2A priority Critical patent/DE102018222195A1/de
Publication of DE102018222195A1 publication Critical patent/DE102018222195A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/583Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/584Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Verfahren (100) zur Ortung und/oder Klassifikation mindestens eines Objekts (3) in einem von mindestens einem Radarsensor (1) überwachten Bereich (2), wobei der Radarsensor (1) mindestens einen Sender (11) und mindestens einen Empfänger (12) für Radarwellen (13, 14) umfasst, mit den Schritten:• das vom Empfänger (12) registrierte Signal (14) wird in eine zwei- oder mehrdimensionale Frequenzdarstellung (15) umgewandelt (110);• mindestens ein Teil (15a) der zwei- oder mehrdimensionalen Frequenzdarstellung (15) wird einem künstlichen neuronalen Netzwerk, KNN (4), welches mindestens eine Faltungsschicht (41a-41c) und mindestens eine Pooling-Schicht (42) aufweist, als Eingabe zugeführt (120);• die Ortung (31), und/oder die Klassifikation (32), des Objekts (3) wird dem KNN (4) als Ausgabe entnommen (130).Zugehöriges Computerprogramm.

Description

  • Die vorliegende Erfindung betrifft die Ortung und/oder Klassifikation von Objekten, die sich in einem von einem Radarsensor überwachten Bereich befinden.
  • Stand der Technik
  • Damit sich ein Fahrzeug zumindest teilweise automatisiert im Straßenverkehr bewegen kann, ist es erforderlich, das Umfeld des Fahrzeugs zu erfassen und Gegenmaßnahmen einzuleiten, falls eine Kollision mit einem Objekt im Umfeld des Fahrzeugs droht. Auch die Erstellung einer Umfeld-Repräsentation und Lokalisierung sind für sicheres automatisiertes Fahren notwendig.
  • Die Erfassung von Objekten mittels Radar ist von den Lichtverhältnissen unabhängig und beispielsweise auch bei Nacht auf größere Entfernung möglich, ohne dass der Gegenverkehr durch Fernlicht geblendet wird. Aus den Radardaten gehen weiterhin unmittelbar die Entfernung und Geschwindigkeit von Objekten hervor. Diese Informationen sind wichtig für die Beurteilung, ob es zu einer Kollision mit den Objekten kommen kann. Um welchen Typ von Objekt es sich handelt, ist jedoch aus Radarsignalen nicht unmittelbar erkennbar. Diese Erkennung wird aktuell durch die Berechnung von Attributen aus der Digitalen Signalverarbeitung gelöst.
  • Die US 8,682,821 B2 offenbart, Radarsignale mittels maschinellem Lernen dahingehend zu klassifizieren, ob sie von der Bewegung bestimmter Objekte oder nichtmenschlicher Tiere herrühren. Diese Erkenntnis kann genutzt werden, um bei der Überwachung eines Bereichs auf menschliche Eindringlinge Falschalarme zu vermeiden, oder auch um beim zumindest teilweise automatisierten Fahren die richtige Aktion zur Kollisionsvermeidung auszuwählen.
  • Offenbarung der Erfindung
  • Im Rahmen der Erfindung wurde ein Verfahren zur Ortung und/oder Klassifikation mindestens eines Objekts entwickelt. Es wird davon ausgegangen, dass sich das Objekt in einem von mindestens einem Radarsensor überwachten Bereich befindet, wobei der Radarsensor mindestens einen Sender und mindestens einen Empfänger für Radarwellen umfasst.
  • Das vom Empfänger registrierte Signal wird in eine zwei- oder mehrdimensionale Frequenzdarstellung umgewandelt. Hierfür kann beispielsweise die schnelle Fourier-Transformation (Fast Fourier Transform, FFT) genutzt werden.
  • Mindestens ein Teil der zwei- oder mehrdimensionalen Frequenzdarstellung wird einem künstlichen neuronalen Netzwerk, KNN, welches mindestens eine Faltungsschicht und mindestens eine Pooling-Schicht aufweist, als Eingabe zugeführt.
  • Die Ortung, und/oder die Klassifikation, des Objekts wird dem KNN als Ausgabe entnommen.
  • Eine jede Schicht des KNN erhält eine Vielzahl von Eingangsgrößen als Eingabe und liefert eine oder mehrere Ausgangsgrößen als Ausgabe. Die Anzahl der unabhängigen Eingangsgrößen, die in der Eingabe enthalten sind, entspricht der Dimensionalität der Eingabe. Die Anzahl der unabhängigen Ausgangsgrößen, die in der Ausgabe enthalten sind, entspricht der Dimensionalität der Ausgabe.
  • Eine Faltungsschicht ist eine Schicht, deren Ausgabe durch Faltung ihrer Eingabe mit mindestens einem Faltungskern erhalten wird. Dabei hat die Ausgabe in der Regel eine Dimensionalität, die in der gleichen Größenordnung liegt wie die Dimensionalität der Eingabe. In der Regel ist die Dimensionalität der Ausgabe auf Grund von Randeffekten um einen geringen Betrag gegenüber der Dimensionalität der Eingabe vermindert.
  • Eine Pooling-Schicht ist eine Schicht, die nicht überlappenden Teilmengen der Eingabe jeweils einen Ausgangsgrößenwert zuordnet. Beispielsweise kann der Ausgangsgrößenwert jeweils das Maximum, den Mittelwert oder das Minimum der in der Teilmenge enthaltenen Eingangsgrößenwerte sein (auch MaxPool, AvgPool bzw. MinPool genannt). Bei der Verarbeitung werden also die in der Teilmenge enthaltenen Eingangsgrößenwerte zu einem Ausgangsgrößenwert verdichtet. Die Dimensionalität der Ausgabe einer Pooling-Schicht ist also deutlich kleiner als die Dimensionalität der Eingabe dieser Pooling-Schicht.
  • In einer vorteilhaften Ausgestaltung wird ein KNN gewählt, das zusätzlich mindestens eine vollvernetzte Schicht aufweist. Eine vollvernetzte Schicht ist eine Schicht, in der Verbindungen zwischen jeder Eingangsgröße und jeder Ausgangsgröße bestehen. Dabei sind die Dimensionalitäten der Eingabe und der Ausgabe frei wählbar. Vollvernetzte Schichten werden häufig in der letzten Stufe einer Klassifikationsaufgabe eingesetzt. Die Ausgangsgrößen können dann beispielsweise zu jeder möglichen Klasse eine Wahrscheinlichkeit oder Konfidenz angeben, mit der die Eingabe zur jeweiligen Klasse gehört. Ein KNN ohne vollvernetzte Schicht kann beispielsweise ein „fully-convolutional network“ sein.
  • Es wurde erkannt, dass das Vorhandensein einer oder mehrerer Pooling-Schichten in dem KNN es ermöglicht, die volle in der zwei- oder mehrdimensionalen Frequenzdarstellung enthaltene Information zu nutzen. Diese Information hat in der Regel eine sehr hohe Dimensionalität. Wenn beispielsweise die beiden Richtungen einer zweidimensionalen Frequenzdarstellung jeweils in 512 mögliche Werte diskretisiert sind, dann umfasst die zweidimensionale Frequenzdarstellung 5122=262.144 Eingangsgrößen. Demgegenüber hat die letztendlich interessierende Ausgangsgröße, also der Ort innerhalb des überwachten Bereich, an dem sich das fragliche Objekt befindet, und/oder die Klasse dieses fraglichen Objekts, eine wesentlich geringere Dimensionalität. Pooling-Schichten können verwendet werden, um dieses Dimensionalitätsgefälle zu überbrücken.
  • Insbesondere kann vorteilhaft ein KNN gewählt werden, das mehrere Anordnungen aus einer Pooling-Schicht und einer oder mehreren eingangsseitig vorgeschalteten Faltungsschichten enthält. Die Schichten können dann beispielsweise dahingehend arbeitsteilig zusammenwirken, dass in der Faltungsschicht, bzw. in den mehreren Faltungsschichten, jeweils ein Teil der insgesamt in den Eingangsgrößen vorhandenen Information im Hinblick auf die gewünschte Ortung oder Klassifikation ausgewertet wird und die Information anschließend durch eine Pooling-Schicht komprimiert wird. Es werden also in den Faltungsschichten gleichsam Details verarbeitet, und in den Pooling-Schichten werden die Details auf das bei dieser Verarbeitung erhaltene Ergebnis reduziert.
  • Beispielsweise können aus der zwei- oder mehrdimensionalen Frequenzdarstellung zunächst grundlegende Merkmale extrahiert werden, bevor in späteren Faltungsschichten diese Merkmale zu größeren Einheiten kombiniert werden und schließlich die endgültige Ortung und/oder Klassifikation vorgenommen wird.
  • Es wurde erkannt, dass bei dieser Art der Auswertung Details, die ursprünglich in der zwei- oder mehrdimensionalen Frequenzdarstellung enthalten waren, immer erst dann durch Verdichtung verworfen werden, wenn aus diesen Details bereits Schlüsse in Bezug auf die letztendlich beabsichtigte Ortung bzw. Klassifikation gezogen wurden. Zumindest jede Faltungsschicht, die der ersten Pooling-Schicht vorgeschaltet ist, kann also noch auf alle Details zugreifen. Auch große Dimensionalitätsgefälle zwischen Eingabe und Ausgabe des KNN als Ganzes lassen sich durch eine Hintereinanderschaltung mehrerer Pooling-Schichten mit dazwischen angeordneten Faltungsschichten überbrücken. Es ist also nicht nötig, dass die zwei- oder mehrdimensionale Frequenzdarstellung bereits vor der Eingabe in das KNN verdichtet wird und bestimmte Details von vornherein eingeebnet werden.
  • Indem somit keine Details völlig unberücksichtigt bleiben, wird insgesamt die Qualität und Verlässlichkeit der letztendlich erhaltenen Ortung und/oder Klassifikation gesteigert. Eine Verarbeitung hingegen, die die zwei- oder mehrdimensionale Frequenzdarstellung bereits vor der Eingabe in das KNN zu Reflexen oder ähnlichen Merkmalen abstrahiert, kommt mit einem KNN geringerer Dimensionalität aus. Dafür wird aber ein Teil der in der zwei- oder mehrdimensionalen Frequenzdarstellung enthaltenen Information verworfen, bevor das KNN sie überhaupt zu Gesicht bekommt.
  • Die Verarbeitung der zwei- oder mehrdimensionalen Frequenzdarstellung, oder zumindest eines Teils hiervon, ist physikalisch aussagekräftiger als die Verarbeitung von bloßen Radarreflexen bzw. Peaks, die hieraus extrahiert wurden. Ein Peak mit hoher Intensität entsteht bevorzugt an einem Ort des Objekts, an dem eine spekulare Reflexion von Radarwellen stattfindet. Wird hingegen der Teil der zwei- oder mehrdimensionalen Frequenzdarstellung, der von dem Objekt herrührt, komplett berücksichtigt, so ist hierin die von allen Orten des Objekts kommende Information enthalten. Insbesondere die Klassifikation des Objekts kann hierdurch genauer werden.
  • In einer besonders vorteilhaften Ausgestaltung wird aus der zwei- oder mehrdimensionalen Frequenzdarstellung ein Teilbereich, der die von ein und demselben Objekt herrührenden Signale enthält, für die Eingabe in das KNN vorausgewählt. Auf diese Weise kann die Aufgabe, den gesamten überwachten Bereich auf Objekte zu analysieren, auch mit einem KNN durchgeführt werden, das nicht die gesamte zwei- oder mehrdimensionale Frequenzdarstellung auf einmal verarbeiten kann. Streng mathematisch gesehen, leistet zwar jedes im überwachten Bereich vorhandene Objekt einen Beitrag zu jedem Element der zwei- oder mehrdimensionalen Frequenzdarstellung. Es wurde jedoch erkannt, dass es zu jedem Objekt ein relativ enges Teilgebiet innerhalb der zwei- oder mehrdimensionalen Frequenzdarstellung gibt, innerhalb dessen die Beiträge signifikant sind.
  • Die Unterteilung der zwei- oder mehrdimensionalen Frequenzdarstellung in Teilbereiche, die jeweils von ein und demselben Objekt herrühren, ist insbesondere vorteilhaft, um mehrere unterschiedliche Objekte innerhalb des überwachten Bereichs zu orten oder zu klassifizieren. Es kann dann in der letztendlich vom KNN gelieferten Ausgabe insbesondere der Fall, dass
    1. a) in der gleichen Szene zwei oder mehr verschiedene Objekte vorhanden sind, von dem Fall unterschieden werden, dass
    2. b) sich das KNN bezüglich der Klassifikation eines einzigen Objekts nicht sicher ist und zwischen zwei oder mehr Objekttypen schwankt.
  • Im Fall a) wird jedes Objekt nur in jeweils dem Teilbereich der zwei- oder mehrdimensionalen Frequenzdarstellung erkannt, der sich auf das jeweilige Objekt bezieht. Ist die zwei- oder mehrdimensionale Frequenzdarstellung also beispielsweise in nicht überlappende Teilbereiche untergliedert, die von verschiedenen Objekten herrühren, dann wird das Objekt nur in genau einem dieser Teilbereiche erkannt.
  • Im Fall b) werden in dem Teilbereich, in dem sich das KNN nicht sicher ist, alle in Frage kommenden Objekte erkannt, wobei die diesen Objekten jeweils zugeordneten Wahrscheinlichkeiten bzw. Konfidenzen ein Maß dafür sind, zu welchem Objekt das KNN eher tendiert.
  • Ohne die Unterteilung der zwei- oder mehrdimensionalen Frequenzdarstellung in zu einzelnen Objekten gehörige Teilbereiche sind die Fälle a) und b) schwerer voneinander unterscheidbar, da zusätzliche Objekte in beiden Fällen a) und b) qualitativ ähnliche Signaturen in der Ausgabe des KNN hinterlassen.
  • In einer weiteren besonders vorteilhaften Ausgestaltung wird mindestens ein Peak aus der zwei- oder mehrdimensionalen Frequenzdarstellung extrahiert, und der Teilbereich wird als Region mit einer vorgegebenen Größe um diesen Peak herum ausgewählt. Die zwei- oder mehrdimensionale Frequenzdarstellung wird dann nicht vor der Eingabe in das KNN auf Peaks verdichtet, sondern die Information über die Peaks wird als Zusatzinformation genutzt, um die zwei- oder mehrdimensionale Frequenzdarstellung noch besser auszuwerten. Es können also bewährte Verfahren zur Analyse von Peaks weiter genutzt werden, um letztendlich zu einer genaueren Ortung und/oder Klassifikation aller im überwachten Bereich vorhandenen Objekte zu gelangen.
  • In einer weiteren besonders vorteilhaften Ausgestaltung wird ein Teil der zwei- oder mehrdimensionalen Frequenzdarstellung, der in das KNN eingegeben wird, durch Bildsegmentierung aus einer zweidimensionalen Frequenzdarstellung ausgewählt. Unter Bildsegmentierung wird in diesem Zusammenhang jedwede Erzeugung von inhaltlich zusammenhängenden Regionen durch Zusammenfassung benachbarter Pixel oder Voxel nach Maßgabe eines vorgegebenen Homogenitätskriteriums verstanden. Auf diese Weise können bewährte Methoden zur Bildsegmentierung arbeitsteilig mit der neuartigen Ortung und Klassifikation über das KNN verzahnt werden.
  • In einer weiteren besonders vorteilhaften Ausgestaltung wird ein Teil der zwei- oder mehrdimensionalen Frequenzdarstellung, der in das KNN eingegeben wird, durch ein weiteres KI-Modul ausgewählt, dem die zwei- oder mehrdimensionale Frequenzdarstellung als Eingabe zugeführt wird. Es wurde erkannt, dass auch die Unterteilung der zwei- oder mehrdimensionalen Frequenzdarstellung in Teilbereiche, die die von verschiedenen Objekten herrührenden Signale enthalten, „Übungssache“ und somit dem maschinellen Lernen zugänglich ist. Dabei ist diese Unterteilung zwar eine Vorarbeit für die letztendliche Ortung und/oder Klassifikation, unterscheidet sich von dieser jedoch so stark, dass die Verwendung eines unabhängigen KI-Moduls hierfür sinnvoll ist.
  • In einer weiteren vorteilhaften Ausgestaltung wird ein Teil der zwei- oder mehrdimensionalen Frequenzdarstellung, der in das KNN eingegeben wird, anhand eines Orts ausgewählt, an dem sich das Objekt gemäß einer Karte, und/oder gemäß der Information von einem weiteren Sensor, befindet. Auf diese Weise kann auch diese Information mit der Ortung und/oder Klassifikation durch das KNN fusioniert werden, d.h., zur Lösung der Gesamtaufgabe, alle im überwachten Bereich vorhandenen Objekte zu orten und/oder zu klassifizieren, tragen dann auch die genannten Zusatzinformationen bei.
  • Das KNN selbst ist andererseits nicht darauf festgelegt, ausschließlich die zwei- oder mehrdimensionale Frequenzdarstellung als Eingabe zu verwenden. In einer weiteren besonders vorteilhaften Ausgestaltung wird mindestens ein Peak aus der zwei- oder mehrdimensionalen Frequenzdarstellung extrahiert, und eine Information über diesen Peak wird dem KNN als weitere Eingangsgröße zugeführt. Diese zusätzliche Nutzung erkannter Peaks kann alternativ oder auch in Kombination zur Festlegung des in das KNN einzugebenden Teilbereichs aus der zwei- oder mehr dimensionalen Frequenzdarstellung implementiert werden.
  • Nach dem zuvor Beschriebenen wird in einer besonders vorteilhaften Ausgestaltung ein Radarsensor gewählt, der auf einem Fahrzeug montiert ist. Der Radarsensor überwacht dann zumindest einen Teil des Umfelds des Fahrzeugs. Die durch das Verfahren bereitgestellte Orientierung und/oder Klassifikation von Objekten in diesem Umfeld kann dann genutzt werden, um den Fahrer des Fahrzeugs zu warnen oder, im Rahmen eines Fahrassistenzsystems oder eines zumindest teilweise automatisiert fahrenden Fahrzeugs, aktiv in die Fahrdynamik einzugreifen, um verkehrsgerecht auf die Objekte zu reagieren.
  • Vorteilhaft wird eine zwei- oder mehrdimensionalen Frequenzdarstellung gewählt, in der eine Richtung die Entfernung des Objekts vom Radarsensor und eine weitere Richtung die Geschwindigkeit des Objekts repräsentiert. Dies sind die wichtigsten Größen, die für die verkehrsgerechte Reaktion auf das Objekt, insbesondere für die Vermeidung einer Kollision mit dem Objekt. Weiterhin ist auch die Orientierung des Objekts aus einer solchen Darstellung entnehmbar.
  • Allerdings zeigen sich Objekte in dieser Darstellung erst ab einer gewissen Mindestgröße als deutliche einzelne Peaks. Kleinere Objekte werden hingegen in mehrere schwache Peaks aufgebrochen. Eine Auswertung, die zunächst nur die deutlich sichtbaren Peaks extrahiert und diese dann einem KNN zuführt, lässt die kleineren Objekte dann möglicherweise außen vor. Das beschriebene Verfahren führt hingegen die gesamte zwei- oder mehrdimensionale Frequenzinformation aus dem jeweils untersuchten Teil der Frequenzdarstellung dem KNN zu. Das KNN ist dann in der Lage, auch die besagten kleineren Objekte zu orten und zu klassifizieren.
  • Vorteilhaft wird eine zwei- oder mehrdimensionale Frequenzdarstellung gewählt, die mindestens dreidimensional ist. Eine weitere Richtung repräsentiert dann einen Azimutwinkel des Objekts relativ zum Radarsensor. Nach der Entfernung und der Geschwindigkeit ist der Azimutwinkel die nächstwichtige Größe für die Beurteilung, ob das Verhalten des Fahrzeugs auf das Vorhandensein und das Verhalten des Objekts reagieren muss, etwa um eine Kollision mit dem Objekt zu vermeiden.
  • In einer weiteren besonders vorteilhaften Ausgestaltung wird in Antwort darauf, dass ein Objekt erkannt wurde und dass die aktuell geplante und/oder gefahrene Trajektorie des Fahrzeugs den Standort, und/oder die Trajektorie, dieses Objekts berührt, eine Warneinrichtung aktiviert. Dabei ist der Begriff der Trajektorie in Raum und Zeit zu verstehen. Das bedeutet, eine Berührung zweier Trajektorien zeigt an, dass sich die zugehörigen Objekte zur gleichen Zeit am gleichen Ort treffen. Die Berührung einer Trajektorie mit einem Standort zeigt an, dass es an diesem Standort zur Kollision mit einem dort befindlichen Objekt kommen wird, wenn sich dieses Objekt nicht von dem Standort fortbewegt.
  • Die Warneinrichtung kann beispielsweise innerhalb des Fahrzeugs für den Fahrer des Fahrzeugs wahrnehmbar sein. Die Warneinrichtung kann aber beispielsweise auch eine Hupe sein, die die Fahrer anderer Fahrzeuge warnt.
  • Alternativ oder auch in Kombination kann ein Antriebssystem, ein Bremssystem, und/oder ein Lenksystem des Fahrzeugs angesteuert werden, um die Berührung der Trajektorie des Fahrzeugs mit der Trajektorie, und/oder dem Standort, des erkannten Objekts zu unterbinden.
  • Das Verfahren kann ganz oder teilweise auf einem Computer oder einem Steuergerät durchgeführt und beispielsweise in einer Software implementiert sein. Diese Software kann als eigenständiges Produkt vertrieben werden, beispielsweise als Update oder Upgrade zu einem bislang für die Ortung und/oder Klassifikation von Objekten aus Radardaten eingesetzten Computer oder Steuergerät. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem Computer, und/oder auf einem Steuergerät, ausgeführt werden, den Computer, und/oder das Steuergerät, dazu veranlassen, das beschriebene Verfahren auszuführen. Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger oder ein Downloadprodukt mit dem Computerprogramm.
  • Weiterhin bezieht sich die Erfindung auch auf ein Steuergerät mit dem Computerprogramm, und/oder mit dem maschinenlesbaren Datenträger und/oder dem Downloadprodukt. Alternativ oder auch in Kombination hierzu kann das Steuergerät auch in beliebiger sonstiger Weise spezifisch zur Ausführung des beschriebenen Verfahrens ausgebildet sein, beispielsweise durch Verkörperung der Funktionalität des Verfahrens in Form von anwendungsspezifischen integrierten Schaltungen (ASICs).
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Ausführungsbeispiele
  • Es zeigt:
    • 1 Beispielhaftes Ablaufdiagramm des Verfahrens 100;
    • 2 Beispielhafte Verarbeitung einer zweidimensionalen Frequenzdarstellung 15 mit einem KNN 4;
    • 3 Beispielhafte Verkehrssituation, in der die Erkennung eines Objekts 3 mit dem Verfahren 100 in eine Verhaltensänderung eines Fahrzeugs 50 münden kann.
  • Nach 1 werden von einem Empfänger 12 eines Radarsensors 1 aus einem überwachten Bereich 2 empfangene Radarsignale 14 zunächst in Schritt 110 des Verfahrens 100 in eine zwei- oder mehrdimensionale Frequenzdarstellung 15 umgewandelt. In Schritt 120 wird aus dieser zwei- oder mehrdimensionalen Frequenzdarstellung 15 ein Teil 15a extrahiert und einem künstlichen neuronalen Netzwerk, KNN 4, als Eingabe zugeführt. In Schritt 130 wird die Ortung 31, und/oder die Klassifikation 32, eines oder mehrerer Objekte 3 dem KNN 4 als Ausgabe entnommen.
  • In dem in 1 gezeigten Beispiel ist der Radarsensor 1 auf einem Fahrzeug 50 montiert. Im Anschluss an die Erkennung eines Objekts 3 wird in Schritt 140 geprüft, ob die aktuell geplante und/oder gefahrene Trajektorie 50a des Fahrzeugs 50 den Standort 3b, und/oder die Trajektorie 3a, des Objekts 3 berührt. Ist dies der Fall (Wahrheitswert 1), können Gegenmaßnahmen ergriffen werden, um diese Berührung zu unterbinden. Eine beispielhafte Verkehrssituation, in der dies vorteilhaft ist, ist in 3 dargestellt.
  • Im Einzelnen kann in Schritt 150 eine für den Fahrer des Fahrzeugs 50 wahrnehmbare Warneinrichtung 51a, und/oder eine außerhalb des Fahrzeugs 50 wahrnehmbare Hupe 51b, aktiviert werden. Alternativ oder auch in Kombination kann in Schritt 160 ein Antriebssystem 52, ein Bremssystem 53, und/oder ein Lenksystem 54, des Fahrzeugs 50 angesteuert werden, um die Berührung zu unterbinden.
  • Die Auswahl des Teils 15a der zwei- oder mehrdimensionalen Frequenzdarstellung 15 ist innerhalb des Kastens 120 im Detail dargestellt. Es gibt hier mehrere Wege, die einzeln oder in Kombination beschritten werden können.
  • So kann gemäß Block 121 insbesondere ein Teilbereich 15a, der die von ein und demselben Objekt 3 herrührenden Signale 14 enthält, ausgewählt werden. Hierzu kann beispielsweise gemäß Block 122 zunächst ein Peak 15b aus der zwei- oder mehrdimensionalen Frequenzdarstellung 15 extrahiert, und der Teilbereich 15a kann als Region mit einer vorgegebenen Größe um diesen Peak 15b herum ausgewählt werden. Der Peak 15b kann weiterhin gemäß dem optionalen Schritt 122a als zusätzliche Eingangsgröße dem KNN 4 zugeführt werden.
  • Gemäß Block 124 kann der ausgewählte Teil 15a der zwei- oder mehrdimensionalen Frequenzdarstellung 15 durch Bildsegmentierung ausgewählt werden.
  • Gemäß Block 125 kann die zwei- oder mehrdimensionale Frequenzdarstellung 15 einem weiteren KI-Modul 5 zugeführt werden, das beispielsweise ebenfalls als KNN ausgeführt sein kann. Das weitere KI-Modul 5 kann dann gemäß Block 126 den Teil 15a aus der zwei- oder mehrdimensionalen Frequenzdarstellung 15 auswählen, der dem KNN 4 zugeführt wird.
  • Gemäß Block 127 kann der Teil 15a der zwei- oder mehrdimensionalen Frequenzdarstellung 15 auch beispielsweise anhand eines Orts ausgewählt werden, an dem sich das Objekt 3 gemäß einer Karte, und/oder gemäß der Information von einem weiteren Sensor, befindet.
  • 2 zeigt die beispielhafte Verarbeitung einer aus empfangenen Radarsignalen 14 gebildeten zweidimensionalen Frequenzdarstellung 15 mit einem KNN 4. Das KNN 4 umfasst drei Faltungsschichten 41a-41c, denen jeweils eine Pooling-Schicht 42a-42c nachgeschaltet ist. Die Faltungsschichten 41a-41c extrahieren mit ihren Faltungskernen jeweils Informationen aus ihrer Eingabe, und anschließend verringern die Pooling-Schichten die Dimensionalität. Die zweite Faltungsschicht 41b bekommt also Eingabe, die eine deutlich geringere Dimensionalität hat als die Eingabe der ersten Faltungsschicht 41a. Die dritte Faltungsschicht 41c bekommt eine Eingabe mit einer Dimensionalität, die gegenüber der Eingabe der zweiten Faltungsschicht 41b abermals reduziert ist. Schließlich liefert eine vollvernetzte Schicht 43 die Ortung 31, und/oder die Klassifikation 32, des Objekts 3. Dieser Ansatz lässt sich auf beliebige weitere zu untersuchende Merkmale erweitern, wie etwa auf polarimetrische Merkmale. Die vollvernetzte Schicht 43 ist für die Funktionalität des Verfahrens 100 nicht zwingend erforderlich.
  • In 2 ist angedeutet, dass in einem ersten Teilbereich 15a der zweidimensionalen Frequenzdarstellung 15 ein starkes, in einen Peak 15b konzentriertes Signal sichtbar ist. Dieses Signal korrespondiert zu einem großen Objekt 3. Im Teilbereich 15a' ist hingegen nur ein schwaches Signal vorhanden, das auf mehrere lediglich zu erahnende Peaks verschmiert ist. Dieses Signal korrespondiert zu einem kleinen Objekt 3. Solche kleinen Objekte 3 können mit dem Verfahren 100 genauer und zuverlässiger geortet und klassifiziert werden.
  • In der zweidimensionalen Frequenzdarstellung 15 repräsentiert in dem in 2 gezeigten Beispiel eine Richtung den Abstand d des Objekts 3 vom Radarsensor 1 und die andere Richtung die Geschwindigkeit v des Objekts 3.
  • 3 zeigt eine beispielhafte Verkehrssituation, in der das Verfahren 100 angewendet werden kann. Ein Fahrzeug 50 mit dem Radarsensor 1, der einen Sender 11 und einen Empfänger 12 umfasst, folgt einer Trajektorie 50a und nähert sich dabei auf der Straße 61 einer Kreuzung 60, an der die Straße 61 auf die weiteren Straßen 62-64 trifft. Dabei sendet der Sender 11 des Radarsensors 1 Radarwellen 13 in einen überwachten Bereich 2 aus. An Objekten 3 im überwachten Bereich 2 reflektierte Radarwellen 14 werden vom Empfänger 12 des Radarsensors 1 registriert.
  • In dem in 3 gezeigten Beispiel verfolgt ein weiteres Fahrzeug die Trajektorie 3b und nähert sich dabei auf der Straße 64 der Kreuzung 60. An seinem aktuellen Standort 3b wird das Fahrzeug durch den Radarsensor 1 als Objekt 3 erfasst. Da die Trajektorie 3a des Objekts 3 die Trajektorie 50a des Fahrzeugs 50 schneidet, werden an Bord des Fahrzeugs 50 Gegenmaßnahmen ergriffen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 8682821 B2 [0004]

Claims (15)

  1. Verfahren (100) zur Ortung und/oder Klassifikation mindestens eines Objekts (3) in einem von mindestens einem Radarsensor (1) überwachten Bereich (2), wobei der Radarsensor (1) mindestens einen Sender (11) und mindestens einen Empfänger (12) für Radarwellen (13, 14) umfasst, mit den Schritten: • das vom Empfänger (12) registrierte Signal (14) wird in eine zwei- oder mehrdimensionale Frequenzdarstellung (15) umgewandelt (110); • mindestens ein Teil (15a) der zwei- oder mehrdimensionalen Frequenzdarstellung (15) wird einem künstlichen neuronalen Netzwerk, KNN (4), welches mindestens eine Faltungsschicht (41a-41c) und mindestens eine Pooling-Schicht (42) aufweist, als Eingabe zugeführt (120); • die Ortung (31), und/oder die Klassifikation (32), des Objekts (3) wird dem KNN (4) als Ausgabe entnommen (130).
  2. Verfahren (100) nach Anspruch 1, wobei ein KNN (4) gewählt wird, das zusätzlich mindestens eine vollvernetzte Schicht (43) aufweist.
  3. Verfahren (100) nach einem der Ansprüche 1 bis 2, wobei aus der zwei- oder mehrdimensionalen Frequenzdarstellung (15) ein Teilbereich (15a), der die von ein und demselben Objekt (3) herrührenden Signale (14) enthält, für die Eingabe in das KNN (4) vorausgewählt wird (121).
  4. Verfahren (100) nach Anspruch 3, wobei mindestens ein Peak (15b) aus der zwei- oder mehrdimensionalen Frequenzdarstellung (15) extrahiert wird (122) und wobei der Teilbereich (15a) als Region mit einer vorgegebenen Größe um diesen Peak (15b) herum ausgewählt wird (123).
  5. Verfahren (100) nach einem der Ansprüche 1 bis 4, wobei ein Teil (15a) der zwei- oder mehrdimensionalen Frequenzdarstellung (15), der in das KNN (4) eingegeben wird, durch Bildsegmentierung aus einer zweidimensionalen Frequenzdarstellung (15) ausgewählt wird (124).
  6. Verfahren (100) nach einem der Ansprüche 1 bis 5, wobei ein Teil (15a) der zwei- oder mehrdimensionalen Frequenzdarstellung (15), der in das KNN (4) eingegeben wird, durch ein weiteres KI-Modul (5) ausgewählt wird (126), dem die zwei- oder mehrdimensionale Frequenzdarstellung (15) als Eingabe zugeführt wird (125).
  7. Verfahren (100) nach einem der Ansprüche 1 bis 6, wobei ein Teil (15a) der zwei- oder mehrdimensionalen Frequenzdarstellung (15), der in das KNN (4) eingegeben wird, anhand eines Orts ausgewählt wird (127), an dem sich das Objekt (3) gemäß einer Karte, und/oder gemäß der Information von einem weiteren Sensor, befindet.
  8. Verfahren (100) nach einem der Ansprüche 1 bis 7, wobei mindestens ein Peak (15b) aus der zwei- oder mehrdimensionalen Frequenzdarstellung (15) extrahiert wird (122) und wobei eine Information über diesen Peak (15b) dem KNN als weitere Eingangsgröße zugeführt wird (122a).
  9. Verfahren (100) nach einem der Ansprüche 1 bis 8, wobei ein Radarsensor (1) gewählt wird, der auf einem Fahrzeug (50) montiert ist.
  10. Verfahren (100) nach Anspruch 9, wobei eine zwei- oder mehrdimensionale Frequenzdarstellung (15) gewählt wird, in der eine Richtung die Entfernung d des Objekts (3) vom Radarsensor (1) und eine weitere Richtung die Geschwindigkeit v des Objekts (3) repräsentiert.
  11. Verfahren (100) nach Anspruch 10, wobei eine zwei- oder mehrdimensionale Frequenzdarstellung gewählt wird, die mindestens dreidimensional ist, und wobei eine weitere Richtung einen Azimutwinkel des Objekts (3) relativ zum Radarsensor (1) repräsentiert.
  12. Verfahren (100) nach einem der Ansprüche 9 bis 11, wobei in Antwort darauf, dass ein Objekt (3) erkannt wurde (130) und dass die aktuell geplante und/oder gefahrene Trajektorie (50a) des Fahrzeugs (50) den Standort (3b), und/oder die Trajektorie (3a), dieses Objekts (3) berührt (140), eine Warneinrichtung (51a, 51b) aktiviert wird (150), und/oder ein Antriebssystem (52), ein Bremssystem (53), und/oder ein Lenksystem (54), des Fahrzeugs (50) angesteuert wird (160), um die Berührung zu unterbinden.
  13. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem Computer, und/oder auf einem Steuergerät, ausgeführt werden, den Computer, und/oder das Steuergerät, dazu veranlassen, ein Verfahren (100) nach einem der Ansprüche 1 bis 12 auszuführen.
  14. Maschinenlesbarer Datenträger und/oder Downloadprodukt mit dem Computerprogramm nach Anspruch 13.
  15. Steuergerät mit dem Computerprogramm nach Anspruch 13, und/oder mit dem maschinenlesbaren Datenträger und/oder dem Downloadprodukt nach Anspruch 14, und/oder in sonstiger Weise spezifisch ausgebildet zur Ausführung des Verfahrens nach einem der Ansprüche 1 bis 12.
DE102018222195.2A 2018-12-18 2018-12-18 Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen Pending DE102018222195A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018222195.2A DE102018222195A1 (de) 2018-12-18 2018-12-18 Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018222195.2A DE102018222195A1 (de) 2018-12-18 2018-12-18 Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen

Publications (1)

Publication Number Publication Date
DE102018222195A1 true DE102018222195A1 (de) 2020-06-18

Family

ID=70859670

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018222195.2A Pending DE102018222195A1 (de) 2018-12-18 2018-12-18 Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen

Country Status (1)

Country Link
DE (1) DE102018222195A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113093170A (zh) * 2021-06-07 2021-07-09 长沙莫之比智能科技有限公司 一种基于knn算法的毫米波雷达室内人员检测方法
DE102020208544A1 (de) 2020-07-08 2022-01-13 Robert Bosch Gesellschaft mit beschränkter Haftung Hybride Auswertung von Radardaten für die Klassifikation von Objekten
DE102020215573A1 (de) 2020-12-09 2022-06-09 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachung der Funktionsfähigkeit von Sensoren an Fahrzeugen

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682821B2 (en) 2011-08-08 2014-03-25 Robert Bosch Gmbh Method for detection of movement of a specific type of object or animal based on radar signals
DE102017208718A1 (de) * 2017-05-23 2018-11-29 Conti Temic Microelectronic Gmbh Verfahren zur Erkennung von Objekten in einem Bild einer Kamera
DE102018203684A1 (de) * 2018-03-12 2019-09-12 Zf Friedrichshafen Ag Identifikation von Objekten mittels Radardaten

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682821B2 (en) 2011-08-08 2014-03-25 Robert Bosch Gmbh Method for detection of movement of a specific type of object or animal based on radar signals
DE102017208718A1 (de) * 2017-05-23 2018-11-29 Conti Temic Microelectronic Gmbh Verfahren zur Erkennung von Objekten in einem Bild einer Kamera
DE102018203684A1 (de) * 2018-03-12 2019-09-12 Zf Friedrichshafen Ag Identifikation von Objekten mittels Radardaten

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
García, J. M. [et al.]: MIMO-FMCW Radar-Based Parking Monitoring Application With a Modified Convolutional Neural Network With Spatial Priors. In: IEEE Access, vol. 6, 2018. S. 41391–41398. - ISSN 2169-3536 *
Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 29.11.2018, 18:57 UTC. URL: https://de.wikipedia.org/wiki/Convolutional_Neural_Network [abgerufen am 26.11.2019] *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020208544A1 (de) 2020-07-08 2022-01-13 Robert Bosch Gesellschaft mit beschränkter Haftung Hybride Auswertung von Radardaten für die Klassifikation von Objekten
DE102020215573A1 (de) 2020-12-09 2022-06-09 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachung der Funktionsfähigkeit von Sensoren an Fahrzeugen
DE102020215573B4 (de) 2020-12-09 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachung der Funktionsfähigkeit von Sensoren an Fahrzeugen
CN113093170A (zh) * 2021-06-07 2021-07-09 长沙莫之比智能科技有限公司 一种基于knn算法的毫米波雷达室内人员检测方法
CN113093170B (zh) * 2021-06-07 2021-08-13 长沙莫之比智能科技有限公司 一种基于knn算法的毫米波雷达室内人员检测方法

Similar Documents

Publication Publication Date Title
DE102015105206B4 (de) Verfahren und System zum Detektieren, Verfolgen und Abschätzen von stationären Straßenrandobjekten
DE102005024716B4 (de) Verfahren und Vorrichtung zur Erkennung und Klassifizierung von Objekten
EP2417476B1 (de) Fmcw-radarsensor und verfahren zum frequenzmatching
DE112018003474T5 (de) System und Verfahren zum Erfassen eines Schikanierens von autonomen Fahrzeugen beim Fahren
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE102017101476B3 (de) Lokalisieren eines Objekts in einer Umgebung eines Kraftfahrzeugs durch ein Ultraschallsensorsystem
DE102020105642A1 (de) Entwerfen von und verarbeiten mit antennenarrays zur beseitigung von fehldetektionen in einem radarsystem
DE102018222195A1 (de) Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen
DE102006057277A1 (de) Verfahren zum Betrieb eines Radarsystems bei möglicher Zielobjektverdeckung sowie Radarsystem zur Durchführung des Verfahrens
DE102018118542A1 (de) Steuerung unter verwendung von kartenattributen zur qualifizierung von radarrückläufern
WO2019162794A1 (de) Verfahren und system zur erkennung von für ein fahrzeug geeigneten parklücken
EP3857437A1 (de) Verfahren und vorrichtung zur analyse eines sensordatenstroms sowie verfahren zum führen eines fahrzeugs
DE102021102898A1 (de) Verbesserte objekterfassung mit clustering
DE102018222800A1 (de) Ortung und/oder Klassifikation von Objekten aus Radardaten mit verbesserter Verlässlichkeit bei unterschiedlichen Entfernungen
DE102017122578A1 (de) Verfahren zur Unterdrückung von Falschdetektionen, Radarsystem und Fahrerassistenzsystem
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen
DE102018128583A1 (de) Fahrzeugradarsteuerung
DE102019211459B4 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
WO2022129266A1 (de) Verfahren zur detektion zumindest eines objektes einer umgebung mittels reflexionssignalen eines radar-sensorsystems
DE102017105721A1 (de) Verfahren zur Identifikation wenigstens eines Parkplatzes für ein Fahrzeug und Parkplatzassistenzsystem eines Fahrzeugs
DE102006051091B4 (de) Verfahren zur Objekterkennung von Fahrzeugen mittels Nahbereichsdetektion
DE102020116027A1 (de) Verfahren und Vorrichtung zur Ermittlung von Belegungsinformation für einen Umfeldpunkt auf Basis von Radardetektionen
DE102020208544A1 (de) Hybride Auswertung von Radardaten für die Klassifikation von Objekten
WO2021078335A1 (de) Verfahren zur erfassung eines zielobjekts
WO2020160801A1 (de) Verfahren, vorrichtung, computerprogramm und computerprogrammprodukt zum betreiben eines fahrzeuges

Legal Events

Date Code Title Description
R163 Identified publications notified