DE102020208544A1 - Hybride Auswertung von Radardaten für die Klassifikation von Objekten - Google Patents

Hybride Auswertung von Radardaten für die Klassifikation von Objekten Download PDF

Info

Publication number
DE102020208544A1
DE102020208544A1 DE102020208544.7A DE102020208544A DE102020208544A1 DE 102020208544 A1 DE102020208544 A1 DE 102020208544A1 DE 102020208544 A DE102020208544 A DE 102020208544A DE 102020208544 A1 DE102020208544 A1 DE 102020208544A1
Authority
DE
Germany
Prior art keywords
frequency spectrum
classifier
locations
neural network
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020208544.7A
Other languages
English (en)
Inventor
Lisa-Kristina Morgan
Kilian RAMBACH
Adriana-Eliza Cozma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020208544.7A priority Critical patent/DE102020208544A1/de
Priority to US17/366,511 priority patent/US20220011403A1/en
Priority to CN202110766662.XA priority patent/CN113917419A/zh
Publication of DE102020208544A1 publication Critical patent/DE102020208544A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/583Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/584Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Verfahren (100) zum Klassifizieren von Objekten (4) aus Messdaten (2), die mit mindestens einem Radarsensor (1) aufgenommen wurden, mit den Schritten:• es wird ein Frequenzspektrum (5) zeitabhängiger Messdaten (2) des Radarsensors (1) bereitgestellt (110);• aus diesem Frequenzspektrum (5) werden Orte (6) ermittelt (120), von denen reflektierte Radarstrahlung am Radarsensor (1) eingetroffen ist;• es wird mindestens eine Gruppe (7) derartiger Orte (6*) ermittelt (130), die zu ein und demselben Objekt (4) gehören;• für jeden Ort (6*) in dieser Gruppe (7) wird ein Anteil (5*) des Frequenzspektrums (5) ermittelt (140), der zu der von diesem Ort (6*) reflektierten Radarstrahlung korrespondiert;• alle diese Anteile (5*) für das Objekt (4) werden aggregiert (150) und einem Klassifikator (8) zugeführt (160);• mit dem Klassifikator (8) wird das Objekt (4) einer oder mehreren Klassen (3a-3c) einer vorgegebenen Klassifikation (3) zugeordnet (170).

Description

  • Die vorliegende Erfindung betrifft die Auswertung von Radardaten zur Klassifikation von Objekten, auf deren Vorhandensein diese Radardaten hindeuten.
  • Stand der Technik
  • Damit sich ein Fahrzeug zumindest teilweise automatisiert im Straßenverkehr bewegen kann, ist es erforderlich, das Umfeld des Fahrzeugs zu erfassen und Gegenmaßnahmen einzuleiten, falls eine Kollision mit einem Objekt im Umfeld des Fahrzeugs droht. Auch die Erstellung einer Umfeld-Repräsentation und Lokalisierung sind für sicheres automatisiertes Fahren notwendig.
  • Die Erfassung von Objekten mittels Radar ist von den Lichtverhältnissen unabhängig und beispielsweise auch bei Nacht auf größere Entfernung möglich, ohne dass der Gegenverkehr durch Fernlicht geblendet wird. Aus den Radardaten gehen weiterhin unmittelbar die Entfernung und Geschwindigkeit von Objekten hervor. Diese Informationen sind wichtig für die Beurteilung, ob es zu einer Kollision mit den Objekten kommen kann. Um welchen Typ von Objekt es sich handelt, ist jedoch aus Radarsignalen nicht unmittelbar erkennbar. Diese Erkennung wird aktuell durch die Berechnung von Attributen aus der Digitalen Signalverarbeitung gelöst.
  • Aus der DE 10 2018 222 195 A1 ist ein Verfahren zur Ortung oder Klassifikation von Objekten auf der Basis von Radardaten bekannt. Dieses Verfahren verwendet ein faltendes neuronales Netzwerk, um aus einer Frequenzdarstellung der Radardaten die erfassten Objekte zu klassifizieren.
  • Offenbarung der Erfindung
  • Im Rahmen der Erfindung wurde ein Verfahren zum Klassifizieren von Objekten aus Messdaten, die mit mindestens einem Radarsensor aufgenommen wurden, entwickelt.
  • Bei diesem Verfahren wird zunächst ein Frequenzspektrum zeitabhängiger Messdaten des Radarsensors bereitgestellt. Das Frequenzspektrum kann beispielsweise durch eine Fourier-Transformation aus den zeitabhängigen Messdaten ermittelt werden. Der verwendete Radarsensor kann jedoch auch beispielsweise bereits ein Frequenzspektrum ausgeben.
  • Aus dem Frequenzspektrum werden Orte ermittelt, von denen reflektierte Radarstrahlung am Radarsensor eingetroffen ist. Hierzu kann beispielsweise ein Detektor mit konstanter Fehlalarmrate (Constant False Alarm Rate, CFAR) verwendet werden, und für die von diesem Detektor ausgegebenen Ereignisse kann jeweils der Winkel abgeschätzt werden, unter dem die reflektierte Radarstrahlung eingefallen ist.
  • Es wird mindestens eine Gruppe derartiger Orte ermittelt, die zu ein und demselben Objekt gehören. Dies kann insbesondere beispielsweise durch ein Clustern unter der Hypothese, dass mindestens ein bestimmtes Objekt vorhanden ist, bewerkstelligt werden.
  • Für jeden Ort in dieser Gruppe wird ein Anteil des Frequenzspektrums ermittelt, der zu der von diesem Ort reflektierten Radarstrahlung korrespondiert. Alle diese Anteile für das Objekt werden aggregiert und einem Klassifikator zugeführt. Mit dem Klassifikator wird das Objekt eine oder mehreren Klassen einer vorgegebenen Klassifikation zugeordnet. Das bedeutet, dass insbesondere ein Typ des Objekts, wie beispielsweise Baum, Haus, Fußgänger, PKW, LKW oder Fahrbahnbegrenzung, ermittelt werden kann.
  • Es wurde erkannt, dass auf diese Weise der Klassifikator mit einem deutlich geringeren Ressourcenbedarf konzipiert werden kann und viel weniger Rechenzeit benötigt. Ursache hierfür ist, dass dem Klassifikator nicht das komplette Frequenzspektrum auf einmal zugeführt wird, sondern nur ein kleiner Bruchteil dieses Frequenzspektrums. Insbesondere kann eine Szenerie, in der sich mehrere Objekte befinden, sukzessive klassifiziert werden. Dazu werden die Gruppen von Orten mit Radarreflexen, die das Vorhandensein verschiedener Objekte anzeigen, nacheinander abgearbeitet. Damit wird für jede dieser Gruppen die Klassenzuordnung des Objekts, dessen Vorhandensein die Gruppe anzeigt, erhalten.
  • Entsprechend einfacher ist der Klassifikator auch zu trainieren, denn der Klassifikator muss nur die Erkennung einzelner Objekte lernen, nicht jedoch Wechselwirkungen, die bei dem Versuch auftreten können, mehrere Objekte gleichzeitig zu erkennen.
  • In einer besonders vorteilhaften Ausgestaltung werden anhand der Gruppe weitere der Orte, von denen reflektierte Radarstrahlung am Radarsensor eingetroffen ist, ausgewählt. Die Auswahl richtet sich danach, inwieweit es plausibel ist, dass das durch die Gruppe charakterisierte Objekt auch von dem jeweiligen zusätzlichen Ort aus Radarstrahlung reflektiert hat. Auch für diese zusätzlichen Orte werden Anteile des Frequenzspektrums ermittelt und mit aggregiert. Das Clustern, das die Gesamtmenge der Orte in Gruppen aufteilt, hat zum Ziel, im Mittel plausible Trennlinien zwischen diesen Gruppen aufzufinden. Dies bringt es mit sich, dass im Einzelfall Orte, deren Zuordnung zu einem Objekt noch sinnvoll gewesen wäre, beim Clustern nicht mehr diesem Objekt zugeordnet werden. Indem unter Heranziehung des Clusters zusätzliche Orte ausgewählt werden, wird dieser Effekt zumindest teilweise kompensiert. Dass zu viele Orte ausgewählt werden und dementsprechend unnötige Anteile des Frequenzspektrums mit aggregiert werden können, ist nicht weiter kritisch für das Ergebnis der Klassifikation.
  • In einer weiteren besonders vorteilhaften Ausgestaltung werden die Orte, zu denen Anteile des Frequenzspektrums aggregiert wurden, und/oder weitere Merkmale von Radarreflexen, die von diesen Orten empfangen wurden, gemeinsam mit den Anteilen des Frequenzspektrums dem Klassifikator zugeführt. Diese weiteren Merkmale können beispielsweise den Wirkungsquerschnitt (radar cross section, RCS), und/oder mindestens einen Winkel (Azimuth und/oder Elevation relativ zum Messort), umfassen. Die räumliche Information, bzw. die Information aus den weiteren Merkmalen, und die Information aus dem Frequenzspektrum können dann besonders gut zusammenwirken, damit der Klassifikator die jeweiligen Mehrdeutigkeiten dieser beiden Informationen auflösen und das Objekt möglichst eindeutig identifizieren sowie Widersprüche bestmöglich auflösen kann. So liefert beispielsweise das Frequenzspektrum auch eine Information darüber, ob die von einem bestimmten Ort kommende Radarstrahlung eher an einer Kante oder eher an einer Fläche reflektiert wurde. Weiterhin hängt das Frequenzspektrum auch davon ab, ob die Radarstrahlung eher an einem weichen Material oder eher an einem harten Material reflektiert wurde. Manche verkehrsrelevanten Objekte, wie etwa ein Fahrrad mit Fahrer, der wiederum einen Helm trägt, können auch Komposite aus weichen und harten Materialien sein.
  • Vorteilhaft wird das Frequenzspektrum als Entfernungs-Geschwindigkeits-Darstellung bereitgestellt. Dies sind diejenigen Koordinaten, die für eine Auswertung im Hinblick auf verkehrsrelevante Objekte besonders wichtig sind. Sofern der Radarsensor das Frequenzspektrum nicht unmittelbar als Entfernungs-Geschwindigkeits-Darstellung liefert, kann sie in diese Koordinaten transformiert werden. Insbesondere kann beispielsweise eine Darstellung in den Koordinaten Entfernung und Geschwindigkeit einen gemeinsamen Nenner für Messdaten bilden, die mit verschiedenen Sensoren aufgenommen wurden. Der Klassifikator muss dann nur auf die Verarbeitung eines Frequenzspektrums in den Koordinaten Entfernung und Geschwindigkeit trainiert werden.
  • In einer besonders vorteilhaften Ausgestaltung werden Messdaten gewählt, die mit Radarstrahlung der Modulationsart Joint Sampling Frequency Modulated Continuous Wave, JSFMCW, aufgenommen wurden. Unter Heranziehung einer beliebigen Zusatzinformation wird eine Mehrdeutigkeit bezüglich der Geschwindigkeit aufgelöst. Gegenüber der Modulationsart Frequency Modulated Continuous Wave, FMCW, die „Chirps“ mit während der Aussendung linear zunehmender oder abnehmender Frequenz produziert, hat dies den Vorteil, dass weniger aufwändige Hardware benötigt wird. Mit JSFMCW aufgenommene Messdaten haben dafür eine Mehrdeutigkeit bezüglich der Geschwindigkeit.
  • Indem jedoch diese Mehrdeutigkeit aufgelöst wird, kann der Vorteil des geringeren Hardwareaufwands realisiert und gleichwohl noch eine für die Klassifikation brauchbare Entfernungs-Geschwindigkeits-Darstellung der Messdaten erhalten werden.
  • In einer weiteren besonders vorteilhaften Ausgestaltung ist mindestens ein Anteil des Frequenzspektrums, der mit aggregiert wird, ein in den Koordinaten des Frequenzspektrums rechteckiger Ausschnitt. Dieser Ausschnitt kann insbesondere beispielsweise um Koordinaten, die zu einem am Objekt befindlichen Reflexionsort gehören, zentriert sein. Wie zuvor erläutert, kann anhand der Veränderung der Radarreflexion innerhalb eines derartigen begrenzten Gebiets analysiert werden, woran die Radarstrahlung an diesem Ort im Einzelnen reflektiert wurde. Die Ausschnitte („Patches“) zu allen Orten, die als zu dem zum klassifizierenden Objekt zugehörig ausgewählt wurden, bilden dann gemeinsam eine im Vergleich zum ursprünglichen Frequenzspektrum deutlich datenreduziertes Frequenzspektrum mit nur den Anteilen, die für die Analyse genau dieses Objekts relevant sind. Dieses reduzierte Frequenzspektrum kann dann in beliebiger Weise für den Klassifikator vorverarbeitet werden, etwa durch Beschneiden auf eine bestimmte Anzahl Bins in jeder Koordinate oder durch das Transformieren von Maßeinheiten und/oder Dynamikbereichen.
  • In einer weiteren besonders vorteilhaften Ausgestaltung werden die aggregierten Anteile des Frequenzspektrums vor dem Zuführen zum Klassifikator in mindestens eine Entfernungs-Geschwindigkeits-Darstellung transformiert. Optional kann dann noch unter Heranziehung einer Zusatzinformation eine Mehrdeutigkeit bezüglich der Geschwindigkeit in der mindestens einen Entfernungs-Geschwindigkeits-Darstellung aufgelöst werden. Das Transformieren lediglich der aggregierten Anteile, statt des kompletten Frequenzspektrums, spart Rechenzeit. Weiterhin kann die Darstellung der aggregierten Anteile in Entfernungs-Geschwindigkeits-Koordinaten einfacher und/oder einsichtiger für die weitere Verarbeitung sein.
  • Eine gemeinsame Verarbeitung der Orte, an denen ein bestimmtes Objekt Radarstrahlung reflektiert hat und für die somit Anteile des Frequenzspektrums aggregiert wurden, und/oder der weiteren Merkmale der Radarreflexe, einerseits sowie der Anteile des Frequenzspektrums andererseits in einem Klassifikator lässt sich auf verschiedene Weise realisieren. Im Folgenden sind drei beispielhafte Möglichkeiten angegeben.
  • In einer besonders vorteilhaften Ausgestaltung werden die Anteile des Frequenzspektrums in dem Klassifikator einem ersten neuronalen Netzwerk zugeführt. Die zugehörigen Orte, bzw. die weiteren Merkmale der Radarreflexe, werden in dem Klassifikator einem zweiten neuronalen Netzwerk zugeführt. Das erste neuronale Netzwerk und das zweite neuronale Netzwerk verschmelzen in dem Klassifikator zu einem gemeinsamen neuronalen Netzwerk.
  • Die noch nicht miteinander verschmolzenen Teile der beiden neuronalen Netzwerke können dann beispielsweise bestimmte Merkmale und Muster in der Verteilung der Orte und/oder weiteren Merkmale, bzw. in dem Frequenzspektrum, erkennen. In dem zuvor erwähnten Beispiel eines Radfahrers als Objekt könnte etwa das erste neuronale Netzwerk erkennen, dass das Objekt ein Komposit aus weichen Anteilen (Fahrer) und harten Anteilen (Fahrrad und Helm) ist. Das zweite neuronale Netzwerk könnte die Silhouette eines Fahrrads erkennen. Der gemeinsame, verschmolzene Teil des Netzwerks kann dann beispielsweise Mehrdeutigkeiten und Widersprüche auflösen.
  • Insbesondere können die noch nicht miteinander verschmolzenen Teile beispielsweise die erkannten Merkmale und Muster auf ein gemeinsames Abstraktionsniveau bringen, so dass diese Merkmale und Muster im verschmolzenen Teil des Netzwerks gegeneinander abgewogen und miteinander verrechnet werden können. Es ist dann im verschmolzenen Teil nicht mehr erheblich, dass die erkannten Merkmale und Muster aus stark unterschiedlichen Datenarten gewonnen wurden.
  • Indem die beiden Netzwerke erst später miteinander verschmolzen werden, können die noch nicht verschmolzenen Teile insbesondere beispielsweise unterschiedliche Architekturen haben, die auf die Verarbeitung der unterschiedlichen Datenarten zugeschnitten sind.
  • Beispielsweise kann für die Verarbeitung der Anteile des Frequenzspektrums ein faltendes neuronales Netzwerk als erstes neuronales Netzwerk gewählt werden. Ein derartiges Netzwerk eignet sich besonders, um hochdimensionale Daten, um die es sich bei Frequenzspektren handelt, schrittweise in ihrer Dimensionalität zu reduzieren und auf ein sehr niederdimensionales Ergebnis (etwa eine Zuordnung zu einer oder mehreren Klassen) abzubilden.
  • Für die Verarbeitung der Orte, von denen das Objekt Radarstrahlung reflektiert hat, bzw. der weiteren Merkmale der Radarreflexe, kann hingegen beispielsweise ein neuronales Netzwerk mit einer PointNet-Architektur gewählt werden.
  • In einer weiteren vorteilhaften Ausgestaltung werden die Anteile des Frequenzspektrums einerseits und die Orte, bzw. die weiteren Merkmale der Radarreflexe, andererseits in unterschiedlichen Kanälen ein und derselben Eingabe gleichzeitig dem Klassifikator zugeführt. Wenn beispielsweise der Klassifikator zur Verarbeitung von Bilddaten ausgebildet ist, dann kann aus einem ersten Farbkanal mit den Anteilen des Frequenzspektrums und einem zweiten Farbkanal mit den Orten, auf die sich diese Anteile beziehen, bzw. weiteren Merkmalen der Radarreflexe, ein Eingabe-Bild für den Klassifikator zusammengesetzt werden. Auf die gleiche Weise lassen sich auch andere Eingaben für Klassifikatoren als Bilder, die sich in mehrere Kanäle unterteilen lassen, aus Anteilen des Frequenzspektrums einerseits und Orten, bzw. weiteren Merkmalen der Radarreflexe, andererseits zusammensetzen.
  • In einer weiteren vorteilhaften Ausgestaltung werden die Anteile des Frequenzspektrums in dem Klassifikator einer ersten Schicht eines neuronalen Netzwerks zugeführt. Die Orte, für die diese Anteile aggregiert wurden, bzw. die weiteren Merkmale der Radarreflexe, werden einer tieferen Schicht des gleichen neuronalen Netzwerks zugeführt. Auf diese Weise können beispielsweise die hochdimensionalen Anteile des Frequenzspektrums auf ein Abstraktionsniveau gebracht werden, auf dem die Ortskoordinaten der Reflexionsorte, bzw. die weiteren Merkmale der Radarreflexe, von vornherein schon sind. Anschließend können beide Datenarten in dem neuronalen Netzwerk zusammengeführt werden.
  • Aus der von dem Klassifikator ermittelten Zuordnung zu einer oder mehreren Klassen kann insbesondere beispielsweise ein Ansteuersignal gebildet und das Fahrzeug mit diesem Ansteuersignal angesteuert werden. Hiermit kann insbesondere beispielsweise das Ziel verfolgt werden, die Trajektorie des Fahrzeugs so anzupassen, dass sie die Trajektorien von in einer Verkehrssituation erkannten Objekten nicht schneidet.
  • Das Verfahren kann insbesondere ganz oder teilweise computerimplementiert sein. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, das beschriebene Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen.
  • Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann.
  • Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Ausführungsbeispiele
  • Es zeigt:
    • 1 Ausführungsbeispiel des Verfahrens 100 zum Klassifizieren von Objekten 4;
    • 2 Veranschaulichung der Verknüpfung von Orten 6*, die zu ein und demselben Objekt 4 gehören, mit Anteilen 5* des Frequenzspektrums 5.
  • 1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 100 zum Klassifizieren von Messdaten 2, die mit mindestens einem Radarsensor 1 aufgenommen wurden.
  • In Schritt 110 wird ein Frequenzspektrum 5 zeitabhängiger Messdaten 2 des Radarsensors 1 bereitgestellt. Dieses Frequenzspektrum 5 kann gemäß Block 111 insbesondere beispielsweise als Entfernungs-Geschwindigkeits-Darstellung bereitgestellt werden. Es können insbesondere beispielsweise gemäß Block 111a Messdaten 2 gewählt werden, die mit Radarstrahlung der Modulationsart JSFMCW aufgenommen wurden. Eine Mehrdeutigkeit dieser Messdaten 2 bezüglich der Geschwindigkeit kann dann gemäß Block 111b unter Heranziehung einer beliebigen Zusatzinformation aufgelöst werden.
  • In Schritt 120 werden aus dem Frequenzspektrum 5 Orte 6 ermittelt, von denen reflektierte Radarstrahlung am Radarsensor 1 eingetroffen ist. In Schritt 130 wird mindestens eine Gruppe 7 derartiger Orte 6* ermittelt, die zu ein und demselben Objekt 4 gehören. In Schritt 140 wird für jeden Ort 6* in dieser Gruppe 7 ein Anteil 5* des Frequenzspektrums 5 ermittelt, der zu der von diesem Ort 6* reflektierten Radarstrahlung korrespondiert. Alle diese Anteile 5* für das Objekt 4 werden in Schritt 150 aggregiert und in Schritt 160 einem Klassifikator 8 zugeführt. Mit dem Klassifikator 8 wird das Objekt 4 in Schritt 170 einer oder mehreren Klassen 3a-3c einer vorgegebenen Klassifikation 3 zugeordnet.
  • Gemäß Block 131 kann die Gruppe 7 der Orte 6* beispielsweise durch Clustern anhand mindestens einer Hypothese für das Vorhandensein eines Objekts ermittelt werden.
  • Gemäß Block 132 können anhand der Gruppe 7 weitere Orte 6** ausgewählt werden, für die es plausibel ist, dass das durch die Gruppe 7 charakterisierte Objekt 4 von dort Radarstrahlung reflektiert hat. Gemäß Block 141 können dann auch für diese Orte 6** Anteile 5** des Frequenzspektrums 5 ermittelt werden, und diese können gemäß Block 151 mit aggregiert werden.
  • Gemäß Block 161 können Orte 6*, 6**, zu denen Anteile 5*, 5** des Frequenzspektrums 5 aggregiert wurden, und/oder weitere Merkmale von Radarreflexen, die von diesen Orten (6*. 6**) empfangen wurden, gemeinsam mit diesen Anteilen 5*, 5** des Frequenzspektrums 5 dem Klassifikator 8 zugeführt werden.
  • Innerhalb des Kastens 170 sind einige Beispiele angegeben, wie diese beiden verschiedenen Informationsarten in dem Klassifikator 8 gemeinsam verarbeitet werden können.
  • Gemäß Block 171 können die Anteile 5*, 5** des Frequenzspektrums 5 in dem Klassifikator 8 einem ersten neuronalen Netzwerk zugeführt werden. Dieses erste neuronale Netzwerk kann gemäß Block 171a insbesondere beispielsweise ein faltendes neuronales Netzwerk sein.
  • Gemäß Block 172 können dann die Orte 6*, 6**, bzw. die weiteren Merkmale der Radarreflexe, in dem Klassifikator 8 einem zweiten neuronalen Netzwerk zugeführt werden. Dieses zweite neuronale Netzwerk kann gemäß Block 172a insbesondere ein neuronales Netzwerk mit einer PointNet-Architektur sein.
  • Das erste neuronale Netzwerk und das zweite neuronale Netzwerk können gemäß Block 173 in dem Klassifikator 8 miteinander verschmelzen. Wie zuvor erläutert, können insbesondere beispielsweise die Informationen zunächst in beiden Netzwerken separat voneinander auf ein ähnliches Abstraktionsniveau gebracht werden, bevor sie im verschmolzenen Teil gemeinsam verarbeitet werden.
  • Gemäß Block 174 können die Anteile 5*, 5** des Frequenzspektrums 5 in dem Klassifikator 8 einer ersten Schicht eines neuronalen Netzwerks zugeführt werden. Gemäß Block 175 können die Orte 6*, 6**, bzw. die weiteren Merkmale der Radarreflexe, einer tieferen Schicht des gleichen neuronalen Netzwerks zugeführt werden. Wie zuvor erläutert, können auch hier die Abstraktionsniveaus der beiden Datenarten aneinander angeglichen werden, bevor beide Datenarten gemeinsam verarbeitet werden.
  • Gemäß Block 176 können die Anteile 5*, 5** des Frequenzspektrums 5 einerseits und die Orte 6*, 6**, bzw. die weiteren Merkmale der Radarreflexe, andererseits in unterschiedlichen Kanälen ein und derselben Eingabe gleichzeitig dem Klassifikator 8 zugeführt werden. Dann läuft die gesamte Verarbeitung beider Datenarten in dem Klassifikator 8 synchron.
  • Die Zuordnung des Objekts 4 zu einer oder mehreren Klassen 3a-3c kann in Schritt 180 zu einem Ansteuersignal 180a weiterverarbeitet werden. In Schritt 190 kann ein Fahrzeug 50 mit diesem Ansteuersignal 180a angesteuert werden.
  • 2 veranschaulicht den Zusammenhang zwischen Orten 6* an einem Objekt 4, hier ein Fahrzeug 50, und Anteilen 5* des Frequenzspektrums 5, die aggregiert und dem Klassifikator 8 zugeführt werden. Zu jedem Ort 6* gibt es einen korrespondierenden Punkt 6' in den Koordinaten des Frequenzspektrums 5. Um jeden dieser korrespondierenden Punkte 6' herum wird ein rechteckiger (hier: quadratischer) Ausschnitt als Anteil 5* ausgeschnitten.
  • Zusätzlich können auch die Orte 6* selbst, bzw. weitere Merkmale der Radarreflexe, dem Klassifikator 8 zugeführt und mit den Anteilen 5* gemeinsam verarbeitet werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018222195 A1 [0004]

Claims (17)

  1. Verfahren (100) zum Klassifizieren von Objekten (4) aus Messdaten (2), die mit mindestens einem Radarsensor (1) aufgenommen wurden, mit den Schritten: • es wird ein Frequenzspektrum (5) zeitabhängiger Messdaten (2) des Radarsensors (1) bereitgestellt (110); • aus diesem Frequenzspektrum (5) werden Orte (6) ermittelt (120), von denen reflektierte Radarstrahlung am Radarsensor (1) eingetroffen ist; • es wird mindestens eine Gruppe (7) derartiger Orte (6*) ermittelt (130), die zu ein und demselben Objekt (4) gehören; • für jeden Ort (6*) in dieser Gruppe (7) wird ein Anteil (5*) des Frequenzspektrums (5) ermittelt (140), der zu der von diesem Ort (6*) reflektierten Radarstrahlung korrespondiert; • alle diese Anteile (5*) für das Objekt (4) werden aggregiert (150) und einem Klassifikator (8) zugeführt (160); • mit dem Klassifikator (8) wird das Objekt (4) einer oder mehreren Klassen (3a-3c) einer vorgegebenen Klassifikation (3) zugeordnet (170).
  2. Verfahren (100) nach Anspruch 1, wobei die Gruppe (7) der Orte (6*) durch Clustern anhand mindestens einer Hypothese für das Vorhandensein eines Objekts (4) ermittelt wird (131).
  3. Verfahren (100) nach einem der Ansprüche 1 bis 2, wobei anhand der Gruppe (7) weitere (6**) der ermittelten Orte (6) ausgewählt werden (132), für die es plausibel ist, dass das durch die Gruppe (7) charakterisierte Objekt (4) von dort Radarstrahlung reflektiert hat, und wobei auch für diese Orte (6**) Anteile (5**) des Frequenzspektrums (5) ermittelt (141) und mit aggregiert (151) werden.
  4. Verfahren (100) nach einem der Ansprüche 2 bis 3, wobei die Orte (6*, 6**), zu denen Anteile (5*, 5**) des Frequenzspektrums (5) aggregiert wurden, und/oder weitere Merkmale von Radarreflexen, die von diesen Orten (6*, 6**) empfangen wurden, gemeinsam mit den Anteilen (5*, 5**) des Frequenzspektrums (5) dem Klassifikator (1) zugeführt werden (161).
  5. Verfahren (100) nach einem der Ansprüche 1 bis 4, wobei das Frequenzspektrum (5) als Entfernungs-Geschwindigkeits-Darstellung bereitgestellt wird (111).
  6. Verfahren (100) nach Anspruch 5, wobei Messdaten (2) gewählt werden (111a), die mit Radarstrahlung der Modulationsart Joint Sampling Frequency Modulated Continuous Wave, JSFMCW, aufgenommen wurden, und wobei unter Heranziehung einer Zusatzinformation eine Mehrdeutigkeit bezüglich der Geschwindigkeit aufgelöst wird (111b).
  7. Verfahren (100) nach einem der Ansprüche 1 bis 6, wobei mindestens ein Anteil (5*, 5**) des Frequenzspektrums (5), der mit aggregiert wird, ein in den Koordinaten des Frequenzspektrums (5) rechteckiger Ausschnitt ist.
  8. Verfahren (100) nach Anspruch 4 sowie optional zusätzlich einem der Ansprüche 5 bis 7, wobei • die Anteile (5*, 5**) des Frequenzspektrums (5) in dem Klassifikator (1) einem ersten neuronalen Netzwerk zugeführt werden (171), • die Orte (6*, 6**), bzw. die weiteren Merkmale, in dem Klassifikator (1) einem zweiten neuronalen Netzwerk zugeführt werden (172) und • das erste neuronale Netzwerk und das zweite neuronale Netzwerk in dem Klassifikator (8) zu einem gemeinsamen Netzwerk verschmelzen (173).
  9. Verfahren (100) nach Anspruch 8, wobei • ein faltendes neuronales Netzwerk als erstes neuronales Netzwerk gewählt wird (171a) und/oder • ein neuronales Netzwerk mit einer PointNet-Architektur als zweites neuronales Netzwerk gewählt wird (172a).
  10. Verfahren (100) nach Anspruch 4 sowie optional zusätzlich einem der Ansprüche 5 bis 7, wobei die Anteile (5*, 5**) des Frequenzspektrums (5) einerseits und die Orte (6*, 6**), bzw. die weiteren Merkmale der Radarreflexe, andererseits in unterschiedlichen Kanälen ein und derselben Eingabe gleichzeitig dem Klassifikator (8) zugeführt werden (176).
  11. Verfahren (100) nach Anspruch 4 sowie optional einem der Ansprüche 5 bis 7, wobei die Anteile (5*, 5**) des Frequenzspektrums (5) in dem Klassifikator (8) einer ersten Schicht eines neuronalen Netzwerks zugeführt werden (174) und wobei die Orte (6*, 6**), bzw. die weiteren Merkmale der Radarreflexe, einer tieferen Schicht des gleichen neuronalen Netzwerks zugeführt werden (175).
  12. Verfahren (100) nach einem der Ansprüche 1 bis 11, wobei die Anteile (5*, 5**) des Frequenzspektrums (5) vor dem Zuführen (160) zum Klassifikator (8) in mindestens eine Entfernungs-Geschwindigkeits-Darstellung transformiert werden.
  13. Verfahren (100) nach Anspruch 12, wobei unter Heranziehung einer Zusatzinformation eine Mehrdeutigkeit bezüglich der Geschwindigkeit in der mindestens einen Entfernungs-Geschwindigkeits-Darstellung aufgelöst wird (155a).
  14. Verfahren (100) nach einem der Ansprüche 1 bis 13, wobei aus der vom Klassifikator (1) ermittelten Zuordnung zu einer oder mehreren Klassen (3a-3c) ein Ansteuersignal (180a) gebildet wird (180) und wobei ein Fahrzeug (50) mit diesem Ansteuersignal (180a) angesteuert wird (190).
  15. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, das Verfahren (100) nach einem der Ansprüche 1 bis 14 auszuführen.
  16. Maschinenlesbarer Datenträger mit dem Computerprogramm nach Anspruch 15.
  17. Computer, ausgerüstet mit dem Computerprogramm nach Anspruch 15, und/oder mit dem maschinenlesbaren Datenträger nach Anspruch 16.
DE102020208544.7A 2020-07-08 2020-07-08 Hybride Auswertung von Radardaten für die Klassifikation von Objekten Pending DE102020208544A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102020208544.7A DE102020208544A1 (de) 2020-07-08 2020-07-08 Hybride Auswertung von Radardaten für die Klassifikation von Objekten
US17/366,511 US20220011403A1 (en) 2020-07-08 2021-07-02 Hybrid evaluation of radar data for classifying objects
CN202110766662.XA CN113917419A (zh) 2020-07-08 2021-07-07 用于对对象进行分类的雷达数据混合评估

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020208544.7A DE102020208544A1 (de) 2020-07-08 2020-07-08 Hybride Auswertung von Radardaten für die Klassifikation von Objekten

Publications (1)

Publication Number Publication Date
DE102020208544A1 true DE102020208544A1 (de) 2022-01-13

Family

ID=79019913

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020208544.7A Pending DE102020208544A1 (de) 2020-07-08 2020-07-08 Hybride Auswertung von Radardaten für die Klassifikation von Objekten

Country Status (3)

Country Link
US (1) US20220011403A1 (de)
CN (1) CN113917419A (de)
DE (1) DE102020208544A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023200022A1 (de) 2023-01-03 2024-07-04 Robert Bosch Gesellschaft mit beschränkter Haftung Verarbeitung von als Punktwolken vorliegenden Messdaten mit besserer Generalisierung über die Trainingsdaten

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012145444A (ja) 2011-01-12 2012-08-02 Toyota Motor Corp 歩行者検出装置
DE102014114350A1 (de) 2013-10-03 2015-04-09 Toyota Jidosha Kabushiki Kaisha Radarvorrichtung
EP3349038A1 (de) 2017-01-12 2018-07-18 Delphi Technologies, Inc. Verfahren zum klassifizieren von objekten in einer fahrzeugumgebung auf basis von radarentdeckungen
DE102017208718A1 (de) 2017-05-23 2018-11-29 Conti Temic Microelectronic Gmbh Verfahren zur Erkennung von Objekten in einem Bild einer Kamera
US10205457B1 (en) 2018-06-01 2019-02-12 Yekutiel Josefsberg RADAR target detection system for autonomous vehicles with ultra lowphase noise frequency synthesizer
DE102018222195A1 (de) 2018-12-18 2020-06-18 Robert Bosch Gmbh Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5613039A (en) * 1991-01-31 1997-03-18 Ail Systems, Inc. Apparatus and method for motion detection and tracking of objects in a region for collision avoidance utilizing a real-time adaptive probabilistic neural network
DE102018208992A1 (de) * 2018-06-07 2019-12-12 Robert Bosch Gmbh Radarsensorsystem
DE102018210083A1 (de) * 2018-06-21 2019-12-24 Robert Bosch Gmbh Auswertevorrichtung und Verfahren zum Auswerten zumindest eines Radarsensors
KR20200067629A (ko) * 2018-12-04 2020-06-12 삼성전자주식회사 레이더 데이터를 처리하는 장치 및 방법
US11507092B2 (en) * 2019-12-27 2022-11-22 Woven Planet North America, Inc. Sequential clustering
US11366214B2 (en) * 2019-12-30 2022-06-21 Woven Planet North America, Inc. Systems and methods for adaptive clutter removal from radar scans
US11448744B2 (en) * 2019-12-31 2022-09-20 Woven Planet North America, Inc. Sequential doppler focusing
US11966673B2 (en) * 2020-03-13 2024-04-23 Nvidia Corporation Sensor simulation and learning sensor models with generative machine learning methods

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012145444A (ja) 2011-01-12 2012-08-02 Toyota Motor Corp 歩行者検出装置
DE102014114350A1 (de) 2013-10-03 2015-04-09 Toyota Jidosha Kabushiki Kaisha Radarvorrichtung
EP3349038A1 (de) 2017-01-12 2018-07-18 Delphi Technologies, Inc. Verfahren zum klassifizieren von objekten in einer fahrzeugumgebung auf basis von radarentdeckungen
DE102017208718A1 (de) 2017-05-23 2018-11-29 Conti Temic Microelectronic Gmbh Verfahren zur Erkennung von Objekten in einem Bild einer Kamera
US10205457B1 (en) 2018-06-01 2019-02-12 Yekutiel Josefsberg RADAR target detection system for autonomous vehicles with ultra lowphase noise frequency synthesizer
DE102018222195A1 (de) 2018-12-18 2020-06-18 Robert Bosch Gmbh Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023200022A1 (de) 2023-01-03 2024-07-04 Robert Bosch Gesellschaft mit beschränkter Haftung Verarbeitung von als Punktwolken vorliegenden Messdaten mit besserer Generalisierung über die Trainingsdaten

Also Published As

Publication number Publication date
CN113917419A (zh) 2022-01-11
US20220011403A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
EP3540457A1 (de) Identifikation von objekten mittels radardaten
EP3175256B1 (de) Verfahren zum klassifizieren eines objektes in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
DE102018203591B3 (de) Verfahren und System zur Klassifikation von Verkehrsteilnehmern
DE102017102506B4 (de) Verfahren zum erfassen anderer fahrzeuge relativ zu einem trägerfahrzeug mittels raderfassung
DE102015109832A1 (de) Objektklassifizierung für Fahrzeugradarsysteme
DE102020212799A1 (de) Durchführen von objekt- und aktivitätserkennung auf der grundlage von daten von einer kamera und einem radarsensor
DE102020105642A1 (de) Entwerfen von und verarbeiten mit antennenarrays zur beseitigung von fehldetektionen in einem radarsystem
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
WO2018202552A1 (de) Verfahren und vorrichtung zum klassifizieren von objekten im umfeld eines kraftfahrzeuges
DE102019200849A1 (de) Verfahren zum Erfassen einer Bewegung eines Objekts
DE102018106478A1 (de) Zielverfolgung unter verwendung von regionskovarianz
DE102019200141A1 (de) Verfahren zum Erfassen von Teilbereichen eines Objekts
DE102018222195A1 (de) Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen
DE102020208544A1 (de) Hybride Auswertung von Radardaten für die Klassifikation von Objekten
DE102018128583A1 (de) Fahrzeugradarsteuerung
DE102018222800A1 (de) Ortung und/oder Klassifikation von Objekten aus Radardaten mit verbesserter Verlässlichkeit bei unterschiedlichen Entfernungen
DE102018129323A1 (de) Verfahren und Vorrichtung zur verbesserten Radarzielverfolgung mit Leistungsinformationen
DE102019220069A1 (de) Verlässlichere Klassifikation von Radardaten aus dynamischen Szenerien
WO2022129266A1 (de) Verfahren zur detektion zumindest eines objektes einer umgebung mittels reflexionssignalen eines radar-sensorsystems
DE112021005463T5 (de) Fahrzeugsteuersystem-aussenumgebungserkennungsvorrichtung und fahrzeugsteuerverfahren
DE102017207958B4 (de) Verfahren zum Generieren von Trainingsdaten für ein auf maschinellem Lernen basierendes Mustererkennungsverfahren für ein Kraftfahrzeug, Kraftfahrzeug, Verfahren zum Betreiben einer Recheneinrichtung sowie System
DE102009013326A1 (de) Verfahren zur Steuerung eines Fahrzeugs
DE102006051091B4 (de) Verfahren zur Objekterkennung von Fahrzeugen mittels Nahbereichsdetektion
DE102018126506A1 (de) Regenerkennung mit einem Umgebungssensor zur punktweisen Erfassung einer Umgebung eines Fahrzeugs, insbesondere mit einem LiDAR-basierten Umgebungssensor
DE102021203847A1 (de) Verfahren zum Testen eines Assistenzsystems

Legal Events

Date Code Title Description
R163 Identified publications notified