DE102022001265A1 - Verfahren, elektronisches Rechensystem und Computerprogramm zur Zuordnung von fusionierten Objektdarstellungen aus zwei unterschiedlichen Fusionsverfahren - Google Patents

Verfahren, elektronisches Rechensystem und Computerprogramm zur Zuordnung von fusionierten Objektdarstellungen aus zwei unterschiedlichen Fusionsverfahren Download PDF

Info

Publication number
DE102022001265A1
DE102022001265A1 DE102022001265.0A DE102022001265A DE102022001265A1 DE 102022001265 A1 DE102022001265 A1 DE 102022001265A1 DE 102022001265 A DE102022001265 A DE 102022001265A DE 102022001265 A1 DE102022001265 A1 DE 102022001265A1
Authority
DE
Germany
Prior art keywords
merged
representation
representations
object representation
object representations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022001265.0A
Other languages
English (en)
Inventor
Heiko Schiemenz
Gerrit Scheike
Robert Fischer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102022001265.0A priority Critical patent/DE102022001265A1/de
Publication of DE102022001265A1 publication Critical patent/DE102022001265A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Zuordnung von fusionierten Objektdarstellungen (11, 21) aus zwei unterschiedlichen Fusionsverfahren (10, 20), sowie ein elektronisches Rechensystem und ein Computerprogramm. In dem Verfahren wird in einem ersten und in einem zweiten Fusionsverfahren (10, 20) eine Vielzahl von ersten Objektdarstellungen (1,2) eines realen Objektes (3) in einer äußeren Fahrzeugumgebung (4) eines Fahrzeuges (5) mittels eines elektronischen Rechensystems des Fahrzeuges (5) zu einer zu fusionierten Objektdarstellungen (11, 21) des realen Objektes (3) fusioniert wird, wobei die Vielzahl von ersten Objektdarstellungen (1,2) und die Vielzahl von zweiten Objektdarstellungen (31, 32) jeweils mit einer eindeutigen Kennung bereitgestellt werden durch eine Vielzahl von Sensoreinrichtungen (9a, 9b, 9c) des Fahrzeuges (5), wobei die zweite fusionierte Objektdarstellung (21) der ersten fusionierten Objektdarstellung (11) basierend auf den Kennungen der Vielzahl an ersten Objektdarstellungen (1, 2) zugeordnet wird.

Description

  • Die Erfindung betrifft Verfahren zur Zuordnung von fusionierten Objektdarstellungen aus zwei unterschiedlichen Fusionsverfahren gemäß dem Oberbegriff des Anspruches 1. Ferner betrifft die Erfindung ein elektronisches Rechensystem und ein Computerprogramm.
  • Die grundlegende Aufgabe der Sensorfusion, auch bezeichnet als Fusion von Objektdarstellungen, die durch mehrere Sensoreinrichtungen bereitgestellt werden, im Zusammenhang mit der Umfelderfassung in Fahrzeugen ist es, Messgrößen der eingesetzten Sensorvorrichtungen zusammenzuführen und in einer gemeinsamen abgestimmten Repräsentation des Umfeldes anzuzeigen. Beim Einsatz von Sensorvorrichtungen für Fahrerassistenzsysteme im Automobilbau werden zumeist mehrere Sensorvorrichtungen auf Basis unterschiedlicher physikalischer Messprinzipien - z.B. Kamera, Radar und LiDAR - eingesetzt, um eine hinreichende Genauigkeit bzgl. der Position und der Größe von erkannten, realen Objekten zu erzielen.
  • Für die Repräsentation von Fahrzeugen, Zweirädern, Fußgängern, Leitpfosten usw. werden in der Regel formbasierte Fusionsverfahren eingesetzt, welche die Form von realen Objekten in der äußeren Fahrzeugumgebung mit der Hilfe von Objektdarstellungen in Form von Rechtecken, Boxen bzw. L-Formen (eine Form aus drei Punkten mit einem definierten Winkel zwischen den beiden Stäben), Stäben oder Punkten repräsentiert. Für die Repräsentation von formunabhängigen Objekten, wie z.B. Leitplanken, Verkehrsinseln, Hindernissen mit keiner klar abgrenzten Form, wird eine flexiblere Repräsentationsform bzw. Objektdarstellung benötigt. Hierfür eignet sich ein zusammenhängender Linienzug mit mindestens zwei Punkten und maximal endlich vielen Punkten. Ein solcher Linienzug wird auch als Polylinie bezeichnet. Alternativ eignet sich auch ein einzelner Punkt als flexiblere Objektdarstellung
  • Für die Repräsentation von formunabhängigen Objekten werden im Gegensatz zu den klassischen formbasierten Fusionsverfahren Belegungsfelder eingesetzt. Dabei wird zwischen vollständigen Belegungsfeldern und spärlich besetzten Belegungsfeldern unterschieden. Man spricht hierbei auch von formunabhängigen bzw. gridbasierten Fusionsverfahren. Die DE 10 2019 008 093 A1 offenbart die Sensorfusion mit spärlichen Belegungsfeldern.
  • Die formunabhängigen Fusionsverfahren mit Belegungsfedern ersetzen die formbasierten Fusionsverfahren nicht notwendigerweise. Vielmehr können die beiden unterschiedlichen Fusionsverfahren parallel durchgeführt werden, wobei diese sich synergetisch ergänzen können.
  • Jedoch wird im Stand der Technik eine vollständige Synergie der beiden unterschiedlichen Fusionsverfahren noch nicht bereitgestellt, da die jeweiligen Ausgangsdaten in Form von fusionierten Objektdarstellungen der jeweiligen Fusionsverfahren noch nicht effektiv einander zugeordnet werden können.
  • Es ist somit Aufgabe der vorliegenden Erfindung, die Ausgangsdaten bzw. die fusionierten Objektdarstellungen der beiden Fusionsverfahren einander zuordnen zu können, um eine einheitliche Repräsentation der Umgebung sicher zu stellen.
  • Diese Aufgabe wird durch ein Verfahren, ein elektronisches Rechensystem und ein Computerprogramm gemäß den unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausgestaltungsformen sind in den Unteransprüchen angegeben.
  • Ein Aspekt der Erfindung betrifft ein Verfahren zur Zuordnung von fusionierten Objektdarstellungen aus zwei unterschiedlichen Fusionsverfahren. In einem ersten Fusionsverfahren der zwei unterschiedlichen Fusionsverfahren wird eine Vielzahl von ersten Objektdarstellungen eines realen Objektes in einer äußeren Fahrzeugumgebung eines Fahrzeuges mittels eines elektronischen Rechensystems des Fahrzeuges zu einer ersten fusionierten Objektdarstellung des realen Objektes fusioniert.
  • In einem zweiten Fusionsverfahren der zwei unterschiedlichen Fusionsverfahren, das bevorzugt unterschiedlich zum ersten Fusionsverfahren ist, wird die Vielzahl von ersten Objektdarstellungen und eine Vielzahl von zweiten Objektdarstellung des realen Objektes mittels des elektronischen Rechensystems des Fahrzeuges zu einer zweiten fusionierten Objektdarstellung des realen Objektes fusioniert.
  • Die Vielzahl von ersten Objektdarstellungen und die Vielzahl von zweiten Objektdarstellungen werden jeweils mit einer eindeutigen Kennung durch eine Vielzahl von Sensoreinrichtungen des Fahrzeuges bereitgestellt. Mit anderen Worten stellt die Vielzahl von Sensoreinrichtungen die die Vielzahl von ersten Objektdarstellungen und die Vielzahl von zweiten Objektdarstellungen inklusive der jeweiligen eindeutigen Kennung bereit.
  • Die zweite fusionierte Objektdarstellung der ersten fusionierten Objektdarstellung wird basierend auf den Kennungen der Vielzahl an ersten Objektdarstellungen zugeordnet. Alternativ oder zusätzlich wird ein vordefiniertes Abstandsmaß zwischen der ersten fusionierten Objektdarstellung und der zweiten fusionierten Objektdarstellung bestimmt. Basierend auf dem Abstandsmaß wird die zweite fusionierte Objektdarstellung der ersten fusionierten Objektdarstellung zugeordnet.
  • Die Erfindung schließt nicht aus, dass basierend auf den erfindungsgemäßen Verfahrensschritten fusionierte Objektdarstellungen von mehr als zwei Fusionsverfahren einander zugeordnet werden. Es ist auch nicht grundsätzlich ausgeschlossen, dass das erste und das zweite Fusionsverfahren identisch zueinander sind oder sich nur geringfügig voneinander unterscheiden.
  • Vorzugsweise gibt jedes Fusionsverfahren jeweils eine fusionierte Objektdarstellung eines realen Objektes aus.
  • Unter einer Vielzahl ist in den vorliegenden Ausführungen zumindest zwei, bevorzugt mehr als zwei zu verstehen. Eine Vielzahl ist nicht auf eine maximale Anzahl begrenzt.
  • Die äußere Fahrzeugumgebung befindet sich außerhalb des Fahrzeuges. Man spricht auch von Umwelt oder Umfeld des Fahrzeuges. Bevorzugt ist wenigstens ein Teil der Fahrzeugumgebung mittels der Sensoreinrichtungen des Fahrzeuges in geeigneter Form erfassbar und darstellbar.
  • Unter realen Objekten sind insbesondere physisch in der Fahrzeugumgebung existierende Objekte zu verstehen, beispielsweise Fahrzeuge, Zweiräder, Fußgänger, Leitpfosten, Leitplanken, Verkehrsinseln, Hindernisse, Verkehrsschilder usw. Diese Liste ist nicht abschließend.
  • Eine fusionierte Objektdarstellung ist zumindest ein Bestandteil von Ausgangsdaten des zugehörigen Fusionsverfahren. Das jeweilige Fusionsverfahren fügt vorzugsweise eine Vielzahl von Objektdarstellung zu einer einzelnen, fusionierten Objektdarstellung zusammen.
  • Unter einem elektronischen Rechensystem kann insbesondere ein Datenverarbeitungsgerät verstanden werden, das einen Verarbeitungsschaltkreis enthält. Die Recheneinheit kann also insbesondere Daten zur Durchführung von Rechenoperationen verarbeiten. Darunter fallen gegebenenfalls auch Operationen, um indizierte Zugriffe auf eine Datenstruktur durchzuführen.
  • Das Rechensystem kann insbesondere einen oder mehrere Computer, einen oder mehrere Mikrocontroller und/oder einen oder mehrere integrierte Schaltkreise enthalten. Das Rechensystem kann auch einen oder mehrere Prozessoren, beispielsweise einen oder mehrere Mikroprozessoren, eine oder mehrere zentrale Prozessoreinheiten, eine oder mehrere Grafikprozessoreinheiten und/oder einen oder mehrere Signalprozessoren, insbesondere einen oder mehrere digitale Signalprozessoren, DSP, enthalten. Die Recheneinheit kann auch einen physischen oder einen virtuellen Verbund von Computern oder sonstigen der genannten Einheiten beinhalten.
  • In verschiedenen Ausführungsbeispielen beinhaltet die Recheneinheit eine oder mehrere Hardware- und/oder Softwareschnittstellen und/oder eine oder mehrere Speichereinheiten.
  • Das elektronische Rechensystem kann Teil eines elektronischen Fahrzeugführungssystems sein oder für ein Fahrzeugführungssystem verwendet werden. Unter einem elektronischen Fahrzeugführungssystem kann ein elektronisches System verstanden werden, das dazu eingerichtet ist, ein Fahrzeug vollautomatisch oder vollautonom zu führen, insbesondere ohne dass ein Eingriff in eine Steuerung durch einen Fahrer erforderlich ist. Das Fahrzeug führt alle erforderlichen Funktionen, wie Lenk, Brems- und/oder Beschleunigungsmanöver, die Beobachtung und Erfassung des Straßenverkehrs sowie entsprechende Reaktionen automatisch durch. Insbesondere kann das elektronische Fahrzeugführungssystem einen vollautomatischen oder vollautonomen Fahrmodus des Kraftfahrzeugs nach Stufe 5 der Klassifizierung gemäß SAE J3016 implementieren. Unter einem elektronischen Fahrzeugführungssystem kann auch ein Fahrerassistenzsystem (englisch: „advanced driver assistance system“, ADAS) verstanden werden, welches den Fahrer beim teilweise automatisierten oder teilautonomen Fahren unterstützt. Insbesondere kann das elektronische Fahrzeugführungssystem einen teilweise automatisierten oder teilautonomen Fahrmodus nach den Stufen 1 bis 4 gemäß der SAE J3016-Klassifizierung implementieren. Hier und im Folgenden bezieht sich „SAE J3016“ auf die entsprechende Norm in der Version vom Juni 2018.
  • Bei der Vielzahl an Sensoreinrichtungen kann es sich beispielsweise um eine Vielzahl an Umfeldsensoreinrichtungen handeln. Eine Umfeldsensoreinrichtung ist insbesondere dazu in der Lage ist, Sensordaten oder Sensorsignale zu erzeugen, welche eine Umgebung der Umfeldsensoreinrichtung abbildet, darstellt oder wiedergibt. Beispielsweise können Kamerasysteme, Radarsysteme, Lidarsysteme oder Ultraschallsensorsysteme als Umfeldsensoreinrichtung aufgefasst werden.
  • Eine Sensoreinrichtung umfasst zumindest einen Sensor zum Erfassen und Erzeugen von Sensordaten bzw. Sensorrohdaten, sowie vorzugsweise eine Sensorrecheneinrichtung, die dazu ausgebildet und vorgesehen ist, aus den Sensordaten entsprechende Objektdarstellungen zu generieren und bereitzustellen. Die Sensoreinrichtung stellt zu einer jeweiligen Objektdarstellung eine Kennung, auch Identifier (ID) genannt, bereit, mit der die jeweilige Objektdarstellung eindeutig zu erkennen und von anderen Objektdarstellungen zu unterscheiden ist.
  • Bevorzugt stellt jede Sensoreinrichtung zu einem realen Objekt jeweils eine, bevorzugt genau eine, erste Objektdarstellung als einen ersten Ausgangsdatensatz bzw. als erste Ausgangsdaten bereit. Dieser jeweilige erste Ausgangsdatensatz wird als Eingangsdatensatz im ersten und im zweiten Fusionsverfahren verwendet
  • Bevorzugt stelle jede Sensoreinrichtung zu einem realen Objekt jeweils eine, bevorzugt genaue eine, zweite Objektdarstellung als zweite Ausgangsgröße bereit. Diese jeweiligen zweiten Ausgangsgrößen werden als Eingangsgröße im zweiten Fusionsverfahren verwendet.
  • Bevorzugt werden demnach von jeder Sensoreinrichtung jeweils eine erste Objektdarstellung und jeweils eine zweite Objektdarstellung von demselben realen Objekt bereitgestellt. Vorzugsweise unterscheiden sich die erste Objektdarstellung und die zweite Objektdarstellung.
  • Vorzugsweise lässt sich aufgrund der Kennung rückschließen, um welche Objektdarstellung es sich handelt und von welcher Sensoreinrichtung diese bereitgestellt wurde. Bevorzugt ist die Kennung ein maschinenlesbarer Code, beispielsweise in Form von Ziffern und/oder Buchstaben.
  • Bevorzugt wird den jeweiligen Fusionsverfahren die Objektdarstellungen zusammen mit den jeweiligen Kennungen als Eingangsgrößen der Fusionsverfahren bereitgestellt. Die jeweilige erste und zweite fusionierte Objektdarstellung beinhaltet zumindest jeweils eine Information darüber, auf Basis welcher ersten Objektdarstellungen die jeweiligen fusionierten Objektdarstellungen fusioniert wurden.
  • Die Zuordnung der zweiten fusionierten Objektdarstellung zur ersten fusionierten Objektdarstellung basiert in der ersten oben beschriebenen Alternative beispielsweise auf einem Vergleich der jeweiligen Kennungen der Vielzahl an ersten Objektdarstellungen, auf Basis welcher die erste und die zweite fusionierte Objektdarstellung fusioniert wurde. Stimmen beim Vergleich der Kennungen die Vielzahl an ersten Objektdarstellungen, vorzugsweise zumindest teilweise oder vollständig, überein, wird die zweite fusionierte Objektdarstellung der ersten fusionierten Objektdarstellung zugeordnet.
  • Gemäß der zweiten Alternative, die auch zusätzlich zur ersten Alternative angewendet werden kann, wird ein vordefiniertes Abstandsmaß zwischen der ersten fusionierten Objektdarstellung und der zweiten fusionierten Objektdarstellung bestimmt. Das vordefinierte Abstandsmaß umfasst insbesondere einen Abstand oder mehrere Abstände zwischen bestimmten, in geeigneter Weise definierten Punkten der ersten fusionierten Objektdarstellung und bestimmten, in geeigneter Weise definierten Punkten der zweiten fusionierten Objektdarstellung. Ein definierter Punkt kann beispielsweise ein erster oder ein letzter Punkt der jeweiligen Objektdarstellung sein. Es ist auch denkbar, dass ein definierter Punkt ein Abtastpunkt der jeweiligen Objektdarstellung ist. Das Abstandsmaß kann sich vorzugsweise auch aus mehreren Abständen zwischen definierten Punkten der jeweiligen fusionierten Objektdarstellung ergeben oder mehrere Abstände enthalten. Ein Abstand und/oder das vordefinierte Abstandsmaß lässt sich insbesondere durch eine Euklidische-Distanz oder durch eine Mahalanobis-Distanz beschreiben. Unterschreitet beispielsweise das vordefinierte Abstandsmaß einen vordefinierten Grenzwert, wird die zweite fusionierte Objektdarstellung der ersten fusionierten Objektdarstellung zugeordnet.
  • Bevorzugt werden die einander zugeordneten, ersten und zweiten fusionierten Objektdarstellungen an einen Abnehmer signaltechnisch weitergeben. Der Abnehmer kann ein weiteres elektronisches Rechensystem sein oder eine weitere Einheit des verwendeten Rechensystems.
  • Durch die Erfindung ergeben sich insbesondere die folgenden Vorteile. Die Abnehmer müssen keine rechenzeitintensive Zuordnung der fusionierten ersten Objektdarstellung und der fusionierten zweiten Objektdarstellung durchführen.
  • Die Abnehmer der Fusionsdaten müssen vorteilhaft keine doppelte Kritikalitätsbewertung für die fusionierte erste Objektdarstellung und die fusionierte zweite Objektdarstellung durchführen, die einander zugeordnet sind.
  • Die Abnehmer der Fusionsdaten können sich die für ihren Anwendungsfall am besten passende Repräsentationsform der Objekte auswählen, entweder die fusionierte erste Objektdarstellung oder die fusionierte zweite Objektdarstellung.
  • Ein weiterer Vorteil einer bevorzugten Ausführungsform ist, dass die geschätzten Geschwindigkeits- und Beschleunigungsvektoren der fusionierten Objekte den Fusionspunkten in einem spärlichen Belegungsfeld zugewiesen werden können und anschließend zur Prädiktion der Fusionspunkte verwendet werden können. Dies bietet den Vorteil der einheitlichen Repräsentation der Bewegungsvektoren zwischen fusionierten formbasierten Objektdarstellungen und fusionierten Polylinien.
  • Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus den Unteransprüchen, sowie der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele sowie anhand der Zeichnungen. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
  • Dabei zeigen:
    • 1 eine schematische Darstellung von Repräsentationsmöglichkeiten von Objekten;
    • 2 ein schematisches Ablaufdiagramm eines erfindungsgemäßen Verfahrens gemäß einer bevorzugten Ausführungsform;
    • 3 ein schematisches Ablaufdiagramm eines erfindungsgemäßen Verfahrens gemäß einer weiteren bevorzugten Ausführungsform;
    • 4 ein schematisches Ablaufdiagramm eines erfindungsgemäßen Verfahrens gemäß einer weiteren bevorzugten Ausführungsform;
    • 5 eine schematische Darstellung eines vollständigen Belegungsfeldes und eines spärlich besetzten Belegungsfeldes.
  • Die 1 zeigt eine schematische Darstellung von Repräsentationsmöglichkeiten, bezeichnet als erste Objektdarstellungen 1, 2 und zweite Objektdarstellungen 31, 32 von realen Objekten 3 in einer Fahrzeugumgebung 4 eines Fahrzeuges 5.
  • Für die Repräsentation von Fahrzeugen, Zweirädern, Fußgängern, Leitpfosten usw. können formbasierte Fusionsverfahren eingesetzt werden, welche die Form von Objekten 3 in der Fahrzeugumgebung 4 mit der Hilfe von Rechtecken, Boxen bzw. L-Formen (eine Form aus drei Punkten mit einem definierten Winkel zwischen den beiden Stäben), Stäben oder Punkten repräsentiert. Diese werden in der vorliegenden Beschreibung auch als erste Objektdarstellungen 1,2 bezeichnet. Den ersten Objektdarstellungen 1, 2 können auch jeweils geschätzten Geschwindigkeits- und Beschleunigungsvektoren zugeordnet werden.
  • Für die Repräsentation von formunabhängigen Objekten 3, wie z.B. Leitplanken, Verkehrsinseln, Hindernissen mit keiner klar abgrenzten Form, wird eine flexiblere Repräsentationsform benötigt. Hierfür eignet sich ein einzelner Punkt, vorzugsweise ein zusammenhängender Linienzug mit mindestens zwei Punkten und maximal endlich vielen Punkten. Ein solcher Linienzug wir auch als Polylinie bezeichnet, wobei die Polylinie in der Beschreibung auch als zweite Objektdarstellung 31, 32 bezeichnet wird. In 1 sind die unterschiedlichen Repräsentationsmöglichkeiten in Form der ersten Objektdarstellungen 1, 2 und zweiten Objektdarstellungen 31, 32 dargestellt.
  • 2 zeigt ein schematisches Ablaufdiagramm eines Verfahrens gemäß einer bevorzugten Ausführungsform. Das gezeigte Ablaufdiagramm stellt ein Fusionssystem dar, welches die Vorteile eines formbasierten Fusionserfahrens 10 mit einem formunabhängigen Fusionsverfahren 20, beispielsweise mit spärlichen Belegungsfeldern, kombiniert.
  • Hierbei wird vorzugsweise zuerst das formbasierte Fusionsverfahren 10 ausgeführt und anschließend die formunabhängige Fusion 20 im spärlichen Belegungsfeld. Die Ausgangsdaten des formbasierten Fusionsverfahrens 10 werden in diesem Fall als weiterer Eingang für das formunabhängige Fusionsverfahren 20 verwendet. Das Fusionssystem ist nicht auf spärliche Belegungsfelder beschränkt, sondern kann auch auf vollständige Belegungsfelder angewendet werden.
  • Die Sensoreinrichtungen 9a, 9b, 9c verfügen jeweils über zwei Ausgangsschnittstellen. Die erste Sensoreinrichtung 9a stellt über deren erste Ausgangsschnittstelle eine erste Objektdarstellung 1 bereit, die von beiden Fusionsverfahren 10, 20 als Eingangsgröße verwendet wird. Über die zweite Ausgangsschnittstelle der ersten Sensoreinrichtung 9a wird eine zweite Objektdarstellung 31 bereitgestellt, die vom zweiten Fusionsverfahren 20 als Eingangsgröße verwendet wird.
  • Die zweite Sensoreinrichtung 9b stellt über deren erste Ausgangsschnittstelle eine erste Objektdarstellung 2 bereit, die von beiden Fusionsverfahren 10, 20 als Eingangsgröße verwendet wird. Über die zweite Ausgangsschnittstelle der zweiten Sensoreinrichtung 9a wird eine zweite Objektdarstellung 32 bereitgestellt, die vom zweiten Fusionsverfahren 20 als Eingangsgröße verwendet wird.
  • Eine Vielzahl von weiteren Sensoreinrichtungen 9c stellen ebenfalls erste und zweite Objektdarstellungen 1, 2, 31, 32 bereit.
  • Das erste Fusionsverfahren 10 fusioniert aus den ersten Objektdarstellungen 1,2 eine erste fusionierte Objektdarstellung 11 als Ausgangsdatensatz. Vorzugsweise hat die ersten fusionierten Objektdarstellung 11 eine L-Form oder die Form eines Stabes oder Punktes. Zumindest die erste fusionierte Objektdarstellung 11 wird an einen Abnehmer 30 übergeben.
  • Das zweite Fusionsverfahren 20 fusioniert aus den ersten und zweiten Objektdarstellungen 1,2, 31, 32 eine zweite fusionierte Objektdarstellung 21 als Ausgangsgröße aus, wobei zumindest eine Ausgangsgröße des ersten Fusionsverfahrens 10 als Eingangsgröße verwendet wird. Dadurch kann die zweite fusionierte Objektdarstellung 21 der ersten fusionierten Objektdarstellung 11 zugeordnet werden. Vorzugsweise hat die zweite fusionierte Objektdarstellung 21 die Form einer Polylinie. Zumindest die erste fusionierte Objektdarstellung 11 wird an einen Abnehmer 30 übergeben.
  • Die 3 zeigt ein schematisches Ablaufdiagramm eines Verfahrens gemäß einer bevorzugten Ausführungsform. Bei diesem Verfahren wird auch von einem Verfahren zur datenbasierten Zuordnung der Fusionsergebnisse gesprochen.
  • Die Sensoreinrichtungen 9a, 9b liefern für Objektdarstellung 1, 2 eine eindeutige Kennung 1a, 1b. Bei der formunabhängigen Fusion unter der Verwendung von spärlichen Belegungsfeldern werden diese Objektdarstellungen entsprechend abgetastet. Auf Basis der Kennungen 1a, 1b der Objektdarstellungen 1, 2 können die Abtastpunkte 22 einer ersten fusionierten Objektdarstellung 11 zugeordnet werden. Hierfür wird verglichen, ob die Fusionsdarstellungen 11, 21 auf der Basis derselben Objektdarstellungen 1, 2 erstellt wurden. Die Fusionspunkte können dann anschließend weiterverarbeitet werden, wobei der Identifikator 6 (ID) des korrespondierenden Fusionsobjektes mitgeführt wird. Nach der Objektbildung ist es möglich, den Identifikator 6 (ID) der zweiten fusionierten Objektdarstellung 21 für jede Polylinie am Ausgang auszugeben.
  • Die Sensoreinrichtungen 9a, 9b stellen zumindest jeweils eine erste Objektdarstellung 1, 2 als Ausgangsdaten bereit, die als Eingangsdaten im ersten Fusionsverfahren 10 und im zweiten Fusionsverfahren 20 verwendet werden. Auf die Darstellung der zweiten Objektdarstellungen 31, 32 wurde in diesem Beispiel aus Gründen der Übersichtlichkeit verzichtet. Die Bereitstellung und Verarbeitung der zweiten Objektdarstellungen 31, 32 findet in 3 analog zu 2 statt.
  • Die Sensoreinrichtungen 9a, 9b stellen zumindest die ersten Objektdarstellungen 1, 2 jeweils mit einer eindeutigen Kennung 1a, 1b bereit. Einer ersten, ersten Objektdarstellung 1 ist die erste Kennung 1a eindeutig zugeordnet. Einer zweiten, ersten Objektdarstellung 2 ist die zweite Kennung 1b eindeutig zugeordnet. Die Kennungen 1a, 1b sind in diesem Beispiel ein Identifier (ID), die hier als ID 3 und ID 5 bezeichnet sind. Sowohl die Kennungen 1a, 1b als auch der Identifikator 6 werden in den Figuren als ID bezeichnet.
  • Zunächst werden die ersten Objektdarstellungen 1,2 im formabhängigen Fusionsverfahren 10 zu einer fusionierten ersten Objektdarstellung 11 fusioniert. Weiterhin wird der fusionierten ersten Objektdarstellung 11 ein eindeutiger Identifikator 6 zugeordnet.
  • Bevorzugt ist der Identifikator 6 ein maschinenlesbarer Code, beispielsweise in Form von Ziffern und/oder Buchstaben. In diesem Beispiel hat der Identifikator 6 den Wert ID 1. Vorzugsweise lässt sich aufgrund des Identifikators rückschließen, um welche erste fusionierte Objektdarstellung 11 es sich handelt und aus welchen ersten Objektdarstellungen 1,2 diese fusioniert wurde. In diesem Beispiel wurde die erste fusionierte Objektdarstellung 11 mit dem Identifikator ID 1 aus den ersten Objektdarstellungen mit den Kennung ID 3 und ID 5 fusioniert.
  • Im zweiten Fusionsverfahren 20 werden in einem ersten Schritt alle ersten und zweiten Objektdarstellungen abgetastet und erste Abtastpunkte 22 generiert, wobei bekannt ist, aus welchen Objektdarstellungen die Abtastpunkte 22 generiert wurden. In diesem Beispiel wurden die Abtastpunkte 22 aus den ersten Objektdarstellungen 1,2 mit den Kennungen ID 3 und ID 5 generiert.
  • In einem Vergleich wird festgestellt, dass sowohl die ersten Abtastpunkte 22, als auch die zweite Fusionsdarstellung 21 basierend auf denselben Objektdarstellungen 1,2 fusioniert wurden. Infolgedessen wird den ersten Abtastpunkten der Identifikator 6 der ersten fusionierten Objektdarstellungen 11 zugewiesen.
  • In einem weiteren Schritt des zweiten Fusionsverfahrens 20 werden nun die ersten Abtastpunkte 22 zumindest teilweise zu fusionierten ersten Abtastpunkten 22a fusioniert, wobei diese weiterhin den Identifikator 6 zugewiesen ist.
  • In einem dritten Schritt wird aus den ersten Abtastpunkten 22 und aus den ersten fusionierten Abtastpunkten 22a die zweite Objektdarstellung 21 gebildet. Die zweite Objektdarstellung 21 ist hierbei derselbe Identifikator 6 wie der ersten Objektdarstellung zugewiesen.
  • Die 4 zeigt ein schematisches Ablaufdiagramm eines Verfahrens gemäß einer weiteren bevorzugten Ausführungsform. Bei diesem Verfahren wird auch von einem Verfahren zur ortsbasierten Zuordnung der Fusionsergebnisse gesprochen.
  • Bei diesem Verfahren werden nicht nur die Objektdarstellung 1,2 durch die Verwendung der spärlichen Belegungsfelder im zweiten Fusionsverfahren 20 abgetastet, sondern auch die fusionierten Objektdarstellungen 11 im ersten Fusionsverfahren 10 unter Bildung von zweiten Abtastpunkten 23. Die ersten Abtastpunkte 22, die fusionierten ersten Abtastpunkte 22a und die zweiten Abtastpunkte 23 werden in geeigneter Form zusammengeführt bzw. zumindest teilweise zu zweiten fusionierten Abtastpunkten 23a fusioniert.
  • Anschließend können die Abtastpunkte 22, 22a, 23, 23a mit der abgetasteten ersten fusionierten Objektdarstellung 11 verglichen werden. Befinden sich die erste fusionierte Objektdarstellung 11 in der räumlichen Nähe zu den Abtastpunkten 22, 22a, 23, 23a, dann kann die ersten fusionierte Objektdarstellung 11 zu den Fusionspunkten 22, 22a, 23, 23a zugeordnet werden. Hierfür wird ein Abstandsmaß, das z.B. eine oder mehrere euklidische Distanzen oder Mahalanobis-Distanzen umfasst oder durch diese beschrieben wird, zwischen den zweiten Abtastpunkten 23 der ersten fusionierten Objektdarstellung 11 und den ersten und/oder ersten fusionierten Abtastpunkten 22, 22a im spärlichen Belegungsfeld berechnet. Unterschreitet das Abstandsmaß einen definierten Grenzwert, dann kann die erste fusionierte Objektdarstellung 11 zu den fusionierten zweiten Abtastpunkten 23a assoziiert werden, wodurch jeder fusionierte zweite Abtastpunkt 23a den Identifikator 6 der ersten Objektdarstellung 11 weiter mitführt. Bei der Bereitstellung der fusionierten Polylinien ist es demnach möglich, dass jeder Punkt der Polylinie diesen Identifikator 6 zur Verfügung stellt.
  • 5 zeigt eine schematische Ansicht eines vollständigen Belegungsfeldes 8 und eines spärlich besetzten Belegungsfeldes 7. Die Belegungsfelder Die Belegungsfelder 7, 8 werden in einem gridbasierten Fusionsverfahren dazu verwendet, Messgrößen von Sensoreinrichtungen 9a, 9b, 9c eines Objektes 3 in der Fahrzeugumgebung 4 des Fahrzeuges 5 als Polylinien im jeweiligen Belegungsfeld darzustellen, sodass formunabhängige Objekte repräsentiert werden können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102019008093 A1 [0004]

Claims (7)

  1. Verfahren zur Zuordnung von fusionierten Objektdarstellungen (11, 21) aus zwei unterschiedlichen Fusionsverfahren (10, 20), wobei in einem ersten Fusionsverfahren (10) eine Vielzahl von ersten Objektdarstellungen (1, 2) eines realen Objektes (3) in einer äußeren Fahrzeugumgebung (4) eines Fahrzeuges (5) mittels eines elektronischen Rechensystems des Fahrzeuges (5) zu einer ersten fusionierten Objektdarstellung (11) des realen Objektes (3) fusioniert wird, wobei in einem zweiten Fusionsverfahren (20), die Vielzahl von ersten Objektdarstellungen (1,2) und eine Vielzahl von zweiten Objektdarstellung (31, 32) des realen Objektes (3) mittels des elektronischen Rechensystems des Fahrzeuges (5) zu einer zweiten fusionierten Objektdarstellung (21) des realen Objektes (3) fusioniert wird, wobei die Vielzahl von ersten Objektdarstellungen (1, 2) und die Vielzahl von zweiten Objektdarstellungen (31, 32) jeweils mit einer eindeutigen Kennung bereitgestellt werden durch eine Vielzahl von Sensoreinrichtungen (9a, 9b, 9c) des Fahrzeuges (5), dadurch gekennzeichnet, dass die zweite fusionierte Objektdarstellung (21) der ersten fusionierten Objektdarstellung (11) basierend auf den Kennungen der Vielzahl an ersten Objektdarstellungen (1,2) zugeordnet wird, und/oder ein vordefiniertes Abstandsmaß zwischen der ersten fusionierten Objektdarstellung (11) und der zweiten fusionierten Objektdarstellung (21) bestimmt wird und basierend auf dem Abstandsmaß die zweite fusionierte Objektdarstellung (21) der ersten fusionierten Objektdarstellung (11) zugeordnet wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der ersten fusionierten Objektdarstellung (11) ein Identifikator (6) zugewiesen wird, wobei zur Zuordnung der zweiten fusionierten Objektdarstellung (21) zur ersten fusionierten Objektdarstellung (11) der Identifikator (6) auf die zweite fusionierte Objektdarstellung (21) übertragen wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das erste Fusionsverfahren (10) ein formbasiertes Fusionsverfahren (10) ist und/oder das zweite Fusionsverfahren (20) ein formunabhängiges Fusionsverfahren (20) ist.
  4. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Vielzahl von ersten Objektdarstellungen (1,2) und die erste fusionierte Objektdarstellung (11) das reale Objekt (3) jeweils als eine vordefinierte Form darstellen, wobei die Vielzahl an zweiten Objektdarstellungen (31, 32) und die zweite fusionierte Objektdarstellung (21) das reale Objekt (3) jeweils als eine Polylinie darstellen.
  5. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass im zweiten Fusionsverfahren (20) die Vielzahl an ersten Objektdarstellungen (1,2) und die Vielzahl an zweiten Objektdarstellungen (31, 32) unter Erstellung von jeweiligen Abtastpunkten (22) abgetastet werden, und wobei die zweite fusionierte Objektdarstellung (21) der ersten fusionierten Objektdarstellung (11) auf Basis der jeweiligen Abtastpunkte (22) zugeordnet wird.
  6. Elektronisches Rechensystem, umfassend Mittel zur Ausführung des Verfahrens nach einem der vorherigen Ansprüche.
  7. Computerprogramm, umfassend Befehle, die bei der Ausführung des Computerprogramms durch ein elektronisches Rechensystem dieses veranlassen, das Verfahren nach einem der Ansprüche 1 bis 5 auszuführen.
DE102022001265.0A 2022-04-12 2022-04-12 Verfahren, elektronisches Rechensystem und Computerprogramm zur Zuordnung von fusionierten Objektdarstellungen aus zwei unterschiedlichen Fusionsverfahren Pending DE102022001265A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022001265.0A DE102022001265A1 (de) 2022-04-12 2022-04-12 Verfahren, elektronisches Rechensystem und Computerprogramm zur Zuordnung von fusionierten Objektdarstellungen aus zwei unterschiedlichen Fusionsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022001265.0A DE102022001265A1 (de) 2022-04-12 2022-04-12 Verfahren, elektronisches Rechensystem und Computerprogramm zur Zuordnung von fusionierten Objektdarstellungen aus zwei unterschiedlichen Fusionsverfahren

Publications (1)

Publication Number Publication Date
DE102022001265A1 true DE102022001265A1 (de) 2022-06-30

Family

ID=81972565

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022001265.0A Pending DE102022001265A1 (de) 2022-04-12 2022-04-12 Verfahren, elektronisches Rechensystem und Computerprogramm zur Zuordnung von fusionierten Objektdarstellungen aus zwei unterschiedlichen Fusionsverfahren

Country Status (1)

Country Link
DE (1) DE102022001265A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019008093A1 (de) 2019-11-21 2020-08-27 Daimler Ag Verfahren zum Fusionieren von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels eines spärlichen Belegungsgitters, sowie Fahrerassistenzsystem

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019008093A1 (de) 2019-11-21 2020-08-27 Daimler Ag Verfahren zum Fusionieren von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels eines spärlichen Belegungsgitters, sowie Fahrerassistenzsystem

Similar Documents

Publication Publication Date Title
EP2951804B1 (de) Erstellen eines umfeldmodells für ein fahrzeug
DE102015214338A1 (de) Bestimmung einer Anordnungsinformation für ein Fahrzeug
DE102019008093A1 (de) Verfahren zum Fusionieren von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels eines spärlichen Belegungsgitters, sowie Fahrerassistenzsystem
DE102020211970A1 (de) Verfahren zum Steuern eines Fahrzeugs
EP3278318A1 (de) Verfahren zum bereitstellen von höheninformationen eines objekts in einem umgebungsbereich eines kraftfahrzeugs an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichtung und kraftfahrzeug
DE102019132150A1 (de) Verfahren zum automatischen Kalibrieren eines Umfeldsensors, insbesondere eines Lidar-Sensors, eines Fahrzeugs auf Grundlage von Belegungskarten sowie Recheneinrichtung
DE102018206743A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Egofahrzeugs mit wenigstens einem Umfeldsensor zum Erfassen eines Umfelds des Egofahrzeugs, Computer-lesbares Medium, System, und Fahrzeug
DE102017208692A1 (de) Verfahren zum Bereitstellen von Trainingsdaten für eine Funktionsprüfung einer Erkennungseinrichtung sowie Datenbanksystem
DE102019120778A1 (de) Verfahren und Vorrichtung zur Lokalisierung eines Fahrzeugs in einer Umgebung
DE102022001265A1 (de) Verfahren, elektronisches Rechensystem und Computerprogramm zur Zuordnung von fusionierten Objektdarstellungen aus zwei unterschiedlichen Fusionsverfahren
DE102021005053A1 (de) Verfahren zum Fusionieren von einer Vielzahl von Sensordaten mittels einer elektronischen Recheneinrichtung, sowie ein Fahrerassistenzsystem
EP3566104A1 (de) Bestimmung von bewegungsinformation mit umgebungssensoren
DE102019218078B4 (de) Bestimmung eines Sachverhalts im Umfeld eines Kraftfahrzeugs
DE102016223526A1 (de) Verfahren und Vorrichtung zum Bestimmen einer ersten hochgenauen Position eines Fahrzeugs
DE102016223107A1 (de) System und Verfahren zur Schätzung der Eigenbewegung eines Fahrzeuges
DE102020005467A1 (de) Verfahren zum Verfügbarmachen von anonymisierten, ADAS relevanten Fahrzeugdaten
DE102019132151A1 (de) Verfahren zum Kalibrieren eines Umfeldsensors eines Fahrzeugs anhand von Daten eines Referenz-Umfeldsensors unter Berücksichtigung von Belegungskarten, Recheneinrichtung sowie Sensorsystem
DE102019005825A1 (de) Verfahren zum Erzeugen von Trainingsdaten für eine kraftfahrzeugexterne elektronische Recheneinrichtung, sowie Fahrerassistenzsystem
DE102018122092A1 (de) Verfahren zum Bestimmen zumindest eines Positionsparameters eines Objekts in einer Umgebung eines Kraftfahrzeugs, Computerprogrammprodukt, Fahrerassistenzsystem und Kraftfahrzeug
DE102022000644A1 (de) Verfahren zum Betreiben eines Assistenzsystems für ein Kraftfahrzeug, sowie Assistenzsystem
DE102021131116B3 (de) Computerimplementiertes Verfahren zur Detektion von Fehlern eines Fahrerassistenzprogramms für ein Kraftfahrzeug
DE102020213947B3 (de) Verfahren zum Auswerten einer Umgebung eines Kraftfahrzeugs mittels eines Assistenzsystems, sowie Assistenzsystem
DE102021209817A1 (de) Verfahren zur mehrstufigen Fusion von Messdaten
DE102015104938A1 (de) Verfahren zum Bereitstellen einer Information über eine Zugehörigkeitsbeurteilung eines Erfassungspunkts zu einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs an einer Kommunikationsschnittstelle sowie Computerprogrammprodukt, Sensoreinrichtung für ein Kraftfahrzeug und Kraftfahrzeug
DE102015104937A1 (de) Verfahren zum Beurteilen einer Zugehörigkeit eines Erfassungspunkts zu einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs sowie Fahrerassistenzsystem

Legal Events

Date Code Title Description
R230 Request for early publication
R012 Request for examination validly filed