-
Die
Erfindung betrifft ein Verfahren zum Betrieb eines Fahrerassistenzsystems
nach den Merkmalen des Oberbegriffs des Anspruchs 1 sowie eine Vorrichtung
zur Durchführung des Verfahrens nach den Merkmalen des
Oberbegriffs des Anspruchs 5.
-
Aus
dem Stand der Technik sind, wie in der
DE 103 24 897 A1 beschrieben,
ein Verfahren und eine Vorrichtung zur Objektbestimmung in Fahrerassistenzsystemen
für Kraftfahrzeuge bekannt. Im Verfahren zur Objektbestimmung
in einem Fahrerassistenzsystem für Kraftfahrzeuge wird
durch Auswertung einer Videobildfolge und durch MAP-Schätzung einer
Bayesschen Wahrscheinlichkeitsfunktion eine Ergebnisgröße
bestimmt, die den Zustand des Objekts beschreibt. Dazu werden durch
die Bildauswertung, wahlweise in Kombination mit der Auswertung von
Objektdaten aus anderen Quellen, mindestens zwei von einander unabhängige
Messwerte für die Ergebnisgröße bestimmt.
Jedem Messwert wird ein Gütefaktor zugeordnet, der die
Verlässlichkeit des Messwertes beschreibt. Die Wahrscheinlichkeitsverteilung
jedes Messwertes wird durch eine Gauß-Verteilung modelliert,
mit einer vom Gütefaktor abhängigen Streuung.
Als Bayessche Wahrscheinlichkeitsfunktion für die MAP-Schätzung
wird das Produkt der Gauß-Verteilung gebildet.
-
In
der
DE 10 2006
045 115 A1 werden ein System und ein Verfahren zur Zielverfolgung
unter Verwendung von Sensorfusion beschrieben. Ein Zielverfolgungs-
und Sensorfusionssystem wird für die Verwendung mit einem
Fahrzeug angepasst und zum Beobachten eines Zustands mindestens
eines Objekts während eines Zyklus ausgebildet. Das System
weist mehrere Sensoren und einen neuartigen Controller auf, der
kommunikativ mit den Sensoren gekoppelt ist und zu einer genaueren
Schätzung des Zustands auf der Grundlage einer Sensorfusion
ausgebildet ist. Bei einer bevorzugten Ausführungsform wird
eine Kalman-Filterung verwendet, um eine fusionierte Schätzung
des Objektortes zu produzieren. Der bevorzugte Controller ist ferner
ausgebildet, um jede neue Sensorbeobachtung mit einem Track in einer
Trackliste abzugleichen und den Track während eines nachfolgenden
Zyklus aus der Trackliste zu entfernen, wenn eine übereinstimmende
Beobachtung nicht bestimmt wird.
-
Aus
der
DE 601 07 692
T2 ist ein System zur Erfassung von nahe liegenden Objekten
bekannt. Ein Nahobjekt-Detektierungssystem enthält eine
Mehrzahl von Sensorsystemen. Jedes Sensorsystem ist dazu ausgebildet,
eine Detektierungsabdeckung in einer vorbestimmten Abdeckungszone
zu schaffen. Jedes Sensorsystem weist Mittel zum Aussenden eines
Signals in die jeweilige Abdeckungszone hinein, Mittel zum Empfang
einer Reflexion des ausgesendeten Signals von einem Zielobjekt in
der jeweiligen Abdeckungszone und Mittel zum Verfolgen eines solchen
Zielobjektes auf. Das Detektierungssystem enthält Mittel
zur Verteilung von Information zwischen jedem der Mehrzahl von Sensorsystemen.
Diese Mittel umfassen Verarbeitungseinrichtungen, welche mit den
Sensorsystemen gekoppelt sind, um Zielobjekt-Verfolgungsdaten in
globalen Koordinaten zu bilden und diese Zielobjekt-Verfolgungsdaten
als Vorabinformation an ausgewählte der Sensorsysteme zu liefern.
-
Der
Erfindung liegt die Aufgabe zugrunde, ein verbessertes Verfahren
zum Betrieb eines Fahrerassistenzsystems und eine Vorrichtung zur
Durchführung des Verfahrens anzugeben.
-
Die
Aufgabe wird erfindungsgemäß durch ein Verfahren
zum Betrieb eines Fahrerassistenzsystems mit den Merkmalen des Anspruchs
1 gelöst. Hinsichtlich der Vorrichtung zur Durchführung
des Verfahrens wird die Aufgabe durch die im Anspruch 5 angegebenen
Merkmale gelöst.
-
Bevorzugte
Ausgestaltungen und Weiterbildungen der Erfindung sind in den abhängigen
Ansprüchen angegeben.
-
In
einem Verfahren zum Betrieb eines Fahrerassistenzsystems mit einer
Mehrzahl von Sensoren wird erfindungsgemäß anhand
von Sensordaten der Sensoren eine Komplexität einer von
den Sensoren erfassten Verkehrssituation bestimmt und in Abhängigkeit
von der bestimmten Komplexität der Verkehrssituation und/oder
in Abhängigkeit von den Sensordaten zumindest eines Sensors
für jeden Sensor eine Zuverlässigkeit für
dessen Sensordaten ermittelt.
-
Durch
die erfindungsgemäße Lösung wird eine
Ermittlung der Zuverlässigkeit von erfassten Sensordaten
und eine Ermittlung einer Zuverlässigkeit fusionierter
Sensordaten ermöglicht, welche Grundlage für Funktionen
des Fahrerassistenzsystems sind. Auf diese Weise werden in Verkehrssituationen,
welche eine hohe Komplexität aufweisen, wie beispielsweise
im Verkehr in einer Innenstadt mit einer Vielzahl von den Sensoren
zu erfassender Objekte, Fehlfunktionen des Fahrerassistenzsystems
aufgrund falscher, ungenauer oder fehlinterpretierter Sensordaten
vermieden und beispielsweise bei einer als gering bewerteten Zuverlässigkeit
der Sensordaten Funktionen des Fahrerassistenzsystems deaktiviert,
welche bei einer von den Sensoren falsch erfassten Situation unnötig
ausgelöst werden würden, zum Beispiel ein automatischer
Notbremsvorgang. Dadurch sind Gefährdungen sowohl eines
mit dem Fahrerassistenzsystem ausgerüsteten Fahrzeugs und
dessen Insassen als auch anderer Verkehrsteilnehmer vermeidbar.
-
Eine
komplexe Verkehrssituation liegt beispielsweise vor, wenn eine Vielzahl
von Objekten von den Sensoren zu erfassen sind, wenn zu erfassende Objekte
beispielsweise teilverdeckt sind oder wegen zu geringer Auflösung
der Sensoren zu einem Objekt verschmelzen und daher nicht von allen
Sensoren eindeutig zu identifizieren sind oder wenn zu erfassende
Objekte derart positioniert oder ausgerichtet sind, dass sie von
zumindest einzelnen Sensoren nicht eindeutig zu erfassen sind.
-
Daher
ist das Verfahren insbesondere zu einer Objektdetektion von verdeckten
Objekten oder von mehreren Objekten, welche zu einem Objekt verschmolzen
sind, verwendbar, wobei die Sensordaten der Sensoren anhand ihrer
ermittelten Zuverlässigkeiten unterschiedlich gewichtet
fusioniert werden, um eine Verkehrssituation trotz unzuverlässiger Sensordaten
zumindest eines Sensors korrekt zu beurteilen und dadurch Gefährdungen
sowohl des mit dem Fahrerassistenzsystem ausgerüsteten
Fahrzeugs und dessen Insassen als auch anderer Verkehrsteilnehmer
zu vermeiden.
-
Ausführungsbeispiele
der Erfindung werden anhand einer Zeichnung näher erläutert.
-
Dabei
zeigt:
-
1 eine
schematische Darstellung eines Fahrzeugs in einer komplexen Verkehrssituation.
-
1 zeigt
eine schematische Darstellung eines Fahrzeugs F in einer beispielhaften
komplexen Verkehrssituation. Die komplexe Verkehrssituation wird
im hier dargestellten Beispiel durch ein erstes Objekt O1 und ein
zweites Objekt O2 gebildet, wobei das zweite Objekt O2 von dem ersten
Objekt O1 teilverdeckt ist. In dem Fahrzeug F ist ein Fahrerassistenzsystem
installiert, welches im hier dargestellten Ausführungsbeispiel
einen ersten Sensor R und einen zweiten Sensor K zur Überwachung
eines Verkehrsraums vor dem Fahrzeug F umfasst. Im hier dargestellten
Ausführungsbeispiel ist der erste Sensor R als Radarsensor
und der zweite Sensor K als Stereokamerasystem ausgebildet. Es sind
jedoch, alternativ oder zusätzlich, auch andere Sensoren
R, K, beispielsweise Odometriesensoren, Lidarsensoren und/oder Navigationssensoren
verwendbar.
-
Des
Weiteren umfasst das Fahrerassistenzsystem eine Verarbeitungseinheit
V zur Verarbeitung von durch die Sensoren R, K bereitgestellten
Sensordaten. Derartige Sensordaten sind beispielsweise für ein
jedes von den Sensoren R, K erfasste Objekt O1, O2 eine Entfernung,
eine zeitliche Entfernungsänderung und ein Azimutwinkel
sowie Formen und Abmessungen der erfassten Objekte O1, O2, um diese beispielsweise
als Fahrzeug, Fußgänger oder Radfahrer identifizieren
und deren Bewegung anhand vorgegebener Bewegungsmodelle verfolgen
zu können. Aufgrund dessen ist das Fahrerassistenzsystem in
der Lage, eine Situationsanalyse durchzuführen und gegebenenfalls
in Funktionen des Fahrzeugs F einzugreifen, beispielsweise in ein
Antriebssystem und/oder in ein Bremssystem, um zum Beispiel eine Kollision
mit einem anderen Verkehrsteilnehmer zu verhindern.
-
Eine
derartige Erfassung bewegter Objekte O1, O2 mittels Sensoren R,
K sowie deren Identifizierung und dreidimensionale Lagebestimmung
kann beispielsweise nach dem in Schmidt, J., Wähler,
C, Krüger, L, Gövert, T., Hermes, C, 2007. 3D
Scene Segmentation and Object Tracking in Multiocular Image Sequences.
Proc. Int. Conf. an Computer Vision Systems (ICVS), Bielefeld, Germany beschriebenen
Verfahren erfolgen. Eine Prädiktion einer Bewegung von
erfassten Objekten O1, O2 auf Basis gelernter und wiedererkannter
Bewegungsmuster kann beispielsweise mittels des Verfahrens erfolgen,
welches in Hahn, M., Krüger, L., Wähler,
C, 2008. 3D Action Recognition and Long-term Prediction of Human Motion.
In: A. Gasteratos, M. Vincze, J. Tsotsos (eds.). Proc. Int. Conf.
an Computer Vision Systems, Santorini, Greece. Lecture Notes in
Computer Science 5008, pp. 23–32, Springer-Verlag Berlin
Heidelberg beschrieben wird.
-
Die
Sensoren R, K bzw. von diesen Sensoren R, K gelieferte Sensordaten
weisen abhängig von einer Komplexität einer erfassten
Verkehrssituation jeweils unterschiedliche Zuverlässigkeiten
auf. In 1 ist eine komplexe Verkehrssituation
vor dem Fahrzeug F dargestellt. Derartige komplexe, von den Sensoren
R, K zu erfassende Verkehrssituationen treten besonders häufig
beispielsweise im Verkehr in einer Innenstadt auf, beispielsweise
mit einer Vielzahl von den Sensoren R, K zu erfassender Objekte O1,
O2, wobei einzelne Objekte zum Beispiel teilverdeckt sind oder wegen
einer zu geringen Auflösung der Sensoren R, K zu einem
Objekt verschmelzen und daher von einigen Sensoren R, K nicht eindeutig zu
erfassen und zu identifizieren sind, wie im hier dargestellten Beispiel
das zweite Objekt O2.
-
In 1 ist
als zweites Objekt O2 ein Radfahrer dargestellt, welcher dicht neben
dem ersten Objekt O1, einem Fahrzeug, positioniert ist, wobei der
Radfahrer von dem Fahrzeug teilweise verdeckt wird. Mittels des
als Radarsensor ausgebildeten ersten Sensors R ist der Radfahrer
daher nicht zu erfassen. Mittels des als Stereokamerasystem ausgebildeten
zweiten Sensors K ist der Radfahrer zu erfassen und als solcher
zu identifizieren. Bei einer Fusion der Sensordaten in der Verarbeitungseinheit
V, wobei die Sensordaten beider Sensoren R, K gleich gewichtet werden,
könnte dies im Fahrerassistenzsystem zu einer Fehlbeurteilung
dieser Verkehrssituation und in Folge dessen beispielsweise zu einer
Gefährdung des Radfahrers führen.
-
Das
Verfahren umfasst eine Komplexitätsbestimmungskomponente
und eine Objektverfolgungskomponente. Mittels der Komplexitätsbestimmungskomponente
wird eine sensorische Komplexität einer von den Sensoren
R, K erfassten Verkehrssituation bewertet. Mittels der Objektverfolgungskomponente werden
innerhalb eines Messzyklus für jedes von den Sensoren R,
K erfasste Objekt O1, O2 mehrere Bewegungshypothesen über
einen Zeitverlauf aufrechterhalten. Beide Komponenten werden innerhalb
des Messzyklus abwechselnd ausgeführt. Mittels der ermittelten
Positionen, Orientierung, Bewegung und/oder Geschwindigkeiten erfasster
Objekte O1, O2 ist die Komplexität der vorausliegenden
Verkehrssituation bestimmbar und für einen aktuellen Messzyklus
oder für einen anschließenden Messzyklus verwendbar,
um eine Zuverlässigkeit der Sensordaten zu bestimmen und
eine Fusion der Sensordaten entsprechend deren Zuverlässigkeit
durchzuführen sowie eine Zuverlässigkeit der fusionierten
Sensordaten zu bestimmen. Bei einer geringen Zuverlässigkeit der
fusionierten Sensordaten werden beispielsweise kritische Funktionen
des Fahrerassistenzsystems deaktiviert, welche bei einer von den
Sensoren R, K falsch erfassten Situation unnötig ausgelöst
werden würden, zum Beispiel ein automatischer Notbremsvorgang.
Dadurch sind Gefährdungen sowohl des mit dem Fahrerassistenzsystem
ausgerüsteten Fahrzeugs F und dessen Insassen als auch
anderer Verkehrsteilnehmer vermeidbar.
-
Mittels
des Verfahrens wird zunächst die Komplexität der
erfassten Verkehrssituation bestimmt und anhand dieser Komplexität
die Zuverlässigkeit der erfassten Sensordaten ermittelt.
Die Komplexität der erfassten Verkehrssituation wird beispielsweise
anhand einer Anzahl, Verteilung und Ausrichtung der von den Sensoren
R, K erfassten Objekte O1, O2 und/oder anhand der Abweichung der
von den Sensoren R, K gelieferten Sensordaten bestimmt, d. h. beispielsweise
anhand einer Konsistenz von Ergebnissen einer Objektdetektion der
einzelnen Sensoren R, K. Im hier dargestellten Beispiel erfasst
der als Radarsensors ausgebildete erste Sensor R nur das erste Objekt
O1, das Fahrzeug, und liefert daher auch nur für dieses
erste Objekt O1 Sensordaten, da der Radarsensor das zweite Objekt
O2, den von dem Fahrzeug teilweise verdeckten Radfahrer nicht identifizieren
kann. Der als Stereokamerasystem ausgebildete zweite Sensor K liefert
Sensordaten sowohl für das erste Objekt O1 als auch für
das zweite Objekt O2, da mittels des Stereokamerasystems sowohl
das Fahrzeug als auch der Radfahrer erfasst und identifiziert werden.
Die Ergebnisse der Objektdetektion der einzelnen Sensoren R, K sind demzufolge
nicht konsistent. In Folge dessen werden die erfassten Sensordaten
des als Stereokamerasystem ausgebildeten zweiten Sensors K bei der
Sensordatenfusion höher gewichtet als die erfassten Sensordaten
des als Radarsensor ausgebildeten ersten Sensors R.
-
Eine
Integration der Zuverlässigkeiten der Sensordaten der einzelnen
Sensoren R, K, welche fusioniert werden, kann beispielsweise als
gewichtete Summe, Bayes-Netz oder neuronales Netz erfolgen, so dass
eine Zuverlässigkeit der fusionierten Sensordaten ermittelbar
ist. Die Fusion der Sensordaten erfolgt entsprechend ihrer Zuverlässigkeit und/oder
entsprechend der ermittelten Komplexität der messtechnisch
erfassten Verkehrssituation. In der hier dargestellten Verkehrssituation
können die erfassten Sensordaten des als Radarssensor ausgebildeten
ersten Sensors R beispielsweise sogar gänzlich ignoriert
werden, so dass diese in die fusionierten Sensordaten nicht einbezogen
werden. Im hier dargestellten Ausführungsbeispiel, in welchem das
Fahrzeug F lediglich mit einem Radarsensor und einem Stereokamerasystem
ausgerüstet ist, würden dann vom Fahrerassistenzsystem
lediglich die Sensordaten des als Stereokamerasystem ausgebildeten zweiten
Sensors K zu Beurteilung der Verkehrssituation herangezogen.
-
Die
Komplexitätsbestimmungskomponente nutzt zur Bestimmung
der Komplexität der erfassten Verkehrssituation auch a
priori bekannte Zuverlässigkeiten der Sensoren R, K, zum
Beispiel Ungenauigkeiten bei einer Entfernungsbestimmung und Positionsbestimmung
eines erfassten Objekts O1, O2 mittels einer Disparität
des Stereokamerasystems oder Abweichungen bei der Entfernungsbestimmung
und Positionsbestimmung des erfassten Objekts O1, O2 mittels des
Radarsensors. Beispielsweise sind mittels des Stereokamerasystems
laterale Bewegungen erfasster Objekte O1, O2, d. h. eine Position
und insbesondere eine Positionsänderung dieser Objekte O1,
O2 sicher erfassbar, Entfernungen zu den erfassten Objekten O1,
O2 sind dagegen mittels der Sensordaten des Stereokamerasystems
nur ungenau ermittelbar. Mittels des Radarsensors sind insbesondere
derartige Entfernungen ermittelbar, aber laterale Bewegungen nur
sehr ungenau erfassbar.
-
Allerdings
ist eine Entfernung zu einem erfassten Objekt O1, O2 mittels des
Radarsensors nur dann sicher ermittelbar, wenn eine eindeutige Erfassung
des Objekts O1, O2 mittels des Radarsensors möglich ist.
Eine Verkehrssituation wird daher nicht nur dann als komplex bewertet,
wenn eine große Anzahl Objekte O1, O2 erfasst wurden oder
die Sensordaten der einzelnen Sensoren R, K in Bezug auf die Anzahl
erfasster Objekte O1, O2 nicht konsistent sind. Ebenso wird beispielsweise
eine, hier nicht dargestellte Verkehrssituation als komplex bewertet, wenn
beispielsweise ein erfasstes Objekt O1, O2 ein Fahrzeug ist, welches
seitlich vor dem mit der erfindungsgemäßen Lösung
ausgerüsteten Fahrzeug F oder in einem schrägen
Winkel vor dem Fahrzeug F erfasst wird. In einer derartigen Situation
sind beispielsweise mittels des als Radarsensor ausgebildeten ersten
Sensors R zum Abstand des Objektes O1, O2 ermittelte Sensordaten
nicht als ausreichend zuverlässig zu bewerten, da nicht
sicher ist, auf welchen Punkt des Objektes O1, O2 die Radarstrahlen gerichtet
sind, d. h. von welchem Punkt sie reflektiert werden. Diese können
in dieser Situation sowohl von einem Punkt am Heck des Objektes
O1, O2 als auch von einer vorderen Seitenfläche des Objektes
O1, O2 reflektiert werden, wodurch der Abstand nicht sicher bestimmt
werden kann.
-
Eine
derartige Messungenauigkeit des Radarsensors ist a priori bekannt,
so dass, wenn mittels der Sensordaten des Stereokamerasystems ein
erfasstes Objekt O1, O2 als ein Fahrzeug in schräger Ansicht
oder Seitenansicht identifiziert wird, die Verkehrssituation als
derart komplex bewertet wird, dass bei einer Fusion der Sensordaten
die Sensordaten des Radarsensors, zumindest bezüglich des
Abstands zum erfassten Objekt O1, O2 mit einer niedrigen Zuverlässigkeit
bewertet werden und daher in die fusionierten Sensordaten nicht
oder nur gering gewichtet einfließen. Ähnlich
wird verfahren, wenn mittels des Stereokamerasystems in einer erfassten Punktewolke
ein Fahrzeug eindeutig identifiziert und dessen Position bestimmt
wurde, mittels des Radarsensors allerdings eine abweichende Position
für dieses Fahrzeugs bestimmt wurde. Da ein Offset zwischen
der mittels Radarsensor und mittels des Stereokamerasystems ermittelten
Position des erfassten Objektes O1, O2 im Mittel ungleich Null ist,
kann auf eine ungenaue Messung des Radarsensors geschlossen werden,
beispielsweise, wie bereits beschrieben, weil die Radarstrahlen
von einem abweichenden Punkt am Fahrzeug reflektiert werden.
-
Eine
Bewegung der beiden erfassten Objekte O1, O2 wird im Folgenden mittels
der Objektverfolgungskomponente anhand der fusionierten Sensordaten
verfolgt, so dass beispielsweise bei einer zu schnellen Annäherung
an den Radfahrer vom Fahrerassistenzsystem Gegenmaßnahmen
eingeleitet werden können, zum Beispiel ein automatischer
Notbremsvorgang. Dies wäre nur anhand der Sensordaten des
Radarsensors oder anhand gleich gewichtet fusionierter Sensordaten
nicht oder erst zu einem späteren Zeitpunkt möglich,
zu dem der Radfahrer auch vom Radarsensor eindeutig erfassbar und
identifizierbar wäre. Zu diesem späteren Zeitpunkt
bestünde dann die Gefahr, dass vom Fahrerassistenzsystem
keine ausreichenden Gegenmaßnahmen mehr eingeleitet werden
könnten.
-
Wird
auf diese Weise ermittelt, dass aufgrund der Komplexität
der erfassten Verkehrssituation von keinem der Sensoren R, K hinreichend
zuverlässige Sensordaten zur Beurteilung der Verkehrssituation
ermittelbar sind, d. h. dass eine ermittelte Zuverlässigkeit
der fusionierten Sensordaten zu gering ist, können beispielsweise
auch Funktionen des Fahrerassistenzsystems deaktiviert werden, welche
bei einer von den Sensoren R, K falsch erfassten Situation unnötig
ausgelöst werden würden, zum Beispiel ein automatischer
Notbremsvorgang. Dadurch sind Gefährdungen sowohl des mit
dem Fahrerassistenzsystem ausgerüsteten Fahrzeugs F und
dessen Insassen als auch anderer Verkehrsteilnehmer vermeidbar.
-
Zur
Objektverfolgung der von den Sensoren R, K erfassten Objekte O1,
O2 werden beispielsweise Kalmanfilter und/oder Partikelfilter verwendet.
Mittels dieser Filter werden Korrelationseigenschaften jedes erfassten
Objekts O1, O2 entlang einer Zeitachse untersucht, wobei prinzipiell
beliebige Annahmen über die Objektbewegung getroffen werden
können, beispielsweise die einer gleichmäßigen
Bewegung.
-
Schlägt
eine Objektdetektion im Verlauf des Messzyklus bei einem einmal
erfassten Objekt O1, O2 fehl, so wird das Objekt O1, O2 noch eine
kurze Zeit entlang einer bisher erfassten und mittels Bewegungsmodellen
des Objektes O1, O2 ermittelten weiteren Bewegungsbahn verfolgt.
Die Bewegungsbahn ist dabei beispielsweise mittels des Ackermann-Modells,
mittels eines einfachen kinematischen Bewegungsmodells oder mittels
gelernter Bewegungsmodelle zum Beispiel für Fahrzeuge,
Radfahrer oder Fußgänger ermittelbar, wobei das
Bewegungsmodell entsprechend der jeweiligen Komplexität
der erfassten Verkehrssituation ausgewählt wird. So wird
beispielsweise bei einer komplexen Verkehrssituation mit sehr vielen
erfassten Objekten O1, O2 das Ackermann-Modell zu einer relativ
groben Vorhersage der Bewegungsbahnen der Objekte O1, O2 genutzt,
um die Objekte O1, O2 mit den Sensoren R, K weiterhin verfolgen
zu können.
-
Zur
Objektverfolgung erfasster Objekte O1, O2 wird eine interne Repräsentation
des erfassten Objektes O1, O2 an eine Zuverlässigkeit zur
Objektbildung verwendeter Sensordaten angepasst. So wird beispielsweise
das als Fahrzeug ausgebildete erste Objekt O1, welches im Nahbereich
des mit der erfindungsgemäßen Lösung
ausgestatteten Fahrzeugs F mittels des Stereokamerasystems erfasst wurde,
als Quader dargestellt, da es aus einer erfassten Punktewolke eindeutig
identifizierbar ist. Dadurch sind genaue Abmessungen des Fahrzeugs
sowie eine Position ermittelbar.
-
Ist
das Fahrzeug einmal erfasst und wird konstant weiter verfolgt, so
wird es beispielsweise in einer größeren Entfernung
mit zunehmend unzuverlässigeren Sensordaten als Ellipsoid
dargestellt und bei weiter zunehmender Entfernung als Punkt. Auf diese
Weise ist eine Bewegung des ersten Objektes O1 weiter verfolgbar
und das erste Objekt O1, da es einmal identifiziert wurde, weiter
als das erfasste Fahrzeug identifizierbar, auch wenn beispielsweise eine
Entfernungsmessung oder eine Entfernungsänderungsmessung
zunehmend ungenau wird. Dazu werden beispielsweise Verarbeitungsparameter
zur Verarbeitung der erfassten Sensordaten je nach aktueller oder über
den Messzyklus akkumulierter Zuverlässigkeit geändert,
so dass das erste Objekt O1 auch anhand nur noch weniger erfasster
Punkte identifizierbar und verfolgbar ist.
-
Des
Weiteren können, zusätzlich zu aus einem Eingangsbild
des Stereokamerasystems extrahierter Sensordaten Merkmale aus diesem
Eingangsbild, wie zum Beispiel so genannte Histograms of oriented
gradients in allgemein bekannter Weise zur Objektverfolgung verwendet
werden. Auch diese Informationen können zur Beurteilung
der Komplexität der erfassten Verkehrssituation verwendet
werden, wenn beispielsweise anhand des Eingangsbildes anhand markanter
Formen eines erfassten Objektes O1 festgestellt wird, dass es sich
um ein Fahrzeug in Seitenansicht handelt und daher, wie bereits erwähnt,
eine Entfernungsermittlung mittels Sensordaten des Radarsensors
nicht zuverlässig ist.
-
- F
- Fahrzeug
- V
- Verarbeitungseinheit
- R,
K
- Sensoren
- O1,
O2
- Objekte
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- - DE 10324897
A1 [0002]
- - DE 102006045115 A1 [0003]
- - DE 60107692 T2 [0004]
-
Zitierte Nicht-Patentliteratur
-
- - Schmidt, J.,
Wähler, C, Krüger, L, Gövert, T., Hermes,
C, 2007. 3D Scene Segmentation and Object Tracking in Multiocular
Image Sequences. Proc. Int. Conf. an Computer Vision Systems (ICVS),
Bielefeld, Germany [0017]
- - Hahn, M., Krüger, L., Wähler, C, 2008. 3D
Action Recognition and Long-term Prediction of Human Motion. In:
A. Gasteratos, M. Vincze, J. Tsotsos (eds.). Proc. Int. Conf. an
Computer Vision Systems, Santorini, Greece. Lecture Notes in Computer
Science 5008, pp. 23–32, Springer-Verlag Berlin Heidelberg [0017]