Verfahren und Vorrichtung zum Betreiben eines Sensorsystems
Stand der Technik
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Betreiben eines Sensorsystems, welches vorzugsweise wenigstens zwei Sensoren umfasst, die voneinander verschieden sind.
Die DE 101 33 945 Al zeigt ein Verfahren und eine Vorrichtung zum Betreiben eines Sensorsystems. Dabei kommunizieren Sensoren des Sensorsystems, welche vorzugsweise in verschiedenen Sensortechnologien (Radar, Video, Ultraschall, etc.) ausgeführt sind, mit einer Verarbeitungseinheit (Sensordatenfusionseinheit oder Informationsplattform). - Die Sensoren übermitteln Sensordaten, d.h. Ergebnisse des Messvorgangs der Sensoren, zur Verarbeitungseinheit, die dort weiterverarbeitet und an wenigstens eine, vorzugsweise mehrere Funktionalitäten weitergeleitet werden. Ferner findet auch ein Datenaustausch von der Verarbeitungseinheit zu den Sensoren statt. Diese Rückmeldedaten werden zur
Λufrnerksamkeitssteuerung und/oder Präkonditionierung der einzelnen Sensoren verwendet. Beispielsweise werden zur Identifizierung von detektierten Objekten Identifikationsdaten ausgetauscht, insbesondere von der Verarbeitungseinheit zu wenigstens einem Sensor gesendet.
Vorteile der Erfindung
Die Übertragung von Informationen von der Verarbeitungseinheit zur Sensoreinrichtung, welche eine Angabe wenigstens eines zu delektierenden Bereichs (insbesondere Raumbereichs) und/oder wenigstens eines einzuschaltenden Betriebsmodus der
betrofifenen Sensoreinrichtung repräsentieren, wird eine Verbesserung der Detektionsleistung und der Detektionsqualität der beteiligten Sensoreinrichtung erreicht. Betriebsmodus und Detektionsumfang wird auf die abzuarbeitende Aufgabe optimiert. Damit steigt auch die Qualität der Informationen, die von der Verarbeitungseinheit (Informationsplattform) weitergegeben werden.
Besonders vorteilhaft ist, dass eine optimale Nutzung der Ressourcen der Sensoren und eine Beeinflussung der sensorinternen Informationsgewinmingsprozesse erreicht wird.
Von besonderer Bedeutung ist, dass die Informationsplattform ein deutlich verbreitertes
Spektrum an Informationsnutzern, beispielsweise Funktionen wie automatische Notbremssysteme, adaptive Fahrgeschwindigkeitsregelsysteme, etc. , mit sehr unterschiedlichen Anforderungen bedienen kann.
Wie oben beschrieben wird eine gezielte Vermittlung von Informationen zwischen den vorhandenen Sensoren und eine situationsabhängige Sensorsteuerung bereitgestellt. Die Informationen zwischen den Sensoren werden dabei wie im Stand der Technik über eine zentrale Verarbeitungseinheit (Informationsplattform) übertragen, die zusätzlich die Sensorsteuerung auf der Basis einer in der Verarbeitungseinheit enthaltenen oder der Verarbeitungseinheit zugeführten Situationserfassung und - beschreibung übernimmt. In vorteilhafter Weise sind die von der Verarbeitungseinheit zu den Sensoren übertragenen Informationen sensorunabhängig abgebildet. Im Sensor werden diese Informationen dann in sensorspezifische Daten umgesetzt.
Die von der Verarbeitungseinheit an die Sensoren übermittelten Informationen sind dabei wenigstens eine der folgenden Informationen: für wesentliche Betriebszustände eine Angabe des insbesondere räumlichen Erfassungsbereichs (Fensterung), beispielsweise eine Einschränkung des räumlichen Erfassungsbereichs bzw. eine Fensterung der Objektdaten anhand wenigstens eines Kriteriums wie z.B. Geschwindigkeit, Position, Winkelablage, etc.; eine Angabe, welchen wenigstens einen besonders zu beobachteten Detektionsbereich (Region of Interest) repräsentiert, der vorzugsweise wesentlich kleiner als die oben erwähnte Fensterung ist;
Priorisierungs- und/ oder Identifikationsangeben für diese Detektionsbereiche; - eine Trackingliste mit Identitätsmarkern von besonders zu beobachtenden Objekten;
Informationen bezüglich des Zuslandes von Objekten (z.B. Ort des Eintreffens in den Erfassungs- und/oder Detektionsbereichs, Geschwindigkeit, Größe, Art, etc.), die potenziell neu vom Sensor detektiert werden und aus Vorhersagen der Objektveränderung herrühren;
Durch diese Maßnahmen wird eine gezielte Steuerung des Sensors und damit ein optimierter Einsatz der Sensorressourcen erreicht.
Ergänzend oder alternativ hierzu übermittelt die Verarbeitungseinheit an die Sensoren Steuerdaten für die Einstellung eines Sensormodus. Darunter werden sensorspezifϊsche und sensorunspezifische Möglichkeiten zur Veränderung des Informationsgehaltes der vom Sensor gelieferten Informationen verstanden. Derartige Möglichkeiten sind beispielsweise die Sensorzykluszeit, die Qualitätsschwelle der zu liefernden Informationen, die Art der Informationen, die technologische Methodik der Informationsgewinnung, eine Priorisierung zwischen verschiedenen Informationen eines
Sensors, etc. Auch dies trägt zu einer Verbesserung der Detektionsleistung und einer angepassten Detektionsqualität der Sensoren bei durch eine optimale Nutzung der Sensorressourcen und der Beeinflussung der sensorinternen Informationsgewinnungsprozesse.
Weitere Vorteile ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen bzw. aus den abhängigen Patenansprüchen.
Zeichnung
Die Erfindung wird nachstehend anhand der in der Zeichnung dargestellten Ausführungsformen näher erläutert. Figur 1 zeigt dabei ein Übersichtsbild eines Sensorsystems mit einer das Sensorsystem steuernden Verarbeitungseinheit (Informationsplattform). In den Figuren 2 bis 4 sind schematisch die Wirkung der erfindungsgemäßen Vorgehensweise dargestellt, während in Figur 5 anhand eines
Ablaufdiagramms ein Beispiel für eine konkrete Ausführung eines in der Verarbeitungseinheit ablaufenden Programms zur Sensorsteuerung dargestellt ist.
Beschreibung von Ausführungsbeispielen
In Figur 1 ist ein Übersichtsbild eines Sensorsystems dargestellt, welches an eine Verarbeitungseinheit Sensorsignale schickt und von dieser Informationen zur Steuerung der Sensoren empfangt. Das Sensorsystem umfasst dabei mehrere, wenigstens zwei Sensoren (Sl bis SN). Im bevorzugten Ausfuhrungsbeispiel sind die Sensoren Sensoren zur Umfelderfassung eines Fahrzeugs, z.B. Ultraschallsensoren, Radarsensoren,
Videosensoren, etc. Diese Sensoren sind über vorzugsweise bidirektionale Kommunikationsverbindungen 10 - 18 mit einer Verarbeitungseinheit (Informationsplattform, IP) verbunden. Im bevorzugten Ausführungsbeispiel handelt es sich bei den Kommunikationssystemen um ein Bussystem, beispielsweise CAN, welches die Sensoren und die Verarbeitungseinheit zum gegenseitigen Datenaustausch miteinander verbindet. Im bevorzugten Ausführungsbeispiel ist die Verarbeitungseinheit Teil einer Steuereinheit SE. Dabei wird die Verarbeitungseinrichtung durch ein oder mehrere Softwaremodule realisiert, die auf einem oder mehreren Mikrocomputern der Steuereinheit SE ablaufen. In einer Ausführung werden der Informationsplattform Daten anderen Sensorsysteme 20 - 24 über entsprechende Kommunikationsverbindungen 26 -
30 zugeführt, z.B. um der Informationsplattform Betriebsgrößen wie z.B. die Eigengeschwindigkeit zuzuführen, die nicht vom Sensorsystem Sl bis SN erfasst werden. Diese Betriebsgrößen dienen der Informationsplattform ggf. dazu, bei der Bildung von Informations- und/oder Steuergrößen für das Sensorsystem Sl bis SN berücksichtigt zu werden. Ferner ermittelt die Informationsplattform Größen für verschiedene (wenigstens zwei) Funktionalitäten, welche in Figur 1 mit Fl bis FN angedeutet sind. Diese Funktionalitäten betreffen Funktionen wie eine automatische Notbremsung, ein adaptiver Fahrgeschwindigkeitsregler, eine Einparkhilfe, ein Spurverlassenswarner, etc. Da das gezeigte System vorzugsweise im Rahmen der Objekterkennung für die beispielhaft genannten Funktionalitäten verwendet wird, sind die von der Informationsplattform an die Funktionalitäten übermittelten Daten im bevorzugten Λusführungsbeispiel aus den Sensordaten fusionierte Objektdaten, die von den Funktionalitäten dann entsprechend ihrer Funktion ausgewertet werden. Die Funktionen Fl bis FN steuern Aktuatoren, beispielsweise Wamelemente, Bremssysteme, etc. an, was am Beispiel der Funktion Fl in Figur 1 angedeutet ist. Die Datenverbindung zwischen der Informationsplattform und den verschiedenen Funktionen findet im bevorzugten Λusführungsbeispiel ebenfalls über ein Bussystem, beispielsweise ein CAN - Bussystem, statt Darüber hinaus ist der Datenaustausch in einem bevorzugten Λusführungsbeispiel bidirektional, wobei von den Funktionen zur mformationsplattform beispielsweise Daten hinsichtlich des Aktivierungszustandes der Funktion übermittelt werden.
In einer bevorzugten Anwendung wird ein aus zwei Sensoren bestehendes Sensorsystem eingesetzt, welche Objektdaten aus der Umgebung eines Kraftfahrzeugs erfassen. Das bevorzugte Anwendungsbeispiel enthält zwei unterschiedliche Sensoren und zwei in ihren Anforderungen gegenüber der Verarbeitungseinheit (Informationsplattform) unterschiedliche Funktionen. Im bevorzugten Ausführungsbeispiel werden als Sensoren eine Monovideokamera und wenigstens ein Radarsensor verwendet, vorzugsweise mit einem gemeinsamen (überlappenden) oder aneinander angrenzenden Erfassungsbereichen. Auf der Basis der von diesen Sensoren ermittelten Daten werden verschiedene, in Abhängigkeit von den erfassten Objekten und deren Charakteristiken arbeitenden Funktionen des Kraftfahrzeugs wie ein automatisches Notbremssystem und ein adaptiver Fahrgeschwindigkeitsregler gesteuert. Objektdaten außerhalb dieser Grenzen werden verworfen.
Zunächst wird in einem Ausführungsbeispiel wenigstens einem der Sensoren sein
Erfassungsbereich vorgegebenen, z.B. durch Vorgabe von einer maximalen Reichweite und/oder maximalen Winkeln. Die Informationsplattform legt diese Werte in Abhängigkeit davon fest, welche Funktion zu unterstützen ist So wird z.B. bei aktivem adaptivem Fahrgeschwindigkeitsregler eine vergleichsweise große Reichweite mit kleinen Winkeln vorgegeben, während bei aktiver Einparkhilfe die Werte für den
Erfassungsbereich entgegengesetzt vorgegeben werden. '-7
Die Kombination eines Monovideosensors mit einem Radarsensor verbessert insbesondere die Plausibilisierung der erfassten Objekte. Die Plausibilisierung findet mittels der Informationsplattform statt. Zu diesem Zweck werden die Detektionsdaten des
Radarsensors (beispielsweise Geschwindigkeit, Winkel und/ oder Abstand zu dem erfassten Objekt) der Informationsplattform zugeführt. Diese bildet aus den Objektdaten des Radarsensors eine Liste von Detektionsbereichen (Region of Interest, ROI), die gegebenenfalls mit unterschiedlichen Prioritätswerten versehen sind.. Diese Liste der Detektionsbereiche wird an den Videosensor übermittelt Die Daten umfassen dabei beispielsweise Koordinaten eines ausgezeichneten Punktes (z.B. Mittelpunkt oder Schwerpunkt) und die Ausdehnung des Detektionsbereichs und / oder der Geschwindigkeit des Punkts. Ferner wird eine Identifikationsnummer und gegebenenfalls eine Prioritäteneinstufung der Detektionsbereiche übermittelt. Der Videosensor empfängt diese Liste und arbeitet die in der Liste enthaltenen Bereiche in der vorgegebenen
Prioritätsreihenfolge ab. Im bevorzugten Ausführungsbeispiel analysiert der Videosensor bzw. seine Auswerteeinheit das aufgenommene Bild in den übermittelten Detektionsbereiche zur Objekterkennung. Je nach Ausfuhrung arbeiteten dabei alle Sensoren mit demselben Koordinatensystem oder ein findet eine Transformation von dem Koordinatensystem des Radarsensors zu dem des Videosensors und umgekehrt vorzugsweise in der Informationsplattform statt. Ergibt die Bildanalyse des Videosensors in dem oder den übermittelten Bereichen ein bzw. mehrere Objekte, so werden die Daten bzw. die Information gegebenenfalls zusammen mit der Identifikationsnummer an die Informationsplattform übermittelt und dort das vom Radarsensor ermittelte Objekt (bzw. die ermittelten Objekte) plausibilisiert. Erkennt der Videosensor in dem übermittelten
Detektionsbereich kein Objekt, so ist davon auszugehen, dass das vom Radarsensor erfasste Objekt ein Scheinziel ist. Nach der Plausibilisierung gefestigt erkannte Objekte werden von der Informationsplattform weiterverarbeitet, z.B. die Objektdaten oder daraus abgeleitete Informationen an die angeschlossenen Funktionen übermittelt.
Die oben skizzierte Plausibilisierung findet vorzugsweise in der Informationsplattform statt, kann aber auch Bestandteil der Software des Videosensors sein. Zur Objekterfassung verwendet der Videosensor bekannte Vorgehensweisen.
Ferner kann im Rahmen einer Modussteuerung des Videosensors Erkennungsschwellen zur Ermittlung eines Objekts in den Fällen abgesenkt-werden, in denen der Detektionsbereich vorgegeben ist. Dies vor dem Hintergrund, dass in der Erwartung einer Beobachtung eine schnellere und gezieltere Detektion erreichbar ist. Im Rahmen von zeitkritischen Funktionen kann in einer Ausführung die Informationsplattform den Videosensor so steuern, dass die Plausibilisierung der Radarobjekte schneller erfolgt, beispielsweise dadurch, dass die Abarbeitung im Videosensors nach wenigen relevanten Bildbereichen abgebrochen wird und / oder die Plausibilisierung abgeschwächt wird. Letzteres erfolgt beispielsweise dadurch, dass nur eine Ortsinformation für das Objekt zur Plausibilisierung verwendet wird, während auf die Geschwindigkeitsinformation zur Plausibilisierung verzichtet wird. Die entsprechenden Signale zur Steuerung des Sensor werden von der Informationsplattform an den Sensor in Abhängigkeit des Betriebszustandes (z.B. Notbremsfunktion aktiv oder nicht) gesendet.
Eine weitere Möglichkeit zur Beschleunigung der Plausibilisierung der Objekterkennung des Radarsensors durch den Videosensor wird durch eine Präkonditionierung der
Videoobjekte erreicht. Diese erfolgt vorzugsweise dadurch, dass auf der Basis der vom Radarsensor ermittelten Objektdaten wie z.B. Ort, Geschwindigkeit, Bewegungsrichtung, etc. der Ort des vermuteten Eintreffens des Objekts in den Detektionsbereich des Sensors abgeleitet wird, um diesen Ort ein zu untersuchender Bildbereich gebildet wird, der wiederum an den Videosensor übermittelt wird.
Im einem Λusfuhrungsbeispiel werden Sensoren eingesetzt, die zum einen Informationen (z.B. Breite, Krümmung, etc.) über die Fahrspur, den Fahrstreifen bzw. die Fahrbahn (Fahrbahnsensoren) erfassen, zum anderen Objekte detektieren (objektdetektierende Sensoren). Derartige Sensoren sind je nach Ausführung getrennt oder es werden beide
Funktionen von einem Sensor wahrgenommen (z.B. einem Videosensor). Bei den Fahrbahnsensoren wird eine Modussteuerung vorgenommen, indem die Informationsplattform zumindest einen Teil der Fahrstreifendeteklion ausschaltet, wenn eine Fahrbedingung erreicht ist, in der dieser Teil nicht erforderlich ist (z.B. Randsteinerkennung ist in der Stadt erforderlich, auf Autobahnen nicht, so dass hier dieser Teil abgeschaltet werden kann). Übertragen werden hier von der Informationsplattform zum Sensor eine Information, die die erwartete Fahrstreifenmarkierung repräsentiert. Abhängig von dieser Information passt sich der Sensor bzw. seine Auswertung an. Dadurch werden Ressourcen gespart. Ferner oder alternativ kann ein Straßentyp übertragen werden (Autobahn, kurvenreiche Straße, etc.) zur Anpassung des Modells zur Fahrbahήrand- bzw. -Streifenerkennung, so dass die Qualität der Schätzung der Parameter verbessert wird.
Die objekterkennenden Sensoren werden entsprechend der obigen Schilderung mit zusätzlichen Informationen von der Informationsplattform versorgt. Dies wird anhand der in den Figuren 2 bis 4 dargestellten Wirkungsweise verdeutlicht. Figur 2 zeigt die Fensterung der zu erfassenden Objektdaten (Festlegen des Erfassungsbereichs). Figur 3 zeigt die Vorgabe von einem oder mehreren Detektionsbereichen (ROI), während in Figur 4 die Präkonditionierung erfasster Objekte dargestellt ist.
In allen drei Figuren ist mit 100 das eigene Fahrzeug bezeichnet, an dem die Sensoren angebracht sind. In Figur 2 und 3 ist ein erster Umfeldsensor 102 und sein Erfassungsbereich 104 dargestellt In Figur 4 wird neben dem Sensor 102 und seinem Erfassungsbereich 104 ein zweiter Umfeldsensor 106 mit einem breiteren Erfassungsbereich 108, der jedoch eine geringere Reichweite aufweist, dargestellt.
Gemäß Figur 2 wird eine Fensterung der Objektdaten bzw. eine Einschränkung des Erfassungsbereichs zur Ressourcenreduzierung vorgenommen. Die von der Informalionsplattform an den Sensor übermittelte Information enthält Daten, die eine Begrenzung des Erfassungsbereichs des Sensors repäsentieren, beispielsweise Minimal- und /oder Maximalwerte von den erfassungsbereichsbegrenzenden Koordinaten, Geschwindigkeitswerten, die die Weite des Detektionsbereichs einschränken und / oder Straßenparameter, die die Breite des Erfassungsbereichs festlegen (zweispurige Straße, vierspurige Straße, etc.). Der Sensor empfangt diese Daten und bildet daraus den in Figur 2 dargestellten angepassten Erfassungsbereich 110. Dadurch wird eine Anpassung des
Erfassungsbereichs an die jeweils aktive Funktion (z.B. Einparkhilfe oder Fahrgeschwindigkeitsregler) und/oder eine Anpassung an die Fahrsitualion (z.B. Straßenart) erreicht und somit die Detektionsqualität der Sensorik bei Optimierung der Ressourcen verbessert.
Ergänzend zur Vorgabe eines Erfassungsbereich oder alternativ dazu werden von der Informationsplattfoπn Daten bezüglich wenigstens eines besonders zu betrachtenden Detektionsbereichs an den oder die Sensoren übermittelt. Diese Daten werden abgeleitet aus den Daten eines erfassten Objekts eines anderen Sensors, beispielsweise eines Radarsensors, und bestehen zum Beispiel aus den Koordinaten für den Mittelpunkt (bzw.
Schwerpunkt oder eines ausgezeichneten Punktes) dieses Detektionsbereichs und der Geschwindigkeit der Veränderung dieses Punktes samt jeweiligen Varianzwerten. Mit jedem Detektionsbereich bzw. seinen Daten ist eine eindeutige Identifikationsnummer verknüpft Durch die Beschränkung auf wenige Interessensgebiete können die Ressourcen im Sensor, vorzugsweise im Videosensor, reduziert werden und somit in sehr kurzer Zeit die wichtigsten Informationen generiert werden. Dies ist vor allem von Interesse bei zeilkritischen Funktionen, beispielsweise bei einer automalischen Notbremsung, bei der die Objektdetektion und Plausibilisierung sehr schnell erfolgen muss. Die Identifikationsnummern werden von der Informationsplattform vergeben und an den Sensor weitergegeben. Die von Sensor ermittelten Ergebnisse (z.B. „Objekt vorhanden" und/oder Objektdaten und/oder Fehlmeldung) werden mit der Identifikationsnummer an die Informationsplattform zurückgesendet. Anhand der Nummern kann also die Informationsplattform die Abarbeitung überwachen, da der Sensor bei Plausibilisierung des erkannten Objekts bzw. bei eigener Objekterkennung eine entsprechende Information unter dieser Identifikationsnummer an die
Informationsplattform zurückschickt. Erst wenn die Abarbeitung erfolgt ist, wird die Identifikationsnummer von der Informationsplattform neu vergeben. Anhand dieser Rückmeldung erkennt die Informationsplattform auch eine Überlast in der Verarbeitung im Sensor, wenn innerhalb einer vorgegebenen Zeitperiode die Abarbeitung der Aufgabe nicht zurückgemeldet wurden. Im Falle der Überlast zeigt die Informationsplattform diese der aktiven Funktion an und/oder vergibt Priorisierungswerte an den Sensor bzw. passt vorhandene an, indem auf vorgegebene Aufgaben, z.B. wie oben skizziert, verzichtet wird oder diese nur noch eingeschränkt durchgeführt werden.
Alternativ zur Angabe von besonderen Detektionsbereichen wird von wenigstens einem der Sensoren bzw. der Informationsplattform eine Trackingliste der Objektdaten mit Objektidentifikationsnummeπi erzeugt. Aufgrund dieser Trackingliste werden von der Informationsplattform die Daten für die Fensterung und/oder die Generierung der Detektionsbereiche vorgenommen und an den wenigstens einen anderen Sensor übertragen.
In Figur 3 ist die oben skizzierte Lösung dargestellt. Das Fahrzeug 100 verfügt über ein Sensorsystem 102, welches über wenigstens einen Sensor mit dem Detektionsbereich 104 verfügt. Eingezeichnet sind die Detektionsbereiche (ROI) 112, 114, 116, welche gekennzeichnet sind durch Größen wie: Mittelpunkt (zum Beispiel 112a, 114a, 116a, optional mit Varianzenwerten und (nicht eingezeichnet) Geschwindigkeit optional mit Varianzenwerten, wobei die Varianzenwerte die Unsicherheit der ROIs ausdrücken). Die gezeigten Detektionsbereiche, die auf der Basis von erfassten Objekten eines anderen Sensors des Sensorsyslems gebildet werden, werden von der Λuswerteeinheit des betroffenen Sensors besonders häufig oder ausschließlich ausgewertet auf das
Vorhandensein und/oder die Eigenschaften von Objekten in diesen Bereichen.
Eine dritte Option zur Aufmerksamkeitssteuerung des Sensorsystems ist die Präkonditionierung wenigstens eines der Sensoren. Wenigstens einer der Sensoren des Sensorsystems übermittelt an die Informationsplattform dabei Objektdaten, die die
Informationsplattform in Daten für einem anderen Sensor mit anderem Erfassungsbereich umsetzt, welche insbesondere den Ort des erwarteten Eindringens des Objektes in den Erfassungsbereich des Sensors repräsentieren. Die von der Informationsplattform an diesen Sensor übermittelte Daten betreffen im bevorzugten Ausfuhrungsbeispiel den Ort, an dem das Eindringen des Objekts in den Erfassungsbereich des Sensors zu erwarten ist
und gegebenenfalls ergänzend die Geschwindigkeit und/oder Bewegungsrichtung des Objekts. Dies erfolgt im bevorzugten Ausfuhrungsbeispiel im Rahmen der Übermittlung der Daten zu einem besonderen Detektionsbereich (ROI). Der Sensor wird dann auf der Basis dieser Information beispielsweise hinsichtlich der Trackinginitialisierung oder der Winkelzuordnung, sich optimal auf das neu zu deteku'erende Objekt einstellen können.
Dieses Beispiel ist näher anhand Figur 4 dargestellt. Das Fahrzeug 100 weist ein Sensorsystem mit wenigstens zwei Sensoren 102 und 106 auf. Der Erfassungsbereich des Sensors 102 ist mit 104 bezeichnet, während der Sensor 106 einen breiteren Erfassungsbereich 108 mit kürzerer Reichweite aufweist. Dies ist eine typische
Fallkonstellation bei der Verwendung eines Radarsensors 102 und einer Videokamera 106. Das vom Radarsensor 102 erfasste Objekt ist mit 118 bezeichnet. Aus den Objektdaten (Ort, Geschwindigkeit, Richtung) , die vom Sensor 102 an die Informationsplattform übermittelt werden, lässt sich errechnet, ob und gegebenenfalls an welchem Ort ein Erreichen des Erfassungsbereichs 108 des Sensors 106 durch das Objekt wahrscheinlich ist. Die Informationsplattform ermittelt daher einen besonderen Detektionsbereich 120, der dem Sensor 106 mitgeteilt wird und der den Ort den vermuteten Eindringens des Objekt in den Erfassungsbereich repräsentiert. Der Sensor beobachtet dann diesen Detektionsbereich bevorzugt (oder zusammen mit den anderen mitgeteilten Detektionsbereichen ausschließlich) und kann sich daher bereits vor
Auftreten des neu zu detektierenden Objekts auf dieses entsprechend einstellen.
Ergänzend hierzu werden mit den Deteklionsbereichsdaten Priorisierungsdaten übermittelt, die dem Sensor die Reihenfolge oder Häufigkeit der Abarbeitung der Bereiche vorgeben.
Neben der Übermittlung von Detektionsbereichsdaten von der Informationsplattform zum " Sensor werden im Gegenzug Informationen vom Sensor an die Informationsplatiform übermittelt werden, welche den Status der Abarbeitung der übermittelten besonderen Detektionsbereiche repräsentieren. Dies erfolgt durch die Angabe der abgearbeiteten
Identifikationsnummern der Detektionsbereiche und gegebenenfalls mittels eines Zeitstempels der Abarbeitung zur Ermittlung eines Zeitverzugs.
Neben oder anstelle der Übermittlung von Daten bezüglich der zu detektierenden Detektionsbereiche findet ferner eine Steuerung des Arbeitsmodus einzelner Sensoren
statt, beispielsweise eine Steuerung der Zykluszeit, der Verarbeitungstiefe, der Priorisierung zur Generierung unterschiedlicher Informationsanteile, etc.. Diese Modussteuerung ist abhängig vom Betriebszustand insbesondere der angeschlossenen Funktionalitäten. Ist zum Beispiel eine automatische Notbremsfunktion aktiv, so wird dies der Informationsplattform mitgeteilt, die eine Verringerung der Zykluszeit an die
Sensoren übermittelt. Ist die automatische Notbremsfiinktion deaktiviert, so wird die Zykluszeit wieder verlängert. In einigen Betriebssituationen ist es sinnvoll, unvollständige Informationen früher zu erhalten. Dies ist beispielsweise dann der Fall, wenn der betroffene Sensor nur zur Plausibilisierung bereits detektierter Objekte dient. In diesem Fall kann in einer Ausführung es ausreichen, bereits dann eine Information zurückzumelden, wenn die sensorinterne Plausibilisierung für ein Objekt noch nicht vollständig abgeschlossen ist, aber ein Objekt erkannt wurde, oder wenn die Objektzustände nur teilweise bekannt sind. Eine entsprechende Steuerinformation wird von der Informationsplattform an den betroffenen Sensor übermittelt.
Weiterhin ist es möglich, die Arbeitsbereiche des Sensors zu priorisieren. So kann beispielsweise die Priorisierung zwischen Spurdetektion und Objektdetektion eines Videosensors verschoben werden, beispielsweise dann, wenn in Städten die Spurdetektion eine niedrigere Priorisierung gegenüber der Objektdetektion hat. In diesem Fall wird beispielsweise die Objektdetektion häufiger durchgeführt als die Spurdetektion.
Dadurch wird eine optimalerer Ressourcenaύsnützung erreicht. Eine entsprechende Information über den Betriebszustand wird der Informationsplattform zugeführt (z.B. von den angeschlossenen Funktionen), die dann wiederum entsprechende Daten an den oder die betroffenen Sensoren übermittelt.
In Figur 5 ist ein Λblaufdiagramm skizziert, welches am Beispiel der Bildung und Übermittlung von Detektionsbereichsdalen die Funktionsweise der Informationsplattform verdeutlicht. Das skizzierte Programm wird in vorgegebenen Zeitintervallen durchlaufen. In einem ersten Schritt 200 werden von einem ersten Sensor, beispielsweise von einem Radarsensor, Objektdaten empfangen. Diese Objektdaten umfassen Daten bezüglich detektierter Objekte wie Ort des Objekts (beispielsweise Winkelbeziehungen oder Koordinaten), die Relativgeschwindigkeit oder Absolutgeschwindigkeit des Objekts, der Abstand zu dem Objekt, seine Bewegungsrichtung, etc.. Im bevorzugten Ausfuhrungsbeispiel werden für verschiedene delektierte Objekte die entsprechenden Daten als Liste übermittelt. Daraufhin werden im Schritt 202 auf der Basis der erfassten
Objektdaten Detektionsbereiche (ROI) gebildet. Beispielsweise wird der Ort des detektierten Objektes mit Variantenwerten bewertet und auf diese Weise ein Detektionsbereich aufgespannt. Sind die Bezugssysteme der einzelnen Sensoren und / oder der Informationsplattform unterschiedlich, so müssen die Daten selbstverständlich in die entsprechenden Bezugssysteme transformiert werden.
Eine andere Möglichkeit ist, nicht nur den Mittelpunkt des detektierten Objektes als Basis für die Berechnung des Detektionsbereichs heranzuziehen, sondern auch die Geschwindigkeit des Objektes, wobei bei größerer Geschwindigkeit des Objektes ein größerer Detektionsbereich abzustecken ist, der zudem in einer Ausführung entsprechend der Bewegungsrichtung des Objekt derart angepasst wird, dass er in Bewegungsrichtung größer ist als zur Seite oder nach hinten.
Danach werden im Schritt 204 Identifikationsnummern den einzelnen Detektionsbereichen zugeordnet. Femer wird in einer Ausführung im Schritt 206 jeder
Detektionsbereich mit Prioritätswerten versehen. Im bevorzugten Ausführungsbeispiel ist der Detektionsbereich mit höchster Priorität zu behandeln, der ein Objekt repräsentiert, welches dem Fahrzeug am nächsten steht. Im darauffolgenden Schritt 208 werden die Daten zu den Detektionsbereichen an einen anderen Sensor, beispielsweise den Videosensor, übertragen, der die Aufgabe der Objektdetektion in den besonderen
Detektionsbereichen ausführt. DieΑbarbeitung meldet der Videosensorik gegebenenfalls mit einem Zeitstempel an die Informationsplattform zurück, ebenso das Ergebnis, beispielsweise ob ein vom Radarsensor detektiertes Objekt plausibilisiert werden konnte oder nicht. Im ersteren Fall wird die Information an die nachfolgenden Funktionalitäten weitergegeben, im anderen Fall verworfen.