DE10254806B4 - Verfahren zur Informationsverarbeitung - Google Patents

Verfahren zur Informationsverarbeitung Download PDF

Info

Publication number
DE10254806B4
DE10254806B4 DE2002154806 DE10254806A DE10254806B4 DE 10254806 B4 DE10254806 B4 DE 10254806B4 DE 2002154806 DE2002154806 DE 2002154806 DE 10254806 A DE10254806 A DE 10254806A DE 10254806 B4 DE10254806 B4 DE 10254806B4
Authority
DE
Germany
Prior art keywords
information
sensor
sources
processing unit
motor vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE2002154806
Other languages
English (en)
Other versions
DE10254806A1 (de
Inventor
Frank Ewerhart
Werner Poechmüller
Wolfgang Niehsen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE2002154806 priority Critical patent/DE10254806B4/de
Publication of DE10254806A1 publication Critical patent/DE10254806A1/de
Application granted granted Critical
Publication of DE10254806B4 publication Critical patent/DE10254806B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • B60Q1/085Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/12Steering parameters
    • B60Q2300/122Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/13Attitude of the vehicle body
    • B60Q2300/134Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/32Road surface or travel path
    • B60Q2300/322Road curvature
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/32Road surface or travel path
    • B60Q2300/324Road inclination, e.g. uphill or downhill
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/33Driving situation
    • B60Q2300/332Driving situation on city roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/33Driving situation
    • B60Q2300/333Driving situation on suburban or country roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/33Driving situation
    • B60Q2300/334Driving situation on motorways
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/33Driving situation
    • B60Q2300/335Number or size of road lanes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/42Indexing codes relating to other road users or special conditions oncoming vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zur Verarbeitung von Informationen von wenigstens zwei Informationsquellen in einem Kraftfahrzeug, wobei durch Fusion von den Informationen der wenigstens zwei Informationsquellen wenigstens eine fusionierte Ausgangsinformation über den Fahrbahnverlauf und/oder den Straßentyp erzeugt wird, und wobei die Fusion durch Vereinigung von sich entsprechenden Informationen der wenigstens zwei Informationsquellen durchgeführt wird, und wobei die wenigstens eine fusionierte Ausgangsinformation durch gewichtete Fusion der Informationen von den wenigstens zwei Informationsquellen in Abhängigkeit von Maßen für die Güte von mindestens zweien der Informationen erzeugt wird, und wobei in Abhängigkeit der wenigstens einen fusionierten Ausgangsinformation wenigstens ein Beleuchtungsmittel des Kraftfahrzeuges eingestellt wird.

Description

  • Stand der Technik
  • Die Erfindung betrifft ein Verfahren zur Verarbeitung von Informationen von wenigstens zwei Informationsquellen in einem Kraftfahrzeug.
  • Die Anpassung der Lichtverteilung des Abblendlichtes und/oder des Fernlichtes eines Kraftfahrzeuges an den Fahrbahnverlauf trägt zu einer Verbesserung der Ausleuchtung der vor dem Kraftfahrzeug liegenden Straße gegenüber einer statischen Lichtverteilung bei. Dies lässt sich durch eine dynamische Veränderung, beispielsweise durch horizontale und/oder vertikale Schwenkung der Lichtverteilung, erreichen. Alternativ oder zusätzlich ist es möglich eine quasi-statische Lichtverteilung durchzuführen. Unter der quasi-statischen Lichtverteilung wird eine Lichtverteilung verstanden, die an den aktuell vorliegenden Straßentyp angepasst ist. Im ersten Fall erfolgt die Anpassung der Lichtverteilung in Abhängigkeit des Fahrbahnverlaufes, während eine quasi-statischen Lichtverteilung in Abhängigkeit des Straßentyps erfolgt.
  • Aus der deutschen Offenlegungsschrift DE 197 13 884 A1 ist beispielsweise ein Verfahren zur Regelung der Leuchtweite und Leuchtrichtung von Scheinwerfern in einem Kraftfahrzeug bekannt. Eine Kamera sammelt Informationen über die Umgebung des Kraftfahrzeuges. Aus diesen Informationen wird der Fahrbahnverlauf ermittelt. Die Scheinwerfereinstellung wird an den ermittelten Fahrbahnverlauf entsprechend angepasst.
  • In der deutschen Offenlegungsschrift DE 197 56 574 A1 wird eine Beleuchtungseinheit für ein Kraftfahrzeug vorgeschlagen. Eine Umgebungsdetektionsvorrichtung ermittelt aus Signalen von Umgebungssensoren, wie einer Kamera oder einem Abstandsradar, Informationen über die Fahrumgebung des Kraftfahrzeuges. Eine Modusbestimmungsvorrichtung bestimmt den Fahrmodus. In Abhängigkeit des bestimmten Fahrmodus wird die von der Beleuchtungseinheit durchgeführte Beleuchtung gesteuert. Hinweise auf ein Verfahren zur Erhöhung der Zuverlässigkeit der Ermittlung des Fahrbahnverlaufes fehlen in der DE 197 56 574 A1 .
  • Aus der US 2002/0080618 A1 ist eine Fahrzeugscheinwerfereinrichtung mit einer Karteninformationsakquisitionsvorrichtung und einer Umgebungszustandsfeststellvorrichtung bekannt.
  • Vorteile der Erfindung
  • Das nachfolgend beschriebene Verfahren und die Verarbeitungseinheit zur Verarbeitung von Informationen von wenigstens zwei Informationsquellen in einem Kraftfahrzeug haben den Vorteil, dass die Genauigkeit der Ausgangsinformation über den Fahrbahnverlauf und/oder den Straßentyp durch Fusion der Informationen gegenüber der einzelnen Verwendung der Informationen von einer Informationsquelle erhöht werden kann. Alternativ oder zusätzlich kann die Genauigkeit der Ausgangsinformation über die Verkehrsführung, wie beispielsweise das Vorhandensein von Kreuzung und/oder von Unterführungen und/oder von Tunneln, erhöht werden. Informationen von Informationsquellen sind im allgemeinen mit Toleranzen und/oder Messfehlern behaftet. Durch die kooperative Verarbeitung von Informationen zum Fahrbahnverlauf und/oder von Informationen vom Kraftfahrzeugumfeld, beispielsweise dem Straßentyp, von verschiedenen Informationsquellen tragen das Verfahren und die Verarbeitungseinheit in vorteilhafter Weise zum einen zur Verringerung des Fehlers der Ausgangsinformation im Vergleich zu den Fehlern der Informationen der einzelnen Informationsquellen und zum anderen zur Erweiterung des Erfassungsbereiches bei. Die Fusion von Informationen von wenigstens zwei Informationsquellen, beispielsweise einem Bildsensor und einem Navigationssystem, führt zu einer Erweiterung des Erfassungsbereiches, da der Bildsensor und das Navigationssystem überlappende aber nicht deckende Erfassungsbereiche aufweisen. Gleichzeitig tragen das Verfahren und die Verarbeitungseinheit in besonders vorteilhafter Weise zur Erhöhung der Verfügbarkeit von Ausgangsinformationen über den Fahrbahnverlauf und/oder den Straßentyp bei. Durch das nachfolgend beschriebene Verfahren und die Verarbeitungseinheit wird beispielsweise ein Ausfall einer Informationsquelle durch die Verwendung der redundant vorhandenen Informationen wenigstens einer weiteren Informationsquelle zumindest teilweise kompensiert. Hierdurch wird insgesamt eine höhere Verfügbarkeit der erzeugten Ausgangsinformationen über den Fahrbahnverlauf und/oder den Straßentyp erreicht. Das Verfahren und die Verarbeitungseinheit tragen in vorteilhafter Weise zu einer Erhöhung der Dynamik bei der Erzeugung von Ausgangsinformationen über den Fahrbahnverlauf und/oder den Straßentyp bei. So trägt beispielsweise eine Anpassung von Filterparametern eines zeitlich gefilterten Signals des Fahrbahnverlaufs einer Informationsquelle zu einer schnelleren Anpassung an eine Änderung des Fahrbahnverlaufs bei, wenn aufgrund von Informationen wenigstens einer zweiten Informationsquelle die bevorstehende Änderung des Fahrbahnverlaufes erwartet werden kann. Somit kann die zeitliche Dynamik der Informationen der Informationsquellen verbessert werden. Zusammenfassend führt das nachfolgend beschriebene Verfahren und die Vorrichtung in besonders vorteilhafter Weise zu einer zuverlässigen und robusten Erzeugung von fusionierten Ausgangsinformationen über den Fahrbahnverlauf und/oder den Straßentyp durch Fusion von Informationen von wenigstens zwei Informationsquellen in einem Kraftfahrzeug.
  • Vorteilhaft ist die Erzeugung von fusionierten Ausgangsinformationen in einem Assoziationsschritt und einem Fusionsschritt aus sich entsprechenden Informationen von wenigstens zwei Informationsquellen. Die Assoziation der Informationen und die anschließende Fusion ermöglicht eine einfache Erzeugung der wenigstens einen fusionierten Ausgangsinformation.
  • Besonders vorteilhaft ist die gewichtete Fusion der Informationen von wenigstens zwei Informationsquellen zur Erzeugung der fusionierten Ausgangsinformation über den Fahrbahnverlauf und/oder den Straßentyp. Bei der gewichteten Fusion der Informationen werden die Informationen in Abhängigkeit wenigstens eines Parameters, der wenigstens einer Information zugeordnet ist, fusioniert. Die Informationen einer Informationsquelle gehen in die Erzeugung der fusionierten Ausgangsinformation in Abhängigkeit dieses wenigstens einen Parameters unterschiedlich ein. Hierdurch ist es beispielsweise möglich, Informationen mit einer großen Toleranz bei der Fusion der Ausgangsinformationen wenig zu berücksichtigen. Vorteilhaft ist hierbei insbesondere die gewichtete Fusion der Informationen von den wenigstens zwei Informationsquellen in Abhängigkeit eines Maßes für die Güte der Informationen.
  • Vorteilhaft ist die Verarbeitung von Informationen von wenigstens zwei Informationsquellen, wobei die Informationsquellen wenigstens ein Umfeldsensor und/oder wenigstens eine Umfeldinformationsquelle und/oder wenigstens ein Kraftfahrzeugsensor ist. Jeder der verwendeten Informationsquellen hat spezifische Eigenschaften, Vorteile und Unzulänglichkeiten. Durch die nachfolgend beschriebene Fusion von Informationen wenigstens eines Umfeldsensors und/oder wenigstens einer Umfeldinformationsquelle und/oder wenigstens eines Kraftfahrzeugsensors wird eine vorteilhafte Erweiterung des Erfassungsbereiches erreicht. Beispielsweise liefern Umfeldinformationsquellen, wie beispielsweise ein Navigationssystem, Informationen über den weiteren Umfeldbereich des Kraftfahrzeuges. Dagegen haben Umfeldsensoren den Vorteil, dass die gelieferten Informationen aktuell sind, da sie die Situation zum gegenwärtigen Zeitpunkt beschreiben. Das nachfolgend beschriebene Verfahren und die Verarbeitungseinheit kombinieren durch die Erzeugung von fusionierten Ausgangsinformationen bzw. Ausgangssignalen die jeweiligen Vorteile der einzelnen Informationsquellen, während die prinzipiellen oder auch momentanen Unzulänglichkeiten einer Informationsquelle entsprechend bei der Fusion berücksichtigt werden.
  • Besonders vorteilhaft ist die Einstellung wenigstens eines Betriebsmittels eines Kraftfahrzeuges in Abhängigkeit wenigstens einer fusionierten Ausgangsinformation über den Fahrbahnverlauf und/oder den Straßentyp. Dies trägt zu einer vorteilhaften Realisierung von Fahrerassistenzfunktionen und/oder Fahrzeugführungsfunktionen und/oder Sicherheitsfunktionen im Kraftfahrzeug bei, da die Vorteile des Verfahrens und der Vorrichtung, wie hohe Zuverlässigkeit und/oder Genauigkeit, bei der Realisierung dieser Funktionen ebenfalls vorhanden sind. Vorteilhaft ist insbesondere die Einstellung wenigstens eines Beleuchtungsmittels, wie wenigstens ein Scheinwerfer, in Abhängigkeit wenigstens einer fusionierten Ausgangsinformation. Bei der Einstellung von wenigstens einem Beleuchtungsmittel sind Kenntnisse über den Fahrbahnverlauf und/oder den Straßentyp wichtig. Hierdurch wird eine Anpassung der Lichtverteilung des Scheinwerfers eines Kraftfahrzeuges an den Fahrbahnverlauf und/oder den Straßentyp ermöglicht. Für die Fahrerassistenzfunktion zur Lichtsteuerung im Kraftfahrzeug trägt die Nutzung von prädiktiven Informationen über den Fahrbahnverlauf oder den Straßentyp, welche über verschiedene Umfeldsensoren (Video, Radar, LIDAR) und Umfeldinformationsquellen (Digitale Karte und Ortung, Fahrzeug-Fahrzeug-Kommunikation, Fahrzeug-Infrastruktur-Kommunikation) bereitgestellt werden können, zu einer wesentlichen Verbesserung der Leistungsfähigkeit des Systems zur Lichtsteuerung bei. Die Informationen zum Fahrbahnverlauf, beispielsweise wenigstens einem Krümmungsparameter, und/oder zum Straßentyp werden hierbei entweder aus der Geometrie der Fahrbahn im Vorausschaubereich der Sensoren oder aus den Trajektorien erfasster Objekte abgeleitet. Besonders vorteilhaft ist die Verwendung wenigstens einer digitale Karte, welche in Verbindung mit geeigneten Kartenattributen und einer hinreichend genauen Ortungsinformation einen praktisch beliebigen Vorausschaubereich liefert.
  • Vorteilhaft ist ein Verfahren und eine Verarbeitungseinheit bei denen aus den Informationen der wenigstens zwei Informationsquellen die fusionierte Ausgangsinformation über den Fahrbahnverlauf und/oder das fusionierte Ausgangssignal über den Fahrbahnverlauf aus der Trajektorie wenigstens eines erfassten Objektes im Fahrbahnverlauf erzeugt wird. Die Erfassung des wenigstens einen Objektes ist dabei insbesondere durch Fusion von Informationen von wenigstens zwei Informationsquellen möglich. Beispielsweise kann aus dem zeitlichen Verlauf der Position eines vorausfahrenden Kraftfahrzeuges der Fahrbahnverlauf bestimmt werden, da im allgemeinen das vorausfahrende Kraftfahrzeug dem Fahrbahnverlauf folgt.
  • Besonders vorteilhaft ist ein Computerprogramm mit Programmcode-Mitteln, um alle Schritte des nachfolgend beschriebenen Verfahrens durchzuführen, wenn das Programm auf einem Computer ausgeführt wird. Die Verwendung eines Computerprogramms ermöglicht die schnelle und kostengünstige Anpassung des Verfahrens beispielsweise an unterschiedliche Informationsquellen.
  • Vorteilhaft ist eine Schnittstelle von wenigstens zwei informationsverarbeitenden Komponenten in einem Kraftfahrzeug, wobei die Schnittstelle die Übertragung wenigstens eines fusionierten Ausgangssignals von Informationen von wenigstens zwei Informationsquellen und/oder wenigstens einer Güte wenigstens eines fusionierten Ausgangssignals ermöglicht, wobei das wenigstens eine fusionierte Ausgangssignal Informationen über den Fahrbahnverlauf und/oder den Straßentyp enthält. Diese Schnittstelle weist insbesondere die vorstehend beschriebenen Vorteile des Verfahrens und der Verarbeitungseinheit auf.
  • Weitere Vorteile ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen mit Bezug auf die Figuren und aus den abhängigen Patentansprüchen.
  • Zeichnung
  • Die Erfindung wird nachstehend anhand der in der Zeichnung dargestellten Ausführungsformen näher erläutert.
  • Es zeigen:
  • 1 ein Blockdiagramm des bevorzugten Ausführungsbeispiels,
  • 2 ein Ablaufdiagramm des bevorzugten Ausführungsbeispiels,
  • 3 eine Übersichtszeichnung eines weiteren Ausführungsbeispiels.
  • Beschreibung von Ausführungsbeispielen
  • Nachfolgend werden ein Verfahren und eine Verarbeitungseinheit zur Verarbeitung von Informationen von wenigstens zwei Informationsquellen in einem Kraftfahrzeug beschrieben. Durch Fusion von Informationen von wenigstens zwei Informationsquellen wird eine fusionierte Ausgangsinformation über den Fahrbahnverlauf und/oder den Straßentyp erzeugt. Im bevorzugten Ausführungsbeispiel wird aus den Informationen eines Radarsensors, eines Bildsensors und eines Navigationssystems eine fusionierte Ausgangsinformation über den Fahrbahnverlauf und/oder den Straßentyp erzeugt. Die Scheinwerfer des Kraftfahrzeuges werden in Abhängigkeit der fusionierten Ausgangsinformation eingestellt.
  • 1 zeigt ein Blockdiagramm des bevorzugten Ausführungsbeispiels, bestehend aus einem Radarsensor 10, einem Bildsensor 12, einem Navigationssystem 14, einer Verarbeitungseinheit 16, einem ersten Scheinwerfer 18 und einem zweiten Scheinwerfer 20. Bei dem Radarsensor 10 handelt es sich um einen 77-GHz-Long-Range-Radarsensor, der im Bereich der Stoßstange des Kraftfahrzeuges angebracht ist. Alternativ oder zusätzlich ist die Verwendung wenigstens eines 77-GHz-Medium-Range-Radarsensors und/oder wenigstens eines 24-GHz-Short-Range-Radarsensors möglich. Der Bildsensor 12 ist im Innenraum des Kraftfahrzeuges hinter der Windschutzscheibe im Bereich des Innenrückspiegels angebracht. Dabei ist der Bildsensor 12 so ausgerichtet, dass sich der Erfassungsbereich des Bildsensors 12 auf die Umgebung des Kraftfahrzeuges in Fahrtrichtung erstreckt. Bei dem Bildsensor 12 handelt es sich um einen CMOS-Bildsensor und/oder einem CCD-Bildsensor für den sichtbaren Spektralbereich wenigstens zwischen 400 nm und 800 nm. Alternativ oder zusätzlich ist die Verwendung wenigstens eines infrarotsensitiven Bildsensors 12 möglich, wobei der infrarotsensitive Bildsensor 12 wenigstens einen Spektralbereich zwischen 800 nm und 1000 nm erfasst. Bei dem Navigationssystem 14 handelt es sich um ein System, das eine digitale Karte und ein Ortungssystem umfasst. Das Ortungssystem basiert im bevorzugten Ausführungsbeispiel auf dem Global Positioning System (GPS). Der Radarsensor 10, der Bildsensor 12 und das Navigationssystem 14 sind im bevorzugten Ausführungsbeispiel mit der Verarbeitungseinheit 16 über einen Kommunikationsbus 22, beispielsweise einem Controller-Area-Network-Kommunikationsbus (CAN-Bus), verbunden. Die beiden Scheinwerfer 18, 20 des Kraftfahrzeuges sind im bevorzugten Ausführungsbeispiel über einen weiteren Kommunikationsbus 24, beispielsweise ebenfalls einem Controller-Area-Network-Kommunikatonsbus (CAN-Bus), mit der Verarbeitungseinheit 16 verbunden. Alternativ ist es möglich, dass der Radarsensor 10, der Bildsensor 12, das Navigationssystem 14, der erste Scheinwerfer 18 und der zweite Scheinwerfer 20 über einen einzigen Kommunikationsbus mit der Verarbeitungseinheit 16 verbunden sind. Der erste Scheinwerfer 18 und der zweite Scheinwerfer 20 sind rechts und links im vorderen Bereich des Kraftfahrzeuges in der Nähe der Stoßstange angeordnet. Im bevorzugten Ausführungsbeispiel werden Halogenscheinwerfer 18, 20 verwendet. Alternativ oder zusätzlich ist die Verwendung von Gasentladungsscheinwerfern möglich. Die Scheinwerfer 18, 20 erzeugen eine Lichtverteilung mit Abblendlichtcharakteristik und/oder Fernlichtcharakteristik. Zur Einstellung der Lichtverteilung in Abhängigkeit von Ausgangsinformationen der Verarbeitungseinheit 16 sind in den Scheinwerfern 18, 20 eine Datenverarbeitungseinheit und wenigstens eine Stelleinrichtung vorgesehen, um die Lichtverteilung wenigstens in horizontaler und/oder vertikaler Richtung zu verändern. In diesem bevorzugten Ausführungsbeispiel werden Informationen von mehreren Informationsquellen 10, 12, 14 zur Beschreibung des Fahrzeugumfeldes fusioniert und damit die Lichtverteilung der Scheinwerfer 18, 20 des Kraftfahrzeuges an den Fahrbahnverlauf und/oder den Straßentyp angepasst. Bei der Informationsfusion stützen sich mehrere Informationsquellen 10, 12, 14 gegenseitig und so wird als Ergebnis der Fusion eine qualitativ bessere Ausgangsinformation nutzbar. Zur rechtzeitigen und vorausschauenden Einstellung der Lichtverteilung der Scheinwerfer 18, 20 werden prädiktive, fusionierte Ausgangsinformationen über den Fahrbahnverlauf und/oder den Straßentyp verwendet. Allgemein umfasst die Fusion von Informationen von wenigstens zwei Informationsquellen 10, 12, 14 die Vereinigung von sich entsprechenden Informationen von wenigstens zwei Informationsquellen 10, 12, 14 zu wenigstens einer Ausgangsinformation und/oder wenigstens einem Ausgangssignal. Die fusionierten Informationen der wenigstens zwei Informationsquellen 10, 12, 14 weisen dabei den gleichen Umfang und/oder einen sich teilweise ergänzenden Umfang und/oder einen ergänzenden Umfang auf.
  • 2 zeigt ein Ablaufdiagramm des bevorzugten Ausführungsbeispiels. Nachfolgend werden die gegenüber 1 zusätzlichen Komponenten beschrieben, sowie der Ablauf des Verfahrens und der Aufbau der Verarbeitungseinheit 16 dargestellt. In diesem bevorzugten Ausführungsbeispiel wird zur prädiktiven Lichtsteuerung der Scheinwerfer 18, 20 der Verlauf der Fahrbahn vor dem Fahrzeug und/oder der Straßentyp und/oder entgegenkommende Kraftfahrzeuge bestimmt. Der Verlauf der Fahrbahn wird mit einem Modell für den Fahrbahnverlauf beschrieben. Einer der Modellparameter des Modells für den Fahrbahnverlauf ist im bevorzugten Ausführungsbeispiel der Kurvenradius. Alternativ oder zusätzlich wird die horizontale Krümmung der Fahrbahn als inverser Wert des Kurvenradius verwendet. Sowohl aus dem Navigationssystem 14 als auch mit Hilfe einer videobasierten Fahrbahnranderkennung mittels des Bildsensors 12 wird dieser Parameter sowie alle anderen Modellparameter des Modells des Fahrbahnverlaufs geschätzt. Als weitere Modellparameter werden in einer Variante des bevorzugten Ausführungsbeispiels alternativ oder zusätzlich die Zahl der Fahrspuren und/oder die Breite der Fahrspur und/oder die Breite der Fahrbahn und/oder die Orientierung des Kraftfahrzeuges relativ zum Fahrspurverlauf, beispielsweise der Gierwinkel zwischen Fahrzeuglängsachse und dem Fahrspurverlauf, und/oder der Spurversatz, also die Position des Kraftfahrzeuges innerhalb der Fahrspur, und/oder ein Parameter über die vom Kraftfahrzeug auf einer mehrspurigen Fahrbahn genutzten Fahrspur und/oder die vertikale Krümmung der Fahrbahn und/oder die Entfernung zu Kreuzungen und/oder das Vorhandensein von Kreuzungen verwendet. Der Parameter der vertikalen Krümmung der Fahrbahn kann beispielsweise zu einer besseren Ausleuchtung von Kuppen und Senken verwendet werden. Die Güte und Robustheit der Schätzung der einzelnen Modellparameter hängen dabei von den Eigenschaften der verwendeten Informationsquelle, sowie von der aktuellen Situation, in der die Messung erfolgt, ab. Beispielsweise beeinflusst die Genauigkeit der digitalisierten Karte und/oder die Genauigkeit der Ortung und/oder die optischen Eigenschaften des verwendeten Bildsensors 12 grundsätzlich die Qualität der einzelnen Modellparameter. Die Qualität der Schätzwerte (für die Modellparameter) des Fahrbahnverlaufs wird zusätzlich von den Wetterbedingungen und/oder der Qualität der Fahrbahnrandmarkierung beeinflusst. Diese Beeinflussung der Qualität gilt beispielsweise für den Bildsensor 12. Das Prinzip der Informationsfusion nutzt die Redundanz der Informationen mehrerer Informationsquellen. Dabei können die Informationsquellen nach einem gleichartigen Messprinzip und/oder wie im bevorzugten Ausführungsbeispiel nach unterschiedlichem Messprinzip arbeiten. In diesem bevorzugten Ausführungsbeispiel werden die redundant gewonnenen Schätzwerte für die Modellparameter aus videobasierter Fahrbahnranderkennung und aus dem Navigationssystem 14 entsprechend ihrer Güte gewichtet und gehen in die Informationsfusion ein. Der in der Informationsfusion berechnete neue Schätzwert der Modellparameter ist hinsichtlich der Güte besser als der Schätzwert aus den Einzelmessungen der Informationsquellen. Im bevorzugten Ausführungsbeispiel wird als Algorithmus die gewichtete Mittelwertbildung verwendet. Bei geringer Güte der Parameter einer der verwendeten Informationsquellen wird der aus der Informationsfusion gewonnene Schätzwert durch die redundanten Informationen der anderen Informationsquellen stabilisiert. Im bevorzugten Ausführungsbeispiel überträgt der Radarsensor 10 einen Parameter 100 zur Verarbeitungseinheit 16. Dieser Parameter 100 beschreibt die Position und/oder die Geschwindigkeit und/oder die Beschleunigung und/oder den Typ wenigstens eines entgegenkommenden Kraftfahrzeuges. Neben diesem Parameter 100 über entgegenkommende Kraftfahrzeuge überträgt der Radarsensor 10 gleichzeitig die Güte 102 dieses Parameters 100. Die Güte 102 des Parameters 100 über entgegenkommende Kraftfahrzeuge erzeugt der Radarsensor 10 durch Analyse der Radarsignale. In 2 sind der Parameter 100 und die zugehörige Güte 102 in der geschweiften Klammer angegeben. Der Pfeil vom Radarsensor 10 zur Verarbeitungseinheit 16 symbolisiert den Informationsfluss der Daten in der geschweiften Klammer. Vom Bildsensor 12 werden im bevorzugten Ausführungsbeispiel ein erster Parameter 104 und ein zweiter Parameter 108 zur Verarbeitungseinheit 16 übertragen. Der erste Parameter 104 beschreibt die horizontale Krümmung der Fahrbahn, während der zweite Parameter 108 die Position und/oder die Geschwindigkeit und/oder die Beschleunigung und/oder den Typ wenigstens eines entgegenkommenden Kraftfahrzeuges beschreibt. Neben dem ersten Parameter 104 und dem zweiten Parameter 108 überträgt der Bildsensor 12 gleichzeitig die Güte 106 des ersten Parameters 104 über die Krümmung der Fahrbahn und die Güte 110 des zweiten Parameters 108 über entgegenkommende Kraftfahrzeuge. Die Güten 106, 110 der Parameter 104, 108 erzeugt der Bildsensor 12 durch Analyse der Bilddaten. In 2 sind der erste Parameter 104 und der zweite Parameter 108, sowie die zugehörigen Güten 106, 110 jeweils zusammen in einer geschweiften Klammer angegeben. Der Pfeil vom Bildsensor 12 zur Verarbeitungseinheit 16 symbolisiert den Informationsfluss der Daten in der geschweiften Klammer. Vom Navigationssystem 14 werden ein erster Parameter 112 und ein zweiter Parameter 116 zur Verarbeitungseinheit 16 übertragen. Der erste Parameter 112 beschreibt die horizontale Krümmung der Fahrbahn, während der zweite Parameter 116 den Straßentyp beschreibt. Der Parameter für den Straßentyp gibt einen Wert an, der die Leistungsfähigkeit der Straße beschreibt. Die Leistungsfähigkeit der Straße wird durch den Typ der Straße, wie Stadtstraße, Landstraße oder Autobahn beeinflusst. In einer Variante des bevorzugten Ausführungsbeispiels werden als weitere Parameter des Navigationssystems 14 wenigstens ein Parameter über die Anzahl der Fahrspuren und/oder wenigstens ein Parameter über Geschwindigkeitsbegrenzungen verwendet. Neben dem ersten Parameter 112 und dem zweiten Parameter 116 überträgt das Navigationssystem 14 gleichzeitig die Güte 114 des ersten Parameters 112 über die Krümmung der Fahrbahn und die Güte 118 des zweiten Parameters 116 über den Straßentyp. Die beiden Güten 114, 118 der beiden Parameter 112, 116 werden durch die Eigenschaften des Navigationssystems 14, wie die Auflösung der digitalen Karte, festgelegt. In 2 sind der erste Parameter 112 und der zweite Parameter 116, sowie die zugehörigen Güten 114, 118 jeweils zusammen in einer geschweiften Klammer angegeben. Der Pfeil vom Navigationssystem 14 zur Verarbeitungseinheit 16 symbolisiert den Informationsfluss der Daten in der geschweiften Klammer. Im bevorzugten Ausführungsbeispiel findet im Radarsensor 10, im Bildsensor 12 und in dem Navigationssystem 14 eine Vorverarbeitung statt. Dies führt dazu, dass die zu übertragenden Informationen von den Informationsquellen 10, 12, 14 zur Verarbeitungseinheit 16 reduziert werden. Die Verarbeitungseinheit 16 besteht im bevorzugten Ausführungsbeispiel aus zwei Modulen 26, 28, die im bevorzugten Ausführungsbeispiel als Programme wenigstens eines Mikroprozessors ausgestaltet sind. Das erste Modul 26, nachfolgend als Assoziationsmodul 26 bezeichnet, dient zur Assoziation der Informationen der Informationsquellen, also des Radarsensors 10, des Bildsensors 12 und des Navigationssystems 14. Das zweite Modul 28, nachfolgend als Fusionsmodul 28 bezeichnet, hat die Aufgabe, die Fusion der Informationen durchzuführen. Im Assoziationsmodul 26 werden die übertragenen Parameter 100, 104, 108, 112, 116 der Informationsquellen analysiert und sich entsprechende oder gleichartige Parameter 100, 104, 108, 112, 116 werden assoziiert und zusammengefasst. In 2 sind drei Pfeile vom Assoziationsmodul 26 zum Fusionsmodul 28 eingetragen. Ein erster Pfeil symbolisiert die zusammengefasste Übertragung der Parameter 100, 108 über entgegenkommende Kraftfahrzeuge vom Radarsensor 10 und vom Bildsensor 12 mit den jeweils zugehörigen Güte 102, 110 der beiden Parameter 100, 108 über entgegenkommende Kraftfahrzeuge. Die Zusammengehörigkeit dieser beiden Parameter 100, 108 mit den entsprechenden Güten 102, 110 wird in 2 durch eine eckige Klammer symbolisiert. Ein zweiter Pfeil symbolisiert die zusammengefasste Übertragung der Parameter 104, 112 über die horizontale Krümmung der Fahrbahn vom Bildsensor 12 und vom Navigationssystem 14 mit den jeweils zugehörigen Güten 106, 114 dieser beiden Parameter 104, 112. Die Zusammengehörigkeit dieser beiden Parameter 104, 112 mit den entsprechenden Güten 106, 114 wird in 2 durch eine eckige Klammer symbolisiert. Schließlich symbolisiert ein dritter Pfeil die Übertragung des Parameters 116 des Straßentyps vom Navigationssystem 14 mit der zugehörigen Güte 118. Da im bevorzugten Ausführungsbeispiel kein entsprechender Parameter wenigstens einer weiteren Informationsquelle vorhanden ist, wird dieser Parameter 116 mit keinem weiteren Parameter assoziiert. In einer Variante des Ausführungsbeispiels wird der Parameter 116 des Straßentyps mit wenigstens einem weiteren Parameter des Straßentyps wenigstens einer weiteren Informationsquellen, beispielsweise wenigstens einem Bildsensorsystem 12, assoziiert und schließlich fusioniert. Im Fusionsmodul 28 werden die übertragenen, assoziierten Parameter zu einer fusionierten Ausgangsinformation fusioniert und im bevorzugten Ausführungsbeispiel die Parameter 120, 124, 128 mit der jeweils zugehörigen Güten 122, 126, 130 an den ersten Scheinwerfer 18 und den zweiten Scheinwerfer 20 übertragen. In diesem Ausführungsbeispiel wird ein Parameter 120 über entgegenkommende Fahrzeuge mit der zugehörigen Güte 122, ein Parameter 124 über die horizontale Krümmung der Fahrbahn mit der zugehörigen Güte 126, sowie ein Parameter 128 über den Straßentyp mit der zugehörigen Güte 130 übertragen. Jeweils ein Parameter 120, 124, 128 ist mit seiner jeweiligen Güten 122, 126, 130 in 2 in einer geschweiften Klammer dargestellt. Beispielhaft wird nachfolgend die Fusion des Parameters 124 über die horizontale Krümmung der Fahrbahn im bevorzugten Ausführungsbeispiel dargestellt. In Abhängigkeit der Güten 106, 114 der beiden Parameter 104, 112 über die horizontale Krümmung der Fahrbahn vom Bildsensor 12 und vom Navigationssystem 14 werden die Gewichte W104 und W112 dieser beiden Parameter 104, 112 ermittelt. Dabei ist die Gewichtung eines Parameters 104, 112 um so geringer, je schlechter die Güte eines Parameters 104, 112 ist. Im bevorzugten Ausführungsbeispiel berechnet sich der fusionierte Parameter 124 über die horizontale Krümmung der Fahrbahn nach folgender Formel, wobei die Parameter mit dem Formelzeichen P und die Gewichte mit dem Formelzeichen W bezeichnet sind: P124 = W104·P104 + W112·P112
  • Die Gewichte W haben die Eigenschaften, dass jedes Gewicht größer oder gleich 0 ist und die Summe der Gewichte W104 + W112 = 1 ist. Die von der Verarbeitungseinheit 16 zu dem ersten Scheinwerfer 18 und dem zweiten Scheinwerfer 20 übertragenen Güten 122, 126, 130 werden im bevorzugten Ausführungsbeispiel aus den Güten 102, 106, 110, 114, 118 berechnet, die vom Radarsensor 10, vom Bildsensor 12 und vom Navigationssystem 14 erzeugt werden. In diesem Beispiel des bevorzugten Ausführungsbeispiels ist die Güte 106 des Parameters 104 der Kehrwert der Standardabweichung σ104 der Messwerte für den Parameter 104. Entsprechend ist die Güte 114 des Parameters 112 der Kehrwert der Standardabweichung σ112 des Parameters 112. Dann ist das Gewicht W104 = σ112/(σ104 + σ112) und W112 = σ104/(σ104 + σ112). Die Standardabweichung σ124 des fusionierten Parameters 124 wird berechnet als σ124 = (σ112·σ104)/(σ104 + σ112). Damit ist die Güte 126 des fusionierten Parameters 124 im bevorzugten Ausführungsbeispiel 1/σ124.
  • 3 zeigt eine Übersichtszeichnung eines weiteren Ausführungsbeispiels für die in 1 und 2 beschriebene Assistenzfunktion zur Lichtsteuerung in einem Kraftfahrzeug, bestehend aus Informationsquellen 10, 12, 14, 30, 32, 34, 36, 38, 40, 42, 44, einer Verarbeitungseinheit 46, und Funktionen 50, 52, 54, 56, 58, 60, 62, 64 in einem Kraftfahrzeug. In diesem weiteren Ausführungsbeispiel ist die Verarbeitungseinheit 46 eine multifunktionale Informationsplattform 46. Die Informationsplattform 46 bildet eine Hardware-Abstraktionsschicht zwischen den Informationsquellen 10, 12, 14, 30, 32, 34, 36, 38, 40, 42, 44 und der Funktion zur Lichtsteuerung 50 und/oder weiteren Funktionen 52, 54, 56, 58, 60, 62, 64. Als Informationsquellen 10, 12, 14, 30, 32, 34, 36, 38, 40, 42, 44 werden in diesem Ausführungsbeispiel wenigstens ein Radarsensor 10 und/oder wenigstens ein Bildsensor 12 und/oder wenigstens ein LIDAR-Sensor 30 und/oder wenigstens ein Ultraschallsensor 32 und/oder wenigstens ein Gierratensensor 34 und/oder wenigstens ein Querbeschleunigungssensor 36 und/oder wenigstens ein Raddrehzahlsensor 38 und/oder wenigstens ein Lenkwinkelsensor 40 und/oder wenigstens ein Navigationssystem 14 und/oder wenigstens ein System 42 zur Kraftfahrzeug-Kraftfahrzeug-Kommunikation und/oder wenigstens ein System 44 zur Kraftfahrzeug-Infrastruktur-Kommunikation verwendet. Der wenigstens eine Radarsensor 10 und/oder der wenigstens eine Bildsensor 12 und/oder der wenigstens eine LIDAR-Sensor 30 und/oder der wenigstens eine Ultraschallsensor 32 bilden die Gruppe der Umfeldsensoren, die Informationen über das Umfeld des Kraftfahrzeuges erzeugen. Demgegenüber sind der wenigstens eine Gierratensensor 34 und/oder der wenigstens eine Querbeschleunigungssensor 36 und/oder der wenigstens eine Raddrehzahlsensor 38 und/oder der wenigstens eine Lenkwinkelsensor 40 Kraftfahrzeugsensoren, die vorzugsweise Informationen über das Kraftfahrzeug selbst erzeugen. Informationen wenigstens eines Kraftfahrzeugsensors, beispielsweise wenigstens eines Lenkwinkelsensors 40 und/oder wenigstens eines Gierratensensors 34 (Drehratensensor), werden insbesondere zur Initialisierung und/oder Stützung der Informationsfusion der Umfeldsensoren und/oder der Umfeldinformationsquellen genutzt. Das wenigstens eine Navigationssystem 14 und/oder das wenigstens eine System 42 zur Kraftfahrzeug-Kraftfahrzeug-Kommunikation und/oder das wenigstens eine System 44 zur Kraftfahrzeug-Infrastruktur-Kommunikation werden in der Gruppe der Umfeldinformationsquellen zusammengefasst. Umfeldinformationsquellen zeichnen sich dadurch aus, dass sie Informationen über die Umgebung des Kraftfahrzeuges bereitstellen, ohne eine sensorische Funktion zu haben. Systeme 42 zur Kraftfahrzeug-Kraftfahrzeug-Kommunikation tauschen Informationen bidirektional zwischen einem ersten und wenigstens einem zweiten Kraftfahrzeug aus. Beispielsweise wird die Übertragung der Fahrgeschwindigkeit von einem vorausfahrenden ersten Kraftfahrzeug zum nachfolgenden zweiten Kraftfahrzeug durch ein System 42 zur Kraftfahrzeug-Kraftfahrzeug-Kommunikation durchgeführt. Demgegenüber ermöglichen Systeme 44 zur Kraftfahrzeug-Infrastruktur-Kommunikation den Datenaustausch zwischen wenigstens einem Kraftfahrzeug und wenigstens einer Infrastruktur der Umgebung des Kraftfahrzeugs. Beispielsweise stellen Systeme 44 zur Kraftfahrzeug-Infrastruktur-Kommunikation die Übertragung von Informationen von Verkehrsschildern im Fahrbahnverlauf zur Verfügung. In diesem Ausführungsbeispiel werden fusionierte Ausgangsinformationen bzw. Ausgangssignale über den Fahrbahnverlauf und/oder den Straßentyp für wenigstens eine Funktion 50, 52, 54, 56, 58, 60, 62, 64 im Kraftfahrzeug bereitgestellt. Insbesondere werden die Ausgangsinformationen für Fahrerassistenzfunktionen, wie die in 1 und 2 beschriebene Lichtsteuerung 50 und/oder die Spurverlassenswarnung 52, verwendet. Alternativ oder zusätzlich ist in diesem Ausführungsbeispiel vorgesehen, die fusionierte Ausgangsinformationen über den Fahrbahnverlauf und/oder den Straßentyp für Sicherheitsfunktionen von sicherheitstechnischen Systemen, wie Gurtstraffer 54 und/oder für die Funktion des Airbags 56 einzusetzen. Weiterhin ist alternativ oder zusätzlich die Realisierung von Fahrzeugführungsfunktionen, wie einer automatischen Kraftfahrzeugführung 58 und/oder einem automatischen Bremsen 60 und/oder einem automatischen Ausweichen 62 und/oder der Funktion des Adaptive Cruise Controls (ACC) 64, möglich. Das Adaptive Cruise Control 64 ist ein Verfahren zur adaptiven Fahrgeschwindigkeitsregelung in einem Kraftfahrzeug. Als Betriebsmittel werden beispielsweise wenigstens ein Anzeigemittel und/oder wenigstens ein Gurtstraffer 54 und/oder wenigstens ein Airbag 56 und/oder wenigstens eine Radbremse und/oder wenigstens ein Betriebsmittel zur Fahrzeuglenkung und/oder wenigstens ein Motorsteuergerät in Abhängigkeit der wenigstens einen fusionierten Ausgangsinformation eingestellt. In einer weiteren Variante werden alternativ oder zusätzlich zu den fusionierten Ausgangsinformationen und/oder den fusionierten Ausgangssignalen über den Fahrbahnverlauf und/oder den Straßentyp je nach Funktion weitere fusionierte Ausgangsinformationen gewonnen und eingesetzt. Alternativ oder zusätzlich wird in einer Variante wenigstens ein Betriebsmittel direkt von der Verarbeitungseinheit in Abhängigkeit der fusionierten Ausgangsinformationen angesteuert, ohne dass die Übertragung der fusionierten Ausgangsinformationen und/oder der Güte der fusionierten Ausgangsinformation an das wenigstens eine Betriebsmittel erfolgt.
  • Die Fusion von Informationen von wenigstens zwei Informationsquellen zu wenigstens einer fusionierten Ausgangsinformation (Ausgangssignal) über den Fahrbahnverlauf und/oder den Straßentyp und die Einstellung wenigstens eines Betriebsmittels eines Kraftfahrzeuges, beispielsweise wenigstens eines Scheinwerfers bei der Funktion der Lichtsteuerung, in Abhängigkeit der wenigstens einen fusionierten Ausgangsinformation wird bei einer systematischen Deaktivierung wenigstens einer Informationsquelle, beispielsweise des wenigstens einen Bildsensors, der Informationsplattform deutlich. Falls eine Fusion von Informationen von wenigstens zwei Informationsquellen durchgeführt wird, ist im Falle von geeigneten Szenarien bei der Deaktivierung wenigstens einer der wenigstens zwei Informationsquellen eine qualitative und/oder quantitative Änderung der Funktionalität zu beobachten. Beispielhaft wird dies nachfolgend bei der Lichtsteuerung durch Fusion von Informationen wenigstens eines Bildsensors und wenigstens eines Kraftfahrzeugsensors des Elektronischen Stabilitätsprogramms (ESP), beispielsweise wenigstens eines Gierratensensors, beschrieben. Beim Durchfahren eines Übergangs von einem geraden zu einem gekrümmten Streckenabschnitt wird infolge der Fusion der Informationen der Lichtkegel des wenigstens einen Scheinwerfers bereits vor dem Eintritt in den gekrümmten Fahrbahnabschnitt in diesen geschwenkt, d. h. die Lichtsteuerung arbeitet bei nicht deaktivierten Bildsensor prädiktiv. Dagegen wird beispielsweise bei einem abgedeckten Bildsensor weiterhin eine Lichtsteuerung zu beobachten sein, jedoch wird der Lichtkegel erst im gekrümmten Fahrbahnabschnitt geschwenkt.
  • In einer Variante der vorstehend beschriebenen Ausführungsbeispiele werden von wenigstens einer Informationsquelle Rohdaten zur Verarbeitungseinheit übertragen. Unter Rohdaten werden in diesem Zusammenhang nicht aufbereitete Daten der Informationsquellen verstanden. Bei einem Bildsensor sind die Rohdaten beispielsweise die Bildsignale. In der Verarbeitungseinheit wird anschließend entsprechend dem vorher beschriebenen Verfahren die Erzeugung der fusionierten Ausgangsinformation über den Fahrbahnverlauf und/oder den Straßentyp durchgeführt. Damit wird Rechenkapazität von wenigstens einer Informationsquelle in die Verarbeitungseinheit konzentriert, da die Aufbereitung der Rohdaten durch die Verarbeitungseinheit erfolgt.
  • In einer weiteren Variante wird wenigstens eine fusionierte Ausgangsinformation an wenigstens eine Informationsquelle übertragen. Damit wird eine Rückwirkung der Ergebnisse der Informationsfusion auf die einzelnen Informationsquellen erreicht. Beispielsweise tragen Informationen aus der videobasierten Fahrspurerkennung zu einer Verbesserung der Zuordnung der Fahrzeugposition in der digitalen Karte durch das Ortungssystem bei. Dadurch ist es möglich, die Güte des Navigationssystems (bestehend aus digitaler Karte und Ortung) zu verbessern. Anderseits trägt die Übertragung von wenigstens einer fusionierten Ausgangsinformation zu wenigstens einem Bildsensor dazu bei, dass die Bildverarbeitung im Bildsensor auf den bevorstehenden Fahrbahnverlauf, wie beispielsweise enge Kurven und/oder Kreuzung, vorbereitet wird. Dies wird dadurch möglich, dass die fusionierte Ausgangsinformation, bei der beispielsweise Informationen wenigstens eines Navigationssystems fusioniert wurden, einen größeren Vorausschaubereich aufweisen, als der Bildsensor selbst. Hierzu erfolgt beispielsweise eine Anpassung von Filterparametern innerhalb der Bildverarbeitung in Abhängigkeit der fusionierten Ausgangsinformationen.
  • In einer weiteren Variante des vorstehend beschriebenen Verfahrens und der Verarbeitungseinheit wird das wenigstens eine fusionierte Ausgangssignal durch Verwendung eines Kalman-Filters erzeugt, der neben dem fusionierten Ausgangssignal auch eine Kovarianz des Ausgangssignals angibt. Dabei wird in dieser Variante das Inverse der Kovarianz als Güte des fusionierten Ausgangssignals verwendet.

Claims (9)

  1. Verfahren zur Verarbeitung von Informationen von wenigstens zwei Informationsquellen in einem Kraftfahrzeug, wobei durch Fusion von den Informationen der wenigstens zwei Informationsquellen wenigstens eine fusionierte Ausgangsinformation über den Fahrbahnverlauf und/oder den Straßentyp erzeugt wird, und wobei die Fusion durch Vereinigung von sich entsprechenden Informationen der wenigstens zwei Informationsquellen durchgeführt wird, und wobei die wenigstens eine fusionierte Ausgangsinformation durch gewichtete Fusion der Informationen von den wenigstens zwei Informationsquellen in Abhängigkeit von Maßen für die Güte von mindestens zweien der Informationen erzeugt wird, und wobei in Abhängigkeit der wenigstens einen fusionierten Ausgangsinformation wenigstens ein Beleuchtungsmittel des Kraftfahrzeuges eingestellt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die wenigstens eine fusionierte Ausgangsinformation in einem Assoziationsschritt und/oder einem Fusionsschritt aus Informationen der wenigstens zwei Informationsquellen erzeugt wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Informationen wenigstens eines Umfeldsensors, beispielsweise wenigstens eines Bildsensors und/oder wenigstens eines Radarsensors und/oder wenigstens eines LIDAR-Sensors und/oder wenigstens eines Ultraschallsensors, und/oder Informationen wenigstens einer Umfeldinformationsquelle, beispielsweise wenigstens einer digitalen Karte und/oder wenigstens eines elektronischen Ortungssystems, und/oder Informationen wenigstens eines Kraftfahrzeugsensors, beispielsweise wenigstens eines Gierratensensors und/oder wenigstens eines Querbeschleunigungssensors und/oder wenigstens eines Raddrehzahlsensors und/oder wenigstens eines Lenkwinkelsensors, verarbeitet werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die wenigstens eine fusionierte Ausgangsinformation parametrisierte Informationen zur Beschreibung des Fahrbahnverlaufes und/oder des Straßentyps enthält, insbesondere, dass die wenigstens eine fusionierte Ausgangsinformation als Parameter wenigstens den Kurvenradius und/oder wenigstens einen Parameter zur Beschreibung des Straßentyps enthält.
  5. Computerprogramm mit Programmcode-Mitteln, um alle Schritte von jedem beliebigen der Ansprüche 1 bis 4 durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
  6. Verarbeitungseinheit in einem Kraftfahrzeug, wobei die Verarbeitungseinheit Informationen von wenigstens zwei Informationsquellen verarbeitet, und wobei die Verarbeitungseinheit durch Fusion von den Informationen der wenigstens zwei Informationsquellen wenigstens ein fusioniertes Ausgangssignal erzeugt, und wobei das wenigstens eine fusionierte Ausgangssignal Informationen über den Fahrbahnverlauf und/oder den Straßentyp enthält, und wobei die Fusion durch Vereinigung von sich entsprechenden Informationen der wenigstens zwei Informationsquellen durchgeführt wird, und wobei die Verarbeitungseinheit das wenigstens eine fusionierte Ausgangssignal durch gewichtete Fusion der Informationen von den wenigstens zwei Informationsquellen in Abhängigkeit von Maßen für die Güte von mindestens zweien der Informationen erzeugt, und wobei das wenigstens eine fusionierte Ausgangssignal zur Einstellung wenigstens eines Beleuchtungsmittels des Kraftfahrzeuges verwendet wird.
  7. Verarbeitungseinheit nach Anspruch 6, dadurch gekennzeichnet, dass die Verarbeitungseinheit das wenigstens eine fusionierte Ausgangssignal in einem Assoziationsschritt und/oder einem Fusionsschritt aus Informationen der wenigstens zwei Informationsquellen erzeugt.
  8. Verarbeitungseinheit nach einem der Ansprüche 6 oder 7, dadurch gekennzeichnet, dass die Verarbeitungseinheit Informationen wenigstens eines Umfeldsensors, beispielsweise wenigstens eines Bildsensors und/oder wenigstens eines Radarsensors und/oder wenigstens eines LIDAR-Sensors und/oder wenigstens eines Ultraschallsensors, und/oder Informationen wenigstens einer Umfeldinformationsquelle, beispielsweise wenigstens einer digitalen Karte und/oder wenigstens eines elektronischen Ortungssystems, und/oder Informationen wenigstens eines Kraftfahrzeugsensors, beispielsweise wenigstens eines Gierratensensors und/oder wenigstens eines Querbeschleunigungssensors und/oder wenigstens eines Raddrehzahlsensors und/oder wenigstens eines Lenkwinkelsensors, verarbeitet.
  9. Verarbeitungseinheit nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass das wenigstens eine fusionierte Ausgangssignal parametrisierte Informationen zur Beschreibung des Fahrbahnverlaufes und/oder des Straßentyps enthält, insbesondere, dass die parametrisierten Informationen als Parameter wenigstens den Kurvenradius und/oder wenigstens einen Parameter zur Beschreibung des Straßentyps enthält.
DE2002154806 2002-11-22 2002-11-22 Verfahren zur Informationsverarbeitung Expired - Lifetime DE10254806B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2002154806 DE10254806B4 (de) 2002-11-22 2002-11-22 Verfahren zur Informationsverarbeitung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2002154806 DE10254806B4 (de) 2002-11-22 2002-11-22 Verfahren zur Informationsverarbeitung

Publications (2)

Publication Number Publication Date
DE10254806A1 DE10254806A1 (de) 2004-06-17
DE10254806B4 true DE10254806B4 (de) 2008-07-24

Family

ID=32318652

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2002154806 Expired - Lifetime DE10254806B4 (de) 2002-11-22 2002-11-22 Verfahren zur Informationsverarbeitung

Country Status (1)

Country Link
DE (1) DE10254806B4 (de)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008042640A1 (de) 2008-10-07 2010-04-08 Robert Bosch Gmbh Verfahren und Vorrichtung zur Datenreduktion bei der Datenübermittlung an ein Fahrerassistenzsystem
EP2562042A1 (de) 2011-08-23 2013-02-27 Robert Bosch Gmbh Verfahren zur Bestimmung einer Leuchtweite zumindest eines Scheinwerfers und Verfahren zur Kalibrierung einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
EP2562685A1 (de) 2011-08-23 2013-02-27 Robert Bosch Gmbh Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts
EP2562038A1 (de) 2011-08-23 2013-02-27 Robert Bosch Gmbh Verfahren und Steuergerät zum Hervorheben eines erwarteten Bewegungspfads eines Fahrzeugs
WO2013026596A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren, steuergerät und computerprogrammprodukt zur einstellung einer leuchtweite eines scheinwerfers eines fahrzeugs
DE102011081363A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bestimmung einer Information über eine Relativgeschwindigkeit zwischen einem Fahrzeug und einem Objekt
WO2013026601A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und steuergerät zum anpassen einer leuchtstärke zumindest eines scheinwerfers eines fahrzeugs
DE102011081358A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Anpassen einer Filtereigenschaft eines adaptiven Farbfilters und zum Betreiben eines Bildaufnehmers
DE102011081439A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Auswertung eines Bilds einer Kamera eines Fahrzeugs
DE102011081357A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ansteuerung eines Scheinwerfers eines Fahrzeugs
DE102011081364A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Auswertung eines Bildes einer Kamera und zur Regelung einer Kamera
DE102011081384A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Abstandsbestimmung für ein Fahrzeug
WO2013083313A1 (de) 2011-12-09 2013-06-13 Robert Bosch Gmbh Verfahren und vorrichtung zur erkennung einer bremssituation
DE102012200431A1 (de) 2012-01-12 2013-07-18 Robert Bosch Gmbh Verfahren zur Bestimmung eines Vorliegens einer Kreuzung in einem von einem Fahrzeug befahrenen Straßenverlauf
US8636392B2 (en) 2011-08-23 2014-01-28 Robert Bosch Gmbh Method and device for controlling a light emission of a headlight of a vehicle
CN105355039A (zh) * 2015-10-23 2016-02-24 张力 路况信息处理方法及设备
DE102016200661A1 (de) 2015-12-23 2017-06-29 Robert Bosch Gmbh Verfahren und Vorrichtung zur Objekterkennung

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10308129A1 (de) * 2003-02-26 2004-11-18 Adam Opel Ag Automatische Scheinwerfer-Lichtverteilungseinrichtung für ein Kraftfahrzeug
DE10309039B4 (de) 2003-03-01 2018-04-05 Volkswagen Ag Lichttechnische Einrichtung für ein Landfahrzeug
DE102004038494A1 (de) * 2004-08-07 2006-03-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Sensorsystems
DE102004052434B4 (de) * 2004-10-28 2016-09-15 Volkswagen Ag Vorrichtung und Verfahren zur Leuchtweitenregelung von Fahrzeugscheinwerfern
DE102004060461A1 (de) * 2004-12-16 2006-07-06 Daimlerchrysler Ag Verfahren zum Betreiben einer Leuchteinrichtung und Vorrichtung zum Betreiben einer Leuchteinrichtung
DE102005027655A1 (de) * 2005-06-15 2006-12-21 Robert Bosch Gmbh Fahrerassistenzsystem mit Navigationssystemschnittstelle
US8519837B2 (en) * 2005-09-08 2013-08-27 Johnson Controls Gmbh Driver assistance device for a vehicle and a method for visualizing the surroundings of a vehicle
JP4525607B2 (ja) 2006-02-20 2010-08-18 株式会社デンソー 車両制御装置
DE102006016071B4 (de) 2006-04-04 2021-03-25 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Steuerung der Leuchtweite von Scheinwerfern eines Kraftfahrzeuges
JP5028851B2 (ja) 2006-04-24 2012-09-19 株式会社デンソー 道路情報検出装置及びプログラム
DE102006020960A1 (de) * 2006-05-05 2007-11-15 Hella Kgaa Hueck & Co. Scheinwerfer für Fahrzeuge
DE102006050236A1 (de) * 2006-10-18 2008-04-24 Schefenacker Vision Systems Germany Gmbh Scheinwerfersystem für Fahrzeuge, vorzugsweise für Kraftfahrzeuge
DE102007003888A1 (de) 2007-01-19 2008-07-24 Daimler Ag Verfahren und Fahrerassistenzsystem zum Unterstützen eines Fahrers beim Fahren eines Kraftfahrzeuges
US8452524B2 (en) 2007-05-25 2013-05-28 Continental Teves Ag & Co. Ohg Method and device for identifying traffic-relevant information
DE102007041703A1 (de) * 2007-09-03 2009-03-05 GM Global Technology Operations, Inc., Detroit Kraftfahrzeug mit einem Navigationssystem und einem AFL-Scheinwerfersystem
DE102007062566A1 (de) 2007-12-22 2009-07-02 Audi Ag Kraftfahrzeug
DE102008040467A1 (de) 2008-07-16 2010-01-21 Robert Bosch Gmbh Verfahren zur Verbesserung der Sicht eines Fahrzeugführers in einem Fahrzeug und Anordnung dazu
DE102008044676A1 (de) * 2008-08-28 2010-03-04 Delvis Gmbh Neigungskompensiertes Licht, insbesondere für ein Motorrad, und Motorrad mit einem neigungskompensierten Licht
DE102011081380A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren zur Steuerung einer Lichtaussendung eines Scheinwerfers eines Fahrzeugs
CN102496290A (zh) * 2011-12-19 2012-06-13 青岛海信网络科技股份有限公司 一种基于can通信的交通信号控制机
DE102012219850A1 (de) * 2012-10-30 2014-04-30 Robert Bosch Gmbh Datenverarbeitungseinrichtung und Verfahren für eine solche Datenverarbeitungseinrichtung
DE102013003944A1 (de) 2013-03-08 2014-09-11 Volkswagen Ag Verfahren und Vorrichtung zum Bereitstellen von Fahrerassistenzfunktionalität
DE102013219096A1 (de) 2013-09-23 2015-03-26 Hella Kgaa Hueck & Co. Verfahren zur Steuerung der Ausleuchtung eines Straßenverlaufs
DE102015112443A1 (de) * 2015-07-30 2017-02-02 Connaught Electronics Ltd. Verfahren zum Bestimmen einer Bewegung eines Kraftfahrzeugs mittels Fusion von Odometriedaten, Fahrerasistenzsystem sowie Kraftfahrzeug
CN105575118B (zh) * 2015-12-25 2017-12-19 银江股份有限公司 一种失驾人员筛选方法
CN105513360B (zh) * 2016-01-28 2017-09-22 浪潮软件股份有限公司 一种车辆数据处理的方法及装置
DE102016212716A1 (de) * 2016-07-13 2018-01-18 Conti Temic Microelectronic Gmbh Steuervorrichtung und verfahren
DE102017206446A1 (de) 2017-04-13 2018-10-18 Knorr-Bremse Systeme für Schienenfahrzeuge GmbH Fusion von infrastrukturbezogenen Daten, insbesondere von infrastrukturbezogenen Daten für Schienenfahrzeuge
DE102021120043A1 (de) 2021-08-02 2023-02-02 Cariad Se Verfahren und Steuerschaltung zum Überwachen einer Zulässigkeitsbedingung für einen automatisierten Fahrmodus eines Kraftfahrzeugs sowie Kraftfahrzeug mit der Steuerschaltung
CN114429186A (zh) * 2022-01-26 2022-05-03 中国第一汽车股份有限公司 基于多传感器的数据融合方法、装置、设备及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020080618A1 (en) * 2000-12-27 2002-06-27 Shoji Kobayashi Vehicle headlamp apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020080618A1 (en) * 2000-12-27 2002-06-27 Shoji Kobayashi Vehicle headlamp apparatus
DE10164193A1 (de) * 2000-12-27 2002-07-18 Koito Mfg Co Ltd Fahrzeugscheinwerfereinrichtung

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008042640A1 (de) 2008-10-07 2010-04-08 Robert Bosch Gmbh Verfahren und Vorrichtung zur Datenreduktion bei der Datenübermittlung an ein Fahrerassistenzsystem
DE102011081364A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Auswertung eines Bildes einer Kamera und zur Regelung einer Kamera
DE102011081363A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bestimmung einer Information über eine Relativgeschwindigkeit zwischen einem Fahrzeug und einem Objekt
DE102011081384A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Abstandsbestimmung für ein Fahrzeug
WO2013026596A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren, steuergerät und computerprogrammprodukt zur einstellung einer leuchtweite eines scheinwerfers eines fahrzeugs
WO2013026627A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und vorrichtung zum anpassen einer filtereigenschaft eines adaptiven farbfilters und zum betreiben eines bildaufnehmers
DE102011081395A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Steuergerät zur Einstellung einer Leuchtweite eines Scheinwerfers eines Fahrzeugs
WO2013026601A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und steuergerät zum anpassen einer leuchtstärke zumindest eines scheinwerfers eines fahrzeugs
DE102011081358A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Anpassen einer Filtereigenschaft eines adaptiven Farbfilters und zum Betreiben eines Bildaufnehmers
DE102011081432A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Steuergerät zum Anpassen einer Leuchtstärke zumindest eines Scheinwerfers eines Fahrzeugs
DE102011081439A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Auswertung eines Bilds einer Kamera eines Fahrzeugs
DE102011081357A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ansteuerung eines Scheinwerfers eines Fahrzeugs
DE102011081425A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts
WO2013026608A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und vorrichtung zur ansteuerung eines scheinwerfers eines fahrzeugs
EP2562042A1 (de) 2011-08-23 2013-02-27 Robert Bosch Gmbh Verfahren zur Bestimmung einer Leuchtweite zumindest eines Scheinwerfers und Verfahren zur Kalibrierung einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
EP2562038A1 (de) 2011-08-23 2013-02-27 Robert Bosch Gmbh Verfahren und Steuergerät zum Hervorheben eines erwarteten Bewegungspfads eines Fahrzeugs
EP2562685A1 (de) 2011-08-23 2013-02-27 Robert Bosch Gmbh Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts
DE102011081392A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren zur Bestimmung einer Leuchtweite zumindest eines Scheinwerfers und Verfahren zur Kalibrierung einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
DE102011081392B4 (de) 2011-08-23 2023-01-26 Robert Bosch Gmbh Verfahren zur Kalibrierung einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
DE102011081439B4 (de) 2011-08-23 2019-09-12 Robert Bosch Gmbh Verfahren und Vorrichtung zur Auswertung eines Bilds einer Kamera eines Fahrzeugs
DE102011081384B4 (de) * 2011-08-23 2017-05-04 Robert Bosch Gmbh Verfahren und Vorrichtung zur Abstandsbestimmung für ein Fahrzeug
US8636392B2 (en) 2011-08-23 2014-01-28 Robert Bosch Gmbh Method and device for controlling a light emission of a headlight of a vehicle
US9616805B2 (en) 2011-08-23 2017-04-11 Robert Bosch Gmbh Method and device for controlling a headlamp of a vehicle
DE102011088130A1 (de) 2011-12-09 2013-06-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung einer Bremssituation
WO2013083313A1 (de) 2011-12-09 2013-06-13 Robert Bosch Gmbh Verfahren und vorrichtung zur erkennung einer bremssituation
DE102011088130B4 (de) 2011-12-09 2023-03-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung einer Bremssituation
DE102012200431A1 (de) 2012-01-12 2013-07-18 Robert Bosch Gmbh Verfahren zur Bestimmung eines Vorliegens einer Kreuzung in einem von einem Fahrzeug befahrenen Straßenverlauf
DE102012200431B4 (de) 2012-01-12 2019-08-08 Robert Bosch Gmbh Verfahren zur Bestimmung eines Vorliegens einer Kreuzung in einem von einem Fahrzeug befahrenen Straßenverlauf
CN105355039A (zh) * 2015-10-23 2016-02-24 张力 路况信息处理方法及设备
DE102016200661A1 (de) 2015-12-23 2017-06-29 Robert Bosch Gmbh Verfahren und Vorrichtung zur Objekterkennung

Also Published As

Publication number Publication date
DE10254806A1 (de) 2004-06-17

Similar Documents

Publication Publication Date Title
DE10254806B4 (de) Verfahren zur Informationsverarbeitung
DE102018112317B4 (de) Fahrassistenzvorrichtung
EP3160813B1 (de) Verfahren zur erstellung eines umfeldmodells eines fahrzeugs
DE102017112024B4 (de) Übertragungsnotwendigkeits-Bestimmungsvorrichtung
EP2562040B1 (de) Verfahren zur Steuerung einer Lichtaussendung eines Scheinwerfers eines Fahrzeugs
DE102013006687B4 (de) Lichtsteuerung im "Roadtrain"
DE102013112459B4 (de) Vorrichtung und Verfahren zum Beurteilen einer Wahrscheinlichkeit einer Kollision zwischen einem Fahrzeug und einem Ziel, Fahrzeugkollisionsvermeidungssystem, und Verfahren zum Vermeiden einer Kollision zwischen einem Fahrzeug und einem Ziel
DE102012009297A1 (de) Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs
DE102011078288B4 (de) Kraftfahrzeug mit einer Warneinrichtung für den Fahrer
WO2008043795A1 (de) Verfahren und vorrichtung zur erkennung von verdeckten objekten im strassenverkehr
DE102010049721A1 (de) Verfahren und Vorrichtung zur Anzeige einer Kritikalität
DE102012210608A1 (de) Verfahren und Vorrichtung zum Erzeugen eines Steuerparameters für ein Abstandsassistenzsystem eines Fahrzeugs
DE112006003277T5 (de) Verfahren zum Detektieren oder Vorhersagen eines Einscherens eines Fahrzeugs
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
EP3931029A1 (de) Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem
DE102013221867A1 (de) Dateneingabevorrichtung für Kraftfahrzeuge und Verfahren zum Eingeben von Daten mit einer Dateneingabevorrichtung in einem Kraftfahrzeug
DE10311241B4 (de) Verfahren und Einrichtung für die Spurführung eines Fahrzeugs
EP3931033A1 (de) Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem
DE102014018995A1 (de) Verfahren zum Betrieb eines Scheinwerfers sowie Kraftfahrzeugscheinwerfer
DE102017209347A1 (de) Verfahren und Vorrichtung zum Steuern eines Fahrzeugs
DE102004018681A1 (de) Verfahren zum Vermeiden von Kollisionen eines Fahrzeugs mit entgegenkommenden Fahrzeugen
DE102004028613A1 (de) Spurwechselassistent für Kraftfahrzeuge
DE102005051601B4 (de) System und Verfahren zur Übertragung von Informationen über Strassen vor einem Fahrzeug
DE112022001403T5 (de) Lichtinterferenzdetektion während der fahrzeugnavigation
DE102014209015A1 (de) Verfahren und Vorrichtung zur Abstandsregelung für ein Fahrzeug

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R071 Expiry of right