-
TECHNISCHES GEBIET
-
Die vorliegende Offenbarung betrifft allgemein ein Beleuchtungssystem für ein Fahrzeug und insbesondere ein Scheinwerferlicht-System, das basierend auf einem Sichtfeld in Bezug auf das Fahrzeug angepasst ist.
-
KURZDARSTELLUNG
-
Gemäß einem Aspekt der vorliegenden Offenbarung wird ein Beleuchtungssystem für ein Fahrzeug offenbart. Das Beleuchtungssystem umfasst ein Bildgerät bzw. einen Imager, der so konfiguriert ist, dass er Bilddaten in einer Vielzahl von Einzelbildern in einem Sichtfeld nach hinten erfasst. Das System umfasst ferner mindestens einen Scheinwerfer, der so konfiguriert ist, dass er eine Lichtemission auf einer Vielzahl von Höhen bzw. Höhenlagen ausgibt, und ein Steuergerät bzw. einen Controller. Der Controller steht in Verbindung bzw. in Kommunikation mit dem Imager und dem Scheinwerfer. Der Controller kann verwendet werden bzw. ist ausgelegt, um die Bilddaten zu verarbeiten, um Merkmale in einem ersten Einzelbild und einem zweiten Einzelbild zu identifizieren. Der Controller kann ferner verwendet werden bzw. ist ausgelegt, um eine Bewegung der Merkmale von dem ersten Einzelbild zu dem zweiten Einzelbild zu identifizieren und die Höhe der ausgegebenen Emission in Reaktion auf die Bewegung anzupassen.
-
Gemäß einem anderen Aspekt der Offenbarung wird ein Beleuchtungssystem für ein Fahrzeug offenbart. Das System umfasst ein Bildgerät bzw. einen Imager, der so konfiguriert ist, dass er Bilddaten in einer Vielzahl von Einzelbildern in einem Sichtfeld nach hinten in Bezug auf das Fahrzeug erfasst, und mindestens einen Scheinwerfer, der so konfiguriert ist, dass er eine Lichtemission auf einer Vielzahl von Höhen bzw. Höhenlagen ausgibt. Ein Steuergerät bzw. ein Controller steht in Verbindung bzw. in Kommunikation mit dem Imager und dem Scheinwerfer. Der Controller ist so konfiguriert, dass er die Bilddaten verarbeitet, um mindestens ein Merkmal in einem ersten Einzelbild und einem zweiten Einzelbild der Vielzahl von Einzelbildern zu identifizieren, und dass er eine Bewegung des Merkmals von dem ersten Einzelbild zu dem zweiten Einzelbild identifiziert. Der Controller ist ferner so konfiguriert, dass er die Höhe der ausgegebenen Emission in Reaktion auf die Bewegung anpasst.
-
Gemäß noch einem anderen Aspekt der Offenbarung wird ein Beleuchtungssystem für ein Fahrzeug offenbart. Das System umfasst ein Bildgerät bzw. einen Imager, der so konfiguriert ist, dass er Bilddaten in einer Vielzahl von Einzelbildern in einem Sichtfeld nach hinten in Bezug auf das Fahrzeug erfasst. Das System umfasst ferner einen ersten Scheinwerfer, der so konfiguriert ist, dass er eine erste Emission emittiert, und einen zweiten Scheinwerfer, der so konfiguriert ist, dass er eine zweite Emission emittiert. Jeder Scheinwerfer ist so konfiguriert, dass er Licht in einer Vielzahl von Höhen bzw. Höhenlagen emittiert. Ein Steuergerät bzw. ein Controller steht in Verbindung bzw. in Kommunikation mit dem Imager und dem Scheinwerfer. Der Controller kann verwendet werden bzw. ist ausgelegt, um die Bilddaten zu verarbeiten, um mindestens ein Merkmal in einem ersten Einzelbild und einem zweiten Einzelbild der Vielzahl von Einzelbildern zu identifizieren, und eine Merkmalsbewegung auf Basis einer Pixelverschiebung des mindestens einen Merkmals von dem ersten Einzelbild zu dem zweiten Einzelbild zu identifizieren. Der Controller ist so konfiguriert, dass er eine Fahrzeugbewegung als eine Drehbewegung auf Basis der Pixelverschiebung in den Bilddaten identifiziert und eine erste Höhe bzw. Höhenlage der ersten Emission und eine zweite Höhe bzw. Höhenlage der zweiten Emission unabhängig in Reaktion auf die Drehbewegung anpasst.
-
Diese und weitere Merkmale, Vorteile und Gegenstände der vorliegenden Offenbarung werden unter Bezugnahme auf die nachfolgende Beschreibung, die Ansprüche und die hinzugefügten Zeichnungen von Fachleuten auf diesem Gebiet verstanden und gewürdigt.
-
Figurenliste
-
Die vorliegende Offenbarung wird anhand der ausführlichen Beschreibung und der zugehörigen Zeichnungen vollständiger verstanden, wobei:
- 1 eine Seitenansicht eines Fahrzeugs ist, die ein Fahrzeugbeleuchtungssystem zeigt;
- 2 ein Diagramm von Bilddaten ist, die einer Szene entsprechen, die von einem Rücksicht-Imager eines Beleuchtungssystems erfasst wird;
- 3 eine Vorderansicht eines Fahrzeugs ist, die ein Fahrzeugbeleuchtungssystem zeigt;
- 4 ein Prozessdiagramm ist, das ein Verfahren zum Anpassen einer Ebene der Scheinwerferlichter auf Basis der Bilddaten zeigt; und
- 5 ein Blockdiagramm des Scheinwerferlicht-Systems gemäß der Offenbarung ist.
-
DETAILLIERTE BESCHREIBUNG
-
Die vorliegenden veranschaulichten Ausführungsformen liegen im Wesentlichen als Kombinationen von Verfahrensschritten und Gerätekomponenten in Bezug auf ein Bildsensorsystem und Verfahren dazu vor. Demgemäß wurden die Gerätekomponenten und Verfahrensschritte, sofern angemessen, in den Zeichnungen durch herkömmliche Symbole dargestellt, wobei nur jene spezifischen Details gezeigt werden, die für das Verständnis der Ausführungsformen der vorliegenden Offenbarung von Belang sind, um die Offenbarung nicht durch Details zu verschleiern, die gewöhnlichen Fachleuten auf diesem Gebiet, welche die vorliegende Beschreibung lesen, offensichtlich sind. Darüber hinaus kennzeichnen gleiche Bezugszeichen in der Beschreibung und in den Zeichnungen gleiche Elemente.
-
In diesem Dokument werden Beziehungsbegriffe, wie erste(r) und zweite(r), oben und unten, usw. nur zur Unterscheidung einer Einheit oder Aktion von einer anderen Einheit oder Aktion verwendet, ohne dass eine Beziehung oder Reihenfolge bei diesen Einheiten oder Aktionen erforderlich oder impliziert ist. Die Begriffe „umfasst/umfassen“, „umfassend“ oder jegliche Variationen hiervon decken insoweit eine nicht-ausschließliche Einbeziehung ab, als dass ein Prozess, Verfahren, Produkt oder eine Vorrichtung, der/die/das eine Liste von Elementen umfasst, nicht notwendigerweise auf diese Elemente beschränkt ist, sondern dass er/sie/es andere Elemente beinhalten kann, die nicht ausdrücklich aufgelistet sind oder die eines solchen Prozesses, Verfahrens, Produktes oder Gerätes inhärent sind.
-
Unter Bezugnahme auf 1 ist ein mit einem Beleuchtungssystem 12 ausgestattetes Fahrzeug 10 dargestellt. In einer exemplarischen Ausführungsform kann das Beleuchtungssystem 12 einem Scheinwerferlicht-System 14 entsprechen, das so konfiguriert ist, dass es eine Region 16 nach vorne in Bezug auf das Fahrzeug beleuchtet. Das Scheinwerferlicht-System 14 kann mindestens einen Scheinwerfer 18 umfassen, der so konfiguriert ist, dass er Licht von einer Vielzahl von Beleuchtungsabschnitten 20 selektiv emittiert. Die Beleuchtungsabschnitte 20 können einer Vielzahl von lichtemittierenden Quellen 22 entsprechen. In einigen Ausführungsformen kann die Vielzahl von Lichtquellen einer Matrix 24 von lichtemittierenden Quellen entsprechen, wie in Detail A gezeigt. In dieser Konfiguration kann das Scheinwerferlicht-System 14 so konfiguriert sein, dass es eine vertikale Ebene 26 oder eine Höhenebene einer Emission 28 von Licht steuert, das von mindestens einem Scheinwerfer 18 projiziert wird.
-
In einigen Ausführungsformen kann das Beleuchtungssystem 12 einen Controller umfassen, der so konfiguriert ist, dass er die vertikale Ebene 26 der Emission 28 auf Basis von Bilddaten steuert, die von einem Imager 30 erfasst werden. Der Imager 30 kann einem nach hinten gerichteten Bildsensor entsprechen. Auch wenn in Bezug auf einen nach hinten gerichteten Bildsensor erörtert, kann der Imager 30 in eine Vielzahl von Richtungen in Bezug auf eine Betriebsrichtung des Fahrzeugs 10 nach vorne gerichtet sein. Der Imager kann zum Beispiel nach vorne gerichtet und im Wesentlichen mit der Betriebsrichtung des Fahrzeugs 10 nach vorne ausgerichtet sein. In einigen Ausführungsformen kann der Imager 30 eine Komponente eines Rücksicht-Bildgebungssystems 32 ausbilden, das so konfiguriert ist, dass es Bilddaten auf einer Rücksicht-Anzeige 34 anzeigt. Daher kann der Imager 30 eine Komponente eines Rücksicht-Bildgebungssystems 32 ausbilden und kann verschiedene Verarbeitungskomponenten und/oder Kommunikationsschnittstellen mit dem Beleuchtungssystem 12 gemeinsam nutzen.
-
Der Controller des Beleuchtungssystems 12 kann so konfiguriert sein, dass er die Bilddaten empfängt, die durch den Imager 30 erfasst werden, um eine Ego-Bewegung des Fahrzeugs 10 zu erkennen. Die Bilddaten können einem Sichtfeld 36 entsprechen, das durch den Imager 30 erfasst wird. In einer exemplarischen Ausführungsform kann der Imager 30 so konfiguriert sein, dass er Bilddaten in einem Sichtfeld erfasst, die eine Szene 38 nach hinten vom Fahrzeug 10 zeigen. Demgemäß kann der Controller so konfiguriert sein, dass er eine vertikale Bewegung 40 des Fahrzeugs 10 in Bezug auf eine Straßenfläche 41 auf Basis der Bilddaten der Szene 38 erkennt. Der Controller kann dann die vertikale Bewegung 40, die aus den Bilddaten erkannt wird, nutzen, um die vertikale Ebene 26 des mindestens einen Scheinwerfers 18 zu steuern. Weitere Details bezüglich des Controllers des Beleuchtungssystems werden in Bezug auf 4 erörtert.
-
Wie in Detail A gezeigt, sind die Beleuchtungsabschnitte 20 als eine Vielzahl von Reihen 42 der lichtemittierenden Quellen 22 dargestellt, die die Matrix 24 ausbilden. Jeder der Beleuchtungsabschnitte 20 kann einer oder mehreren Reihen 42 der lichtemittierenden Quellen 22 entsprechen. Wie hierin erörtert, kann der Controller die vertikale Ebene 26 des mindestens einen Scheinwerfers 18 steuern, indem er jeden der Beleuchtungsabschnitte 20 selektiv aktiviert, um die Emission 28 auf einer Vielzahl von Höhen 44 auszugeben. Der Controller kann zum Beispiel jeden der Beleuchtungsabschnitte 20 selektiv aktivieren, um die Höhe 44 unter einer ersten vertikalen Ebene 46, einer zweiten vertikalen Ebene 48 und einer dritten vertikalen Ebene 50 anzupassen. Auf diese Weise kann der Controller die Höhe 44 der Emission 28 in Reaktion auf die vertikale Bewegung 40 des Fahrzeugs 10 rasch steuern. Auch wenn als drei vertikale Ebenen 46, 48 und 50 erörtert, können die Ebenen der vertikalen Zonen auf Basis der Eigenschaften eines großen Bereichs von Beleuchtungssystemen variieren, ohne vom Geist der Offenbarung abzuweichen.
-
Unter nun erfolgender Bezugnahme auf 2 wird das Sichtfeld 36 der Bilddaten der Szene 38 dargestellt, die durch den Imager 30 erfasst wird. Auf Basis der Bilddaten kann der Controller verschiedene Referenzmerkmale 60 erkennen, die mit der Zeit verglichen werden können, um die vertikale Bewegung 40 des Fahrzeugs 10 zu erkennen. Die Referenzmerkmale 60 können Kanten oder Gruppen von Kanten von verschiedenen Objekten 62 entsprechen, die durch einen oder mehrere Bildverarbeitungsalgorithmen erkannt werden können. Außerdem kann der Controller verwendet werden, um eine Vielzahl von Merkmalen zu erkennen, die in der Szene 38 häufig erkennbar sein können. Der Controller kann zum Beispiel mindestens eines von einem Fluchtpunkt 64 einer Straße 66, einem Horizont 68 und einer Vielzahl von Merkmalen erkennen, die in den Bilddaten identifiziert werden können. Auf Basis der Orte der Objekte 62 und/oder der Merkmale, die in den Bilddaten erkannt werden, kann der Controller die vertikale Bewegung 40 des Fahrzeugs 10 erkennen und die vertikalen Ebenen 46, 48 und 50 des mindestens einen Scheinwerfers 18 steuern, um eine offensichtliche Bewegung oder Schwankung bei der Höhe 44 der Emission 28 zu begrenzen. Die offensichtliche Bewegung kann einem schnellen Sprung, Ruck oder einer anderen schnellen Höhenschwankung in der Position oder Ausrichtung des Fahrzeugs 10 entsprechen.
-
Wie in 2 dargestellt, können die Objekte verschiedenen Arten von Objekten entsprechen, die häufig in der Nähe von Straßen identifiziert werden können. Die Objekte 62 können zum Beispiel einem natürlichen Merkmal 62a (z. B. einem Baum, einem Strauch, Vegetation usw.), einem nachfolgenden Fahrzeug 62b, einem Schild 62c, einem Strommasten 62d, einem Gebäude 62e, einem Landschaftsmerkmal 62f usw. entsprechen. Auch wenn spezifische Objekte 62 und/oder Merkmale erörtert werden, die als Referenzmerkmale 60 genutzt werden können, um die vertikale Bewegung 40 des Fahrzeugs 10 zu identifizieren, können verschiedene Objekte, die sich in der Nähe einer Schnellstraße befinden können, ähnlich identifiziert werden. Demgemäß stellt die Offenbarung eine flexible Lösung bereit, um für die Identifizierung von einem oder mehreren Objekten 62 und/oder Merkmalen zu sorgen, die bei der Identifizierung der vertikalen Bewegung 40 des Fahrzeugs 10 helfen.
-
In einigen Ausführungsformen können eines oder mehrere der Objekte Objekten entsprechen, die Licht emittieren und die nachts oder bei schlechten Beleuchtungsbedingungen sichtbar sind. Eines oder mehrere Objekte können zum Beispiel Lichtquellen 65 entsprechen, die in den Bilddaten erkannt werden. Wie dargestellt, können die Lichtquellen 65 einem Scheinwerferlicht 65a oder einem Rücklicht eines Fahrzeugs (z. B. Fahrzeug 62b) entsprechen, der/das im Sichtfeld 36 erfasst wird. Außerdem kann die Lichtquelle einem oder mehreren Gebäudelampen 65b, Straßenlampen 65c, Nutzlichtern oder einer Vielzahl von Lichtquellen entsprechen, die in der Nähe der Straße 66 erkannt werden können. Auf diese Weise kann der Controller des Beleuchtungssystems 12 so konfiguriert sein, dass er die Bilddaten empfängt, die durch den Imager 30 erfasst werden, um eine Ego-Bewegung des Fahrzeugs 10 zu erkennen.
-
Der Controller kann zum Beispiel eine vertikale Verschiebung 70 des Fluchtpunkts 64 in den Bilddaten unter zwei oder mehr Einzelbildern der Bilddaten identifizieren, um die vertikale Bewegung 40 des Fahrzeugs 10 zu identifizieren. Ähnlich kann der Controller die vertikale Verschiebung 70 des Horizonts 68 erkennen, um die vertikale Bewegung 40 zu identifizieren. Die vertikale Bewegung 40 des Fahrzeugs 10 kann als eine Pixelverschiebung von einer oder mehreren Kanten der Referenzmerkmale 60 und/oder Objekte 62 oder Merkmalen, die in den Bilddaten in einer kalibrierten Entfernung erkannt werden, identifiziert werden. Die kalibrierte Entfernung kann auf einer bekannten oder früher kalibrierten Brennweite des Imagers 30 basieren. In dieser Konfiguration kann der Controller die Bilddaten verarbeiten, um einen Wert bzw. eine Größe bzw. eine Größenordnung der vertikalen Bewegung 40 oder einer anderen Bewegung des Fahrzeugs 10 zu identifizieren, um die Höhe 44 der Emission 28 genau zu steuern.
-
Im Betrieb kann der Controller eine Pixelverschiebung des mindestens einen Merkmals 60 und/oder Objekten 62 in den Bilddaten über eine Vielzahl von Einzelbildern identifizieren. Auf Basis der Pixelverschiebung kann der Controller einen Wert bzw. eine Größe bzw. eine Größenordnung einer Bewegung des Fahrzeugs 10 berechnen. Der Controller kann einen Wert bzw. eine Größe bzw. eine Größenordnung der Bewegung des Fahrzeugs 10 identifizieren, indem er eine Entfernung der Pixelverschiebung im Sichtfeld 36 des Imagers 30 mit einer kalibrierten Entfernung der Brennweite des Imagers 30 vergleicht. Auf Basis des Vergleichs kann der Controller den Wert der Bewegung des Fahrzeugs 10 identifizieren und die Höhe 44 oder Ebene des mindestens einen Scheinwerfers 18 anpassen, um die Bewegung des Fahrzeugs 10 auszugleichen und eine entsprechende Bewegung der Emission 28 zu verhindern.
-
Unter nun erfolgter Bezugnahme auf 2 und 3 kann die Emission 28 in einigen Ausführungsformen einer ersten Emission 28a eines ersten Scheinwerfers 18a und einer zweiten Emission 28b eines zweiten Scheinwerfers 18b entsprechen. Der erste Scheinwerfer 18a kann einem Scheinwerfer auf der Fahrerseite entsprechen und der zweiten Scheinwerfer 18b kann einem Scheinwerfer auf der Beifahrerseite entsprechen. In einer solchen Konfiguration kann der Controller so konfiguriert sein, dass er eine erste Höhe 44a des ersten Scheinwerfers 18a unabhängig von einer zweiten Höhe 44b des zweiten Scheinwerfers 18b auf Basis der Bilddaten steuert. Der Controller kann zum Beispiel eine Drehverschiebung 72 auf Basis einer Drehbewegung (z. B. einer Winkeländerung bei der Position) des Horizonts 68 und/oder eine Rotation eines oder mehrerer Kanten oder Objekte, die in einer Vielzahl von Einzelbildern der Bilddaten identifiziert werden, identifizieren. Demgemäß kann der Controller so konfiguriert sein, dass er den ersten Scheinwerfer 18a aktiviert, um die erste Emission 28a auf einer Vielzahl von vertikalen Ebenen 46a, 48a und 50a unabhängig von der Steuerung des zweiten Scheinwerfers 18b zu aktivieren. Außerdem kann der Controller so konfiguriert sein, dass er den zweiten Scheinwerfer 18b aktiviert, um die zweite Emission 28b auf einer Vielzahl von vertikalen Ebenen 46b, 48b und 50b unabhängig von der Steuerung des ersten Scheinwerfers 18a zu emittieren.
-
In Reaktion auf das Erkennen einer Verschiebung im Uhrzeigersinn bei der Vielzahl von Objekten und/oder des Horizonts 68 kann der Controller zum Beispiel die erste Höhe 44a des ersten Scheinwerfers 18a nach oben und die zweite Höhe 44b des zweiten Scheinwerfers 18b nach unten anpassen. Ähnlich kann der Controller in Reaktion auf eine Verschiebung gegen den Uhrzeigersinn die erste Höhe 44a des ersten Scheinwerfers 18a nach unten und die zweite Höhe 44b des zweiten Scheinwerfers 18b nach oben anpassen. Insbesondere kann der Controller in Reaktion auf eine Verschiebung nach oben auf der Fahrerseite, die in den Bilddaten identifiziert wird, die erste Höhe 44a des ersten Scheinwerfers 18a nach unten anpassen. Das heißt, um die Verschiebung nach oben in den Bilddaten auszugleichen, kann der Controller die erste Höhe 44a absenken, um ein Blenden des entgegenkommenden Verkehrs zu vermeiden. In Reaktion auf eine Verschiebung auf der Beifahrerseite, die in den Bilddaten identifiziert wird, kann der Controller die zweite Höhe 44b des zweiten Scheinwerfers 18b nach oben anpassen. Um die Verschiebung nach unten in den Bilddaten auszugleichen, kann der Controller die zweite Höhe 44b absenken, um es zu vermeiden, die effektive Projektionsentfernung der zweiten Emission 28b zu verlieren.
-
Wie hierin erörtert, können eine vertikale Verschiebung 70, eine horizontale Verschiebung 71 und/oder eine Drehverschiebung 72 des einen oder der mehreren Objekte 62 oder Merkmale in den Bilddaten identifiziert werden, indem eine erste Position einer Kante oder eines Objekts in einem ersten Bild mit einer zweiten Position der Kante oder des Objekts in einem zweiten Einzelbild verglichen wird. Das nachfolgende oder zweite Einzelbild kann einem Einzelbild entsprechen, das durch den Imager 30 erfasst wurde, nachdem ein Zeitraum von der Erfassung des ersten Einzelbilds vergangen ist. In dieser Konfiguration kann die Reaktionszeit des Controllers, um die Bewegung des einen oder der mehreren Objekte 62 oder Merkmale zu erkennen, zumindest teilweise von einer Einzelbildrate des Imagers 30 und einer Verarbeitungsgeschwindigkeit des Controllers abhängen.
-
In einigen Ausführungsformen kann das Beleuchtungssystem 12 so konfiguriert sein, dass es die Effekte von einer oder mehreren Verzögerungen bei einer Reaktionszeit zwischen dem Identifizieren der vertikalen Bewegung 40 des Fahrzeugs 10 und dem Anpassen der vertikalen Ebene 26 des mindestens einen Scheinwerfers 18 verringert. Einige potenzielle Verzögerungsquellen können mit einem oder mehreren Schritten der Bildaufnahme durch den Imager 30 oder der Bildverarbeitung durch den Controller verbunden sein. Außerdem kann eine Verzögerung durch Nachrichten oder Kommunikationen vom Imager 30 zum Controller (z. B. Kommunikation über einen Fahrzeug-Bus oder Can-Bus) usw. verursacht werden. Demgemäß kann das Beleuchtungssystem eines oder mehrere Vorhersageverfahren nutzen, um die vertikale Bewegung auf Basis der vertikalen Verschiebung 70 oder einer anderen Bewegung zu identifizieren, die in den Bilddaten identifiziert wird.
-
Ein Vorhersageverfahren, das durch den Controller genutzt werden kann, kann der Anwendung von einem oder mehreren prädiktiven Filtern entsprechen. Die prädiktiven Filter können angewandt werden, um eine zukünftige Höhe für die Emission 28 für eine Höhenanpassung zu einer zukünftigen Zeit vorherzusagen. Eine zukünftige Höhe kann auf Basis einer Vielzahl von früher identifizierten Bewegungen zwischen den Einzelbildern von Objekten 62 vorhergesagt werden, die in den Bilddaten identifiziert werden. Auf Basis der Bewegungen zwischen den Einzelbildern kann die zukünftige Höhe der Emission 28 auf Basis von einem oder mehreren früher identifizierten Bewegungsvektoren für die Objekte 62 vorhergesagt werden, die in den Bilddaten identifiziert werden. Auf diese Weise kann der Controller die zukünftige Höhe der Emission so schätzen, dass das System 12 die Höhe 44 auf Basis einer antizipierten oder zukünftigen vertikalen Bewegung 40 des Fahrzeugs 10 anpassen kann. Demgemäß kann das System so konfiguriert sein, dass es eine aktuelle Höhe der ausgegebenen Emission 28 an eine zukünftige, antizipierte Höhe in Reaktion auf eine antizipierte vertikale Bewegung des Fahrzeugs 10 anpasst.
-
Es kann zum Beispiel ein adaptiver linearer Vorhersagefilter auf die Ergebnisse eines Scheinwerferlicht-Zielanpassungsschritts angewandt werden, um die Höhe der Emissionen von den Scheinwerfern 18a und 18b anzupassen. Auf diese Weise kann das System 12 verwendet werden, um die zukünftige Höhe der ausgegebenen Emission 28a und 28b anzupassen, um das Erscheinen einer Verzögerung in einer Systemantwort des Beleuchtungssystems 12 zu verhindern. Die Verzögerung kann eine Reaktion auf die Zeit sein, die das System 12 benötigt, um die Bilddaten zu erfassen, die Bilddaten zu verarbeiten, oder eine Reaktionszeit des mindestens einen Scheinwerfers 18, um die Höhe der Emission 28 zu steuern. Der Scheinwerferlicht-Zielanpassungsschritt wird in Bezug auf 4 als Schritt 100 näher erörtert. Wie hierin erörtert, kann der Controller die Ausgabe für zukünftige Anpassungen der Scheinwerfer 18a und 18b auf Basis eines Umfangs der festen statischen Verzögerung vorhersagen. Daher kann das Beleuchtungssystem 12 Fehler in Verbindung mit einer oder mehreren Verzögerungen, wie hierin erörtert, verringern.
-
Der Controller kann so konfiguriert sein, dass er verschiedene Algorithmen und Verfahren nutzt, um Merkmale in den Bilddaten zu identifizieren. Der Controller kann zum Beispiel so konfiguriert sein, dass er einen adaptiven Kantenerkennungsprozess nutzt, um die Fahrbahnen und Abschnitte der Straße 66 zu identifizieren, um den Fluchtpunkt 64 oder Horizont 68 zu identifizieren. Außerdem kann der Controller so konfiguriert sein, dass er einen Grenzkontrast-Algorithmus nutzt, um den Horizont 68 zu erkennen, indem er eine Gradientenschwelle einer Reihe von Pixelwerten der Bilddaten erkennt. Auch wenn hierin bestimmte Bildverarbeitungsverfahren erörtert werden, werden die Verfahren zur Erklärung und nicht zur Einschränkung vorgestellt. Daher soll die Offenbarung nicht auf solche exemplarischen Ausführungsformen beschränkt werden, sofern nicht ausdrücklich anders angegeben.
-
Der adaptive Kantenerkennungsprozess kann eine Kantenerkennungsmaske verwenden, um einen Gradienten an Pixelorten in den Bilddaten anzunähern. Wenn ein Pixel vorher festgelegte Kriterien für einen Intensitätswert und einen Gradientenschwellenwert erfüllt, kann der Controller die Pixel als Pixel einer Kandidaten-Fahrbahnlinie identifizieren. Wenn die Bilddaten, die einem aktuellen Einzelbild entsprechen, das durch den Imager 30 erfasst wird, verarbeitet werden, werden die Pixel der Kandidaten-Fahrbahnlinie genutzt, um ein am besten passendes Polynom zu erzeugen, um eine Fahrbahnlinie der Straße 66 zu modellieren. In einigen Ausführungsformen kann das am besten passende Polynom einem Polynom dritter Ordnung entsprechen. Auf diese Weise können die Pixel der Kandidaten-Fahrbahnlinie genutzt werden, um ein linkes Fahrbahnlinien-Modell 66a und ein rechtes Fahrbahnlinien-Modell 66b zu erzeugen, das den Seiten der Straße 66 entsprechen kann. Das linke Fahrbahnlinien-Modell 66a und das rechte Fahrbahnlinien-Modell 66b können verwendet werden, um den Schnittpunkt der Seiten der Straße 66 zu ermitteln, der dem Fluchtpunkt 64 in den Bilddaten entsprechen kann.
-
Der Controller kann den Horizontgrenzkontrast-Algorithmus verwenden, um Gruppen von Pixeln in den Bilddaten zu erkennen, um den Horizont 68 zu identifizieren. Jede der Gruppen von Pixeln kann Abschnitten oder Feldern aufeinanderfolgender Pixel in den Bilddaten entsprechen, die die Grenze zwischen einem Himmelabschnitt 82 und einem Bodenabschnitt 84 der Bilddaten enthalten. Der Horizontgrenzkontrast-Algorithmus kann den Kontrast zwischen dem Himmelabschnitt 82 und dem Bodenabschnitt analysieren, um einen Ort des Horizonts 68 zu ermitteln. Der Kontrast kann durch Berechnen einer Pixelintensität vertikal in den Bilddaten analysiert werden, um einen vertikalen Gradienten zu ermitteln. Der vertikale Gradient erfasst den Unterschied in den Intensitäts- oder Pixelwerten der Pixel, die dem Himmelabschnitt 82 entsprechen, und denen, die dem Bodenabschnitt 84 entsprechen. Durch Identifizieren der Grenze des Himmelabschnitts 82 und des Bodenabschnitts 84 kann der Controller verwendet werden, um den Horizont 68 in den Bilddaten zu identifizieren.
-
In einigen Ausführungsformen kann ein Objektflussprozess genutzt werden, um die vertikale Verschiebung 70, horizontale Verschiebung 71 und/oder Drehverschiebung 72 zu identifizieren. Das Objektfluss-Erkennungsverfahren kann durch den Controller verarbeitet werden, indem eine erwartete Bewegung der Objekte 62 auf Basis einer Geschwindigkeit des Fahrzeugs und/oder eines Trends bei der Bewegung der Objekte 62 identifiziert wird. Die Objekte 62 in einer Abfolge von Einzelbildern, die durch den Imager 30 erfasst werden, können zum Beispiel zu einem Fluchtpunkt des Sichtfelds 36 tendieren. Demgemäß kann eine Schwankung im optischen Fluss oder Objektfluss entgegen dem Trend auf Basis der Geschwindigkeit des Fahrzeugs durch den Controller identifiziert werden, um die Höhe der Emission 28 anzupassen.
-
Systeme, die verschiedene Erkennungstechniken zeigen, die in dem Beleuchtungssystem
12 implementiert werden können, werden näher erörtert in US-Publikation Nr.
US 2014/0015972 A1 mit dem Titel „STAND ALONE BLIND SPOT DETECTION SYSTEM“, eingereicht am 11. Juli 2013 von Steven G. Hoek et al.;
US-Pat. Nr. 8,924,078 , mit dem Titel „IMAGE ACQUISITION AND PROCESSING SYSTEM FOR VEHICLE EQUIPMENT CONTROL“, eingereicht am 17. Okt. 2011 von Oliver M. Jeromin et al.;
US-Pat. Nr. 8,577,169 , mit dem Titel „DIGITAL IMAGE PROCESSING AND SYSTEMS INCORPORATING THE SAME“, eingereicht am 1. Feb. 2010 durch Jeremy C. Andrus et al.;
US-Pat. Nr. 8,065,053 B2 , mit dem Titel „IMAGE ACQUISITION AND PROCESSING SYSTEMS FOR VEHICLE EQUIPMENT CONTROL“, eingereicht am 31. Jan. 2011 durch Joseph S. Stam et al.; und
US-Pat. Nr. 8,543,254 B1 , mit dem Titel „VEHICULAR IMAGING SYSTEM AND METHOD FOR DETERMINING ROADWAY WIDTH“, eingereicht am 28. März 2012 durch Jeremy A. Schut et al., die hierin durch Verweis in ihrer Gesamtheit einbezogen werden.
-
Unter nun erfolgter Bezugnahme auf 4 ist ein Prozessdiagramm 88 dargestellt, das ein Verfahren zum Anpassen der einen oder mehreren Höhen 44 der Emission 28 von dem einen oder den mehreren hierin erörterten Scheinwerfern 18 zeigt. Das Verfahren kann beginnen, indem es die Bilddaten über den Imager 30 erfasst und die Bilddaten an den Controller 90 übermittelt. Mindestens ein Prozessor des Controllers 90 kann so konfiguriert sein, dass er einen oder mehrere Verarbeitungsschritte 92 bei den Bilddaten durchführt, um den Fluchtpunkt 64, den Horizont 68 oder irgendwelche anderen erkannten Merkmale 60 oder Objekte 62 zu ermitteln, die in den Bilddaten möglicherweise identifiziert werden. Die Merkmale 60 oder Objekte 62, die in den Bilddaten identifiziert werden, können durch den Prozessor genutzt werden, um mindestens eines von der horizontalen Verschiebung 71, der vertikalen Verschiebung 70 und der Drehverschiebung 72 aus den Bilddaten zu identifizieren.
-
Der eine oder die mehreren Verarbeitungsschritte 92 können einen Horizont-Erkennungsschritt 94, einen Objekt-Erkennungsschritt 96 und einen Fluchtpunkt-Erkennungsschritt 98 beinhalten. Auf Basis der Merkmale, die durch den Prozessor in den Bildverarbeitungsschritten 92 identifiziert werden, kann der Prozessor verwendet werden, um einen oder mehrere Versätze zu erzeugen, die in einem Scheinwerferlicht-Zielanpassungsschritt 100 angewandt werden können, um die Höhe der Emissionen 28 von den Scheinwerfern 18a und 18b anzupassen. Der eine oder die mehreren Prozessoren können eines oder mehrere Module umfassen, die so konfiguriert sind, dass sie Verschiebungen in den Merkmalen und/oder Objekten 62 identifizieren, die in den Bilddaten erkannt werden, um die Höhe 44 der Emissionen 28 anzupassen und eine schnelle oder ruckelnde vertikale Bewegung 40 oder eine andere ähnliche schnelle Bewegung des Fahrzeugs 10 zu korrigieren oder auszugleichen.
-
Der Horizont-Erkennungsschritt 94 kann so konfiguriert sein, dass der Horizont 68 in einer Vielzahl von Einzelbildern der Bilddaten erkannt wird. Auf Basis einer Veränderung bei der vertikalen Position und/oder einem Winkel des Horizonts 68 kann der Controller verwendet werden, um den vertikalen Versatz 70 und/oder den Drehversatz 72 zu ermitteln. Ähnlich kann der Objekt-Erkennungsschritt 96 so konfiguriert sein, dass die Bewegung eines oder mehrerer Objekte 62 und/oder entsprechender Kanten in einer Vielzahl von Einzelbildern der Bilddaten erkannt wird, um den vertikalen Versatz 70 und/oder den Drehversatz 72 zu ermitteln. Außerdem kann der Controller 90 den Fluchtpunkt-Erkennungsschritt 98 verwenden, um zumindest den vertikalen Versatz 70 zu ermitteln. Auf diese Weise kann der Controller 90 eine Bewegung der Merkmale und/oder Objekte in den Bilddaten identifizieren, um ein Scheinwerfer-Steuersignal 102 zu erzeugen, um eine oder mehrere Höhen 44 der Emission 28 zu steuern.
-
In einigen Ausführungsformen kann der Controller 90 ferner so konfiguriert sein, dass er einen oder mehrere Signalkonditionierungsschritte auf den Scheinwerferlicht-Zielanpassungsschritt 100 anwendet. In manchen Fällen kann zum Beispiel eine langsame Bewegung eines oder mehrerer Objekte in den Bilddaten (z. B. der Horizont 68) über eine Reihe von Einzelbildern allmählichen Änderungen in der Szene 38 mit der Zeit entsprechen. Es kann sein, dass solche Änderungen nicht der vertikalen Bewegung 40 des Fahrzeugs 10 in Verbindung mit Unebenheiten in der Straßenfläche 41 oder anderen Faktoren entsprechen, die die vertikale Ebene 26 des mindestens einen Scheinwerfers 18, wie hierin beschrieben, beeinflussen können. Demgemäß kann der Controller 90 einen oder mehrere Filter anwenden, um die Daten von dem Imager 30 zu konditionieren, zum Beispiel einen Hochpassfilter. Mindestens ein Beispiel eines Hochpassfilters kann einen Filter beinhalten, der so konfiguriert ist, dass er Frequenzen von Bewegungsdaten in den Bilddaten dämpft, die von einer konstanten oder Null-Frequenz zu einem Pegel reichen, der erheblich unter einer Resonanzfrequenz einer Aufhängung des Fahrzeugs 10 liegt. Auf diese Weise dämpft der Controller 90 die Daten in Verbindung mit allmählichen Änderungen in der Szene 38.
-
Unter nun erfolgender Bezugnahme auf 5 ist ein Blockdiagramm des Beleuchtungssystems 12 dargestellt. Der Imager 30 ist in Verbindung mit dem Controller 90 dargestellt. Ein Pixel-Array des Imagers 30 kann einem CMOS-Bildsensor, zum Beispiel einem CMOS-Aktivpixelsensor (APS) oder einer ladungsgekoppelten Vorrichtung (CCD), entsprechen. Jedes der Pixel des Pixel-Arrays kann einem Fotosensor, einem Array von Fotosensoren oder einer beliebigen Gruppierung von Sensoren, die so konfiguriert sind, dass sie Licht erfassen, entsprechen. Der Controller 90 kann einen Prozessor 112 umfassen, der verwendet werden kann, um die Bilddaten wie geliefert in analoger oder digitaler Form im Imager 30 zu verarbeiten. Der Prozessor 90 kann zum Beispiel als eine Vielzahl von Prozessoren, ein Mehrkernprozessor oder eine beliebige Kombination von Prozessoren, Schaltungen und peripheren Verarbeitungsgeräten implementiert werden. Der Prozessor 112 kann eine Vielzahl von Modulen beinhalten, die so konfiguriert sind, dass sie die Bilddaten verarbeiten.
-
Der Controller 90 kann ferner einen Speicher 114 umfassen. Der Speicher 114 kann verschiedenen Formen von Speichern entsprechen, z. B. Direktzugriffsspeicher (RAM), dynamischer RAM (DRAM), synchroner DRAM (SDRAM) und andere Formen von Speichern, die konfiguriert sind, um digitale Informationen zu speichern. Der Speicher 114 kann zum Speichern der Bilddaten für die Verarbeitung konfiguriert sein. Das Verarbeiten der Bilddaten kann verschiedene Kantenerkennungs- und/oder Objekterkennungsschritte umfassen, wie hierin erörtert. Der Speicher kann für das Speichern verschiedener Algorithmen, Verarbeitungsanweisungen, Verfahrensschritte usw. konfiguriert sein, um die vertikale Bewegung 40 zu identifizieren und die eine oder mehreren Höhen 44 der Emission 28 anzupassen.
-
Der Controller 90 kann in Verbindung mit einer Vielzahl von Eingängen stehen, zum Beispiel einem Geschwindigkeitseingang 116 und einem Fahrzeugbus 118. Der Geschwindigkeitseingang 116 kann ein Signal bereitstellen, das eine Geschwindigkeit des Fahrzeugs 10 über einen Tachometer oder irgendein Gerät mitteilt, das verwendet werden kann, um Daten zu messen und zu übermitteln, die der Geschwindigkeit eines Fahrzeugs 10 entsprechen. Der Fahrzeugbus 118 kann unter Verwendung von jedem geeigneten Kommunikationsbus implementiert werden, wie z. B. einem Controller Area Network (CAN)-Bus. Der Fahrzeugbus 118 kann außerdem so konfiguriert sein, dass er dem Controller 90 eine Vielzahl von zusätzlichen Informationen bereitstellt.
-
Auf Basis der Bilddaten und der verschiedenen hierin erörterten Verarbeitungsschritte kann der Controller 90 so konfiguriert sein, dass er die Höhe 44 des mindestens einen Scheinwerfers 18 in Reaktion auf die vertikale Bewegung 40 des Fahrzeugs 10 steuert. In solchen Ausführungsformen kann der Controller 90 so konfiguriert sein, das er die Höhe 44 der Emission 28 unter einer Vielzahl von Ebenen anpasst. Der Controller 90 kann zum Beispiel so konfiguriert sein, dass er den ersten Scheinwerfer 18a aktiviert, um die erste Emission 28a auf einer Vielzahl von vertikalen Ebenen 46a, 48a und 50a unabhängig von der Steuerung des zweiten Scheinwerfers 18b zu aktivieren. Außerdem kann die Steuerung 90 so konfiguriert sein, dass sie den zweiten Scheinwerfer 18b aktiviert, um die zweite Emission 28b auf einer Vielzahl von vertikalen Ebenen 46b, 48b und 50b unabhängig von der Steuerung des ersten Scheinwerfers 18a zu emittieren.
-
Es ist erkennbar, dass Ausführungsformen der hierin beschriebenen Offenbarung einen oder mehrere herkömmliche Prozessoren und einzigartige gespeicherte Programmanweisungen umfassen können, die einen oder mehrere Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessor-Schaltungen einige, die meisten oder alle der Funktionen eines Bildsensorsystems und Verfahren davon zu implementieren, wie hierin beschrieben. Die Nicht-Prozessor-Schaltungen können Signaltreiber, Uhrschaltungen, Stromquellenschaltungen und/oder Benutzereingabegeräte beinhalten, sind aber nicht begrenzt darauf. Alternativ könnten einige oder alle Funktionen durch eine Statusmaschine implementiert werden, die keine gespeicherten Programmanweisungen aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), wobei jede Funktion oder einige Kombinationen der Funktionen als kundenspezifische Logik implementiert werden. Natürlich könnte eine Kombination der zwei Ansätze verwendet werden. Somit wurden die Verfahren und Mittel für diese Funktionen hierin beschrieben. Weiterhin wird erwartet, dass gewöhnliche Fachleute auf dem Gebiet, ungeachtet der möglicherweise erheblichen Anstrengungen und vielen Konstruktionsauswahlmöglichkeiten, motiviert durch beispielsweise verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen, leicht in der Lage sein werden, solche Softwareanweisungen und Programme sowie ICs mit minimalem Experimentieren zu erzeugen, wenn sie durch die hierin offenbarten Konzepte und Prinzipien geführt werden.
-
Es versteht sich für Fachleute auf dem Gebiet, dass die oben beschriebenen Komponenten auf zusätzliche oder alternative Arten kombiniert werden können, die hierin nicht explizit beschrieben sind. Modifikationen der unterschiedlichen Implementierungen der Offenbarung werden Fachleuten auf dem Gebiet, und denjenigen offensichtlich sein, die die Lehren der Offenbarung anwenden. Daher muss verstanden werden, dass die in den Zeichnungen dargestellten und vorstehend beschriebenen Ausführungsformen lediglich veranschaulichenden Zwecken dienen und nicht den Umfang der Offenbarung begrenzen sollen, der durch die Ansprüche festgelegt ist, wie sie gemäß den Prinzipien des Patentgesetzes einschließlich der Äquivalenzlehre interpretiert werden.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 2014/0015972 A1 [0028]
- US 8924078 [0028]
- US 8577169 [0028]
- US 8065053 B2 [0028]
- US 8543254 B1 [0028]