DE212017000101U1 - Kamerabasiertes Scheinwerferlicht-Steuerungssystem - Google Patents

Kamerabasiertes Scheinwerferlicht-Steuerungssystem Download PDF

Info

Publication number
DE212017000101U1
DE212017000101U1 DE212017000101.1U DE212017000101U DE212017000101U1 DE 212017000101 U1 DE212017000101 U1 DE 212017000101U1 DE 212017000101 U DE212017000101 U DE 212017000101U DE 212017000101 U1 DE212017000101 U1 DE 212017000101U1
Authority
DE
Germany
Prior art keywords
controller
lighting system
image data
headlamp
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE212017000101.1U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HL Klemove Corp
Original Assignee
Gentex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gentex Corp filed Critical Gentex Corp
Publication of DE212017000101U1 publication Critical patent/DE212017000101U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • B60Q1/10Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to vehicle inclination, e.g. due to load distribution
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0017Devices integrating an element dedicated to another function
    • B60Q1/0023Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/32Road surface or travel path
    • B60Q2300/324Road inclination, e.g. uphill or downhill

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

Beleuchtungssystem für ein Fahrzeug, umfassend:
ein Bildgerät bzw. einen Imager, der so konfiguriert ist, dass er Bilddaten in einer Vielzahl von Einzelbildern in einem Sichtfeld nach hinten in Bezug auf das Fahrzeug erfasst;
mindestens einen Scheinwerfer, der so konfiguriert ist, dass er mindestens eine Lichtemission auf einer Vielzahl von Höhen bzw. in einer Vielzahl von Höhenlagen ausgibt; und
ein Steuergerät bzw. einen Controller in Verbindung bzw. Kommunikation mit dem Imager und dem Scheinwerfer, wobei der Controller verwendet werden kann bzw. ausgelegt ist, um:
die Bilddaten zu verarbeiten, um mindestens ein Merkmal in einem ersten Einzelbild und einem zweiten Einzelbild der Vielzahl von Einzelbildern zu identifizieren;
eine Merkmalsbewegung auf Basis einer Pixelverschiebung des mindestens einen Merkmals von dem ersten Einzelbild zum zweiten Einzelbild zu identifizieren;
einen Wert bzw. eine Größe einer Fahrzeugbewegung auf Basis der Pixelverschiebung in den Bilddaten des mindestens einen Merkmals in den Bilddaten zu berechnen; und
die Höhe der ausgegebenen Emission in Reaktion auf die Bewegung anzupassen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft allgemein ein Beleuchtungssystem für ein Fahrzeug und insbesondere ein Scheinwerferlicht-System, das basierend auf einem Sichtfeld in Bezug auf das Fahrzeug angepasst ist.
  • KURZDARSTELLUNG
  • Gemäß einem Aspekt der vorliegenden Offenbarung wird ein Beleuchtungssystem für ein Fahrzeug offenbart. Das Beleuchtungssystem umfasst ein Bildgerät bzw. einen Imager, der so konfiguriert ist, dass er Bilddaten in einer Vielzahl von Einzelbildern in einem Sichtfeld nach hinten erfasst. Das System umfasst ferner mindestens einen Scheinwerfer, der so konfiguriert ist, dass er eine Lichtemission auf einer Vielzahl von Höhen bzw. Höhenlagen ausgibt, und ein Steuergerät bzw. einen Controller. Der Controller steht in Verbindung bzw. in Kommunikation mit dem Imager und dem Scheinwerfer. Der Controller kann verwendet werden bzw. ist ausgelegt, um die Bilddaten zu verarbeiten, um Merkmale in einem ersten Einzelbild und einem zweiten Einzelbild zu identifizieren. Der Controller kann ferner verwendet werden bzw. ist ausgelegt, um eine Bewegung der Merkmale von dem ersten Einzelbild zu dem zweiten Einzelbild zu identifizieren und die Höhe der ausgegebenen Emission in Reaktion auf die Bewegung anzupassen.
  • Gemäß einem anderen Aspekt der Offenbarung wird ein Beleuchtungssystem für ein Fahrzeug offenbart. Das System umfasst ein Bildgerät bzw. einen Imager, der so konfiguriert ist, dass er Bilddaten in einer Vielzahl von Einzelbildern in einem Sichtfeld nach hinten in Bezug auf das Fahrzeug erfasst, und mindestens einen Scheinwerfer, der so konfiguriert ist, dass er eine Lichtemission auf einer Vielzahl von Höhen bzw. Höhenlagen ausgibt. Ein Steuergerät bzw. ein Controller steht in Verbindung bzw. in Kommunikation mit dem Imager und dem Scheinwerfer. Der Controller ist so konfiguriert, dass er die Bilddaten verarbeitet, um mindestens ein Merkmal in einem ersten Einzelbild und einem zweiten Einzelbild der Vielzahl von Einzelbildern zu identifizieren, und dass er eine Bewegung des Merkmals von dem ersten Einzelbild zu dem zweiten Einzelbild identifiziert. Der Controller ist ferner so konfiguriert, dass er die Höhe der ausgegebenen Emission in Reaktion auf die Bewegung anpasst.
  • Gemäß noch einem anderen Aspekt der Offenbarung wird ein Beleuchtungssystem für ein Fahrzeug offenbart. Das System umfasst ein Bildgerät bzw. einen Imager, der so konfiguriert ist, dass er Bilddaten in einer Vielzahl von Einzelbildern in einem Sichtfeld nach hinten in Bezug auf das Fahrzeug erfasst. Das System umfasst ferner einen ersten Scheinwerfer, der so konfiguriert ist, dass er eine erste Emission emittiert, und einen zweiten Scheinwerfer, der so konfiguriert ist, dass er eine zweite Emission emittiert. Jeder Scheinwerfer ist so konfiguriert, dass er Licht in einer Vielzahl von Höhen bzw. Höhenlagen emittiert. Ein Steuergerät bzw. ein Controller steht in Verbindung bzw. in Kommunikation mit dem Imager und dem Scheinwerfer. Der Controller kann verwendet werden bzw. ist ausgelegt, um die Bilddaten zu verarbeiten, um mindestens ein Merkmal in einem ersten Einzelbild und einem zweiten Einzelbild der Vielzahl von Einzelbildern zu identifizieren, und eine Merkmalsbewegung auf Basis einer Pixelverschiebung des mindestens einen Merkmals von dem ersten Einzelbild zu dem zweiten Einzelbild zu identifizieren. Der Controller ist so konfiguriert, dass er eine Fahrzeugbewegung als eine Drehbewegung auf Basis der Pixelverschiebung in den Bilddaten identifiziert und eine erste Höhe bzw. Höhenlage der ersten Emission und eine zweite Höhe bzw. Höhenlage der zweiten Emission unabhängig in Reaktion auf die Drehbewegung anpasst.
  • Diese und weitere Merkmale, Vorteile und Gegenstände der vorliegenden Offenbarung werden unter Bezugnahme auf die nachfolgende Beschreibung, die Ansprüche und die hinzugefügten Zeichnungen von Fachleuten auf diesem Gebiet verstanden und gewürdigt.
  • Figurenliste
  • Die vorliegende Offenbarung wird anhand der ausführlichen Beschreibung und der zugehörigen Zeichnungen vollständiger verstanden, wobei:
    • 1 eine Seitenansicht eines Fahrzeugs ist, die ein Fahrzeugbeleuchtungssystem zeigt;
    • 2 ein Diagramm von Bilddaten ist, die einer Szene entsprechen, die von einem Rücksicht-Imager eines Beleuchtungssystems erfasst wird;
    • 3 eine Vorderansicht eines Fahrzeugs ist, die ein Fahrzeugbeleuchtungssystem zeigt;
    • 4 ein Prozessdiagramm ist, das ein Verfahren zum Anpassen einer Ebene der Scheinwerferlichter auf Basis der Bilddaten zeigt; und
    • 5 ein Blockdiagramm des Scheinwerferlicht-Systems gemäß der Offenbarung ist.
  • DETAILLIERTE BESCHREIBUNG
  • Die vorliegenden veranschaulichten Ausführungsformen liegen im Wesentlichen als Kombinationen von Verfahrensschritten und Gerätekomponenten in Bezug auf ein Bildsensorsystem und Verfahren dazu vor. Demgemäß wurden die Gerätekomponenten und Verfahrensschritte, sofern angemessen, in den Zeichnungen durch herkömmliche Symbole dargestellt, wobei nur jene spezifischen Details gezeigt werden, die für das Verständnis der Ausführungsformen der vorliegenden Offenbarung von Belang sind, um die Offenbarung nicht durch Details zu verschleiern, die gewöhnlichen Fachleuten auf diesem Gebiet, welche die vorliegende Beschreibung lesen, offensichtlich sind. Darüber hinaus kennzeichnen gleiche Bezugszeichen in der Beschreibung und in den Zeichnungen gleiche Elemente.
  • In diesem Dokument werden Beziehungsbegriffe, wie erste(r) und zweite(r), oben und unten, usw. nur zur Unterscheidung einer Einheit oder Aktion von einer anderen Einheit oder Aktion verwendet, ohne dass eine Beziehung oder Reihenfolge bei diesen Einheiten oder Aktionen erforderlich oder impliziert ist. Die Begriffe „umfasst/umfassen“, „umfassend“ oder jegliche Variationen hiervon decken insoweit eine nicht-ausschließliche Einbeziehung ab, als dass ein Prozess, Verfahren, Produkt oder eine Vorrichtung, der/die/das eine Liste von Elementen umfasst, nicht notwendigerweise auf diese Elemente beschränkt ist, sondern dass er/sie/es andere Elemente beinhalten kann, die nicht ausdrücklich aufgelistet sind oder die eines solchen Prozesses, Verfahrens, Produktes oder Gerätes inhärent sind.
  • Unter Bezugnahme auf 1 ist ein mit einem Beleuchtungssystem 12 ausgestattetes Fahrzeug 10 dargestellt. In einer exemplarischen Ausführungsform kann das Beleuchtungssystem 12 einem Scheinwerferlicht-System 14 entsprechen, das so konfiguriert ist, dass es eine Region 16 nach vorne in Bezug auf das Fahrzeug beleuchtet. Das Scheinwerferlicht-System 14 kann mindestens einen Scheinwerfer 18 umfassen, der so konfiguriert ist, dass er Licht von einer Vielzahl von Beleuchtungsabschnitten 20 selektiv emittiert. Die Beleuchtungsabschnitte 20 können einer Vielzahl von lichtemittierenden Quellen 22 entsprechen. In einigen Ausführungsformen kann die Vielzahl von Lichtquellen einer Matrix 24 von lichtemittierenden Quellen entsprechen, wie in Detail A gezeigt. In dieser Konfiguration kann das Scheinwerferlicht-System 14 so konfiguriert sein, dass es eine vertikale Ebene 26 oder eine Höhenebene einer Emission 28 von Licht steuert, das von mindestens einem Scheinwerfer 18 projiziert wird.
  • In einigen Ausführungsformen kann das Beleuchtungssystem 12 einen Controller umfassen, der so konfiguriert ist, dass er die vertikale Ebene 26 der Emission 28 auf Basis von Bilddaten steuert, die von einem Imager 30 erfasst werden. Der Imager 30 kann einem nach hinten gerichteten Bildsensor entsprechen. Auch wenn in Bezug auf einen nach hinten gerichteten Bildsensor erörtert, kann der Imager 30 in eine Vielzahl von Richtungen in Bezug auf eine Betriebsrichtung des Fahrzeugs 10 nach vorne gerichtet sein. Der Imager kann zum Beispiel nach vorne gerichtet und im Wesentlichen mit der Betriebsrichtung des Fahrzeugs 10 nach vorne ausgerichtet sein. In einigen Ausführungsformen kann der Imager 30 eine Komponente eines Rücksicht-Bildgebungssystems 32 ausbilden, das so konfiguriert ist, dass es Bilddaten auf einer Rücksicht-Anzeige 34 anzeigt. Daher kann der Imager 30 eine Komponente eines Rücksicht-Bildgebungssystems 32 ausbilden und kann verschiedene Verarbeitungskomponenten und/oder Kommunikationsschnittstellen mit dem Beleuchtungssystem 12 gemeinsam nutzen.
  • Der Controller des Beleuchtungssystems 12 kann so konfiguriert sein, dass er die Bilddaten empfängt, die durch den Imager 30 erfasst werden, um eine Ego-Bewegung des Fahrzeugs 10 zu erkennen. Die Bilddaten können einem Sichtfeld 36 entsprechen, das durch den Imager 30 erfasst wird. In einer exemplarischen Ausführungsform kann der Imager 30 so konfiguriert sein, dass er Bilddaten in einem Sichtfeld erfasst, die eine Szene 38 nach hinten vom Fahrzeug 10 zeigen. Demgemäß kann der Controller so konfiguriert sein, dass er eine vertikale Bewegung 40 des Fahrzeugs 10 in Bezug auf eine Straßenfläche 41 auf Basis der Bilddaten der Szene 38 erkennt. Der Controller kann dann die vertikale Bewegung 40, die aus den Bilddaten erkannt wird, nutzen, um die vertikale Ebene 26 des mindestens einen Scheinwerfers 18 zu steuern. Weitere Details bezüglich des Controllers des Beleuchtungssystems werden in Bezug auf 4 erörtert.
  • Wie in Detail A gezeigt, sind die Beleuchtungsabschnitte 20 als eine Vielzahl von Reihen 42 der lichtemittierenden Quellen 22 dargestellt, die die Matrix 24 ausbilden. Jeder der Beleuchtungsabschnitte 20 kann einer oder mehreren Reihen 42 der lichtemittierenden Quellen 22 entsprechen. Wie hierin erörtert, kann der Controller die vertikale Ebene 26 des mindestens einen Scheinwerfers 18 steuern, indem er jeden der Beleuchtungsabschnitte 20 selektiv aktiviert, um die Emission 28 auf einer Vielzahl von Höhen 44 auszugeben. Der Controller kann zum Beispiel jeden der Beleuchtungsabschnitte 20 selektiv aktivieren, um die Höhe 44 unter einer ersten vertikalen Ebene 46, einer zweiten vertikalen Ebene 48 und einer dritten vertikalen Ebene 50 anzupassen. Auf diese Weise kann der Controller die Höhe 44 der Emission 28 in Reaktion auf die vertikale Bewegung 40 des Fahrzeugs 10 rasch steuern. Auch wenn als drei vertikale Ebenen 46, 48 und 50 erörtert, können die Ebenen der vertikalen Zonen auf Basis der Eigenschaften eines großen Bereichs von Beleuchtungssystemen variieren, ohne vom Geist der Offenbarung abzuweichen.
  • Unter nun erfolgender Bezugnahme auf 2 wird das Sichtfeld 36 der Bilddaten der Szene 38 dargestellt, die durch den Imager 30 erfasst wird. Auf Basis der Bilddaten kann der Controller verschiedene Referenzmerkmale 60 erkennen, die mit der Zeit verglichen werden können, um die vertikale Bewegung 40 des Fahrzeugs 10 zu erkennen. Die Referenzmerkmale 60 können Kanten oder Gruppen von Kanten von verschiedenen Objekten 62 entsprechen, die durch einen oder mehrere Bildverarbeitungsalgorithmen erkannt werden können. Außerdem kann der Controller verwendet werden, um eine Vielzahl von Merkmalen zu erkennen, die in der Szene 38 häufig erkennbar sein können. Der Controller kann zum Beispiel mindestens eines von einem Fluchtpunkt 64 einer Straße 66, einem Horizont 68 und einer Vielzahl von Merkmalen erkennen, die in den Bilddaten identifiziert werden können. Auf Basis der Orte der Objekte 62 und/oder der Merkmale, die in den Bilddaten erkannt werden, kann der Controller die vertikale Bewegung 40 des Fahrzeugs 10 erkennen und die vertikalen Ebenen 46, 48 und 50 des mindestens einen Scheinwerfers 18 steuern, um eine offensichtliche Bewegung oder Schwankung bei der Höhe 44 der Emission 28 zu begrenzen. Die offensichtliche Bewegung kann einem schnellen Sprung, Ruck oder einer anderen schnellen Höhenschwankung in der Position oder Ausrichtung des Fahrzeugs 10 entsprechen.
  • Wie in 2 dargestellt, können die Objekte verschiedenen Arten von Objekten entsprechen, die häufig in der Nähe von Straßen identifiziert werden können. Die Objekte 62 können zum Beispiel einem natürlichen Merkmal 62a (z. B. einem Baum, einem Strauch, Vegetation usw.), einem nachfolgenden Fahrzeug 62b, einem Schild 62c, einem Strommasten 62d, einem Gebäude 62e, einem Landschaftsmerkmal 62f usw. entsprechen. Auch wenn spezifische Objekte 62 und/oder Merkmale erörtert werden, die als Referenzmerkmale 60 genutzt werden können, um die vertikale Bewegung 40 des Fahrzeugs 10 zu identifizieren, können verschiedene Objekte, die sich in der Nähe einer Schnellstraße befinden können, ähnlich identifiziert werden. Demgemäß stellt die Offenbarung eine flexible Lösung bereit, um für die Identifizierung von einem oder mehreren Objekten 62 und/oder Merkmalen zu sorgen, die bei der Identifizierung der vertikalen Bewegung 40 des Fahrzeugs 10 helfen.
  • In einigen Ausführungsformen können eines oder mehrere der Objekte Objekten entsprechen, die Licht emittieren und die nachts oder bei schlechten Beleuchtungsbedingungen sichtbar sind. Eines oder mehrere Objekte können zum Beispiel Lichtquellen 65 entsprechen, die in den Bilddaten erkannt werden. Wie dargestellt, können die Lichtquellen 65 einem Scheinwerferlicht 65a oder einem Rücklicht eines Fahrzeugs (z. B. Fahrzeug 62b) entsprechen, der/das im Sichtfeld 36 erfasst wird. Außerdem kann die Lichtquelle einem oder mehreren Gebäudelampen 65b, Straßenlampen 65c, Nutzlichtern oder einer Vielzahl von Lichtquellen entsprechen, die in der Nähe der Straße 66 erkannt werden können. Auf diese Weise kann der Controller des Beleuchtungssystems 12 so konfiguriert sein, dass er die Bilddaten empfängt, die durch den Imager 30 erfasst werden, um eine Ego-Bewegung des Fahrzeugs 10 zu erkennen.
  • Der Controller kann zum Beispiel eine vertikale Verschiebung 70 des Fluchtpunkts 64 in den Bilddaten unter zwei oder mehr Einzelbildern der Bilddaten identifizieren, um die vertikale Bewegung 40 des Fahrzeugs 10 zu identifizieren. Ähnlich kann der Controller die vertikale Verschiebung 70 des Horizonts 68 erkennen, um die vertikale Bewegung 40 zu identifizieren. Die vertikale Bewegung 40 des Fahrzeugs 10 kann als eine Pixelverschiebung von einer oder mehreren Kanten der Referenzmerkmale 60 und/oder Objekte 62 oder Merkmalen, die in den Bilddaten in einer kalibrierten Entfernung erkannt werden, identifiziert werden. Die kalibrierte Entfernung kann auf einer bekannten oder früher kalibrierten Brennweite des Imagers 30 basieren. In dieser Konfiguration kann der Controller die Bilddaten verarbeiten, um einen Wert bzw. eine Größe bzw. eine Größenordnung der vertikalen Bewegung 40 oder einer anderen Bewegung des Fahrzeugs 10 zu identifizieren, um die Höhe 44 der Emission 28 genau zu steuern.
  • Im Betrieb kann der Controller eine Pixelverschiebung des mindestens einen Merkmals 60 und/oder Objekten 62 in den Bilddaten über eine Vielzahl von Einzelbildern identifizieren. Auf Basis der Pixelverschiebung kann der Controller einen Wert bzw. eine Größe bzw. eine Größenordnung einer Bewegung des Fahrzeugs 10 berechnen. Der Controller kann einen Wert bzw. eine Größe bzw. eine Größenordnung der Bewegung des Fahrzeugs 10 identifizieren, indem er eine Entfernung der Pixelverschiebung im Sichtfeld 36 des Imagers 30 mit einer kalibrierten Entfernung der Brennweite des Imagers 30 vergleicht. Auf Basis des Vergleichs kann der Controller den Wert der Bewegung des Fahrzeugs 10 identifizieren und die Höhe 44 oder Ebene des mindestens einen Scheinwerfers 18 anpassen, um die Bewegung des Fahrzeugs 10 auszugleichen und eine entsprechende Bewegung der Emission 28 zu verhindern.
  • Unter nun erfolgter Bezugnahme auf 2 und 3 kann die Emission 28 in einigen Ausführungsformen einer ersten Emission 28a eines ersten Scheinwerfers 18a und einer zweiten Emission 28b eines zweiten Scheinwerfers 18b entsprechen. Der erste Scheinwerfer 18a kann einem Scheinwerfer auf der Fahrerseite entsprechen und der zweiten Scheinwerfer 18b kann einem Scheinwerfer auf der Beifahrerseite entsprechen. In einer solchen Konfiguration kann der Controller so konfiguriert sein, dass er eine erste Höhe 44a des ersten Scheinwerfers 18a unabhängig von einer zweiten Höhe 44b des zweiten Scheinwerfers 18b auf Basis der Bilddaten steuert. Der Controller kann zum Beispiel eine Drehverschiebung 72 auf Basis einer Drehbewegung (z. B. einer Winkeländerung bei der Position) des Horizonts 68 und/oder eine Rotation eines oder mehrerer Kanten oder Objekte, die in einer Vielzahl von Einzelbildern der Bilddaten identifiziert werden, identifizieren. Demgemäß kann der Controller so konfiguriert sein, dass er den ersten Scheinwerfer 18a aktiviert, um die erste Emission 28a auf einer Vielzahl von vertikalen Ebenen 46a, 48a und 50a unabhängig von der Steuerung des zweiten Scheinwerfers 18b zu aktivieren. Außerdem kann der Controller so konfiguriert sein, dass er den zweiten Scheinwerfer 18b aktiviert, um die zweite Emission 28b auf einer Vielzahl von vertikalen Ebenen 46b, 48b und 50b unabhängig von der Steuerung des ersten Scheinwerfers 18a zu emittieren.
  • In Reaktion auf das Erkennen einer Verschiebung im Uhrzeigersinn bei der Vielzahl von Objekten und/oder des Horizonts 68 kann der Controller zum Beispiel die erste Höhe 44a des ersten Scheinwerfers 18a nach oben und die zweite Höhe 44b des zweiten Scheinwerfers 18b nach unten anpassen. Ähnlich kann der Controller in Reaktion auf eine Verschiebung gegen den Uhrzeigersinn die erste Höhe 44a des ersten Scheinwerfers 18a nach unten und die zweite Höhe 44b des zweiten Scheinwerfers 18b nach oben anpassen. Insbesondere kann der Controller in Reaktion auf eine Verschiebung nach oben auf der Fahrerseite, die in den Bilddaten identifiziert wird, die erste Höhe 44a des ersten Scheinwerfers 18a nach unten anpassen. Das heißt, um die Verschiebung nach oben in den Bilddaten auszugleichen, kann der Controller die erste Höhe 44a absenken, um ein Blenden des entgegenkommenden Verkehrs zu vermeiden. In Reaktion auf eine Verschiebung auf der Beifahrerseite, die in den Bilddaten identifiziert wird, kann der Controller die zweite Höhe 44b des zweiten Scheinwerfers 18b nach oben anpassen. Um die Verschiebung nach unten in den Bilddaten auszugleichen, kann der Controller die zweite Höhe 44b absenken, um es zu vermeiden, die effektive Projektionsentfernung der zweiten Emission 28b zu verlieren.
  • Wie hierin erörtert, können eine vertikale Verschiebung 70, eine horizontale Verschiebung 71 und/oder eine Drehverschiebung 72 des einen oder der mehreren Objekte 62 oder Merkmale in den Bilddaten identifiziert werden, indem eine erste Position einer Kante oder eines Objekts in einem ersten Bild mit einer zweiten Position der Kante oder des Objekts in einem zweiten Einzelbild verglichen wird. Das nachfolgende oder zweite Einzelbild kann einem Einzelbild entsprechen, das durch den Imager 30 erfasst wurde, nachdem ein Zeitraum von der Erfassung des ersten Einzelbilds vergangen ist. In dieser Konfiguration kann die Reaktionszeit des Controllers, um die Bewegung des einen oder der mehreren Objekte 62 oder Merkmale zu erkennen, zumindest teilweise von einer Einzelbildrate des Imagers 30 und einer Verarbeitungsgeschwindigkeit des Controllers abhängen.
  • In einigen Ausführungsformen kann das Beleuchtungssystem 12 so konfiguriert sein, dass es die Effekte von einer oder mehreren Verzögerungen bei einer Reaktionszeit zwischen dem Identifizieren der vertikalen Bewegung 40 des Fahrzeugs 10 und dem Anpassen der vertikalen Ebene 26 des mindestens einen Scheinwerfers 18 verringert. Einige potenzielle Verzögerungsquellen können mit einem oder mehreren Schritten der Bildaufnahme durch den Imager 30 oder der Bildverarbeitung durch den Controller verbunden sein. Außerdem kann eine Verzögerung durch Nachrichten oder Kommunikationen vom Imager 30 zum Controller (z. B. Kommunikation über einen Fahrzeug-Bus oder Can-Bus) usw. verursacht werden. Demgemäß kann das Beleuchtungssystem eines oder mehrere Vorhersageverfahren nutzen, um die vertikale Bewegung auf Basis der vertikalen Verschiebung 70 oder einer anderen Bewegung zu identifizieren, die in den Bilddaten identifiziert wird.
  • Ein Vorhersageverfahren, das durch den Controller genutzt werden kann, kann der Anwendung von einem oder mehreren prädiktiven Filtern entsprechen. Die prädiktiven Filter können angewandt werden, um eine zukünftige Höhe für die Emission 28 für eine Höhenanpassung zu einer zukünftigen Zeit vorherzusagen. Eine zukünftige Höhe kann auf Basis einer Vielzahl von früher identifizierten Bewegungen zwischen den Einzelbildern von Objekten 62 vorhergesagt werden, die in den Bilddaten identifiziert werden. Auf Basis der Bewegungen zwischen den Einzelbildern kann die zukünftige Höhe der Emission 28 auf Basis von einem oder mehreren früher identifizierten Bewegungsvektoren für die Objekte 62 vorhergesagt werden, die in den Bilddaten identifiziert werden. Auf diese Weise kann der Controller die zukünftige Höhe der Emission so schätzen, dass das System 12 die Höhe 44 auf Basis einer antizipierten oder zukünftigen vertikalen Bewegung 40 des Fahrzeugs 10 anpassen kann. Demgemäß kann das System so konfiguriert sein, dass es eine aktuelle Höhe der ausgegebenen Emission 28 an eine zukünftige, antizipierte Höhe in Reaktion auf eine antizipierte vertikale Bewegung des Fahrzeugs 10 anpasst.
  • Es kann zum Beispiel ein adaptiver linearer Vorhersagefilter auf die Ergebnisse eines Scheinwerferlicht-Zielanpassungsschritts angewandt werden, um die Höhe der Emissionen von den Scheinwerfern 18a und 18b anzupassen. Auf diese Weise kann das System 12 verwendet werden, um die zukünftige Höhe der ausgegebenen Emission 28a und 28b anzupassen, um das Erscheinen einer Verzögerung in einer Systemantwort des Beleuchtungssystems 12 zu verhindern. Die Verzögerung kann eine Reaktion auf die Zeit sein, die das System 12 benötigt, um die Bilddaten zu erfassen, die Bilddaten zu verarbeiten, oder eine Reaktionszeit des mindestens einen Scheinwerfers 18, um die Höhe der Emission 28 zu steuern. Der Scheinwerferlicht-Zielanpassungsschritt wird in Bezug auf 4 als Schritt 100 näher erörtert. Wie hierin erörtert, kann der Controller die Ausgabe für zukünftige Anpassungen der Scheinwerfer 18a und 18b auf Basis eines Umfangs der festen statischen Verzögerung vorhersagen. Daher kann das Beleuchtungssystem 12 Fehler in Verbindung mit einer oder mehreren Verzögerungen, wie hierin erörtert, verringern.
  • Der Controller kann so konfiguriert sein, dass er verschiedene Algorithmen und Verfahren nutzt, um Merkmale in den Bilddaten zu identifizieren. Der Controller kann zum Beispiel so konfiguriert sein, dass er einen adaptiven Kantenerkennungsprozess nutzt, um die Fahrbahnen und Abschnitte der Straße 66 zu identifizieren, um den Fluchtpunkt 64 oder Horizont 68 zu identifizieren. Außerdem kann der Controller so konfiguriert sein, dass er einen Grenzkontrast-Algorithmus nutzt, um den Horizont 68 zu erkennen, indem er eine Gradientenschwelle einer Reihe von Pixelwerten der Bilddaten erkennt. Auch wenn hierin bestimmte Bildverarbeitungsverfahren erörtert werden, werden die Verfahren zur Erklärung und nicht zur Einschränkung vorgestellt. Daher soll die Offenbarung nicht auf solche exemplarischen Ausführungsformen beschränkt werden, sofern nicht ausdrücklich anders angegeben.
  • Der adaptive Kantenerkennungsprozess kann eine Kantenerkennungsmaske verwenden, um einen Gradienten an Pixelorten in den Bilddaten anzunähern. Wenn ein Pixel vorher festgelegte Kriterien für einen Intensitätswert und einen Gradientenschwellenwert erfüllt, kann der Controller die Pixel als Pixel einer Kandidaten-Fahrbahnlinie identifizieren. Wenn die Bilddaten, die einem aktuellen Einzelbild entsprechen, das durch den Imager 30 erfasst wird, verarbeitet werden, werden die Pixel der Kandidaten-Fahrbahnlinie genutzt, um ein am besten passendes Polynom zu erzeugen, um eine Fahrbahnlinie der Straße 66 zu modellieren. In einigen Ausführungsformen kann das am besten passende Polynom einem Polynom dritter Ordnung entsprechen. Auf diese Weise können die Pixel der Kandidaten-Fahrbahnlinie genutzt werden, um ein linkes Fahrbahnlinien-Modell 66a und ein rechtes Fahrbahnlinien-Modell 66b zu erzeugen, das den Seiten der Straße 66 entsprechen kann. Das linke Fahrbahnlinien-Modell 66a und das rechte Fahrbahnlinien-Modell 66b können verwendet werden, um den Schnittpunkt der Seiten der Straße 66 zu ermitteln, der dem Fluchtpunkt 64 in den Bilddaten entsprechen kann.
  • Der Controller kann den Horizontgrenzkontrast-Algorithmus verwenden, um Gruppen von Pixeln in den Bilddaten zu erkennen, um den Horizont 68 zu identifizieren. Jede der Gruppen von Pixeln kann Abschnitten oder Feldern aufeinanderfolgender Pixel in den Bilddaten entsprechen, die die Grenze zwischen einem Himmelabschnitt 82 und einem Bodenabschnitt 84 der Bilddaten enthalten. Der Horizontgrenzkontrast-Algorithmus kann den Kontrast zwischen dem Himmelabschnitt 82 und dem Bodenabschnitt analysieren, um einen Ort des Horizonts 68 zu ermitteln. Der Kontrast kann durch Berechnen einer Pixelintensität vertikal in den Bilddaten analysiert werden, um einen vertikalen Gradienten zu ermitteln. Der vertikale Gradient erfasst den Unterschied in den Intensitäts- oder Pixelwerten der Pixel, die dem Himmelabschnitt 82 entsprechen, und denen, die dem Bodenabschnitt 84 entsprechen. Durch Identifizieren der Grenze des Himmelabschnitts 82 und des Bodenabschnitts 84 kann der Controller verwendet werden, um den Horizont 68 in den Bilddaten zu identifizieren.
  • In einigen Ausführungsformen kann ein Objektflussprozess genutzt werden, um die vertikale Verschiebung 70, horizontale Verschiebung 71 und/oder Drehverschiebung 72 zu identifizieren. Das Objektfluss-Erkennungsverfahren kann durch den Controller verarbeitet werden, indem eine erwartete Bewegung der Objekte 62 auf Basis einer Geschwindigkeit des Fahrzeugs und/oder eines Trends bei der Bewegung der Objekte 62 identifiziert wird. Die Objekte 62 in einer Abfolge von Einzelbildern, die durch den Imager 30 erfasst werden, können zum Beispiel zu einem Fluchtpunkt des Sichtfelds 36 tendieren. Demgemäß kann eine Schwankung im optischen Fluss oder Objektfluss entgegen dem Trend auf Basis der Geschwindigkeit des Fahrzeugs durch den Controller identifiziert werden, um die Höhe der Emission 28 anzupassen.
  • Systeme, die verschiedene Erkennungstechniken zeigen, die in dem Beleuchtungssystem 12 implementiert werden können, werden näher erörtert in US-Publikation Nr. US 2014/0015972 A1 mit dem Titel „STAND ALONE BLIND SPOT DETECTION SYSTEM“, eingereicht am 11. Juli 2013 von Steven G. Hoek et al.; US-Pat. Nr. 8,924,078 , mit dem Titel „IMAGE ACQUISITION AND PROCESSING SYSTEM FOR VEHICLE EQUIPMENT CONTROL“, eingereicht am 17. Okt. 2011 von Oliver M. Jeromin et al.; US-Pat. Nr. 8,577,169 , mit dem Titel „DIGITAL IMAGE PROCESSING AND SYSTEMS INCORPORATING THE SAME“, eingereicht am 1. Feb. 2010 durch Jeremy C. Andrus et al.; US-Pat. Nr. 8,065,053 B2 , mit dem Titel „IMAGE ACQUISITION AND PROCESSING SYSTEMS FOR VEHICLE EQUIPMENT CONTROL“, eingereicht am 31. Jan. 2011 durch Joseph S. Stam et al.; und US-Pat. Nr. 8,543,254 B1 , mit dem Titel „VEHICULAR IMAGING SYSTEM AND METHOD FOR DETERMINING ROADWAY WIDTH“, eingereicht am 28. März 2012 durch Jeremy A. Schut et al., die hierin durch Verweis in ihrer Gesamtheit einbezogen werden.
  • Unter nun erfolgter Bezugnahme auf 4 ist ein Prozessdiagramm 88 dargestellt, das ein Verfahren zum Anpassen der einen oder mehreren Höhen 44 der Emission 28 von dem einen oder den mehreren hierin erörterten Scheinwerfern 18 zeigt. Das Verfahren kann beginnen, indem es die Bilddaten über den Imager 30 erfasst und die Bilddaten an den Controller 90 übermittelt. Mindestens ein Prozessor des Controllers 90 kann so konfiguriert sein, dass er einen oder mehrere Verarbeitungsschritte 92 bei den Bilddaten durchführt, um den Fluchtpunkt 64, den Horizont 68 oder irgendwelche anderen erkannten Merkmale 60 oder Objekte 62 zu ermitteln, die in den Bilddaten möglicherweise identifiziert werden. Die Merkmale 60 oder Objekte 62, die in den Bilddaten identifiziert werden, können durch den Prozessor genutzt werden, um mindestens eines von der horizontalen Verschiebung 71, der vertikalen Verschiebung 70 und der Drehverschiebung 72 aus den Bilddaten zu identifizieren.
  • Der eine oder die mehreren Verarbeitungsschritte 92 können einen Horizont-Erkennungsschritt 94, einen Objekt-Erkennungsschritt 96 und einen Fluchtpunkt-Erkennungsschritt 98 beinhalten. Auf Basis der Merkmale, die durch den Prozessor in den Bildverarbeitungsschritten 92 identifiziert werden, kann der Prozessor verwendet werden, um einen oder mehrere Versätze zu erzeugen, die in einem Scheinwerferlicht-Zielanpassungsschritt 100 angewandt werden können, um die Höhe der Emissionen 28 von den Scheinwerfern 18a und 18b anzupassen. Der eine oder die mehreren Prozessoren können eines oder mehrere Module umfassen, die so konfiguriert sind, dass sie Verschiebungen in den Merkmalen und/oder Objekten 62 identifizieren, die in den Bilddaten erkannt werden, um die Höhe 44 der Emissionen 28 anzupassen und eine schnelle oder ruckelnde vertikale Bewegung 40 oder eine andere ähnliche schnelle Bewegung des Fahrzeugs 10 zu korrigieren oder auszugleichen.
  • Der Horizont-Erkennungsschritt 94 kann so konfiguriert sein, dass der Horizont 68 in einer Vielzahl von Einzelbildern der Bilddaten erkannt wird. Auf Basis einer Veränderung bei der vertikalen Position und/oder einem Winkel des Horizonts 68 kann der Controller verwendet werden, um den vertikalen Versatz 70 und/oder den Drehversatz 72 zu ermitteln. Ähnlich kann der Objekt-Erkennungsschritt 96 so konfiguriert sein, dass die Bewegung eines oder mehrerer Objekte 62 und/oder entsprechender Kanten in einer Vielzahl von Einzelbildern der Bilddaten erkannt wird, um den vertikalen Versatz 70 und/oder den Drehversatz 72 zu ermitteln. Außerdem kann der Controller 90 den Fluchtpunkt-Erkennungsschritt 98 verwenden, um zumindest den vertikalen Versatz 70 zu ermitteln. Auf diese Weise kann der Controller 90 eine Bewegung der Merkmale und/oder Objekte in den Bilddaten identifizieren, um ein Scheinwerfer-Steuersignal 102 zu erzeugen, um eine oder mehrere Höhen 44 der Emission 28 zu steuern.
  • In einigen Ausführungsformen kann der Controller 90 ferner so konfiguriert sein, dass er einen oder mehrere Signalkonditionierungsschritte auf den Scheinwerferlicht-Zielanpassungsschritt 100 anwendet. In manchen Fällen kann zum Beispiel eine langsame Bewegung eines oder mehrerer Objekte in den Bilddaten (z. B. der Horizont 68) über eine Reihe von Einzelbildern allmählichen Änderungen in der Szene 38 mit der Zeit entsprechen. Es kann sein, dass solche Änderungen nicht der vertikalen Bewegung 40 des Fahrzeugs 10 in Verbindung mit Unebenheiten in der Straßenfläche 41 oder anderen Faktoren entsprechen, die die vertikale Ebene 26 des mindestens einen Scheinwerfers 18, wie hierin beschrieben, beeinflussen können. Demgemäß kann der Controller 90 einen oder mehrere Filter anwenden, um die Daten von dem Imager 30 zu konditionieren, zum Beispiel einen Hochpassfilter. Mindestens ein Beispiel eines Hochpassfilters kann einen Filter beinhalten, der so konfiguriert ist, dass er Frequenzen von Bewegungsdaten in den Bilddaten dämpft, die von einer konstanten oder Null-Frequenz zu einem Pegel reichen, der erheblich unter einer Resonanzfrequenz einer Aufhängung des Fahrzeugs 10 liegt. Auf diese Weise dämpft der Controller 90 die Daten in Verbindung mit allmählichen Änderungen in der Szene 38.
  • Unter nun erfolgender Bezugnahme auf 5 ist ein Blockdiagramm des Beleuchtungssystems 12 dargestellt. Der Imager 30 ist in Verbindung mit dem Controller 90 dargestellt. Ein Pixel-Array des Imagers 30 kann einem CMOS-Bildsensor, zum Beispiel einem CMOS-Aktivpixelsensor (APS) oder einer ladungsgekoppelten Vorrichtung (CCD), entsprechen. Jedes der Pixel des Pixel-Arrays kann einem Fotosensor, einem Array von Fotosensoren oder einer beliebigen Gruppierung von Sensoren, die so konfiguriert sind, dass sie Licht erfassen, entsprechen. Der Controller 90 kann einen Prozessor 112 umfassen, der verwendet werden kann, um die Bilddaten wie geliefert in analoger oder digitaler Form im Imager 30 zu verarbeiten. Der Prozessor 90 kann zum Beispiel als eine Vielzahl von Prozessoren, ein Mehrkernprozessor oder eine beliebige Kombination von Prozessoren, Schaltungen und peripheren Verarbeitungsgeräten implementiert werden. Der Prozessor 112 kann eine Vielzahl von Modulen beinhalten, die so konfiguriert sind, dass sie die Bilddaten verarbeiten.
  • Der Controller 90 kann ferner einen Speicher 114 umfassen. Der Speicher 114 kann verschiedenen Formen von Speichern entsprechen, z. B. Direktzugriffsspeicher (RAM), dynamischer RAM (DRAM), synchroner DRAM (SDRAM) und andere Formen von Speichern, die konfiguriert sind, um digitale Informationen zu speichern. Der Speicher 114 kann zum Speichern der Bilddaten für die Verarbeitung konfiguriert sein. Das Verarbeiten der Bilddaten kann verschiedene Kantenerkennungs- und/oder Objekterkennungsschritte umfassen, wie hierin erörtert. Der Speicher kann für das Speichern verschiedener Algorithmen, Verarbeitungsanweisungen, Verfahrensschritte usw. konfiguriert sein, um die vertikale Bewegung 40 zu identifizieren und die eine oder mehreren Höhen 44 der Emission 28 anzupassen.
  • Der Controller 90 kann in Verbindung mit einer Vielzahl von Eingängen stehen, zum Beispiel einem Geschwindigkeitseingang 116 und einem Fahrzeugbus 118. Der Geschwindigkeitseingang 116 kann ein Signal bereitstellen, das eine Geschwindigkeit des Fahrzeugs 10 über einen Tachometer oder irgendein Gerät mitteilt, das verwendet werden kann, um Daten zu messen und zu übermitteln, die der Geschwindigkeit eines Fahrzeugs 10 entsprechen. Der Fahrzeugbus 118 kann unter Verwendung von jedem geeigneten Kommunikationsbus implementiert werden, wie z. B. einem Controller Area Network (CAN)-Bus. Der Fahrzeugbus 118 kann außerdem so konfiguriert sein, dass er dem Controller 90 eine Vielzahl von zusätzlichen Informationen bereitstellt.
  • Auf Basis der Bilddaten und der verschiedenen hierin erörterten Verarbeitungsschritte kann der Controller 90 so konfiguriert sein, dass er die Höhe 44 des mindestens einen Scheinwerfers 18 in Reaktion auf die vertikale Bewegung 40 des Fahrzeugs 10 steuert. In solchen Ausführungsformen kann der Controller 90 so konfiguriert sein, das er die Höhe 44 der Emission 28 unter einer Vielzahl von Ebenen anpasst. Der Controller 90 kann zum Beispiel so konfiguriert sein, dass er den ersten Scheinwerfer 18a aktiviert, um die erste Emission 28a auf einer Vielzahl von vertikalen Ebenen 46a, 48a und 50a unabhängig von der Steuerung des zweiten Scheinwerfers 18b zu aktivieren. Außerdem kann die Steuerung 90 so konfiguriert sein, dass sie den zweiten Scheinwerfer 18b aktiviert, um die zweite Emission 28b auf einer Vielzahl von vertikalen Ebenen 46b, 48b und 50b unabhängig von der Steuerung des ersten Scheinwerfers 18a zu emittieren.
  • Es ist erkennbar, dass Ausführungsformen der hierin beschriebenen Offenbarung einen oder mehrere herkömmliche Prozessoren und einzigartige gespeicherte Programmanweisungen umfassen können, die einen oder mehrere Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessor-Schaltungen einige, die meisten oder alle der Funktionen eines Bildsensorsystems und Verfahren davon zu implementieren, wie hierin beschrieben. Die Nicht-Prozessor-Schaltungen können Signaltreiber, Uhrschaltungen, Stromquellenschaltungen und/oder Benutzereingabegeräte beinhalten, sind aber nicht begrenzt darauf. Alternativ könnten einige oder alle Funktionen durch eine Statusmaschine implementiert werden, die keine gespeicherten Programmanweisungen aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), wobei jede Funktion oder einige Kombinationen der Funktionen als kundenspezifische Logik implementiert werden. Natürlich könnte eine Kombination der zwei Ansätze verwendet werden. Somit wurden die Verfahren und Mittel für diese Funktionen hierin beschrieben. Weiterhin wird erwartet, dass gewöhnliche Fachleute auf dem Gebiet, ungeachtet der möglicherweise erheblichen Anstrengungen und vielen Konstruktionsauswahlmöglichkeiten, motiviert durch beispielsweise verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen, leicht in der Lage sein werden, solche Softwareanweisungen und Programme sowie ICs mit minimalem Experimentieren zu erzeugen, wenn sie durch die hierin offenbarten Konzepte und Prinzipien geführt werden.
  • Es versteht sich für Fachleute auf dem Gebiet, dass die oben beschriebenen Komponenten auf zusätzliche oder alternative Arten kombiniert werden können, die hierin nicht explizit beschrieben sind. Modifikationen der unterschiedlichen Implementierungen der Offenbarung werden Fachleuten auf dem Gebiet, und denjenigen offensichtlich sein, die die Lehren der Offenbarung anwenden. Daher muss verstanden werden, dass die in den Zeichnungen dargestellten und vorstehend beschriebenen Ausführungsformen lediglich veranschaulichenden Zwecken dienen und nicht den Umfang der Offenbarung begrenzen sollen, der durch die Ansprüche festgelegt ist, wie sie gemäß den Prinzipien des Patentgesetzes einschließlich der Äquivalenzlehre interpretiert werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2014/0015972 A1 [0028]
    • US 8924078 [0028]
    • US 8577169 [0028]
    • US 8065053 B2 [0028]
    • US 8543254 B1 [0028]

Claims (21)

  1. Es wird Folgendes beansprucht:
  2. Beleuchtungssystem für ein Fahrzeug, umfassend: ein Bildgerät bzw. einen Imager, der so konfiguriert ist, dass er Bilddaten in einer Vielzahl von Einzelbildern in einem Sichtfeld nach hinten in Bezug auf das Fahrzeug erfasst; mindestens einen Scheinwerfer, der so konfiguriert ist, dass er mindestens eine Lichtemission auf einer Vielzahl von Höhen bzw. in einer Vielzahl von Höhenlagen ausgibt; und ein Steuergerät bzw. einen Controller in Verbindung bzw. Kommunikation mit dem Imager und dem Scheinwerfer, wobei der Controller verwendet werden kann bzw. ausgelegt ist, um: die Bilddaten zu verarbeiten, um mindestens ein Merkmal in einem ersten Einzelbild und einem zweiten Einzelbild der Vielzahl von Einzelbildern zu identifizieren; eine Merkmalsbewegung auf Basis einer Pixelverschiebung des mindestens einen Merkmals von dem ersten Einzelbild zum zweiten Einzelbild zu identifizieren; einen Wert bzw. eine Größe einer Fahrzeugbewegung auf Basis der Pixelverschiebung in den Bilddaten des mindestens einen Merkmals in den Bilddaten zu berechnen; und die Höhe der ausgegebenen Emission in Reaktion auf die Bewegung anzupassen.
  3. Beleuchtungssystem nach Anspruch 1, wobei der Wert der Fahrzeugbewegung auf Basis eines Vergleichs der Pixelverschiebung mit einer kalibrierten Entfernung der Brennweite des Imagers berechnet wird.
  4. Beleuchtungssystem nach einem der Ansprüche 1-2, wobei der mindestens eine Scheinwerfer einem ersten Scheinwerfer entspricht, der so konfiguriert ist, dass er eine erste Emission ausgibt, und einem zweiten Scheinwerfer, der so konfiguriert ist, dass er eine zweite Emission ausgibt.
  5. Beleuchtungssystem nach Anspruch 3, wobei der Controller so konfiguriert ist, dass er die Höhe einer ersten ausgegebenen Emission des ersten Scheinwerfers unabhängig von einer zweiten ausgegebenen Emission des zweiten Scheinwerfers in Reaktion auf die Bewegung anpasst.
  6. Beleuchtungssystem nach Anspruch 4, wobei der Controller so konfiguriert ist, dass er die Fahrzeugbewegung als eine Drehbewegung in Bezug auf eine Richtung des Fahrzeugs nach vorne auf Basis der Pixelverschiebung in den Bilddaten identifiziert.
  7. Beleuchtungssystem nach Anspruch 5, wobei der Controller so konfiguriert ist, dass er die Höhe der ersten Emission in eine erste Richtung und die Höhe der zweiten ausgegebenen Emission in eine zweite Richtung in Reaktion auf die Drehbewegung anpasst.
  8. Beleuchtungssystem nach Anspruch 5, wobei die erste Richtung in der Höhe bzw. Höhenlage nach oben und die zweite Richtung in der Höhe bzw. Höhenlage nach unten ist.
  9. Beleuchtungssystem nach einem der Ansprüche 1-7, wobei der mindestens eine Scheinwerfer eine Vielzahl von lichtemittierenden Quellen umfasst, die in einer Matrix angeordnet sind.
  10. Beleuchtungssystem nach einem der Ansprüche 1-8, wobei der Controller so konfiguriert ist, dass er die Pixelverschiebung auf Basis einer Änderung im Kontrast zwischen einem Himmelabschnitt und einem Bodenabschnitt identifiziert, um einen Horizont zu indizieren bzw. anzugeben.
  11. Beleuchtungssystem nach einem der Ansprüche 1-9, wobei der Controller so konfiguriert ist, dass er die Pixelverschiebung auf Basis einer Änderung in der Bewegung des mindestens einen Merkmals aus einem Bewegungstrend, der in der Vielzahl von Einzelbildern identifiziert wird, identifiziert.
  12. Beleuchtungssystem nach einem der Ansprüche 1-10, wobei der Controller so konfiguriert ist, dass er die Merkmalsbewegung filtert, um Inhalte mit niedriger Frequenz, die allmählichen bzw. graduellen Änderungen in einer Betriebsrichtung des Fahrzeugs entsprechen, zu entfernen.
  13. Beleuchtungssystem für ein Fahrzeug, umfassend: ein Bildgerät bzw. einen Imager, der so konfiguriert ist, dass er Bilddaten in einer Vielzahl von Einzelbildern in einem Sichtfeld nach hinten in Bezug auf das Fahrzeug erfasst; mindestens einen Scheinwerfer, der so konfiguriert ist, dass er eine Lichtemission auf einer Vielzahl von Höhen ausgibt; und ein Steuergerät bzw. einen Controller in Verbindung bzw. Kommunikation mit dem Imager und dem Scheinwerfer, wobei der Controller verwendet werden kann bzw. ausgelegt ist, um: die Bilddaten zu verarbeiten, um mindestens ein Merkmal in einem ersten Einzelbild und einem zweiten Einzelbild in einer Vielzahl von Einzelbildern zu identifizieren; eine Bewegung des Merkmals vom ersten Einzelbild zum zweiten Einzelbild zu identifizieren; eine zukünftige Höhe bzw. Höhenlage für die Emission für eine Höhenanpassung zu einer zukünftigen Zeit vorherzusagen, wobei die zukünftige Höhe auf Basis einer Vielzahl von früher identifizierten Bewegungen zwischen den Einzelbildern und einer Reaktionsverzögerung des Beleuchtungssystems basiert; und eine aktuelle Höhe bzw. Höhenlage der ausgegebenen Emission an die zukünftige Höhe bzw. Höhenlage in Reaktion auf die Bewegung anzupassen.
  14. Beleuchtungssystem nach Anspruch 12, wobei die Verzögerung auf der Erfassung der Bilddaten, der Verarbeitung der Bilddaten oder einer Reaktionszeit des mindestens einen Scheinwerfers, der die Höhe der Lichtemission steuert, beruht.
  15. Beleuchtungssystem nach einem der Ansprüche 12-13, wobei der mindestens eine Scheinwerfer einem ersten Scheinwerfer und einem zweiten Scheinwerfer entspricht.
  16. Beleuchtungssystem nach Anspruch 14, wobei der Controller ferner so konfiguriert ist, dass er: eine erste Höhe bzw. Höhenlage des ersten Scheinwerfers und eine zweite Höhe bzw. Höhenlage des zweiten Scheinwerfers auf Basis der Bewegung anpasst.
  17. Beleuchtungssystem nach Anspruch 15, wobei die erste Höhe sich von der zweiten Höhe unterscheidet.
  18. Beleuchtungssystem nach einem der Ansprüche 12-16, wobei der Controller ferner so konfiguriert ist, dass er: die Bewegung als Höhenverschiebung nach oben in einer Ausrichtung des Fahrzeugs identifiziert.
  19. Beleuchtungssystem nach Anspruch 17, wobei der Controller so konfiguriert ist, dass er eine projizierte Höhe des mindestens einen Scheinwerfers in Reaktion auf das Identifizieren der Höhenverschiebung anpasst.
  20. Beleuchtungssystem nach einem der Ansprüche 12-18, wobei der mindestens eine Scheinwerfer eine Vielzahl von lichtemittierenden Quellen umfasst, die in einer Matrix angeordnet sind.
  21. Beleuchtungssystem für ein Fahrzeug, umfassend: ein Bildgerät bzw. einen Imager, der so konfiguriert ist, dass er Bilddaten in einer Vielzahl von Einzelbildern in einem Sichtfeld in der Nähe des Fahrzeugs erfasst; einen ersten Scheinwerfer, der so konfiguriert ist, dass er eine erste Emission emittiert, und einen zweiten Scheinwerfer, der so konfiguriert ist, dass er eine zweite Emission emittiert, wobei jeder Scheinwerfer so konfiguriert ist, dass er Licht auf einer Vielzahl von Höhen bzw. in einer Vielzahl von Höhenlagen emittiert; ein Steuergerät bzw. einen Controller in Verbindung bzw. Kommunikation mit dem Imager und dem Scheinwerfer, wobei der Controller verwendet werden kann bzw. ausgelegt ist, um: die Bilddaten zu verarbeiten, um mindestens ein Merkmal in einem ersten Einzelbild und einem zweiten Einzelbild in einer Vielzahl von Einzelbildern zu identifizieren; eine Merkmalsbewegung auf Basis einer Pixelverschiebung des mindestens einen Merkmals von dem ersten Einzelbild zu dem zweiten Einzelbild zu identifizieren, wobei der Controller so konfiguriert ist, dass er eine Fahrzeugbewegung als Drehbewegung auf Basis der Pixelverschiebung in den Bilddaten identifiziert; und eine erste Höhe der ersten Emission und eine zweite Höhe der zweiten Emission in Reaktion auf die Drehbewegung unabhängig anzupassen.
DE212017000101.1U 2016-04-14 2017-04-13 Kamerabasiertes Scheinwerferlicht-Steuerungssystem Active DE212017000101U1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662322409P 2016-04-14 2016-04-14
US62/322,409 2016-04-14
PCT/US2017/027432 WO2017180882A1 (en) 2016-04-14 2017-04-13 Camera based headlight control system

Publications (1)

Publication Number Publication Date
DE212017000101U1 true DE212017000101U1 (de) 2018-11-14

Family

ID=60039820

Family Applications (1)

Application Number Title Priority Date Filing Date
DE212017000101.1U Active DE212017000101U1 (de) 2016-04-14 2017-04-13 Kamerabasiertes Scheinwerferlicht-Steuerungssystem

Country Status (3)

Country Link
US (2) US9981594B2 (de)
DE (1) DE212017000101U1 (de)
WO (1) WO2017180882A1 (de)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110603533A (zh) 2017-05-01 2019-12-20 讯宝科技有限责任公司 用于对象状态检测的方法和装置
US11449059B2 (en) 2017-05-01 2022-09-20 Symbol Technologies, Llc Obstacle detection for a mobile automation apparatus
WO2018201423A1 (en) 2017-05-05 2018-11-08 Symbol Technologies, Llc Method and apparatus for detecting and interpreting price label text
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
US11667231B2 (en) * 2018-11-26 2023-06-06 Magna Electronics Solutions Gmbh Vehicle vision system with self-calibrating imager
US11416000B2 (en) 2018-12-07 2022-08-16 Zebra Technologies Corporation Method and apparatus for navigational ray tracing
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
DE102019102327A1 (de) * 2019-01-30 2020-07-30 Automotive Lighting Reutlingen Gmbh Beleuchtungseinrichtung für ein Kraftfahrzeug und Verfahren
US11960286B2 (en) 2019-06-03 2024-04-16 Zebra Technologies Corporation Method, system and apparatus for dynamic task sequencing
US11402846B2 (en) 2019-06-03 2022-08-02 Zebra Technologies Corporation Method, system and apparatus for mitigating data capture light leakage
US11662739B2 (en) 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
US20210155158A1 (en) * 2019-11-22 2021-05-27 Telenav, Inc. Navigation system with lane estimation mechanism and method of operation thereof
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11822333B2 (en) * 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
US11450024B2 (en) 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
US11593915B2 (en) 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8065053B2 (en) 2004-11-18 2011-11-22 Gentex Corporation Image acquisition and processing systems for vehicle equipment control
US8543254B1 (en) 2012-03-28 2013-09-24 Gentex Corporation Vehicular imaging system and method for determining roadway width
US8577169B2 (en) 2009-02-02 2013-11-05 Gentex Corporation Digital image processing and systems incorporating the same
US20140015972A1 (en) 2012-07-11 2014-01-16 Gentex Corporation Stand alone blind spot detection system
US8924078B2 (en) 2004-11-18 2014-12-30 Gentex Corporation Image acquisition and processing system for vehicle equipment control

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8045760B2 (en) 2003-02-21 2011-10-25 Gentex Corporation Automatic vehicle exterior light control systems
WO2008024639A2 (en) * 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
WO2015026810A1 (en) * 2013-08-19 2015-02-26 Gentex Corporation Vehicle imaging system and method for distinguishing reflective objects from lights of another vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8065053B2 (en) 2004-11-18 2011-11-22 Gentex Corporation Image acquisition and processing systems for vehicle equipment control
US8924078B2 (en) 2004-11-18 2014-12-30 Gentex Corporation Image acquisition and processing system for vehicle equipment control
US8577169B2 (en) 2009-02-02 2013-11-05 Gentex Corporation Digital image processing and systems incorporating the same
US8543254B1 (en) 2012-03-28 2013-09-24 Gentex Corporation Vehicular imaging system and method for determining roadway width
US20140015972A1 (en) 2012-07-11 2014-01-16 Gentex Corporation Stand alone blind spot detection system

Also Published As

Publication number Publication date
US9981594B2 (en) 2018-05-29
US20180244191A1 (en) 2018-08-30
US10625660B2 (en) 2020-04-21
WO2017180882A1 (en) 2017-10-19
US20170297478A1 (en) 2017-10-19

Similar Documents

Publication Publication Date Title
DE212017000101U1 (de) Kamerabasiertes Scheinwerferlicht-Steuerungssystem
DE102013112171B4 (de) Außenumgebungserkennungsvorrichtung
EP2204771B1 (de) Verfahren und Vorrichtung zum Ermitteln einer Änderung des Nickwinkels einer Kamera eines Fahrzeugs
DE102009015824B4 (de) Blendfreibereich-Kartenprodukt und dieses verwendende System zur Bestimmung, ob eine Person geblendet wird
DE102016121536B4 (de) Fahrzeugaußenumgebung-Erkennungsvorrichtung
DE102008025459B4 (de) Verfahren und Vorrichtung zur Kalibrierung einer durch einen Frontscheinwerfer eines Fahrzeugs erzeugten vertikalen Hell-Dunkel-Grenze
DE102013100327B4 (de) Fahrzeugfahrtumgebungserkennungsvorrichtung
DE102007000420B4 (de) Fahrzeuginterne Einrichtung zum Erfassen von Fahrzeugen und Vorrichtung zum Steuern von Scheinwerfern durch Verwenden der Einrichtung
EP2057583B1 (de) Verfahren zur automatischen fernlichtsteuerung
DE102012221777A1 (de) Spurverfolgungssystem
DE102007034657B4 (de) Bildverarbeitungsvorrichtung
DE102011109440A1 (de) Verfahren zum Justieren und/oder Kalibrieren zumindest eines Scheinwerfers eines Fahrzeugs
EP2718869A2 (de) Verfahren und vorrichtung zur erkennung von objekten in einem umfeld eines fahrzeugs
WO2012130719A1 (de) Verfahren und steuergerät zum übertragen von daten über eine aktuelle fahrzeugumgebung an ein scheinwerfersteuergerät eines fahrzeugs
DE102015111907B4 (de) Algorithmus zum Erweitern des Erkennungsbereichs für eine AVM-Haltelinienerkennung
DE102008025458A1 (de) Verfahren und Vorrichtung zur Kalibrierung einer durch einen Frontscheinwerfer eines Fahrzeugs erzeugten horizontalen Hell-Dunkel-Grenze
DE102011081392A1 (de) Verfahren zur Bestimmung einer Leuchtweite zumindest eines Scheinwerfers und Verfahren zur Kalibrierung einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
DE102010006190A1 (de) Verfahren zum Justieren einer Lichteinheit eines Fahrzeugs
DE102009036844A1 (de) Belichtungsbestimmungsvorrichtung und Bildverarbeitungsvorrichtung
DE112010006014T5 (de) Umweltschätzungsvorrichtung und Fahrzeugsteuerungssystem
DE102007010273A1 (de) Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs abhängig vom Verlauf einer Fahrbahn
DE102010048689A1 (de) Verfahren zum Justieren und/oder Kalibrieren zumindest eines Scheinwerfers eines Fahrzeugs
DE102014113359B4 (de) Filtervorrichtung und Umgebungserkennungssystem
DE102013103953A1 (de) Spurerkennung bei voller Fahrt unter Verwendung mehrerer Kameras
DE102013103952A1 (de) Spurerkennung bei voller Fahrt mit einem Rundumsichtsystem

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R081 Change of applicant/patentee

Owner name: HL KLEMOVE CORP., KR

Free format text: FORMER OWNER: GENTEX CORPORATION, ZEELAND, MICH., US