DE102022130104A1 - Fahrzeugkameradynamik - Google Patents

Fahrzeugkameradynamik Download PDF

Info

Publication number
DE102022130104A1
DE102022130104A1 DE102022130104.4A DE102022130104A DE102022130104A1 DE 102022130104 A1 DE102022130104 A1 DE 102022130104A1 DE 102022130104 A DE102022130104 A DE 102022130104A DE 102022130104 A1 DE102022130104 A1 DE 102022130104A1
Authority
DE
Germany
Prior art keywords
camera
vehicle
ambient light
controller
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022130104.4A
Other languages
English (en)
Inventor
Kiran Ram Bharwani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rivian IP Holdings LLC
Original Assignee
Rivian IP Holdings LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rivian IP Holdings LLC filed Critical Rivian IP Holdings LLC
Publication of DE102022130104A1 publication Critical patent/DE102022130104A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein System für ein Fahrzeug kann eine Kamera einschließen, die konfiguriert ist, um Bilddaten zu sammeln. Die Kamera kann eine anpassbare Belichtung aufweisen. Das System kann auch eine Steuerung in Kommunikation mit der Kamera einschließen. Die Steuerung kann konfiguriert sein, um die Kamerabelichtung in einer konstanten Umgebungslichtumgebung basierend auf einer erwarteten Änderung des Umgebungslichts anzupassen, die von einer Position der Kamera bestimmt wird.

Description

  • EINFÜHRUNG
  • Die vorliegende Offenbarung bezieht sich auf ein Fahrzeug und insbesondere auf ein Fahrzeug mit einem Sichtsystem, das eine Kamera verwendet.
  • KURZDARSTELLUNG
  • In mindestens einigen beispielhaften Darstellungen schließt ein Fahrzeugsystem eine Kamera ein, die konfiguriert ist, um Bilddaten zu sammeln. Das Fahrzeugsystem schließt auch eine Steuerung in Kommunikation mit der Kamera ein. Die Steuerung ist konfiguriert, um eine erwartete Änderung des Umgebungslichts basierend auf einer Position der Kamera und einer Bewegungsrichtung des Fahrzeugs zu bestimmen. Die Steuerung ist auch konfiguriert, um eine Belichtung der Kamera basierend auf der erwarteten Änderung des Umgebungslichts anzupassen.
  • In einigen der vorstehenden Beispiele ist die Kamera eine nach vorne gerichtete Kamera des Fahrzeugs. In einer Teilmenge dieser Ausführungsformen ist außerdem eine zusätzliche, nach vom gerichtete Kamera des Fahrzeugs als Teil eines autonomen Fahrsystems eingeschlossen, und die Kamerabelichtung der zusätzlichen, nach vorne gerichteten Kamera wird nicht basierend auf der erwarteten Änderung des Umgebungslichts angepasst. Ferner ist die Steuerung konfiguriert, um eine Anwesenheit eines Objekts vor dem Fahrzeug zu bestimmen, wenn eine der nach vorne gerichteten Kameras das Objekt erkennt.
  • In einigen der vorstehenden Beispiele eines Fahrzeugsystems ist die Steuerung konfiguriert, um die Kamerabelichtung als Reaktion auf das Erkennen des Fahrzeugs, das sich einem Umgebungslichtübergangsort nähert, anzupassen.
  • In einigen der vorstehenden Beispiele eines Fahrzeugsystems steht die Steuerung in Kommunikation mit einem Speicher, der eine Vielzahl von Umgebungslichtübergangsorten umfasst.
  • Einige Beispiele eines Fahrzeugsystems können auch einen Positionssensor in Kommunikation mit der Steuerung einschließen, wobei der Positionssensor konfiguriert ist, um die Position der Kamera zu bestimmen.
  • In einigen der vorstehenden Beispiele eines Fahrzeugsystems ist die Steuerung konfiguriert, um die Position der Kamera aus einem eines globalen Positionierungssatellitensensors (GPS-Sensors) oder eines globalen Navigationssatellitensystemsensors (GNSS-Sensors) zu bestimmen.
  • In einigen beispielhaften Fahrzeugsystemen ist die Steuerung konfiguriert, um die Position der Kamera basierend auf einer Fahrzeuggeschwindigkeit zu bestimmen.
  • In einer anderen beispielhaften Darstellung schließt ein autonomes Fahrsystem für ein Fahrzeug eine nach vorne gerichtete Kamera ein, die konfiguriert ist, um Bilddaten zur autonomen Fahrzeugführung zu sammeln. Das autonome Fahrsystem kann auch eine Steuerung in Kommunikation mit der Kamera einschließen, wobei die Steuerung konfiguriert ist, um eine erwartete Änderung des Umgebungslichts basierend auf einem Erkennen des Fahrzeugs, das sich einem Umgebungslichtübergangsort nähert, zu bestimmen. Die Steuerung ist konfiguriert, um eine Belichtung der Kamera basierend auf der erwarteten Änderung des Umgebungslichts anzupassen. Das autonome Fahrsystem kann auch eine zusätzliche nach vorne gerichtete Kamera des Fahrzeugs einschließen, und die Steuerung kann konfiguriert sein, um die Belichtung der zusätzlichen nach vorne gerichteten Kamera als Reaktion auf Änderungen des Umgebungslichts anzupassen, das an der zusätzlichen nach vom gerichteten Kamera empfangen wird. In diesem Beispiel kann die Steuerung konfiguriert sein, um eine Anwesenheit eines Objekts vor dem Fahrzeug zu bestimmen, wenn eine der nach vorne gerichteten Kameras das Objekt erkennt.
  • In einigen beispielhaften autonomen Fahrsystemen steht die Steuerung in Kommunikation mit einem Speicher, der eine Vielzahl von Umgebungslichtübergangsorten umfasst.
  • In mindestens einigen beispielhaften Darstellungen schließt ein Verfahren zum Anpassen einer Kameraeinstellung das Bestimmen einer erwarteten Änderung des Umgebungslichts basierend auf einer Position einer Kamera und einer Bewegungsrichtung eines Fahrzeugs ein. Das Verfahren schließt ferner das Anpassen einer Belichtung der Kamera basierend auf der erwarteten Änderung des Umgebungslichts ein.
  • In mindestens einigen dieser beispielhaften Verfahren ist die Kamera eine nach vorne gerichtete Kamera eines Fahrzeugs. In einer Teilmenge dieser Beispiele kann ein Verfahren auch das Empfangen zusätzlicher Bilddaten von einer zusätzlichen nach vorne gerichteten Kamera des Fahrzeugs und das Anpassen der Belichtung der zusätzlichen nach vorne gerichteten Kamera als Reaktion auf Änderungen des Umgebungslichts einschließen, das an der zusätzlichen nach vorne gerichteten Kamera empfangen wird. In einer weiteren Teilmenge dieser Beispiele kann ein Verfahren auch das Bestimmen einer Anwesenheit eines Objekts vor dem Fahrzeug einschließen, wenn eine der nach vorne gerichteten Kameras das Objekt erkennt.
  • Zumindest einige beispielhafte Verfahren können auch das Anpassen der Kamerabelichtung als Reaktion auf ein Erkennen des Fahrzeugs, das sich einem Umgebungslichtübergangsort nähert, einschließen.
  • Einige beispielhafte Verfahren können auch das Speichern einer Vielzahl von Umgebungslichtübergangsorten in einem in dem Fahrzeug installierten Speicher einschließen.
  • In einigen beispielhaften Verfahren wird die Position der Kamera durch einen Positionssensor bestimmt. In einer Teilmenge dieser beispielhaften Verfahren schließt der Positionssensor einen von einem globalen Positionierungssatellitensensor (GPS-Sensor) oder einem globalen Navigationssatellitensystemsensor (GNSS-Sensor) ein.
  • Mindestens einige beispielhafte Verfahren schließen auch das Bestimmen der Position der Kamera basierend auf einer Fahrzeuggeschwindigkeit ein.
  • Figurenliste
  • Die vorstehenden und andere Merkmale der vorliegenden Offenbarung, ihre Natur und verschiedene Vorteile werden unter Berücksichtigung der folgenden detaillierten Beschreibung in Verbindung mit den beigefügten Zeichnungen deutlicher werden, in denen:
    • 1 eine schematische Ansicht eines veranschaulichenden Fahrzeugs, das ein Bilddatensammelsystem aufweist, gemäß einigen Ausführungsformen der vorliegenden Offenbarung, zeigt;
    • 2 eine schematische Ansicht des Fahrzeugs von 1 mit jeweiligen Bilddatensätzen, gemäß einigen Ausführungsformen der vorliegenden Offenbarung, zeigt;
    • 3 eine schematische Ansicht eines veranschaulichenden Fahrzeugs und von Positionen von Umgebungsbeleuchtungsübergängen, gemäß einigen Ausführungsformen der vorliegenden Offenbarung, zeigt;
    • 4 eine schematische Ansicht eines veranschaulichenden Fahrzeugs, das ein Bilddatensammelsystem aufweist, gemäß einigen Ausführungsformen der vorliegenden Offenbarung, zeigt;
    • 5 ein Flussdiagramm eines veranschaulichenden Prozesses zur Anpassung einer Kameraeinstellung, gemäß einigen Ausführungsformen der vorliegenden Offenbarung, zeigt; und
    • 6 ein Flussdiagramm eines anderen veranschaulichenden Prozesses zur Anpassung einer Kameraeinstellung, gemäß einigen Ausführungsformen der vorliegenden Offenbarung, zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • Fahrzeuge können sich auf Kameras verlassen, um eine Umgebung eines Fahrzeugs, z. B. als Teil eines autonomen oder halbautonomen Fahrsystems oder aktiven Sicherheitsmerkmalen, zu bestimmen. In der Regel verwenden Kameras eine automatische Belichtungsanpassung (AE-Anpassung), die auf Änderungen der Umgebungsbeleuchtungsbedingungen um das Fahrzeug herum reagiert, indem sie eine oder mehrere Einstellungen der Kamera anpasst. Zum Beispiel kann bei abnehmendem Umgebungslicht eine Blende, Verschlusszeit oder eine andere Einstellung angepasst werden, um der Kamera zu ermöglichen, trotz der veränderten Umgebungsbeleuchtung Bild- und/oder Videodaten der Umgebung des Fahrzeugs genau zu erfassen. Insbesondere können Kameras automatische Belichtungsalgorithmen in einem Bildsignalprozessor (ISP) verwenden, um Helligkeitsinformationen von einem Sensor zu analysieren. Der ISP kann geeignete Werte für Blende, Verschlusszeit und ISO-Empfindlichkeit bestimmen.
  • Reale Fahrsituationen für ein Fahrzeug weisen oft Umgebungen mit hohem Dynamikbereich (HDR) auf, in denen sich die Umgebungsbeleuchtung schnell ändert, zum Beispiel bei der Einfahrt in oder Ausfahrt aus einem Tunnel. Selbst wenn die Verarbeitungsfähigkeit eines ISP robust ist, können sich die Algorithmen zur automatischen Belichtungsanpassung oft nicht schnell genug ändern, um eine verringerte Sichtbarkeit oder eine vorübergehende Über- oder Unterbelichtung aufgrund der schnellen Änderungen der Beleuchtung oder Umgebungsbeleuchtung zu vermeiden.
  • Dementsprechend verwenden beispielhafte Ansätze hierin im Allgemeinen eine Kamera mit einer oder mehreren Einstellungen, die angepasst werden können, um die Belichtung der Kamera oder der gesammelten Bild- oder Videodaten an das Umgebungslicht anzupassen. Ferner können Änderungen der Umgebungsbeleuchtung antizipiert werden, sodass eine oder mehrere der Belichtungseinstellungen geändert werden, bevor eine erwartete Änderung des Umgebungslichts erfolgt. In einigen beispielhaften Ansätzen können Positionen von Übergängen im Umgebungslicht zusammen mit von Positionsdaten des Fahrzeugs und/oder der Kamera verwendet werden, um potenzielle Änderungen der Umgebungsbeleuchtung zu bestimmen. Durch das Ändern der Belichtungseinstellung(en) der Kamera im Vorfeld eines erwarteten Übergangs des Umgebungslichts kann verhindert werden, dass die Kamera vorübergehend über- oder unterbelichtet wird, wenn der Übergang des Umgebungslichts erfolgt.
  • Wie hierin verwendet, können sich die Belichtungseinstellungen im Allgemeinen auf die Empfindlichkeit der Kamera gegenüber der Umgebungsbeleuchtung beziehen. Lediglich als Beispiele können in den Beispielansätzen eine oder mehrere einer Blendeneinstellung, einer Verschlusszeiteinstellung, einer ISO-Einstellung oder einer anderen Einstellung, die die Empfindlichkeit der Kamera gegenüber der Umgebungsbeleuchtung beeinflusst, geändert werden. Wie weiter nachstehend beschrieben, können in dem Maße, in dem die Änderung der Belichtungseinstellung(en) im Vorfeld einer Änderung der Umgebungsbeleuchtung die Kameraleistung bei der vorhandenen Umgebungsbeleuchtung/-umgebung beeinflusst, zusätzliche Bilddaten unter Verwendung der aktuell geeigneten Belichtungseinstellungen gesammelt werden, z. B. über eine zusätzliche Kamera. Fahrzeugsysteme, wie autonome oder halbautonome Fahrsysteme, können dadurch robuste Bilddaten der Fahrzeugumgebung aufweisen, die weniger von der Fähigkeit einer Kamera oder eines Bildgebungssystems abhängen, die Belichtungseinstellungen bei wechselnder Umgebungsbeleuchtung zu ändern.
  • In einigen Beispielansätzen kann einem Fahrzeug eine Datenbank mit Positionen bereitgestellt werden, an denen sich das Umgebungslicht ändert, z. B. Tunnel, Brücken, Wälder oder dergleichen. In einem solchen Beispiel wird eine hochauflösende Karte (z. B. „HD-Karten“) verwendet. In diesen Beispielen stellt eine Karte oder eine Datenbank Informationen darüber bereit, wo Änderungen der Umgebungsbeleuchtung erfolgen, wie der Anfang und das Ende von Tunneln. Diese Informationen können zur Anpassung der Kameradynamik verwendet werden, um eine vorübergehende Über- oder Unterbelichtung, wie einen Tunnelblendeffekt, zu vermeiden. In einigen Beispielen kann ein Verstärkungssteuerungssystem der Kamera angepasst werden, indem diese Beleuchtungsänderungen vorhergesagt werden, d. h. wenn ein Fahrzeug in einen Tunnel einfährt/aus diesem herausfährt. In beispielhaften Darstellungen können Positionsinformationen wie die von globalen Positionierungssatelliten (GPS) und/oder globalen Navigationssatellitensystemen (GNSS) bereitgestellten Daten zusammen mit Daten von den HD-Karten für ein Fahrzeug bereitgestellt werden. In einem beispielhaften Ansatz werden sowohl GPS als auch HD-Karten verwendet, um eine genaue Position des Fahrzeugs zu bestimmen, z. B. in Bezug auf einen Anfang/ein Ende eines Tunnels. Basierend auf der bekannten Position des Fahrzeugs und der Lage der Umgebungslichtänderungen über HD-Karten können die Systeme zum Beispiel genau vorhersagen, wann das Fahrzeug in den Tunnel hinein- oder aus diesem herausfährt. Beispielsysteme können dadurch die Kameradynamik im Vorfeld dieser Eintritts-/Austrittsereignisse anpassen.
  • Verschiedene Ebenen des autonomen Betriebs oder Fahrerwarnsysteme können Beispielsysteme und -verfahren zur Anpassung der Belichtungseinstellungen verwenden, die im Allgemeinen darauf ausgerichtet sein können, Bilddaten von einer Fahrzeugfront zu erhalten, z. B. als Teil einer Autobahn-Fahrhilfefunktion des Fahrzeugs, die so konfiguriert ist, dass das Fahrzeug weiterhin zur Straße gerichtet ist.
  • In einigen Beispielen sind Positionsdaten wie GPS oder GNSS möglicherweise nicht verfügbar. Beispielsweise kann ein Tunnel oder eine Brücke den Kontakt mit GPS/GNSS-Systemkomponenten verhindern. Zusätzlich können Positionsdaten möglicherweise nicht konsistent in entfernten Bereichen verfügbar sein. Beispielsysteme hierin können als Reaktion auf die Nichtverfügbarkeit von Positionsdaten eine Koppelnavigation verwenden und/oder die Position des Fahrzeugs unter Verwendung einer Trägheitsmesseinheit (IMU), der Raddrehzahlen oder anderer bekannter Fahrzeugdaten sowie einer zuletzt bekannten Position aus relevanten Positionsdatensystemen wie GPS/GNSS bestimmen. Dementsprechend können beispielhafte Systeme eine Position eines Fahrzeugs in einer Karten-/Positionsdatenbank trotz vorübergehender Nichtverfügbarkeit von Positionsdaten genau verfolgen.
  • Unter Bezugnahme auf 1 wird ein beispielhaftes Fahrzeug 100 veranschaulicht. Das Fahrzeug 100 fährt durch eine Umgebung mit sich ändernden Umgebungslichtpegel. In dem veranschaulichten Beispiel fährt das Fahrzeug 100 auf einer Straßenoberfläche 104, die sich durch einen Tunnel 106 erstreckt. Der Tunnel 106 schließt einen relativ abgedunkelten Bereich 108 ein, z. B. aufgrund fehlender Innenbeleuchtung innerhalb des Tunnels 106 und begrenzter Außenbeleuchtung oder Sonneneinstrahlung, die in dem abgedunkelten Bereich 108 vorliegt. Ein relativ heller Bereich 110 liegt außerhalb des Tunnels 106 vor. Umgebungslicht in einem Zwischenbereich 112 nimmt von dem abgedunkelten Bereich 108 zum hellen Bereich 110 zu. Dementsprechend ist bei der Fahrt des Fahrzeugs 100 auf der Straßenoberfläche 104 innerhalb des Tunnels die Umgebungsbeleuchtung am Fahrzeug 100 anfänglich sehr begrenzt, d. h. im abgedunkelten Bereich 108, und nimmt dann zu, wenn das Fahrzeug den Zwischenbereich 112 erreicht und weiter in Richtung des hellen Bereichs 110 fährt. In dem Maße, wie das Fahrzeug 100 schnell fährt, z. B. mit Autobahngeschwindigkeit, oder der Zwischenbereich 112 relativ kurz ist, kann die Umgebungsbeleuchtung am Fahrzeug 100 sehr schnell zunehmen.
  • Das Fahrzeug 100 schließt eine oder mehrere Kameras 114 ein, die zum Sammeln von Bild- und/oder Videodaten für das Fahrzeug 100 verwendet werden können. In dem veranschaulichten Beispiel schließt das Fahrzeug 100 zwei Kameras 114a und 114b (zusammen 114) ein, die Bilddaten vor dem Fahrzeug 100 sammeln. Die Kameras 114 sind entlang eines vorderen Endes des Fahrzeugs 100 veranschaulicht, können jedoch innerhalb oder außerhalb des Fahrzeugs 100 in jeder im Allgemeinen nach vorne gerichteten Konfiguration montiert sein, die, z. B. innerhalb der Fahrzeugkabine entlang der Windschutzscheibe oder als Teil einer inneren Rückspiegelanordnung, als Teil eines Frontgitters oder einer vorderen Stoßstange des Fahrzeugs 100 usw. geeignet ist. In einigen beispielhaften Ansätzen kann/können die Kamera(s) 114 verwendet werden, um Bilddaten zu sammeln, die von dem Fahrzeug in einem halbautonomen oder vollständig autonomen Fahrmodus verwendet werden, oder um Objekte in einer Fahrbahn des Fahrzeugs 100, Hindernisse oder Fußgänger zu erkennen. Wie hierin verwendet, kann ein halbautonomer oder vollständig autonomer Fahrmodus des Fahrzeugs 100 als ein Modus definiert sein, bei dem das Fahrzeug 100 die Geschwindigkeit und/oder Lenkung des Fahrzeugs 100 mit vollständig autonomen Fahrmodi steuert, wodurch es dem Fahrzeug 100 ermöglicht wird, die Lenkung und Geschwindigkeit des Fahrzeugs ohne Eingriff durch einen Fahrer vollständig zu steuern. Die Kameras 114 können Bild-/Videodaten sammeln, die verwendet werden, um Objekte wie Fahrzeuge, Hindernisse, Straßenoberflächen oder dergleichen zu identifizieren. Während für Zwecke der Veranschaulichung in 1 nur zwei nach vorne gerichtete Kameras 114a und 114b veranschaulicht sind, versteht es sich, dass zusätzliche Kameras bereitgestellt werden können, z. B. die auf dem Fahrzeug 100 positioniert sind, um Bild-/Videodaten von anderen Bereichen, z. B. hinter dem Fahrzeug 100, an der Seite des Fahrzeugs 100 usw. zu sammeln.
  • Die Kamera(s) 114 kann/können eine anpassbare Belichtung oder Empfindlichkeit gegenüber der Umgebungsbeleuchtung aufweisen, sodass die Kamera 114 Bilddaten sowohl bei relativ hohen Umgebungsbeleuchtungsbedingungen, z. B. im hellen Bereich 110, als auch bei relativ niedrigen Umgebungsbeleuchtungsbedingungen, z. B. im dunklen Bereich 108, sammeln kann. In dem veranschaulichten Beispiel in 1 kann die Kamera 114a und/oder eine zugehörige Steuerung (nicht in 1 gezeigt) eine oder mehrere Belichtungseinstellungen als Reaktion auf erkannte Änderungen der Umgebungsbeleuchtung anpassen. Zu den Belichtungseinstellungen, die angepasst werden können, gehören, nur als Beispiele, eine Blendenöffnung einer Kamera, Verschlusszeit, ISO, Weißabgleich, Bildzuschnitt (z. B. um die Kamera(s) im Allgemeinen weiter zur Straße gerichtet zu fokussieren), ein Farb-/Schwarzweißmodus-Schalter oder die Anwendung eines Filtereffekts wie eines U/V-Filters. Zumindest in einigen beispielhaften Ansätzen können eine reduzierte Verschlusszeit und eine erhöhte ISO-Einstellung im Allgemeinen verwendet werden, um die Kamerabelichtung zu erhöhen oder ein Bild aufzuhellen, während eine erhöhte Verschlusszeit und eine reduzierte ISO-Einstellung im Allgemeinen verwendet werden können, um ein Bild abzudunkeln oder die Belichtung zu verringern. Es sollte beachtet werden, dass spezifische Kameraeinstellungen, die angepasst werden, von der Kamera und der Anwendung abhängig sein können, und somit kann/können die spezifische(n) Einstellung(en) variieren.
  • Außerdem kann die Kamera 114a, wie weiter nachstehend beschrieben, konfiguriert sein, um Änderungen der Umgebungsbeleuchtung vorherzusagen und die Belichtungseinstellung(en) im Vorfeld der vorhergesagten/erwarteten Änderung der Umgebungsbeleuchtung zu ändern. Die Kamera 114a und/oder eine Steuerung davon können konfiguriert sein, um eine Belichtung der Kamera 114a basierend auf einer erwarteten Änderung des Umgebungslichts einzustellen, die von einer Position der Kamera 114a und einer Bewegungsrichtung des Fahrzeugs 100 bestimmt wird. In diesem beispielhaften Ansatz kann die Position der Kamera eine geografische Position oder ein Verhältnis der Kamera zu einer Position einer erwarteten Änderung des Umgebungslichts einschließen. Die Bewegungsrichtung des Fahrzeugs, d. h. in Richtung einer Position, an der erwartet wird, dass das Umgebungslicht geändert wird, kann in Kombination mit der Position der Kamera relativ zu der Position verwendet werden, an der erwartet wird, dass das Umgebungslicht geändert wird. Zum Beispiel können die Kamera 114a, das Fahrzeug 100 oder die zugehörige(n) Steuerung(en) bestimmen, dass sich das Fahrzeug 100 im Tunnel 106 befindet und sich einer Position nähert, an der die Umgebungsbeleuchtung bekannt ist. In einigen Beispielen kann die Fahrzeuggeschwindigkeit, alternativ oder zusätzlich zur Bewegungsrichtung des Fahrzeugs, verwendet werden. Zum Beispiel kann die Fahrzeuggeschwindigkeit verwendet werden, um einen erwarteten Zeitpunkt für das Fahrzeug 100 festzulegen, um eine Position zu erreichen, an der erwartet wird, dass das Umgebungslicht sich ändert, und dadurch einen Zeitpunkt zum Einleiten einer Änderung einer Kameraeinstellung festlegen kann. Basierend auf der vorhergesagten/erwarteten Änderung der Umgebungsbeleuchtung kann die Kamera 114a und/oder eine zugehörige Steuerung die Belichtungseinstellung(en) der Kamera 114a anpassen, bevor die erwartete Änderung der Umgebungsbeleuchtung basierend auf der erkannten Position der Kamera 114a und der Bewegungsrichtung des Fahrzeugs 100 auftritt. Infolgedessen kann die Kamera 114a, wenn die vorhergesagte Änderung der Umgebungsbeleuchtung erfolgt, z. B. weil sich das Fahrzeug 100 dem Ende des Tunnels 106 nähert und/oder den Tunnel 106 verlässt, bereits eine oder mehrere Belichtungseinstellungen aufweisen, die an das erhöhte Umgebungslicht angepasst sind.
  • Die zweite Kamera 114b kann auch die Belichtungseinstellungen oder die Empfindlichkeit gegenüber dem Umgebungslicht anpassen, aber in dem veranschaulichten Beispiel kann sie die Belichtungseinstellung(en) basierend auf den aktuellen/Echtzeit-Umgebungslichtpegel anpassen. Dementsprechend kann die zweite Kamera 114b in dem Maße, in dem das Anpassen der Belichtungseinstellung(en) im Vorfeld einer erwarteten/vorhergesagten Änderung der Umgebungsbeleuchtung die an der aktuellen Position gesammelten Bilddaten negativ beeinflussen kann, eingesetzt werden, um robuste Bilddaten zu erhalten. Eine Steuerung des Fahrzeugs 100 kann beide Bilddatensätze 116a und 116b verwenden, z. B. durch Erkennen von Objekten wie ein Fahrzeug 102, sobald irgendein Bilddatensatz 116 die Anwesenheit des Fahrzeugs 102 anzeigt. In einem anderen Beispiel kann eine Steuerung oder Verarbeitungsschaltung die Verwendung der Bilddatensätze 116a und 116b basierend auf Umgebungsbeleuchtungsbedingungen des Fahrzeugs wechseln. Zum Beispiel kann das Fahrzeug, wenn das Fahrzeug 100 eine vorhergesagte Umgebungslichtübergangsposition erreicht, von Bilddaten 116b, die von der Kamera 114b bereitgestellt werden (die in dem Moment, in dem das Fahrzeug den Umgebungslichtübergang erreicht, möglicherweise noch keine Belichtungseinstellungen aufgrund des erkannten Umgebungslichts angepasst hat), zu Bilddaten 116a, die von der Kamera 114a bereitgestellt werden, wechseln.
  • Jede der Kameras 114a und 114b kann verschiedene Sätze von Bilddaten 116a bzw. 116b sammeln, die unterschiedliche Strategien zur Anpassung der Belichtungseinstellung(en) der Kameras 114a und 114b widerspiegeln. Das Fahrzeug 100 kann jeden der Bilddatensätze 116 verwenden, um die Anwesenheit, die Größe, die Positionierung und/oder den Abstand zu Objekten in der Fahrbahn des Fahrzeugs 100 zu bestimmen, z. B. ein angehaltenes Fahrzeug 102, wie nachstehend weiter erläutert wird.
  • In einigen beispielhaften Ansätzen kann das Fahrzeug 100 eine Anwesenheit eines Objekts wie des Fahrzeugs 102 als Reaktion auf das Erkennen durch eine der Kameras 114a/114b und ihrer zugehörigen Bilddaten 116a/116b bestimmen.
  • Unter Bezugnahme auf 2 werden Beispiele von Bilddaten 116a und 116b veranschaulicht und weiter beschrieben, die von den Kameras 114a bzw. 114b gesammelt werden, wenn sich das Fahrzeug 100 dem Ende des Zwischenbereichs 112 des Tunnels 106 (siehe 1) nähert. Wie vorstehend erwähnt, kann die Umgebungsbeleuchtung zunehmen, wenn sich das Fahrzeug 100 dem Ende des Tunnels 106 nähert. Die Kamera 114b, die sich auf einen Umgebungslichtsensor stützt, kann eine kleine Zeitspanne benötigen, um auf die Änderung der Umgebungsbeleuchtung zu reagieren. Infolgedessen können Bereiche 118b des Bildes 116b überbelichtet sein, weil die Belichtungseinstellung(en) der Kamera 114b an den abgedunkelten Bereich 108 des Tunnels 106 angepasst wurden. Die Kamera 114b kann daher eine relativ kleine Zeitspanne benötigen, um die Belichtungseinstellung(en) als Reaktion auf die Zunahme des Umgebungslichts einzustellen, wenn die Zunahme des Umgebungslichts erfolgt, während der die von der Kamera 114b gesammelten Bilddaten 116b überbelichtet werden. Im Gegensatz dazu kann die Kamera 114a in Erwartung der Zunahme der Umgebungsbeleuchtung angepasst werden. Dementsprechend weisen die Bereiche 118a in den von der Kamera 114a gesammelten Bilddaten 116a zu dem Zeitpunkt, zu dem das Fahrzeug 100 die Position erreicht, an der sich das Umgebungslicht zu ändern beginnt, nicht die Bereiche der Überbelichtung auf, die für die von der Kamera 114b gesammelten Bilddaten 116b typisch sind. In einigen Beispielen können ein oder mehrere der Bereiche 118a der Bilddaten 116a relativ unterbelichtet sein, was zu dunklen Bereichen der Bilddaten 116a führt, zumindest in Bezug auf die Bilddaten 116b.
  • Unter Bezugnahme auf 3 ist das Fahrzeug 100 schematisch auf einer Karte veranschaulicht, die unterschiedliche Bereiche mit Umgebungslichtänderungen umfasst. Zum Beispiel ist bekannt, dass der Tunnel 106 ein relativ dunkler Bereich ist. Es ist außerdem bekannt, dass ein zusätzlicher Tunnel 150 und eine Mautstelle 152, die nur als Beispiele dienen, relativ dunkle Bereiche aufweisen, die eine Änderung der Kamerabelichtungseinstellung(en) der Kamera erforderlich machen können, wenn das Fahrzeug 100 in einen Umgebungslichtübergang hinein- oder aus diesem herausfährt. Zusätzliche Umgebungslichtübergangspositionen, die den Bereichen 106, 150 und 152 zugeordnet sind, können jeweils dem Fahrzeug 100 bekannt sein und/oder können in einem Speicher oder einer Steuerung des Fahrzeugs 100 gespeichert sein. Auf diese Weise kann das Fahrzeug 100 im Allgemeinen eine Nähe des Fahrzeugs 100 zu den Umgebungslichtübergangspositionen bestimmen, die den Bereichen 106, 150 und/oder 152 zugeordnet sind.
  • Das Fahrzeug 100 kann einen Speicher, eine Datenbank oder dergleichen aufweisen, der bzw. die Positionsdaten von Änderungen der Umgebungsbeleuchtung einschließt, z. B. Zunahmen oder Abnahmen der Umgebungsbeleuchtung, die der Einfahrt in den oder der Ausfahrt aus dem Tunnel 106 zugeordnet ist. Dementsprechend kann das Fahrzeug 100 beispielsweise basierend auf einer Position, der Geschwindigkeit oder der Fahrbahn des Fahrzeugs 100 einen bevorstehenden Übergang in den Umgebungslichtpegel vorhersagen und eine oder mehrere Einstellungen der Kamera 114a anpassen, bevor der erwartete Übergang erfolgt.
  • Verfahren von Ausführungsformen der Offenbarung können in jedem System implementiert sein, welches es Kameras oder anderen Sensoren ermöglicht, ausreichend genaue Bilder eines Bereichs vor dem Fahrzeug zu erfassen, z. B. um Hindernisse, Bbjekte, Fußgänger, Fahrzeuge oder dergleichen zu erkennen. Als ein Beispiel können in oder auf Fahrzeugen wie autonomen Fahrzeugen Kameras ein- oder aufgebaut sein, um Bilder von Fahrzeugen in der Nähe aufzunehmen. Die Verarbeitungsschaltung des Fahrzeugs oder der Fernverarbeitungsschaltlogik kann dann die vorstehend beschriebenen Anpassungen an eine oder mehrere Belichtungseinstellung(en) einer Kamera implementieren. Somit können Fahrzeuge befahrbare und nicht-befahrbare Räume ihrer Umgebung bestimmen, z. B. um Anwendungen wie die autonome Navigation zu unterstützen.
  • 4 zeigt ein Blockdiagramm von Komponenten eines Systems eines derartigen Fahrzeugs 400 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Das Fahrzeug 400 kann dem Fahrzeug 100 von 1 entsprechen. Das Fahrzeug 400 kann ein Auto (z. B. ein Coupe, eine Limousine, ein LKW, ein SUV, ein Bus), ein Motorrad, ein Flugzeug (z. B. eine Drohne), ein Wasserfahrzeug (z. B. ein Boot) oder eine beliebige andere Art von Fahrzeug sein.
  • Das Fahrzeug 400 kann eine Steuerschaltlogik 402 umfassen, die Prozessor 404 und Speicher 406 umfassen kann. Der Prozessor 404 kann einen Hardware-Prozessor, einen Software-Prozessor (z. B. einen mit einer virtuellen Maschine emulierten Prozessor) oder eine beliebige Kombination davon umfassen. In einigen Ausführungsformen können Prozessor 404 und Speicher 406 in Kombination als Steuerschaltlogik 402 des Fahrzeugs 400 bezeichnet werden. In einigen Ausführungsformen kann Prozessor 404 allein als Steuerschaltlogik 402 des Fahrzeugs 400 bezeichnet werden. Speicher 406 kann Hardware-Elemente zum nicht-transitorischen Speichern von Befehlen oder Anweisungen einschließen, die, wenn sie durch Prozessor 404 ausgeführt werden, Prozessor 404 veranlassen, Fahrzeug 400 gemäß den vorstehend und nachstehend beschriebenen Ausführungsformen zu betreiben. Die Steuerschaltlogik 402 kann über einen oder mehrere Drähte oder über drahtlose Verbindung kommunikativ mit Komponenten des Fahrzeugs 400 verbunden sein.
  • Die Steuerschaltlogik 402 kann über die Eingangsschaltlogik 408 kommunikativ mit der Eingabeschnittstelle 416 verbunden sein (z. B. ein Lenkrad, ein Touchscreen auf Anzeige 424, Schaltflächen, Knöpfe, ein Mikrofon oder eine andere Audioerfassungsvorrichtung usw.). In einigen Ausführungsformen kann es einem Fahrer des Fahrzeugs 400 erlaubt sein, bestimmte Einstellungen in Verbindung mit dem Betrieb des Fahrzeugs 400 (z. B. Farbschemata der Dringlichkeitsstufen von 3, Arten der Präsentation des vorgeschlagenen Lenkungsindikators, wann der vorgeschlagene Lenkungsindikator bereitgestellt werden soll usw.) auszuwählen. In einigen Ausführungsformen kann die Steuerschaltlogik 402 kommunikativ mit dem GPS-System 440 des Fahrzeugs 400 verbunden sein, wobei der Treiber über Eingabeschnittstelle 416 mit dem GPS-System interagieren kann. Das GPS-System 440 kann mit mehreren Satelliten, z. B. GPS-Satelliten, GNSS-Satelliten oder dergleichen in Verbindung stehen, um die Position des Fahrers zu ermitteln und Navigationsrichtungen an die Steuerschaltlogik 402 bereitzustellen.
  • Die Steuerschaltlogik 402 kann über die Ausgangsschaltlogik 410 kommunikativ mit Anzeige 422 und Lautsprecher 424 verbunden sein. Die Anzeige 422 kann sich an einem Armaturenbrett des Fahrzeugs 400 (z. B. Armaturenbrett 204 und/oder Armaturenbrett 208 von 2) und/oder einem Head-up-Display an einer Windschutzscheibe (z. B. Windschutzscheibe 206 von 2) des Fahrzeugs 400 befinden. In einigen Beispielen können Darstellungen der Bilddaten 116a und/oder 116b für die Anzeige auf der Anzeige 422 erzeugt werden, und die Anzeige 422 kann eine LCD-Anzeige, eine OLED-Anzeige, eine LED-Anzeige oder eine andere geeignete Art von Anzeige umfassen. Der Lautsprecher 424 kann an jeder Stelle innerhalb der Kabine des Fahrzeugs 400 angeordnet sein, z. B. am Armaturenbrett des Fahrzeugs 400, an einem Innenteil der Fahrzeugtür. Die Anzeige 422 und der Lautsprecher 424 können eine visuelle bzw. akustische Rückmeldung bereitstellen, in Verbindung mit dem Bereitstellen eines vorgeschlagenen Lenkhandlungsindikators an einen Fahrer des Fahrzeugs 400, um das Fahrzeug 400 zu einer Seite zu lenken, um ein Hindernis oder einen nicht-befahrbaren Raum zu umgehen.
  • Die Steuerschaltlogik 402 kann über die Ausgangsschaltlogik 410 kommunikativ mit dem taktilen Element 426 verbunden sein. Das taktile Element 426 kann eine mechanische Vorrichtung sein, z. B. umfassend Aktuatoren, die zum Vibrieren konfiguriert sind, um ein taktiles oder haptisches Gefühl des Körpers des Fahrers zu verursachen. Das taktile Element kann an einer oder mehreren von einer Vielzahl von Positionen in Fahrzeug 400 angeordnet sein (z. B. auf einem Fahrersitz, einem Beifahrersitz, einem Lenkrad, Bremspedalen und/oder Gaspedalen), um eine haptische Rückmeldung in Verbindung mit dem Bereitstellen eines vorgeschlagenen Lenkhandlungsindikators an einen Fahrer des Fahrzeugs 400 bereitzustellen, um das Fahrzeug 400 zur Seite zu lenken, um einem Objekt auszuweichen, z. B. dem Fahrzeug 102 in 1.
  • Die Steuerschaltlogik 402 kann kommunikativ (z. B. über Sensorschnittstelle 414) mit Sensoren (z. B. vorderer Sensor 432, hinterer Sensor 434, linker Sensor 436, rechter Sensor 438, Lagesensor 418, Drehzahlsensor 420) zu verbinden. Der Lagesensor 418 kann ein Neigungsmesser, ein Beschleunigungsmesser, ein Tiltmeter, ein beliebiger anderer Neigungssensor oder eine beliebige Kombination davon sein und kann konfiguriert sein, um der Steuerschaltlogik 402 Fahrzeuglagewerte (z. B. die Neigung des Fahrzeugs und/oder die Standsicherheit des Fahrzeugs) bereitzustellen. Der Geschwindigkeitssensor 420 kann eines von einem Drehzahlmesser, einem GPS-Sensor oder dergleichen oder einer beliebigen Kombination davon sein und kann konfiguriert sein, um der Steuerschaltlogik 402 ein Lesen der aktuellen Geschwindigkeit des Fahrzeugs bereitzustellen.
  • In einigen Ausführungsformen kann der Frontsensor 432 an einer Vielzahl von Stellen des Fahrzeugs 400 positioniert sein und kann ein oder mehrere einer Vielzahl von Typen sein, z. B. eine Kamera, ein Bildsensor, ein Infrarotsensor, ein Ultraschallsensor, ein Radarsensor, ein LED-Sensor, ein LIDAR-Sensor usw., die dazu konfiguriert sind, ein Bild oder andere Positionsinformationen eines in der Nähe befindlichen Objekts wie eines Fahrzeugs zu erfassen (z. B. durch Ausgeben eines Licht- oder Funkwellensignals und Messen einer Zeit für ein zu erfassendes Rückgabesignal und/oder einer Intensität des zurückgegebenen Signals, und/oder Durchführen einer Bildverarbeitung an Bildern, die von dem Bildsensor der das Fahrzeug 400 umgebenden Umgebung aufgenommen werden). Ferner kann in einigen Beispielen der Frontsensor 432 mehrere Kameras einschließen, z. B. wie bei den vorstehend beschriebenen Kameras 114a und 114b des Fahrzeugs 100.
  • Die Steuerschaltung 402 kann Positionen von Umgebungslichtübergängen aufweisen, die z. B. auf dem Speicher 406 gespeichert sind. Die Steuerschaltlogik 402 kann konfiguriert sein, um Übergänge von Umgebungslicht am Fahrzeug 400 vorherzusagen, z. B. basierend auf Positionsinformationen, die von dem GPS-System 440, bekannten Routen des Fahrzeugs 400 und den Positionen von Umgebungslichtübergängen bereitgestellt werden.
  • Die Steuerschaltlogik 402 kann kommunikativ mit dem Batteriesystem 428 verbunden sein, das konfiguriert sein kann, um eine oder mehrere der Komponenten des Fahrzeugs 400 während des Betriebs zu versorgen. In einigen Ausführungsformen kann das Fahrzeug 400 ein Elektrofahrzeug oder ein Hybridelektrofahrzeug sein.
  • Die Steuerschaltlogik 402 kann über Lichtquellensteuerung 412 kommunikativ mit Lichtquelle 430 verbunden sein. Die Lichtquelle 430 kann z. B. eine Reihe von LEDs sein und kann an einer oder mehreren von einer Vielzahl von Stellen in dem Fahrzeug 400 angeordnet sein, um eine visuelle Rückmeldung in Verbindung mit dem Bereitstellen einer vorgeschlagenen Lenkhandlungsanzeige an einen Fahrer des Fahrzeugs 400 bereitzustellen, um das Fahrzeug 400 zu einer Seite zu drehen, um das erste Hindernis zu umgehen.
  • Es versteht sich, dass 4 nur einige der Komponenten des Fahrzeugs 400 zeigt, und es versteht sich, dass das Fahrzeug 400 auch andere Elemente einschließt, die üblicherweise in Fahrzeugen (z. B. Elektrofahrzeugen) vorhanden sind, z. B. einen Motor, Bremsen, Räder, Radsteuerungen, Fahrtrichtungsanzeiger, Fenster, Türen usw.
  • Unter Bezugnahme auf 5 wird ein beispielhafter Prozess zum Sammeln von Bilddaten von einem Fahrzeug veranschaulicht und detaillierter beschrieben. Der Prozess 500 kann zum Beispiel im Zusammenhang mit einem autonomen oder halbautonomen Fahrzeug verwendet werden, in dem Bilddaten gesammelt und verwendet werden, um die Anwesenheit von Objekten, Hindernissen, Fahrzeugen, Fußgängern oder dergleichen auf/in der Nähe einer Fahrbahn eines Fahrzeugs zu bestimmen. In einem anderen Beispiel können Bilddaten von einem Fahrzeug gesammelt werden, um Warnungen oder Benachrichtigungen an einen Fahrer des Fahrzeugs in Bezug auf Objekte in der Nähe/um eine Fahrbahn des Fahrzeugs bereitzustellen.
  • Der Prozess 500 kann bei Block 505 beginnen, wobei Bilddaten von einer oder mehreren Kameras oder Sensoren empfangen werden. Zum Beispiel können Bilddaten von einer nach vorne gerichteten Kamera eines Fahrzeugs, z. B. die Kameras 114 des Fahrzeugs 100, und/oder einem Frontsensor 432 des Fahrzeugs 400 empfangen werden. Die Kamera kann eine angepasste Belichtung oder Empfindlichkeit für das Umgebungslicht aufweisen. Der Prozess 500 kann dann mit Block 510 fortfahren.
  • Bei Block 510 kann eine Belichtung einer Kamera basierend auf einer erwarteten Änderung des Umgebungslichts angepasst werden, die von einer Position der Kamera bestimmt wird. In einigen beispielhaften Ansätzen werden Anpassungen der Belichtungseinstellung(en) mit der Kamera in einer konstanten Umgebungslichtumgebung vorgenommen, oder wenn sich die Umgebungsbeleuchtung ansonsten nicht in dem Maße der erwarteten Änderung des Umgebungslichts ändert. In einigen Beispielen kann eine Steuerung oder ein Fahrzeug verschiedene Umgebungslichtübergangspositionen aufweisen, z. B. in einem Speicher gespeichert. Das Fahrzeug kann auch einen Positionssensor verwenden, um eine Position der Kamera und/oder des Fahrzeugs, z. B. über GPS- oder GNSS-Satelliten, lediglich als Beispiele, zu bestimmen. Dementsprechend kann die Steuerung/das Fahrzeug bestimmen, ob/wann sich das Fahrzeug einer der Umgebungslichtübergangspositionen nähert.
  • Als Reaktion auf das Erkennen, dass sich das Fahrzeug/die Kamera einem Umgebungslichtübergang nähert, kann die Steuerung damit fortfahren, die Kamerabelichtung anzupassen, bevor das Fahrzeug die Position erreicht, an der der Umgebungslichtübergang beginnt oder von dem/den Umgebungslichtsensor(en) des Fahrzeugs erfasst werden kann. Eine Bewegungsrichtung des Fahrzeugs und/oder eine Fahrzeuggeschwindigkeit kann in einigen Beispielen auch verwendet werden, um die Zeitsteuerung zur Implementierung einer Änderung einer Kameraeinstellung oder einer Kamerabelichtung zu bestimmen. In einigen beispielhaften Darstellungen kann das Anpassen einer Kamerabelichtung das Einschließen der Änderung einer oder mehrerer einer Kamerablendeneinstellung, einer Kameraverschlusszeiteinstellung oder einer Kameralichtempfindlichkeitseinstellung einschließen.
  • Wie vorstehend erwähnt, können einige Umgebungslichtübergangsbereiche, z. B. Tunnel, die Fähigkeit eines Fahrzeugs oder dessen Steuerung zur Verwendung von Positionsdaten, die über das GPS-System 440 erhalten wurden, negativ beeinflussen. In solchen Beispielen kann die Verarbeitungsschaltlogik so konfiguriert sein, dass sie die Position des Fahrzeugs 100 und/oder 400 basierend auf einer zuletzt bekannten Position, der Radgeschwindigkeit des Fahrzeugs, dem Lenkwinkel oder dergleichen bestimmt, um eine Echtzeitposition des Fahrzeugs zu bestimmen. Das Fahrzeug kann dadurch außerdem bestimmen, ob bzw. wann es sich den Umgebungslichtübergängen nähert, z. B. in Richtung des Endes eines Tunnels 106, eines Zwischenbereichs 112 oder dergleichen.
  • Im Fortgang zu Block 515 kann der Prozess 500 abfragen, ob sich ein Objekt auf der Fahrbahn des Fahrzeugs befindet, z. B. basierend auf Bilddaten, die vom Fahrzeug über Kameras 114, Sensor(en) 432 oder dergleichen gesammelt wurden.
  • In einigen vorstehend beschriebenen beispielhaften Ansätzen kann ein Fahrzeug mehrere Kameras, z. B. die Kameras 114a und 114b des Fahrzeugs 100, aufweisen, wobei die Kameras jeweils unterschiedlich konfiguriert sind, um auf Umgebungslichtänderungen zu reagieren. Insbesondere kann, wie vorstehend beschrieben, eine erste Kamera 114a eine oder mehrere Belichtungseinstellungen als Reaktion auf vorhergesagte Änderungen der Umgebungsbeleuchtung anpassen, sodass die Einstellung(en) im Vorfeld der vorhergesagten/erwarteten Änderung der Umgebungsbeleuchtung angepasst wird/werden. Im Gegensatz dazu kann eine zweite Kamera 114b auch Belichtungseinstellungen oder Empfindlichkeit gegenüber dem Umgebungslicht anpassen, kann jedoch die Belichtungseinstellung(en) basierend auf aktuellen/Echtzeit-Umgebungslichtpegel anpassen, z. B. wie durch einen Umgebungslichtsensor oder dergleichen bestimmt. In dem Maße, in dem die Bilddatensätze 116a und 116b jeweils für ihre jeweiligen Umgebungslichtumgebungen geeignet sind, kann eine Logik oder Heuristik zum Erkennen von Objekten, Fahrzeugen oder dergleichen die Anwesenheit eines Objekts bestimmen, wenn einer der Bilddatensätze 116 das Objekt veranschaulicht. Dementsprechend kann in einem Beispiel, in dem sich das Fahrzeug einem Umgebungslichtübergang nähert und die Belichtungseinstellung(en) der Kamera 114a für die Umgebungslichtpegel zu diesem Zeitpunkt weniger geeignet sind (d. h. der Umgebungslichtpegel hat sich noch nicht auf den vorhergesagten Pegel geändert, für den die Belichtungseinstellung(en) der Kamera 114a ausgelegt ist/sind), das Fahrzeug auf den Bilddatensatz 116b der anderen Kamera 114b zurückgreifen. Wenn sich die Umgebungsbeleuchtungspegel verschieben, kann anschließend das Fahrzeug auf den Bilddatensatz 116a der Kamera 114a zurückgreifen, da die Kamera 114a auf die unterschiedlichen Umgebungsbeleuchtungspegel ausgelegt ist.
  • Wenn der Prozess 500 die Anwesenheit eines Objekts in der Fahrbahn des Fahrzeugs 100 bestimmt, kann der Prozess 500 mit Block 520 fortfahren, wo das Fahrzeug eine Reaktion auf das Erkennen des Objekts/Fahrzeugs einleiten kann. In dem Maße, in dem das Fahrzeug in einem teilautonomen oder vollautonomen Modus betrieben wird, kann das Fahrzeug einen Spurwechsel oder ein Abbiegen, Abbremsen oder dergleichen einleiten. Soweit der Fahrer des Fahrzeugs die Kontrolle über das Fahrzeug behält, kann der Prozess 500 eine Warnung oder Benachrichtigung über das erkannte Objekt erzeugen. Wenn der Prozess 500 kein Objekt bei Block 515 erkennt, kann der Prozess 500 mit Block 505 fortfahren, wo zusätzliche Bilddaten gesammelt werden.
  • Unter Bezugnahme auf 6 wird ein beispielhafter Prozess 600 zum Anpassen einer Kameraeinstellung veranschaulicht und detaillierter beschrieben. Der Prozess 600 kann zum Beispiel im Kontext eines autonomen oder halbautonomen Fahrzeugs verwendet werden und/oder eines Fahrzeugs, das konfiguriert ist, um Warnungen oder Benachrichtigungen an einen Fahrer des Fahrzeugs in Bezug auf Objekte in der Nähe/um eine Fahrbahn des Fahrzeugs bereitzustellen. Zum Beispiel kann der Prozess 600 im Fahrzeug 100, Fahrzeug 400 und/oder dessen Komponenten wie Steuerungen, Prozessoren, Speicher oder dergleichen verkörpert sein.
  • Der Prozess 600 kann bei Block 605 beginnen, wo Positionsinformationen empfangen werden. Zum Beispiel kann eine Position eines Fahrzeugs 100/400, einer Kamera 114 oder eines anderen Sensors bestimmt werden, z. B. durch eine Steuerung oder einen Prozessor, der einem zentralen Gateway-Modul (CGM) oder einer oder mehreren elektronischen Steuereinheiten (ECUs) des Fahrzeugs zugeordnet ist.
  • Im Fortgang zu Block 610 kann der Prozess 600 abfragen, ob eine Position der Umgebungslichtänderung in der Nähe ist oder ob die Kamera/das Fahrzeug die Position der Umgebungslichtänderung passieren wird. Wenn das Fahrzeug 100 beispielsweise auf einer Strecke fährt, die eine Position der Umgebungslichtänderung, z. B. einen Tunnel 106, passiert, kann der Prozess 610 bestimmen, dass die Kamera die Position der Umgebungslichtänderung passiert, und mit Block 615 fortfahren, z. B. basierend auf der Fahrtrichtung und/oder Geschwindigkeit des Fahrzeugs. Der Prozess 600 kann auch Informationen von einer Datenbank 612 über Informationen zur Umgebungslichtänderung empfangen, die Positionen verschiedener Positionen der Umgebungslichtänderung, die bekannt sind, einschließen können. Wie nachstehend weiter erörtert wird, können auch Parameter, die für die Anpassung der Kamerabelichtung, das Ausmaß der Umgebungslichtänderungen oder andere Informationen relevant sind, in der Datenbank 612 gespeichert werden. Der Prozess 600 kann auch Fahrzeuggeschwindigkeitsinformationen zusätzlich zu beliebigen bekannten Positionsinformationen der Kamera/des Fahrzeugs analysieren, z. B. um zu bestimmen, ob/wann die Kamera/das Fahrzeug an der Position der Umgebungslichtänderung ankommen kann.
  • Wenn der Prozess 600 bestimmt, dass das Fahrzeug/die Kamera aktuell keine Position der Umgebungslichtänderung passieren wird, und/oder dass eine Position der Umgebungslichtänderung nicht anderweitig in der Nähe ist, kann der Prozess 600 zu Block 605 zurückkehren. Der Prozess 600 kann dadurch aktualisierte Positionsinformationen der Fahrzeug/Kamera empfangen, um zu bestimmen, ob/wann eine Position der Umgebungslichtänderung von dem Fahrzeug/der Kamera angefahren werden kann.
  • Im Fortgang zu Block 615 kann der Prozess 600 aktuelle Bedingungen des Fahrzeugs/der Kamera in Bezug auf Umgebungslichtbedingungen bestimmen. Zum Beispiel kann der Prozess 600 die Umgebungslichtpegel oder andere Eigenschaften bestimmen, von denen bekannt ist, dass sie sich auf das Umgebungslicht auswirken, z. B. eine Tageszeit in Bezug auf Sonnenaufgang/Sonnenuntergang, Wetterbedingungen (z. B. volle Sonne, bewölkt usw.) oder andere Faktoren, die sich auf die Umgebungslichtbedingungen auswirken können. Der Prozess 600 kann dann mit Block 620 fortfahren.
  • Bei Block 620 kann der Prozess 600 abfragen, ob eine Umgebungslichtänderung über einem Schwellenwertpegel zu erwarten ist, basierend auf den aktuellen Bedingungen und beliebigen Eigenschaften der Position der Umgebungslichtänderung. Zum Beispiel, wenn die Bedingungen sonnig sind und das Fahrzeug im Begriff ist, in einen relativ dunklen Tunnel einzufahren, kann der Unterschied in den Umgebungslichtbedingungen der beiden Umgebungen eine Schwellendifferenz überschreiten, und es kann erwünscht sein, die Belichtungsanpassungen einer oder mehrerer Kameras vorzuverlegen, indem mit den Blöcken 625 oder 630 fortgefahren wird, wie nachstehend beschrieben. Wenn keine Schwellenwertdifferenz erreicht wird, z. B. wenn die Bedingungen relativ dunkel sind und den Bedingungen innerhalb eines Tunnels ähneln, in den das Fahrzeug erwartungsgemäß einfahren wird, ist eine Vorausanpassung der Belichtungseinstellung(en) der Kamera möglicherweise nicht erforderlich, und der Prozess 600 kann zu Block 605 zurückkehren.
  • Wenn der Prozess 600 die Abfrage von Block 620 bejaht, kann der Prozess 600 mit den Blöcken 625 oder 630 fortfahren, abhängig von der Art der erwarteten Änderung des Umgebungslichts, z. B. wie sie in einem Vergleich der aktuellen Bedingungen und des Umgebungslichts an einer Position der Umgebungslichtänderung bestimmt wird. Insbesondere, wenn die erwartete Umgebungslichtänderung die Intensität/Pegel des Umgebungslichts erhöht, kann der Prozess 600 in Block 625 eine Verringerung der Belichtung, basierend auf den aktuellen Bedingungen und der erwarteten Änderung, bestimmen. Wenn die erwartete Umgebungslichtänderung zu einer Verringerung der Umgebungslichtintensität/des Umgebungslichtpegels führt, kann der Prozess 600 in Block 630 eine Erhöhung der Belichtung basierend auf den aktuellen Bedingungen und der erwarteten Änderung bestimmen.
  • Im Fortgang zu Block 625 kann der Prozess 600 eine Änderung der Kamerabelichtung implementieren, z. B. über eine oder mehrere Kameraeinstellungen, die für die Umgebungslichtempfindlichkeit relevant sind. Zum Beispiel kann der Prozess 600 Änderungen in einer Einstellung der Kamera 114 implementieren, wie eine Blendeneinstellung, eine Verschlusszeit, eine ISO-Einstellung oder dergleichen. In einigen beispielhaften Ansätzen kann es sich bei einer Einstellung um Änderungen handeln, wie eine Belichtung so bestimmt wird, dass sie zu einer gewünschten Verringerung/Erhöhung der Belichtung führt. Zum Beispiel kann eine Position in den Bilddaten 116, an denen die Kamera 114 den Helligkeitsausgleich vornimmt, verschoben werden, um die gewünschte Belichtungsänderung zu erzeugen. Insbesondere kann ein Mittelbereich der Bilddaten 116 die Basis für die Belichtungsanpassungen bei der Annäherung an den Tunnel 106 bzw. beim Verlassen des Tunnels sein, was eine schnellere Reaktion auf Veränderungen des Umgebungslichts ermöglicht, da der Schwerpunkt auf weiter entfernten Bereichen innerhalb der Bilddaten 116 liegt (d. h. die Belichtung wird basierend auf den Bilddaten „weiter unten auf der Straße vom Fahrzeug/der Kamera“ angepasst). Die Änderung der Belichtung kann in einigen Beispielen vorübergehend sein, sodass die Belichtungseinstellungen zurückgesetzt werden, um automatisch auf die aktuellen Umgebungsbeleuchtungspegel zu reagieren, nachdem das Fahrzeug/die Kamera die Position(en) der Umgebungslichtänderung passiert hat. Dementsprechend kann der Prozess 600 es erleichtern, die Belichtung einer Kamera im Vorfeld einer erwarteten Änderung des Umgebungslichts zu ändern und anschließend die Kamera an die „normalen“ Belichtungsanpassungen für das Umgebungslicht zurückzusetzen.
  • Im Fortgang zu Block 640 kann der Prozess 600 die Leistung der Kamera und/oder des Fahrzeugs während eines Übergangs der Kamera oder des Fahrzeugs durch die Position(en) der Umgebungslichtänderung bewerten. Zum Beispiel können die Bilddaten von zwei Kameras 114a, 114b durch den Prozess 600 überprüft werden, um zu bestimmen, ob die vorgezogene Änderung der Belichtungseinstellungen ausreichend oder unzureichend war, usw. Dementsprechend kann der Prozess in Block 645 einen oder mehrere Parameter basierend auf der in Block 640 bewerteten Leistung aktualisieren. Die Parameter, Positionen oder anderen Daten können der Datenbank 612 bereitgestellt werden, wodurch im Allgemeinen die Parameter, Positionen und anderen Daten in Bezug auf Positionen oder Bedingungen der Umgebungslichtänderung aktualisiert werden. In einigen Beispielen kann eine HD-Karte angepasst werden, z. B. um die Positionen von Positionen der Umgebungslichtänderung zu ändern oder um mehr/weniger signifikante Umgebungslichtänderungen als anfänglich erwartet widerzuspiegeln oder dergleichen.
  • Der Prozess 600 kann dann mit Block 605 fortfahren. Dementsprechend setzt der Prozess 600 im Allgemeinen die Überprüfung von Positionsinformationen fort, um zu bestimmen, ob/wann eine Kamera oder ein Fahrzeug auf erwartete Positionen der Umgebungslichtänderung treffen kann.
  • Die vorstehende Beschreibung schließt Ausführungsbeispiele gemäß der vorliegenden Offenbarung ein. Diese Beispiele dienen lediglich zur Veranschaulichung und nicht zu Zwecken der Einschränkung. Es versteht sich, dass die vorliegende Offenbarung in Formen implementiert werden kann, die sich von den hierin explizit beschriebenen und dargestellten unterscheiden, und dass verschiedene Modifikationen, Optimierungen und Variationen von einem Fachmann in Übereinstimmung mit den folgenden Ansprüchen implementiert werden können.

Claims (20)

  1. Fahrzeugsystem, umfassend: eine Kamera, die konfiguriert ist, um Bilddaten zu sammeln; und eine Steuerung in Kommunikation mit der Kamera, wobei die Steuerung konfiguriert ist, um eine erwartete Änderung des Umgebungslichts basierend auf einer Position der Kamera und einer Bewegungsrichtung des Fahrzeugs zu bestimmen, wobei die Steuerung konfiguriert ist, um eine Belichtung der Kamera basierend auf der erwarteten Änderung des Umgebungslichts anzupassen.
  2. Fahrzeugsystem nach Anspruch 1, wobei die Kamera eine nach vorne gerichtete Kamera des Fahrzeugs ist.
  3. Fahrzeugsystem nach Anspruch 2, ferner umfassend eine zusätzliche nach vorne gerichtete Kamera des Fahrzeugs, wobei eine Kamerabelichtung der zusätzlichen nach vorne gerichteten Kamera nicht basierend auf der erwarteten Änderung des Umgebungslichts angepasst wird, wobei die Steuerung konfiguriert ist, um eine Anwesenheit eines Objekts vor dem Fahrzeug zu bestimmen, wenn eine der nach vorne gerichteten Kameras das Objekt erkennt.
  4. Fahrzeugsystem nach Anspruch 1, wobei die Steuerung konfiguriert ist, um die Kamerabelichtung als Reaktion auf das Erkennen des Fahrzeugs, das sich einer Umgebungslichtübergangsposition nähert, anzupassen.
  5. Fahrzeugsystem nach Anspruch 1, wobei die Steuerung in Kommunikation mit einem Speicher steht, der eine Vielzahl von Umgebungslichtübergangspositionen umfasst.
  6. Fahrzeugsystem nach Anspruch 1, ferner umfassend einen Positionssensor in Kommunikation mit der Steuerung, wobei der Positionssensor konfiguriert ist, um die Position der Kamera zu bestimmen.
  7. Fahrzeugsystem nach Anspruch 1, wobei die Steuerung konfiguriert ist, um die Position der Kamera aus einem eines globalen Positionierungssatellitensensors (GPS-Sensors) oder eines globalen Navigationssatellitensystemsensors (GNSS-Sensors) zu bestimmen.
  8. Fahrzeugsystem nach Anspruch 1, wobei die Steuerung konfiguriert ist, um die Position der Kamera basierend auf einer Fahrzeuggeschwindigkeit zu bestimmen.
  9. Fahrzeugsystem nach Anspruch 1, wobei die Steuerung konfiguriert ist, um die Kamerabelichtung durch Anpassen eines oder mehrerer einer Kamerablendeneinstellung, einer Kameraverschlusszeiteinstellung oder einer Kameralichtempfindlichkeitseinstellung anzupassen.
  10. Autonomes Fahrsystem für ein Fahrzeug, umfassend: eine nach vorne gerichtete Kamera, die konfiguriert ist, um Bilddaten für die autonome Fahrzeugführung zu sammeln; eine Steuerung in Kommunikation mit der Kamera, wobei die Steuerung konfiguriert ist, um basierend auf einer Erkennung des sich einer Umgebungslichtübergangsposition nähernden Fahrzeugs eine erwartete Änderung des Umgebungslichts zu bestimmen, wobei die Steuerung konfiguriert ist, um eine Belichtung der Kamera basierend auf der erwarteten Änderung des Umgebungslichts anzupassen; eine zusätzliche nach vorne gerichtete Kamera des Fahrzeugs, wobei die Steuerung konfiguriert ist, um die Belichtung der zusätzlichen nach vorne gerichteten Kamera als Reaktion auf Änderungen des Umgebungslichts anzupassen, das an der zusätzlichen nach vom gerichteten Kamera empfangen wird; wobei die Steuerung konfiguriert ist, um eine Anwesenheit eines Objekts zu bestimmen, wenn eine der nach vorne gerichteten Kameras das Objekt erkennt.
  11. Verfahren zum Anpassen einer Kameraeinstellung, umfassend: Bestimmen einer erwarteten Änderung des Umgebungslichts basierend auf einer Position einer Kamera und einer Bewegungsrichtung eines Fahrzeugs; und Anpassen einer Belichtung der Kamera basierend auf der erwarteten Änderung des Umgebungslichts.
  12. Verfahren nach Anspruch 11, wobei die Kamera eine nach vorne gerichtete Kamera des Fahrzeugs ist.
  13. Verfahren nach Anspruch 12, ferner umfassend das Anpassen der Belichtung einer zusätzlichen nach vorne gerichteten Kamera als Reaktion auf Änderungen des Umgebungslichts, das von der zusätzlichen nach vorne gerichteten Kamera empfangen wird.
  14. Verfahren nach Anspruch 12, ferner umfassend das Bestimmen einer Anwesenheit eines Objekts vor dem Fahrzeug, wenn eine der nach vorne gerichteten Kameras das Objekt erkennt.
  15. Verfahren nach Anspruch 11, ferner umfassend das Anpassen der Kamerabelichtung als Reaktion auf das Erkennen des Fahrzeugs, das sich einer Umgebungslichtübergangsposition nähert.
  16. Verfahren nach Anspruch 11, ferner umfassend das Speichern einer Vielzahl von Umgebungslichtübergangspositionen in einem in dem Fahrzeug installierten Speicher.
  17. Verfahren nach Anspruch 11, wobei die Position der Kamera durch einen Positionssensor bestimmt wird.
  18. Verfahren nach Anspruch 17, wobei der Positionssensor eines von einem globalen Positionierungssatellitensensor (GPS-Sensor) oder einem globalen Navigationssatellitensystemsensor (GNSS-Sensor) einschließt.
  19. Verfahren nach Anspruch 11, ferner umfassend das Bestimmen der Position der Kamera basierend auf einer Fahrzeuggeschwindigkeit.
  20. Verfahren nach Anspruch 11, wobei das Anpassen der Kamerabelichtung das Anpassen einer oder mehrerer einer Kamerablendeneinstellung, einer Kameraverschlusszeiteinstellung oder einer Kameralichtempfindlichkeitseinstellung einschließt.
DE102022130104.4A 2021-12-28 2022-11-15 Fahrzeugkameradynamik Pending DE102022130104A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/564,055 2021-12-28
US17/564,055 US20230209206A1 (en) 2021-12-28 2021-12-28 Vehicle camera dynamics

Publications (1)

Publication Number Publication Date
DE102022130104A1 true DE102022130104A1 (de) 2023-06-29

Family

ID=86693535

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022130104.4A Pending DE102022130104A1 (de) 2021-12-28 2022-11-15 Fahrzeugkameradynamik

Country Status (3)

Country Link
US (1) US20230209206A1 (de)
CN (1) CN116419072A (de)
DE (1) DE102022130104A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230226882A1 (en) * 2022-01-18 2023-07-20 Hyundai Motor Company Solar load feedback for climate control

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8376595B2 (en) * 2009-05-15 2013-02-19 Magna Electronics, Inc. Automatic headlamp control
CN104065930B (zh) * 2014-06-30 2017-07-07 青岛歌尔声学科技有限公司 集成摄像头模组和光传感器的视觉辅助方法及装置
JP2016049260A (ja) * 2014-08-29 2016-04-11 アルプス電気株式会社 車載用撮像装置
JP6657925B2 (ja) * 2015-06-04 2020-03-04 ソニー株式会社 車載カメラ・システム並びに画像処理装置
US10336243B1 (en) * 2017-12-14 2019-07-02 Bendix Commercial Vehicle Systems Llc Apparatus and method for adjusting vehicle lighting in response to camera system
US20190243376A1 (en) * 2018-02-05 2019-08-08 Qualcomm Incorporated Actively Complementing Exposure Settings for Autonomous Navigation
EP3865815A4 (de) * 2018-10-11 2022-07-13 Hitachi Astemo, Ltd. An einem fahrzeug montiertes system
US11089205B2 (en) * 2019-08-16 2021-08-10 Toyota Motor Engineering & Manufacturing North America, Inc. Window position monitoring system
US20210261050A1 (en) * 2020-02-21 2021-08-26 Cobalt Industries Inc. Real-time contextual vehicle lighting systems and methods

Also Published As

Publication number Publication date
US20230209206A1 (en) 2023-06-29
CN116419072A (zh) 2023-07-11

Similar Documents

Publication Publication Date Title
DE102006008703B4 (de) Fahrunterstützungssystem und Navigationssystem für ein Fahrzeug
DE102008039136B4 (de) Kamerasystem für ein Fahrzeug und Verfahren zum Steuern eines Kamerasystems
EP1504960B1 (de) Verfahren und Vorrichtung zur Verbesserung der Sicht in einem Kraftfahrzeug
DE102008028303A1 (de) Anzeigesystem und Programm
DE102018107344A1 (de) Hinderniserfassungssysteme und -verfahren
DE112016002268T5 (de) Bildverarbeitungsvorrichtung, elektronisches spiegelsystem und bildverarbeitungsverfahren
DE102017117195A1 (de) Fahrzeugaussenüberwachung
DE112016006811T5 (de) Fahrzeugsteuersystem, fahrzeugsteuerverfahren und fahrzeugsteuerprogramm
DE102016003438A1 (de) Fahrassistenzsystem eines Fahrzeugs und Verfahren zur Steuerung desselben
DE102007032814A1 (de) System zum Bereitstellen von Informationen zur Fahrunterstützung für einen Fahrer eines Fahrzeugs
DE112016006745T5 (de) Fahrzeugsteuersystem, Fahrzeugsteuerverfahren und Fahrzeugsteuerprogramm
DE102009004432A1 (de) Kraftfahrzeuganzeigevorrichtung zum Anzeigen eines ein vorderes Hindernis umkreisenden Bildflecks
WO2009036848A2 (de) Verfahren zur fahrerinformation in einem kraftfahrzeug
DE102010030044A1 (de) Wiederherstellvorrichtung für durch Wettereinflüsse verschlechterte Bilder und Fahrerunterstützungssystem hiermit
EP2619608B1 (de) Standortbestimmungseinrichtung in einem kraftfahrzeug und informationsfusionsverfahren
DE102009005184A1 (de) Fahrzeugabtastsystem
DE112018003002T5 (de) Fahrassistenzverfahren, Fahrassistenzprogramm und Fahrzeugsteuervorrichtung
DE112017007019T5 (de) Fahrzeuganzeigesteuervorrichtung
DE102013221867B4 (de) Dateneingabevorrichtung für Kraftfahrzeuge und Verfahren zum Eingeben von Daten mit einer Dateneingabevorrichtung in einem Kraftfahrzeug
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
DE102018115262A1 (de) Verfahren zur verwendung von fahrzeuginformationen und sensoren zur aufzeichnung von fotografie und video
DE102019131942A1 (de) Umfeldüberwachungseinrichtung
DE102018127600A1 (de) Informationsverarbeitungsvorrichtung, Fahrerüberwachungssystem, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm
DE102017120845A1 (de) Verfahren und Systeme zur adaptiven On-Demand-Infrarot-Fahrspurerkennung
DE102017223284A1 (de) Verfahren zum assistierten Betreiben eines Fahrzeugs und Fahrzeugassistentsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000