DE102020127764A1 - Fahrzeuganzeigenverbesserung - Google Patents

Fahrzeuganzeigenverbesserung Download PDF

Info

Publication number
DE102020127764A1
DE102020127764A1 DE102020127764.4A DE102020127764A DE102020127764A1 DE 102020127764 A1 DE102020127764 A1 DE 102020127764A1 DE 102020127764 A DE102020127764 A DE 102020127764A DE 102020127764 A1 DE102020127764 A1 DE 102020127764A1
Authority
DE
Germany
Prior art keywords
vehicle
data
user
color
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102020127764.4A
Other languages
English (en)
Inventor
Shiqi Qiu
Nithya Somanath
Erick Michael Lavoie
Johannes Kristinsson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102020127764A1 publication Critical patent/DE102020127764A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • B60K35/285Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver for improving awareness by directing driver's gaze direction or eye points
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/90Calibration of instruments, e.g. setting initial or reference parameters; Testing of instruments, e.g. detecting malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/168Target or limit values
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/179Distances to obstacles or vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/191Highlight information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/40Hardware adaptations for dashboards or instruments
    • B60K2360/48Sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0196Supplementary details having transparent supporting structure for display mounting, e.g. to a window or a windshield
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/248Aligning, centring, orientation detection or correction of the image by interactive preprocessing or interactive shape modelling, e.g. feature points assigned by a user

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Offenbarung stellt Fahrzeuganzeigenverbesserung bereit. Diese Offenbarung beschreibt Systeme, Verfahren und Vorrichtungen in Bezug auf eine Fahrzeuganzeigenverbesserung. Zum Beispiel kann ein Fahrzeug Daten empfangen, die mit einem Benutzer eines Fahrzeugs assoziiert sind, wobei die Daten mit einer von dem Benutzer getragenen Augenmode oder mit einem Benutzerprofil assoziierten Informationen assoziiert sind. Die Vorrichtung kann ein erstes Objekt in einem Sichtfeld des Benutzers identifizieren, während sich der Benutzer in dem Fahrzeug befindet. Die Vorrichtung kann eine erste Verbesserung auf das erste Objekt auf Grundlage der Daten anwenden. Die Vorrichtung kann die erste Verbesserung auf einer Anzeigevorrichtung des Fahrzeugs anzeigen.

Description

  • TECHNISCHES GEBIET
  • Diese Offenbarung betrifft im Allgemeinen Systeme, Verfahren und Vorrichtungen von Fahrzeugen und insbesondere eine Fahrzeuganzeigenverbesserung.
  • ALLGEMEINER STAND DER TECHNIK
  • Im Allgemeinen sind Fahrzeugfahrer mit Situationen konfrontiert, in denen sie möglicherweise eine Bewertung von Objekten vornehmen müssen, die während der Fahrt angetroffen werden. Selbst in optimalen Umgebungen, wie etwa klarer Sicht, Tageslicht oder klaren Verkehrszeichen, kann ein Fahrer dennoch zusätzliche Daten benötigen, die beim Vornehmen einer schnellen Bewertung helfen können. Ferner kann es sein, dass ein Fahrer nicht in einer optimalen Umgebung fährt, Kontaktlinsen oder Augenmode verwendet, die das Licht beeinflussen können, das von einem Objekt in einer Sichtlinie empfangen wird, oder an einer Farbfehlsichtigkeit leidet. Zum Beispiel kann ein Fahrer Augenmode mit einer bestimmten Farbtönung verwenden, welche die Farbe von Objekten verändern kann, die während des Fahrens angetroffen werden.
  • KURZDARSTELLUNG
  • Die hierin offenbarten Systeme, Vorrichtungen und Verfahren sind dazu konfiguriert, eine Fahrzeuganzeigenverbesserung in einem Fahrzeug zu ermöglichen. In einigen Ausführungsformen können die Systeme, Vorrichtungen und Verfahren hierin dazu konfiguriert sein, Mechanismen zum Verbessern der Erfahrung eines Fahrzeugführers durch Bereitstellen und Aktivieren von Korrekturmaßnahmen bereitzustellen, um die Fahrumgebung als Reaktion darauf zu verbessern.
  • Im Allgemeinen treffen Fahrer während des Fahrens auf Situationen, in denen sie schnell bewerten müssen, wie sie mit ihnen umgehen. Selbst in optimalen Umgebungen, wie etwa klarer Sicht, Tageslicht oder klaren Verkehrszeichen, kann ein Fahrer dennoch zusätzliche Daten benötigen, die beim Vornehmen einer schnellen Bewertung helfen könnten. Es kann jedoch sein, dass ein Fahrer nicht in einer optimalen Umgebung fährt, Kontaktlinsen oder Augenmode verwendet, die das Licht beeinflussen können, das von einem Objekt in einer Sichtlinie empfangen wird. Zum Beispiel kann ein Fahrer Augenmode mit einer bestimmten Farbtönung verwenden, welche die Farbe von Objekten verändern kann, die während des Fahrens angetroffen werden. In einigen anderen Beispielen kann ein Fahrer an einer Farbfehlsichtigkeit leiden, der beim Identifizieren von farbigen Verkehrszeichen oder anderen Zeichen auf der Straße Herausforderungen darstellen kann.
  • Im Fall von farbenblinden Personen können sie beeinträchtigte visuelle Bilder erfahren, wobei diese Bilder von Farbe als Differenzierungsfaktor abhängen. Zum Beispiel beinhalten bei Farbfehlsichtigkeit (color vision deficiency - CVD) einige der Herausforderungen das Identifizieren eines roten Lichts, das sich für den farbenblinden Fahrer möglicherweise nicht genug abhebt, damit dieser das rote Licht wahrnimmt. Das gleiche Problem kann auch von dem Farbfehlsichtigkeit des Fahrers abhängen, insbesondere wenn der Abstand zu dem farbigen Objekt unbestimmt ist. In diesen Situationen kann es schwierig sein, zwischen zwei Farben zu unterscheiden, was zu einem verringerten Fahrerlebnis führt. Zum Beispiel kann ein Fahrer in einigen anderen Situationen, wenn ein Benutzer nicht zwischen grünen oder roten Farben unterscheiden kann, davon ausgehen, dass ein rotes Licht ein grünes Licht ist. Die häufigste Form von CVD ist Rot-Grün, aber Fahrer können auch an einer Violett-Blau-Farbenblindheit leiden. Es gibt Produkte wie Brillen und Kontaktlinsen, die einen gewissen Ausgleich für Farbenblindheit bereitstellen. Obwohl Fahrer jedoch in der Lage sein können, Farbkorrekturlinsen zu kaufen, um CVD zu kompensieren, können diese Lösungen teuer, unpraktisch, falsch eingesetzt oder beschädigt sein. Um derartige Probleme abzschwächen, könnte die Technologie der Head-up-Anzeige (head up display - HUD) mit erweiterter Realität (augmented reality - AR) (z. B. AR-Windschutzscheibe, Panoramaanzeige oder eine beliebige andere Anzeige mit AR-Funktionalität) genutzt werden, um CVD ohne zusätzliche Kosten für die AR-HUD auszugleichen und könnte an unterschiedliche Insassen mit unterschiedlichen bedürfnissen angepasst werden.
  • Im Allgemeinen umfasst ein Fahrzeug einen oder mehrere Sensoren und/oder eine oder mehrere Kameras, die dazu konfiguriert sind, Objekte und assoziierte Informationen auf Grundlage bestimmter Kriterien, die mit dem Fahrzeug und einem Benutzer des Fahrzeugs assoziiert sind, wie etwa einem Fahrer oder Fahrgast, zu erfassen. Darüber hinaus beinhalten einige Ausführungsformen Sensoren, die dazu in der Lage sind, Signale oder Ausgaben bereitzustellen, die analysiert werden können, um Situations- oder Kontextinformationen zu bestimmen. Beispiele für Situations- oder Kontextinformationen beinhalten eine Art von Augenmode und/oder Fahrerzuständen, die bestimmte Anpassungen und/oder Korrekturen erfordern können, um eine bessere Benutzererfahrung beim Betreiben des Fahrzeugs bereitzustellen, oder andere ähnliche Situations- oder Kontextinformationen. Während die Bestimmung der Art von Augenmode und/oder Faherzuständen bestimmt, verarbeitet und bestimmte Merkmale einer Anzeige erweitert und und für den Fahrer in einem visuellen Format angezeigt werden, können somit zusätzliche Siuations- oder Kontextinformationen ebenfalls angezeigt werden, wodurch eine verbesserte Anzeige erschafen wird.
  • Eine erweiterte Anzeige der vorliegenden Offenbarung kann einen oder mehrere visuelle Indikatoren beinhalten, wobei jeder visuelle Indikator mindestens einen Aspekt von kalibrierten oder erweiterten Informationen bereitstellt. Zusammen stellen der eine oder die mehreren visuellen Indikatoren dem Fahrer eine verbesserte Anzeige oder eine Ansicht bereit, die mit Objekten assoziiert ist, die im Sichtfeld des Fahrers erscheinen. Die visuellen Indikatoren beinhalten mindestens einen physischen Indikator, wie etwa lichtemittierende Elemente, Lenkradvibration, Sitzvibration oder akustische Signale oder Töne, die mit dem Kontext und/oder verbalen Hinweisen assoziiert sind (z. B. „rotes Licht voraus“). Der eine oder die mehreren Indikatoren beinhalten mindestens eine grafische Benutzerschnittstelle oder ein virtuelles Element, die/das auf einer optischen Oberfläche angezeigt oder auf diese projiziert wird, wie etwa Überlagern identifizierter Objekte in der Sichtlinie mit zusätzlichen Zeichen, um die Anzeige zu verbessern. Der eine oder die mehreren visuellen Indikatoren beinhalten Kombinationen von physischen und/oder virtuellen Elementen. Gemäß einigen Ausführungsformen können einige des einen oder der mehreren in einer Anzeige verwendeten Indikatoren mindestens ein visuelles Attribut aufweisen, das auf einer dynamischen Grundlage oder Echtzeitgrundlage als Reaktion auf die Art der Augenmode und/oder den Fahrerzustand oder die bestimmten Kontextinformationen angepasst wird.
  • Figurenliste
  • Die detaillierte Beschreibung wird unter Bezugnahme auf die beigefügten Zeichnungen dargelegt. Die Verwendung der gleichen Bezugszeichen kann ähnliche oder identische Elemente angeben. Für verschiedene Ausführungsformen können andere Elemente und/oder Komponenten verwendet werden als jene, die in den Zeichnungen veranschaulicht sind, und einige Elemente und/oder Komponenten sind in verschiedenen Ausführungsformen unter Umständen nicht vorhanden. Die Elemente und/oder Komponenten in den Figuren sind nicht zwingend maßstabsgetreu gezeichnet. Für die gesamte Offenbarung gilt, dass Terminologie im Singular und Plural je nach Kontext austauschbar verwendet werden kann.
    • 1 stellt eine Darstellung dar, die eine beispielhafte Umgebung für Techniken und Strukturen gemäß einer oder mehreren beispielhaften Ausführungsformen der vorliegenden Offenbarung veranschaulicht.
    • 2 stellt eine veranschaulichendes schematische Darstellung eines Fahrzeuganzeigenverbesserungssystems gemäß einer oder mehreren beispielhaften Ausführungsformen der vorliegenden Offenbarung dar.
    • 3 stellt ein Ablaufdiagramm eines veranschaulichenden Prozesses für ein Fahrzeuganzeigenverbesserungssystem gemäß einer oder mehreren beispielhaften Ausführungsformen der Offenbarung dar.
  • DETAILLIERTE BESCHREIBUNG
  • Hierin beschriebene beispielhafte Ausführungsformen stellen bestimmte Systeme, Verfahren und Vorrichtungen für eine Fahrzeuganzeigenverbesserung bereit.
  • Die folgende Beschreibung und die Zeichnungen veranschaulichen spezifische Ausführungsformen ausreichend, die es dem Fachmann ermöglichen, sie in die Praxis umzusetzen. Andere Ausführungsformen können strukturelle, logische, elektrische, Prozess- und andere Änderungen integrieren. Teile und Merkmale einiger Ausführungsformen können in jenen anderer Ausführungsformen enthalten sein oder diese ersetzen. Ausführungsformen, die in den Ansprüchen dargelegt sind, umschließen alle verfügbaren Äquivalente dieser Ansprüche.
  • Es wird nun auf die Zeichnungen Bezug genommen, in denen 1 eine veranschaulichende Architektur 100 darstellt, in der Techniken und Strukturen der vorliegenden Offenbarung umgesetzt sein können.
  • Die veranschaulichende Architektur 100 kann ein Fahrzeug 102, eine optische Oberfläche 104 und ein oder mehrere Objekte, wie etwa das Objekt 106, beinhalten. Im Allgemeinen könnte das Objekt 106 eine Ampel beinhalten, die während des Fahrens des Fahrzeugs 102 angetroffen werden kann. Andere Objekte können gleichermaßen identifiziert und verbessert werden, wie hierin offenbart.
  • Die optische Oberfläche 104 könnte eine Head-up-Anzeige (HUD), ein Abschnitt der Windschutzscheibe oder ein beliebiger anderer Bereich sein, der eine oder mehrere Verbesserungen beinhalten kann, wie etwa die Verbesserungen 103, 105 und 107, wie in der vorliegende Offenbarung offenbart. Die eine oder die mehreren Verbesserungen könnten integriert sein, um den Fahrer basierend auf einer oder mehreren bestimmten Eigenschaften des Fahrers oder der vom Fahrer getragenen Augenmode zu unterstützen.
  • Komponenten der Architektur 100, wie etwa das Fahrzeug 102, können mit einem Netzwerk 115 verbunden sein, das es dem Fahrzeug 102 ermöglicht, mit externen Diensten (z.B. dem Dienstanbieter 112) zu kommunizieren. In einigen Beispielen kann der Dienstanbieter 112 eine Datenbank umfassen, die Informationen enthält, die mit einem oder mehreren Objekten, die durch eine oder mehrere Komponenten des Fahrzeugs 102 identifiziert werden, und/oder einer oder mehrere Arten von Augenmode, die durch den Fahrer verwendet wird, assoziiert sind. Es versteht sich, dass eine Datenbank der einen oder der mehreren Arten von Augenmode oder zusätzlichen Zeichen, die mit der einen oder den mehreren Verbesserungen assoziiert sind, ebenfalls lokal in dem Fahrzeug 102 gespeichert sein kann.
  • Das Netzwerk 115 kann eine beliebige Art oder eine Kombination aus mehreren verschiedenen Arten von Netzwerken, wie etwa Kabelnetzwerke, das Internet, drahtlose Netzwerke und andere private und/oder öffentliche Netzwerke, beinhalten. In einigen Fällen kann das Netzwerk 115 Mobilfunk, Wi-Fi oder Wi-Fi Direct einschließen.
  • Im Allgemeinen kann das Fahrzeug 102 ein beliebiges Fahrzeug umfassen, das eine Steuerung 118, eine Sensorbaugruppe 116, eine Steuerung 117 für erweiterte Realität (AR) und eine Kommunikationsschnittstelle 120 (ein optionales Merkmal für einige Ausführungsformen) umfassen kann.
  • In verschiedenen Ausführungsformen beinhaltet die optische Oberfläche 104 eine vordere oder hintere Windschutzscheibe des Fahrzeugs 102. Der Kürze und Übersichtlichkeit halber können hierin bereitgestellte Beispiele als eine HUD oder die vordere Windschutzscheibe des Fahrzeugs 102 auf die optische Oberfläche 104 Bezug nehmen. Die optische Oberfläche kann andere Oberflächen innerhalb des Fahrzeugs 102 beinhalten.
  • In einigen Ausführungsformen kann die Steuerung 118 einen Prozessor 126 und Speicher 128 umfassen. Der Speicher 128 speichert Anweisungen, die durch den Prozessor 126 ausgeführt werden, um Aspekte der einen oder mehreren hierin offenbarten Techniken und Strukturen durchzuführen. Wenn auf Vorgänge Bezug genommen wird, die durch die Steuerung 118 ausgeführt werden, versteht es sich, dass dies die Ausführung von Anweisungen durch den Prozessor 126 beinhaltet.
  • In einigen Ausführungsformen kann die Sensorbaugruppe 116 einen oder mehrere Sensoren umfassen, die dazu in der Lage sind, Daten zu erfassen, die von Objekten innerhalb des Bereichs des einen oder der mehreren Sensoren empfangen werden. Zum Beispiel kann ein von der Sensorbaugruppe 116 erfasstes Bild das Objekt 106 oder Details, die mit dem Fahrer assoziiert sind, wie etwa Augenmode, oder andere Eigenschaften, die mit dem Fahrer assoziiert sind, beinhalten.
  • In einigen Ausführungsformen könnte die Sensorbaugruppe 116 beliebige von einer Kamera, einer Laufzeitkamera (time-of-flight camera - TOF-Kamera), Light Detection and Ranging (LIDAR) oder anderen ähnlichen Systemen umfassen, die verwendet werden können, um Daten, die mit Objekten und/oder einem Fahrer des Fahrzeugs 102 assoziiert sind, zu erkennen und zu erfassen.
  • In anderen Ausführungsformen kann die Sensorbaugruppe 116 Daten erfassen, um die Kalibrierung der einen oder mehreren Verbesserungen auf Grundlage der erfassten Daten zu ermöglichen. Wenn die Sensorbaugruppe 116 zum Beispiel bestimmt, dass eine Augenmode des Fahrers von einem bestimmten Typ ist, kann die Sensorbaugruppe 116 diese Daten an die Steuerung 118 übertragen, um eine Kalibrierung durchzuführen, sodass die eine oder mehreren Verbesserungen auf der Kalibrierung basieren.
  • Die AR-Steuerung 117 kann das Verarbeiten von durch die Sensorbaugruppe 116 erfassten Daten ermöglichen, um eine oder mehrere Anzeigen, wie etwa die optische Oberfläche 104, durch Darstellen der einen oder mehreren Verbesserungen für den Fahrer des Fahrzeugs 102 zu verbessern. Die AR-Steuerung 117 kann auf eine AR-Anzeige zugreifen, um die eine oder mehreren Verbesserungen darzustellen.
  • 2 stellt eine veranschaulichende schematische Darstellung eines Fahrzeuganzeigenverbesserungssystems gemäß einer oder mehreren beispielhaften Ausführungsformen der vorliegenden Offenbarung dar.
  • Unter Bezugnahme auf 2 ist ein Benutzer 201 eines Fahrzeugs (z. B. des Fahrzeugs 102 aus 1) gezeigt, der mit einer Umgebung oder anderweitig einem Bereich von Interesse 202 interagieren kann. Der Benutzer 201 kann ein Fahrer oder ein Fahrgast des Fahrzeugs sein. Der Benutzer 201 kann von einer oder mehreren Verbesserungen profitieren, die in der Sichtlinie zwischen dem Benutzer 201 und dem Bereich von Interesse 202 eingeblendet werden können. Die Sichtlinie zwischen dem Benutzer 201 und dem Bereich von Interesse 202 kann durch eine Anzeige 203 sichtbar sein. Die Anzeige 203 kann eine Head-up-Anzeige (HUD), die auf eine Windschutzscheibe projiziert ist, einen Abschnitt der Windschutzscheibe, eine AR-Anzeige oder beliebige andere Anzeigen umfassen, die in der Lage sein können, die eine oder mehreren Verbesserungen darzustellen. 2 zeigt ferner einen Sensor 205, ein Fahrerprofil 211, ein AR-Steuersystem 213, einen Video-/Bildprozessor 215 und einen Sensor 217.
  • Der Sensor 205 kann dazu angewiesen werden, Merkmale zu erfassen, die mit dem Benutzer 201 assoziiert sind. Zum Beispiel kann der Sensor 205 eine Kamera umfassen, um Informationen zu erfassen, die mit Objekten assoziiert sind, die durch den Benutzer 201 verwendet werden, wobei derartige Objekte Augenmode, Visiere, Helme oder ein beliebiges anderes Objekt beinhalten können, das verwendet werden kann, um den Benutzer 201 beim Betrachten des Bereichs von Interesse 202 zu unterstützen. Falls der Benutzer 201 die Anzeige 203 nicht verwendet, kann der Benutzer 201 eine beeinträchtigte Sicht, wie in dem Bereich von Interesse 219 gezeigt, auf Grundlage von Faktoren, wie etwa Farbspektrum der Augenmode, Farbenblindheit, Blendlicht oder beliebigen anderen beeinträchtigenden Faktoren, welche den Bereich von Interesse beeinflussen, erfahren.
  • Ein Fahrzeuganzeigenverbesserungssystem kann einen Benutzer beim Fahren eines Fahrzeugs durch Hinzufügen von Verbesserungen zu Anzeigen unterstützen, was zu einem besseren Fahrerlebnis führt.
  • Ein Fahrzeuganzeigenverbesserungssystem kann dazu konfiguriert sein, AR zu verwenden, um einen Benutzer beim Unterscheiden zwischen verschiedenen Farben in Bereichen von Interesse zu unterstützen. Ein Fahrzeuganzeigenverbesserungssystem kann ein oder mehrere mit dem Fahrer assoziierte Elemente (z. B. Augenmode, Farbenblindheit, Profil usw.) bewerten. Bei dem einen oder mehreren Elementen kann es sich um Daten handeln, die in Echtzeit empfangen werden oder aus einer lokalen oder entfernten Datenbank abgerufen werden können. Das Fahrzeuganzeigenverbesserungssystem kann auf Grundlage dieses einen oder dieser mehreren Elemente bestimmen, welche Art von Korrektur erforderlich ist (z. B. Farbanpassungen, zusätzliche Indikatoren, Hervorhebung von Indikatoren oder beliebige andere Verbesserungen von Anzeigemerkmalen), um den Fahrer bei der besseren Identifizierung eines Objekts in einem Sichtbereich zu unterstützen. Zum Beispiel kann ein Fahrzeuganzeigenverbesserungssystem eine Farbkompensation und -identifikation durchführen, wie etwa Hervorheben, Verbessern oder Hinzufügen von Text zu einem Abschnitt der Anzeige.
  • Ein Fahrzeuganzeigenverbesserungssystem kann dazu konfiguriert sein, Gegenstände in der realen Welt zu überlagern, sodass sie verbesserter und für den Fahrer nützlicher werden. Zum Beispiel kann das Fahrzeuganzeigenverbesserungssystem dazu konfiguriert sein, eine identifizierte Augenmode durch Intensivieren einer Lichtwellenlänge auf Grundlage der Art der Augenmode zu verbessern. Zum Beispiel kann das Fahrzeuganzeigenverbesserungssystem eine rote Farbe mit einer bestimmten Wellenlänge überlagern, sodass der Benutzer in der Lage ist, eine bessere Farbe basierend auf dem Zustand zu sehen, der sich vor dem Benutzer befindet (z. B. bestimmte Farbenblindheit), unter Verwendung einer bestimmten Art von Augenmode, welche die für den Benutzer zu projizierende Farbe beeinflussen kann.
  • Auf eine Datenbank, die Informationen über bestimmte Arten von Augenmode enthält, kann zugegriffen werden, um Informationen zu extrahieren, die mit einer Augenmode assoziiert sind, um die Kalibrierung von Farben zu unterstützen. Wenn die Augenmode jedoch nicht in der Datenbank aufgeführt ist, muss ein Benutzer das Fahrzeuganzeigenverbesserungssystem möglicherweise manuell kalibrieren, um die visuelle Erfahrung des Benutzers zu verbessern.
  • In einigen Ausführungsformen kann ein Fahrzeuganzeigenverbesserungssystem dazu konfiguriert sein, Licht zu dem Sichtfeld hinzuzufügen, während die Augenmode das Sichtfeld blockieren oder filtern kann. Das heißt, das Fahrzeuganzeigenverbesserungssystem kann eine Überlagerung in der Sicht des Fahrers hinzufügen, sodass der Fahrer in der Lage ist, verbesserte Objekte in dem Sichtfeld zu sehen. Zum Beispiel kann in Fällen, in denen eine Brille blaues Licht blockiert, das Fahrzeuganzeigenverbesserungssystem eine bestimmte Wellenlänge von Licht verbessern, um der Sicht des Fahrers zu entsprechen und diese anzupassen.
  • Ein Fahrzeuganzeigenverbesserungssystem kann fahrzeuginterne AR-Technologie verwenden, um das Fahrerlebnis für den farbenblinden Fahrer zu verbessern und beim sicheren Fahren zu helfen. Zum Beispiel kann ein Fahrzeuganzeigenverbesserungssystem die fahrzeuginternen Sensoren und die AR-Hardware (z. B. das AR-Steuersystem 213) verwenden, um Fahrern mit CVD zu helfen. In einigen Ausführungsformen kann das Fahrzeuganzeigenverbesserungssystem ein neuartiges CVD-Kompensationssystem bereitstellen, das in das AR-HUD und/oder die Windschutzscheibe integriert ist, um den Fahrer dabei zu unterstützen, zwischen möglicherweise verwirrenden farbigen Elementen in der Umgebung zu unterscheiden, während Ablenkungen reduziert werden.
  • Ein Fahrzeuganzeigenverbesserungssystem kann dazu konfiguriert sein, einen oder mehrere Schritte durchzuführen, um den Fahrer zu unterstützen. Zum Beispiel kann das Fahrzeuganzeigenverbesserungssystem eine Augenmodenidentifizierung 207 und/oder eine Fahreridentifizierung 209 durchführen.
  • Das Fahrzeuganzeigenverbesserungssystem kann ein Fahrerprofil 211 auf Grundlage der Fahreridentifikation 209 bestimmen. Das Fahrerprofil 211 kann dann in das AR-Steuersystem 213 eingegeben werden, um Verbesserungen auf Grundlage der durch den Sensor 217 erfassten Bilder einzuführen, die durch einen Video-/Bildprozessor 215 verarbeitet werden.
  • Ferner kann das Fahrzeuganzeigenverbesserungssystem eine Farbkalibrierung durchführen (z. B. Farbe, Helligkeit, Größe, Farbton des AR-Elements ändern, um sich an den Fahrer anzupassen). Das Fahrzeuganzeigenverbesserungssystem kann auch Detektion kritischer Objekte, Farbkompensation/-identifizierung kritischer Objekte unter Verwendung beispielsweise eines AR-Steuersystems 213 durchführen. Beispiele für die Farbkompensation/-identifizierung kritischer Objekte können für Verkehrsampeln, Verkehrszeichen oder beliebige andere verkehrsbezogene Signale umgesetzt werden. Das Fahrzeuganzeigenverbesserungssystem kann die Umgebung im Sichtfeld des Fahrers verbessern, indem eine Farbkompensation durchgeführt wird und eine Anpassung an Arten von Szenen, wie etwa Herbstlaub oder eine Stadtumgebung, durchgeführt wird.
  • Ein Fahrzeuganzeigenverbesserungssystem kann einen Innensensor (z. B. den Sensor 205) verwenden, wenn verfügbar, wie etwa eine Kamera, um zu identifizieren, ob der Fahrer eine Art von Augenmode trägt oder eine Kontaktlinse zum Kompensieren von CVD trägt. Falls kein Innensensor verfügbar ist, kann ein Fahrzeuganzeigenverbesserungssystem dazu konfiguriert sein, auf Grundlage von Eingaben von dem Fahrer zu bestimmen, ob der Fahrer eine Augenmode oder eine Kontaktlinse zum Kompensieren von CVD trägt. Wenn ein Innensensor verfügbar ist, wie etwa eine Kamera, wendet das System einen Lernalgorithmus an, um die Kontaktlinse zu identifizieren und automatisch zu detektierten, ob sie in Zukunft getragen wird. Im Gegenzug kann ein Fahrzeuganzeigenverbesserungssystem dazu konfiguriert sein, diese Informationen zu verwenden, um zu bestimmen, wie die Anzeige (z. B. die AR-HUD-Ausgabe) anzupassen ist, um eine intuitive, konsistente visuelle Erfahrung über verschiedene Arten von Kontaktlinsenverwendung bereitzustellen. Zum Beispiel kann die AR-HUD die Farbwellenlänge, Leuchtstärke, Sättigung und andere Anzeigeeigenschaften modifizieren, um dies zu erreichen. Um die AR-HUD-Leistung für verschiedene Benutzer weiter zu optimieren, kann das System dem Fahrer einen Anzeigefarbkalibrierungsprozess bereitstellen, der eine oder mehrere Funktionen durchführt. Die eine oder die mehreren Funktionen können Folgendes umfassen: 1) Einladen des Fahrers, mit der Kalibrierung zu beginnen, wenn ein Fahrer mit unbekannter CVD das Fahrzeug zum ersten Mal verwendet; 2) Einladen des Fahrers, mit der Kalibrierung zu beginnen, wenn zum ersten Mal eine Art von Sonnenbrille erkannt wird; 3) Einladen des Fahrers, mit der Kalibrierung zu beginnen, wenn das Fahrzeug stationär ist und wenn das System zuvor einen Fehler des Fahrers identifiziert hat, angemessen auf eine Farbe zu reagieren; 4) Einladen des Fahrers, auf eine Vielzahl von Benutzerschnittstellen zuzugreifen, wie etwa ein Menü oder einen Sprachbefehl; 5) Verwenden des AR-HUD zum Anzeigen eines Satzes von farbigen Elementen, wie etwa Verkehrsampeln, wobei die Farbe für eine bestimmte Form von CVD kompensiert wurde; 6) Bitten des Fahrers, die am einfachsten zu verwendende Farbkalibrierung auszuwählen.
  • Ein Fahrzeuganzeigenverbesserungssystem kann die Farbkompensation/- identifizierung kritischer Objekte und die Umgebungsanpassung ermöglichen. Zum Beispiel kann es für das AR-HUD vorteilhaft sein, den Umfang der CVD-Kompensation für die Umgebung anzupassen. Daher kann das System Standort-, Jahreszeit- und/oder Wetterinformationen verwenden, um anzupassen, wo die Kompensation in der Sicht des Fahrers angewendet werden soll. Wenn sich das Fahrzeug zum Beispiel an einem Standort befindet, an dem erheblicher Fahrzeug- und Fußgängerverkehr herrscht, kann es vorteilhaft sein, eine AR-HUD-Kompensation auf bestimmte Elemente in der Szene anzuwenden, auf die der Fahrer reagieren muss, wie etwa Verkehrsampeln, Schilder, Fahrradreflektoren, Baustellenabsperrungen, Warnwesten oder andere Elemente im Weg des Fahrzeugs. Das Fahrzeuganzeigenverbesserungssystem kann Farbelemente von Interesse in der Umgebung und ihre Standorte relativ zu dem Fahrer und dem Fahrzeug identifizieren. Das Fahrzeug kann Sensorfusion, künstliche Intelligenz, maschinelles Lernen und andere Techniken anwenden, um Signale von den Wahrnehmungssensoren, wie etwa Kamera, RADAR, LiDAR und dergleichen, zu verarbeiten.
  • Das Fahrzeuganzeigenverbesserungssystem kann Farbelemente in der Umgebung für CVD kompensieren, auf die der Fahrer reagieren muss, indem eine Farbüberlagerung bereitgestellt wird, die dazu ausgestaltet ist, dem Fahrer dabei zu helfen, die Farbe zu identifizieren.
  • Zusätzliche Informationen können der Anzeige hinzugefügt werden, wie etwa zusätzliche farbige Elemente, Formen und/oder Text. Zum Beispiel kann die AR-HUD ein CVD-farbkompensiertes Stoppschild anzeigen, wenn ein Stoppschild detektiert wird. In einem weiteren Beispiel kann die AR-HUD eine Baustellenzonengeschwindigkeitsbegrenzung mit CVD-farbkompensiertenÜberlagerungen auf Baustellenzonenelementen, wie etwa Absperrungen, Westen oder beliebigen anderen Objekten mit Baustellenbezug, anzeigen.
  • Ein Fahrzeuganzeigenverbesserungssystem kann Fahrzeugträgheitserfassung, Lenkradwinkel-, Raddrehzahlsensoren und dergleichen verwenden, um einen Weg vorherzusagen und eine AR-HUD-Farbüberlagerung auf dem Bereich der Anzeige in der Sichtlinie des Fahrzeugwegs bereitzustellen.
  • Ein Fahrzeuganzeigenverbesserungssystem kann eine Vollsichtumgebungsfarbanpassung ermöglichen. Zum Beispiel kann es Szenarien geben, in denen es wünschenswert wäre, die gesamte Szene für CVD farblich zu korrigieren, wie etwa, wenn das Fahrzeug in einem szenischen Bereich gefahren wird, in dem der Fahrer eine bessere Sicht auf die gesamte Umgebung haben möchte. Zum Beispiel kann der Fahrer das Fahrzeug für eine Autofahrt verwenden, um zu sehen, wie die Vegetation im Frühling blüht oder die Blätter im Herbst ihre Farbe ändern usw. Zusätzlich kann die AR-HUD eine CVD-Farbüberlagerungskompensation bereitstellen, die sich an die Augenmode des Fahrers, Lichteigenschaften von Objekten, Eigenschaften von Umgebungslicht, Winkel des Sonnenlichts oder anderer Lichtquellen usw. anpasst. Zum Beispiel kann die AR-HUD die Farbwellenlänge, Sättigung, Leuchtstärke und dergleichen in Abhängigkeit von Folgendem anpassen: 1) getönten Linsen; 2) Reflektivität von Objekten; 3) Farbtemperatur des Umgebungslichts; und 4) Standort der Sonne unter Verwendung von Standort und Zeit.
  • Die Umsetzung eines Fahrzeuganzeigenverbesserungssystems kann verschiedene Vorteile aufweisen. Einige dieser Vorteile können beinhalten, dass ein Fahrer dabei unterstützt wird, den Status von Verkehrsampeln/-schildern früher und einfacher zu identifizieren und darauf zu reagieren; dass das Fahrerlebniss von farbenblinden Fahrern unter allen Zuständen verbessert wird (Tag/Nacht, bei jedem Wetter, in allen Umgebungen); die Wahrscheinlichkeit dafür, Verkehrsregeln zu verletzen, verringert wird; und dass eine einfache Möglichkeit, eine Verkehrsampel nachts von anderen Leuchten (z. B. Fahrzeugleuchten oder Straßenleuchten) zu identifizieren, bereitgestellt wird. Es versteht sich, dass die vorstehenden Beschreibungen Veranschaulichungszwecken dienen und nicht einschränkend sein sollen.
  • 3 veranschaulicht ein Ablaufdiagramm eines veranschaulichenden Prozesses 300 für ein veranschaulichendes Fahrzeuganzeigenverbesserungssystem gemäß einer oder mehreren beispielhaften Ausführungsformen der vorliegenden Offenbarung.
  • Der folgende veranschaulichende Prozess 300 ist beispielhaft, aber nicht auf die tatsächlichen Schritte beschränkt; und darüber hinaus können alternative Ausführungsformen mehr oder weniger Schritte beinhalten, die hierin gezeigt oder beschrieben sind.
  • Bei Block 302 kann ein Fahrzeug (z. B. das Fahrzeug 102 aus 1) Daten empfangen, die mit einem Benutzer (z. B. einem Fahrer oder einem Fahrgast) des Fahrzeugs assoziiert sind. Die Daten können von einem ersten Sensor des Fahrzeugs empfangen werden. In einigen Beispielen ist der erste Sensor dazu konfiguriert, die Daten innerhalb eines Innenraums des Fahrzeugs zu erfassen. Die Daten können Identifizierungsinformationen einer Augenmode, die mit dem Benutzer assoziiert ist, beinhalten und/oder können ein Benutzerprofil, das mit dem Fahrer des Fahrzeugs assoziiert ist, beinhalten. Zum Beispiel kann ein Fahreridentifizierungssystem den Fahrer (oder der Fahrer identifiziert sich selbst durch eine Mensch-Maschine-Schnittstelle (human machine interface - HMI)), das Fahrerprofil mit Farbenblindheitsinformationen identifizieren, die dem AR-Steuersystem bereitgestellt werden. In einigen anderen Beispielen kann ein Augenmodenidentifizierungssystem die durch den Fahrer verwendete Augenmode identifizieren (oder der Fahrer kann seinen oder ihren Augenmodenzustand durch die HMI identifizieren). Das AR-Steuersystem kann die Augenmode kompensieren. Ferner kann das Fahrerprofil zwischen Fahrzeugen geteilt werden. Zum Beispiel kann das in einem ersten Fahrzeug verwendete Benutzerprofil an ein zweites Fahrzeug übertragen werden.
  • Bei Block 304 kann das Fahrzeug ein oder mehrere Objekte in einem Sichtfeld des Benutzers identifizieren. In einigen Beispielen werden das eine oder die mehreren Objekte unter Verwendung eines zweiten Sensors des Fahrzeugs identifiziert, wobei der zweite Sensor mit dem Erfassen von Daten von einer Außenseite des Fahrzeugs assoziiert ist.
  • Bei Block 306 kann das Fahrzeug auf Grundlage der Daten eine oder mehrere Verbesserungen auf das eine oder die mehreren Objekte anwenden. In einigen Ausführungsformen kann ein Steuersystem mit erweiterter Realität (AR) die Anzeigevorrichtung auf Grundlage der empfangenen Daten und des einen oder der mehreren Objekte kalibrieren. Die eine oder die mehreren Verbesserungen beinhalten Farbkompensation, visuelle Indikatoren oder physische Indikatoren. Zum Beispiel kann ein AR-Steuersystem die Anzeigefarbe von AR-Elementen auf Grundlage eines Fahrerzustands (z. B. nicht erkannte Farbe vermeiden, bestimmtes Farbschema verbessern), einer Augenmode, eines AR-HUD-/Windschutzscheibenglases, falls getönt, kalibrieren.
  • Bei Block 308 kann das Fahrzeug die eine oder die mehreren Verbesserungen auf einer Anzeigevorrichtung des Fahrzeugs anzeigen. Wenn zum Beispiel wichtige Verkehrszeichen/-signale durch ein Detektionssystem für kritische Objekte erkannt werden, kann das Fahrzeug die Zeichen/Signale mit AR-Elementen, wie etwa einem Stoppschild, einem Warnschild, einem Verkehrsampelstatus und anderen Angaben, hervorheben/anzeigen. Es versteht sich, dass die vorstehenden Beschreibungen Veranschaulichungszwecken dienen und nicht einschränkend sein sollen.
  • In der vorstehenden Offenbarung ist auf die beigefügten Zeichnungen Bezug genommen worden, die einen Teil hiervon bilden und konkrete Umsetzungen veranschaulichen, in denen die vorliegende Offenbarung umgesetzt werden kann. Es versteht sich, dass auch andere Umsetzungen genutzt und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“ usw. geben an, dass die beschriebene Ausführungsform ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft beinhalten kann, doch es muss nicht notwendigerweise jede Ausführungsform diese(s) bestimmte Merkmal, Struktur oder Eigenschaft beinhalten. Darüber hinaus beziehen sich derartige Formulierungen nicht unbedingt auf dieselbe Ausführungsform. Ferner wird, wenn ein(e) konkrete(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben ist, der Fachmann ein(e) derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen erkennen, ob dies nun ausdrücklich beschrieben ist oder nicht.
  • Umsetzungen der in dieser Schrift offenbarten Systeme, Geräte, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder nutzen, der Computerhardware beinhaltet, wie zum Beispiel einen oder mehrere Prozessoren und Systemspeicher, wie sie in dieser Schrift erörtert sind. Umsetzungen innerhalb des Umfangs der vorliegenden Offenbarung können zudem physische und andere computerlesbare Medien zum Transportieren oder Speichern computerausführbarer Anweisungen und/oder Datenstrukturen beinhalten. Bei derartigen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, in denen computerausführbare Anweisungen gespeichert werden, handelt es sich um Computerspeichermedien (-vorrichtungen). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Somit können Umsetzungen der vorliegenden Offenbarung beispielsweise und nicht einschränkend mindestens zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
  • Computerspeichermedien (-vorrichtungen) beinhalten RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (solid state drives - SSDs) (z. B. auf Grundlage von RAM), Flash-Speicher, Phasenwechselspeicher (phase-change memory - PCM), andere Speicherarten, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das dazu verwendet werden kann, gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Umsetzung der hierin offenbaren Vorrichtungen, Systemen und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder festverdrahtet, drahtlos oder eine beliebige Kombination aus festverdrahtet oder drahtlos) an einen Computer übertragen oder einem Computer bereitgestellt werden, sieht der Computer die Verbindung zweckgemäß als Übertragungsmedium an. Übertragungsmedien können ein Netzwerk und/oder Datenverknüpfungen beinhalten, die verwendet werden können, um gewünschte Programmcodemittel in der Form von computerausführbaren Anweisungen oder Datenstrukturen zu transportieren, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus dem Vorstehenden sollten ebenfalls in den Umfang computerlesbarer Medien eingeschlossen sein.
  • Computerausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die, wenn sie auf einem Prozessor ausgeführt werden, einen Universalcomputer, Spezialcomputer oder einer Spezialverarbeitungsvorrichtung veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die computerausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder auch Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben worden ist, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die vorstehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen sind vielmehr als beispielhafte Formen zum Umsetzen der Patentansprüche offenbart.
  • Der Fachmann wird verstehen, dass die vorliegende Offenbarung in Network-Computing-Umgebungen mit vielen Arten von Computersystemkonfigurationen umgesetzt werden kann, zu denen Armaturenbrett-Fahrzeugcomputer, Personal Computer, Desktop-Computer, Laptop-Computer, Nachrichtenprozessoren, Handheld-Vorrichtungen, Multiprozessorsysteme, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbare Unterhaltungselektronik, Netz-PCs, Minicomputer, Mainframe-Computer, Mobiltelefone, PDAs, Tablets, Pager, Router, Switches, verschiedene Speichervorrichtungen und dergleichen gehören. Die Offenbarung kann zudem in Umgebungen mit verteilten Systemen umgesetzt werden, in denen sowohl lokale Computersysteme als auch Remote-Computersysteme, die durch ein Netzwerk (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine beliebige Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben ausführen. In einer Umgebung mit verteilten Systemen können sich Programmmodule sowohl in lokalen als auch in entfernten Speichervorrichtungen befinden.
  • Ferner können gegebenenfalls die in dieser Schrift beschriebenen Funktionen in einem oder mehreren von Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten durchgeführt werden. Ein oder mehrere anwendungsspezifische integrierte Schaltungen (application specific integrated circuits - ASICs) können zum Beispiel dazu programmiert sein, eines bzw. einen oder mehrere der in dieser Schrift beschriebenen Systeme und Vorgänge ausführen. Gewisse Ausdrücke, die in der gesamten Beschreibung und den Patentansprüchen verwendet werden, beziehen sich auf bestimmte Systemkomponenten. Für den Fachmann liegt es auf der Hand, dass die Komponenten mit anderen Benennungen bezeichnet werden können. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich der Benennung nach unterscheiden, nicht jedoch hinsichtlich ihrer Funktion.
  • Es ist anzumerken, dass die vorstehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination daraus umfassen können, um mindestens einen Teil ihrer Funktionen durchzuführen. Ein Sensor kann zum Beispiel Computercode beinhalten, der dazu konfiguriert ist, in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen sind in dieser Schrift zum Zwecke der Veranschaulichung bereitgestellt und sollen nicht einschränkend sein. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie es dem einschlägigen Fachmann bekannt wäre.
  • Mindestens einige Ausführungsformen der vorliegenden Offenbarung sind auf Computerprogrammprodukte ausgerichtet, die eine derartige Logik (z. B. in Form von Software) umfassen, die in einem beliebigen computernutzbaren Medium gespeichert ist. Eine derartige Software bewirkt, wenn sie in einer oder mehreren Datenverarbeitungsvorrichtungen ausgeführt wird, dass eine Vorrichtung wie in dieser Schrift beschrieben funktioniert.
  • Wenngleich vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele und nicht zur Einschränkung dienen. Für den einschlägigen Fachmann ist ersichtlich, dass verschiedene Änderungen in Form und Detail daran vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Somit sollten Breite und Umfang der vorliegenden Offenbarung durch keine der vorstehend beschriebenen beispielhaften Ausführungsformen eingeschränkt, sondern lediglich gemäß den folgenden Ansprüchen und deren Äquivalenten definiert werden. Die vorangehende Beschreibung ist zu Veranschaulichungs- und Beschreibungszwecken dargelegt worden. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die vorliegende Offenbarung nicht auf die genaue offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorstehenden Lehren möglich. Ferner ist anzumerken, dass beliebige oder alle der vorstehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination verwendet werden können, um zusätzliche Hybrid-Umsetzungen der vorliegenden Offenbarung zu bilden. Beispielsweise können sämtliche Funktionen, die in Bezug auf eine bestimmte Vorrichtung oder Komponente beschrieben wurden, durch eine andere Vorrichtung oder Komponente durchgeführt werden. Des Weiteren wurden zwar konkrete Vorrichtungseigenschaften beschrieben, doch können sich Ausführungsformen der Offenbarung auf zahlreiche andere Vorrichtungseigenschaften beziehen. Ferner versteht es sich, dass, obwohl Ausführungsformen in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben worden sind, die Offenbarung nicht notwendigerweise auf die konkreten beschriebenen Merkmale oder Handlungen beschränkt ist. Stattdessen sind die konkreten Merkmale und Handlungen als veranschaulichende Formen zum Umsetzen der Ausführungsformen offenbart. Mit Formulierungen, die konditionale Zusammenhänge ausdrücken, wie unter anderem „kann“, „könnte“, „können“ oder „könnten“, soll im Allgemeinen vermittelt werden, dass gewisse Ausführungsformen gewisse Merkmale, Elemente und/oder Schritte beinhalten könnten, wohingegen andere Umsetzungen diese nicht beinhalten können, es sei denn, es ist konkret etwas anderes angegeben oder es ergibt sich etwas anderes aus dem jeweils verwendeten Kontext. Somit sollen derartige Formulierungen, die konditionale Zusammenhänge ausdrücken, nicht implizieren, dass Merkmale, Elemente und/oder Schritte für eine oder mehrere Ausführungsformen in irgendeiner Weise erforderlich sind.
  • Gemäß der vorliegenden Erfindung wird ein System bereitgestellt, das Folgendes aufweist: eine Sensorbaugruppe mit einem ersten Sensor zur Fahreridentifizierung und einem zweiten Sensor zur Objektidentifizierung, wobei die Sensorbaugruppe konfiguriert ist zum: Empfangen von Daten, die mit einem Benutzer eines Fahrzeugs assoziiert sind, wobei die Daten mit einer von dem Benutzer getragenen Augenmode oder mit einem Benutzerprofil assoziierten Informationen assoziiert sind; und Identifizieren eines ersten Objekts in einem Sichtfeld des Benutzers, während sich der Benutzer in dem Fahrzeug befindet; eine Steuerbaugruppe mit einem Prozessor und einem Speicher, wobei der Prozessor dazu konfiguriert ist, in dem Speicher gespeicherte Anweisungen auszuführen zum: Anwenden einer ersten Verbesserung auf das erste Objekt auf Grundlage der Daten; und Anzeigen der ersten Verbesserung auf einer Anzeigevorrichtung des Fahrzeugs.
  • Gemäß einer Ausführungsform werden die Daten von einem ersten Sensor des Fahrzeugs empfangen.
  • Gemäß einer Ausführungsform ist der erste Sensor dazu konfiguriert, die Daten innerhalb eines Innenraums des Fahrzeugs zu erfassen.
  • Gemäß einer Ausführungsform ist die Erfindung ferner gekennzeichnet durch die Anweisungen zum Kalibrieren der Anzeigevorrichtung auf Grundlage der von dem ersten Sensor und dem einen oder den mehreren Objekten empfangenen Daten.
  • Gemäß einer Ausführungsform beinhaltet die erste Verbesserung eine Farbkompensation, visuelle Indikatoren, akustische Indikatoren oder physische Indikatoren.

Claims (15)

  1. Verfahren, umfassend: Empfangen, durch einen Prozessor, von Daten, die mit einem Benutzer eines Fahrzeugs assoziiert sind, wobei die Daten mit einer von dem Benutzer getragenen Augenmode oder mit einem Benutzerprofil assoziierten Informationen assoziiert sind; Identifizieren eines ersten Objekts in einem Sichtfeld des Benutzers, während sich der Benutzer in dem Fahrzeug befindet; Anwenden einer ersten Verbesserung auf das erste Objekt auf Grundlage der Daten; und Anzeigen der ersten Verbesserung auf einer Anzeigevorrichtung des Fahrzeugs.
  2. Verfahren nach Anspruch 1, wobei die Daten von einem ersten Sensor des Fahrzeugs empfangen werden.
  3. Verfahren nach Anspruch 2, wobei er erste Sensor dazu konfiguriert ist, die Daten innerhalb eines Innenraums des Fahrzeugs zu erfassen.
  4. Verfahren nach Anspruch 1, wobei das erste Objekt unter Verwendung eines zweiten Sensors des Fahrzeugs identifiziert wird, wobei der zweite Sensor mit dem Erfassen von Daten von einer Außenseite des Fahrzeugs assoziiert ist.
  5. Verfahren nach Anspruch 1, ferner umfassend Kalibrieren der Anzeigevorrichtung auf Grundlage der empfangenen Daten und des ersten Objekts.
  6. Verfahren nach Anspruch 1, wobei die erste Verbesserung eine Farbkompensation, visuelle Indikatoren, akustische Indikatoren oder physische Indikatoren beinhaltet.
  7. Verfahren nach Anspruch 1, wobei Anwenden der ersten Verbesserung Anpassen einer Farbwellenlänge, einer Farbsättigung oder einer Farbleuchtstärke umfasst.
  8. Verfahren nach Anspruch 1, wobei das Benutzerprofil zwischen Fahrzeugen geteilt wird.
  9. Vorrichtung, umfassend: einen Prozessor; und einen Speicher zum Speichern von Anweisungen, wobei der Prozessor dazu konfiguriert ist, die Anweisungen auszuführen zum: Empfangen von Daten, die mit einem Benutzer eines Fahrzeugs assoziiert sind, wobei die Daten mit einer von dem Benutzer getragenen Augenmode oder mit einem Benutzerprofil assoziierten Informationen assoziiert sind, Identifizieren eines ersten Objekts in einem Sichtfeld des Benutzers, während sich der Benutzer in dem Fahrzeug befindet; Anwenden einer ersten Verbesserung auf das erste Objekt auf Grundlage der Daten; und Anzeigen der ersten Verbesserung auf einer Anzeigevorrichtung des Fahrzeugs.
  10. Vorrichtung nach Anspruch 9, wobei die Daten von einem ersten Sensor des Fahrzeugs empfangen werden.
  11. Vorrichtung nach Anspruch 10, wobei er erste Sensor dazu konfiguriert ist, die Daten innerhalb eines Innenraums des Fahrzeugs zu erfassen.
  12. Vorrichtung nach Anspruch 9, wobei das erste Objekt unter Verwendung eines zweiten Sensors des Fahrzeugs identifiziert wird, wobei der zweite Sensor mit dem Erfassen von Daten von einer Außenseite des Fahrzeugs assoziiert ist.
  13. Vorrichtung nach Anspruch 1, wobei der Prozessor ferner dazu konfiguriert ist, die Anzeigevorrichtung auf Grundlage der empfangenen Daten und des ersten Objekts zu kalibrieren.
  14. Vorrichtung nach Anspruch 9, wobei die erste Verbesserung eine Farbkompensation, visuelle Indikatoren, akustische Indikatoren oder physische Indikatoren beinhaltet.
  15. Vorrichtung nach Anspruch 9, wobei Anwenden der ersten Verbesserung ferner umfasst, dass der Prozessor dazu konfiguriert ist, eine Farbwellenlänge, eine Farbsättigung oder eine Farbleuchtstärke anzupassen.
DE102020127764.4A 2019-10-23 2020-10-21 Fahrzeuganzeigenverbesserung Withdrawn DE102020127764A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/661,280 US20210122388A1 (en) 2019-10-23 2019-10-23 Vehicle display enhancement
US16/661,280 2019-10-23

Publications (1)

Publication Number Publication Date
DE102020127764A1 true DE102020127764A1 (de) 2021-04-29

Family

ID=75378928

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020127764.4A Withdrawn DE102020127764A1 (de) 2019-10-23 2020-10-21 Fahrzeuganzeigenverbesserung

Country Status (3)

Country Link
US (1) US20210122388A1 (de)
CN (1) CN112699895A (de)
DE (1) DE102020127764A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022210376B3 (de) 2022-09-30 2023-12-07 Volkswagen Aktiengesellschaft Kraftfahrzeug und Verfahren zum Ausgeben einer Warnung an einen eine Kontaktlinse auf einem Auge tragenden Nutzer eines Kraftfahrzeugs

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3901919A4 (de) * 2019-04-17 2022-06-08 Rakuten Group, Inc. Anzeigesteuerungsvorrichtung, anzeigesteuerungsverfahren, programm und nichttransitorisches computerlesbares informationsaufzeichnungsmedium
GB2602314A (en) * 2020-12-23 2022-06-29 Continental Automotive Gmbh Augmented reality vehicular display system and method
CN113409608A (zh) * 2021-06-25 2021-09-17 阿波罗智联(北京)科技有限公司 针对交通信号灯的提示方法、装置、车辆和电子设备
US11741833B2 (en) * 2021-07-30 2023-08-29 Toyota Jidosha Kabushiki Kaisha Vehicle driving assist apparatus
US20240042851A1 (en) * 2022-08-08 2024-02-08 GM Global Technology Operations LLC Head-up display with adaptive color palette

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014172334A1 (en) * 2013-04-15 2014-10-23 Flextronics Ap, Llc User gesture control of vehicle features
US10527849B2 (en) * 2017-07-18 2020-01-07 Toyota Jidosha Kabushiki Kaisha Augmented reality vehicular assistance for color blindness
US10565872B2 (en) * 2017-12-04 2020-02-18 International Business Machines Corporation Cognitive situation-aware vision deficiency remediation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022210376B3 (de) 2022-09-30 2023-12-07 Volkswagen Aktiengesellschaft Kraftfahrzeug und Verfahren zum Ausgeben einer Warnung an einen eine Kontaktlinse auf einem Auge tragenden Nutzer eines Kraftfahrzeugs

Also Published As

Publication number Publication date
US20210122388A1 (en) 2021-04-29
CN112699895A (zh) 2021-04-23

Similar Documents

Publication Publication Date Title
DE102020127764A1 (de) Fahrzeuganzeigenverbesserung
DE102013110332B4 (de) Visuelles leitsystem
DE102013110339B4 (de) Visuelles leitsystem
EP3298474B1 (de) Verfahren zum betreiben einer datenbrille in einem kraftfahrzeug und system mit einer datenbrille
EP3475755B1 (de) Anzeigevorrichtung zur einblendung eines virtuellen bildes in das blickfeld eines benutzers
DE102011121627B4 (de) Verfahren zum dynamischen Ausrichten einer Graphik auf eine Fahrszene eines Fahrzeugs unter Nutzung einer im Wesentlichen durchsichtigen Windschutzscheiben-Headup-Anzeige
EP2883748B1 (de) Verfahren zur Anzeige von optischen Informationen in Fahrzeugen
DE102018201054A1 (de) System und Verfahren zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs
DE102017115318A1 (de) Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität
DE112017005111T5 (de) Bordanzeigesteuervorrichtung
EP3717954B1 (de) Verfahren zur anzeige des verlaufs einer trajektorie vor einem fahrzeug oder einem objekt mit einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens
DE102017103287A1 (de) Anzeigesteuerung für ein fahrzeug
DE112013007344T5 (de) Fahrzeugmontierte Anzeigesteuervorrichtung
EP1405124A1 (de) Head-up display system und verfahren zur ortskorrrekten darstellung eines objekts im aussenraum eines fahrzeugs in bezug auf die fahrerposition
EP1617371A2 (de) Verfahren zur Kennzeichnung von Bildinformationen in der Darstellung eines mit einer fahrzeugseitigen Bildaufnahmeeinrichtung aufgenommenen Nachtsichtbildes und zugehöriges Nachtsichtsystem
DE102012022691A1 (de) Objekt-Darstellung auf Headup-Displays in Abhängigkeit eines Nutzerblicks
DE102009002979A1 (de) Projektionsanzeigevorrichtung für Fahrzeuge
DE102014213285B4 (de) Kopfrichtungsabhängige Anzeige von Inhalten auf einer Datenbrille
DE102012018556B4 (de) Assistenzsystem zur Ermöglichung einer erweiterten Vorausschau für nachfolgende Verkehrsteilnehmer
DE102022127398A1 (de) Fahrspurposition in einemaugmented-reality-head-up-display-system
DE102012220100A1 (de) Verfahren und Informationsgerät zum Darstellen von einer Fahrerinformation auf einer Blickfeldanzeige für ein Fahrzeug
WO2019219440A1 (de) Verfahren und vorrichtung zum betreiben eines kamera-monitor-systems für ein kraftfahrzeug
DE102016225265A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102013210587A1 (de) Anzeigensystem mit Datenbrille
DE102019208649B3 (de) Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R083 Amendment of/additions to inventor(s)
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee