DE102017212367B4 - Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug - Google Patents

Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug Download PDF

Info

Publication number
DE102017212367B4
DE102017212367B4 DE102017212367.2A DE102017212367A DE102017212367B4 DE 102017212367 B4 DE102017212367 B4 DE 102017212367B4 DE 102017212367 A DE102017212367 A DE 102017212367A DE 102017212367 B4 DE102017212367 B4 DE 102017212367B4
Authority
DE
Germany
Prior art keywords
vehicle
grid
points
driver
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017212367.2A
Other languages
English (en)
Other versions
DE102017212367A1 (de
Inventor
Daniel Gurka
Andro Kleen
Robert Jan Wyszka
Adrian Haar
Vitalij Sadovitch
Rut Miras Martinez
Michael Wittkämper
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102017212367.2A priority Critical patent/DE102017212367B4/de
Publication of DE102017212367A1 publication Critical patent/DE102017212367A1/de
Application granted granted Critical
Publication of DE102017212367B4 publication Critical patent/DE102017212367B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Navigation (AREA)
  • Instrument Panels (AREA)

Abstract

Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug (10) oder einem Objekt, die eine Anzeigeeinheit (20), mit der virtuelle Zusatzinformationen in das Sichtfeld eines Fahrers des Fahrzeugs oder einer Bedienperson des Objektes eingeblendet werden können, und eine Recheneinheit (40) aufweist, dadurch gekennzeichnet, dass die Recheneinheit (40) für die Anzeige des Verlaufs einer Trajektorie ein Punktraster (26) berechnet, bei dem die Rasterpunkte des Punktrasters auf Rasterlinien liegen, durch die der Verlauf der Trajektorie angezeigt wird, und Rasterpunkte, die unmittelbar vor dem Fahrzeug (10) oder dem Objekt dargestellt werden, durch die Bewegung des Fahrzeuges (10) oder des Objektes als zur Seite geschoben erscheinen.

Description

  • Der Vorschlag betrifft das technische Gebiet von Fahrerinformationssystemen, die auch unter dem Begriff Infotainmentsystem bekannt sind. Dabei geht es im Besonderen um eine Vorrichtung zur Anzeige eines Trajektorien-Verlaufs vor einem Fahrzeug oder einem Objekt mit Zusatzinformationen. Solche Systeme werden vor allem in Fahrzeugen eingesetzt. Der Vorschlag betrifft weiterhin ein Kraftfahrzeug.
  • Zur Zeit wird intensiv an Technologien gearbeitet, die später ein autonomes Fahren ermöglichen sollen. Ein erster Ansatz ist dabei den Fahrer nicht komplett von seinen Aufgaben zu entlasten, sondern, der Fahrer kann jederzeit die Steuerung des Fahrzeuges übernehmen und nimmt außerdem Überwachungsfunktionen wahr. Durch neuere Technologien im Bereich der Fahrerinformationssysteme wie Head-Up Display (HUD) ist es möglich den Fahrer besser über das Geschehen im Umfeld seines Fahrzeuges zu informieren.
  • Für die nahe Zukunft ist deshalb davon auszugehen, dass systemseitig durch den Einsatz neuerer Technologien (Fahrzeug-zu-Fahrzeug-Kommunikation, Einsatz von Datenbanken, Fahrzeugsensorik, etc.) umfassende Informationen über Objekte (insb. Fahrzeuge) im direkten Umfeld des eigenen Fahrzeugs verfügbar sein werden. Im Bereich Fahrzeugsensorik werden insbesondere die folgenden Komponenten genannt, die eine Umfeldbeobachtung ermöglichen: RADAR-Geräte entsprechend Radio Detection and Ranging, LIDAR-Geräte, entsprechend Light Detection and Ranging, hauptsächlich für den Bereich Abstandserfassung / -warnung und Kameras mit entsprechender Bildverarbeitung für den Bereich der Objekterkennung. Diese Daten über die Umwelt können somit als Basis für systemseitige Fahrempfehlungen, Warnungen, etc. herangezogen werden. Beispielsweise sind so Anzeigen / Warnungen darüber denkbar, in welche Richtung (möglicherweise in die eigene Trajektorie) ein anderes, umgebendes Fahrzeug abbiegen will.
  • Die Fahrzeug-zu-Fahrzeug-Kommunikation ist mittlerweile auch mittels Mobilkommunikation mit Systemen wie LTE entsprechend Long Term Evolution möglich. Hier wurde von der Organisation 3GPP eine Spezifikation mit Namen LTE V2X verabschiedet. Als Alternative stehen auf WLAN-Technologie beruhende Systeme für die Fahrzeug-Direktkommunikation zur Verfügung, insbesondere das System nach WLAN p.
  • Der Begriff „autonomes Fahren“ wird in der Literatur teilweise unterschiedlich benutzt.
  • Zur Klärung dieses Begriffs wird deshalb hier noch folgender Einschub präsentiert. Unter autonomem Fahren (manchmal auch automatisches Fahren, automatisiertes Fahren oder pilotiertes Fahren genannt) ist die Fortbewegung von Fahrzeugen, mobilen Robotern und fahrerlosen Transportsystemen zu verstehen, die sich weitgehend autonom verhalten. Es gibt verschiedene Abstufungen des Begriffs autonomes Fahren. Dabei wird auf bestimmten Stufen auch dann von autonomen Fahren gesprochen, wenn noch ein Fahrer im Fahrzeug befindlich ist, der ggfs. nur noch die Überwachung des automatischen Fahrvorgangs übernimmt. In Europa haben die verschiedenen Verkehrsministerien (in Deutschland war die Bundesanstalt für Straßenwesen beteiligt) zusammengearbeitet und die folgenden Autonomiestufen definiert.
    • • Level 0: „Driver only“, der Fahrer fährt selbst, lenkt, gibt Gas, bremst etc.
    • • Level 1: Bestimmte Assistenzsysteme helfen bei der Fahrzeugbedienung (u.a. ein Abstandsregelsystem - Automatic Cruise Control ACC).
    • • Level 2: Teilautomatisierung. U.a. automatisches Einparken, Spurhaltefunktion, allgemeine Längsführung, beschleunigen, abbremsen etc. werden von den Assistenzsystemen übernommen (u.a. Stauassistent).
    • • Level 3: Hochautomatisierung. Der Fahrer muss das System nicht dauernd überwachen. Das Fahrzeug führt selbstständig Funktionen wie das Auslösen des Blinkers, Spurwechsel und Spurhalten durch. Der Fahrer kann sich anderen Dingen zuwenden, wird aber bei Bedarf innerhalb einer Vorwarnzeit vom System aufgefordert die Führung zu übernehmen. Diese Form der Autonomie ist auf Autobahnen technisch machbar. Der Gesetzgeber arbeitet darauf hin, Level 3-Fahrzeuge zuzulassen. Die gesetzlichen Rahmenbedingungen wurden dafür bereits geschaffen.
    • • Level 4: Vollautomatisierung. Die Führung des Fahrzeugs wird dauerhaft vom System übernommen. Werden die Fahraufgaben vom System nicht mehr bewältigt, kann der Fahrer aufgefordert werden, die Führung zu übernehmen.
    • • Level 5: Kein Fahrer erforderlich. Außer dem Festlegen des Ziels und dem Starten des Systems ist kein menschliches Eingreifen erforderlich.
  • Automatisierte Fahrfunktionen ab Stufe 3 nehmen dem Fahrer die Verantwortung für die Steuerung des Fahrzeugs ab.
  • Aufgrund der derzeitigen Entwicklung hin zu höheren Autonomiestufen, wo aber viele Fahrzeuge nach wie vor noch vom Fahrer gesteuert werden, ist davon auszugehen, dass entsprechende zusätzliche Informationen mittelfristig bereits für manuell geführte Fahrzeuge, und nicht erst langfristig für hochautomatisierte Systeme, genutzt werden können.
  • Für die Fahrer-Fahrzeug-Interaktion stellt sich hierbei die Frage, wie diese Informationen so dargestellt werden können, dass ein echter Mehrwert für den menschlichen Fahrer entsteht und er die bereitgestellten Informationen auch schnell, respektive intuitiv verorten kann. Folgende Lösungen in diesem Bereich sind dabei schon aus dem Stand der Technik bekannt.
  • Eine Zukunftsvision in der Automobilbranche ist es, die Windschutzscheibe des eigenen Fahrzeugs mit virtuellen Elementen bespielen zu können um dem Fahrer einige Vorteile zu ermöglichen. Genutzt wird die sogenannte „Augmented Reality“-Technologie (AR). Weniger geläufig ist der entsprechende deutschsprachige Begriff der „erweiterten Realität“. Dabei wird die reale Umgebung mit virtuellen Elementen angereichert. Das hat mehrere Vorteile: Der Blick nach unten, auf andere Displays als der Windschutzscheibe, entfällt, da viele relevante Informationen auf der Windschutzscheibe abgebildet werden. So muss der Fahrer seinen Blick nicht von der Fahrbahn abwenden. Außerdem ist durch die positionsgenaue Verortung der virtuellen Elemente in der realen Umwelt ein geringerer kognitiver Aufwand seitens des Fahrers wahrscheinlich, da keine Interpretation einer Grafik auf einem gesonderten Display erfolgen muss. Hinsichtlich des automatischen Fahrens kann ebenfalls ein Mehrwert erzeugt werden.
  • Da die technologischen Mittel heutzutage entsprechend begrenzt sind, kann davon ausgegangen werden, dass mittelfristig keine voll bespielbaren Windschutzscheiben in Fahrzeugen anzutreffen sein werden. Deshalb finden heute Head-Up Displays in den Fahrzeugen Verwendung. Bei diesen Displays handelt es sich eigentlich um Projektionseinheiten, die ein Bild auf die Windschutzscheibe projizieren. Dieses Bild befindet sich jedoch aus der Sicht des Fahrers je nach Bauart des Moduls 7-15 m vor dem Fahrzeug.
  • Das „Bild“ setzt sich dabei folgendermaßen zusammen: Es handelt sich dabei weniger um ein virtuelles Display, sondern eher um eine Art „Schlüsselloch“ in die virtuelle Welt. Die virtuelle Umgebung wird theoretisch über die reale Welt gelegt und enthält die virtuellen Objekte, die den Fahrer bei der Fahrt unterstützen und informieren. Die begrenzte Anzeigefläche des HUD hat zur Folge, dass davon ein Ausschnitt gesehen werden kann. Man schaut also durch die Anzeigefläche des HUD auf den Ausschnitt der virtuellen Welt. Da diese virtuelle Umgebung die reale Umgebung ergänzt, spricht man in diesem Fall auch von einer „Mixed Reality“.
  • Aus der DE 10 2007 016 868 A1 ist ein Verfahren zur Anzeige eines Fahrtbahnverlaufs vor einem Fahrzeug, wobei eine aktuelle Geschwindigkeit des Fahrzeugs bestimmt wird. Dabei werden vor dem Fahrzeug liegende Punkte einer Fahrzeugumgebung so bestimmt, dass ein optischer Fluss dieser Punkte unter Berücksichtigung der aktuellen Fahrzeuggeschwindigkeit bestimmt wird und dass Symbole zur Darstellung des optischen Flusses für eine Darstellung des Fahrbahnverlaufs in die Head-Up-Anzeige eingeblendet werden.
  • Aus der WO 2005/053991 A1 ist ein Verfahren und System zur Unterstützung eines Pfadsteuerungsverfahrens bekannt. Das Verfahren und Systems dient zur Unterstützung der Pfadsteuerung, insbesondere eines Fahrzeugs auf einer Straße oder in einer Geländeumgebung oder eines Schiffes oder eines Flugzeugs. Dabei besteht das Verfahren in der Durchführung mindestens eines der folgenden Schritte (a) und (b): (a) Schätzen eines tatsächlichen zukünftigen Pfades des Fahrzeugs auf der Grundlage von Fahrzeugbewegungsdaten und optische und / oder akustische und / oder taktile Anzeige des geschätzten tatsächlichen zukünftigen Weges an den Fahrer, (b) Erfassen des tatsächlichen gegenwärtigen Pfades des Fahrzeugs, Abschätzen einer gegenwärtigen Abweichung des detektierten tatsächlichen gegenwärtigen Weges von einem gewünschten gegenwärtigen Pfad und optische und / oder akustische und / oder taktile Anzeige der geschätzten gegenwärtigen Abweichung zum Fahrer.
  • Weiterhin ist aus der EP 3 246 664 A2 , bei der es sich um eine Patentanmeldung mit älterem Zeitrang handelt, ein Informationsverarbeitungssystem bekannt, bei dem eine autonome Fahrtroute erzeugt und als ein virtuelles Bild angezeigt wird, indem diese über die Straßenoberfläche vor dem Fahrzeug gelegt wird. Hierbei wird die autonome Fahrtroute durch eine Vielzahl von kreisförmigen Marken dargestellt.
  • Die DE 10 2011 121 948 A1 betrifft ein Verfahren zum Informieren eines Kraftfahrzeugführers über ein mittels eines Fahrerassistenzsystems geplanten und vom Kraftfahrzeug durchgeführten Fahrmanövers, wobei das Fahrerassistenzsystem zyklisch eine aktuelle Verkehrssituation anhand von Umgebungsdaten erfasst, ein Fahrmanöver auf Grundlage der erfassten Umgebungsdaten plant, und das Fahrmanöver sowie zumindest einen Teil der erfassten Umgebungsdaten in einem Bild auf einer Anzeige darstellt.
  • In der DE 10 2012 103 669 A1 wird ein Verfahren zur Darstellung einer Fahrzeugumgebung für ein Fahrzeug mit einem Sensorsystem zur Umfelderfassung angegeben, wobei eine Begrenzung einer aktuelle befahrenen Fahrspur durch Positionspunkte, die eine vordefinierte Menge von Attributen aufweisen, dargestellt wird.
  • In der DE 195 40 108 A1 wird ein Head-Up Display vorgeschlagen, bei dem ein erstes Bild innerhalb eines zweiten Bildes dargestellt wird, wobei das erste Bild gegenüber dem zweiten Bild genügend Leuchtkraft besitzt und ein einfacher und kostengünstiger Aufbau möglich sein soll.
  • Aus der DE 10 2013 019 144 A1 ist ebenfalls ein Verfahren zum Bereitstellen eines elektronischen Bildsignals für ein Head-up-Display bekannt. Hierbei ist eine Steuerung zum elektronischen Ändern eines perspektivischen Einstellparameters einer Bildkomponente des Bildsignals vorgesehen.
  • Die JP 2004-117 294 A beschreibt ein Navigationssystem, bei dem bestimmt wird, ob eine dreidimensionale Anzeige durchgeführt und eine Route angezeigt werden soll. Für diesen Fall wird eine der Route entsprechende Markierung über einer der Route entsprechenden Straße dargestellt.
  • Die bekannten Lösungen sind mit verschiedenen Nachteilen behaftet. Dies wurde im Rahmen der Erfindung erkannt. Bei den bekannten Lösungen besteht das Problem, dass die zusätzlichen Anzeigen (HUD) räumlich begrenzt sind. Sie decken aus Sicht des Fahrers nur einen kleinen Teil seines Sichtfeldes ab, weshalb Fahrrichtungsverläufe jeweils nur in kurzen Abschnitten visualisiert werden können.
  • Ein großer Vorteil der bisher bekannten „Augmented Reality“-Anzeigen (AR-Anzeigen) besteht darin, die entsprechenden Anzeigen direkt innerhalb bzw. als Teil der Umwelt darzustellen. Relativ naheliegende Beispiele beziehen sich meist auf den Bereich der Navigation. Während klassische Navigationsanzeigen (in herkömmlichen HUD) in der Regel schematische Darstellungen anzeigen (z.B. einen rechtwinklig verlaufenden Pfeil nach rechts als Zeichen dafür, das bei nächster Gelegenheit rechts abgebogen werden soll, bieten AR-Anzeigen wesentlich effektivere Möglichkeiten. Da die Anzeigen als „Teil der Umwelt“ dargestellt werden können, sind äußerst schnelle und intuitive Interpretationen für den Nutzer möglich. Dennoch weisen die bisher bekannten Ansätze auch verschiedene Probleme auf, für die zum jetzigen Zeitpunkt keine Lösungen bekannt sind.
  • Ein Problem ist bekannt als Problem der Überdeckung. Herkömmliche Konzepte arbeiten häufig mit flächigen Elementen wie Rechtecken oder Kreisen, die großflächig die Fahrbahn überdecken oder dahinter liegende Objekte (Fußgänger, Schilder usw.) verdecken können. Hier erweist sich der größte Vorteil der AR-Anzeigen (Darstellung als Teil der Umwelt) gleichfalls als ein wesentlicher Nachteil.
  • Klassische AR-Anzeigen haben den Nachteil, dass die Einblendungen für Fahrtrichtungsverläufe sehr genau auf der Straße liegen müssen, um als wirksam und effektiv wahrgenommen zu werden. Bekannte Ansätze weisen vielfach klare Kanten auf und versuchen sich so genau wie möglich an Konturen der realen Welt anzupassen. Diese herkömmlichen Konzepte stellen damit besonders große Anforderungen an die „Passgenauigkeit“ also an die technisch determinierte „Kontaktanalogie“ solcher Anzeigen. Vor dem Hintergrund der aktuellen technischen Möglichkeiten (sensor- und ortungsbasierte Wahrnehmung der Umwelt) sind diese Anforderungen allerdings äußerst schwer zu erfüllen. Anzeigekonzepte die diese hohen Anforderungen an die technischen Systeme stellen besitzen dementsprechend eine geringe „Fehlertoleranz“. Besonders problematisch hierbei ist, das zufriedenstellende AR-Anzeigen damit zunächst nur mit technisch aufwändigen und somit teuren Lösungen umgesetzt werden können. Es besteht also der Bedarf für andere Ansätze, die geringere Anforderungen stellen, weniger fehlertolerant und damit auch kostengünstiger sind.
  • Die Erfindung setzt sich zur Aufgabe einen solchen Ansatz zu finden.
  • Diese Aufgabe wird durch eine Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt gemäß Anspruch 1, sowie ein Kraftfahrzeug gemäß Anspruch 5 gelöst.
  • Die abhängigen Ansprüche beinhalten vorteilhafte Weiterbildungen und Verbesserungen der Erfindung entsprechend der nachfolgenden Beschreibung dieser Maßnahmen.
  • Die Lösung gemäß der Erfindung setzt auf Dematerialisierung und Fragmentierung der AR-Anzeigen. Die erfindungsgemäße Vorrichtung zur Anzeige eines Verlaufs einer Trajektorie vor einem Fahrzeug mit Hilfe einer Anzeigeeinheit beinhaltet, dass der Verlauf im Sichtfeld des Fahrers eingeblendet wird, wobei der Verlauf in Rasterform dargestellt wird.
  • Grundlage des erfindungsgemäßen Konzeptes ist ein virtuelles Raster in Form eines Punktrasters, dass über der tatsächlichen realen Umwelt dargestellt wird. Dieses Punktraster kann z.B. dazu verwendet werden, HUD-basierte Navigationsanzeigen und eine Reihe von weiteren Funktionen zu realisieren.
  • Bei diesem Konzept wird eine grundlegende und unbewusst ablaufende Fähigkeit der menschlichen Wahrnehmung ausgenutzt, indem einzelne Merkmale der Umwelt zu zusammenhängenden Mustern komplettiert und als solche dann bewusst wahrgenommen werden. Diese Fähigkeit hat sich in den evolutionsbiologischen Prozessen offenbar als großer Vorteil erwiesen (z.B. Wahrnehmung einer Bedrohung trotz teilweiser Verdeckung) und kann noch heute in vielfacher Art nachgewiesen werden. Geläufige Beispiele hierfür sind z.B. die Wahrnehmung von „Scheinkonturen“ oder die vielfach beschriebenen Gestaltgesetze der Wahrnehmung (z.B. das „Gesetz der Nähe“ oder das „Gesetz der Erfahrung“).
  • Eine systematische Fragmentierung der Flächen kann damit somit zwei entscheidende Probleme klassischer AR-Anzeigen lösen. Zum einen werden wesentliche Merkmale der Umwelt deutlich weniger stark überdeckt als durch flächig dargestellte Informationen. Damit ist eine wesentlich bessere Verteilung der Aufmerksamkeit zwischen tatsächlicher Umwelt und den zusätzlichen Anzeigen möglich.
  • Zum anderen weist diese Lösung eine stärkere Fehlertoleranz auf, da auf eine genaue Einpassung und die Verwendung klarer und langer Kanten verzichtet wird. Dieser Ansatz stellt damit geringere Anforderungen an die technische Wahrnehmung der Umwelt und kann so auch durch kostengünstigere Lösungen realisiert werden.
  • Bei der erfindungsgemäßen Vorrichtung wird mit Animationen gearbeitet. Hierzu wird die Metapher eines Schneepfluges aufgegriffen. Das eigene Fahrzeug fährt hierbei nicht „über“ das Punktraster, sondern schiebt die Punkte bei „Hindurchfahren“ zur Seite. Die Punkte des Rasters verlassen ihre ursprüngliche Position und wandern nach außen - wie Schnee, der vor einem Schneepflug hergeschoben wird. Diese Interaktion mit den virtuellen Elementen kann den Eindruck einer „Mixed Reality“ verstärken. Diese verdrängte virtuelle Materie befindet sich nun, im Fall der Kurve, weiterhin im Anzeigebereich des HUDs, da beim Anfahren an den Scheitelpunkt der Kurve die Punkte seitlich so verdrängt werden, dass sie im Anzeigebereich liegen.
  • Erfindungsgemäß wird das Raster so berechnet, dass die dargestellten Rasterpunkte die unmittelbar vor dem Fahrzeug dargestellt werden sich durch die Bewegung des Fahrzeuges als zur Seite geschoben erscheinen, wobei die Punkte wie bei einem Schneepflug entweder zu einer Seite der Fahrbahn geschoben erscheinen oder zu beiden Seiten der Fahrbahn geschoben erscheinen.
  • Virtuelle Elemente lassen sich je nach Raum, in dem sie sich bewegen, unterschiedlich kategorisieren. Bisher wurden hauptsächlich zweidimensionale Elemente beschrieben Navigationspfad, Punkteraster), die sich im dreidimensionalen Raum (reale Welt) anordnen. Da sich in bestimmten Situationen (s. das „Problem der engen Kurve“) ein virtuelles Element aufgrund des begrenzten Anzeigebereichs nicht in der Umgebung abbilden lässt, ist es sinnvoll einen Dimensionswechsel zu vollziehen. Gemeint ist: Virtuelle Elemente die sich augmentiert in der Umwelt kontaktanalog platzieren verlassen ihre ursprüngliche Position und bilden sich als zweidimensionales Objekt auf der Sichtebene ab.
  • Diese Variante des erfindungsgemäßen Verfahren besteht darin das Raster so zu berechnen, dass die dargestellten Rasterpunkte bevor sie aus dem Anzeigebereich der Anzeigeeinheit verschwinden einen Dimensionswechsel vollziehen, wobei Rasterpunkte dann so berechnet werden, dass sie so eingeblendet werden, dass sie einen Richtungspfeil, insbesondere Navigationspfeil, Fahrtrichtungspfeil, Abbiegepfeil oder Einbiegepfeil formen.
  • Dabei kann das Raster so berechnet werden, dass der Richtungspfeil als an die virtuelle Projektionsfläche des Fahrzeuges angeheftet erscheint. So wird der Richtungspfeil dann übersichtlich dargestellt.
  • Ebenso kann es von Vorteil sein, wenn das Raster so berechnet wird, dass die Einblendung des Rasters in das Sichtfeld des Fahrers so erscheint, dass das Raster in einem Abstand über der zu sehenden Fahrbahn liegt. Dadurch kann das Raster besser verfolgt werden. Auch entsteht für den Fahrer der bessere Eindruck einer Führung weil das Fahrzeug quasi durch das Raster hindurchfährt, statt wie auf einer Fahrbahn darüber hinweg zu fahren.
  • Eine weitere sehr vorteilhafte Maßnahme besteht darin, dass das Raster so berechnet wird, dass die Punkte des Rasters auf einer Anzahl von Linien in vertikaler Richtung erhöht erscheinen. Dies entspricht einer räumlichen Verwendung des Rasters.
  • Neben der rein flächigen also zweidimensionalen Darstellung auf dem Boden oder in einem Abstand über dem Boden, erfolgt ein gezieltes „Anheben“ einzelner oder mehrerer Rasterpunkte. Ein Verschieben der Punkte in der z-Achse kann damit eine Fläche erzeugen, die sich dreidimensional im Raum anordnet. Damit lässt sich ein virtuelles Objekt erzeugen, dass die Dimensionen des Raums ausnutzt und trotzdem den Bezug zur Straße beibehält.
  • Durch dieses Konzept wird das bekannte „Problem der engen Kurve“ gelöst.
  • Die technische Konstruktion von HUD-Systemen bringt den Umstand mit sich, dass zwischen der Motorhaube und der virtuellen Projektionsfläche ein Bereich wie bei einem „Toten Winkel“ entsteht, in den keine AR-Anzeigen eingeblendet werden können. Dieser blinde, nicht bespielbare Bereich ist durch die aktuelle verfügbaren HUD Technologien bedingt und kann derzeit nicht restlos eliminiert werden. Damit stellen sich insbesondere für AR-Anzeigen die in unmittelbarere Nähe des Fahrzeugs liegen z.B. eine unmittelbare Abbiege-Empfehlung besondere Probleme, da diese schlichtweg aus dem virtuellen Sichtfeld wandern und somit nicht mehr angezeigt werden können.
  • Durch das Anheben einzelner Punkte, also die Verschiebung entlang der z-Achse, bleiben die Punkte länger im virtuellen Sichtfeld des Fahrers und ermöglichen so eine kontinuierliche visuelle Unterstützung. Abgesehen von der Tatsache, dass mit diesem Vorgehen auch dann noch unterstützt werden kann, wenn zweidimensionale Konzepte auf der Fahrbahnfläche nicht mehr helfen können, besteht hier ein weiterer besonderer Vorteil darin, dass die Punkte als Teil der bisherigen AR-Anzeigen verstanden werden können. Dafür müssen keine zusätzlichen Elemente eingeführt werden.
  • Besondere Ausführungsformen dieser Technik zur Behebung des „Problems der engen Kurve“, bestehen darin, das Raster so zu berechnen, dass die Punkte des Rasters auf einer Anzahl von Linien zur Mitte des dargestellten Trajektorien-Verlaufs hin in vertikaler Richtung erhöht erscheinen. Durch diese Maßnahme wird die Möglichkeit eine „Welle“ zu formen realisiert, bei dem sich die mittleren Punkte in der z-Achse in die Höhe verschieben.
  • In einer anderen Variante findet die Berechnung des Rasters so statt, dass ein komplettes Aufstellen des Rasters in Kurvensituationen resultiert. Dadurch wird ein dynamischer Fahreindruck verstärkt.
  • Wie oben bereits zum Problem der Fehlertoleranz beschrieben, stellt die genaue Passung der Anzeigen große Herausforderungen an die technische Wahrnehmung der Umwelt. Dies gilt insbesondere für dynamische Objekte, wie zum Beispiel vorausfahrende Fahrzeuge. Herkömmliche Anzeigen erfordern ein hochgenaues „Ausschneiden“ dieser Umweltobjekte aus den eigenen Anzeigen. Durch dieses Vorgehen werden bereits kleinere Fehler unmittelbar sichtbar und erzeugen ein nicht zufriedenstellendes Nutzererlebnis.
  • Auch dieses Problem kann mit der Trajektorien-Verlaufsanzeige in Rasterform elegant gelöst werden. Ist z.B. ein vorausfahrendes Fahrzeug im Anzeigebereich des HUDs zu sehen, können die Punkte des dargestellten Rasters an dieser Stelle einfach ausgespart werden. Es müssen keine klaren Kanten und eine entsprechende Form der Grafik des Navigationspfades berechnet werden, es werden schlicht ein paar Punkte des zukünftigen Navigationspfades ausgelassen. So entsteht der Effekt eines Fahrzeuges, das auf dem virtuellen Navigationspfad, fährt.
  • Dazu wird bei der entsprechenden Variante des erfindungsgemäßen Verfahrens durch Umfeldbeobachtung die Umgebung des Fahrzeuges erfasst und wenn vor dem Fahrzeug ein Objekt erkannt wird, wird das Raster so berechnet, dass die Rasterpunkte, deren Positionen im Bereich des Objektes liegen, bei der Darstellung des Rasters ausgespart werden. Meist wird das Objekt ein vorausfahrendes Fahrzeug sein.
  • Statt eines Head-Up Displays kann in der Vorrichtung als Anzeigeeinheit eine Datenbrille oder ein Monitor eingesetzt werden auf dem ein Kamerabild angezeigt wird in das ein Trajektorien-Verlauf eingeblendet wird.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend anhand der Figuren näher erläutert.
  • Es zeigen:
    • 1 das Prinzip der Einblendung von Informationen in das Sichtfeld des Fahrers eines Fahrzeuges während der Fahrt mit Hilfe eines Head-Up Displays;
    • 2 das Problem der bruchstückhaften Darstellung von virtuellen Objekten im Sichtfeld des Fahrers durch Einblendung mit Hilfe eines Head-Up Displays;
    • 3 das typische Cockpit eines Fahrzeuges;
    • 4 das Blockschaltbild des Infotainment-Systems des Fahrzeuges;
    • 5 eine Darstellung eines Fahrtrichtungsverlaufs;
    • 6 eine Darstellung des Problems der Darstellung eines Fahrtrichtungsverlaufs bei Durchfahren einer engen Kurve
    • 7 eine Darstellung eines Fahrtrichtungsverlaufs gemäß einem Ausführungsbeispiel der Erfindung;
    • 8 zwei Darstellungen eines Fahrtrichtungsverlaufs gemäß einem Ausführungsbeispiel der Erfindung;
    • 9 die Anpassung der Darstellung eines Fahrtrichtungsverlaufs zur Lösung des Anzeigeproblems bei Durchfahren einer engen Kurve; und
    • 10 die Anpassung der Darstellung eines Fahrtrichtungsverlaufs zur Lösung des Anzeigeproblems bei vorausfahrenden Fahrzeugen.
  • Die vorliegende Beschreibung veranschaulicht die Prinzipien der erfindungsgemäßen Offenbarung. Es versteht sich somit, dass Fachleute in der Lage sein werden, verschiedene Anordnungen zu konzipieren, die zwar hier nicht explizit beschrieben werden, die aber Prinzipien der erfindungsgemäßen Offenbarung verkörpern und in ihrem Umfang ebenfalls geschützt sein sollen.
  • 1 veranschaulicht die prinzipielle Funktionsweise eines Head-Up Displays. Das Head-Up Display 20 ist im Fahrzeug 10 an der Armaturenbrettverkleidung angebracht. Durch Projektion auf die Windschutzscheibe werden Zusatzinformationen in das Sichtfeld des Fahrers eingeblendet. Diese Zusatzinformationen erscheinen so, als seien sie auf eine Projektionsfläche 21 im Abstand von 7 - 15 m vor dem Fahrzeug 10 projiziert. Durch diese Projektionsfläche 21 hindurch bleibt aber die reale Welt sichtbar. Mit den eingeblendeten Zusatzinformationen wird quasi eine virtuelle Umgebung erzeugt. Die virtuelle Umgebung wird theoretisch über die reale Welt gelegt und enthält die virtuellen Objekte, die den Fahrer bei der Fahrt unterstützen und informieren. Es wird aber nur auf einen Teil der Windschutzscheibe projiziert, so dass die Zusatzinformationen nicht beliebig im Sichtfeld des Fahrers angeordnet werden können.
  • Das ist auch in 2 angedeutet. Ein eingeblendetes virtuelles Objekt 22 kann dann je nach Ausdehnung des virtuellen Objektes 22 nur abschnittsweise angezeigt werden. Der Fahrer schaut also durch die Windschutzscheibe und sieht im Bereich der Projektionsfläche 21 einen Ausschnitt der virtuellen Welt. Da diese virtuelle Umgebung die reale Umgebung ergänzt spricht man in diesem Fall auch von einer „Mixed Reality“. In 2 sind die eingeblendeten virtuellen Objekte 22 nur abschnittsweise erkennbar, hervorgehoben durch die dunkelgrau dargestellten Abschnitte.
  • 3 zeigt das Cockpit des Fahrzeuges 10. Dargestellt ist ein Personenkraftwagen Pkw. Als Fahrzeug 10 kämen allerdings beliebige andere Fahrzeuge ebenfalls in Betracht. Beispiele von weiteren Fahrzeugen sind: Busse, Nutzfahrzeuge, insbesondere Lastkraftwagen Lkw, Landmaschinen, Baumaschinen, Motorräder, Schienenfahrzeuge, usw. Der Einsatz der Erfindung wäre allgemein bei Landfahrzeugen, Schienenfahrzeugen, Wasserfahrzeugen und Luftfahrzeugen einsetzbar.
  • In dem Cockpit sind drei Anzeigeeinheiten eines Infotainment-Systems dargestellt. Es handelt sich um das Head-Up-Display 20 und einen berührungsempfindlichen Bildschirm 30 der in der Mittelkonsole angebracht ist. Bei der Fahrt liegt die Mittelkonsole nicht im Sichtfeld des Fahrers. Deshalb werden die Zusatzinformationen während der Fahrt nicht auf der Anzeigeeinheit 30 eingeblendet.
  • Der berührungsempfindliche Bildschirm 30 dient dabei insbesondere zur Bedienung von Funktionen des Fahrzeugs 10. Beispielsweise können darüber ein Radio, ein Navigationssystem, eine Wiedergabe von gespeicherten Musikstücken und/oder eine Klimaanlage, andere elektronische Einrichtungen oder andere Komfortfunktionen oder Applikationen des Fahrzeugs 10 gesteuert werden. Zusammengefasst wird häufig von einem „Infotainment-System“ gesprochen. Ein Infotainment-System bezeichnet bei Kraftfahrzeugen, speziell Pkw, die Zusammenführung von Autoradio, Navigationssystem, Freisprecheinrichtung, Fahrerassistenzsystemen und weiterer Funktionen in einer zentralen Bedieneinheit. Der Begriff Infotainment ist ein Kofferwort zusammengesetzt aus den Worten Information und Entertainment (Unterhaltung). Zur Bedienung des Infotainment-Systems wird hauptsächlich der berührungsempfindliche Bildschirm 30 („Touchscreen“) benutzt, wobei dieser Bildschirm 30 insbesondere von einem Fahrer des Fahrzeugs 10 aber auch von einem Beifahrer des Fahrzeugs 10 gut eingesehen und bedient werden kann. Unterhalb des Bildschirms 30 können zudem mechanische Bedienelemente, beispielsweise Tasten, Drehregler oder Kombinationen hiervon, wie beispielsweise Drückdrehregler, angeordnet sein.
  • 4 zeigt schematisch ein Blockschaltbild des Infotainment-Systems 200 sowie beispielhaft einige Teilsysteme oder Applikationen des Infotainment-Systems. Die Bedienungs-Vorrichtung umfasst die berührungsempfindliche Anzeigeeinheit 30, eine Recheneinrichtung 40, eine Eingabeeinheit 50 und einen Speicher 60. Die Anzeigeeinheit 30 umfasst sowohl eine Anzeigefläche zum Anzeigen veränderlicher grafischer Informationen als auch eine über der Anzeigefläche angeordnete Bedienoberfläche (berührungssensitive Schicht) zum Eingeben von Befehlen durch einen Benutzer.
  • Die Anzeigeeinheit 30 ist über eine Datenleitung 70 mit der Recheneinrichtung 40 verbunden. Die Datenleitung kann nach dem LVDS-Standard ausgelegt sein, entsprechend Low Voltage Differential Signalling. Über die Datenleitung 70 empfängt die Anzeigeeinheit 30 Steuerdaten zum Ansteuern der Anzeigefläche des Touchscreens 30 von der Recheneinrichtung 40. Über die Datenleitung 70 werden auch Steuerdaten der eingegebenen Befehle von dem Touchscreen 30 zu der Recheneinrichtung 40 übertragen. Mit der Bezugszahl 50 ist eine Eingabeeinheit bezeichnet. Ihr zugehörig sind die schon erwähnten Bedienelemente wie Tasten, Drehregler, Schieberegler, oder Drehdrückregler, mit deren Hilfe die Bedienperson über die Menüführung Eingaben machen kann. Unter Eingabe wird allgemein das Anwählen einer ausgewählten Menüoption verstanden, wie auch das Ändern eines Parameters, das Ein- und Ausschalten einer Funktion, usw.
  • Die Speichereinrichtung 60 ist über eine Datenleitung 80 mit der Recheneinrichtung 40 verbunden. In dem Speicher 60 ist ein Piktogrammverzeichnis und/oder Symbolverzeichnis hinterlegt, mit den Piktogrammen und/oder Symbolen für die möglichen Einblendungen von Zusatzinformationen.
  • Die weiteren Teile des Infotainment-Systems Kamera 150, Radio 140, Navigationsgerät 130, Telefon 120 und Kombiinstrument 110 sind über den Datenbus 100 mit der Vorrichtung zur Bedienung des Infotainment-Systems verbunden. Als Datenbus 100 kommt die Highspeed-Variante des CAN-Bus nach ISO Standard 11898-2 in Betracht. Alternativ käme z.B. auch der Einsatz eines auf Ethernet-Technologie beruhenden Bussystems wie BroadR-Reach in Frage. Auch Bussysteme, bei denen die Datenübertragung über Lichtwellenleiter geschieht, sind einsetzbar. Als Beispiele werden genannt der MOST Bus (Media Oriented System Transport) oder der D2B Bus (Domestic Digital Bus). Hier wird noch erwähnt, dass die Kamera 150 als konventionelle Videokamera ausgelegt sein kann. In diesem Fall nimmt sie 25 Vollbilder/s auf, was bei dem Interlace-Aufnahmemodus 50 Halbbilder/s entspricht. Alternativ kann eine Spezialkamera eingesetzt werden, die mehr Bilder/s aufnimmt um die Genauigkeit der Objekterkennung bei sich schneller bewegenden Objekten zu erhöhen. Es können mehrere Kameras zur Umfeldbeobachtung eingesetzt werden. Daneben könnten auch die schon erwähnten RADAR- oder LIDAR-Systeme ergänzend oder alternativ eingesetzt werden um die Umfeldbeobachtung durchzuführen oder zu erweitern. Für die drahtlose Kommunikation nach Innen und Außen ist das Fahrzeug 10 mit einem Kommunikationsmodul 160 ausgestattet.
  • Dieses Modul wird oft auch als On-Board Unit bezeichnet. Es kann für die Mobilfunk-Kommunikation, z.B. nach LTE Standard, entsprechend Long Term Evolution, ausgelegt sein. Ebenfalls kann es für WLAN-Kommunikation, entsprechend Wireless LAN, ausgelegt sein, sei es für die Kommunikation zu Geräten der Insassen im Fahrzeug oder für die Fahrzeug-zu-Fahrzeug Kommunikation, etc.
  • Das erfindungsgemäße Verfahren zur Anzeige eines Trajektorien-Verlaufs vor einem Fahrzeug oder einem Objekt mit Hilfe einer Anzeigeeinheit wird im Folgenden anhand von mehreren Ausführungsbeispielen erläutert. Dabei wird als Beispiel eines Trajektorien-Verlaufs der Fahrtrichtungsverlauf vor einem Fahrzeug verwendet.
  • Für die weiteren Figuren gilt, dass gleiche Bezugszahlen die gleichen Felder und Symbole bezeichnen wie bei der Beschreibung der 1 bis 4 erläutert.
  • Wie zuvor beschrieben, ist Grundlage der erfindungsgemäßen Anzeige des Fahrtrichtungsverlaufs ist ein virtuelles Raster, dass in einem Abstand über der tatsächlichen realen Umwelt dargestellt wird. Die reale Umwelt entspricht dem realen Fahrbahnverlauf. Das Raster wird vorzugsweise so projiziert, dass es für den Fahrer so aussieht, dass das Raster in einem Abstand von einigen Zentimetern über der Fahrbahn liegt. Der Abstand kann dabei je nach Ausführungsart variieren.
  • In 5 ist dargestellt, wie der Fahrtrichtungsverlauf angezeigt werden kann. Der Fahrtrichtungsverlauf wird typischerweise im Rahmen der Navigationsfunktion des Fahrzeuges 10 angezeigt. Es wird also dadurch der Weg markiert, der das Fahrzeug 10 zum eingegebenen Ziel führt. Im Dunkeln kann die Anzeige der Fahrtrichtung zur Unterstützung des Fahrers auch unabhängig von einem eingegebenen Ziel eingeblendet werden. In dem Fall würde dadurch der Fahrbahnverlauf angezeigt werden. Das hilft dem Fahrer, da er dann schon früher erkennen kann, welche Kurve oder Abbiegung als nächstes kommt. Die Darstellung des Fahrtrichtungsverlaufs geschieht in diesem Beispiel mit Hilfe eines Punktrasters 22. Das Punktraster 22 erstreckt sich vorzugsweise über die Breite der Fahrspur auf der das Fahrzeug 10 sich bewegt. Dabei ist die Art der Darstellung in diesem Beispiel so gewählt, dass die Punkte im mittleren Bereich 23 stärker betont sind als die Punkte an den Rändern der Fahrspur. Die Betonung der Punkte kann durch Variation von Helligkeit, Farbe, Größe und/oder Form der Punkte erfolgen. In dem in 5 gezeigten Beispiel sind die betonten Punkte durch Fettdruck hervorgehoben. Durch die Betonung der Punkte im mittleren Spurbereich entsteht beim Fahrer der Eindruck einer Linie, wie er es auch sonst von Navigationssystemen gewohnt ist. Dies nutzt die schon beschriebene Fähigkeit der menschlichen Wahrnehmung aus nach der das Gehirn fragmentierte Muster automatisch komplettiert.
  • 6 illustriert ein Prinzip-bedingtes Problem, dass bei der Fahrtrichtungsanzeige mittels Head-Up Display auftreten kann. Dieses Problem ist wie bereits erwähnt als „Problem der engen Kurve“ bekannt. Die technische Konstruktion von HUD-Systemen bringt den Umstand mit sich, dass zwischen der Motorhaube und der virtuellen Projektionsfläche ein „Toter Winkel“ entsteht, in den keine AR-Anzeigen möglich sind. Dieser blinde, nicht bespielbare Bereich ist durch die aktuelle verfügbaren HUD Technologien bedingt und kann derzeit nicht restlos eliminiert werden. Damit stellen sich insbesondere für AR-Anzeigen die in unmittelbarer Nähe des Fahrzeugs liegen, z.B. die in 6 mit den Pfeilen 24 gezeigte unmittelbare Abbiege-Empfehlung besondere Probleme, da diese schlichtweg aus dem virtuellen Sichtfeld wandern und somit nicht mehr angezeigt werden können. Die Sichtebene ist schraffiert und beginnt im Abstand von ca. 13 bis 15 m vor dem Fahrzeug 10.
  • Eine erste Variante zur Lösung diese Problem ist in 7 dargestellt. Dieser Ansatz beruht darauf, dass das Raster nicht mehr nur als plane Ebene dargestellt wird, sondern als gekrümmte Fläche. Die flächige Form des Rasters erstreckt sich also in die dritte Dimension. Dies erfolgt durch ein gezieltes „Anheben“ einzelner oder mehrerer Rasterpunkte. Durch Berechnung einer Verschiebung von Rasterpunkten in der Richtung der z-Achse kann damit eine Fläche erzeugt werden, die sich dreidimensional im Raum anordnet. Damit lässt sich ein virtuelles Objekt zur Fahrtrichtungsanzeige erzeugen, dass die Dimensionen des Raums vollständig ausnutzt und trotzdem den Bezug zur Straße beibehält. Die Berechnung der Verschiebung von Punkten erfolgt wie auch sonst die Berechnung von virtuellen Objekten in der Recheneinheit 40. 7 zeigt verschiedene Ansichten des Punktrasters 22, wobei im rechten oberen Bereich eine Draufsicht gezeigt ist.
  • Wie in 7 zu erkennen, bietet diese Form der Berechnung einer Fahrtrichtungsanzeige die Möglichkeit eine „Welle“ zu formen, bei dem sich die mittleren Punkte in der z-Achse in die Höhe verschieben. Es sind aber auch andere Umsetzungen möglich. Interessant ist z.B. auch die Berechnung des Rasters in der Art, durch die ein komplettes „Aufstellen“ des Rasters erfolgt in Kurvensituationen. In der Kurve würde das Raster dann die Form einer Steilkurve annehmen.
  • Das oben beschriebene „Problem der engen Kurve“ kann ist damit gelöst. Durch das Anheben einzelner Punkte, also die Verschiebung der in Richtung der z-Achse, bleiben die Punkte länger im virtuellen Sichtfeld des Fahrers und ermöglichen so eine kontinuierliche visuelle Unterstützung. Es besteht hier noch der weitere besondere Vorteil, dass die Punkte z.B. für die Abbiegeempfehlung keine neuen Symbole oder zusätzlichen Anzeige-Elemente eingeführt werden müssen. Denn die angehobenen Rasterpunkte werden sofort als zum Raster zugehörig empfunden.
  • In 8 ist noch eine weitere Variante gezeigt. Dabei wird mit Animationen gearbeitet. Hierzu wird die Metapher eines Schneepfluges aufgegriffen. Das eigene Fahrzeug 10 fährt hierbei nicht „über“ das Raster 22, sondern schiebt die Rasterpunkte wie bei einem „Hindurchfahren“ zur Seite. Die Punkte des Rasters verlassen ihre ursprüngliche Position und wandern nach außen - wie Schnee, der vor einem Schneepflug hergeschoben wird. Diese Interaktion mit den virtuellen Elementen kann den Eindruck einer „Mixed Reality“ verstärken. Die Position der Punkte kann von der Recheneinheit 40 wiederum so berechnet werden, dass diese verdrängte virtuelle Materie sich nun, im Fall der Kurve, weiterhin im Anzeigebereich des HUDs befindet, da beim Anfahren an den Scheitelpunkt der Kurve die Punkte seitlich so verdrängt werden, dass sie im Anzeigebereich liegen. Das ist im rechten Teil der 8 dargestellt. Im linken Teil der 8 wie die Punkte beim Fahren auf gerader Strecke mittig nach links und rechts weggedrängt werden.
  • Eine dritte Variante, wie das „Problem der engen Kurve“ gelöst werden kann, ist in 9 dargestellt. Im oberen Teil der 9 ist der Moment dargestellt in dem die Punkte des Rasters 22 soeben aus dem Sichtbereich verschwinden. Das Raster ist hier nicht gekrümmt, so dass die Punkte früher aus dem Sichtbereich verschwinden.
  • Bei den bisher vorgestellten Varianten wurden die virtuellen Elemente als zweidimensionale oder dreidimensionale Flächen, allerdings in Rasterform dargestellt, ausgeführt. Es ist gerade ein besonderer Vorteil der Einblendung von virtuellen Elementen, dass damit viele Möglichkeiten der Darstellung gegeben sind. Wenn sich in bestimmten Situationen ein virtuelles Element aufgrund des begrenzten Anzeigebereichs nicht in der Umgebung abbilden lässt, wird gemäß dieser weiteren Variante ein Dimensionswechsel vollzogen. Damit ist gemeint: Virtuelle Elemente die sich augmentiert in der Umwelt kontaktanalog platzieren, verlassen ihre ursprüngliche Position und bilden sich als zweidimensionales Objekt auf der Sichtebene ab. Im Fall des Rasters würde es bedeuten, dass die Rasterpunkte sich animiert vom Boden lösen, hochklappen und sich an der Projektionsfläche 21 „anheften“. Dabei oder danach ändern sie zusätzlich die Anordnung um ein Symbol, in diesem Fall einen Pfeil 25, zu formen. Dieser Pfeil 25 zeigt dem Fahrer die Richtung an, fungiert also als Navigationselement, wenn der Navigationspfad in Form der Punktraster-Linie nicht mehr zu sehen ist. Besonders beim Rechtsabbiegen kann diese Variante hilfreich sein. Sobald der Lenkprozess abgeschlossen und die Linie wieder sichtbar wird, wird die Anzeige so gesteuert, dass sich der Pfeil in umgekehrter Weise wieder abbaut. Die Rasterpunkte werden neu berechnet und das Raster wird dann in der vorhergehenden Form wieder eingeblendet.
  • Wie oben bereits zum Problem der Fehlertoleranz beschrieben, stellt die genaue Passung der Anzeigen große Herausforderungen an die technische Wahrnehmung der Umwelt. Dies gilt insbesondere für dynamische Objekte, wie zum Beispiel vorausfahrende Fahrzeuge. Herkömmliche Anzeigen erfordern ein hochgenaues „Ausschneiden“ dieser Umweltobjekte aus den eigenen Anzeigen. Durch dieses Vorgehen werden bereits kleinere Fehler unmittelbar sichtbar und erzeugen ein nicht zufriedenstellendes Nutzererlebnis.
  • In der 10 ist noch eine weitere Variante gemäß der Erfindung gezeigt, die für dieses Problem Abhilfe schafft. Ist ein vorrausfahrendes Fahrzeug 11 im Anzeigebereich 21 des HUDs, können die Punkte zur Anzeige des Fahrtrichtungsverlaufs an der Stelle des vorausfahrenden Fahrzeuges einfach ausgespart werden. Dies ist eine einfach realisierbare Lösung, weil keine klaren Kanten und eine entsprechende Form der Grafik des Navigationspfades berechnet werden müssen. Die Lösung beruht auf der Berechnung der von ein paar Punkten des zukünftigen Navigationspfades die ausgelassen werden. Dazu ist die Umfeldbeobachtung erforderlich. Durch die Umfeldbeobachtung wird z.B. mit Kamera 150 das vorausfahrende Fahrzeug 11 aufgenommen. Mit Bildverarbeitung wird eine Objekterkennung durchgeführt. Es wird das vorausfahrende Fahrzeug 11 erkannt. Die Recheneinheit 40 ermittelt daraufhin die Punkte des Rasters 22 die ausgespart werden müssen. Durch die fortwährende Aussparung entsteht der Effekt eines Fahrzeuges 11, das auf dem virtuellen Navigationspfad fährt.
  • Alle hierin erwähnten Beispiele wie auch bedingte Formulierungen sind ohne Einschränkung auf solche speziell angeführten Beispiele zu verstehen. So wird es zum Beispiel von Fachleuten anerkannt, dass das hier dargestellte Blockdiagramm eine konzeptionelle Ansicht einer beispielhaften Schaltungsanordnung darstellt. In ähnlicher Weise ist zu erkennen, dass ein dargestelltes Flussdiagramm, Zustandsübergangsdiagramm, Pseudocode und dergleichen verschiedene Varianten zur Darstellung von Prozessen darstellen, die im Wesentlichen in computerlesbaren Medien gespeichert und somit von einem Computer oder Prozessor ausgeführt werden können. Das in den Patentansprüchen genannte Objekt kann ausdrücklich auch eine Person sein.
  • Es sollte verstanden werden, dass das vorgeschlagene Verfahren und die zugehörigen Vorrichtungen in verschiedenen Formen von Hardware, Software, Firmware, Spezialprozessoren oder einer Kombination davon implementiert werden können. Spezialprozessoren können anwendungsspezifische integrierte Schaltungen (ASICs), Reduced Instruction Set Computer (RISC) und / oder Field Programmable Gate Arrays (FPGAs) umfassen. Vorzugsweise wird das vorgeschlagene Verfahren und die Vorrichtung als eine Kombination von Hardware und Software implementiert. Die Software wird vorzugsweise als ein Anwendungsprogramm auf einer Programmspeichervorrichtung installiert. Typischerweise handelt es sich um eine Maschine auf Basis einer Computerplattform die Hardware aufweist, wie beispielsweise eine oder mehrere Zentraleinheiten (CPU), einen Direktzugriffsspeicher (RAM) und eine oder mehrere Eingabe/Ausgabe (I/O) Schnittstelle(n). Auf der Computerplattform wird typischerweise außerdem ein Betriebssystem installiert. Die verschiedenen Prozesse und Funktionen, die hier beschrieben wurden, können Teil des Anwendungsprogramms sein, oder ein Teil der über das Betriebssystem ausgeführt wird.
  • Die Offenbarung ist nicht auf die hier beschriebenen Ausführungsbeispiele beschränkt. Es gibt Raum für verschiedene Anpassungen und Modifikationen, die der Fachmann aufgrund seines Fachwissens als auch zu der Offenbarung zugehörend in Betracht ziehen würde.
  • Zum Beispiel wurde als Ausführungsbeispiel in den verschiedenen Varianten ein Punktraster gewählt. Eine andere Rasterform käme aber auch in Frage, z.B. ein Linienraster. Auch die Rasterpunkte könnten anders dargestellt werden, z.B. mit Hilfe von Kreuz-Symbolen.
  • Die Erfindung wird in den Ausführungsbeispielen am Beispiel des Einsatzes in Fahrzeugen genauer erläutert. Von besonderem Interesse kann die Anwendung auch für den Bereich der Einsatzfahrzeuge von Feuerwehr, Ärzten, Polizei, Katastrophenschutz, etc. sein, um die Einsatzkräfte dabei zu unterstützen besonders schnell hilfsbedürftige Personen aufzufinden oder um Gefahren abzuwenden. Hier wird auch auf die Einsatzmöglichkeit bei Flugzeugen und Helikoptern zum Beispiel bei Landemanövern oder Sucheinsätzen, etc. hingewiesen.
  • Es wird aber darauf hingewiesen, dass der Einsatz nicht darauf beschränkt ist. Die Erfindung kann immer dann eingesetzt werden, wenn mit AR-Einblendungen das Sichtfeld eines Fahrers, einer Bedienperson oder auch einfach nur einer Person mit Datenbrille angereichert werden kann.
  • Auch bei ferngesteuerten Geräten wie Robotern bei denen die Fernsteuerung über einen Monitor erfolgt auf dem ein Kamerabild wiedergegeben wird, können AR Einblendungen die Bedienung erleichtern. Also besteht hier auch eine Einsatzmöglichkeit.
  • Bezugszeichenliste
  • 10
    Fahrzeug
    11
    vorausfahrendes Fahrzeug
    20
    Head-Up Display HUD
    21
    virtuelle Projektionsfläche
    22
    virtuelles Objekt
    23
    hervorgehobener Rasterbereich
    24
    Fahrtrichtungspfeile
    25
    Abbiegepfeil
    26
    Raster
    30
    berührungsempfindliche Anzeigeeinheit
    40
    Recheneinheit
    50
    Eingabeeinheit
    60
    Speichereinheit
    70
    Datenleitung zur Anzeigeeinheit
    80
    Datenleitung zur Speichereinheit
    90
    Datenleitung zur Eingabeeinheit
    100
    Datenbus
    110
    Kombiinstrument
    120
    Telefon
    130
    Navigationsgerät
    140
    Radio
    150
    Kamera
    160
    Kommunikationsmodul
    200
    Infotainment-System

Claims (5)

  1. Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug (10) oder einem Objekt, die eine Anzeigeeinheit (20), mit der virtuelle Zusatzinformationen in das Sichtfeld eines Fahrers des Fahrzeugs oder einer Bedienperson des Objektes eingeblendet werden können, und eine Recheneinheit (40) aufweist, dadurch gekennzeichnet, dass die Recheneinheit (40) für die Anzeige des Verlaufs einer Trajektorie ein Punktraster (26) berechnet, bei dem die Rasterpunkte des Punktrasters auf Rasterlinien liegen, durch die der Verlauf der Trajektorie angezeigt wird, und Rasterpunkte, die unmittelbar vor dem Fahrzeug (10) oder dem Objekt dargestellt werden, durch die Bewegung des Fahrzeuges (10) oder des Objektes als zur Seite geschoben erscheinen.
  2. Vorrichtung nach Anspruch 1, wobei das Punktraster (26) so berechnet wird, dass die dargestellten Rasterpunkte vor dem Verschwinden aus dem Anzeigebereich der Anzeigeeinheit (20) einen Dimensionswechsel vollziehen, wobei Rasterpunkte so angeordnet werden, dass sie einen Richtungspfeil (25), insbesondere Navigationspfeil, Fahrtrichtungspfeil, Abbiegepfeil oder Einbiegepfeil formen.
  3. Vorrichtung nach Anspruch 2, wobei das Punktraster (26) so berechnet wird, dass der Richtungspfeil (25) als an die virtuelle Projektionsfläche (21) des Fahrzeuges (10) oder des Objektes angeheftet erscheint.
  4. Vorrichtung nach einem der Ansprüche 1 bis 3, wobei die Anzeigeeinheit ein Head-Up Display oder eine Datenbrille ist.
  5. Kraftfahrzeug, dadurch gekennzeichnet, dass das Kraftfahrzeug (10) eine Vorrichtung nach einem der Ansprüche 1 bis 4 aufweist.
DE102017212367.2A 2017-07-19 2017-07-19 Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug Active DE102017212367B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017212367.2A DE102017212367B4 (de) 2017-07-19 2017-07-19 Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017212367.2A DE102017212367B4 (de) 2017-07-19 2017-07-19 Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug

Publications (2)

Publication Number Publication Date
DE102017212367A1 DE102017212367A1 (de) 2019-01-24
DE102017212367B4 true DE102017212367B4 (de) 2022-12-22

Family

ID=64951979

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017212367.2A Active DE102017212367B4 (de) 2017-07-19 2017-07-19 Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug

Country Status (1)

Country Link
DE (1) DE102017212367B4 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018203121B4 (de) 2018-03-02 2023-06-22 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102019202592A1 (de) * 2019-02-26 2020-08-27 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
DE102019202588A1 (de) 2019-02-26 2020-08-27 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
DE102019202581B4 (de) 2019-02-26 2021-09-02 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
DE102019207951B4 (de) 2019-05-29 2022-06-30 Volkswagen Aktiengesellschaft Verfahren zum Durchführen einer Korrektur der Fahrtrichtung durch ein Fahrerassistenzsystem in einem Kraftfahrzeug sowie eine Steuervorrichtung hierzu
DE102019218079A1 (de) * 2019-11-22 2021-05-27 Zf Friedrichshafen Ag Bestimmen einer Steuerung eines zumindest teilweise autonom fahrenden Fahrzeugs
JP2021086552A (ja) * 2019-11-29 2021-06-03 三菱電機株式会社 情報処理装置、表示方法、及び表示プログラム
DE102021123585A1 (de) 2021-09-13 2023-03-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Fahrerassistenzsystem zur Unterstützung eines Fahrers beim Fahren entlang einer aufgezeichneten Trajektorie
DE102022132417A1 (de) 2022-12-06 2024-06-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Aufmerksamkeitslenkung eines Nutzers einer AR-, MR- oder VR-Anzeigevorrichtung auf ein Zielobjekt

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19540108A1 (de) 1995-10-27 1997-04-30 Ldt Gmbh & Co Vorrichtung zur Darstellung eines ersten Bildes in einem durch eine durchsichtige Scheibe sichtbaren zweiten Bild
JP2004117294A (ja) 2002-09-27 2004-04-15 Clarion Co Ltd ナビゲーション装置、方法及びプログラム
WO2005053991A1 (en) 2003-12-01 2005-06-16 Volvo Technology Corporation Method and system for supporting path control
DE102007016868A1 (de) 2007-04-10 2008-10-16 Robert Bosch Gmbh Verfahren zur Anzeige eines Fahrbahnverlaufs und Steuereinrichtung
DE102011121948A1 (de) 2011-12-22 2013-06-27 Gm Global Technology Operations, Llc Vorausschau auf Aktionen eines autonomen Fahrsystems
DE102012103669A1 (de) 2012-04-26 2013-10-31 Continental Teves Ag & Co. Ohg Verfahren zur Darstellung einer Fahrzeugumgebung
DE102013019144A1 (de) 2013-11-15 2015-05-21 Audi Ag Steuerung und Verfahren zum Bereitstellen eines elektronischen Bildsignals für ein Head-up-Display
EP3246664A2 (de) 2016-05-19 2017-11-22 Ricoh Company, Ltd. Informationsverarbeitungssystem und informationsanzeigeverfahren

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19540108A1 (de) 1995-10-27 1997-04-30 Ldt Gmbh & Co Vorrichtung zur Darstellung eines ersten Bildes in einem durch eine durchsichtige Scheibe sichtbaren zweiten Bild
JP2004117294A (ja) 2002-09-27 2004-04-15 Clarion Co Ltd ナビゲーション装置、方法及びプログラム
WO2005053991A1 (en) 2003-12-01 2005-06-16 Volvo Technology Corporation Method and system for supporting path control
DE102007016868A1 (de) 2007-04-10 2008-10-16 Robert Bosch Gmbh Verfahren zur Anzeige eines Fahrbahnverlaufs und Steuereinrichtung
DE102011121948A1 (de) 2011-12-22 2013-06-27 Gm Global Technology Operations, Llc Vorausschau auf Aktionen eines autonomen Fahrsystems
DE102012103669A1 (de) 2012-04-26 2013-10-31 Continental Teves Ag & Co. Ohg Verfahren zur Darstellung einer Fahrzeugumgebung
DE102013019144A1 (de) 2013-11-15 2015-05-21 Audi Ag Steuerung und Verfahren zum Bereitstellen eines elektronischen Bildsignals für ein Head-up-Display
EP3246664A2 (de) 2016-05-19 2017-11-22 Ricoh Company, Ltd. Informationsverarbeitungssystem und informationsanzeigeverfahren

Also Published As

Publication number Publication date
DE102017212367A1 (de) 2019-01-24

Similar Documents

Publication Publication Date Title
DE102017212367B4 (de) Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug
EP3543059B1 (de) Verfahren zur berechnung einer einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
DE102017221191B4 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
WO2019170387A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
EP3668742B1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines kraftfahrzeugs sowie kraftfahrzeug
DE102018203121B4 (de) Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102013200862B4 (de) Optimaler Blickort an Anzeige für gesamte Frontscheibe
EP3717954B1 (de) Verfahren zur anzeige des verlaufs einer trajektorie vor einem fahrzeug oder einem objekt mit einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens
EP3425442B1 (de) Verfahren und vorrichtung zum anreichern eines sichtfeldes eines fahrers eines fahrzeuges mit zusatzinformationen, vorrichtung zur verwendung in einem beobachter-fahrzeug sowie kraftfahrzeug
EP3269579B1 (de) Verfahren zum betreiben eines informationssystems und informationssystem
DE112017007631B4 (de) Anzeigesystem und Anzeigeverfahren
WO2019228779A1 (de) Verfahren zur berechnung einer "augmented reality"-einblendung für die darstellung einer navigationsroute auf einer ar-anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
EP3260329A1 (de) Spiegelersatzsystem für ein fahrzeug
DE102018210226A1 (de) Verfahrung und vorrichtung für die verwendung mit fahrzeugen mit autonomem fahrmodus
DE102011121763A1 (de) Verfahren zur Darstellung einer Abstandsinformation auf einer Anzeigevorrichtung eines Fahrzeugs
DE102016225268A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
EP3978294A1 (de) Betreiben einer head-up-displayeinrichtung bei ausserhalb eines sichtfelds positionierten einblendbaren objekten
EP4073470A1 (de) Verfahren und vorrichtung zur darstellung von virtuellen navigationselementen
DE102015007131B4 (de) Verfahren zum Betreiben eines Anzeigesystems und Anzeigesystem
DE102022105187B4 (de) Verfahren zum Darstellen einer Umgebung eines Fahrzeugs und Anzeigesystem
DE102021120888A1 (de) Anzeigesteuervorrichtung für ein fahrzeug, anzeigeverfahren, speichermedium und anzeigesystem für ein fahrzeug
DE102022114348A1 (de) Fahrzeuganzeigevorrichtung, Anzeigeverfahren und Speichermedium
DE102018001750A1 (de) Integrierte Anzeige von Fahrerassistenzfunktionen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final