-
Die vorliegende Erfindung betrifft ein Verfahren, ein Computerprogramm mit Instruktionen und eine Vorrichtung zum Steuern einer Augmented-Reality-Anzeigevorrichtung. Die Erfindung betrifft zudem eine Augmented-Reality-Anzeigevorrichtung, die eine solche Vorrichtung oder ein solches Verfahren nutzt.
-
Derartige Augmented-Reality-Anzeigevorrichtungen können beispielsweise für ein Head-Up-Display für ein Fahrzeug verwendet werden. Unter einem Head-Up-Display, auch als HUD bezeichnet, wird ein Anzeigesystem verstanden, bei dem der Betrachter seine Blickrichtung beibehalten kann, da die darzustellenden Inhalte in sein Sichtfeld eingeblendet werden. Während derartige Systeme aufgrund ihrer Komplexität und Kosten ursprünglich vorwiegend im Bereich der Luftfahrt Verwendung fanden, werden sie inzwischen auch im Automobilbereich in Großserie verbaut.
-
Head-Up-Displays umfassen im Allgemeinen eine bildgebende Einheit oder PGU (Picture Generating Unit), eine Optikeinheit und eine Spiegeleinheit. Die bildgebende Einheit erzeugt das Bild und nutzt dazu zumindest ein Anzeigeelement. Die Optikeinheit leitet das Bild auf die Spiegeleinheit. Die Spiegeleinheit ist eine teilweise spiegelnde, lichtdurchlässige Scheibe. Der Betrachter sieht also die von der bildgebenden Einheit dargestellten Inhalte als virtuelles Bild und gleichzeitig die reale Welt hinter der Scheibe. Als Spiegeleinheit dient im Automobilbereich oftmals die Windschutzscheibe, deren gekrümmte Form bei der Darstellung berücksichtigt werden muss. Durch das Zusammenwirken von Optikeinheit und Spiegeleinheit ist das virtuelle Bild eine vergrößerte Darstellung des von der bildgebenden Einheit erzeugten Bildes. Die bildgebende Einheit und die Optikeinheit werden in der Regel durch ein Gehäuse mit einer transparenten Abdeckung gegen die Umgebung abgegrenzt. Für Head-Up-Displays wird derzeit üblicherweise eine Flüssigkristallanzeige (LCD: Liquid Crystal Display) mit einer Beleuchtungseinheit für die bildgebende Einheit genutzt.
-
Der Betrachter kann das virtuelle Bild nur aus der Position der sogenannten Eyebox betrachten. Als Eyebox wird ein Bereich bezeichnet, dessen Höhe und Breite einem theoretischen Sichtfenster entspricht. So lange sich ein Auge des Betrachters innerhalb der Eyebox befindet, sind alle Elemente des virtuellen Bildes für das Auge sichtbar. Befindet sich das Auge hingegen außerhalb der Eyebox, so ist das virtuelle Bild für den Betrachter nur noch teilweise oder gar nicht sichtbar. Je größer die Eyebox ist, desto weniger eingeschränkt ist der Betrachter somit bei der Wahl seiner Sitzposition. Die Größe der Eyebox wird konstruktionsbedingt eingeschränkt durch Begrenzungen des Lichtpfades im Gerät und im Einbauschacht. Unter den konstruktiven Gegebenheiten wird in der Regel die Eyebox zur Anpassung an Betrachter in unterschiedlichen Sitzpositionen vertikal nachführbar ausgelegt. Für die Anpassung der Position der Eyebox wird üblicherweise eine Verstellung eines der Spiegel im Head-Up-Display eingesetzt.
-
In manchen Fällen, z.B. für Augmented-Reality-Anwendungen oder aus Komfortgründen, wird eine große und statische Eyebox verwendet, aus der der Betrachter das virtuelle Bild sehen kann.
-
Vor diesem Hintergrund beschreibt
EP 3 128 357 A2 eine Anzeigevorrichtung mit einem Anzeigepanel, das ein Bild mit Fahrinformationen liefert, einem Hohlspiegel, der das Bild zum Generieren eines virtuellen Bildes für einen Fahrer auf eine Windschutzscheibe reflektiert, einer Erfassungseinheit, die eine Position des Fahrers erfasst, einer Antriebseinheit, die den Hohlspiegel bewegt, und einer Steuereinheit. Die Steuereinheit steuert die Antriebseinheit so, dass der Hohlspiegel bewegt wird, um eine Eyebox zu bewegen, wenn die Erfassungseinheit eine Veränderung der Position des Fahrers erfasst.
-
Ein wesentliches Merkmal von Augmented-Reality-Head-Up-Displays ist die Fähigkeit, einen Bereich der Fahrzeugumgebung mittels der Anzeigeinhalte des Head-Up-Displays zu augmentieren. Insbesondere wird beispielsweise die vorausliegende Straße mit Navigationssymbolen überlagert. Die Breite des augmentierbaren Umgebungsbereichs ist definiert durch die Größe des virtuellen Bildes, welches bei konventionellen Head-Up-Displays, die Spiegel verwenden, durch die Breite des verbauten asphärischen Spiegels bestimmt ist.
-
Die Größe des asphärischen Spiegels und damit die Bildgröße ist in der Regel durch Bauraumvorgaben im Fahrzeug limitiert. Speziell in Kurvenfahrten, aber auch auf mehrspurigen Autobahnen, fällt ein Teil oder sogar die komplette Straße aus dem Augmentierungsbereich des Head-Up-Displays heraus, womit die Hauptfunktionen des Augmented-Reality-Head-Up-Displays in diesen Fällen nicht genutzt werden können.
-
Es ist eine Aufgabe der vorliegenden Erfindung, verbesserte Lösungen zum Steuern einer Augmented-Reality-Anzeigevorrichtung bereitzustellen.
-
Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1, durch ein Computerprogramm mit Instruktionen mit den Merkmalen des Anspruchs 7, durch eine Vorrichtung mit den Merkmalen des Anspruchs 8 sowie durch eine Anzeigevorrichtung mit den Merkmalen des Anspruchs 9 gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.
-
Gemäß einem ersten Aspekt der Erfindung umfasst ein Verfahren zum Steuern einer Augmented-Reality-Anzeigevorrichtung die Schritte:
- - Ermitteln, ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality-Informationen am Rand oder außerhalb eines Augmentierungsbereichs der Augmented-Reality-Anzeigevorrichtung erforderlich werden kann; und
- - Anpassen einer Position des Augmentierungsbereichs in Bezug auf einen Betrachter derart, dass die darzustellenden Augmented-Reality-Informationen innerhalb des Augmentierungsbereichs darstellbar sind.
-
Gemäß einem weiteren Aspekt der Erfindung umfasst ein Computerprogramm Instruktionen, die bei Ausführung durch einen Computer den Computer zur Ausführung der folgenden Schritte zum Steuern einer Augmented-Reality-Anzeigevorrichtung veranlassen:
- - Ermitteln, ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality-Informationen am Rand oder außerhalb eines Augmentierungsbereichs der Augmented-Reality-Anzeigevorrichtung erforderlich werden kann; und
- - Anpassen einer Position des Augmentierungsbereichs in Bezug auf einen Betrachter derart, dass die darzustellenden Augmented-Reality-Informationen innerhalb des Augmentierungsbereichs darstellbar sind.
-
Der Begriff Computer ist dabei breit zu verstehen. Insbesondere umfasst er auch Steuergeräte, eingebettete Systeme und andere prozessorbasierte Datenverarbeitungsvorrichtungen.
-
Das Computerprogramm kann beispielsweise für einen elektronischen Abruf bereitgestellt werden oder auf einem computerlesbaren Speichermedium gespeichert sein.
-
Gemäß einem weiteren Aspekt der Erfindung weist eine Vorrichtung zum Steuern einer Augmented-Reality-Anzeigevorrichtung auf:
- - ein Auswertemodul zum Ermitteln, ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality-Informationen am Rand oder außerhalb eines Augmentierungsbereichs der Augmented-Reality-Anzeigevorrichtung erforderlich werden kann; und
- - ein Steuermodul zum Anpassen einer Position des Augmentierungsbereichs in Bezug auf einen Betrachter derart, dass die darzustellenden Augmented-Reality-Informationen innerhalb des Augmentierungsbereichs darstellbar sind.
-
Bei der erfindungsgemäßen Lösung wird eine Position des Augmentierungsbereichs situationsabhängig horizontal so verschoben, dass darzustellende Augmented-Reality-Informationen innerhalb des zur Verfügung stehenden Augmentierungsbereich liegen. Ähnlich wie bei einem Kurvenlicht können so auch weiter außen liegende Teile der Straße im Anzeigebereich der Augmented-Reality-Anzeigevorrichtung augmentiert werden, ohne dass dafür ein vergrößerter Augmentierungsbereich realisiert werden muss.
-
Gemäß einem Aspekt der Erfindung wird das Vorliegen einer Fahrsituation mit Handlungsbedarf ermittelt, wenn eine Kurvenfahrt bevorsteht oder stattfindet. Bei einer Kurvenfahrt ist zu erwarten, dass wichtige Augmented-Reality-Informationen entlang dem Verlauf der Kurve zu erwarten sind. Daher wird der Augmentierungsbereich entsprechend angepasst. Dies erfolgt unabhängig davon, ob der Fahrer bereits dorthin schaut. Dies hat zugleich den Vorteil, dass der Fahrer durch das Verschieben des Augmentierungsbereichs dazu animiert wird, in die Richtung zu schauen, in der wichtige Augmented-Reality-Informationen zu erwarten sind. Der Fahrer wendet seinen Blick z.B. unbewusst nach links, wenn links Augmented-Reality-Elemente auftauchen, die er nur am Rande seines Sichtfeldes wahrnimmt.
-
Gemäß einem Aspekt der Erfindung wird eine Kurvenfahrt aus Daten eines Beschleunigungssensors, aus Daten einer Umfeldsensorik oder aus Kartendaten ermittelt. Eine seitliche Beschleunigung des Fahrzeugs deutet auf eine Kurvenfahrt hin. Fahrzeuge mit einer Augmented-Reality-Anzeigevorrichtung benötigen ohnehin zwingend eine inertiale Messeinheit, die Inertialsensoren wie Beschleunigungssensoren und Drehratensensoren umfasst. Diese können ebenso für die horizontale Nachführung des Augmentierungsbereichs verwendet werden.
-
Die lateralen Fahrzeugbewegungen, insbesondere Gierbewegungen, sind bei normalen Fahrmanövern relativ niederfrequent und können mit der inertialen Messeinheit erfasst werden und über eine Logik an eine Verstelleinheit für die horizontale Nachführung des Augmentierungsbereichs weitergegeben werden. Zudem kann auch der Lenkradeinschlag von Sensoren erfasst werden. Dieser erfolgt kurz bevor die Räder in die Kurvenrichtung ausschlagen. Dies erlaubt es, eine bevorstehende Kurvenfahrt zu antizipieren. Kurvenfahrten lassen sich aber alternativ auch aus Daten einer Umfeldsensorik ermitteln. Beispielsweise können Kurvenfahrten aus Bildern einer Kamera abgeleitet werden, indem eine Krümmung der Fahrbahnmarkierungen ausgewertet wird. Auch Kartendaten zeigen eine bevorstehende Kurve an und erlauben eine Verschiebung des Augmentierungsbereichs entsprechend der erwarteten Kurve.
-
Gemäß einem Aspekt der Erfindung wird das Vorliegen einer Fahrsituation mit Handlungsbedarf ermittelt, wenn eine Darstellung von Augmented-Reality-Informationen auf einer von einer aktuellen Fahrspur beabstandeten Fahrspur erfolgen soll. In verschiedenen Fahrsituationen kann es wünschenswert sein, auf einer weiter von der aktuellen Fahrspur entfernt gelegenen Parallelspur Augmented-Reality-Informationen anzuzeigen. Sofern diese Parallelspur aktuell nicht vom Augmentierungsbereich erfasst ist, wird der Augmentierungsbereich so verschoben, dass Augmented-Reality-Informationen auf der gewünschten Parallelspur angezeigt werden können.
-
Gemäß einem Aspekt der Erfindung erfolgt eine Darstellung von Augmented-Reality-Informationen auf einer von einer aktuellen Fahrspur beabstandeten Fahrspur, wenn ein Spurwechsel des Fahrzeugs ansteht oder ein Spurwechsel eines vorausfahrenden Fahrzeugs erfolgt. Aus Navigationsdaten oder Karteninformationen kann erkannt werden, dass mehrere Fahrspuren vorhanden sind und Abbiegeinformationen auf einer weiter von der aktuellen Fahrspur entfernt gelegenen Parallelspur anzuzeigen wären. Der Augmentierungsbereich wird daher bei Bedarf so verschoben, dass bereits vor dem Spurwechsel des Fahrzeugs auch auf dieser Parallelspur Augmented-Reality-Informationen angezeigt werden können. In Fahrzeugen mit einem Abstandsregeltempomaten (engl.: Adaptive Cruise Control; ACC) wird einem vorausfahrenden Fahrzeug automatisiert gefolgt bzw. ein entsprechender Abstand zu diesem eingehalten. Zur Verdeutlichung des automatisierten Folgens kann das vorausfahrende Fahrzeug von der Augmented-Reality-Anzeigevorrichtung augmentiert werden. Wenn dieses Fahrzeug nun einen Spurwechsel durchführt, kann es vorkommen, dass anzuzeigende Augmented-Reality-Informationen außerhalb des aktuellen Augmentierungsbereichs liegen. Der Augmentierungsbereich kann dann entsprechend nachgeführt werden. Ein weiterer Anwendungsfall von Augmented Reality ist die Indikation von Seitenverkehr, z.B. an einer Kreuzung. Diese könnte aktuell nur mit Richtungspfeilen erfolgen, da der Augmentierungsbereich nicht ausreichend weit nach rechts bzw. links reicht. Mit der erfindungsgemäßen Verschiebung des Augmentierungsbereich kann hingegen früher auf Gefahrensituationen hingewiesen werden, z.B. auf einen Radfahrer in einer Querstraße oder einen Fußgänger an einem Zebrastreifen. Dies erhöht die Sicherheit der beteiligten Personen.
-
Gemäß einem Aspekt der Erfindung umfasst das Anpassen der Position des Augmentierungsbereichs eine Verkippung eines gekrümmten Spiegels der Augmented-Reality-Anzeigevorrichtung um eine senkrechte Achse. Eine einfache Möglichkeit zum Anpassen der Position des Augmentierungsbereichs besteht darin, einen gekrümmten Spiegel im optischen Pfad der Anzeigevorrichtung horizontal zu verkippen. Die Drehachse ist dabei im Wesentlichen parallel zur z-Achse des Fahrzeugs. Durch das horizontale Verkippen des gekrümmten Spiegels wird das virtuelle Bild horizontal verschoben. Aufgrund der Möglichkeit des Verkippens benötigt der gekrümmte Spiegel nicht die Größe, die sich normalerweise aus der Projektion des gesamten virtuellen Bildes auf den gekrümmten Spiegel ergeben würde. Die dynamische Breite des virtuellen Bildes ist dadurch von Bauraumvorgaben entkoppelt und ergibt sich durch den Rotationsweg des gekrümmten Spiegels.
-
Bei einer horizontalen oder vertikalen Verdrehung des gekrümmten Spiegels verschiebt sich auch die Eyebox, in der dem Fahrer das virtuelle Bild angezeigt wird. Sie verschiebt sich in entgegengesetzte Richtung wie das virtuelle Bild, mit dem Angelpunkt typischerweise kurz vor der Windschutzscheibe auf der Straßenseite. Durch die Hebelwirkung und den langen Projektionspfad, der insbesondere bei einem Augmented-Reality-Head-Up-Displays in der Regel vorliegt, ergibt eine kleine Verschiebung der Eyebox eine relativ große Verschiebung des virtuellen Bildes in entgegengesetzter Richtung. Diese kleine Verschiebung der Eyebox kann in der Regel leicht durch den Fahrer kompensiert werden. Insbesondere in Kurvenfahrten, also einem der Anwendungsfälle der Erfindung, werden Körper und Kopf durch die Trägheitskraft ohnehin in die entgegensetzte Richtung gedrückt und damit in die gleiche Richtung wie die Eyebox.
-
Vorzugsweise wird eine erfindungsgemäße Augmented-Reality-Anzeigevorrichtung in einem Head-Up-Display verwendet, z.B. einem Head-Up-Display für ein Kraftfahrzeug.
-
Weitere Merkmale der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung und den angehängten Ansprüchen in Verbindung mit den Figuren ersichtlich.
-
Figurenliste
-
- 1 zeigt schematisch ein Head-Up-Display gemäß dem Stand der Technik für ein Kraftfahrzeug;
- 2 zeigt schematisch ein Head-Up-Display mit einer erfindungsgemäßen Augmented-Reality-Anzeigevorrichtung;
- 3 veranschaulicht eine Anpassung eines Augmentierungsbereichs an eine Kurvenfahrt;
- 4 zeigt schematisch ein Fahrzeug mit einem Head-Up-Display, das eine erfindungsgemäße Augmented-Reality-Anzeigevorrichtung nutzt;
- 5 zeigt schematisch ein Verfahren zum Steuern einer Augmented-Reality-Anzeigevorrichtung eines Fahrzeugs;
- 6 zeigt schematisch eine erste Ausführungsform einer Vorrichtung zum Steuern einer Augmented-Reality-Anzeigevorrichtung eines Fahrzeugs; und
- 7 zeigt schematisch eine zweite Ausführungsform einer Vorrichtung zum Steuern einer Augmented-Reality-Anzeigevorrichtung eines Fahrzeugs.
-
Figurenbeschreibung
-
Zum besseren Verständnis der Prinzipien der vorliegenden Erfindung werden nachfolgend Ausführungsformen der Erfindung anhand der Figuren detaillierter erläutert. Gleiche Bezugszeichen werden in den Figuren für gleiche oder gleichwirkende Elemente verwendet und nicht notwendigerweise zu jeder Figur erneut beschrieben. Es versteht sich, dass sich die Erfindung nicht auf die dargestellten Ausführungsformen beschränkt und dass die beschriebenen Merkmale auch kombiniert oder modifiziert werden können, ohne den Schutzbereich der Erfindung zu verlassen, wie er in den angehängten Ansprüchen definiert ist.
-
1 zeigt eine Prinzipskizze eines Head-Up-Displays gemäß dem Stand der Technik für ein Kraftfahrzeug. Das Head-Up-Display weist eine Anzeigevorrichtung 1 mit einer bildgebenden Einheit 10 und einer Optikeinheit 12 auf. Von einem Anzeigeelement 11 geht ein Strahlenbündel SB1 aus, welches von einem Faltspiegel 21 auf einen gekrümmten Spiegel 22 reflektiert wird, der es in Richtung einer Spiegeleinheit 2 reflektiert. Die Spiegeleinheit 2 ist hier als Windschutzscheibe 20 des Kraftfahrzeugs dargestellt. Von dort gelangt das Strahlenbündel SB2 in Richtung eines Auges eines Betrachters 3.
-
Der Betrachter 3 sieht ein virtuelles Bild VB, welches sich außerhalb des Kraftfahrzeugs oberhalb der Motorhaube oder sogar vor dem Kraftfahrzeug befindet. Durch das Zusammenwirken von Optikeinheit 12 und Spiegeleinheit 2 ist das virtuelle Bild VB eine vergrößerte Darstellung des vom Anzeigeelement 11 angezeigten Bildes. Hier sind symbolisch eine Geschwindigkeitsbegrenzung, die aktuelle Fahrzeuggeschwindigkeit sowie Navigationsanweisungen dargestellt. So lange sich das Auge des Betrachters 3 innerhalb einer durch ein Rechteck angedeuteten Eyebox 4 befindet, sind alle Elemente des virtuellen Bildes VB für den Betrachter 3 sichtbar. Befindet sich das Auge des Betrachters 3 außerhalb der Eyebox 4, so ist das virtuelle Bild VB für den Betrachter 3 nur noch teilweise oder gar nicht sichtbar. Je größer die Eyebox 4 ist, desto weniger eingeschränkt ist der Betrachter bei der Wahl seiner Sitzposition.
-
Die Krümmung des gekrümmten Spiegels 22 ist an die Krümmung der Windschutzscheibe 20 angepasst und sorgt dafür, dass die Bildverzeichnung über die gesamte Eyebox 4 stabil ist. Der gekrümmte Spiegel 22 ist mittels einer Lagerung 221 um eine horizontale Achse drehbar gelagert. Die dadurch ermöglichte Drehung des gekrümmten Spiegels 22 ermöglicht ein Verschieben der Eyebox 4 und somit eine Anpassung der Position der Eyebox 4 an die Position des Betrachters 3. Der Faltspiegel 21 dient dazu, dass der vom Strahlenbündel SB1 zurückgelegte Weg zwischen Anzeigeelement 11 und gekrümmtem Spiegel 22 lang ist, und gleichzeitig die Optikeinheit 12 dennoch kompakt ausfällt. Die bildgebende Einheit 10 und die Optikeinheit 12 werden durch ein Gehäuse 13 mit einer transparenten Abdeckung 23 gegen die Umgebung abgegrenzt. Die optischen Elemente der Optikeinheit 12 sind somit beispielsweise gegen im Innenraum des Fahrzeugs befindlichen Staub geschützt. Auf der Abdeckung 23 kann sich weiterhin eine optische Folie bzw. ein Polarisator 24 befinden. Ein Blendschutz 25 dient dazu, das über die Grenzfläche der Abdeckung 23 reflektierte Licht sicher zu absorbieren, sodass keine Blendung des Betrachters hervorgerufen wird. Außer dem Sonnenlicht SL kann auch das Licht einer anderen Störlichtquelle 5 auf das Anzeigeelement 11 gelangen. In Kombination mit einem Polarisationsfilter erlaubt es der Polarisator 24, einfallendes Sonnenlicht SL zu reduzieren.
-
2 zeigt schematisch ein Head-Up-Display mit einer erfindungsgemäßen Augmented-Reality-Anzeigevorrichtung 1. Das Head-Up-Display entspricht weitgehend dem Head-Up-Display aus 1, allerdings ist der gekrümmte Spiegel 22 in diesem Fall auch um eine senkrechte Achse 222 drehbar. Zur Verstellung des gekrümmten Spiegels 22 um die senkrechte Achse 222 dient ein Motor 14, beispielsweise ein linearer Schrittmotor. Der Motor 14 erhält dazu entsprechende Steuerbefehle SB von einer Vorrichtung 50 zum Steuern der Augmented-Reality-Anzeigevorrichtung 1.
-
3 veranschaulicht eine Anpassung eines Augmentierungsbereichs 15 an eine Kurvenfahrt eines Fahrzeugs 40. Während einer Geradeausfahrt befindet sich der drehbare gekrümmte Spiegel 22 in einer zentralen Stellung. Der zugehörige Augmentierungsbereich 15, in dem ein virtuelles Bild VB dargestellt werden kann, liegt zentral vor dem Fahrer. Auch die Eyebox 4 ist dementsprechend auf den Fahrer zentriert. Im Falle einer Kurvenfahrt wird der gekrümmte Spiegel 22 mittels eines Motors geringfügig um eine senkrechte Achse 222 verkippt. Dadurch verschieben sich der Augmentierungsbereich 15 sowie die Eyebox 4 in entgegengesetzte Richtungen. Im dargestellten Beispiel wird der Augmentierungsbereich 15 nach rechts verschoben, die Eyebox 4 nach links. Auf diese Weise kann ein deutlich vergrößertes virtuelles Sichtfeld 16 abgedeckt werden. Die Verschiebung ist in 3 zur Verdeutlichung übertrieben dargestellt.
-
Bei Head-Up-Displays mit großer statischer Eyebox 4 ohne Einstellmöglichkeit gibt es keine Verstelleinheiten für die Spiegel. In diesem Fall kann für den Motor 14 eine lineare Schrittmotorverstellung vorgesehen werden, die eine horizontale Rotation des gekrümmten Spiegels 22 induziert.
Bei Head-Up-Displays mit einer dynamischen Position der Eyebox 4 gibt es bereits eine Verstelleinheit zur vertikalen Bildverschiebung. Wenn diese dynamische Verstellung der Eyebox 4 am gekrümmten Spiegel 22 durchgeführt wird, kann für den Motor 14 ein zweiter, gekoppelter Schrittmotor vorgesehen werden, um beide Richtungen einstellen zu können. Wenn die dynamische Verstellung der Eyebox 4 stattdessen z.B. an einem Faltspiegel durchgeführt wird, kann für den Motor 14 wiederum eine lineare Schrittmotorverstellung des gekrümmten Spiegels 22 vorgesehen werden.
-
4 zeigt schematisch ein Fahrzeug 40, in dem eine erfindungsgemäße Lösung realisiert ist. Bei dem Fahrzeug 40 handelt es sich in diesem Beispiel um ein Kraftfahrzeug. Das Kraftfahrzeug weist eine erfindungsgemäße Augmented-Reality-Anzeigevorrichtung 1 auf, die in diesem Fall Bestandteil eines Head-Up-Displays ist. Die Augmented-Reality-Anzeigevorrichtung 1 ermöglicht es, Augmented-Reality-Informationen I darzustellen. Die Augmented-Reality-Anzeigevorrichtung 1 wird von einer Vorrichtung 50 gesteuert. Mit einer Sensorik 41 können z.B. Daten zur Fahrzeugumgebung erfasst werden. Die Sensorik 41 kann insbesondere Sensoren zur Umfelderkennung umfassen, z.B. Ultraschallsensoren, Laserscanner, Radarsensoren, Lidarsensoren oder Kameras. Die von der Sensorik 41 erfassten Informationen können genutzt werden, um anzuzeigende Inhalte für das Head-Up-Display zu generieren. Mit einem Beschleunigungssensor 42 können Beschleunigungen des Kraftfahrzeugs erfasst werden. Aus den vom Beschleunigungssensor 42 erfassten Beschleunigungen kann eine Kurvenfahrt des Kraftfahrzeugs ermittelt werden. Weitere Bestandteile des Kraftfahrzeugs sind in diesem Beispiel ein Navigationssystem 43, durch das Positionsinformationen bereitgestellt werden können, sowie eine Datenübertragungseinheit 44. Mittels der Datenübertragungseinheit 44 kann z.B. eine Verbindung zu einem Backend aufgebaut werden, beispielsweise um aktualisierte Software für Komponenten des Kraftfahrzeugs zu beziehen. Zur Speicherung von Daten ist ein Speicher 45 vorhanden. Der Datenaustausch zwischen den verschiedenen Komponenten des Kraftfahrzeugs erfolgt über ein Netzwerk 46.
-
5 zeigt schematisch ein Verfahren zum Steuern einer Augmented-Reality-Anzeigevorrichtung eines Fahrzeugs. In einem ersten Schritt werden Daten zu einer Fahrsituation des Fahrzeugs erfasst S1. Basierend auf diesen Daten wird ermittelt S2, ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality-Informationen am Rand oder außerhalb eines Augmentierungsbereichs der Augmented-Reality-Anzeigevorrichtung erforderlich werden kann. Dies ist z.B. der Fall, wenn eine Kurvenfahrt bevorsteht oder stattfindet, was aus Daten eines Beschleunigungssensors, aus Daten einer Umfeldsensorik oder aus Kartendaten ermittelt werden kann. Dies kann ebenfalls der Fall sein, wenn z.B. auf Basis von Daten der Umfeldsensorik ein seitlicher Verkehrsteilnehmer detektiert wird. Insbesondere können dazu Daten einer Kamera, eines Lidarsensors oder eines Radarsensors ausgewertet werden. Eine Fahrsituation mit Handlungsbedarf kann auch dann vorliegen, wenn eine Darstellung von Augmented-Reality-Informationen auf einer zu einer aktuellen Fahrspur benachbarten Fahrspur erfolgen soll. Dies kann z.B. der Fall sein, wenn ein Spurwechsel des Fahrzeugs ansteht oder ein Spurwechsel eines vorausfahrenden Fahrzeugs erfolgt. Eine Position des Augmentierungsbereichs wird dann derart in Bezug auf einen Betrachter angepasst S3, dass die darzustellenden Augmented-Reality-Informationen innerhalb des Augmentierungsbereichs darstellbar sind. Zu diesem Zweck kann beispielsweise eine Verkippung eines gekrümmten Spiegels der Augmented-Reality-Anzeigevorrichtung um eine senkrechte Achse erfolgen.
-
6 zeigt eine vereinfachte schematische Darstellung einer ersten Ausführungsform einer Vorrichtung 50 zum Steuern einer Augmented-Reality-Anzeigevorrichtung 1 eines Fahrzeugs. Die Vorrichtung 50 hat einen Eingang 51, über den beispielsweise Daten BD eines Beschleunigungssensors 42, Daten UD einer Umfeldsensorik 41 oder Kartendaten KD empfangen werden können. Ein Auswertemodul 52 ist eingerichtet, auf Grundlage der empfangenen Daten zu ermitteln, ob eine Fahrsituation mit Handlungsbedarf vorliegt, in der eine Darstellung von Augmented-Reality-Informationen am Rand oder außerhalb eines Augmentierungsbereichs der Augmented-Reality-Anzeigevorrichtung 1 erforderlich werden kann. Dies ist z.B. der Fall, wenn eine Kurvenfahrt bevorsteht oder stattfindet, was aus Daten BD des Beschleunigungssensors 42, aus den Daten UD der Umfeldsensorik 41 oder aus den Kartendaten KD ermittelt werden kann. Eine Fahrsituation mit Handlungsbedarf kann auch dann vorliegen, wenn eine Darstellung von Augmented-Reality-Informationen auf einer zu einer aktuellen Fahrspur benachbarten Fahrspur erfolgen soll. Dies kann z.B. der Fall sein, wenn ein Spurwechsel des Fahrzeugs ansteht oder ein Spurwechsel eines vorausfahrenden Fahrzeugs erfolgt. Ein Steuermodul 53 ist eingerichtet, eine Position des Augmentierungsbereichs in Bezug auf einen Betrachter derart anzupassen, dass die darzustellenden Augmented-Reality-Informationen innerhalb des Augmentierungsbereichs darstellbar sind. Zu diesem Zweck kann das Steuermodul 53 einen entsprechenden Steuerbefehl SB über einen Ausgang 56 der Vorrichtung 50 an die Augmented-Reality-Anzeigevorrichtung 1 ausgeben. Im Ansprechen auf den Steuerbefehl SB kann beispielsweise eine Verkippung eines gekrümmten Spiegels der Augmented-Reality-Anzeigevorrichtung 1 um eine senkrechte Achse erfolgen.
-
In 6 ist die Vorrichtung 50 als eigenständige Komponente dargestellt. Selbstverständlich kann sie aber auch in die Augmented-Reality-Anzeigevorrichtung 1, in einen zentralen Fahrzeugrechner oder in eine andere Komponente integriert sein.
-
Das Auswertemodul 52 und das Steuermodul 53 können von einem Kontrollmodul 54 gesteuert werden. Über eine Benutzerschnittstelle 57 können gegebenenfalls Einstellungen des Auswertemoduls 52, des Steuermoduls 53 oder des Kontrollmoduls 54 geändert werden. Die in der Vorrichtung 50 anfallenden Daten können bei Bedarf in einem Speicher 55 der Vorrichtung 50 abgelegt werden, beispielsweise für eine spätere Auswertung oder für eine Nutzung durch die Komponenten der Vorrichtung 50. Das Auswertemodul 52, das Steuermodul 53 sowie das Kontrollmodul 54 können als dedizierte Hardware realisiert sein, beispielsweise als integrierte Schaltungen. Natürlich können sie aber auch teilweise oder vollständig kombiniert oder als Software implementiert werden, die auf einem geeigneten Prozessor läuft, beispielsweise auf einer GPU oder einer CPU. Der Eingang 51 und der Ausgang 56 können als getrennte Schnittstellen oder als eine kombinierte Schnittstelle implementiert sein.
-
7 zeigt eine vereinfachte schematische Darstellung einer zweiten Ausführungsform einer Vorrichtung 60 zum Steuern einer Augmented-Reality-Anzeigevorrichtung eines Fahrzeugs. Die Vorrichtung 60 weist einen Prozessor 62 und einen Speicher 61 auf. Beispielsweise handelt es sich bei der Vorrichtung 60 um eine Steuereinheit oder ein eingebettetes System. Im Speicher 61 sind Instruktionen abgelegt, die die Vorrichtung 60 bei Ausführung durch den Prozessor 62 veranlassen, die Schritte gemäß einem der beschriebenen Verfahren auszuführen. Die im Speicher 61 abgelegten Instruktionen verkörpern somit ein durch den Prozessor 62 ausführbares Programm, welches das erfindungsgemäße Verfahren realisiert. Die Vorrichtung 60 hat einen Eingang 63 zum Empfangen von Informationen. Vom Prozessor 62 generierte Daten werden über einen Ausgang 64 bereitgestellt. Darüber hinaus können sie im Speicher 61 abgelegt werden. Der Eingang 63 und der Ausgang 64 können zu einer bidirektionalen Schnittstelle zusammengefasst sein.
-
Der Prozessor 62 kann eine oder mehrere Prozessoreinheiten umfassen, beispielsweise Mikroprozessoren, digitale Signalprozessoren oder Kombinationen daraus.
-
Die Speicher 55, 61 der beschriebenen Vorrichtungen können sowohl volatile als auch nichtvolatile Speicherbereiche aufweisen und unterschiedlichste Speichergeräte und Speichermedien umfassen, beispielsweise Festplatten, optische Speichermedien oder Halbleiterspeicher.
-
Bezugszeichenliste
-
- 1
- Anzeigevorrichtung
- 2
- Spiegeleinheit
- 3
- Betrachter
- 4
- Eyebox
- 5
- Störlichtquelle
- 10
- Bildgebende Einheit
- 11
- Anzeigeelement
- 12
- Optikeinheit
- 13
- Gehäuse
- 14
- Motor
- 15
- Augmentierungsbereich
- 16
- Virtuelles Sichtfeld
- 20
- Windschutzscheibe
- 21
- Faltspiegel
- 22
- Gekrümmter Spiegel
- 221
- Lagerung
- 222
- Senkrechte Achse
- 23
- Transparente Abdeckung
- 24
- Optische Folie/Polarisator
- 25
- Blendschutz
- 40
- Fortbewegungsmittel
- 41
- Sensorik
- 42
- Beschleunigungssensor
- 43
- Navigationssystem
- 44
- Datenübertragungseinheit
- 45
- Speicher
- 46
- Netzwerk
- 50
- Vorrichtung
- 51
- Eingang
- 52
- Auswertemodul
- 53
- Steuermodul
- 54
- Kontrollmodul
- 55
- Speicher
- 56
- Ausgang
- 57
- Benutzerschnittstelle
- 60
- Vorrichtung
- 61
- Speicher
- 62
- Prozessor
- 63
- Eingang
- 64
- Ausgang
- BD
- Daten eines Beschleunigungssensors
- I
- Augmented-Reality-Informationen
- KD
- Kartendaten
- SB
- Steuerbefehl
- SB1
- Strahlenbündel
- SB2
- Strahlenbündel
- SL
- Sonnenlicht
- UD
- Daten einer Umfeldsensorik
- VB
- Virtuelles Bild
- S1
- Erfassen von Daten zu einer Fahrsituation
- S2
- Ermitteln, ob eine Fahrsituation mit Handlungsbedarf vorliegt
- S3
- Anpassen einer Position eines Augmentierungsbereichs
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-