DE102017215163A1 - System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs - Google Patents

System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs Download PDF

Info

Publication number
DE102017215163A1
DE102017215163A1 DE102017215163.3A DE102017215163A DE102017215163A1 DE 102017215163 A1 DE102017215163 A1 DE 102017215163A1 DE 102017215163 A DE102017215163 A DE 102017215163A DE 102017215163 A1 DE102017215163 A1 DE 102017215163A1
Authority
DE
Germany
Prior art keywords
augmented reality
pose
reality glasses
detection device
optical detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102017215163.3A
Other languages
English (en)
Other versions
DE102017215163B4 (de
Inventor
Adrian Haar
Johannes Tümler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102017215163.3A priority Critical patent/DE102017215163B4/de
Priority to PCT/EP2018/072156 priority patent/WO2019042778A1/de
Priority to US16/641,710 priority patent/US10969579B2/en
Priority to CN201880056379.4A priority patent/CN110998409A/zh
Publication of DE102017215163A1 publication Critical patent/DE102017215163A1/de
Application granted granted Critical
Publication of DE102017215163B4 publication Critical patent/DE102017215163B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)

Abstract

Eine Augmented-Reality-Brille, ein Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille sowie ein Kraftfahrzeug, das für die Nutzung der Augmented-Reality-Brille oder des Verfahrens geeignet ist. Die Augmented-Reality-Brille (1) weist eine optische Erfassungsvorrichtung (2) zum Erfassen (10) von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille (1) sowie eine Schnittstelle (5) zu einer Posenbestimmungsvorrichtung (6) zum Bestimmen (11) einer Pose der Augmented-Reality-Brille (1) anhand der Umgebungsdaten auf. Die optische Erfassungsvorrichtung (2) ist eingerichtet, nur Licht einer definierten Polarisation zu erfassen.

Description

  • Die vorliegende Erfindung betrifft eine Augmented-Reality-Brille sowie ein Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille. Die Erfindung betrifft weiterhin ein Kraftfahrzeug, das für die Nutzung einer erfindungsgemäßen Augmented-Reality-Brille oder eines erfindungsgemäßen Verfahrens geeignet ist.
  • Mit der stetigen Weiterentwicklung von Virtual und Augmented Reality-Technologien und -Anwendungen finden diese auch Einzug in das Automobil. Bei Augmented Reality (AR), auf Deutsch „erweiterte Realität“, handelt es sich um die Anreicherung der realen Welt durch virtuelle Elemente, die im dreidimensionalen Raum ortskorrekt registriert sind und eine Echtzeitinteraktion erlauben. Da sich in der Fachwelt im deutschsprachigen Raum der Ausdruck „Augmented Reality“ gegenüber dem Ausdruck „erweiterte Realität“ durchgesetzt hat, wird im Folgenden ersterer benutzt.
  • Eine mögliche technische Realisierung, um den Fahrerarbeitsplatz entsprechend mit perspektivisch korrekten virtuellen Erweiterungen anzureichern, bieten Augmented-Reality-Brillen. Eine Augmented-Reality-Brille wird wie eine normale Brille getragen, weist aber eine oder mehrere Projektionseinheiten oder Anzeigen auf, mit deren Hilfe dem Träger der Brille Informationen vor die Augen oder direkt auf die Netzhaut projiziert werden können. Die Brille ist dabei so gestaltet, dass der Träger auch die Umgebung wahrnehmen kann. Vorzugsweise werden dem Träger Informationen oder Hinweise kontaktanalog angezeigt. Dabei erfolgt die Anzeige der Informationen oder Hinweise an einem Ort, der sich am Ort eines Objektes in der Umgebung orientiert, z.B. an das Objekt angrenzend oder dieses überlagernd. Durch die optische Überlagerung von Anzeige und Fahrszene sind weniger Kopf- und Augenbewegungen zum Ablesen der Informationen notwendig. Zudem verringert sich der Adaptationsaufwand für die Augen, da abhängig von der virtuellen Distanz der Anzeige weniger bis gar nicht akkommodiert werden muss. Durch Markieren von Objekten und Einblenden von Informationen an ihrem realen Bezugsort, d.h. durch die kontaktanaloge Darstellung, lassen sich umweltbezogene Informationen im Sichtfeld des Fahrers direkt darstellen. Da die Anzeigen als „Teil der Umwelt“ dargestellt werden können, sind äußerst schnelle und intuitive Interpretationen durch den Träger möglich. Diese direkte grafische Anreicherung der Umwelt in Form von Augmented Reality kann die kognitiven Transferanforderungen daher erheblich reduzieren.
  • Eine Registrierung der virtuellen Informationen im realen Sichtfeld des Fahrers im Sinne von Augmented Reality stellt sehr hohe Anforderungen an die technische Umsetzung. Um virtuelle Inhalte ortsgenau und perspektivisch korrekt in der Realität darstellen zu können ist sehr detailliertes Wissen über die Umgebung und Eigenbewegung des Fahrzeuges notwendig. Insbesondere muss auch die Pose der Augmented-Reality-Brille bekannt sein, d.h. ihre Position und Ausrichtung relativ zum Fahrzeug.
  • Zur Posenbestimmung von Augmented-Reality-Brillen können inertiale Messsysteme genutzt werden, die auf Masseträgheit basieren. Die Sensoren solcher Messsysteme werden direkt an der Brille befestigt und Messen die Bewegungen der Brille durch das Erfassen von Beschleunigungen. Ein Nachteil der inertialen Systeme liegt darin, dass nur relative Messungen stattfinden und durch zweifache Integration des Messergebnisses eine Drift entsteht, die in kurzer Zeit das Trackingergebnis unbrauchbar macht. Daher müssen inertiale Systeme zwingend mit einem nicht-driftenden Messsystem gekoppelt werden.
  • In der Regel werden zur Posenbestimmung von Augmented-Reality-Brillen deshalb optische Messsysteme eingesetzt. Hierbei findet üblicherweise eine Beobachtung der zu verfolgenden Objekte von außen statt, weshalb man bei solchen Systemen von Outside-In Tracking spricht. Dafür steht beispielsweise im Fahrzeug ein zusätzliches Sensorsystem zur Verfügung, z.B. eine Kamera, welches Bewegungen der Augmented-Reality-Brille erfasst.
  • Beispielsweise beschreibt die Arbeit von Guy Berg: „Das Vehicle in the Loop - Ein Werkzeug für die Entwicklung und Evaluation von sicherheitskritischen Fahrerassistenzsystemen“ [1] eine Test- und Simulationsumgebung für Fahrerassistenzsysteme. Dabei wird eine Test- und Simulationsumgebung samt integrierter Verkehrssimulation mit einem realen Testfahrzeug verknüpft. Der Fahrer wird dabei mit Hilfe eines Head Mounted Displays (HMD) in eine erweiterte oder virtuelle Realität versetzt, so dass er eine direkte visuelle Rückmeldung aus der Simulationsumgebung sowie haptische, vestibuläre, somatosensorische und akustische Rückmeldungen von der realen Fahrzeuginteraktion erhält. Im Betrieb werden Position und Lage des Fahrzeugs auf einer Teststrecke geortet. Durch Kenntnis dieser in der realen Welt sind auch die entsprechende Position und Lage des Fahrzeugs in der virtuellen Welt bekannt. Zusätzlich wird mit Hilfe eines im Fahrzeug verbauten Sensors die Blickrichtung des Fahrers bestimmt. Mit Hilfe von Position und Lage des Fahrzeugs sowie der Blickrichtung des Fahrers wird in der Simulationssoftware das zur Realität korrespondierende Bild der virtuellen Welt erzeugt und dem Fahrer über das HMD visualisiert. Dabei wird ein optisches Tracking des Kopfes genutzt, das optische Marker nutzt.
  • Ein Nachteil der Outside-In-Systeme ist, dass zusätzlich zur Brille ein zweites Messsystem erforderlich ist.
  • Als Alternative zum Outside-In Tracking kann das sogenannte Inside-Out Tracking genutzt werden, bei dem das Messsystem in das zu verfolgende Objekt integriert ist, d.h. es wird die Umgebung aus Sicht des Objekts erfasst. Dabei ist das messende System selbst bewegt.
  • Beispielsweise beschreibt die DE 10 2014 217 963 A1 eine Datenbrille zur Verwendung in einem Kraftfahrzeug. Die Datenbrille umfasst eine Anzeige, eine Infrarot-Kamera, in deren Aufnahmen im Wesentlichen Infrarotlicht abgebildet wird, sowie elektronische Verarbeitungsmittel. Mithilfe der Kamera wird die Umgebung der Datenbrille aufgenommen. In den Aufnahmen wird dann ein vordefiniertes Muster erkannt. Dazu wird vorab ein Infrarot-Muster mithilfe einer Beschichtung im Fahrzeuginnenraum angebracht. In Abhängigkeit vom erkannten Muster wird schließlich die Pose der Datenbrille bestimmt.
  • Ein Nachteil des beschriebenen Systems besteht darin, dass im Fahrzeug spezielle Marker angebracht werden müssen, was im Hinblick auf die Gestaltung und Anmutung des Innenraums unerwünscht sein kann.
  • Moderne Augmented-Reality-Brillen nutzen visuelle Systeme und maschinelles Lernen, um eine möglichst genaue Lage der Brille im Raum zu bestimmen. Hierbei wird die Pose und Bewegung der Brille abhängig von markanten Ecken und Kanten im umliegenden Raum durch Verfahren der optischen Messtechnik bestimmt. Bei der Anwendung im Fahrzeug kann diese Methodik jedoch fehlerbehaftet sein, da die optischen Messsysteme auch optische Signale des Fahrzeugaußenraums, d.h. von der Straße oder von Objekten auf oder an der Fahrbahn, in die Berechnung mit einbeziehen. Da sich das Fahrzeug bewegt, der Innenraum aber statisch ist, bekommt das messende System Fehlinformationen. Dadurch kann die Posenbestimmung fehlschlagen.
  • Es ist eine Aufgabe der Erfindung, alternative Lösungen zum Bestimmen einer Pose einer Augmented-Reality-Brille aufzuzeigen.
  • Diese Aufgabe wird durch eine Augmented-Reality-Brille mit den Merkmalen des Anspruchs 1, durch ein Verfahren mit den Merkmalen des Anspruchs 7, durch ein Kraftfahrzeug mit den Merkmalen des Anspruchs 10 und durch ein System mit den Merkmalen des Anspruchs 12 gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.
  • Gemäß einem ersten Aspekt der Erfindung weist eine Augmented-Reality-Brille auf:
    • - eine optische Erfassungsvorrichtung zum Erfassen von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille, wobei die optische Erfassungsvorrichtung eingerichtet ist, nur Licht einer definierten Polarisation zu erfassen; und
    • - eine Schnittstelle zu einer Posenbestimmungsvorrichtung zum Bestimmen einer Pose der Augmented-Reality-Brille anhand der Umgebungsdaten.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille die Schritte:
    • - Erfassen von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille mit einer optischen Erfassungsvorrichtung, wobei beim Erfassen der Umgebungsdaten nur Licht einer bestimmten Polarisation durch die optische Erfassungsvorrichtung erfasst wird; und
    • - Bestimmen einer Pose der Augmented-Reality-Brille anhand der Umgebungsdaten.
  • Gemäß einem weiteren Aspekt der Erfindung weist ein Kraftfahrzeug eine Anzahl von Scheiben auf, wobei die Scheiben eingerichtet sind, Licht einer bestimmten Polarisation abzublocken. Zu diesem Zweck weisen die Scheiben vorzugsweise eine polarisationsfilternde Schicht auf.
  • Erfindungsgemäß erfolgt beim Inside-Out-Tracking einer Augmented-Reality-Brille eine Trennung von Objekten, die verfolgt werden sollen, und Objekten, die nicht verfolgt werden sollen, unter Ausnutzung von polarisiertem Licht. Zu diesem Zweck haben die Fahrzeugscheiben polarisationsfilternde Eigenschaften, beispielsweise durch eine auf die Scheiben aufgebrachte polarisationsfilternde Schicht. Aus dem Außenraum gelangt daher nur noch polarisiertes Licht in den Innenraum. Die Erfassungsvorrichtung der Augmented-Reality-Brille ist eingerichtet, nur Licht mit einer Polarisation zu detektieren, die komplementär zur Polarisation des Lichts ist, die aus dem Außenraum in den Innenraum gelangt ist. Dazu weist die optische Erfassungsvorrichtung vorzugsweise einen Polarisationsfilter auf. Dadurch ist es der optischen Erfassungsvorrichtung nicht mehr möglich, über die Grenzen des Fahrzeugs hinaus Teile des Außenraums zu erfassen. Für die Posenbestimmung der Augmented-Reality-Brille wird somit nur noch der erfasste Innenraum des Fahrzeugs genutzt. Gleichzeitig kann der Fahrer ohne wesentliche Einschränkungen durch die polarisierenden Scheiben sehen.
  • Gemäß einem Aspekt der Erfindung ist die optische Erfassungsvorrichtung eingerichtet, nur horizontal, vertikal oder zirkular polarisiertes Licht zu erfassen. Für diese Polarisationen sind geeignete Filter zu vertretbaren Preisen verfügbar, so dass sich die erforderliche Polarisationsfilterung kostengünstig realisieren lässt.
  • Gemäß einem Aspekt der Erfindung weist die optische Erfassungsvorrichtung mindestens eine Kamera zum Erfassen von Bilddaten der Umgebung der Augmented-Reality-Brille auf. Zum Bestimmen der Pose der Augmented-Reality-Brille können dann Kanten oder markante Punkte in den Bilddaten detektiert und ausgewertet werden. Dies erlaubt es, die polarisationsbasierte Trennung des Außenraums und des Innenraums des Fahrzeugs mit modernen Algorithmen zur Posenbestimmung zu kombinieren, die maschinelles Lernen nutzen.
  • Gemäß einem Aspekt der Erfindung weist die Augmented-Reality-Brille eine Lichtquelle zum Beleuchten der Umgebung auf. Auf diese Weise kann die Posenbestimmung auch dann noch zuverlässig durchgeführt werden, wenn kaum oder nur wenig natürliches Licht vorhanden ist.
  • Besonders vorteilhaft werden ein erfindungsgemäßes Verfahren oder eine erfindungsgemäße Augmented-Reality-Brille in einem Fahrzeug, insbesondere einem Kraftfahrzeug, eingesetzt.
  • Weitere Merkmale der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung und den angehängten Ansprüchen in Verbindung mit den Figuren ersichtlich.
    • 1 zeigt schematisch das Konzept der erfindungsgemäßen Lösung zum Bestimmen einer Pose einer Augmented-Reality-Brille;
    • 2 zeigt schematisch eine erfindungsgemäße Augmented-Reality-Brille;
    • 3 zeigt schematisch ein Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille;
    • 4 zeigt eine erste Ausführungsform einer Posenbestimmungsvorrichtung;
    • 5 zeigt eine zweite Ausführungsform einer Posenbestimmungsvorrichtung;
    • 6 stellt schematisch ein Kraftfahrzeug dar, in dem eine erfindungsgemäße Lösung realisiert ist; und
    • 7 zeigt ein Beispiel einer Augmented-Reality-Darstellung einer Augmented-Reality-Brille.
  • Zum besseren Verständnis der Prinzipien der vorliegenden Erfindung werden nachfolgend Ausführungsformen der Erfindung anhand der Figuren detaillierter erläutert. Es versteht sich, dass sich die Erfindung nicht auf diese Ausführungsformen beschränkt und dass die beschriebenen Merkmale auch kombiniert oder modifiziert werden können, ohne den Schutzbereich der Erfindung zu verlassen, wie er in den angehängten Ansprüchen definiert ist.
  • 1 zeigt schematisch das Konzept der erfindungsgemäßen Lösung zum Bestimmen einer Pose einer Augmented-Reality-Brille. Ausgegangen wird von einem Inside-Out-Tracking einer Augmented-Reality-Brille. Dabei erfolgt eine Trennung von Objekten, die verfolgt werden sollen, und Objekten, die nicht verfolgt werden sollen, unter Ausnutzung von polarisiertem Licht. Zu diesem Zweck haben die Fahrzeugscheiben polarisationsfilternde Eigenschaften, beispielsweise durch eine auf die Scheiben aufgebrachte polarisationsfilternde Schicht. Polarisationsfilter lassen Lichtwellen nur in einer bestimmten Polarisation hindurch. Aus dem Außenraum gelangt daher nur noch polarisiertes Licht in den Innenraum. Wenn danach dieses Licht durch einen weiteren, komplementären Filter geleitet wird, kann dieses Licht nicht weiter durchdringen. Die Erfassungsvorrichtung der Augmented-Reality-Brille ist deshalb eingerichtet, nur Licht mit einer Polarisation zu detektieren, die komplementär zur Polarisation des Lichts ist, die aus dem Außenraum in den Innenraum gelangt ist. Dazu weist die optische Erfassungsvorrichtung vorzugsweise einen Polarisationsfilter auf. Diese Filter können in Form einer Folie auf die Fahrzeugscheiben und die optische Erfassungsvorrichtung aufgebracht werden. Zwischen den beiden Filtern kann das Licht ohne große Einschränkungen wahrgenommen werden. Dies ermöglicht, dass der Fahrer die Außenwelt und gleichzeitig ein visuelles Ortungssystem der Augmented-Reality-Brille nur den Innenraum registrieren können, d.h. es ist der optischen Erfassungsvorrichtung nicht mehr möglich, über die Grenzen des Fahrzeugs hinaus Teile des Außenraums zu erfassen. Für die Posenbestimmung der Augmented-Reality-Brille wird somit nur noch der erfasste Innenraum des Fahrzeugs genutzt.
  • 2 zeigt schematisch eine erfindungsgemäße Augmented-Reality-Brille 1. Die Augmented-Reality-Brille 1 hat eine optische Erfassungsvorrichtung 2, die beispielsweise eine Kamera 3 aufweist, zum Erfassen von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille 1. Dabei ist die optische Erfassungsvorrichtung 2 eingerichtet, nur Licht einer definierten Polarisation zu erfassen, z.B. nur horizontal, vertikal oder zirkular polarisiertes Licht. Zu diesem Zweck weist die optische Erfassungsvorrichtung 2 einen Polarisationsfilter 4 auf. Mittels einer Schnittstelle 5 besteht eine Verbindung zu einer externen Posenbestimmungsvorrichtung 6 zum Bestimmen einer Pose der Augmented-Reality-Brille 1 anhand der Umgebungsdaten. Die Posenbestimmungsvorrichtung 6 kann dazu beispielsweise Kanten oder markante Punkte in den Bilddaten detektieren und auswerten. Die Posenbestimmungsvorrichtung 6 kann natürlich auch Bestandteil der Augmented-Reality-Brille 1 sein. Mittels einer Grafikeinheit 8 kann die Anzeige der Augmented-Reality-Brille 1 entsprechend der ermittelten Pose angepasst werden. Dazu können die Posenbestimmungsvorrichtung 6 und die Grafikeinheit 8 miteinander Daten austauschen. Die Grafikeinheit 8 kann wie im Beispiel dargestellt Bestandteil der Augmented-Reality-Brille 1 sein oder über eine Schnittstelle mit der Augmented-Reality-Brille 1 verbunden sein. Vorzugsweise weist die Augmented-Reality-Brille 1 eine Lichtquelle 7 zum Beleuchten der Umgebung auf, um so auch bei schlechten Lichtverhältnissen eine Posenbestimmung durchführen zu können. Die von der Grafikeinheit 8 generierte Anzeige wird durch eine Projektionseinheit 9 eingeblendet.
  • 3 zeigt schematisch ein Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille. In einem ersten Schritt werden Umgebungsdaten einer Umgebung der Augmented-Reality-Brille erfasst 10, wobei nur Licht einer bestimmten Polarisation durch die optische Erfassungsvorrichtung erfasst wird. Die optische Erfassungsvorrichtung kann beispielsweise eine Kamera sein, die Bilddaten der Umgebung aufnimmt. Anhand der Umgebungsdaten wird dann eine Pose der Augmented-Reality-Brille bestimmt 11. Dazu können z.B. Kanten oder markante Punkte in den Bilddaten detektiert und ausgewertet werden. Die Anzeige der Augmented-Reality-Brille wird schließlich entsprechend der ermittelten Pose angepasst 12, so dass beispielsweise sichtbare Objekte optisch korrekt mit dargestellten Objekten überlagert werden.
  • 4 zeigt eine vereinfachte schematische Darstellung einer ersten Ausführungsform einer Posenbestimmungsvorrichtung 6. Die Posenbestimmungsvorrichtung 6 hat einen Eingang 21, über den Bilddaten der Kamera 3 der Augmented-Reality-Brille empfangen werden können. Die Vorrichtung 20 hat zudem eine Bildverarbeitungseinheit 22 zum Detektieren von Kanten oder markanten Punkten in den Bilddaten. Eine Analyseeinheit 23 ermittelt aus den Kanten oder markanten Punkten die Pose der Augmented-Reality-Brille. Über einen Ausgang 26 der Posenbestimmungsvorrichtung 6 werden Informationen zur ermittelten Pose an eine Grafikeinheit 8 ausgegeben. Die Grafikeinheit 8 kann dann die Anzeige der Augmented-Reality-Brille entsprechend der ermittelten Pose anpassen. Die Anzeige der Augmented-Reality-Brille wird dabei derart angepasst, dass sichtbare Objekte optisch korrekt mit dargestellten Objekten überlagert werden. Die Grafikeinheit 8 kann Bestandteil der Augmented-Reality-Brille sein oder über eine Schnittstelle mit der Augmented-Reality-Brille verbunden sein.
  • Die Bildverarbeitungseinheit 22 und die Analyseeinheit 23 können von einer Kontrolleinheit 24 gesteuert werden. Über eine Benutzerschnittstelle 27 können gegebenenfalls Einstellungen der Bildverarbeitungseinheit 22, der Analyseeinheit 23 oder der Kontrolleinheit 24 geändert werden. Die in der Vorrichtung 20 anfallenden Daten können bei Bedarf in einem Speicher 25 der Vorrichtung 20 abgelegt werden, beispielsweise für eine spätere Auswertung oder für eine Nutzung durch die Komponenten der Vorrichtung 20. Die Bildverarbeitungseinheit 22, die Analyseeinheit 23 sowie die Kontrolleinheit 24 können als dedizierte Hardware realisiert sein, beispielsweise als integrierte Schaltungen. Natürlich können sie aber auch teilweise oder vollständig kombiniert oder als Software implementiert werden, die auf einem geeigneten Prozessor läuft, beispielsweise auf einer GPU. Der Eingang 21 und der Ausgang 26 können als getrennte Schnittstellen oder als eine kombinierte bidirektionale Schnittstelle implementiert sein. Die Posenbestimmungsvorrichtung 6 kann Bestandteil der Augmented-Reality-Brille sein oder über eine Schnittstelle mit der Augmented-Reality-Brille verbunden sein.
  • 5 zeigt eine vereinfachte schematische Darstellung einer zweiten Ausführungsform einer Posenbestimmungsvorrichtung 6. Die Posenbestimmungsvorrichtung 6 weist einen Prozessor 32 und einen Speicher 31 auf. Beispielsweise handelt es sich bei der Vorrichtung 30 um einen Computer oder ein Steuergerät. Die Posenbestimmungsvorrichtung 6 hat einen Eingang 33 zum Empfangen von Informationen, beispielsweise von Bilddaten der Kamera der Augmented-Reality-Brille. Im Speicher 31 sind Instruktionen abgelegt, die die Posenbestimmungsvorrichtung 6 bei Ausführung durch den Prozessor 32 veranlassen, Kanten oder markante Punkte in den Bilddaten zu detektieren und aus den Kanten oder markanten Punkten die Pose der Augmented-Reality-Brille zu ermitteln. Die im Speicher 31 abgelegten Instruktionen verkörpern somit ein durch den Prozessor 32 ausführbares Programm, welches das erfindungsgemäße Verfahren realisiert. Vom Prozessor 32 generierte Daten werden über einen Ausgang 34 bereitgestellt. Darüber hinaus können sie im Speicher 31 abgelegt werden. Der Eingang 33 und der Ausgang 34 können zu einer bidirektionalen Schnittstelle zusammengefasst sein.
  • Der Prozessor 32 kann eine oder mehrere Prozessoreinheiten umfassen, beispielsweise Mikroprozessoren, digitale Signalprozessoren oder Kombinationen daraus.
  • Die Speicher 25, 31 der beschriebenen Ausführungsformen können sowohl volatile als auch nichtvolatile Speicherbereiche aufweisen und unterschiedlichste Speichergeräte und Speichermedien umfassen, beispielsweise Festplatten, optische Speichermedien oder Halbleiterspeicher.
  • 6 stellt schematisch ein Kraftfahrzeug 40 dar, in dem eine erfindungsgemäße Lösung realisiert ist. In diesem Beispiel ist die Posenbestimmungsvorrichtung 6 im Kraftfahrzeug 40 realisiert und nicht Bestandteil der Augmented-Reality-Brille 1. Über eine Schnittstelle (nicht dargestellt) kann eine erfindungsgemäße Augmented-Reality-Brille 1 mit der Posenbestimmungsvorrichtung 6 drahtlos oder drahtgebunden verbunden werden. Die Frontscheibe 41 und die Seitenscheiben 42 sowie sonstige Scheiben sind mit einer polarisationsfilternden Schicht 43 versehen, so dass in Kombination mit der polarisationsselektiven optischen Erfassungsvorrichtung der Augmented-Reality-Brille 1 ausschließlich der Fahrzeuginnenraum für die Posenbestimmung erfasst wird. Der Einfachheit halber ist in der Figur nur die polarisationsfilternde Schicht 43 auf der Frontscheibe 41 dargestellt. Das Kraftfahrzeug 40 weist zudem eine Kamera 44, ein Navigationssystem 45, eine Datenübertragungseinheit 46 sowie eine Reihe von Assistenzsystemen 47 auf, von denen eines exemplarisch dargestellt ist. Mittels der Datenübertragungseinheit 46 kann eine Verbindung zu Dienstanbietern aufgebaut werden. Zur Speicherung von Daten ist ein Speicher 48 vorhanden. Der Datenaustausch zwischen den verschiedenen Komponenten des Kraftfahrzeugs 40 erfolgt über ein Netzwerk 49. Aus den Daten der verschiedenen Fahrzeugsysteme wird von einer Grafikeinheit 8 eine Anzeige für die Augmented-Reality-Brille 1 berechnet. In 6 ist die Grafikeinheit im Kraftfahrzeug 40 realisiert, sie kann aber auch Bestandteil der Augmented-Reality-Brille 1 sein.
  • 7 zeigt ein Beispiel einer Augmented-Reality-Darstellung einer Augmented-Reality-Brille. Der tatsächlichen Umgebung sind eine Reihe von Elementen überlagert, zum Teil in kontaktanaloger Darstellung. Im Beispiel in 7 sind dies eine aktuelle Geschwindigkeit und eine Markierung 50, die ein vorausfahrendes Fahrzeug 51 zur Visualisierung eines ACC-Systemstatus (ACC: Adaptive Cruise Control; Adaptive Geschwindigkeitsregelung) markiert. Daneben können Navigationsinformationen, Warnhinweise oder andere Elemente angezeigt werden. Für die konkrete Gestaltung der Darstellung stehen dem Fachmann vielfältige Gestaltungsmöglichkeiten zur Verfügung.
  • Bezugszeichenliste
  • 1
    Augmented-Reality-Brille
    2
    Optische Erfassungsvorrichtung
    3
    Kamera
    4
    Polarisationsfilter
    5
    Schnittstelle
    6
    Posenbestimmungsvorrichtung
    7
    Lichtquelle
    8
    Grafikeinheit
    9
    Projektionseinheit
    10
    Erfassen von Umgebungsdaten der Augmented-Reality-Brille
    11
    Bestimmen einer Pose der Augmented-Reality-Brille
    12
    Anpassen einer Anzeige der Augmented-Reality-Brille
    21
    Eingang
    22
    Bildverarbeitungseinheit
    23
    Analyseeinheit
    24
    Kontrolleinheit
    25
    Speicher
    26
    Ausgang
    27
    Benutzerschnittstelle
    31
    Speicher
    32
    Prozessor
    33
    Eingang
    34
    Ausgang
    40
    Kraftfahrzeug
    41
    Frontscheibe
    42
    Seitenscheiben
    43
    Polarisationsfilternde Schicht
    44
    Kamera
    45
    Navigationssystem
    46
    Datenübertragungseinheit
    47
    Assistenzsystem
    48
    Speicher
    49
    Netzwerk
    50
    Markierung
    51
    Vorausfahrendes Fahrzeug
  • Referenzen
    1. [1] Guy Berg: „Das Vehicle in the Loop - Ein Werkzeug für die Entwicklung und Evaluation von sicherheitskritischen Fahrerassistenzsystemen“, Dissertation an der Fakultät für Luft- und Raumfahrttechnik der Universität der Bundeswehr München (2014), http://athene-forschung.unibw.de/node?id=97267
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102014217963 A1 [0010]

Claims (12)

  1. Augmented-Reality-Brille (1) mit: - einer optischen Erfassungsvorrichtung (2) zum Erfassen (10) von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille (1); und - einer Schnittstelle (5) zu einer Posenbestimmungsvorrichtung (6) zum Bestimmen (11) einer Pose der Augmented-Reality-Brille (1) anhand der Umgebungsdaten; dadurch gekennzeichnet, dass die optische Erfassungsvorrichtung (2) eingerichtet ist, nur Licht einer definierten Polarisation zu erfassen.
  2. Augmented-Reality-Brille (1) gemäß Anspruch 1, wobei die optische Erfassungsvorrichtung (2) einen Polarisationsfilter (4) aufweist.
  3. Augmented-Reality-Brille (1) gemäß Anspruch 1 oder 2, wobei die optische Erfassungsvorrichtung (2) eingerichtet ist, nur horizontal, vertikal oder zirkular polarisiertes Licht zu erfassen.
  4. Augmented-Reality-Brille (1) gemäß einem der vorherigen Ansprüche, wobei die optische Erfassungsvorrichtung (2) mindestens eine Kamera (3) zum Erfassen von Bilddaten der Umgebung der Augmented-Reality-Brille (1) aufweist.
  5. Augmented-Reality-Brille (1) gemäß Anspruch 1, wobei die Posenbestimmungsvorrichtung (6) eingerichtet ist, zum Bestimmen (11) der Pose der Augmented-Reality-Brille (1) Kanten oder markante Punkte in den Bilddaten zu detektieren und auszuwerten.
  6. Augmented-Reality-Brille (1) gemäß einem der vorherigen Ansprüche, wobei die Augmented-Reality-Brille (1) eine Lichtquelle (7) zum Beleuchten der Umgebung aufweist.
  7. Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille (1), mit den Schritten: - Erfassen (10) von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille (1) mit einer optischen Erfassungsvorrichtung (2); und - Bestimmen (11) einer Pose der Augmented-Reality-Brille (1) anhand der Umgebungsdaten; dadurch gekennzeichnet, dass beim Erfassen der Umgebungsdaten nur Licht einer bestimmten Polarisation durch die optische Erfassungsvorrichtung (2) erfasst wird.
  8. Verfahren gemäß Anspruch 7, wobei die optische Erfassungsvorrichtung (2) mittels mindestens einer Kamera (3) Bilddaten der Umgebung der Augmented-Reality-Brille (1) erfasst (10).
  9. Verfahren gemäß Anspruch 8, wobei zum Bestimmen (11) der Pose der Augmented-Reality-Brille (1) Kanten oder markante Punkte in den Bilddaten detektiert und ausgewertet werden.
  10. Kraftfahrzeug (20) mit einer Anzahl von Scheiben (21, 22), dadurch gekennzeichnet, dass die Scheiben (21, 22) eingerichtet sind, Licht einer bestimmten Polarisation abzublocken.
  11. Kraftfahrzeug (20) gemäß Anspruch 10, wobei die Scheiben (21, 22) eine polarisationsfilternde Schicht (23) aufweisen.
  12. System aus einer Augmented-Reality-Brille (1) gemäß einem der Ansprüche 1 bis 6 und einem Kraftfahrzeug (20) gemäß Anspruch 10 oder 11.
DE102017215163.3A 2017-08-30 2017-08-30 System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs Active DE102017215163B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102017215163.3A DE102017215163B4 (de) 2017-08-30 2017-08-30 System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs
PCT/EP2018/072156 WO2019042778A1 (de) 2017-08-30 2018-08-15 Augmented-reality-brille, verfahren zum bestimmen einer pose einer augmented-reality-brille, zur nutzung der augmented-reality-brille oder des verfahrens geeignetes kraftfahrzeug
US16/641,710 US10969579B2 (en) 2017-08-30 2018-08-15 Augmented reality glasses, method for determining a pose of augmented reality glasses, and transportation vehicle suitable for using the augmented reality glasses or the method
CN201880056379.4A CN110998409A (zh) 2017-08-30 2018-08-15 增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017215163.3A DE102017215163B4 (de) 2017-08-30 2017-08-30 System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs

Publications (2)

Publication Number Publication Date
DE102017215163A1 true DE102017215163A1 (de) 2019-02-28
DE102017215163B4 DE102017215163B4 (de) 2019-04-11

Family

ID=63254712

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017215163.3A Active DE102017215163B4 (de) 2017-08-30 2017-08-30 System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs

Country Status (4)

Country Link
US (1) US10969579B2 (de)
CN (1) CN110998409A (de)
DE (1) DE102017215163B4 (de)
WO (1) WO2019042778A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881719A (zh) * 2020-06-09 2020-11-03 青岛奥美克生物信息科技有限公司 非接触式生物识别引导装置、方法以及生物特征识别***
WO2021223959A1 (de) * 2020-05-06 2021-11-11 Audi Ag 6 degree of freedom (6dof) tracking von mobilen head mounted displays (hmd)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7384014B2 (ja) * 2019-12-06 2023-11-21 トヨタ自動車株式会社 表示システム
DE102020105196A1 (de) * 2020-02-27 2021-09-02 Audi Aktiengesellschaft Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer Datenbrille
CN112631431B (zh) * 2021-01-04 2023-06-16 杭州光粒科技有限公司 Ar眼镜的位姿确定方法、装置及设备、存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1938480U (de) * 1966-01-15 1966-05-12 Peter Dr Ing Artelt Vorrichtung zum blendschutz vor kraftfahrzeugen.
DE102006013700B3 (de) * 2006-03-24 2007-10-11 Robert Bosch Gmbh Einrichtung an einem Fahrzeug zur Verhinderung der Blendung
DE102014217963A1 (de) 2014-09-09 2016-03-10 Bayerische Motoren Werke Aktiengesellschaft Posenbestimmung einer Datenbrille mithilfe von passiven IR-Markern

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219810A (ja) * 1996-02-09 1997-08-19 Toyota Motor Corp 移動体のキャビン内撮影装置
DE102005058240A1 (de) 2005-12-06 2007-06-14 Siemens Ag Trackingsystem und Verfahren zur Posenbestimmung
DE102006006001B3 (de) 2006-02-08 2007-10-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Anordnung zum Einblenden ortsbezogener Informationen in eine visuelle Darstellung oder Ansicht einer Szene
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
DE102014213021A1 (de) * 2014-07-04 2016-01-07 Bayerische Motoren Werke Aktiengesellschaft Lokalisierung eines HMD im Fahrzeug
DE102014217961A1 (de) 2014-09-09 2016-03-10 Bayerische Motoren Werke Aktiengesellschaft Bestimmung der Pose eines HMD
DE102014225222A1 (de) * 2014-12-09 2016-06-09 Bayerische Motoren Werke Aktiengesellschaft Bestimmung der Position eines HMD relativ zum Kopf des Trägers
US10394029B2 (en) * 2016-04-04 2019-08-27 Akonia Holographics, Llc Field of view enhancement
US10625580B1 (en) * 2016-08-26 2020-04-21 Apple Inc. Systems with adjustable windows
US20190018255A1 (en) * 2017-07-11 2019-01-17 Google Llc Compact near-eye optical system including a refractive beam-splitting convex lens
US10678056B2 (en) * 2018-02-26 2020-06-09 Google Llc Augmented reality light field head-mounted displays

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1938480U (de) * 1966-01-15 1966-05-12 Peter Dr Ing Artelt Vorrichtung zum blendschutz vor kraftfahrzeugen.
DE102006013700B3 (de) * 2006-03-24 2007-10-11 Robert Bosch Gmbh Einrichtung an einem Fahrzeug zur Verhinderung der Blendung
DE102014217963A1 (de) 2014-09-09 2016-03-10 Bayerische Motoren Werke Aktiengesellschaft Posenbestimmung einer Datenbrille mithilfe von passiven IR-Markern

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021223959A1 (de) * 2020-05-06 2021-11-11 Audi Ag 6 degree of freedom (6dof) tracking von mobilen head mounted displays (hmd)
CN111881719A (zh) * 2020-06-09 2020-11-03 青岛奥美克生物信息科技有限公司 非接触式生物识别引导装置、方法以及生物特征识别***
CN111881719B (zh) * 2020-06-09 2024-04-16 青岛奥美克生物信息科技有限公司 非接触式生物识别引导装置、方法以及生物特征识别***

Also Published As

Publication number Publication date
WO2019042778A1 (de) 2019-03-07
DE102017215163B4 (de) 2019-04-11
US10969579B2 (en) 2021-04-06
CN110998409A (zh) 2020-04-10
US20200218065A1 (en) 2020-07-09

Similar Documents

Publication Publication Date Title
DE102017215163B4 (de) System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs
EP3765324B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug
EP3129820A1 (de) Lokalisierung eines head-mounted displays (hmd) im fahrzeug
DE102017216774B4 (de) Verfahren, Vorrichtung, computerlesbares Speichermedium und Kraftfahrzeug mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug
EP3762684A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
EP3298474A1 (de) Verfahren zum betreiben einer datenbrille in einem kraftfahrzeug und system mit einer datenbrille
DE102017107396A1 (de) Testverfahren und Testvorrichtung für Fahrerassistenzsysteme
DE102012218837A1 (de) Anzeigen von Darstellungen auf einem Head-Up Display und einem Head-mounted Display
DE102017222534B3 (de) Verfahren, computerlesbares Speichermedium mit Instruktionen, Vorrichtung und System zum Einmessen einer Augmented-Reality-Brille in einem Fahrzeug, für das Verfahren geeignetes Fahrzeug und für das Verfahren geeignete Augmented-Reality-Brille
DE102017216775A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-Up-Display-Vorrichtung für ein Kraftfahrzeug
DE102016225639A1 (de) Head-up-Display-Vorrichtung für ein Kraftfahrzeug, Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Head-up-Display-Vorrichtung
EP2888623B1 (de) Betreiben eines head-up-displays eines fahrzeugs und bildermittlungssystem für das head-up-display
DE102017215161A1 (de) Verfahren und Vorrichtung zur Anwahl von einem Umgebungsobjekt im Umfeld eines Fahrzeugs
DE102014207398A1 (de) Objektassoziation zur kontaktanalogen Anzeige auf einem HMD
DE102018204325A1 (de) Verfahren, Vorrichtung und Fortbewegungsmittel für eine kinetosevermeidende, virtuelle Darstellung von Multimediainhalten in einem Fortbewegungsmittel
WO2019091688A1 (de) System und verfahren zum bestimmen einer pose einer augmented-reality-brille, system und verfahren zum einmessen einer augmented-reality-brille, verfahren zum unterstützen einer posenbestimmung einer augmented-reality-brille und für das verfahren geeignetes kraftfahrzeug
DE102018201769B4 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug
DE102013016249A1 (de) Verfahren und Vorrichtung zur Darstellung von Navigationshinweisen
EP2756490B1 (de) Verfahren und vorrichtung zur darstellung einer verkehrszeicheninformation
EP3361355A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung
DE102019201134B4 (de) Verfahren, Computerprogramm mit Instruktionen und System zum Einmessen einer Augmented-Reality-Brille und Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug
EP3948161A1 (de) Verfahren zur zielführung zu einer zielperson, elektronische vorrichtung der zielperson und elektronische vorrichtung des abholers sowie kraftfahrzeug
DE102018200312B4 (de) Verfahren, Vorrichtung und Computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-Up-Display-Vorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug mit einer solchen Vorrichtung
DE102017215024A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Bereitstellen von Informationen für eine Head-Up-Display-Vorrichtung für ein Kraftfahrzeug
DE102017200744A1 (de) Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final