WO2019228780A1 - Konzept für die steuerung einer anzeige eines mobilen augmented-reality-gerätes - Google Patents
Konzept für die steuerung einer anzeige eines mobilen augmented-reality-gerätes Download PDFInfo
- Publication number
- WO2019228780A1 WO2019228780A1 PCT/EP2019/061983 EP2019061983W WO2019228780A1 WO 2019228780 A1 WO2019228780 A1 WO 2019228780A1 EP 2019061983 W EP2019061983 W EP 2019061983W WO 2019228780 A1 WO2019228780 A1 WO 2019228780A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- display
- navigation
- user
- augmented reality
- path
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 74
- 230000003068 static effect Effects 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 claims abstract description 21
- 230000006978 adaptation Effects 0.000 claims abstract description 11
- 230000000007 visual effect Effects 0.000 claims description 12
- 230000000153 supplemental effect Effects 0.000 claims description 2
- 239000011521 glass Substances 0.000 description 12
- 230000015654 memory Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 4
- 230000001404 mediated effect Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3632—Guidance using simplified or iconic instructions, e.g. using arrows
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Definitions
- AR ads can also be generated using augmented reality smartphones or augmented reality tablets.
- virtual elements are displayed on the display of the respective device together with the environment recorded by a camera of the respective device. It is also possible to project content into the real environment.
- the processor 32 may include one or more processing units, such as microprocessors, digital signal processors, or combinations thereof.
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
Abstract
Ein Verfahren, eine Vorrichtung und ein computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes eines Nutzers. Zunächst wird eine statische Navigationsanzeige für ein Ziel generiert (10), die ortsfest in einer realen Umgebung positioniert ist. Wird nun eine Situation erfasst (11), die eine Anpassung der Anzeige des mobilen Augmented-Reality-Gerätes erfordert, so wird eine an die Situation angepasste statische Navigationsanzeige oder eine ergänzende Navigationsanzeige generiert (12).
Description
Beschreibung
Konzept für die Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes
Die vorliegende Erfindung betrifft ein Verfahren, eine Vorrichtung und ein computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige eines mobilen Augmented- Reality-Gerätes eines Nutzers. Die Erfindung betrifft weiterhin ein mobiles Augmented- Reality-Gerät, in dem ein erfindungsgemäßes Verfahren oder eine erfindungsgemäße Vorrichtung eingesetzt wird.
Bereits seit Jahren lässt sich eine zunehmende Verbreitung digitaler Technologien in der Gesellschaft feststellen. Es steht zu erwarten, dass diese Digitalisierung der Gesellschaft im Alltag deutlich zunehmen wird. Virtual- und Augmented-Reality-Technologien
und -Anwendungen stellen eine besondere Ausprägung der Digitalisierung dar. Bei Augmented Reality (AR), auf Deutsch„erweiterte Realität“, handelt es sich um die
Anreicherung der realen Welt durch virtuelle Elemente, die im dreidimensionalen Raum ortskorrekt registriert sind und eine Echtzeitinteraktion erlauben. Da sich in der Fachwelt im deutschsprachigen Raum der Ausdruck„Augmented Reality“ gegenüber dem Ausdruck „erweiterte Realität“ durchgesetzt hat, wird im Folgenden ersterer benutzt. Synonym wird auch der Ausdruck„Mixed Reality“ verwendet. Für die Darstellung von AR-Anzeigen können beispielsweise Augmented-Reality-Brillen genutzt werden. Eine Augmented-Reality-Brille wird wie eine normale Brille getragen, weist aber eine oder mehrere Projektionseinheiten oder Anzeigen auf, mit deren Hilfe dem Träger der Brille Informationen vor die Augen oder direkt auf die Netzhaut projiziert werden können. Die Brille ist dabei so gestaltet, dass der Träger auch die Umgebung wahrnehmen kann. Neue Technologien für Augmented-Reality- Brillen, beispielsweise Lichtfeldtechnologie, Fortschritte in der verwendeten Batterietechnik sowie der Einstieg großer Unternehmen in diese lassen eine steigende Akzeptanz dieser Geräte erwarten.
Alternativ können AR-Anzeigen auch mittels Augmented-Reality-Smartphones oder Augmented-Reality-Tablets generiert werden. Dabei werden virtuelle Elemente auf dem Display des jeweiligen Gerätes zusammen mit der von einer Kamera des jeweiligen Gerätes aufgenommenen Umgebung angezeigt. Auch eine Projektion von Inhalten in die reale Umgebung ist möglich.
Insgesamt ist absehbar, dass Augmented-Reality-Brillen, Augmented-Reality-Smartphones und andere Augmented-Reality-Geräte bei Endkunden zunehmend stärker im Einsatz sein
werden. Ein wesentlicher Anwendungsfall für portable Augmented-Reality-Systeme ist die Navigation, sowohl in Fortbewegungsmitteln als auch außerhalb von Fortbewegungsmitteln. Die Ausgabe von Navigationsanweisungen kann dabei durch einfache
Bewegungsanweisungen erfolgen, z.B. in Form von Richtungspfeilen oder auch
Hinweistexten.
In diesem Zusammenhang beschreibt die EP 2 960 630 A2 eine Augmented-Reality-Brille mit einer Kamera, einer Ausgabeeinheit und einer Steuerung. Mittels der Ausgabeeinheit werden Routenführungsinformationen für einen Nutzer in Form von Anweisungen
ausgegeben. Die Steuerung erfasst Informationen über eine aktuelle Position und veranlasst, dass die Ausgabeeinheit die Routenführungsinformationen für eine Route von der aktuellen Position zu einem Ziel ausgibt. Die Steuerung erhält von der Kamera visuelle Informationen in Echtzeit, während die Routenführungsinformationen ausgegeben wird, und aktualisiert die Routenführungsinformationen in Echtzeit basierend auf den erfassten visuellen
Informationen.
Eine weitere Möglichkeit besteht darin, dass ein visueller Pfad in die Umgebung
eingeblendet wird, dem der Nutzer folgen soll.
In diesem Zusammenhang beschreibt die DE 10 2017 11 1 843 A1 ein System, um einen Nutzer mittels Gehanweisungen in erweiterter Realität dynamisch von einem gegenwärtigen Nutzerstandort zu einem Abholungsort eines autonom fahrenden Fahrzeugs zu führen. Die Gehanweisungen werden dem Nutzer auf einem Display einer mobilen oder tragbaren Nutzervorrichtung präsentiert. Die Gehanweisungen in Form von Fußspuren oder Linien werden in Echtzeit dynamisch erzeugt und ändern sich, während sich der Nutzer mit der tragbaren Nutzervorrichtung bewegt.
Insbesondere bei der Fußgängernavigation kann nicht davon ausgegangen werden, dass Personen exakt auf dem vom Navigationssystem vorgeschlagenen Pfad entlang gehen, der durch das Augmented-Reality-Gerät angezeigt wird. Dabei kann es passieren, dass der Anwender so weit von einem fest in der Welt verödeten statischen Navigationspfad abweicht, dass der Pfad aufgrund der Entfernung irgendwann nicht mehr erkennbar ist.
Daher ist eine Anpassung des Pfades an die räumliche Position und Orientierung des Anwenders sinnvoll.
Eine Augmented-Reality-Anzeige zeichnet sich dadurch aus, dass sie interaktiv ist, d.h. dass das angezeigte Bild eine Mindestbildwiederholrate hat. Üblicherweise werden ca. 60 Bilder
pro Sekunde generiert. Für jedes einzelne Bild wird die in dem Moment eingenommene Position und Orientierung des Nutzers zur Generierung der Augmented-Reality-Anzeige verwendet. Eine wesentliche Eigenschaft einer Augmented-Reality-Navigationsanzeige ist es, dass der Anwender die Botschaft intuitiv versteht, dabei die Augmented-Reality-Anzeige jedoch nicht als aufdringlich, sondern als harmonisch in die Umgebung eingebettet wahrnimmt. Daher ist es keine Lösung, den Navigationspfad für jedes berechnete Einzelbild von der aktuellen Kameraperspektive des Betrachters ausgehen zu lassen. Der Anwender würde durch den sich ständig und sehr schnell verändernden Pfad irritiert und abgelenkt, der Navigationspfad würde daher nicht als harmonisch in die Umgebung integriertes Objekt wahrgenommen.
Es ist eine Aufgabe der Erfindung, ein verbessertes Konzept für die Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes bereitzustellen.
Diese Aufgabe wird durch Verfahren mit den Merkmalen des Anspruchs 1 , durch ein computerlesbares Speichermedium mit Instruktionen gemäß Anspruch 8, durch eine
Vorrichtung mit den Merkmalen des Anspruchs 9 sowie durch ein mobiles Augmented- Reality-Gerät mit den Merkmalen des Anspruchs 10 gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.
Gemäß einem ersten Aspekt der Erfindung umfasst ein Verfahren zur Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes eines Nutzers die Schritte:
- Generieren einer statischen Navigationsanzeige für ein Ziel, die ortsfest in einer realen Umgebung positioniert ist;
- Erfassen einer Situation, die eine Anpassung der Anzeige des mobilen Augmented-Reality- Gerätes erfordert; und
- Generieren einer an die Situation angepassten statischen Navigationsanzeige oder einer ergänzenden Navigationsanzeige.
Entsprechend enthält ein computerlesbares Speichermedium Instruktionen, die bei
Ausführung durch einen Computer den Computer zur Ausführung der folgenden Schritte zur Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes eines Nutzers veranlassen:
- Generieren einer statischen Navigationsanzeige für ein Ziel, die ortsfest in einer realen Umgebung positioniert ist;
- Erfassen einer Situation, die eine Anpassung der Anzeige des mobilen Augmented-Reality- Gerätes erfordert; und
- Generieren einer an die Situation angepassten statischen Navigationsanzeige oder einer ergänzenden Navigationsanzeige.
Der Begriff Computer ist dabei breit zu verstehen. Insbesondere umfasst er auch
Workstations, verteilte Systeme und andere prozessorbasierte
Datenverarbeitungsvorrichtungen.
Analog dazu weist eine Vorrichtung zur Steuerung einer Anzeige eines mobilen Augmented- Reality-Gerätes eines Nutzers auf:
- einen Grafikgenerator zum Generieren einer statischen Navigationsanzeige für ein Ziel, die ortsfest in einer realen Umgebung positioniert ist; und
- eine Sensorik zum Erfassen einer Situation, die eine Anpassung der Anzeige des mobilen Augmented-Reality-Gerätes erfordert;
wobei der Grafikgenerator eingerichtet ist, eine an die Situation angepasste statische Navigationsanzeige oder eine ergänzende Navigationsanzeige zu generieren.
Die erfindungsgemäße Lösung basiert auf der Idee, die statische, ortsfest in der realen Umgebung positionierte Navigationsanzeige nicht kontinuierlich neu zu erstellen und einzublenden, sondern vielmehr kontinuierlich zu überprüfen, ob eine Anpassung der Anzeige erforderlich ist und abhängig vom Ergebnis eine angepasste Anzeige zu generieren. Auf diese Weise ist die Navigationsanzeige räumlich fest in der realen Welt registriert bzw. fest in der Welt verortet, dennoch hat der Nutzer die Möglichkeit der freien Bewegung auch abseits des angezeigten Pfades. Tritt bei dieser freien Bewegung die Situation auf, dass eine Anpassung der Anzeige erforderlich wird, beispielweise weil sich der Nutzer zu weit vom angezeigten Pfad entfernt, wird schließlich eine angepasste statische Navigationsanzeige oder eine ergänzende Navigationsanzeige generiert und angezeigt. Durch die situative Anpassung der Anzeige wird verhindert, dass sich der angezeigte Pfad ständig und sehr schnell verändert.
Gemäß einem Aspekt der Erfindung wird die Situation, die eine Anpassung der Anzeige des mobilen Augmented-Reality-Gerätes erfordert, auf Basis einer Nutzereingabe erfasst. Die Nutzereingabe kann beispielsweise darin bestehen, dass der Nutzer eine definierte
Blickgeste oder Handgeste ausführt oder einen Sprachbefehl erteilt. Beispielsweise kann die Anpassung erfolgen, wenn der Nutzer für einen gewissen Zeitraum auf seine Füße blickt. Anhand von Nutzereingaben lässt sich sehr leicht feststellen, wann eine Anpassung der Anzeige vorgenommen werden soll, so dass keine rechenaufwändige Auswertung erforderlich ist. Gleichzeitig hat diese Lösung den Vorteil, dass der Nutzer selbst bestimmt,
wann er eine Anpassung der Anzeige wünscht, d.h. der Nutzer wird nicht mit für ihn eventuell unnötigen Anpassungen konfrontiert.
Gemäß einem Aspekt der Erfindung ist die ergänzende Navigationsanzeige ein temporärer Navigationspfad in Richtung des Zieles, ein Kompass oder ein Richtungspfeil. Dieser Ansatz ist besonders vorteilhaft, wenn anstelle eines Pfades die Navigationsinformationen nur situativ angezeigt werden. Durch die situativen Informationen wird die Anzeige unnötiger Informationen vermieden, gleichzeitig ist auch kein ständiges Anpassen des Pfades erforderlich. Beispielsweise können Abbiegungen durch einen gekrümmten Pfad nur an der entsprechenden Ecke oder Kurve angedeutet werden. Sollte der Nutzer die Orientierung verlieren, kann dieser z.B. durch eine Nutzereingabe einen temporären Pfad erscheinen lassen. Dieser illustriert den zurückzulegenden Weg zur nächsten Navigationssituation, blendet sich nach einer gewissen Zeit aber wieder aus. Anstelle eines temporären Pfades kann auch eine Art Kompass eingeblendet werden, der in Richtung der nächsten
Navigationssituation zeigt.
Gemäß einem Aspekt der Erfindung ist die ergänzende Navigationsanzeige ein visuelles Signal mit einer Richtungscharakteristik. Diese Lösung hat den Vorteil, dass die durch die mittels der Richtungscharakteristik vermittelte Richtungsangabe vom Nutzer intuitiv erfasst wird. Beispielsweise kann ein kurzes Aufblitzen des Bildschirms auf einem oder beiden Augen oder einem Bildschirmsegment erfolgen, durch welches die erforderliche Drehrichtung oder Laufrichtung vermittelt wird. Dieses Aufblitzen kann eine relativ grobe Richtungsangabe vermitteln, z.B. lediglich eine Unterscheidung zwischen links und rechts. Es kann aber auch feiner positioniert sein, um genauere Richtungsangaben zu machen, bis hin zu einer Art Stereo-Blitz für beide Augen, der räumlich positioniert erscheint.
Gemäß einem Aspekt der Erfindung ist eine durch das Augmented-Reality-Gerät
augmentierbare Fläche in der realen Umgebung in Teilflächen unterteilt, wobei die statische Navigationsanzeige ein von einer ersten Teilfläche ausgehender Navigationspfad in Richtung des Zieles ist. Es wird nun erfasst, dass der Nutzer von einer ersten Teilfläche in eine zweite Teilfläche wechselt. Daraufhin wird der von der ersten Teilfläche ausgehende
Navigationspfad ausgeblendet und ein von der zweiten Teilfläche ausgehender
Navigationspfad eingeblendet. Bei dieser Lösung wird die augmentierbare Fläche in
Abschnitte bzw. Teilflächen fester Größe eingeteilt, sogenannte Kacheln. Es wird nun ein Navigationspfad angezeigt, der statisch und fest mit der Umgebung verbunden ist, d.h.
Anfangspunkt und Endpunkt sind fest. Verlässt der Betrachter eine Kachel und betritt die nächste, so wird der aktuelle Navigationspfad ausgeblendet. Dies kann ohne eine oder mit
einer Animation erfolgen, beispielsweise kann der aktuelle Navigationspfad immer transparenter werden. Während der von der alten Kachel ausgehende Navigationspfad ausblendet, wird der Navigationspfad für die neue Kachel berechnet und eingeblendet. Dabei ist es sinnvoll, wenn zu keinem Zeitpunkt zwei gleichwertige Pfade sichtbar sind, um
Verwirrung zu vermeiden. Der alte Navigationspfad wird zunächst sehr weit ausgeblendet, bevor der neue Navigationspfad dargestellt wird. Ein Vorteil dieses Ansatzes besteht darin, dass sich der Nutzer nicht so weit vom Navigationspfad entfernen kann, dass es zu
Problemen mit der Erkennbarkeit kommt, gleichzeitig aber auch kein ständiges, störendes Anpassen des Pfades erfolgt.
Gemäß einem Aspekt der Erfindung wird der Navigationspfad lediglich zwischen der ersten Teilfläche und einem Zwischenziel ausgeblendet und zwischen der zweiten Teilfläche und dem Zwischenziel eingeblendet. Diese Lösung reduziert das Anpassen des
Navigationspfades auf einen verhältnismäßig kleinen Abschnitt, da der Pfad zwischen dem Zwischenziel und dem Ziel beibehalten wird. Auf diese Weise ist die Anpassung des Pfades für den Nutzer weniger auffällig und daher weniger störend.
Besonders vorteilhaft wird ein erfindungsgemäßes Verfahren oder eine erfindungsgemäße Vorrichtung in einem mobilen Augmented-Reality-Gerät eingesetzt, beispielsweise in einer Augmented-Reality-Brille, in einem Augmented-Reality-Smartphone oder in einem
Augmented-Reality-Tablet.
Weitere Merkmale der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung und den angehängten Ansprüchen in Verbindung mit den Figuren ersichtlich.
Fig. 1 zeigt schematisch eine Augmented-Reality-Brille;
Fig. 2 zeigt schematisch einen fest in der Welt verödeten statischen Navigationspfad auf einem mobilen Augmented-Reality-Gerät;
Fig. 3 zeigt den fest in der Welt verödeten statischen Navigationspfad bei großer
Entfernung des Nutzers vom Navigationspfad;
Fig. 4 zeugt schematisch ein Vedahren zur Steuerung einer Anzeige eines mobilen
Augmented-Reality-Gerätes eines Nutzers;
Fig. 5 zeigt schematisch eine erste Ausführungsform einer Vorrichtung zur Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes eines Nutzers;
Fig. 6 zeigt schematisch eine zweite Ausführungsform einer Vorrichtung zur Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes eines Nutzers;
Fig. 7 zeigt eine situative Anzeige von Navigationsinformationen am Beispiel eines
Abbiegepfades;
Fig. 8 zeigt eine Anzeige einer ergänzenden Navigationsanzeige am Beispiel eines
Kompasses;
Fig. 9 zeigt eine Anzeige einer ergänzenden Navigationsanzeige am Beispiel eines visuellen Hinweises;
Fig. 10 illustriert schematisch einen Ansatz zur Generierung einer angepassten
statischen Navigationsanzeige, die auf einer Einteilung der augmentierbaren Fläche in Teilflächen basiert;
Fig. 11 illustriert schematisch eine Erweiterung des Ansatzes aus Fig. 10, bei der nur ein
Teilabschnitt eines Navigationspfades neu dargestellt wird; und
Fig. 12 zeigt schematisch ein Verfahren zum Generieren einer angepassten statischen
Navigationsanzeige.
Zum besseren Verständnis der Prinzipien der vorliegenden Erfindung werden nachfolgend Ausführungsformen der Erfindung anhand der Figuren detaillierter erläutert. Es versteht sich, dass sich die Erfindung nicht auf diese Ausführungsformen beschränkt und dass die beschriebenen Merkmale auch kombiniert oder modifiziert werden können, ohne den Schutzbereich der Erfindung zu verlassen, wie er in den angehängten Ansprüchen definiert ist.
Fig. 1 zeigt schematisch eine Augmented-Reality-Brille als Beispiel für ein mobiles
Augmented-Reality-Gerät 1. Die Augmented-Reality-Brille 1 hat eine Kamera 2 zum
Erfassen von Umgebungsdaten einer Umgebung der Augmented-Reality-Brille 1. Mittels einer Posenbestimmungsvorrichtung 3 kann eine Pose der Augmented-Reality-Brille 1 bestimmt werden, beispielsweise anhand der Umgebungsdaten. Eine Grafikeinheit 4
generiert eine Anzeige für die Augmented-Reality-Brille 1 entsprechend der ermittelten Pose. Dazu können die Posenbestimmungsvorrichtung 3 und die Grafikeinheit 4 miteinander Daten austauschen. Die Posenbestimmungsvorrichtung 3 und die Grafikeinheit 4 können, wie im Beispiel dargestellt, Bestandteil der Augmented-Reality-Brille 1 sein. Sie können aber auch als externe Geräte über eine Schnittstelle 5 mit der Augmented-Reality-Brille 1 verbunden sein. Die von der Grafikeinheit 4 generierte Anzeige wird durch eine Projektionseinheit 6 eingeblendet. Im Beispiel in Fig. 1 wird ein monokulares Display genutzt, d.h. nur vor einem Auge des Nutzers ist ein Display angeordnet. Die vorliegend beschriebene Lösung kann selbstverständlich auch mit einer Augmented-Reality-Brille 1 mit einem binokularen Display, bei dem pro Auge ein Display genutzt wird, oder mit einem binokularen Display, bei dem für beide Augen ein gemeinsames Display genutzt wird, realisiert werden.
Fig. 2 zeigt schematisch einen fest in der Welt verödeten statischen Navigationspfad 41 auf einem mobilen Augmented-Reality-Gerät 1. In diesem Beispiel handelt es sich beim
Augmented-Reality-Gerät 1 um ein Tablet. Auf dem Display des Tablets wird die von einer Kamera des Tablets aufgenommene Umgebung angezeigt. Überlagert wird diese Umgebung durch einen Navigationspfad 41 , der in Form von stilisierten Fußspuren dargestellt wird. Da sich der Nutzer in unmittelbarer Nähe des Navigationspfades 41 befindet, sind die
Fußspuren gut erkennbar.
Fig. 3 zeigt den fest in der Welt verödeten statischen Navigationspfad 41 bei größerer Entfernung des Nutzers vom Navigationspfad41. Wie zuvor handelt es sich beim
Augmented-Reality-Gerät 1 um ein Tablet, auf dessen Display die von der Kamera des Tablets aufgenommene Umgebung angezeigt wird. Auch hier wird ein Navigationspfad 41 in Form von stilisieden Fußspuren angezeigt. Aufgrund der großen Entfernung des Nutzers vom Navigationspfad 41 ist dieser auf dem Display allerdings kaum noch erkennbar.
Fig. 4 zeigt schematisch ein Vedahren zur Steuerung einer Anzeige eines mobilen
Augmented-Reality-Gerätes eines Nutzers. Zunächst wird eine statische Navigationsanzeige für ein Ziel generied 10, die ortsfest in einer realen Umgebung positionied ist. Wird nun eine Situation edasst 11 , die eine Anpassung der Anzeige des mobilen Augmented-Reality- Gerätes edordert, so wird eine an die Situation angepasste statische Navigationsanzeige oder eine ergänzende Navigationsanzeige generied 12. Die Situation, die eine Anpassung der Anzeige des mobilen Augmented-Reality-Gerätes edordert, kann auf Basis einer Nutzereingabe edasst werden. Die Nutzereingabe kann beispielsweise darin bestehen, dass der Nutzer eine definiede Blickgeste oder Handgeste ausfühd oder einen Sprachbefehl edeilt. Die ergänzende Navigationsanzeige kann z.B. ein temporärer Navigationspfad in
Richtung des Zieles, ein Kompass, ein Richtungspfeil oder ein visuelles Signal mit einer Richtungscharakteristik sein.
Fig. 5 zeigt schematisch eine erste Ausführungsform einer Vorrichtung 20 zur Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes 1 eines Nutzers. Die Vorrichtung 20 hat einen Eingang 21 , über den beispielsweise Daten zu einer Position und einer Blickrichtung eines Nutzers des Augmented-Reality-Gerätes 1 empfangen werden können. Die Vorrichtung 20 hat zudem einen Grafikgenerator 22 zum Generieren einer statischen Navigationsanzeige für ein Ziel, die ortsfest in einer realen Umgebung positioniert ist. Mittels einer Sensorik 23 kann eine Situation erfasst werden, die eine Anpassung der Anzeige des mobilen Augmented-Reality-Gerätes 1 erfordert. Die Situation, die eine Anpassung der Anzeige des mobilen Augmented-Reality-Gerätes erfordert, kann von der Sensorik 23 beispielsweise auf Basis einer Nutzereingabe erfasst werden. Die Nutzereingabe kann z.B. darin bestehen, dass der Nutzer eine definierte Blickgeste oder Handgeste ausführt oder einen Sprachbefehl erteilt. Wird von der Sensorik 23 eine Situation erfasst, die eine
Anpassung der Anzeige des mobilen Augmented-Reality-Gerätes 1 erfordert, so generiert der Grafikgenerator 22 eine an die Situation angepasste statische Navigationsanzeige oder eine ergänzende Navigationsanzeige. Die ergänzende Navigationsanzeige kann z.B. ein temporärer Navigationspfad in Richtung des Zieles, ein Kompass, ein Richtungspfeil oder ein visuelles Signal mit einer Richtungscharakteristik sein. Über einen Ausgang 26 der
Vorrichtung 20 wird die angepasste statische Navigationsanzeige oder die ergänzende Navigationsanzeige an das Augmented-Reality-Gerät 1 ausgegeben.
Der Grafikgenerator 22 und die Sensorik 23 können von einer Kontrolleinheit 24 gesteuert werden. Über eine Benutzerschnittstelle 27 können gegebenenfalls Einstellungen des Grafikgenerators 22, der Sensorik 23 oder der Kontrolleinheit 24 geändert werden. Die in der Vorrichtung 20 anfallenden Daten können bei Bedarf in einem Speicher 25 der Vorrichtung 20 abgelegt werden, beispielsweise für eine spätere Auswertung oder für eine Nutzung durch die Komponenten der Vorrichtung 20. Der Grafikgenerator 22, die Sensorik 23 sowie die Kontrolleinheit 24 können als dedizierte Hardware realisiert sein, beispielsweise als integrierte Schaltungen. Natürlich können sie aber auch teilweise oder vollständig kombiniert oder als Software implementiert werden, die auf einem geeigneten Prozessor läuft, beispielsweise auf einer GPU oder einer CPU. Der Eingang 21 und der Ausgang 26 können als getrennte Schnittstellen oder als eine kombinierte bidirektionale Schnittstelle
implementiert sein. Im beschriebenen Beispiel ist die Vorrichtung 20 eine eigenständige Komponente. Sie kann aber ebenso in der Augmented-Reality-Display-Vorrichtung 1 oder in
einer Recheneinheit zur Ansteuerung der Augmented-Reality-Display-Vorrichtung 1 integriert sein.
Fig. 6 zeigt schematisch eine zweite Ausführungsform einer Vorrichtung 30 zur Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes eines Nutzers. Die Vorrichtung 30 weist einen Prozessor 32 und einen Speicher 31 auf. Beispielsweise handelt es sich bei der Vorrichtung 30 um einen Computer oder eine mobile Recheneinheit, z.B. ein Tablet oder ein Smartphone. Im Speicher 31 sind Instruktionen abgelegt, die die Vorrichtung 30 bei
Ausführung durch den Prozessor 32 veranlassen, die Schritte gemäß einem der
beschriebenen Verfahren auszuführen. Die im Speicher 31 abgelegten Instruktionen verkörpern somit ein durch den Prozessor 32 ausführbares Programm, welches das erfindungsgemäße Verfahren realisiert. Die Vorrichtung 30 hat einen Eingang 33 zum Empfangen von Informationen. Vom Prozessor 32 generierte Daten werden über einen Ausgang 34 bereitgestellt. Darüber hinaus können sie im Speicher 31 abgelegt werden. Der Eingang 33 und der Ausgang 34 können zu einer bidirektionalen Schnittstelle
zusammengefasst sein.
Der Prozessor 32 kann eine oder mehrere Prozessoreinheiten umfassen, beispielsweise Mikroprozessoren, digitale Signalprozessoren oder Kombinationen daraus.
Die Speicher 25, 31 der beschriebenen Ausführungsformen können sowohl volatile als auch nichtvolatile Speicherbereiche aufweisen und unterschiedlichste Speichergeräte und
Speichermedien umfassen, beispielsweise Festplatten, optische Speichermedien oder Halbleiterspeicher.
Fig. 7 zeigt eine situative Anzeige von Navigationsinformationen am Beispiel eines
Abbiegepfades. In diesem Beispiel besteht die statische Navigationsanzeige 41 nicht aus einem Pfad, sondern lediglich aus einer situativen Navigationsinformationen, hier einem gekrümmten Abbiegepfad an der betroffenen Ecke bzw. Kurve. Dadurch wird die Anzeige unnötiger Informationen vermieden. Sollte der Nutzer die Orientierung verlieren, kann dieser z.B. durch eine Nutzereingabe einen temporären Pfad als ergänzende Navigationsanzeige erscheinen lassen. Dieser illustriert den zurückzulegenden Weg zur nächsten
Navigationssituation, blendet sich nach einer gewissen Zeit aber wieder aus. Der temporär angezeigte Navigationspfad kann z.B. in Form fragmentierter Anzeigen kurz vollständig erscheinen. Er kann alternativ in Form einer angedeuteten Welle vom Betrachter weglaufend in Richtung des nächsten Navigationspunktes angezeigt werden. Die Welle kann dabei durch
Geschwindigkeit, Größe, Position und Anzahl der gleichzeitig dargestellten Fragmente parametriert sein.
Fig. 8 zeigt eine Anzeige einer ergänzenden Navigationsanzeige 42 am Beispiel eines Kompasses. Auf Basis einer Nutzereingabe wird eine ergänzende Navigationsanzeige 42 eingeblendet, in diesem Beispiel ein Kompass, der um die Füße des Nutzers liegt und in Richtung der nächsten Navigationssituation weist. Für diese Art der ergänzenden
Navigationsanzeige 42 ist es sinnvoll, wenn die Nutzereingabe darin besteht, dass der Nutzer für einen gewissen Zeitraum auf seine Füße blickt. Die ergänzende
Navigationsanzeige 42 kann wieder ausgeblendet werden, sobald der Nutzer den Blick von seinen Füßen abwendet.
Fig. 9 zeigt eine Anzeige einer ergänzenden Navigationsanzeige 42 am Beispiel eines visuellen Hinweises. Links ist die Anzeige für das linke Auge des Nutzers dargestellt, rechts die Anzeige für das rechte Auge. Die erforderliche Drehrichtung oder Laufrichtung wird vermittelt durch ein kurzes Aufblitzen des Bildschirms auf einem oder beiden Augen oder einem Bildschirmsegment, angedeutet durch den dargestellten Stern. Das Aufblitzen kann z.B. in Form eines Lichtsignals erfolgen, dass für einige Millisekunden bzw. einige Frames angezeigt wird. Durch das Aufblitzen kann eine relativ grobe Richtungsangabe vermittelt werden, z.B. lediglich eine Unterscheidung zwischen links und rechts. Im Beispiel in Fig. 9 wird eine Drehung nach links vermittelt. Der visuelle Hinweis kann aber auch feiner positioniert sein, um genauere Richtungsangaben zu machen, bis hin zu einem räumlich positionierten visuellen Hinweis für beide Augen.
Fig. 10 illustriert schematisch einen Ansatz zur Generierung einer angepassten statischen Navigationsanzeige. Die augmentierbare Fläche wird dabei in Abschnitte bzw. Teilflächen fester Größe eingeteilt, sogenannte Kacheln. Es wird nun ein Navigationspfad 41 von der der ersten Position 44 des Nutzers entsprechenden Kachel bis zum Ziel 40 angezeigt, der statisch und fest mit der Umgebung verbunden ist, d.h. Anfangspunkt und Endpunkt sind fest. Wechselt der Nutzer von der ersten Position 44 zu einer zweiten Position 45, die einer anderen Kachel entspricht, so wird der aktuelle Navigationspfad 41 ausgeblendet, was durch die gestrichelte Linie mit großem Strichabstand angedeutet ist. Dies kann ohne eine oder mit einer Animation erfolgen, beispielsweise kann der aktuelle Navigationspfad 41 immer transparenter werden. Während der von der alten Kachel ausgehende Navigationspfad ausblendet, wird der Navigationspfad 41 für die neue Kachel berechnet und eingeblendet, was durch die gestrichelte Linie mit kleinem Strichabstand angedeutet ist. Dabei ist es sinnvoll, wenn zu keinem Zeitpunkt zwei gleichwertige Pfade sichtbar sind, um Verwirrung zu
vermeiden. Der alte Navigationspfad 41 wird zunächst sehr weit ausgeblendet, bevor der neue Navigationspfad 41 dargestellt wird.
Fig. 11 illustriert schematisch eine Erweiterung des Ansatzes aus Fig. 10. Bei dieser Erweiterung wird nicht der gesamte alte Navigationspfad 41 durch einen neuen
Navigationspfad 41 ersetzt, es wird vielmehr ein Zwischenziel 43 genutzt. Der Teilabschnitt des Navigationspfades vom Zwischenziel 43 zum Ziel bleibt dabei erhalten. Lediglich der Teilabschnitt des Navigationspfades 41 zwischen der der ersten Position 44, 45 des Nutzers entsprechenden Kachel bis zum Zwischenziel 43 wird neu dargestellt.
Fig. 12 zeigt schematisch ein Verfahren zum Generieren einer angepassten statischen Navigationsanzeige, das auf einer Einteilung der augmentierbaren Fläche Teilflächen basiert. Die statische Navigationsanzeige ist dabei ein von einer ersten Teilfläche ausgehender Navigationspfad in Richtung des Zieles. Es wird nun erfasst 50, dass der Nutzer von einer ersten Teilfläche in eine zweite Teilfläche wechselt. Daraufhin wird der von der ersten Teilfläche ausgehenden Navigationspfad ausgeblendet 51. Zeitgleich oder im Anschluss wird ein von der zweiten Teilfläche ausgehender Navigationspfad eingeblendet 52. Dabei kann auch vorgesehen sein, lediglich einen Abschnitt des Navigationspfades bis zu einem Zwischenziel neu darzustellen.
Bezugszeichenliste
Augmented-Reality-Gerät
Kamera
Schnittstelle
Posenbestimmungsvorrichtung
Grafikeinheit
Projektionseinheit
Generieren einer statischen Navigationsanzeige
Erfassen einer Situation, die eine Anpassung der Anzeige erfordert
Generieren einer angepassten statischen Navigationsanzeige oder einer ergänzenden Navigationsanzeige
Vorrichtung
Eingang
Grafikgenerator
Sensorik
Kontrolleinheit
Speicher
Ausgang
Benutzerschnittstelle
Vorrichtung
Speicher
Prozessor
Eingang
Ausgang
Ziel
Statische Navigationsanzeige
Ergänzende Navigationsanzeige
Zwischenziel
Erste Position
Zweite Position
Erfassen eines Wechsels von einer ersten in eine zweite Teilfläche
Ausblenden des von der ersten Teilfläche ausgehenden Navigationspfades Einblenden eines von der zweiten Teilfläche ausgehenden Navigationspfades
Claims
1. Verfahren zur Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes (1 ) eines Nutzers für die Fußgängernavigation, mit den Schritten:
- Generieren (10) einer statischen Navigationsanzeige (41 ) für ein Ziel (40), die ortsfest in einer realen Umgebung positioniert ist;
- Erfassen (11 ) einer Situation, die eine Anpassung der Anzeige des mobilen
Augmented-Reality-Gerätes (1 ) erfordert, auf Basis einer Nutzereingabe oder einer Entfernung des Nutzers von einem angezeigten Navigationspfad; und
- Generieren (12) einer an die Situation angepassten statischen Navigationsanzeige (41 ) oder einer ergänzenden Navigationsanzeige (42).
2. Verfahren gemäß Anspruch 1 , wobei die Nutzereingabe eine Blickgeste des Nutzers, eine Handgeste des Nutzers oder einen Sprachbefehl des Nutzers umfasst.
3. Verfahren gemäß Anspruch 1 oder 2, wobei die ergänzende Navigationsanzeige (42) ein temporärer Navigationspfad in Richtung des Zieles (40), ein Kompass oder ein Richtungspfeil ist.
4. Verfahren gemäß Anspruch 1 oder 2, wobei die ergänzende Navigationsanzeige (42) ein visuelles Signal mit einer Richtungscharakteristik ist.
5. Verfahren gemäß Anspruch 1 , wobei eine durch das Augmented-Reality-Gerät (1 ) augmentierbare Fläche in der realen Umgebung in Teilflächen unterteilt ist, und wobei die statische Navigationsanzeige (41 ) ein von einer ersten Teilfläche ausgehender Navigationspfad in Richtung des Zieles (40) ist, mit den Schritten:
- Erfassen (50), dass der Nutzer von einer ersten Teilfläche in eine zweite Teilfläche wechselt;
- Ausblenden (51 ) des von der ersten Teilfläche ausgehenden Navigationspfades; und
- Einblenden (52) eines von der zweiten Teilfläche ausgehenden Navigationspfades.
6. Verfahren gemäß Anspruch 5, wobei der Navigationspfad lediglich zwischen der ersten Teilfläche und einem Zwischenziel (43) ausgeblendet wird (51 ) und zwischen der zweiten Teilfläche und dem Zwischenziel (43) eingeblendet wird (52).
7. Computerlesbares Speichermedium mit Instruktionen, die bei Ausführung durch einen Computer den Computer zur Ausführung der Schritte eines Verfahrens gemäß einem der Ansprüche 1 bis 6 zur Steuerung einer Anzeige eines mobilen Augmented-Reality- Gerätes (1 ) eines Nutzers für die Fußgängernavigation veranlassen.
8. Vorrichtung (20) zur Steuerung einer Anzeige eines mobilen Augmented-Reality- Gerätes (1 ) eines Nutzers für die Fußgängernavigation, mit:
- einem Grafikgenerator (22) zum Generieren (10) einer statischen Navigationsanzeige (41 ) für ein Ziel (40), die ortsfest in einer realen Umgebung positioniert ist; und
- einer Sensorik (23) zum Erfassen (11 ) einer Situation, die eine Anpassung der Anzeige des mobilen Augmented-Reality-Gerätes (1 ) erfordert, auf Basis einer Nutzereingabe oder einer Entfernung des Nutzers von einem angezeigten
Navigationspfad;
wobei der Grafikgenerator (22) eingerichtet ist, eine an die Situation angepasste statische Navigationsanzeige (41 ) oder eine ergänzende Navigationsanzeige (42) zu generieren (12).
9. Mobiles Augmented-Reality-Gerät (1 ), dadurch gekennzeichnet, dass es eine
Vorrichtung (20) gemäß Anspruch 8 aufweist oder eingerichtet ist, ein Verfahren gemäß einem der Ansprüche 1 bis 6 auszuführen.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201980036764.7A CN112189125A (zh) | 2018-06-01 | 2019-05-09 | 用于控制移动增强现实仪器的显示的设计 |
US15/734,024 US12025460B2 (en) | 2018-06-01 | 2019-05-09 | Concept for the control of a display of a mobile augmented reality device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018208700.8A DE102018208700A1 (de) | 2018-06-01 | 2018-06-01 | Konzept für die Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes |
DE102018208700.8 | 2018-06-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019228780A1 true WO2019228780A1 (de) | 2019-12-05 |
Family
ID=66530034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2019/061983 WO2019228780A1 (de) | 2018-06-01 | 2019-05-09 | Konzept für die steuerung einer anzeige eines mobilen augmented-reality-gerätes |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN112189125A (de) |
DE (1) | DE102018208700A1 (de) |
WO (1) | WO2019228780A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12025460B2 (en) | 2018-06-01 | 2024-07-02 | Volkswagen Aktiengesellschaft | Concept for the control of a display of a mobile augmented reality device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130141565A1 (en) * | 2011-12-01 | 2013-06-06 | Curtis Ling | Method and System for Location Determination and Navigation using Structural Visual Information |
US20140267400A1 (en) * | 2013-03-14 | 2014-09-18 | Qualcomm Incorporated | User Interface for a Head Mounted Display |
EP2960630A2 (de) | 2014-06-26 | 2015-12-30 | LG Electronics Inc. | Brillenartiges endgerät und verfahren zur steuerung davon |
US9304003B1 (en) * | 2015-03-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Augmented reality navigation |
DE102017111843A1 (de) | 2016-05-31 | 2017-11-30 | GM Global Technology Operations LLC | Systeme, um einen Nutzer mittels Gehanweisungen in erweiterter Realität dynamisch zu einem Abholungsort eines autonom fahrenden Fahrzeugs zu führen |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2565582B1 (de) * | 2009-07-09 | 2014-05-14 | TomTom International B.V. | Verfahren zur Komprimierung von Routesuchebeschleunigungsdaten |
US8825377B2 (en) * | 2012-10-19 | 2014-09-02 | Microsoft Corporation | Mobile navigation to a moving destination |
US10453259B2 (en) * | 2013-02-01 | 2019-10-22 | Sony Corporation | Information processing device, client device, information processing method, and program |
US20150153182A1 (en) * | 2013-02-07 | 2015-06-04 | Google Inc. | System and method for calibrating a navigation heading |
DE102014219575A1 (de) * | 2013-09-30 | 2015-07-23 | Honda Motor Co., Ltd. | Verbesserte 3-Dimensionale (3-D) Navigation |
US9677898B2 (en) * | 2014-06-17 | 2017-06-13 | Think Ware Corporation | Electronic apparatus and control method thereof |
US20160140868A1 (en) * | 2014-11-13 | 2016-05-19 | Netapp, Inc. | Techniques for using augmented reality for computer systems maintenance |
US9625270B2 (en) * | 2014-12-01 | 2017-04-18 | Thinkware Corporation | Electronic apparatus, control method thereof, computer program, and computer-readable recording medium |
US20170193705A1 (en) * | 2015-12-31 | 2017-07-06 | Daqri, Llc | Path visualization for motion planning |
US10429191B2 (en) * | 2016-09-22 | 2019-10-01 | Amadeus S.A.S. | Systems and methods for improved data integration in augmented reality architectures |
CN106895839A (zh) * | 2017-03-15 | 2017-06-27 | 万象三维视觉科技(北京)有限公司 | 一种基于扫描标识码的室内定位导航方法 |
-
2018
- 2018-06-01 DE DE102018208700.8A patent/DE102018208700A1/de active Pending
-
2019
- 2019-05-09 WO PCT/EP2019/061983 patent/WO2019228780A1/de active Application Filing
- 2019-05-09 CN CN201980036764.7A patent/CN112189125A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130141565A1 (en) * | 2011-12-01 | 2013-06-06 | Curtis Ling | Method and System for Location Determination and Navigation using Structural Visual Information |
US20140267400A1 (en) * | 2013-03-14 | 2014-09-18 | Qualcomm Incorporated | User Interface for a Head Mounted Display |
EP2960630A2 (de) | 2014-06-26 | 2015-12-30 | LG Electronics Inc. | Brillenartiges endgerät und verfahren zur steuerung davon |
US9304003B1 (en) * | 2015-03-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Augmented reality navigation |
DE102017111843A1 (de) | 2016-05-31 | 2017-11-30 | GM Global Technology Operations LLC | Systeme, um einen Nutzer mittels Gehanweisungen in erweiterter Realität dynamisch zu einem Abholungsort eines autonom fahrenden Fahrzeugs zu führen |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12025460B2 (en) | 2018-06-01 | 2024-07-02 | Volkswagen Aktiengesellschaft | Concept for the control of a display of a mobile augmented reality device |
Also Published As
Publication number | Publication date |
---|---|
CN112189125A (zh) | 2021-01-05 |
DE102018208700A1 (de) | 2019-12-05 |
US20210231451A1 (en) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3765324B1 (de) | Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug | |
EP3394708B1 (de) | Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system | |
DE60225933T2 (de) | Tragbare virtuelle realität | |
DE102015006612B4 (de) | Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug und System mit einer Datenbrille | |
EP3570225A1 (de) | Verfahren zur berechnung einer "augmented reality"-einblendung für die darstellung einer navigationsroute auf einer ar-anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm | |
DE102014006732B4 (de) | Bildüberlagerung von virtuellen Objekten in ein Kamerabild | |
EP3837595B1 (de) | Steuervorrichtung und verfahren zum reduzieren von bewegungskrankheit eines benutzers beim betrachten eines medieninhalts mittels einer datenbrille während einer fahrt in einem kraftfahrzeug | |
DE102017220268B4 (de) | Erkennung und Visualisierung von Systemunsicherheit bei der Darstellung augmentierter Bildinhalte in Head-Up-Displays | |
EP3559725A1 (de) | Head-up-display-vorrichtung für ein kraftfahrzeug, verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer head-up-display-vorrichtung | |
DE102014213285A1 (de) | Kopfrichtungsabhängige Anzeige von Inhalten auf einer Datenbrille | |
DE102015003948B4 (de) | Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Virtual-Reality-Brille und Virtual-Reality-System | |
DE102017215163A1 (de) | System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs | |
WO2019174862A1 (de) | Verfahren und vorrichtung zum bereitstellen von informationen durch ein augmented-reality-gerät, verfahren und vorrichtung zum bereitstellen von informationen zur steuerung einer anzeige eines augmented-reality-gerätes, verfahren und vorrichtung zur steuerung einer anzeige eines augmented-reality-gerätes, computerlesbares speichermedium mit instruktionen zur durchführung der verfahren | |
EP3296795B1 (de) | Verfahren zur darstellung eines bildobjekts in einem fahrzeug auf einer fahrzeugintern und einer fahrzeugextern wahrgenommenen anzeige | |
DE102014018056A1 (de) | Verfahren zum Betreiben einer Virtual-Reality-Brille und Virtual-Reality-Brille | |
EP3874450A1 (de) | Verfahren zur vermeidung einer sichtfeldstörung für eine bedienperson eines objektes, vorrichtung zur durchführung des verfahrens sowie fahrzeug und computerprogramm | |
WO2019228780A1 (de) | Konzept für die steuerung einer anzeige eines mobilen augmented-reality-gerätes | |
EP3959647B1 (de) | Lagerichtige einblendung einer zusatzinformation auf einer anzeigeeinheit eines fahrzeugs | |
DE102013210587A1 (de) | Anzeigensystem mit Datenbrille | |
DE102016225262A1 (de) | Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille | |
DE102019112189A1 (de) | Verfahren und Vorrichtung zur Anzeige eines Informationsobjektes in einer Augmented-Reality-Datenbrille | |
EP3568737A1 (de) | Verfahren zum betreiben eines anzeigesystems mit einer datenbrille in einem kraftfahrzeug | |
DE102016225082A1 (de) | Verfahren und Vorrichtung zum Betreiben einer Datenbrille | |
DE102017219468B4 (de) | Verfahren und Vorrichtung zur Nutzung einer Virtual-Reality-Einrichtung | |
DE102015012134A1 (de) | Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19723764 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19723764 Country of ref document: EP Kind code of ref document: A1 |