DE102007028654A1 - Vorrichtung und Verfahren zur ergonomischen Darstellung der räumlichen Tiefe von Objekten in virtuellen Umgebungen - Google Patents

Vorrichtung und Verfahren zur ergonomischen Darstellung der räumlichen Tiefe von Objekten in virtuellen Umgebungen Download PDF

Info

Publication number
DE102007028654A1
DE102007028654A1 DE102007028654A DE102007028654A DE102007028654A1 DE 102007028654 A1 DE102007028654 A1 DE 102007028654A1 DE 102007028654 A DE102007028654 A DE 102007028654A DE 102007028654 A DE102007028654 A DE 102007028654A DE 102007028654 A1 DE102007028654 A1 DE 102007028654A1
Authority
DE
Germany
Prior art keywords
viewer
eyes
distance
projection
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007028654A
Other languages
English (en)
Inventor
Dietmar Dr. Gude
Michael Prof. Dr. Stark
Christian Bräuning
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INST ARBEITSPHYSIOLOGIE AN DER
Institut fur Arbeitsphysiologie An Der Universitat Dortmund
Fachhochschule Dortmund
Original Assignee
INST ARBEITSPHYSIOLOGIE AN DER
Institut fur Arbeitsphysiologie An Der Universitat Dortmund
Fachhochschule Dortmund
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by INST ARBEITSPHYSIOLOGIE AN DER, Institut fur Arbeitsphysiologie An Der Universitat Dortmund, Fachhochschule Dortmund filed Critical INST ARBEITSPHYSIOLOGIE AN DER
Priority to DE102007028654A priority Critical patent/DE102007028654A1/de
Publication of DE102007028654A1 publication Critical patent/DE102007028654A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur ergonomischen Darstellung der räumlichen Tiefe von Objekten (1) in virtuellen Umgebungen, bei dem die Ansicht des mindestens einen Objektes (1) mittels eines stereoskopischen Projektionssystems (16) mindestens einem Betrachter in Form sich überlagernder Bilder (14, 14', 14'') für jedes Auge (3, 4) des Betrachters dargeboten wird. Hierbei wird mittels einer Erkennungseinrichtung (15) mindestens ein Auge (3, 4) des Betrachters laufend überwacht, um Informationen (18) über die jeweils aktuelle Blickrichtung (10) und/oder die Blicktiefe und/oder die Parallaxe (6) und/oder die Lage der Augen (3, 4) des Betrachters zu gewinnen und mit diesen Informationen über die aktuelle Blickrichtung (10) und/oder die Blicktiefe und/oder die Parallaxe (6) und/oder die Lage der Augen (3, 4) des Betrachters in Echtzeit die Parameter (19) der Projektion der sich für den Betrachter überlagernden Bilder (14, 14', 14'') des Objektes (1) in einer Auswerteeinheit (17) automatisch derart beeinflusst werden, dass das jeweils betrachtete Objekt (1) für den Betrachter entweder im Bereich der Projektionsebene (2) des stereoskopischen Projektionssystems (16) oder im Bereich zwischen Fixationsdistanz (8) und Akkomodationsdistanz (9) der Augen (3, 4) für das Objekt (1) angeordnet zu sein scheint und ein räumliches Bild (13) des Objektes (1) mit einem räumlichen Tiefeneindruck ergibt.

Description

  • Die Erfindung betrifft eine Vorrichtung und Verfahren zur ergonomischen Darstellung der räumlichen Tiefe von Objekten in virtuellen Umgebungen gemäß Oberbegriff des Anspruches 1 bzw. des Anspruches 19.
  • Im Bereich der virtuellen Realität werden stereoskopische Projektionstechniken eingesetzt, um dem Betrachter einen Tiefeneindruck (sog. depth perception) zu vermitteln, ähnlich wie beim 3D-Fernsehen. Der Unterschied zum 3D-Fernsehen besteht darin, dass der Anwender sich in Echtzeit in der virtuellen Umgebung bewegen kann, also die Möglichkeit hat, sie aus beliebigen Perspektiven zu betrachten.
  • Das Konzept derartiger stereoskopischer Projektionssysteme besteht in der Regel darin, dass zur Simulation der realen Betrachtungsbedingungen zwei Ansichten zur Verfügung gestellt werden, die eine für das linke und die andere für das rechte Auge des Betrachters. Diese beiden Ansichten werden gleichzeitig bzw. schnell abwechselnd und räumlich versetzt zueinander auf einer Projektionsfläche oder auf einem Bildschirm dargestellt und jedem der beiden Augen des Betrachters mit geeigneten Mitteln nur jeweils eines der beiden überlagerten Bilder zugänglich gemacht. Dies kann beispielsweise mit Polarisationsbrillen, über sog. Shutterbrillen oder dgl. erfolgen und ist grundsätzlich bekannt. Hierdurch ist es möglich, dreidimensionale Darstellungen zu erzeugen, bei denen auch ein entsprechender Tiefeneindruck der dargestellten Objekte möglich ist.
  • Die Qualität des Tiefeneindrucks hängt dabei von verschiedenen Parametern der Projektion ab. So sind dabei der Abstand von rechtem und linkem Auge, die sog. Parallaxe, und die Konvergenzdistanz zu berücksichtigen. Bislang werden diese Parameter pauschal mit konstanten Werten vorbelegt, was allerdings zur Folge hat, dass unter bestimmten Betrachtungsbedingungen Verzerrungen auftreten, durch die beim Anwender Fehlwahrnehmungen bis hin zu Sehbeschwerden verursacht werden. Zudem kann der Tiefeneindruck vollständig zusammenbrechen: Nähert man sich z. B. einem in der virtuellen Umgebung dargestellten Objekt, wird man ab einem gewissen Abstand zunächst zu schielen beginnen und schließlich nur noch ein Doppelbild wahrnehmen.
  • Hauptsächlicher Grund für diese Probleme ist, dass bei der Erzeugung der jeweiligen sich überlagernden Ansichten keine Informationen über die jeweils vorliegenden realen Betrachtungsbedingungen vorhanden sind, weshalb man sich mit einer Reihe von Annahmen behilft, deren grundsätzliche geometrische Darstellung in der 1 noch einmal aufskizziert ist.
  • Grundannahme ist dabei, dass der Betrachter eine in der 1 dargestellte, konstante, zentrierte Position einnimmt, wobei er seine Augen parallel zur Projektionsfläche 2 ausrichtet. Dabei wird der reale Pupillenabstand 5 durch den technischen Parameter „Parallaxe" 6 repräsentiert. Hierfür wird bei bekannten Projektionen der virtuellen Realität bislang ein konstanter Wert angenommen, obwohl er interindividuell variiert (DIN 33402-2, 2005). Mit dem technischen Parameter „Konvergenzdistanz" 7 werden die realen physikalischen Bedingungen bei der Betrachtung von Objekten 1 repräsentiert. In einer realen Situation wird ein Objekt 1 im Raum mit den Augen 3, 4 entlang der sich im Bereich des Objektes 1 schneidenden Sehstrahlen 10 fixiert und deren Linsensysteme durch Akkommodation auf dieses Objekt 1 scharf gestellt. Damit entspricht der Fixationspunkt 20 der Augen 3, 4 unter diesen Bedingungen dem Punkt des schärfsten Sehens, wobei Fixationsdistanz 8 und Akkommo dationsdistanz 9 übereinstimmen. Analog zur Parallaxe 6 wird bei herkömmlichen Projektionsmethoden auch für die Konvergenzdistanz 7 ein konstanter Wert angenommen, der in der Regel von der Fixationsdistanz 8 und Akkommodationsdistanz 9 abweicht. Erschwerend kommt hinzu, dass bei flächigen Projektionssystemen eine Entkopplung von Fixation und Akkommodation erfolgt. Einerseits akkommodiert der Betrachter auf die Reizquelle, die Projektionsfläche 2. Andererseits werden Objekte 1 so projiziert, dass sie sich für den Betrachter vor oder hinter dieser Projektionsfläche 2 zu befinden scheinen, so dass der Fixationspunkt 20 in der Regel entsprechend variiert. Insofern kann ein einzelner konstanter Parameter „Konvergenzdistanz" 7 diesen Bedingungen nicht gerecht werden. Weiterhin ist zu berücksichtigen, dass sich der Betrachter vor der Projektionsfläche 2 bewegt, wobei Kopf- und Körperbewegungen zu zusätzlichen Translationen und Rotationen der Augen 3, 4 führen.
  • Insgesamt machen die skizzierten Aspekte deutlich, dass stereoskopische Projektionssysteme nach dem Stand der Technik nur eine sehr grobe Annäherung an die Betrachtungsbedingungen von realen Objekten darstellen. Wahrnehmungsbeeinträchtigungen bis hin zur Ausbildung von Doppelbildern führen bei zahlreichen Anwendern zur Ermüdung der Augen sowie Kopfschmerzen und Übelkeit. Dies dürfte ein Grund für die immer noch geringe Akzeptanz von solchen Systemen sein, insbesondere im Hinblick auf eine zeitlich ausgedehntere, etwa mehrstündige Nutzung.
  • Ansätze zur Lösung derartiger Probleme bei 3D-Projektionen sind aus der GB 2 354 389 A und US 6 798 406 B1 bekannt für den Bereich der 3D-Fotografie. Hier wird der Ansatz verfolgt, die Wiedergabe zu optimieren, indem die erwarteten Betrachtungsbedingungen bereits bei der Aufnahme nach einem speziellen Verfahren berücksichtigt werden. Dieser Ansatz ist jedoch für den Bereich der virtuellen Realität ungeeignet. Definitionsgemäß enthält jede Anwendung der virtuellen Realität interaktive Elemente, z. B. die Navigation des Betrachters in der virtuellen Umgebung. Insofern sind Anwendungen der virtuellen Realität dadurch charakterisiert, dass die Betrachtungsbedingungen in nicht vorhersehbarer Weise variieren und daher diese verschiedenen Interaktionen bei der Anfertigung der Bilder nach dem genannten Stand der Technik auch nicht berücksichtigt werden können.
  • Dreidimensionale Projektionssysteme sind schon seit längerem bekannt. Hierbei existieren sog. blickabhängige (gaze contingent) Projektionssysteme, die in einer Übersicht von Jaimes, A. und Sebe, N., Multimodal human computer interaction: a survey, IEEE International Workshop an Human Computer Interaction in conjunction with ICCV, 2005, Beijing, China ausführlich dargestellt sind. Die in diesem Bereich verfolgten Ansätze zielen aber primär darauf ab, die dargestellten Inhalte mit willentlichen Blickbewegungen zu verknüpfen, indem beispielsweise Programme durch Betrachtung von virtuellen Schaltflächen gesteuert werden (so etwa auch in der US 5 859 642 ).
  • In der Veröffentlichung von Ware, C., Gobrecht, C., und Paton, M. A., Dynamic adjustment of stereo display parameters, IEEE Transactions an Systems, Man and Cybernetics – Part A: Systems and Humans, 28, 56–65 aus dem Jahr 1998 wird ein anderes Verfahren zur dynamischen Anpassung von Parametern einer stereoskopischen Darstellung skizziert wird. In diesem Ansatz wird vorgeschlagen, einen Parameter der stereoskopischen Projektion zu variieren, allerdings ohne dabei auf die jeweiligen anwenderseitigen Betrachtungsbedingungen Bezug zu nehmen. Statt dessen orientiert sich dieses Verfahren einzig an dem jeweils dargestellten Ausschnitt der virtuellen Umgebung. Deshalb ist die Wirksamkeit dieses Ansatzes bereits aufgrund von theoretischen Überlegungen in Zweifel zu ziehen.
  • Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren und eine Vorrichtung gattungsgemäßer Art derart weiter zu entwickeln, dass der Tiefeneindruck von dreidimensional projizierten Objekten über einen weiten Bereich erhalten bleibt und die visuelle Beanspruchung des Anwenders verringert wird.
  • Die Lösung der erfindungsgemäßen Aufgabe ergibt sich hinsichtlich des Verfahrens aus den kennzeichnenden Merkmalen des Anspruches 1 und hinsichtlich der Vorrichtung aus den kennzeichnenden Merkmalen des Anspruches 19 in Zusammenwirken mit den Merkmalen des zugehörigen Oberbegriffes. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
  • Die Erfindung hinsichtlich des Verfahrens gemäß Anspruch 1 geht aus von einem Verfahren zur ergonomischen Darstellung der räumlichen Tiefe von Objekten in virtuellen Umgebungen, bei dem die Ansicht des mindestens einen Objektes mittels eines stereoskopischen Projektionssystems mindestens einem Betrachter in Form sich überlagernder Bilder für jedes Auge des Betrachters dargeboten wird. Ein derartiges Verfahren wird dadurch weiter entwickelt, dass mittels einer Erkennungseinrichtung mindestens ein Auge des Betrachters laufend überwacht wird, um Informationen über die jeweils aktuellen realen Betrachtungsbedingungen, insbesondere die Blickrichtung und/oder den Pupillenabstand und/oder die Lage der Augen des Betrachters oder daraus abgeleitete Werte zu gewinnen, wobei mit diesen Informationen über die Betrachtungsbedingungen in Echtzeit die technischen Parameter der Projektion, insbesondere die Parallaxe und/oder die Konvergenzdistanz der sich für den Betrachter überlagernden Bilder des Objektes in einer Auswerteeinheit automatisch derart beeinflusst werden, dass sich ein räumliches Bild des Objektes mit einem räumlichen Tiefeneindruck ergibt, der permanent auf sich ändernde Betrachtungsbedingungen abgestimmt ist. Die Erfindung beruht auf dem Prinzip der sensorgestützt dynamischen und automatischen und in Echtzeit erfolgenden Anpassung der Projektion der sich überlagernden Bilder an die wechselnden Betrachtungsbedingungen, die sich aus den verschiedenen erfassten Werten des mindestens einen Auges des Betrachters ableiten lassen. Hierbei werden die Parameter der Projektion vornehmlich aufgrund von unwillkürlichen Blickbewegungen des Anwenders optimiert, so dass sie unter den jeweiligen Betrachtungsbedingungen ergonomischen Anforderungen genügt. Hierdurch können durch eine fortlaufende Registrierung der Betrachtungsbedingungen des oder der Augen des Betrachters und eine entsprechende Anpassung der Projektion in Echtzeit die vorstehend genannten Probleme beseitigt bzw. verringert werden. Zur Erfassung der Blickrichtung und/oder des Pupillenabstandes und/oder der Lage der Augen des Betrachters eignen sich beispielsweise Geräte zur Erfassung von Augen- und Blickbewegungen, wobei zu berücksichtigen ist, dass solche Geräte in sogenannten autostereoskopischen Projektionssystemen aus anderen Gründen bereits integriert sein können. Aufgrund der Daten eines solchen Geräts kann beispielsweise die Parallaxe an den realen Pupillenabstand des Betrachters angepasst werden. Durch die Erfassung der Augen- bzw. Blickdaten des Beobachters kann dann in einer denkbaren Ausgestaltung die Projektion laufend und in Echtzeit z. B. so verändert werden, dass das jeweils betrachtete Objekt für den Betrachter entweder im Bereich der Projektionsebene des stereoskopischen Projektionssystems oder im Bereich zwischen Fixationsdistanz und Akkomodationsdistanz der Augen für das Objekt angeordnet zu sein scheint und damit für den Betrachter eine ergonomisch gut erfassbare räumliche Darstellung des Objektes mit einem räumlichen Tiefeneindruck erzielbar ist. Die Anordnung der räumlichen Darstellung des Objektes entweder im Bereich der Projektionsebene des stereoskopischen Projektionssystems oder im Bereich zwischen Fixationsdistanz und Akkomodationsdistanz der Augen kann dabei wahlweise und ggf. auch abhängig von den Aufgaben gewählt werden, die in der in virtuellen Umgebung gelöst werden sollen. Auch ist es denkbar, dass verschiedene Betrachter je nach Vorliebe bzw. subjektivem Empfinden sich aus den verschiedenen möglichen und sinnvollen Projektionsparametern die jeweils für sie als günstig empfundenen Parameter aussuchen bzw. einstellen.
  • Für die Anpassung der Konvergenzdistanz gibt es verschiedene Methoden, von denen im Folgenden die beiden bevorzugt genannten Methoden beschrieben werden. Dabei wird der Fall betrachtet, dass ein Objekt vor der Projektionsfläche dargestellt wird, für Objekte hinter der Projektionsfläche sind die genannten Methoden in analoger Weise anzuwenden.
  • In einer ersten Ausgestaltung können die Parameter der Projektion der sich für den Betrachter überlagernden Bilder des Objektes derart in Echtzeit verändert werden, dass die Konvergenzdistanz an die aus den Informationen über die jeweils aktuelle Blickrichtung und/oder den Pupillenabstand und/oder die Lage der Augen des Betrachters ermittelte Akkomodationsdistanz des Betrachters angeglichen wird. Hierbei kann in weiterer Ausgestaltung die vom Betrachter wahrgenommene Darstellung des Objektes auf der Projektionsfläche des stereoskopischen Projektionssystems zu liegen kommen. Die Parameter der Projektion werden dabei nach dem Erkennen, dass der Betrachter ein Objekt anschaut, so adjustiert, dass sich das gerade betrachtete Objekt auf der Ebene des Bildschirms zu befinden scheint. Damit können Akkomodations- und Fixationsprozesse des Auges synchronisiert erfolgen, wie dies auch unter realen Wahrnehmungsbedingungen der Fall ist. Dieses Prinzip erfordert die Registrierung der Blickrichtung durch die Erkennungseinrichtung. Eine Eigenschaft dieser Ausgestaltung ist es, dass Objekte vor oder hinter der Projektionsebene auf die Projektionsebene scheinbar springen, wenn sie von dem Betrachter direkt betrachtet werden, und wieder in die ursprüngliche Raumtiefe zurückspringen, wenn das Auge des Betrachters andere Objekte fokussiert. Dahingegen ist die Art der Belastung des Auges günstig, da die Akkomodations- und Fixationsprozesse des Au ges synchronisiert und damit wie in realen Umgebungen erfolgen. Von Vorteil ist es hierbei, wenn die Konvergenzdistanz derart verändert wird, dass die Schnittpunkte von Konvergenz und Akkomodation der Augen im wesentlichen übereinstimmen, wozu es schon ausreichen kann, allein die Blickrichtung der Augen des Betrachters durch die Erkennungseinrichtung zu erfassen.
  • In einer anderen vorteilhaften Ausgestaltung ist es denkbar, dass die Parameter der Projektion der sich für den Betrachter überlagernden Bilder des Objektes derart in Echtzeit verändert werden, dass die Konvergenzdistanz an die aus den Informationen über die jeweils aktuelle Blickrichtung und/oder den Pupillenabstand und/oder die Lage der Augen des Betrachters ermittelten Fixationsdistanz des Betrachters angeglichen wird. Die Parameter der Projektion werden dabei nach dem Erkennen, dass der Betrachter ein Objekt anschaut, bei dieser Ausgestaltung so adjustiert, dass das gerade betrachtete Objekt im Konvergenzpunkt zu liegen scheint und damit vor oder hinter der Projektionsfläche des stereoskopischen Projektionssystems zu liegen kommt. Dieses Prinzip geht nicht davon aus, dass die Fixation immer auf der Projektionsebene erfolgt, der Fixationspunkt kann auch davor oder dahinter liegen. Dieses Prinzip erfordert die Registrierung der Blickrichtung durch die Erkennungseinrichtung. Auf diese Weise werden Sprünge von Objekten vermieden, allerdings sind dann auch Akkomodation und Fixation nicht mehr unter allen Bedingungen synchronisiert. Denkbar ist es hierbei in einer ersten weiteren Ausgestaltung, dass die Konvergenzdistanz derart verändert wird, dass die Schnittpunkte von Konvergenz und Fixation des Auges im wesentlichen übereinstimmen. In einer anderen Ausgestaltung kann aber auch die Konvergenzdistanz derart verändert werden, dass die Konvergenzdistanz aus einem Zwischenwert aus der jeweiligen Fixationsdistanz und der Akkomodationsdistanz, vorzugsweise aus dem Mittelwert, gebildet wird.
  • Beiden vorteilhaften Ausgestaltungen ist gemeinsam, dass auf diese Weise zuverlässig die Ausbildung eines Doppelbildes für das jeweils gerade betrachtete Objekt verhindert wird, die als wichtigste Quelle visueller Beanspruchung bei der Nutzung stereoskopischer Projektionssysteme gelten. Die der Anpassung der technischen Parameter an die realen Betrachtungsbedingungen zugrundeliegende Methode kann dabei wahlweise und ggf. auch abhängig von den Aufgaben gewählt werden, die in der virtuellen Umgebung gelöst werden sollen. Auch ist es denkbar, dass verschie dene Betrachter je nach Vorliebe bzw. subjektivem Empfinden sich aus den verschiedenen möglichen und sinnvollen Methoden die jeweils für sie als günstig empfundene aussuchen bzw. einstellen.
  • In einer bevorzugten Weise wird die Anordnung der beiden Bilder für jedes Auges des Betrachters derart zueinander verschoben, dass sich in Abhängigkeit von dem betrachteten Objekt für den Betrachter entweder auf der Projektionsebene des stereoskopischen Projektionssystems oder im Bereich zwischen Fixationsdistanz und Akkomodationsdistanz der Augen ein räumliches Abbild des Objektes ergibt. Abhängig von den erfassten Augen- und Blickdaten des Betrachters werden im einfachsten Fall dann die beiden sich überlagernden Bilder vorzugsweise horizontal bzw. parallel zur Verbindungslinie der beiden Augenmittelpunkte des Betrachters aufeinander zu oder voneinander weg verschoben und damit die Art der Überlagerung in den Augen des Betrachters in dem vorstehend genannten Sinne beeinflusst.
  • Von großer Bedeutung ist es bei dem erfindungsgemäßen Verfahren, dass die Erkennungseinrichtung laufend die jeweils aktuelle Blickrichtung und/oder den Pupillenabstand und/oder die Lage der Augen des Betrachters erfasst und in Echtzeit an die Auswerteeinheit weiterleitet, damit die Auswerteeinheit möglichst synchron zu den Augenbewegungen des Betrachters die entsprechenden Parameter der Projektion der beiden sich überlagernden Bilder verändern kann.
  • Es ist allerdings auch denkbar, dass die Erkennungseinrichtung die jeweils aktuelle Blickrichtung und/oder den Pupillenabstand und/oder die Lage der Augen von mehr als einem Betrachter erfasst, die sich z. B. gleichzeitig vor einer großflächigen Projektionseinrichtung befinden und die gleiche oder auch unterschiedliche Objekte beobachten können. Hierdurch kann für jeden Betrachter einzeln festgestellt werden, welches Objekt er gerade anschaut und wie die Projektion dieses Objektes für diesen Betrachter geändert werden muss, um eine im vorstehenden Sinne ergonomisch optimierte Darstellung des Objektes zu erzeugen. Damit können dann nach der getrennten Erfassung folgerichtig von dem stereoskopischen Projektionssystem für jeden der Betrachter angepasste Bilder der jeweils betrachteten Objekte dargestellt werden, die vorzugsweise zeitversetzt, vorzugsweise mittels Zeitmultiplex gestaffelt darstellt werden und somit jeder Betrachter die für ihn gedachten sich überlagernden Bilder zu sehen bekommt.
  • Vorteilhaft ist es hierbei, wenn die Auswerteeinheit die in Echtzeit von der Erkennungseinrichtung laufend erfassten Informationen über die jeweils aktuelle Blickrichtung und/oder den Pupillenabstand und/oder die Lage der Augen des Betrachters auf Veränderungen überwacht und beim Auftreten von Veränderungen die Parameter der Projektion der sich für den Betrachter überlagernden Bilder des Objektes in Echtzeit an die geänderten Informationen über die Augen des Betrachters anpasst. Damit ist gewährleistet, dass mit vertretbarem Aufwand nach dem Erkennen von Veränderungen eine synchrone Veränderung der Projektion des Objektes erfolgt und der räumliche Eindruck für den Betrachter erhalten bleibt und dauerhaft ergonomisch optimiert erfasst werden kann.
  • Die Erfindung umfasst ebenfalls gemäß Anspruch 19 eine Vorrichtung zur ergonomischen Darstellung der räumlichen Tiefe von Objekten in virtuellen Umgebungen, bei dem die Ansicht des mindestens einen Objektes mittels eines stereoskopischen Projektionssystems mindestens einem Betrachter in Form sich überlagernder Bilder für jedes Auge des Betrachters dargeboten wird. Hierbei wird eine derartige Vorrichtung dadurch ausgestaltet, dass im Bereich des stereoskopischen Projektionssystems eine Erkennungseinrichtung angeordnet ist, die Informationen über die jeweils aktuelle Blickrichtung und/oder den Pupillenabstand und/oder die Lage von mindestens einem der Augen des Betrachters oder daraus abgeleitete Werte erfasst und an eine Auswerteeinheit zur Beeinflussung der Parameter der Projektion der sich für den Betrachter überlagernden Bilder des Objektes weiterleitet, und die Auswerteeinheit die Parameter der Projektion derart verändert und das stereoskopische Projektionssystem in Echtzeit derart ansteuert und die technischen Parameter der Projektion, insbesondere die Parallaxe und/oder die Konvergenzdistanz, der sich für den Betrachter überlagernden Bilder des Objektes derart ändert, dass sich für den Betrachter ein räumliches Bild des Objektes mit einem räumlichen Tiefeneindruck ergibt, der permanent auf sich ändernde Betrachtungsbedingungen abgestimmt ist.
  • Besonders vorteilhaft ist es wenn, die Erkennungseinrichtung ein Gerät zur Erfassung der Augenbewegungen und/oder der Blickbewegungen, insbesondere ein Eye-Tracking-System aufweist, das als an sich handelsübliches Gerät einfach und relativ kostengünstig zu beschaffen ist und hinsichtlich seiner Funktion sicher die Erfassung der Augenbewegungen erlaubt. Da derartige Eye-Tracking-Systeme an sich bekannt sind, soll hierauf nicht weiter eingegangen werden.
  • Weiterhin sollte die Erkennungseinrichtung im Bereich der Projektionsebene oder zwischen der Projektionsebene des stereoskopischen Projektionssystems und dem Betrachter derart angeordnet und ausgerichtet sein, dass die Erkennungseinrichtung die Augen des Betrachters laufend überwachen kann. Hierzu kann die Erkennungseinrichtung beispielsweise an der Projektionsebene des stereoskopischen Projektionssystems fest angeordnet und auf die Augen des Betrachters ausgerichtet sein.
  • Es ist aber ebenfalls denkbar, dass die Erkennungseinrichtung im direkten Umfeld der Augen des Betrachters angeordnet, vorzugsweise in ein im direkten Umfeld der Augen des Betrachters angeordnetes Projektionssystem integriert ist. Derartige im direkten Umfeld der Augen des Betrachters angeordnete Projektionssysteme sind beispielsweise sog. Head-Mountes-Displays, die etwa in einer Brille integriert oder an einer Kopfhalterung befestigt sein können und sich in der Regel in unmittelbarer Nähe vor dem oder den Augen befinden. Damit decken diese Head-Mounted-Displays das normale Gesichtsfeld des Betrachters ab und eignen sich auch zur Anordnung einer entsprechenden Erkennungseinrichtung.
  • Es ist weiterhin denkbar, dass das stereoskopische Projektionssystem eine großflächige Darstellungseinrichtung für die Bilder des Objektes oder auch wie schon vorstehend beschrieben eine im direkten Umfeld der Augen des Betrachters angeordnete Projektionseinrichtung, vorzugsweise eine getrennte Projektionseinrichtung für jedes Augen des Betrachters aufweist. Großflächige stereoskopische Projektionssysteme können bevorzugt auch mit einer Shutterbrille verwendet werden.
  • Eine besonders bevorzugte Ausführungsform des erfindungsgemäßen Verfahrens bzw. der erfindungsgemäßen Vorrichtung zeigt die Zeichnung.
  • Es zeigen:
  • 1 – eine Darstellung der geometrischen und optischen Einflussgrößen auf die stereoskopische Projektion,
  • 2 – eine Darstellung der geometrischen und optischen Einflussgrößen auf die stereoskopische Projektion bei der Anpassung der Konvergenzdistanz an die Akkomodationsdistanz,
  • 3 – eine Darstellung der geometrischen und optischen Einflussgrößen auf die stereoskopische Projektion bei der Anpassung der Konvergenzdistanz an die Fixationsdistanz,
  • 4 – ein schematische Darstellung des prinzipiellen Aufbaus einer erfindungsgemäßen Vorrichtung.
  • In 2 sind die geometrischen und optischen Einflussgrößen auf die stereoskopische Projektion bei der Anpassung der Konvergenzdistanz 7 an die Akkomodationsdistanz 9 dargestellt, auf der Grundlage der Messwerte der Erkennungseinrichtung 15. Ausgangspunkt ist dabei die Situation, dass die Konvergenzdistanz 7 von der Akkommodationsdistanz 9 so weit abweicht, dass das betrachtete Objekt 13 als dicht vor den Augen 3, 4 und deshalb als Doppelbild wahrgenommen wird. Durch Vergrößerung der Konvergenzdistanz 7 wird nun die räumliche Lage der Darstellungen 14' für das rechte und das linke Auge 3, 4 auf der Projektionsfläche 2 durch Verschiebung entlang der Pfeile 12 zur Deckung gebracht, so dass die Schnittpunkte von Konvergenz und Akkomodation übereinstimmen und das räumliche Bild 13 des Objektes 1 entsteht. Die sich kreuzenden Sehstrahlen 10 schneiden sich dann nach der Verschiebung in den Sehstrahlen 10' auf der Projektionsfläche. Subjektiv bewegen sich die beiden Darstellungen 13 analog auf die Projektionsfläche 2 zu und können dort schließlich zu einer dreidimensionalen Bild 13 fusioniert werden. Auf diese Weise ist also die angepasste Darstellung von Objekten 1 möglich, wobei allerdings das jeweils betrachtete Objekt 1 immer auf der Ebene der Projektionsfläche 2 erscheint.
  • In 3 ist der Fall dargestellt, dass aufgrund der Messwerte der Erkennungseinrichtung 15 die Konvergenzdistanz 7 an die Fixationsdistanz 8 angepasst wird. Ausgangspunkt ist dabei die Situation, dass die Konvergenzdistanz 7 von der Fixationsdistanz 8 so weit abweicht, dass das betrachtete Objekt 1 als dicht vor den Augen und deshalb als Doppelbild wahrgenommen wird. Durch Vergrößerung der Konvergenzdistanz 7 zur Konvergenzdistanz 7' wird nun die räumliche Lage der Darstellungen 14 für das rechte und das linke Auge 3, 4 auf der Projektionsfläche 2 soweit an geglichen, dass die Schnittpunkte von Konvergenz und Fixation übereinstimmen. Die beiden Darstellungen 13 können schließlich in einem Bereich vor der Projektionsfläche 2 zu einer dreidimensionalen Bild 13' fusioniert werden. Auf diese Weise ist also auch die angepasste Darstellung von Objekten 1 vor und hinter der Projektionsfläche 2 möglich.
  • In beiden betrachteten Situationen gemäß 2 und 3 besteht aber weiterhin eine Fehlanpassung, im ersten Fall an die Fixationsdistanz 8, im zweiten an die Akkommodationsdistanz 9. Welches der genannten oder auch anderen Prinzipien zur Korrektur der Projektionsparameter vorzuziehen ist, hängt nicht unwesentlich vom subjektiven Empfinden des Betrachters ab. Dabei ist auch zu prüfen, ob eine kompromisshafte Einstellung der Konvergenzdistanz 7, etwa auf den Mittelwert von Fixationsdistanz 8 und Akkomodationsdistanz 9, zu einer Minimierung der psychischen Beanspruchung des Betrachters führt.
  • Abschließend sei festgestellt, dass durch eine fortlaufende Registrierung der Betrachtungsbedingungen in analoger Weise auch Probleme der idealisierten, konstanten und zentrierten, Position des Betrachters behoben werden können. Solche statischen Zwangshaltungen sind unter ergonomischen Gesichtspunkten unbedingt zu vermeiden, so dass zusätzlich ein Beitrag zur Verringerung der physischen Beanspruchung geleistet werden kann.
  • In der 4 ist in einer sehr schematischen Darstellung der prinzipielle Aufbau einer erfindungsgemäßen Vorrichtung dargestellt, die bei der Betrachtung eines Objektes 1 durch die beiden Augen 3, 4 eines Betrachters entsteht. Hierbei wird ein Bild des Objektes 1 auf einer Projektionseinrichtung 16 in vorstehend beschriebener Weise erzeugt, wobei gleichzeitig eine etwa als Eye-Tracking-System ausgebildete Erkennungseinrichtung 15 die Bewegungen der Augen 3, 4 in Bezug auf die jeweils aktuelle Blickrichtung 10 und/oder den Pupillenabstand 5 und/oder die Lage der Augen 3, 4 überwacht. Diese Informationen 18 werden zu einer Auswerteeinheit 17 übertragen, die zum einen ermittelt, welches Objekt 1 der virtuellen Umgebung der Betrachter gerade fixiert und daraus eine Anpassung der Parameter der Projektion der beiden sich überlagernden Bilder 14 vornimmt, die den linken und dem rechten Auge 3, 4 des Betrachters jeweils getrennt zu sehen gegeben werden. Diese geän derten Parameter werden dann als Steuersignale 19 der Projektionseinrichtung 16 übermittelt.
  • Vorstehend beschrieben ist eine solche blickabhängige Variation der Darstellungsparameter, bei der die Projektion auf eine einzelne Person abgestimmt wird. In der beschriebenen Form eignet sich das Verfahren also für individuell ausgerichtete Projektionssysteme, wie dies z. B. die meisten autostereoskopischen Bildschirme sind. Aber auch für auf mehrere Personen ausgerichtete Systeme sind analoge technische Lösungen möglich, indem das Eye-Tracking-System mehrere Augenpaare 3, 4 gleichzeitig verfolgt und die jeweils angepasste Projektion durch Zeitmultiplexierung dargestellt wird. Dieses Verfahren ist z. B. bereits bei Shutter-Systemen zur Trennung der Signale für das linke und rechte Auge 3, 4 gebräuchlich.
  • Die Erfindung könnte hinsichtlich ihrer Anwendung als Standard-Element in stereoskopischer Projektionssysteme integriert und beispielsweise in folgenden Bereichen angewendet werden:
    • • Industrie (z. B. Computer Aided Design, Virtuelles Prototyping)
    • • Medizin (z. B. Stereoendoskopie)
    • • Freizeit und Unterhaltung (z. B. Computerspiele, Freizeitparks)
  • 1
    Objekt
    2
    Projektionsfläche
    3
    linkes Auge
    4
    rechtes Auge
    5
    Pupillenabstand
    6
    Parallaxe
    7, 7'
    Konvergenzdistanz, unkorrigiert und korrigiert
    8
    Fixationsdistanz
    9
    Akkomodationsdistanz
    10, 10'
    Sehstrahl, unkorrigiert und korrigiert
    11
    Verschiebung Objektbild
    12
    Verschiebung Teilbild
    13, 13'
    Darstellung des virtuellen Objekts, unkorrigiert und korrigiert
    14, 14'
    (überlagernde) Bilder des Objekts auf der Projektionsfläche, unkorrigiert und korrigiert
    15
    Erkennungseinrichtung
    16
    Projektionseinrichtung
    17
    Auswerteeinheit
    18
    Informationen
    19
    geänderte Parameter Projektion
    20
    Fixationspunkt
    21
    Konvergenzpunkt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - GB 2354389 A [0008]
    • - US 6798406 B1 [0008]
    • - US 5859642 [0009]
  • Zitierte Nicht-Patentliteratur
    • - DIN 33402-2, 2005 [0006]
    • - Jaimes, A. und Sebe, N., Multimodal human computer interaction: a survey, IEEE International Workshop an Human Computer Interaction in conjunction with ICCV, 2005 [0009]
    • - Ware, C., Gobrecht, C., und Paton, M. A., Dynamic adjustment of stereo display parameters, IEEE Transactions an Systems, Man and Cybernetics – Part A: Systems and Humans, 28, 56–65 aus dem Jahr 1998 [0010]

Claims (27)

  1. Verfahren zur ergonomischen Darstellung der räumlichen Tiefe von Objekten (1) in virtuellen Umgebungen, bei dem die Ansicht des mindestens eines Objektes (1) mittels eines stereoskopischen Projektionssystems (16) mindestens einem Betrachter in Form sich überlagernder Bilder (14, 14') für jedes Auge (3, 4) des Betrachters dargeboten wird, dadurch gekennzeichnet, dass mittels einer Erkennungseinrichtung (15) mindestens ein Auge (3, 4) des Betrachters laufend überwacht wird, um Informationen (18) über die jeweils aktuellen realen Betrachtungsbedingungen, insbesondere die Blickrichtung (10) und/oder den Pupillenabstand (5) und/oder die Lage der Augen (3, 4) des Betrachters oder daraus abgeleitete Werte zu gewinnen, mit diesen Informationen über die Betrachtungsbedingungen in Echtzeit die technischen Parameter (19) der Projektion, insbesondere die Parallaxe (6) und/oder die Konvergenzdistanz (7), der sich für den Betrachter überlagernden Bilder (14, 14') des Objektes (1) in einer Auswerteeinheit (17) automatisch derart beeinflusst werden, dass sich ein räumliches Bild (13') des Objektes (1) mit einem räumlichen Tiefeneindruck ergibt, der permanent auf sich ändernde Betrachtungsbedingungen abgestimmt ist.
  2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass die Parameter (19) der Projektion der sich für den Betrachter überlagernden Bilder (14, 14') des Objektes (1) derart in Echtzeit verändert werden, dass die Parallaxe (6) an den aus den Informationen (18) über die Betrachtungsbedingungen ermittelten Pupillenabstand (5) der Augen (3, 4) des Betrachters angeglichen wird.
  3. Verfahren gemäß einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Parameter (19) der Projektion der sich für den Betrachter überlagernden Bilder (14, 14') des Objektes (1) derart in Echtzeit verändert werden, dass die Konvergenzdistanz (7, 7') an die aus den Informationen (18) über die jeweils aktuelle Blickrichtung (10) und/oder den Pupillenabstand (5) und/oder die Lage der Augen (3, 4) des Betrachters ermittelten Akkomodationsdistanz (9) der Augen (3, 4) des Betrachters angeglichen wird.
  4. Verfahren gemäß Anspruch 3, dadurch gekennzeichnet, dass die Konvergenzdistanz (7, 7') derart verändert wird, dass die Schnittpunkte von Konvergenz und Akkomodation des Auges (3, 4) im wesentlichen übereinstimmen.
  5. Verfahren gemäß einem der Ansprüche 3 oder 4, dadurch gekennzeichnet, dass das vom Betrachter wahrgenommene Bild (13) des Objektes (1) auf der Projektionsfläche (2) des stereoskopischen Projektionssystems (16) zu liegen kommt.
  6. Verfahren gemäß einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass die Erkennungseinrichtung (15) die Blickrichtung (10, 10') der Augen (3, 4) des Betrachters erfasst.
  7. Verfahren gemäß einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Parameter der Projektion der sich für den Betrachter überlagernden Bilder (14) des Objektes (1) derart in Echtzeit verändert werden, dass die Konvergenzdistanz (7, 7') an die aus den Informationen über die jeweils aktuelle Blickrichtung (10) und/oder den Pupillenabstand (5) und/oder die Lage der Augen (3, 4) des Betrachters ermittelte Fixationsdistanz (8) der Augen (3, 4) des Betrachters angeglichen wird.
  8. Verfahren gemäß Anspruch 7, dadurch gekennzeichnet, dass die Konvergenzdistanz (7, 7') derart verändert wird, dass die Schnittpunkte von Konvergenz und Fixation der Augen (3, 4) im wesentlichen übereinstimmen.
  9. Verfahren gemäß Anspruch 7, dadurch gekennzeichnet, dass die Konvergenzdistanz (7, 7') derart verändert wird, dass die Konvergenzdistanz (7, 7') aus einem Zwischenwert aus der jeweiligen Fixationsdistanz (8) und der Akkomodationsdistanz (9), vorzugsweise aus dem Mittelwert gebildet wird.
  10. Verfahren gemäß einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass das vom Betrachter wahrgenommene Bild (13) des Objektes (1) vor oder hinter der Projektionsfläche (2) des stereoskopischen Projektionssystems (16) zu liegen kommt.
  11. Verfahren gemäß einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, dass die Erkennungseinrichtung (15) die Blickrichtung (10) der Augen (3, 4) des Betrachters erfasst.
  12. Verfahren gemäß einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Anordnung der beiden Bilder (14') für jedes Auge (3, 4) des Betrachters derart zueinander verschoben wird, dass sich in Abhängigkeit von dem betrachteten Objekt (1) für den Betrachter entweder auf der Projektionsebene (2) des stereoskopischen Projektionssystems (16) oder im Bereich zwischen Fixationsdistanz (8) und Akkomodationsdistanz (9) der Augen (3, 4) ein räumliches Abbild (13) des Objektes (1) ergibt.
  13. Verfahren gemäß einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Erkennungseinrichtung (15) vornehmlich die unwillkürlichen Bewegungen der Augen (3, 4) des Betrachters erfasst.
  14. Verfahren gemäß einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Erkennungseinrichtung (15) laufend die jeweils aktuelle Blickrichtung (10) und/oder den Pupillenabstand (5) und/oder die Lage der Augen (3, 4) des Betrachters erfasst und in Echtzeit an die Auswerteeinheit (17) weiterleitet.
  15. Verfahren gemäß einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Erkennungseinrichtung (15) die jeweils aktuelle Blickrichtung (10) und/oder den Pupillenabstand (5) und/oder die Lage der Augen (3, 4) von mehr als einem Betrachter erfasst.
  16. Verfahren gemäß Anspruch 15, dadurch gekennzeichnet, dass das stereoskopische Projektionssystem (16) für jeden der Betrachter angepasste Bilder (13') der jeweils betrachteten Objekte (1) darstellt.
  17. Verfahren gemäß Anspruch 16, dadurch gekennzeichnet, dass die Darstellung der jeweiligen Bilder (13) für mehr als einen Betrachter zeitversetzt, vorzugsweise mittels Zeitmultiplex gestaffelt erfolgt.
  18. Verfahren gemäß einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Auswerteeinheit (17) die in Echtzeit von der Erkennungseinrichtung (15) laufend erfassten Informationen (18) über die jeweils aktuelle Blickrichtung (10) und/oder den Pupillenabstand (5) und/oder die Lage der Augen (3, 4) des Betrachters auf Veränderungen überwacht und beim Auftreten von Veränderungen die Parameter der Projektion der sich für den Betrachter überlagernden Bilder (14') des Objektes (1) in Echtzeit an die geänderten Informationen (18) über die Augen (3, 4) des Betrachters anpasst.
  19. Vorrichtung zur ergonomischen Darstellung der räumlichen Tiefe von Objekten (1) in virtuellen Umgebungen, bei dem die Ansicht des mindestens eines Objektes (1) mittels eines stereoskopischen Projektionssystems (16) mindestens einem Betrachter in Form sich überlagernder Bilder (14') für jedes Auge (3, 4) des Betrachters dargeboten wird, dadurch gekennzeichnet, dass im Bereich des stereoskopischen Projektionssystems (16) eine Erkennungseinrichtung (15) angeordnet ist, die Informationen (18) über die jeweils aktuelle Blickrichtung (10) und/oder den Pupillenabstand (5) und/oder die Lage von mindestens einem der Augen (3, 4) des Betrachters oder daraus abgeleitete Werte erfasst und an eine Auswerteeinheit (17) zur Beeinflussung der Parame ter der Projektion der sich für den Betrachter überlagernden Bilder (14') des Objektes (1) weiterleitet, die Auswerteeinheit (17) die Parameter der Projektion derart verändert und das stereoskopische Projektionssystem (16) in Echtzeit derart ansteuert und die technischen Parameter (19) der Projektion, insbesondere die Parallaxe (6) und/oder die Konvergenzdistanz (7), der sich für den Betrachter überlagernden Bilder (14, 14') des Objektes (1) derart ändert, dass sich für den Betrachter ein räumliches Bild (13') des Objektes (1) mit einem räumlichen Tiefeneindruck ergibt, der permanent auf sich ändernde Betrachtungsbedingungen abgestimmt ist.
  20. Vorrichtung gemäß Anspruch 19, dadurch gekennzeichnet, dass die Erkennungseinrichtung (15) ein Gerät zur Erfassung der Augenbewegungen und/oder der Blickbewegungen, insbesondere ein Eye-Tracking-System aufweist.
  21. Vorrichtung gemäß einem der Ansprüche 19 oder 20, dadurch gekennzeichnet, dass die Erkennungseinrichtung (15) im Bereich der Projektionsebene (2) oder zwischen der Projektionsebene (2) des stereoskopischen Projektionssystems (16) und dem Betrachter derart angeordnet und ausgerichtet ist, dass die Erkennungseinrichtung (15) die Augen (3, 4) des Betrachters laufend überwachen kann.
  22. Vorrichtung gemäß einem der Ansprüche 19 oder 20, dadurch gekennzeichnet, dass die Erkennungseinrichtung (15) im direkten Umfeld der Augen (3, 4) des Betrachters angeordnet, vorzugsweise in ein im direkten Umfeld der Augen (3, 4) des Betrachters angeordnetes Projektionssystem (16) integriert ist.
  23. Vorrichtung gemäß einem der Ansprüche 19 bis 22, dadurch gekennzeichnet, dass das stereoskopische Projektionssystem (16) eine großflächige Darstellungseinrichtung für die Bilder (14, 14') des Objektes (1) aufweist.
  24. Vorrichtung gemäß einem der Ansprüche 19 bis 22, dadurch gekennzeichnet, dass das stereoskopische Projektionssystem (16) eine im direkten Umfeld der Augen (3, 4) des Betrachters angeordnete Projektionseinrichtung, vorzugswei se eine getrennte Projektionseinrichtung für jedes Auge (3, 4) des Betrachters aufweist.
  25. Vorrichtung gemäß einem der Ansprüche 19 bis 24, dadurch gekennzeichnet, dass das stereoskopische Projektionssystem (16) mit einer Shutterbrille gemeinsam einsetzbar ist.
  26. Vorrichtung gemäß einem der Ansprüche 19 bis 24, dadurch gekennzeichnet, dass das stereoskopische Projektionssystem (16) in ein Head-Mounted-Display integriert ist.
  27. Vorrichtung gemäß einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das stereoskopische Projektionssystem (16) in einen autostereoskopischen Bildschirm integriert ist.
DE102007028654A 2007-06-19 2007-06-19 Vorrichtung und Verfahren zur ergonomischen Darstellung der räumlichen Tiefe von Objekten in virtuellen Umgebungen Withdrawn DE102007028654A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007028654A DE102007028654A1 (de) 2007-06-19 2007-06-19 Vorrichtung und Verfahren zur ergonomischen Darstellung der räumlichen Tiefe von Objekten in virtuellen Umgebungen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007028654A DE102007028654A1 (de) 2007-06-19 2007-06-19 Vorrichtung und Verfahren zur ergonomischen Darstellung der räumlichen Tiefe von Objekten in virtuellen Umgebungen

Publications (1)

Publication Number Publication Date
DE102007028654A1 true DE102007028654A1 (de) 2009-01-15

Family

ID=40121249

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007028654A Withdrawn DE102007028654A1 (de) 2007-06-19 2007-06-19 Vorrichtung und Verfahren zur ergonomischen Darstellung der räumlichen Tiefe von Objekten in virtuellen Umgebungen

Country Status (1)

Country Link
DE (1) DE102007028654A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2299728A3 (de) * 2009-09-16 2011-07-13 FUJIFILM Corporation Stereoskopische Bildanzeigevorrichtung
WO2013018004A1 (en) * 2011-07-29 2013-02-07 Sony Mobile Communications Ab Gaze controlled focusing of stereoscopic content
DE102016102868A1 (de) * 2016-02-18 2017-08-24 Adrian Drewes System zur Darstellung von Objekten in einem virtuellen dreidimensionalen Bildraum
US10321818B2 (en) 2016-10-31 2019-06-18 Brainscope Company, Inc. System and method for ocular function tests
US11652970B2 (en) * 2017-03-07 2023-05-16 Bitmanagement Software GmbH Apparatus and method for representing a spatial image of an object in a virtual environment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5859642A (en) 1996-09-26 1999-01-12 Sandia Corporation Virtual button interface
GB2354389A (en) 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
US6246382B1 (en) * 1993-03-03 2001-06-12 Francis J. Maguire, Jr. Apparatus for presenting stereoscopic images
US20050190180A1 (en) * 2004-02-27 2005-09-01 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
WO2006017771A1 (en) * 2004-08-06 2006-02-16 University Of Washington Variable fixation viewing distance scanned light displays
US20060232665A1 (en) * 2002-03-15 2006-10-19 7Tm Pharma A/S Materials and methods for simulating focal shifts in viewers using large depth of focus displays
US7190518B1 (en) * 1996-01-22 2007-03-13 3Ality, Inc. Systems for and methods of three dimensional viewing

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6246382B1 (en) * 1993-03-03 2001-06-12 Francis J. Maguire, Jr. Apparatus for presenting stereoscopic images
US7190518B1 (en) * 1996-01-22 2007-03-13 3Ality, Inc. Systems for and methods of three dimensional viewing
US5859642A (en) 1996-09-26 1999-01-12 Sandia Corporation Virtual button interface
GB2354389A (en) 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
US6798406B1 (en) 1999-09-15 2004-09-28 Sharp Kabushiki Kaisha Stereo images with comfortable perceived depth
US20060232665A1 (en) * 2002-03-15 2006-10-19 7Tm Pharma A/S Materials and methods for simulating focal shifts in viewers using large depth of focus displays
US20050190180A1 (en) * 2004-02-27 2005-09-01 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
WO2006017771A1 (en) * 2004-08-06 2006-02-16 University Of Washington Variable fixation viewing distance scanned light displays

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DIN 33402-2, 2005
Jaimes, A. und Sebe, N., Multimodal human computer interaction: a survey, IEEE International Workshop an Human Computer Interaction in conjunction with ICCV, 2005
Ware, C., Gobrecht, C., und Paton, M. A., Dynamic adjustment of stereo display parameters, IEEE Transactions an Systems, Man and Cybernetics - Part A: Systems and Humans, 28, 56-65 aus dem Jahr 1998
WARE,Colin,et.al.: Dynamic Adjustment of Stereo Di splay Parameters. In: IEEE Transactions on System, MAN, and Cybernetics Part A:Systems and Humans, Vol.28,No.1,Jan.1998,S.56-65
WARE,Colin,et.al.: Dynamic Adjustment of Stereo Di splay Parameters. In: IEEE Transactions on System, MAN, and Cybernetics Part A:Systems and Humans, Vol.28, No.1, Jan.1998, S.56-65; *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2299728A3 (de) * 2009-09-16 2011-07-13 FUJIFILM Corporation Stereoskopische Bildanzeigevorrichtung
WO2013018004A1 (en) * 2011-07-29 2013-02-07 Sony Mobile Communications Ab Gaze controlled focusing of stereoscopic content
US20140198189A1 (en) * 2011-07-29 2014-07-17 Sony Mobile Communications Ab Gaze controlled focusing of stereoscopic content
US9800864B2 (en) * 2011-07-29 2017-10-24 Sony Mobile Communications Inc. Gaze controlled focusing of stereoscopic content
DE102016102868A1 (de) * 2016-02-18 2017-08-24 Adrian Drewes System zur Darstellung von Objekten in einem virtuellen dreidimensionalen Bildraum
US10321818B2 (en) 2016-10-31 2019-06-18 Brainscope Company, Inc. System and method for ocular function tests
US10881290B2 (en) 2016-10-31 2021-01-05 Brainscope Company, Inc. System and method for ocular function tests
US11652970B2 (en) * 2017-03-07 2023-05-16 Bitmanagement Software GmbH Apparatus and method for representing a spatial image of an object in a virtual environment

Similar Documents

Publication Publication Date Title
EP2926733B1 (de) Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung
EP0836332B1 (de) Positionsadaptiver, autostereoskoper Monitor (PAM)
EP2289061B1 (de) Ophthalmoskop-simulator
WO2015078720A1 (de) Verfahren zur sehzeichendarstellung, sehzeichendarstellung, dazugehörige verwendung und bildausgabegerät
DE102014207130A1 (de) Operationsmikroskop
DE102006019169A1 (de) Autostereoskopische Adapterscheibe mit Echtzeit-Bildsynthese
DE102006049404A1 (de) HMD-Vorrichtung
DE4417768C2 (de) Verfahren und Vorrichtung zum Projizieren von Bildinformationen bei Personen mit durch eine Abweichung der Stellung ihrer Sehachse verursachten Störungen des Sehens
WO2009062492A2 (de) Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum
DE102007028654A1 (de) Vorrichtung und Verfahren zur ergonomischen Darstellung der räumlichen Tiefe von Objekten in virtuellen Umgebungen
DE102013201773B4 (de) Kopfgetragenes optisches Instrument und Verfahren zum Justieren eines kopfgetragenen optischen Instruments
EP0362692A2 (de) Brille zum ermüdungsfreien Betrachten der Bildebene eines Bildschirms oder anderer Bildebenen
WO2016188596A1 (de) Dynamisch stereoskope sehzeichen
DE102015216648B3 (de) System für das stereoskopische Visualisieren eines Objektbereichs mit drei optischen Kanälen und einem gemeinsamen Bildsensor
DE112011104584T5 (de) Verfahren und System zur Disparitätsanpassung während stereoskopischen Zoomens
EP3346902B1 (de) System zur prüfung der sehleistung und zum erkennen und korrigieren von sehfehlern
DE19809591A1 (de) Vorrichtung und Verfahren zur Darbietung von bewegten oder unbewegten Seheindrücken zur automatischen und umfassenden Erfassung zahlreicher Parameter des Betrachters
DE102015207911B3 (de) Verfahren und Vorrichtung zur Bestimmung der Korrekturwerte der Augen einer Person
DE102012201564B3 (de) System zur Darstellung stereoskopischer Bilder
DE19836002B4 (de) Stereoskopische Flugführungshilfe
DE102015014041B3 (de) Virtual-Reality-System und Verfahren zum Betreiben eines Virtual-Reality-Systems
DE102012108249A1 (de) Verfahren und Vorrichtung zur Verbesserung der Wiedergabe stereoskopischer Bilder
DE102019118510B4 (de) Verfahren zur Bildverarbeitung
DE102011088492A1 (de) Navigationssystem mit einer verbesserten Kartendarstellung
DE102019108999B4 (de) Verfahren zur immersiven Anzeige von stereoskopischen Bildern und Bildfolgen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140101