-
Technisches Gebiet
-
Ausführungsbeispiele beziehen sich auf Eingabeschnittstellen und insbesondere eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben.
-
Hintergrund
-
Aufstrebende Technologien, wie beispielsweise immersive Umgebungen, die durch 3D-Anzeigetechniken geschaffen werden, können es einem Benutzer erlauben, in einer virtuellen Realität stattzufinden (oder darin einzutauchen), die ihn von der Außenwelt vollständig trennen kann. Es kann notwendig sein, dass sich Benutzereingabesteuerungen auch in die virtuelle 3D-Welt hinein bewegen, da ein Fokussieren der Augen auf eine externe Eingabesteuereinheit den Benutzer von der immersiven Erfahrung ablenken kann.
-
Zusammenfassung
-
Einige Ausführungsbeispiele beziehen sich auf eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals. Die Vorrichtung umfasst ein Eingabemodul, das ausgebildet ist, um ein Detektionssignal zu empfangen, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist. Die Vorrichtung umfasst ferner ein Verarbeitungsmodul, das ausgebildet ist, um ein Anzeigensteuerungssignal zu erzeugen, das Anzeigeinformationen zum Produzieren eines Bildes des virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer umfasst. Das Verarbeitungsmodul ist ausgebildet, um das Anzeigensteuerungssignal zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.
-
Einige Ausführungsbeispiele beziehen sich auf ein Verfahren zum Erzeugen eines Anzeigensteuerungssignals. Das Verfahren umfasst ein Empfangen eines Detektionssignals, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist. Das Verfahren umfasst ferner ein Erzeugen eines Anzeigensteuerungssignals, das Anzeigeinformationen zum Produzieren eines Bildes des virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer umfasst, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.
-
Kurze Beschreibung der Figuren
-
Einige Ausführungsbeispiele von Vorrichtungen und/oder Verfahren werden nachfolgend nur beispielhaft und unter Bezugnahme auf die beiliegenden Figuren beschrieben, in denen
-
1 eine schematische Darstellung einer Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals zeigt;
-
2A bis 2C schematische Darstellungen einer Variation einer benutzerwahrnehmbaren Charakteristik eines virtuellen Ziels zeigen;
-
3A bis 3B schematische Darstellungen einer Position eines Benutzerindikators oder einer Distanz zwischen einem Benutzerindikator und zumindest einem Ereignispunkt, der einem virtuellen Ziel zugeordnet ist, zeigen;
-
4 eine schematische Darstellung eines virtuellen Layouts von einem oder mehreren virtuellen Zielen zeigt;
-
5A bis 5D schematische Darstellungen verschiedener Eingabeschnittstellen zeigen;
-
6 ein Flussdiagramm eines Verfahrens zum Erzeugen eines Anzeigensteuerungssignals zeigt;
-
7 ein weiteres Flussdiagramm eines Verfahrens zum Erzeugen eines Anzeigensteuerungssignals zeigt.
-
Ausführliche Beschreibung
-
Verschiedene Ausführungsbeispiele werden nun ausführlicher Bezug nehmend auf die beiliegenden Zeichnungen beschrieben, in denen einige Ausführungsbeispiele dargestellt sind. In den Figuren können die Stärken von Linien, Schichten und/oder Bereichen zur Verdeutlichung übertrieben sein.
-
Während sich weitere Ausführungsbeispiele für verschiedene Modifikationen und alternative Formen eignen, werden dementsprechend Ausführungsbeispiele derselben in den Figuren beispielhaft gezeigt und hier ausführlich beschrieben. Es versteht sich jedoch, dass es nicht beabsichtigt ist, Ausführungsbeispiele auf die offenbarten bestimmten Formen zu begrenzen, sondern im Gegensatz die Ausführungsbeispiele alle in den Schutzbereich der Offenbarung fallenden Modifikationen, Entsprechungen und Alternativen abdecken sollen. In der gesamten Beschreibung der Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder ähnliche Elemente.
-
Es versteht sich, dass, wenn ein Element als mit einem anderen Element „verbunden“ oder „gekoppelt“ bezeichnet wird, es direkt mit dem anderen Element verbunden oder gekoppelt sein kann oder Zwischenelemente vorhanden sein können. Wenn im Gegensatz ein Element als „direkt“ mit einem anderen Element „verbunden“ oder „gekoppelt“ bezeichnet wird, sind keine Zwischenelemente vorhanden. Sonstige zum Beschreiben des Verhältnisses zwischen Elementen benutzten Ausdrücke sollten auf gleichartige Weise ausgelegt werden (z. B. „zwischen“ gegenüber „direkt zwischen“, „benachbart“ gegenüber „direkt benachbart“ usw.).
-
Die hier verwendete Terminologie bezweckt nur das Beschreiben bestimmter Ausführungsbeispiele und soll nicht begrenzend für weitere Ausführungsbeispiele sein. Nach hiesigem Gebrauch sollen die Singularformen „ein, eine“ und „das, der, die“ auch die Pluralformen umfassen, es sei denn im Zusammenhang wird deutlich etwas anderes angegeben. Es versteht sich weiterhin, dass die Begriffe „umfasst“, „umfassend“, „aufweisen“ und/oder „aufweisend“ bei hiesigem Gebrauch das Vorhandensein angegebener Merkmale, Ganzzahlen, Schritte, Operationen, Elemente und/oder Bestandteile angeben, aber nicht das Vorhandensein oder die Zufügung eines oder mehrerer anderer Merkmale, Ganzzahlen, Schritte, Operationen, Elemente, Bestandteile und/oder Gruppen derselben ausschließen.
-
Sofern nicht anderweitig definiert besitzen alle hier benutzten Begriffe (einschließlich technischer und wissenschaftlicher Begriffe) die gleiche Bedeutung wie sie gewöhnlich von einem Durchschnittsfachmann auf dem Gebiet verstanden wird, zu dem Ausführungsbeispiele gehören. Weiterhin versteht es sich, dass Begriffe, z. B. die in gewöhnlich benutzten Wörterbüchern definierten, als eine Bedeutung besitzend ausgelegt werden sollten, die ihrer Bedeutung im Zusammenhang der entsprechenden Technik entspricht, und nicht in einem idealisierten oder übermäßig formalen Sinn ausgelegt werden, sofern sie nicht ausdrücklich so definiert sind.
-
1 zeigt eine schematische Darstellung einer Vorrichtung 100 zum Erzeugen eines Anzeigensteuerungssignals gemäß einem Ausführungsbeispiel.
-
Die Vorrichtung 100 umfasst ein Eingabemodul 101, das ausgebildet ist, um ein Detektionssignal 116 zu empfangen, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist.
-
Die Vorrichtung 100 umfasst ferner ein Verarbeitungsmodul 102, das ausgebildet ist, um ein Anzeigensteuerungssignal 117 zu erzeugen, das Anzeigeinformationen zum Produzieren eines Bildes des virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer umfasst. Das Verarbeitungsmodul 102 ist ausgebildet, um das Anzeigensteuerungssignal 117 zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.
-
Aufgrund der Erzeugung eines Anzeigensteuerungssignals, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird, kann ein Benutzer zum Beispiel eine Rückmeldung im Hinblick darauf detektieren oder empfangen, wie weit ein Benutzerindikator von einem virtuellen Ziel entfernt sein kann. Ein Variieren oder Verändern einer benutzerwahrnehmbaren Charakteristik, z. B. eines Erscheinungsbildes, des virtuellen Ziels kann die Rückmeldung an den Benutzer verbessern, da der Benutzer direkte Rückmeldung über die Distanz zwischen dem Benutzerindikator und einem spezifischen Eingabeobjekt oder einem virtuellen Ziel empfangen kann. Dies kann zum Beispiel die Interaktion eines Benutzers mit virtuellen Zielen verbessern, die durch das Verarbeitungsmodul erzeugt werden. Zum Beispiel kann die Genauigkeit einer Interaktion zwischen dem Benutzerindikator und dem Aktivieren eines Ereignispunktes zum Auslösen eines Ereignisses verbessert werden.
-
Die Vorrichtung 100 kann zum Beispiel ein Computer, ein Prozessor, ein Mikrocontroller oder ein Teil eines Computers, eines Prozessors oder eines Mikrocontrollers sein. Das Eingabemodul 101 kann zum Beispiel ein Eingabe-Port oder eine Eingabeschnittstelle eines Computers, eines Prozessors oder eines Mikrocontrollers sein. Das Eingabemodul 101 der Vorrichtung 100 kann zum Beispiel ausgebildet sein, um das Detektionssignal 116 von einem dreidimensionalen (3D) Erfassungsvorrichtung zu empfangen, das ausgebildet sein kann, um das Detektionssignal 116 zu erzeugen. Zum Beispiel kann das Eingabemodul 101 ausgebildet sein, um das Detektionssignal 116 von zumindest einem von einer Laufzeit-Kamera (TOF-Kamera; TOF = Time of Flight), einer Kamera zum Produzieren von dreidimensionalen Bildern (z. B. einer 3D-Kamera) oder einem Ultraschallsensor zu empfangen. Das Eingabemodul 101 kann mit der 3D-Erfassungsvorrichtung zum Beispiel über eine verdrahtete oder drahtlose Verbindung gekoppelt sein.
-
Das Detektionssignal 116 kann zum Beispiel Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen dem Benutzerindikator (z. B. einer Fingerspitze) und einem Ereignispunkt umfassen, der einem virtuellen Ziel zugeordnet ist. Bei einigen Beispielen kann das Detektionssignal 116 (Distanz-)Informationen bezogen auf eine Position eines Benutzers umfassen, z. B. Koordinateninformationen eines Benutzerindikators innerhalb eines 3D-Erfassungsraumes der 3D-Erfassungsvorrichtung. Bei einigen Beispielen kann das Detektionssignal 116 Distanzinformationen bezogen auf eine Distanz zwischen dem Benutzerindikator und einem Referenzort umfassen (z. B. zwischen dem Benutzerindikator und der 3D-Erfassungsvorrichtung oder zwischen dem Benutzerindikator und der Anzeigevorrichtung).
-
Der Benutzerindikator kann zum Beispiel ein Finger, eine Fingerspitze oder ein Körperteil eines Benutzers sein. Bei einigen Beispielen kann der Benutzerindikator ein Stift, ein Stick, ein Stock, eine Vorrichtung, ein Tool oder ein Instrument sein, der/das durch den Benutzer gesteuert werden kann.
-
Das Verarbeitungsmodul 102 kann zum Beispiel einen Prozessor, einen Mikrocontroller oder einen Digitalsignalprozessor umfassen, oder Teil eines Prozessors, eines Mikrocontrollers oder eines Digitalsignalprozessors sein. Das Verarbeitungsmodul 102 kann ausgebildet sein, um ein Anzeigensteuerungssignal 117 zu erzeugen, das Anzeigeinformationen zum Produzieren (eines Bildes) eines virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer umfasst. Das Anzeigensteuerungssignal 117, das durch das Verarbeitungsmodul erzeugt wird, kann durch die Anzeigevorrichtung empfangen werden und durch die Anzeigevorrichtung zum Beispiel zum Anzeigen des virtuellen Ziels und/oder des virtuellen Layouts verwendet werden. Das Anzeigensteuerungssignal 117 kann zum Beispiel computerausführbare Anweisungen umfassen, die durch eine Anzeigevorrichtung zum Produzieren der virtuellen Ziele ausgeführt werden können.
-
Bei einigen Beispielen kann das Anzeigensteuerungssignal 117 Anzeigeinformationen zum Repräsentieren des virtuellen Ziels auf einem Anzeigebildschirm für zweidimensionale Präsentation (z. B. eine 2D-Anzeigevorrichtung) umfassen. Zum Beispiel können virtuelle Ziele Schaltflächen oder Auswahlziele sein, die auf einem Bildschirm angezeigt sind. Zum Beispiel kann der Anzeigebildschirm ein Anzeigemonitor für einen Computer, z. B. einen Personal Computer (PC) oder Desktop-Computer, oder einen Anzeigemonitor oder -bildschirm für eine Mobilvorrichtung, eine Tablet-Vorrichtung oder einen All-in-One Personal Computer sein.
-
Bei einigen Beispielen kann das Anzeigensteuerungssignal 117 Anzeigeinformationen zum Erzeugen einer dreidimensionalen Präsentation (z. B. einer stereoskopischen Anzeige oder Präsentation) des virtuellen Ziels durch eine Anzeigevorrichtung für eine dreidimensionale Präsentation (z. B. eine 3D-Anzeigevorrichtung) für einen Benutzer umfassen. Zum Beispiel kann eine 3D-Anzeigevorrichtung, die in Verbindung mit einer Shutterbrille oder 3D-Brillle verwendet wird, zu virtuellen Zielen führen, möglicherweise Schaltflächen oder Auswahlzielen, die als in einer Distanz von den Bildschirm angezeigt wahrgenommen werden. Zum Beispiel können die virtuellen Ziele als in einem 3D-Raum angeordnet wahrgenommen werden. Zu den Beispielen für eine solche Anzeigevorrichtung für eine dreidimensionale Präsentation kann zum Beispiel zumindest eines von einem dreidimensional-fähigen Anzeigebildschirm oder einer am Kopf befestigten Anzeigevorrichtung gehören. Die Anzeigevorrichtung für eine dreidimensionale Präsentation kann ausgebildet sein, um Bilder anzuzeigen, die die Tiefe der durch eine Benutzervorrichtung wahrgenommenen Bilder vergrößern im Vergleich zu einer Anzeigevorrichtung für zweidimensionale Präsentation.
-
Die Variation der zumindest einen benutzerwahrnehmbaren Charakteristik des virtuellen Ziels kann eine Variation einer Position, eines optischen Erscheinungsbildes oder einer Größe des virtuellen Ziels sein, das eine Variation in zumindest einer Abmessung (oder Richtung) in einem dreidimensionalen Raum sein kann (ein 3D-Raum, der durch Koordinaten in einer x- (z. B. einer horizontalen) Richtung, einer y- (z. B. einer vertikalen) Richtung und einer z- (z. B. in einer vorwärts oder rückwärts) Richtung definiert ist). Bei einigen Beispielen kann die benutzerwahrnehmbare Charakteristik zum Beispiel ein Merkmal des virtuellen Ziels sein, wie beispielsweise eine Form, Größe, Farbe oder Farbintensität des virtuellen Ziels, das durch den Benutzer beobachtbar (z. B. optisch sichtbar) sein kann. Bei einigen Beispielen kann die benutzerwahrnehmbare Charakteristik zum Beispiel eine akustische oder haptische Rückmeldung sein, die durch den Benutzer erfasst oder beobachtet werden kann.
-
Das Verarbeitungsmodul 102 kann ausgebildet sein, um das Anzeigensteuerungssignal 117 zu erzeugen, sodass die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf der Distanz variiert wird. Zum Beispiel kann das Verarbeitungsmodul 102 ausgebildet sein, um das Anzeigensteuerungssignal 117 zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels im Verhältnis zu Informationen bezogen auf Veränderungen der Position des Benutzerindikators oder der Distanz zwischen dem Benutzerindikator und dem Ereignispunkt variiert wird. Zum Beispiel kann die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels im Verhältnis zu Veränderungen der Position des Benutzerindikators oder Veränderungen der Distanz zwischen dem Benutzerindikator und dem Ereignispunkt variiert werden.
-
Das Verarbeitungsmodul 102 kann zum Beispiel ausgebildet sein, um die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, der dem virtuellen Ziel zugeordnet ist, basierend auf dem Detektionssignal 116 zu bestimmen. Zum Beispiel kann das Verarbeitungsmodul 102 ausgebildet sein, um die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt basierend auf einer Position des Benutzerindikators zu bestimmen. Zum Beispiel kann das Verarbeitungsmodul 102 ausgebildet sein, um die Distanz basierend auf Koordinaten (z. B. x-, y- oder z-Koordinaten) des Ereignispunktes des virtuellen Ziels eines virtuellen Layouts und Koordinaten (z. B. x-, y- oder z-Koordinaten) der Position des Benutzerindikators zu bestimmen.
-
Das Verarbeitungsmodul 102 kann ausgebildet sein, um ein dem virtuellen Ziel zugeordnetes Ereignis auszulösen, wenn der Benutzerindikator den Ereignispunkt erreicht, der dem virtuellen Ziel zugeordnet ist. Das virtuelle Ziel kann zum Beispiel eine Graphik oder ein Bild einer Schaltfläche, eine Taste einer Tastatur oder eine 3D-Repräsentation einer 3D-Schaltfläche oder einer Taste einer Tastatur sein. Das virtuelle Ziel kann eine Graphik oder ein Bild sein, das ein Ereignis nach Interaktion des Benutzers mit dem virtuellen Ziel auslösen oder aktivieren kann. Bei einigen Beispielen kann sich der Ereignispunkt in einer vorbestimmten Distanz (oder an einem vorbestimmten Koordinatenort) von dem repräsentierten virtuellen Ziel befinden, sodass der Benutzerindikator die Veränderung des Ereignisses aktivieren oder auslösen kann, bevor es an dem virtuellen Ziel ankommt oder es erreicht (z. B. in einer vorbestimmten Distanz von dem virtuellen Ziel). Bei anderen Beispielen kann sich der Ereignispunkt an dem repräsentierten virtuellen Ziel befinden, sodass der Benutzerindikator die Veränderung des Ereignisses aktivieren oder auslösen kann, wenn der Benutzerindikator an dem Ereignispunkt ankommt oder diesen erreicht.
-
Das ausgelöste Ereignis kann eine Veränderung anderer virtueller Komponenten des virtuellen Layouts der Anzeige sein, zusätzlich zu der Veränderung der benutzerwahrnehmbaren Charakteristik des virtuellen Ziels. Zum Beispiel kann das ausgelöste Ereignis das visuelle Erscheinungsbild eines virtuellen Layouts der Anzeige sein. Zum Beispiel kann das ausgelöste Ereignis eine Veränderung eines durch die Anzeigevorrichtung angezeigten Bildes oder einer durch die Anzeigevorrichtung angezeigten Szene, oder der Auslöser eines akustischen (z. B. ein Piepsen oder ein Ton) oder haptischen (z. B. ein Summen, eine Bewegung oder eine Vibration) Ereignisses sein.
-
Techniken, wie beispielsweise dreidimensionale (3D) Laufzeit-Kameras (TOF) und immersive Umgebungen, die durch 3D-Anzeigetechniken geschaffen werden, können es einem Benutzer erlauben, in einer virtuellen Realität stattzufinden (oder darin einzutauchen), die ihn von der Außenwelt vollständig trennen kann.
-
Eingabesteuerungen können virtuelle Tastaturen oder ein virtueller Zeiger sein, die durch die Fingerspitze des Benutzers im Raum berührt werden können. Experimente mit einem virtuellen Tastatur-Demonstrator eines ToF-Bildaufnehmers können zeigen, dass Benutzerinteraktion mit einer virtuellen Oberfläche schwieriger sein kann als mit einer Standardtastatur. Zum Beispiel hat der Benutzer keine Rückmeldung über die Distanz seines Fingers zu einer Eingabe-Schaltfläche, irgendwann berührt der Finger die reale Oberfläche und eine Aktion kann einfach ohne Warnung im Voraus ausgelöst werden. Die hierin beschriebenen Beispiele geben dem Benutzer eine Rückmeldung, wenn seine Fingerspitze sich einer Distanz nähert, kurz bevor durch seine Gestik eine Aktion ausgelöst wird.
-
Die hierin beschriebenen Beispiele bieten dem Benutzer eine visuelle Rückmeldung, wenn er sich dem virtuellen Zielobjekt (z. B. einer Schaltfläche) nähert, die mit der Distanz zu dem Zielobjekt variiert. Dadurch erhält der Benutzer Informationen darüber, wie weit seine Fingerspitze oder seine Zeigevorrichtung von dem Punkt entfernt ist, wo eine Aktion ausgelöst wird. Die Beispiele beschreiben, wie das Erscheinungsbild (Layout in 2D- oder 3D-Präsentation) des Zielobjekts, das für ein Auslösen einer Aktion verantwortlich ist, auf eine Weise zu verändern ist, die proportional zu der Distanz der Zeigevorrichtung zu demselben ist.
-
Bei einigen Beispielen kann das Verarbeitungsmodul ferner ausgebildet sein, um ein Benutzerrückmeldungs-Steuerungssignal zum Variieren eines akustischen oder eines haptischen Signals basierend auf den Informationen zu erzeugen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen. Zum Beispiel kann die haptische Rückmeldung an den Benutzer unter Verwendung von (zum Beispiel vom Benutzer getragenen) Spezialhandschuhen bereitgestellt werden. Eine Audio-Rückmeldung oder akustische Rückmeldung kann an den Benutzer zum Beispiel durch Verändern einer Tonhöhe proportional zu der Distanz bereitgestellt werden. Bei einigen Beispielen kann zum Beispiel eine Projektion einer virtuellen Tastatur auf einen Tisch und Modifizieren des Erscheinungsbildes der vorhandenen Schaltflächen ausgeführt werden.
-
2A bis 2C zeigen eine schematische Darstellung einer Variation einer benutzerwahrnehmbaren Charakteristik eines virtuellen Ziels basierend auf den Informationen bezogen auf eine Position eines Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und einem Ereignispunkt, der einem virtuellen Ziel zugeordnet ist.
-
2A zeigt eine schematische Darstellung, wo es, in einem Anfangszustand, zum Beispiel eine 3D-Tiefenerfassungsvorrichtung (z. B. eine 3D-Erfassungsvorrichtung 203) geben kann, das dazu geeignet sein kann, die Fingerspitze 204 eines Benutzers (z. B. eines Benutzerindikators) zu orten. Ein eingabeempfindliches Objekt 205 (z. B. ein virtuelles Ziel) kann zum Beispiel auf einem PC-Bildschirm, einer Tablet-Oberfläche oder innerhalb einer immersiven, am Kopf befestigten 3D-Anzeige oder auf anderen Arten von Bildschirmen existieren (oder darauf angezeigt sein). Wenn der Benutzerindikator zum Beispiel über einer Schwellendistanz zum Variieren des Objekts 205 sein kann oder diese gerade noch erreicht, kann das Objekt 205 zwischen 0 und 5 % gefüllt sein. Das Verarbeitungsmodul kann ausgebildet sein, um das digitale Steuerungssignal zu erzeugen, sodass die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels variiert wird, wenn die Distanz zwischen dem Benutzerindikator 204 und dem Ereignispunkt, der dem virtuellen Ziel 205 zugeordnet ist, unter einer Schwellendistanz ist.
-
2B zeigt, dass, wenn die Fingerspitze 204 (oder z. B. ein Benutzerindikator oder eine Benutzer-Zeigevorrichtung) das eingabeempfindliche Objekt 205 verschmälert (oder sich demselben annähert), das (virtuelle) Objekt 205 zum Beispiel sein Layout verändert, z. B. durch Auffüllen des Inneren des Objekts. Wenn die Distanz zwischen dem Benutzerindikator 204 und dem Ereignispunkt des virtuellen Ziels 205 unter eine Schwellendistanz fällt, wird die benutzerwahrnehmbare Charakteristik des virtuellen Objekts variiert, da sich der Benutzerindikator 204 näher an den Ereignispunkt bewegt. Dementsprechend kann das Objekt zunehmend oder nach und nach zum Beispiel von 0 % bis 100 % gefüllt sein.
-
2C zeigt, dass, wenn die Fingerspitze 204 zum Beispiel nahe der Position ist, die ein Berührungsereignis auslöst, das Objekt 205 nahezu vollständig gefüllt sein kann und der Benutzer eine Rückmeldung über das unmittelbar bevorstehende Berührungsereignis haben kann. Zum Beispiel kann das Objekt 205 zu 90 % bis 100 % gefüllt sein. Das Erreichen des Ereignispunktes (oder Erreichen des virtuellen Ziels, wenn der Ereignispunkt die gleichen Koordinaten wie das virtuelle Ziel hat) kann das Ereignis auslösen, das dem virtuellen Ziel zugeordnet ist.
-
Ein Verändern des Erscheinungsbildes des eingabeempfindlichen Objekts 205 selbst kann eine Verbesserung sein verglichen zu einer Veränderung eines Cursor-Objekts auf dem Bildschirm. Der Benutzer kann eine direkte Rückmeldung darüber, wie weit er von dem Berühren eines spezifischen Eingabeobjekts entfernt ist und nicht nur Informationen darüber, wo sich ein Cursor auf einem Bildschirm befindet, erhalten. 2A bis 2C zeigen den Vorgang, wenn ein Ereignis durch Berühren eines eingabeempfindlichen Objekts ausgelöst wird und dass das Objekt im Verhältnis zu der Distanz zu demselben modifiziert werden kann.
-
Weitere Einzelheiten und Aspekte sind in Verbindung mit den vorstehend oder nachstehend beschriebenen Ausführungsbeispielen erwähnt (z. B. betreffend die Vorrichtung zum Erzeugen des Anzeigensteuerungssignals, das Eingabemodul, das Detektionssignal, den Benutzerindikator, die Informationen bezogen auf eine Position des Benutzerindikators, die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, das virtuelle Ziel, das Verarbeitungsmodul, das Anzeigensteuerungssignal, die Anzeigeinformationen, die Anzeigevorrichtung und die benutzerwahrnehmbare Charakteristik). Die in 2A bis 2C gezeigten Ausführungsbeispiele können ein oder mehrere, optionale, zusätzliche Merkmale umfassen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren, vorstehend (z. B. 1) oder nachstehend (z. B. 3 bis 7) beschriebenen Ausführungsbeispielen erwähnt sind.
-
Gemäß einem Ausführungsbeispiel zeigen 3A und 3B eine schematische Darstellung einer Position eines Benutzerindikators oder der Distanz zwischen einem Benutzerindikator und zumindest einem Ereignispunkt, der einem virtuellen Ziel zugeordnet ist.
-
3A zeigt eine Distanz, die zwischen einem Benutzerindikator 204 und einem Ereignispunkt gemessen wird, der einem virtuellen Ziel 205 zugeordnet ist. Ein Verarbeitungsmodul kann zum Beispiel ausgebildet sein, um basierend auf dem Detektionssignal eine Distanz d3 zwischen dem Benutzerindikator 204 und dem Ereignispunkt, der dem virtuellen Ziel 205 zugeordnet ist, zu bestimmen. Das Verarbeitungsmodul kann zum Beispiel ferner ausgebildet sein, um ein Anzeigensteuerungssignal zu erzeugen, sodass die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf der Distanz variiert wird. Das Verarbeitungsmodul kann zum Beispiel ausgebildet sein, um das Anzeigensteuerungssignal zu erzeugen, sodass die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels im Verhältnis zu Informationen bezogen auf Veränderungen der Position des Benutzerindikators oder der Distanz zwischen dem Benutzerindikator und dem Ereignispunkt variiert wird.
-
3B zeigt ein anderes Beispiel einer Distanzmessung, die durch ein Verarbeitungsmodul durchgeführt werden kann. Das Verarbeitungsmodul kann zum Beispiel ausgebildet sein, um basierend auf dem Detektionssignal eine erste Distanz d1 zwischen dem Benutzerindikator 204 und einem ersten Ereignispunkt, der einem ersten virtuellen Ziel 205a zugeordnet ist, und eine zweite Distanz d2 zwischen dem Benutzerindikator und einem zweiten Ereignispunkt, der einem zweiten virtuellen Ziel 205b zugeordnet ist, zu bestimmen. Das Verarbeitungsmodul kann ausgebildet sein, um das Anzeigensteuerungssignal zu erzeugen, das Anzeigeinformationen zum Repräsentieren von zumindest einem von dem ersten und zweiten virtuellen Ziel durch die Anzeigevorrichtung umfasst, sodass zumindest eine benutzerwahrnehmbare Charakteristik von zumindest einem von dem ersten 205a und zweiten virtuellen Ziel 205b basierend auf der ersten Distanz und der zweiten Distanz variiert wird. Zum Beispiel kann das Verarbeitungsmodul ausgebildet sein, um das Anzeigensteuerungssignal zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik von einem von dem ersten 205a und zweiten 205b virtuellen Ziel basierend auf einem Vergleich der ersten Distanz und der zweiten Distanz variiert werden kann.
-
Wenn zum Beispiel ein Vergleich der ersten und der zweiten Distanz anzeigt, dass die zweite Distanz d2 zwischen dem Benutzerindikator und einem zweiten Ereignispunkt, der einem zweiten virtuellen Ziel 205b zugeordnet ist, kleiner als eine erste Distanz d1 zwischen dem Benutzerindikator 204 und einem ersten Ereignispunkt ist, der einem ersten virtuellen Ziel 205a zugeordnet ist, kann der Benutzerindikator 204 zum Beispiel näher an dem zweiten virtuellen Ziel als an dem ersten virtuellen Ziel sein. Das Verarbeitungsmodul kann dann zum Beispiel ausgebildet sein, um das Anzeigensteuerungssignal zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik des zweiten virtuellen Ziels 205b im Verhältnis zu Informationen bezogen auf Veränderungen der Distanz zwischen dem Benutzerindikator 204 und dem zweiten Ereignispunkt variiert werden kann. Das erste virtuelle Ziel kann zum Beispiel unverändert bleiben.
-
Bei anderen Beispielen kann das Verarbeitungsmodul ausgebildet sein, um das Anzeigensteuerungssignal zu erzeugen, sodass eine Variation von zumindest einer benutzerwahrnehmbaren Charakteristik des ersten virtuellen Ziels 205a auf der ersten Distanz d1 basieren kann (oder im Verhältnis zu dieser variiert werden kann) und eine Variation von zumindest einer benutzerwahrnehmbaren Charakteristik des zweiten virtuellen Ziels 205b auf der zweiten Distanz d2 basieren kann (oder im Verhältnis zu dieser variiert werden kann). Zum Beispiel kann zumindest eine benutzerwahrnehmbare Charakteristik sowohl des ersten als auch des zweiten virtuellen Ziels variiert werden, aber um unterschiedliche Beträge abhängig von den unterschiedlichen Distanzen zwischen dem Benutzerindikator 204 und jedem jeweiligen ersten und zweiten virtuellen Ziel, oder zwischen dem Benutzerindikator 204 und jedem jeweiligen ersten und zweiten Ereignispunkt des ersten und zweiten virtuellen Ziels.
-
Wie hierin beschrieben kann bei einigen Beispielen (zum Beispiel für Verfahren, die nur den Cursor selbst verändern) eine Distanz zu der (virtuellen) Masseebene ein Maß für die Distanz sein. Bei anderen Beispielen kann stattdessen die Distanz zu dem nächsten oder benachbarten Eingabeobjekt 205b verwendet werden. Dies kann dem Benutzer eine verbesserte Rückmeldung über einen Ort des Benutzerindikators in Bezug auf ein virtuelles Ziel geben. Zum Beispiel kann der Benutzerindikator eines aus einer Mehrzahl von virtuellen Zielen auswählen, oder kann zum Beispiel mehr als ein virtuelles Ziel aus einer Mehrzahl von virtuellen Zielen auswählen.
-
Weitere Einzelheiten und Aspekte sind in Verbindung mit den vorstehend oder nachstehend beschriebenen Ausführungsbeispielen erwähnt (z. B. betreffend die Vorrichtung zum Erzeugen des Anzeigensteuerungssignals, das Eingabemodul, das Detektionssignal, den Benutzerindikator, die Informationen bezogen auf eine Position des Benutzerindikators, die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, das virtuelle Ziel, das Verarbeitungsmodul, das Anzeigensteuerungssignal, die Anzeigeinformationen, die Anzeigevorrichtung und die benutzerwahrnehmbare Charakteristik). Die in 3A und 3B gezeigten Ausführungsbeispiele können ein oder mehrere, optionale, zusätzliche Merkmale umfassen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren, vorstehend (z. B. 1 bis 2C) oder nachstehend (z. B. 4 bis 7) beschriebenen Ausführungsbeispielen erwähnt sind.
-
4 zeigt eine schematische Darstellung 400 eines virtuellen Layouts 412 von einem oder mehreren virtuellen Zielen, oder eines virtuellen Eingabebereichs für einen Desktop-PC oder ein Tablet.
-
Ein Verarbeitungsmodul kann ausgebildet sein, um das Anzeigensteuerungssignal zu erzeugen, das (Anzeige-)Informationen zum Produzieren einer virtuellen Tastatur für einen Benutzer oder ein Bild einer virtuellen Tastatur für einen Benutzer umfasst. Das virtuelle Ziel kann zum Beispiel eine Taste der virtuellen Tastatur sein. Ein Benutzer kann zum Beispiel Gesten innerhalb eines virtuellen Bereiches vor dem Bildschirm ausführen. Zumindest eine benutzerwahrnehmbare Charakteristik eines virtuellen Ziels 205 (z. B. virtuelle Schaltflächen-Nummer „5“) des virtuellen Layouts 412 kann basierend auf oder im Verhältnis zu der Distanz zwischen dem Benutzerindikator 204 und dem Ereignispunkt, der dem virtuellen Ziel 205 zugeordnet ist, variiert werden. Mit abnehmender Distanz (in Pfeilrichtung 407) zwischen dem Benutzerindikator 204 und dem Ereignispunkt, der dem virtuellen Ziel 205 zugeordnet ist, kann das virtuelle Ziel 205 zum Beispiel auffälliger werden, oder das virtuelle Ziele kann sich zum Beispiel hinsichtlich Form, Größe, Farbe oder Farbintensität verändern. Ein Ereignis kann ausgelöst werden, wenn der Benutzerindikator 204 den Ereignispunkt des virtuellen Ziels erreicht. Zum Beispiel kann das Ereignis ausgelöst werden, wenn der Benutzerindikator 204 in einer vorbestimmten Distanz von dem virtuellen Ziel 205 ankommt, das zum Beispiel als ein Ereignispunkt für das virtuelle Ziel 205 bezeichnet werden kann.
-
Bei einigen Beispielen kann zum Beispiel ein 2D-Bildschirm (z. B. ein Anzeigebildschirm) verwendet werden, wo eine Anwendung gezeigt werden kann und der Benutzer mit der Anwendung arbeiten kann, indem Operationen auf dem virtuellen Bereich vor diesem Bildschirm ausgeführt werden. Die Graphiken in 4 zeigen die visuelle Rückmeldung auf einem 2D-(Anzeige-)Bildschirm der Anwendung, wenn der Finger des Benutzers sich dem Eingabeobjekt auf einer Ebene einer virtuellen Tastatur nähert. Mit abnehmender Distanz zwischen dem Finger und dem oben erwähnten Eingabeobjekt kann die visuelle Rückmeldung auf dem 2D-Bildschirm auffälliger werden, bis sie das virtuelle Objekt vollständig abdeckt, wenn das Ereignis ausgelöst wird.
-
Weitere Einzelheiten und Aspekte sind in Verbindung mit den vorstehend oder nachstehend beschriebenen Ausführungsbeispielen erwähnt (z. B. betreffend die Vorrichtung zum Erzeugen des Anzeigensteuerungssignals, das Eingabemodul, das Detektionssignal, den Benutzerindikator, die Informationen bezogen auf eine Position des Benutzerindikators, die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, das virtuelle Ziel, das Verarbeitungsmodul, das Anzeigensteuerungssignal, die Anzeigeinformationen, die Anzeigevorrichtung und die benutzerwahrnehmbare Charakteristik). Das in 4 gezeigte Ausführungsbeispiel kann ein oder mehrere, optionale, zusätzliche Merkmale umfassen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren, vorstehend (z. B. 1 bis 3B) oder nachstehend (z. B. 5 bis 7) beschriebenen Ausführungsbeispielen erwähnt sind.
-
5A zeigt eine Eingabeschnittstelle 500 gemäß einem Ausführungsbeispiel.
-
Die Eingabeschnittstelle 500 umfasst eine dreidimensionale Erfassungsvorrichtung 503, die ausgebildet ist, um ein Detektionssignal 516 zu erzeugen, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist. Die Eingabeschnittstelle 500 kann eine Vorrichtung 509 zum Erzeugen eines Anzeigensteuerungssignals 517 umfassen. Die Eingabeschnittstelle 500 kann ferner eine Anzeigevorrichtung 506 umfassen, die ausgebildet ist, um ein Bild des virtuellen Ziels für einen Benutzer basierend auf dem Anzeigensteuerungssignal 517 zu produzieren. Die Vorrichtung 509 umfasst ein Eingabemodul 501 und ein Verarbeitungsmodul 502. Die Vorrichtung 509, die das Eingabemodul 501 und das Verarbeitungsmodul 502 umfasst, kann zum Beispiel den in Bezug auf 1 bis 4 beschriebenen Vorrichtungen ähnlich sein.
-
Die Vorrichtung 509 kann zum Beispiel ferner eine Ausgabeschnittstelle 508 (z. B. einen Video-Port) umfassen, die ausgebildet ist, um das digitale Steuerungssignal an die Anzeigevorrichtung 506 bereitzustellen.
-
Aufgrund der Variation von zumindest einer benutzerwahrnehmbaren Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, kann ein Benutzer zum Beispiel eine Rückmeldung darüber detektieren oder empfangen, wie weit ein Benutzerindikator von einem virtuellen Ziel entfernt ist. Ein Variieren oder Verändern einer benutzerwahrnehmbaren Charakteristik, z. B. eines Erscheinungsbildes, des virtuellen Ziels kann eine Rückmeldung an den Benutzer verbessern, da der Benutzer eine direkte Rückmeldung über die Distanz zwischen dem Benutzerindikator und einem spezifischen Eingabeobjekt oder einem virtuellen Ziel empfangen kann.
-
5B zeigt eine schematische Darstellung einer Eingabeschnittstelle, die eine Anzeigevorrichtung 506 (z. B. einen Bildschirm) und eine 3D-Erfassungsvorrichtung 503 umfasst. Die Eingabeschnittstelle kann zum Beispiel auch eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals umfassen. Zum Beispiel kann die Anzeigevorrichtung 506 ein Tablet oder einen All-in-One-PC umfassen. Zum Beispiel kann die Anzeigevorrichtung 506 ein Anzeigebildschirm für eine zweidimensionale Präsentation eines Bildes oder eines virtuellen Layouts sein. Eine 3D-Kamera (z. B. 503) kann vor derselben (z. B. der Anzeigevorrichtung 506) platziert sein oder kann zum Beispiel in die Anzeigevorrichtung 506 integriert sein. Ein virtueller Tastaturbereich kann zum Beispiel auf dem Tisch 512 vorhanden sein. Die Distanz d kann abnehmen, wenn die Fingerspitze sich in Richtung einer virtuellen Schaltfläche bewegt (oder einem Ort auf dem Tisch 512 oder einer virtuellen Grundfläche 511, die in der Nähe des Tischs sein kann). Dadurch kann die auf dem Bildschirm oder der Anzeigevorrichtung 506 angezeigte Schaltfläche (oder das virtuelle Ziel) zum Beispiel ihr visuelles Erscheinungsbild oder zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels verändern. Dies kann nützlich sein zum Bereitstellen einer visuellen Rückmeldung für den Benutzer, da der virtuelle Tastaturbereich (oder der Bereich, der auf dem Tisch 512 vorhanden ist) ein Erfassungsbereich sein kann, auf dem Benutzergestiken ausgeführt werden können, und insbesondere wenn ansonsten möglicherweise keine physische, tastbare oder visuelle Tastatur für den Benutzer vorhanden ist. Bei einigen Beispielen können zum Beispiel eine Projektion einer virtuellen Tastatur auf einen Tisch und ein Modifizieren des Erscheinungsbildes der vorhandenen Schaltflächen durchgeführt werden.
-
5C zeigt eine schematische Darstellung einer Eingabeschnittstelle, die eine Anzeigevorrichtung 506 (z. B. einen Bildschirm) und eine 3D-Erfassungsvorrichtung 503 umfasst. Die Eingabeschnittstelle kann zum Beispiel auch eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals umfassen.
-
Zum Beispiel kann die Anzeigevorrichtung 506 ein Anzeigebildschirm für eine dreidimensionale Präsentation eines Bildes oder eines virtuellen Layouts sein. Das virtuelle Layout kann ein oder mehrere virtuelle Objekte oder virtuelle Ziele umfassen, die in einer oder mehreren virtuellen Ebenen angeordnet sind. Zum Beispiel kann die Anzeigevorrichtung 506 ausgebildet sein, um eine 3-Eingabetastatur auf dem Bildschirm für 3D-Vision-Bildschirme anzuzeigen.
-
Es können Techniken vorhanden sein, die die Erzeugung einer realen 3D-Ansicht auf einem Flachbildschirm erlauben, wo der Benutzer eine Shutterbrille tragen kann. Es kann möglich sein, einen bildschirmexternen Effekt zu erzeugen, was bedeutet, dass der Benutzer den Eindruck haben kann, dass ein Objekt näher an ihm als an der realen Bildschirmoberfläche ist. Unter Verwendung der vorgeschlagenen Lösung kann ein Benutzereingabeobjekt (oder virtuelles Ziel 205) an dem Bildschirm (oder der Anzeigevorrichtung 506) gezeigt sein, das sein Erscheinungsbild derart verändert, dass der Auftreffpunkt (oder Ereignispunkt), um eine Aktion auszulösen, vor dem Bildschirm sein kann. Unter Verwendung einer 3D-Tiefenerfassungsvorrichtung 503 kann das Erscheinungsbild eines virtuellen 3D-Eingabeobjekts (oder virtuellen Ziels 205) abhängig von der Distanz der Eingabevorrichtung (oder Benutzerindikators 204) zu diesem angepasst sein. Zum Beispiel kann die Variation der zumindest einen benutzerwahrnehmbaren Charakteristik des virtuellen Ziels eine Variation einer Position, eines optischen Erscheinungsbildes oder einer Größe des virtuellen Ziels in zumindest einer Abmessung (oder Richtung) in einem dreidimensionalen Raum sein (einem 3D-Raum, der durch Koordinaten auf einer x-Achse, z. B. einer horizontalen Richtung, einer y-Achse, z. B. einer vertikalen Richtung und einer z-Achse, z. B. in einer Vorwärts- oder Rückwärtsrichtung, definiert ist). Zum Beispiel kann eine Variation des virtuellen Ziels entlang der x-Achse oder y-Achse in Richtungen parallel zu einer planaren Oberfläche eines Anzeigebildschirms sein. Zum Beispiel kann eine Variation des virtuellen Ziels entlang der z-Achse in einer Richtung senkrecht zu einer planaren Oberfläche des Anzeigebildschirms sein.
-
Zum Beispiel kann das Verarbeitungsmodul ausgebildet sein, um eine Veränderung von zumindest einer benutzerwahrnehmbaren Charakteristik des virtuellen Ziels auszulösen, wenn der Benutzerindikator den Ereignispunkt erreicht, der dem virtuellen Ziel zugeordnet ist. Zum Beispiel kann das Verarbeitungsmodul ein Anzeigensteuerungssignal derart erzeugen, dass das virtuelle Ziel hinsichtlich der Position variieren kann, wenn der Benutzerindikator den Ereignispunkt erreicht, der dem virtuellen Ziel zugeordnet ist. Zum Beispiel kann sich der Ereignispunkt in einer konstanten Distanz von einer Hauptanzeigeoberfläche oder einem Hauptanzeigebildschirm der Anzeigevorrichtung 506 befinden. Da das Verarbeitungsmodul die Distanz des Benutzerindikators von der Anzeigevorrichtung 506 (oder dem Anzeigebildschirm) bestimmen kann, kann das Verarbeitungsmodul eine Stärke einer Variation einer Position, eines optischen Erscheinungsbildes oder Größe des virtuellen Ziels bestimmen, wenn der Benutzerindikator den Ereignispunkt erreicht, der dem virtuellen Ziel zugeordnet ist.
-
Zum Beispiel kann die Veränderung unter Verwendung eines bildschirmexternen Effekts (z. B. in einer z-Richtung) implementiert sein und kann das Eingabeobjekt (oder virtuelle Ziel 205) oder Teile von diesem näher an die Eingabevorrichtung (oder den Benutzerindikator 204) bewegen. 5C zeigt eine Momentaufnahme einer laufenden Benutzerinteraktion. Die Fingerspitze (oder der Benutzerindikator 204) kann sich zu dem Zieleingabeobjekt (oder virtuellen Ziel 205) bewegen und während der Annäherung können die Eingabeobjekte (oder das virtuelle Ziel 205) sich aus dem Bildschirm (oder der Anzeigevorrichtung 506) bewegen und können die Fingerspitze (oder den Benutzerindikator 204) an der virtuellen Ebene treffen, wo ein Ereignis zum Berühren des Objekts ausgelöst wird (z. B. an dem Ereignispunkt). Dies kann es dem Benutzer erlauben, mit einer Anwendung ohne eine physische Tastatur zu interagieren und kann vermeiden, dass der Benutzer die Bildschirmoberfläche mit seinen Fingern beschmutzt, weil der Auslösepunkt zum Beispiel von der Bildschirmoberfläche weg bewegt wird.
-
5D zeigt eine schematische Darstellung einer weiteren Eingabeschnittstelle, die eine Anzeigevorrichtung 506 (z. B. eine am Kopf befestigte Anzeigevorrichtung) und eine 3D-Erfassungsvorrichtung 503 umfasst. Die Eingabeschnittstelle kann ferner zum Beispiel eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals umfassen.
-
Die Anzeigevorrichtung 506 kann zum Beispiel ausgebildet sein, um eine virtuelle 3D-Eingabetastatur für am Kopf befestigte Anzeigen der virtuellen Realität zu umfassen. Bei einem Beispiel kann die Eingabeschnittstelle für komplett immersive 3D-Umgebungen unter Verwendung einer am Kopf montierten Brille verwendet werden. Innerhalb der 3D-Umgebung kann der Benutzer 513 eine (virtuelle) Tastatur (z. B. in einer 3D-Welt eines Spiels oder einer Anwendung) sehen, die im Raum angezeigt ist. Zum Beispiel kann der Benutzer ein virtuelles Layout 412 einer Tastatur auf einem virtuellen Bildschirm sehen. Unter Verwendung einer 3D-Tiefenerfassungsvorrichtung, die auf der 3D-Brille (z. B. 506) oder an einem Platz um den Benutzer herum befestigt sein kann, kann seine Hand (oder ein Bild des Benutzerindikators 204) (durch die 3D-Erfassungsvorrichtung) erfasst werden, und eine semirealistische Repräsentation (oder ein Bild) seiner Hand (oder des Benutzerindikators 204) kann als ein Cursor in der 3D-Umgebung gezeigt werden. Wenn der Cursor sich der virtuellen Tastatur nähert, können sich die Schaltflächen der Tastatur (z. B. ein oder mehrere virtuelle Ziele) verändern (z. B. ein Kegel, der proportional zu der Distanz zu dem Cursor immer größer wird). Zum Beispiel können ein oder mehrere virtuelle Ziele 205a, 205b, 205c aus einer Mehrzahl virtueller Ziele des virtuellen Layouts 412 variiert werden, sodass zumindest eine benutzerwahrnehmbare Charakteristik eines oder mehrerer virtueller Ziele 205a, 205b, 205c jeweils basierend auf einer Distanz zwischen dem Benutzerindikator und jedem jeweiligen virtuellen Ziel variiert werden kann. Da die Distanz zwischen jedem virtuellen Ziel (z. B. 205a, 205b, 205c) unterschiedlich sein kann, kann sich die benutzerwahrnehmbare Charakteristik eines jeden virtuellen Ziels voneinander unterscheiden.
-
Weitere Einzelheiten und Aspekte sind in Verbindung mit den vorstehend oder nachstehend beschriebenen Ausführungsbeispielen erwähnt (z. B. betreffend die Vorrichtung zum Erzeugen des Anzeigensteuerungssignals, das Eingabemodul, das Detektionssignal, den Benutzerindikator, die Informationen bezogen auf eine Position des Benutzerindikators, die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, das virtuelle Ziel, das Verarbeitungsmodul, das Anzeigensteuerungssignal, die Anzeigeinformationen, die Anzeigevorrichtung und die benutzerwahrnehmbare Charakteristik). Das in 5A bis 5D gezeigten Ausführungsbeispiele können ein oder mehrere, optionale, zusätzliche Merkmale umfassen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren, vorstehend (z. B. 1 bis 4) oder nachstehend (z. B. 6 und 7) beschriebenen Ausführungsbeispielen erwähnt sind.
-
6 zeigt ein Flussdiagramm eines Verfahrens 600 zum Erzeugen eines Anzeigensteuerungssignals gemäß einem Ausführungsbeispiel.
-
Das Verfahren 600 umfasst ein Empfangen 610 eines Detektionssignals, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist.
-
Das Verfahren 600 umfasst ferner ein Erzeugen 620 eines Anzeigensteuerungssignals, das Anzeigeinformationen zum Produzieren eines Bildes des virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer umfasst, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.
-
Aufgrund der Variation von zumindest einer benutzerwahrnehmbaren Charakteristik des virtuellen Ziels basierend auf den Informationen bezogen auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, kann ein Benutzer zum Beispiel eine Rückmeldung darüber detektieren oder empfangen, wie weit ein Benutzerindikator von einem virtuellen Ziel entfernt sein kann. Ein Variieren oder Verändern einer benutzerwahrnehmbaren Charakteristik, z. B. eines Erscheinungsbildes, des virtuellen Ziels kann die Rückmeldung an den Benutzer verbessern, da der Benutzer eine direkte Rückmeldung über die Distanz zwischen dem Benutzerindikator und einem spezifischen Eingabeobjekt oder virtuellen Ziel empfangen kann.
-
Das Verfahren 600 kann zum Beispiel ferner ein Bestimmen der Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, der dem virtuellen Ziel zugeordnet ist, basierend auf dem Detektionssignal umfassen.
-
Das Verfahren 600 kann ferner zum Beispiel ein Erzeugen des Anzeigensteuerungssignals umfassen, sodass eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels im Verhältnis zu den Informationen, die sich auf Veränderungen der Position des Benutzerindikators oder der Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.
-
Weitere Einzelheiten und Aspekte sind in Verbindung mit den vorstehend oder nachstehend beschriebenen Ausführungsbeispielen erwähnt (z. B. betreffend die Vorrichtung zum Erzeugen des Anzeigensteuerungssignals, das Eingabemodul, das Detektionssignal, den Benutzerindikator, die Informationen bezogen auf eine Position des Benutzerindikators, die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, das virtuelle Ziel, das Verarbeitungsmodul, das Anzeigensteuerungssignal, die Anzeigeinformationen, die Anzeigevorrichtung und die benutzerwahrnehmbare Charakteristik). Das in 6 gezeigte Ausführungsbeispiel kann ein oder mehrere, optionale, zusätzliche Merkmale umfassen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren, vorstehend (z. B. 1 bis 5D) oder nachstehend (z. B. 7) beschriebenen Ausführungsbeispielen erwähnt sind.
-
7 zeigt ein Flussdiagramm eines Verfahrens 700 zum Erzeugen eines Anzeigensteuerungssignals gemäß einem Ausführungsbeispiel.
-
Das Verfahren 700 kann ein Bestimmen 710 einer Position oder einer Distanz bezogen auf einen Benutzerindikator umfassen. Diese Bestimmung kann durch eine 3D-Kamera, wie beispielsweise eine TOF-Kamera, durchgeführt werden, zum Beispiel zum Durchführen von Tiefenerfassungsmessungen unter Verwendung von TOF-Techniken.
-
Das Verfahren 700 kann ferner ein Berechnen 720 einer Distanz zu einem virtuellen Ziel (z. B. einer Distanz zwischen dem Benutzerindikator und einem oder mehreren virtuellen Zielen) umfassen.
-
Das Verfahren 700 kann ferner ein Aktualisieren 730 eines Layouts des virtuellen Ziels umfassen. (z. B. sodass eine benutzerwahrnehmbare Charakteristik von zumindest einem virtuellen Ziel im Verhältnis zu einer Distanz zwischen dem Benutzerindikator und dem virtuellen Ziel variiert werden kann).
-
Die Prozesse 710 bis 730 können wiederholt 740 werden, z. B. fortlaufend bei einer hohen Bildrate (z. B. größer als 50 Hz), für eine Reihe von Zyklen je nach Bedarf.
-
Weitere Einzelheiten und Aspekte sind in Verbindung mit den vorstehend oder nachstehend beschriebenen Ausführungsbeispielen erwähnt (z. B. betreffend die Vorrichtung zum Erzeugen des Anzeigensteuerungssignals, das Eingabemodul, das Detektionssignal, den Benutzerindikator, die Informationen bezogen auf eine Position des Benutzerindikators, die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, das virtuelle Ziel, das Verarbeitungsmodul, das Anzeigensteuerungssignal, die Anzeigeinformationen, die Anzeigevorrichtung und die benutzerwahrnehmbare Charakteristik). Das in 7 gezeigte Ausführungsbeispiel kann ein oder mehrere, optionale, zusätzliche Merkmale umfassen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren, vorstehend (z. B. 1 bis 6) beschriebenen Ausführungsbeispielen erwähnt sind.
-
Verschiedene Ausführungsbeispiele beziehen sich auf ein Verfahren für Benutzerinteraktion in einer immersiven 3D-Umgebung.
-
Ausführungsbeispiele können weiterhin ein Computerprogramm mit einem Programmcode zum Durchführen eines der obigen Verfahren bereitstellen, wenn das Computerprogramm auf einem Computer oder Prozessor ausgeführt wird. Ein Fachmann würde leicht erkennen, dass Schritte verschiedener oben beschriebener Verfahren durch programmierte Computer durchgeführt werden können. Hierbei sollen einige Ausführungsbeispiele auch Programmspeichervorrichtungen, z. B. Digitaldatenspeichermedien, abdecken, die maschinen- oder computerlesbar sind und maschinenausführbare oder computerausführbare Programme von Anweisungen codieren, wobei die Anweisungen einige oder alle der Handlungen der oben beschriebenen Verfahren durchführen. Die Programmspeichervorrichtungen können z. B. Digitalspeicher, magnetische Speichermedien wie beispielsweise Magnetplatten und Magnetbänder, Festplattenlaufwerke oder optisch lesbare Digitaldatenspeichermedien sein. Auch sollen weitere Ausführungsbeispiele Computer programmiert zum Durchführen der Schritte der oben beschriebenen Verfahren oder (feld-)programmierbare Logik-Arrays ((F)PLA = (Field) Programmable Logic Arrays) oder (feld-)programmierbare Gate-Arrays ((F)PGA = (Field) Programmable Gate Arrays) programmiert zum Durchführen der Schritte der oben beschriebenen Verfahren abdecken.
-
Durch die Beschreibung und Zeichnungen werden nur die Grundsätze der Offenbarung dargestellt. Es versteht sich daher, dass der Fachmann verschiedene Anordnungen ableiten kann, die, obwohl sie nicht ausdrücklich hier beschrieben oder dargestellt sind, die Grundsätze der Offenbarung verkörpern und in ihrem Sinn und Schutzbereich enthalten sind. Weiterhin sollen alle hier aufgeführten Beispiele grundsätzlich nur Lehrzwecken dienen, um den Leser beim Verständnis der Grundsätze der Offenbarung und der durch den (die) Erfinder beigetragenen Konzepte zur Weiterentwicklung der Technik zu unterstützen, und sollen als ohne Begrenzung solcher besonders aufgeführten Beispiele und Bedingungen dienend aufgefasst werden. Weiterhin sollen alle hiesigen Aussagen über Grundsätze, Aspekte und Ausführungsbeispiele der Offenbarung wie auch besondere Beispiele derselben deren Entsprechungen umfassen.
-
Als „Mittel für ...“ (Durchführung einer gewissen Funktion) bezeichnete Funktionsblöcke sind als Funktionsblöcke umfassend Schaltungen zu verstehen, die jeweils zum Durchführen einer gewissen Funktion ausgebildet sind. Daher kann ein „Mittel für etwas“ ebenso als „Mittel ausgebildet für oder geeignet für etwas“ verstanden werden. Ein Mittel ausgebildet zum Durchführen einer gewissen Funktion bedeutet daher nicht, dass ein solches Mittel notwendigerweise die Funktion durchführt (in einem gegebenen Zeitmoment).
-
Funktionen verschiedener in den Figuren dargestellter Elemente einschließlich jeder als „Mittel“, „Mittel zur Bereitstellung eines Sensorsignals“, „Mittel zum Erzeugen eines Sendesignals“ usw. bezeichneter Funktionsblöcke können durch die Verwendung dedizierter Hardware wie beispielsweise „eines Signalanbieters“, „einer Signalverarbeitungseinheit“, „eines Prozessors“, „einer Steuerung“, usw. wie auch als Hardware fähig der Ausführung von Software in Verbindung mit zugehöriger Software bereitgestellt werden. Weiterhin könnte jede hier als „Mittel“ beschriebene Instanz als „ein oder mehrere Module“, „eine oder mehrere Vorrichtungen“, „eine oder mehrere Einheiten“, usw. implementiert sein oder diesem entsprechen. Bei Bereitstellung durch einen Prozessor können die Funktionen durch einen einzigen dedizierten Prozessor, durch einen einzigen geteilten Prozessor oder durch eine Mehrzahl einzelner Prozessoren bereitgestellt werden, von denen einige geteilt sein können. Weiterhin soll ausdrückliche Verwendung des Begriffs „Prozessor“ oder „Steuerung“ nicht als ausschließlich auf zur Ausführung von Software fähige Hardware bezogen ausgelegt werden, und kann implizit ohne Begrenzung Digitalsignalprozessor-(DSP-)Hardware, Netzprozessor, anwendungsspezifische integrierte Schaltung (ASIC = Application Specific Integrated Circuit), feldprogrammierbare Logikanordnung (FPGA = Field Programmable Gate Array), Nurlesespeicher (ROM – Read Only Memory) zum Speichern von Software, Direktzugriffsspeicher (RAM = Random Access Memory) und nichtflüchtige Speichervorrichtung (storage) einschließen. Auch kann sonstige Hardware, herkömmliche und/oder kundenspezifische, eingeschlossen sein.
-
Der Fachmann sollte verstehen, dass alle hiesigen Blockschaltbilder konzeptmäßige Ansichten beispielhafter Schaltungen repräsentieren, die die Grundsätze der Offenbarung verkörpern. Auf ähnliche Weise versteht es sich, dass alle Flussdiagramme, Ablaufdiagramme, Zustandsübergangsdiagramme, Pseudocode und dergleichen verschiedene Prozesse repräsentieren, die im Wesentlichen in computerlesbarem Medium repräsentiert und so durch einen Computer oder Prozessor ausgeführt werden, ungeachtet dessen, ob ein solcher Computer oder Prozessor ausdrücklich dargestellt ist.
-
Weiterhin sind die nachfolgenden Ansprüche hiermit in die detaillierte Beschreibung aufgenommen, wo jeder Anspruch als getrenntes Ausführungsbeispiel für sich stehen kann. Wenn jeder Anspruch als getrenntes Ausführungsbeispiel für sich stehen kann, ist zu beachten, dass – obwohl ein abhängiger Anspruch sich in den Ansprüchen auf eine besondere Kombination mit einem oder mehreren anderen Ansprüchen beziehen kann – andere Ausführungsbeispiele auch eine Kombination des abhängigen Anspruchs mit dem Gegenstand jedes anderen abhängigen oder unabhängigen Anspruchs einschließen können. Diese Kombinationen werden hier vorgeschlagen, sofern nicht angegeben ist, dass eine bestimmte Kombination nicht beabsichtigt ist. Weiterhin sollen auch Merkmale eines Anspruchs für jeden anderen unabhängigen Anspruch eingeschlossen sein, selbst wenn dieser Anspruch nicht direkt abhängig von dem unabhängigen Anspruch gemacht ist.
-
Es ist weiterhin zu beachten, dass in der Beschreibung oder in den Ansprüchen offenbarte Verfahren durch eine Vorrichtung mit Mitteln zum Durchführen jeder der jeweiligen Schritte dieser Verfahren implementiert sein können.
-
Weiterhin versteht es sich, dass die Offenbarung vielfacher, in der Beschreibung oder den Ansprüchen offenbarter Schritte oder Funktionen nicht als in der bestimmten Reihenfolge befindlich ausgelegt werden sollte. Durch die Offenbarung von vielfachen Schritten oder Funktionen werden diese daher nicht auf eine bestimmte Reihenfolge begrenzt, es sei denn, dass diese Schritte oder Funktionen aus technischen Gründen nicht austauschbar sind.
-
Weiterhin kann in einigen Ausführungsbeispielen ein einzelner Schritt mehrere Teilschritte einschließen oder in diese aufgebrochen werden. Solche Teilschritte können eingeschlossen sein und Teil der Offenbarung dieses Einzelschrittes bilden, sofern sie nicht ausdrücklich ausgeschlossen sind.