DE102014114742A1 - Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben - Google Patents

Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben Download PDF

Info

Publication number
DE102014114742A1
DE102014114742A1 DE102014114742.1A DE102014114742A DE102014114742A1 DE 102014114742 A1 DE102014114742 A1 DE 102014114742A1 DE 102014114742 A DE102014114742 A DE 102014114742A DE 102014114742 A1 DE102014114742 A1 DE 102014114742A1
Authority
DE
Germany
Prior art keywords
user
virtual
distance
control signal
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102014114742.1A
Other languages
English (en)
Inventor
Christoph HEIDENREICH
Gerwin FLEISCHMANN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infineon Technologies AG
Original Assignee
Infineon Technologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infineon Technologies AG filed Critical Infineon Technologies AG
Priority to DE102014114742.1A priority Critical patent/DE102014114742A1/de
Priority to US14/878,606 priority patent/US20160104322A1/en
Publication of DE102014114742A1 publication Critical patent/DE102014114742A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals umfasst ein Eingabemodul, das ausgebildet ist, um ein Detektionssignal zu empfangen, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist. Die Vorrichtung umfasst ferner ein Verarbeitungsmodul, das ausgebildet ist, um ein Anzeigensteuerungssignal zu erzeugen, das Anzeigeinformationen zum Produzieren eines Bildes des virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer erzeugt. Das Verarbeitungsmodul ist ausgebildet, um das Anzeigensteuerungssignal zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.

Description

  • Technisches Gebiet
  • Ausführungsbeispiele beziehen sich auf Eingabeschnittstellen und insbesondere eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben.
  • Hintergrund
  • Aufstrebende Technologien, wie beispielsweise immersive Umgebungen, die durch 3D-Anzeigetechniken geschaffen werden, können es einem Benutzer erlauben, in einer virtuellen Realität stattzufinden (oder darin einzutauchen), die ihn von der Außenwelt vollständig trennen kann. Es kann notwendig sein, dass sich Benutzereingabesteuerungen auch in die virtuelle 3D-Welt hinein bewegen, da ein Fokussieren der Augen auf eine externe Eingabesteuereinheit den Benutzer von der immersiven Erfahrung ablenken kann.
  • Zusammenfassung
  • Einige Ausführungsbeispiele beziehen sich auf eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals. Die Vorrichtung umfasst ein Eingabemodul, das ausgebildet ist, um ein Detektionssignal zu empfangen, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist. Die Vorrichtung umfasst ferner ein Verarbeitungsmodul, das ausgebildet ist, um ein Anzeigensteuerungssignal zu erzeugen, das Anzeigeinformationen zum Produzieren eines Bildes des virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer umfasst. Das Verarbeitungsmodul ist ausgebildet, um das Anzeigensteuerungssignal zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.
  • Einige Ausführungsbeispiele beziehen sich auf ein Verfahren zum Erzeugen eines Anzeigensteuerungssignals. Das Verfahren umfasst ein Empfangen eines Detektionssignals, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist. Das Verfahren umfasst ferner ein Erzeugen eines Anzeigensteuerungssignals, das Anzeigeinformationen zum Produzieren eines Bildes des virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer umfasst, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.
  • Kurze Beschreibung der Figuren
  • Einige Ausführungsbeispiele von Vorrichtungen und/oder Verfahren werden nachfolgend nur beispielhaft und unter Bezugnahme auf die beiliegenden Figuren beschrieben, in denen
  • 1 eine schematische Darstellung einer Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals zeigt;
  • 2A bis 2C schematische Darstellungen einer Variation einer benutzerwahrnehmbaren Charakteristik eines virtuellen Ziels zeigen;
  • 3A bis 3B schematische Darstellungen einer Position eines Benutzerindikators oder einer Distanz zwischen einem Benutzerindikator und zumindest einem Ereignispunkt, der einem virtuellen Ziel zugeordnet ist, zeigen;
  • 4 eine schematische Darstellung eines virtuellen Layouts von einem oder mehreren virtuellen Zielen zeigt;
  • 5A bis 5D schematische Darstellungen verschiedener Eingabeschnittstellen zeigen;
  • 6 ein Flussdiagramm eines Verfahrens zum Erzeugen eines Anzeigensteuerungssignals zeigt;
  • 7 ein weiteres Flussdiagramm eines Verfahrens zum Erzeugen eines Anzeigensteuerungssignals zeigt.
  • Ausführliche Beschreibung
  • Verschiedene Ausführungsbeispiele werden nun ausführlicher Bezug nehmend auf die beiliegenden Zeichnungen beschrieben, in denen einige Ausführungsbeispiele dargestellt sind. In den Figuren können die Stärken von Linien, Schichten und/oder Bereichen zur Verdeutlichung übertrieben sein.
  • Während sich weitere Ausführungsbeispiele für verschiedene Modifikationen und alternative Formen eignen, werden dementsprechend Ausführungsbeispiele derselben in den Figuren beispielhaft gezeigt und hier ausführlich beschrieben. Es versteht sich jedoch, dass es nicht beabsichtigt ist, Ausführungsbeispiele auf die offenbarten bestimmten Formen zu begrenzen, sondern im Gegensatz die Ausführungsbeispiele alle in den Schutzbereich der Offenbarung fallenden Modifikationen, Entsprechungen und Alternativen abdecken sollen. In der gesamten Beschreibung der Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder ähnliche Elemente.
  • Es versteht sich, dass, wenn ein Element als mit einem anderen Element „verbunden“ oder „gekoppelt“ bezeichnet wird, es direkt mit dem anderen Element verbunden oder gekoppelt sein kann oder Zwischenelemente vorhanden sein können. Wenn im Gegensatz ein Element als „direkt“ mit einem anderen Element „verbunden“ oder „gekoppelt“ bezeichnet wird, sind keine Zwischenelemente vorhanden. Sonstige zum Beschreiben des Verhältnisses zwischen Elementen benutzten Ausdrücke sollten auf gleichartige Weise ausgelegt werden (z. B. „zwischen“ gegenüber „direkt zwischen“, „benachbart“ gegenüber „direkt benachbart“ usw.).
  • Die hier verwendete Terminologie bezweckt nur das Beschreiben bestimmter Ausführungsbeispiele und soll nicht begrenzend für weitere Ausführungsbeispiele sein. Nach hiesigem Gebrauch sollen die Singularformen „ein, eine“ und „das, der, die“ auch die Pluralformen umfassen, es sei denn im Zusammenhang wird deutlich etwas anderes angegeben. Es versteht sich weiterhin, dass die Begriffe „umfasst“, „umfassend“, „aufweisen“ und/oder „aufweisend“ bei hiesigem Gebrauch das Vorhandensein angegebener Merkmale, Ganzzahlen, Schritte, Operationen, Elemente und/oder Bestandteile angeben, aber nicht das Vorhandensein oder die Zufügung eines oder mehrerer anderer Merkmale, Ganzzahlen, Schritte, Operationen, Elemente, Bestandteile und/oder Gruppen derselben ausschließen.
  • Sofern nicht anderweitig definiert besitzen alle hier benutzten Begriffe (einschließlich technischer und wissenschaftlicher Begriffe) die gleiche Bedeutung wie sie gewöhnlich von einem Durchschnittsfachmann auf dem Gebiet verstanden wird, zu dem Ausführungsbeispiele gehören. Weiterhin versteht es sich, dass Begriffe, z. B. die in gewöhnlich benutzten Wörterbüchern definierten, als eine Bedeutung besitzend ausgelegt werden sollten, die ihrer Bedeutung im Zusammenhang der entsprechenden Technik entspricht, und nicht in einem idealisierten oder übermäßig formalen Sinn ausgelegt werden, sofern sie nicht ausdrücklich so definiert sind.
  • 1 zeigt eine schematische Darstellung einer Vorrichtung 100 zum Erzeugen eines Anzeigensteuerungssignals gemäß einem Ausführungsbeispiel.
  • Die Vorrichtung 100 umfasst ein Eingabemodul 101, das ausgebildet ist, um ein Detektionssignal 116 zu empfangen, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist.
  • Die Vorrichtung 100 umfasst ferner ein Verarbeitungsmodul 102, das ausgebildet ist, um ein Anzeigensteuerungssignal 117 zu erzeugen, das Anzeigeinformationen zum Produzieren eines Bildes des virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer umfasst. Das Verarbeitungsmodul 102 ist ausgebildet, um das Anzeigensteuerungssignal 117 zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.
  • Aufgrund der Erzeugung eines Anzeigensteuerungssignals, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird, kann ein Benutzer zum Beispiel eine Rückmeldung im Hinblick darauf detektieren oder empfangen, wie weit ein Benutzerindikator von einem virtuellen Ziel entfernt sein kann. Ein Variieren oder Verändern einer benutzerwahrnehmbaren Charakteristik, z. B. eines Erscheinungsbildes, des virtuellen Ziels kann die Rückmeldung an den Benutzer verbessern, da der Benutzer direkte Rückmeldung über die Distanz zwischen dem Benutzerindikator und einem spezifischen Eingabeobjekt oder einem virtuellen Ziel empfangen kann. Dies kann zum Beispiel die Interaktion eines Benutzers mit virtuellen Zielen verbessern, die durch das Verarbeitungsmodul erzeugt werden. Zum Beispiel kann die Genauigkeit einer Interaktion zwischen dem Benutzerindikator und dem Aktivieren eines Ereignispunktes zum Auslösen eines Ereignisses verbessert werden.
  • Die Vorrichtung 100 kann zum Beispiel ein Computer, ein Prozessor, ein Mikrocontroller oder ein Teil eines Computers, eines Prozessors oder eines Mikrocontrollers sein. Das Eingabemodul 101 kann zum Beispiel ein Eingabe-Port oder eine Eingabeschnittstelle eines Computers, eines Prozessors oder eines Mikrocontrollers sein. Das Eingabemodul 101 der Vorrichtung 100 kann zum Beispiel ausgebildet sein, um das Detektionssignal 116 von einem dreidimensionalen (3D) Erfassungsvorrichtung zu empfangen, das ausgebildet sein kann, um das Detektionssignal 116 zu erzeugen. Zum Beispiel kann das Eingabemodul 101 ausgebildet sein, um das Detektionssignal 116 von zumindest einem von einer Laufzeit-Kamera (TOF-Kamera; TOF = Time of Flight), einer Kamera zum Produzieren von dreidimensionalen Bildern (z. B. einer 3D-Kamera) oder einem Ultraschallsensor zu empfangen. Das Eingabemodul 101 kann mit der 3D-Erfassungsvorrichtung zum Beispiel über eine verdrahtete oder drahtlose Verbindung gekoppelt sein.
  • Das Detektionssignal 116 kann zum Beispiel Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen dem Benutzerindikator (z. B. einer Fingerspitze) und einem Ereignispunkt umfassen, der einem virtuellen Ziel zugeordnet ist. Bei einigen Beispielen kann das Detektionssignal 116 (Distanz-)Informationen bezogen auf eine Position eines Benutzers umfassen, z. B. Koordinateninformationen eines Benutzerindikators innerhalb eines 3D-Erfassungsraumes der 3D-Erfassungsvorrichtung. Bei einigen Beispielen kann das Detektionssignal 116 Distanzinformationen bezogen auf eine Distanz zwischen dem Benutzerindikator und einem Referenzort umfassen (z. B. zwischen dem Benutzerindikator und der 3D-Erfassungsvorrichtung oder zwischen dem Benutzerindikator und der Anzeigevorrichtung).
  • Der Benutzerindikator kann zum Beispiel ein Finger, eine Fingerspitze oder ein Körperteil eines Benutzers sein. Bei einigen Beispielen kann der Benutzerindikator ein Stift, ein Stick, ein Stock, eine Vorrichtung, ein Tool oder ein Instrument sein, der/das durch den Benutzer gesteuert werden kann.
  • Das Verarbeitungsmodul 102 kann zum Beispiel einen Prozessor, einen Mikrocontroller oder einen Digitalsignalprozessor umfassen, oder Teil eines Prozessors, eines Mikrocontrollers oder eines Digitalsignalprozessors sein. Das Verarbeitungsmodul 102 kann ausgebildet sein, um ein Anzeigensteuerungssignal 117 zu erzeugen, das Anzeigeinformationen zum Produzieren (eines Bildes) eines virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer umfasst. Das Anzeigensteuerungssignal 117, das durch das Verarbeitungsmodul erzeugt wird, kann durch die Anzeigevorrichtung empfangen werden und durch die Anzeigevorrichtung zum Beispiel zum Anzeigen des virtuellen Ziels und/oder des virtuellen Layouts verwendet werden. Das Anzeigensteuerungssignal 117 kann zum Beispiel computerausführbare Anweisungen umfassen, die durch eine Anzeigevorrichtung zum Produzieren der virtuellen Ziele ausgeführt werden können.
  • Bei einigen Beispielen kann das Anzeigensteuerungssignal 117 Anzeigeinformationen zum Repräsentieren des virtuellen Ziels auf einem Anzeigebildschirm für zweidimensionale Präsentation (z. B. eine 2D-Anzeigevorrichtung) umfassen. Zum Beispiel können virtuelle Ziele Schaltflächen oder Auswahlziele sein, die auf einem Bildschirm angezeigt sind. Zum Beispiel kann der Anzeigebildschirm ein Anzeigemonitor für einen Computer, z. B. einen Personal Computer (PC) oder Desktop-Computer, oder einen Anzeigemonitor oder -bildschirm für eine Mobilvorrichtung, eine Tablet-Vorrichtung oder einen All-in-One Personal Computer sein.
  • Bei einigen Beispielen kann das Anzeigensteuerungssignal 117 Anzeigeinformationen zum Erzeugen einer dreidimensionalen Präsentation (z. B. einer stereoskopischen Anzeige oder Präsentation) des virtuellen Ziels durch eine Anzeigevorrichtung für eine dreidimensionale Präsentation (z. B. eine 3D-Anzeigevorrichtung) für einen Benutzer umfassen. Zum Beispiel kann eine 3D-Anzeigevorrichtung, die in Verbindung mit einer Shutterbrille oder 3D-Brillle verwendet wird, zu virtuellen Zielen führen, möglicherweise Schaltflächen oder Auswahlzielen, die als in einer Distanz von den Bildschirm angezeigt wahrgenommen werden. Zum Beispiel können die virtuellen Ziele als in einem 3D-Raum angeordnet wahrgenommen werden. Zu den Beispielen für eine solche Anzeigevorrichtung für eine dreidimensionale Präsentation kann zum Beispiel zumindest eines von einem dreidimensional-fähigen Anzeigebildschirm oder einer am Kopf befestigten Anzeigevorrichtung gehören. Die Anzeigevorrichtung für eine dreidimensionale Präsentation kann ausgebildet sein, um Bilder anzuzeigen, die die Tiefe der durch eine Benutzervorrichtung wahrgenommenen Bilder vergrößern im Vergleich zu einer Anzeigevorrichtung für zweidimensionale Präsentation.
  • Die Variation der zumindest einen benutzerwahrnehmbaren Charakteristik des virtuellen Ziels kann eine Variation einer Position, eines optischen Erscheinungsbildes oder einer Größe des virtuellen Ziels sein, das eine Variation in zumindest einer Abmessung (oder Richtung) in einem dreidimensionalen Raum sein kann (ein 3D-Raum, der durch Koordinaten in einer x- (z. B. einer horizontalen) Richtung, einer y- (z. B. einer vertikalen) Richtung und einer z- (z. B. in einer vorwärts oder rückwärts) Richtung definiert ist). Bei einigen Beispielen kann die benutzerwahrnehmbare Charakteristik zum Beispiel ein Merkmal des virtuellen Ziels sein, wie beispielsweise eine Form, Größe, Farbe oder Farbintensität des virtuellen Ziels, das durch den Benutzer beobachtbar (z. B. optisch sichtbar) sein kann. Bei einigen Beispielen kann die benutzerwahrnehmbare Charakteristik zum Beispiel eine akustische oder haptische Rückmeldung sein, die durch den Benutzer erfasst oder beobachtet werden kann.
  • Das Verarbeitungsmodul 102 kann ausgebildet sein, um das Anzeigensteuerungssignal 117 zu erzeugen, sodass die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf der Distanz variiert wird. Zum Beispiel kann das Verarbeitungsmodul 102 ausgebildet sein, um das Anzeigensteuerungssignal 117 zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels im Verhältnis zu Informationen bezogen auf Veränderungen der Position des Benutzerindikators oder der Distanz zwischen dem Benutzerindikator und dem Ereignispunkt variiert wird. Zum Beispiel kann die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels im Verhältnis zu Veränderungen der Position des Benutzerindikators oder Veränderungen der Distanz zwischen dem Benutzerindikator und dem Ereignispunkt variiert werden.
  • Das Verarbeitungsmodul 102 kann zum Beispiel ausgebildet sein, um die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, der dem virtuellen Ziel zugeordnet ist, basierend auf dem Detektionssignal 116 zu bestimmen. Zum Beispiel kann das Verarbeitungsmodul 102 ausgebildet sein, um die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt basierend auf einer Position des Benutzerindikators zu bestimmen. Zum Beispiel kann das Verarbeitungsmodul 102 ausgebildet sein, um die Distanz basierend auf Koordinaten (z. B. x-, y- oder z-Koordinaten) des Ereignispunktes des virtuellen Ziels eines virtuellen Layouts und Koordinaten (z. B. x-, y- oder z-Koordinaten) der Position des Benutzerindikators zu bestimmen.
  • Das Verarbeitungsmodul 102 kann ausgebildet sein, um ein dem virtuellen Ziel zugeordnetes Ereignis auszulösen, wenn der Benutzerindikator den Ereignispunkt erreicht, der dem virtuellen Ziel zugeordnet ist. Das virtuelle Ziel kann zum Beispiel eine Graphik oder ein Bild einer Schaltfläche, eine Taste einer Tastatur oder eine 3D-Repräsentation einer 3D-Schaltfläche oder einer Taste einer Tastatur sein. Das virtuelle Ziel kann eine Graphik oder ein Bild sein, das ein Ereignis nach Interaktion des Benutzers mit dem virtuellen Ziel auslösen oder aktivieren kann. Bei einigen Beispielen kann sich der Ereignispunkt in einer vorbestimmten Distanz (oder an einem vorbestimmten Koordinatenort) von dem repräsentierten virtuellen Ziel befinden, sodass der Benutzerindikator die Veränderung des Ereignisses aktivieren oder auslösen kann, bevor es an dem virtuellen Ziel ankommt oder es erreicht (z. B. in einer vorbestimmten Distanz von dem virtuellen Ziel). Bei anderen Beispielen kann sich der Ereignispunkt an dem repräsentierten virtuellen Ziel befinden, sodass der Benutzerindikator die Veränderung des Ereignisses aktivieren oder auslösen kann, wenn der Benutzerindikator an dem Ereignispunkt ankommt oder diesen erreicht.
  • Das ausgelöste Ereignis kann eine Veränderung anderer virtueller Komponenten des virtuellen Layouts der Anzeige sein, zusätzlich zu der Veränderung der benutzerwahrnehmbaren Charakteristik des virtuellen Ziels. Zum Beispiel kann das ausgelöste Ereignis das visuelle Erscheinungsbild eines virtuellen Layouts der Anzeige sein. Zum Beispiel kann das ausgelöste Ereignis eine Veränderung eines durch die Anzeigevorrichtung angezeigten Bildes oder einer durch die Anzeigevorrichtung angezeigten Szene, oder der Auslöser eines akustischen (z. B. ein Piepsen oder ein Ton) oder haptischen (z. B. ein Summen, eine Bewegung oder eine Vibration) Ereignisses sein.
  • Techniken, wie beispielsweise dreidimensionale (3D) Laufzeit-Kameras (TOF) und immersive Umgebungen, die durch 3D-Anzeigetechniken geschaffen werden, können es einem Benutzer erlauben, in einer virtuellen Realität stattzufinden (oder darin einzutauchen), die ihn von der Außenwelt vollständig trennen kann.
  • Eingabesteuerungen können virtuelle Tastaturen oder ein virtueller Zeiger sein, die durch die Fingerspitze des Benutzers im Raum berührt werden können. Experimente mit einem virtuellen Tastatur-Demonstrator eines ToF-Bildaufnehmers können zeigen, dass Benutzerinteraktion mit einer virtuellen Oberfläche schwieriger sein kann als mit einer Standardtastatur. Zum Beispiel hat der Benutzer keine Rückmeldung über die Distanz seines Fingers zu einer Eingabe-Schaltfläche, irgendwann berührt der Finger die reale Oberfläche und eine Aktion kann einfach ohne Warnung im Voraus ausgelöst werden. Die hierin beschriebenen Beispiele geben dem Benutzer eine Rückmeldung, wenn seine Fingerspitze sich einer Distanz nähert, kurz bevor durch seine Gestik eine Aktion ausgelöst wird.
  • Die hierin beschriebenen Beispiele bieten dem Benutzer eine visuelle Rückmeldung, wenn er sich dem virtuellen Zielobjekt (z. B. einer Schaltfläche) nähert, die mit der Distanz zu dem Zielobjekt variiert. Dadurch erhält der Benutzer Informationen darüber, wie weit seine Fingerspitze oder seine Zeigevorrichtung von dem Punkt entfernt ist, wo eine Aktion ausgelöst wird. Die Beispiele beschreiben, wie das Erscheinungsbild (Layout in 2D- oder 3D-Präsentation) des Zielobjekts, das für ein Auslösen einer Aktion verantwortlich ist, auf eine Weise zu verändern ist, die proportional zu der Distanz der Zeigevorrichtung zu demselben ist.
  • Bei einigen Beispielen kann das Verarbeitungsmodul ferner ausgebildet sein, um ein Benutzerrückmeldungs-Steuerungssignal zum Variieren eines akustischen oder eines haptischen Signals basierend auf den Informationen zu erzeugen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen. Zum Beispiel kann die haptische Rückmeldung an den Benutzer unter Verwendung von (zum Beispiel vom Benutzer getragenen) Spezialhandschuhen bereitgestellt werden. Eine Audio-Rückmeldung oder akustische Rückmeldung kann an den Benutzer zum Beispiel durch Verändern einer Tonhöhe proportional zu der Distanz bereitgestellt werden. Bei einigen Beispielen kann zum Beispiel eine Projektion einer virtuellen Tastatur auf einen Tisch und Modifizieren des Erscheinungsbildes der vorhandenen Schaltflächen ausgeführt werden.
  • 2A bis 2C zeigen eine schematische Darstellung einer Variation einer benutzerwahrnehmbaren Charakteristik eines virtuellen Ziels basierend auf den Informationen bezogen auf eine Position eines Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und einem Ereignispunkt, der einem virtuellen Ziel zugeordnet ist.
  • 2A zeigt eine schematische Darstellung, wo es, in einem Anfangszustand, zum Beispiel eine 3D-Tiefenerfassungsvorrichtung (z. B. eine 3D-Erfassungsvorrichtung 203) geben kann, das dazu geeignet sein kann, die Fingerspitze 204 eines Benutzers (z. B. eines Benutzerindikators) zu orten. Ein eingabeempfindliches Objekt 205 (z. B. ein virtuelles Ziel) kann zum Beispiel auf einem PC-Bildschirm, einer Tablet-Oberfläche oder innerhalb einer immersiven, am Kopf befestigten 3D-Anzeige oder auf anderen Arten von Bildschirmen existieren (oder darauf angezeigt sein). Wenn der Benutzerindikator zum Beispiel über einer Schwellendistanz zum Variieren des Objekts 205 sein kann oder diese gerade noch erreicht, kann das Objekt 205 zwischen 0 und 5 % gefüllt sein. Das Verarbeitungsmodul kann ausgebildet sein, um das digitale Steuerungssignal zu erzeugen, sodass die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels variiert wird, wenn die Distanz zwischen dem Benutzerindikator 204 und dem Ereignispunkt, der dem virtuellen Ziel 205 zugeordnet ist, unter einer Schwellendistanz ist.
  • 2B zeigt, dass, wenn die Fingerspitze 204 (oder z. B. ein Benutzerindikator oder eine Benutzer-Zeigevorrichtung) das eingabeempfindliche Objekt 205 verschmälert (oder sich demselben annähert), das (virtuelle) Objekt 205 zum Beispiel sein Layout verändert, z. B. durch Auffüllen des Inneren des Objekts. Wenn die Distanz zwischen dem Benutzerindikator 204 und dem Ereignispunkt des virtuellen Ziels 205 unter eine Schwellendistanz fällt, wird die benutzerwahrnehmbare Charakteristik des virtuellen Objekts variiert, da sich der Benutzerindikator 204 näher an den Ereignispunkt bewegt. Dementsprechend kann das Objekt zunehmend oder nach und nach zum Beispiel von 0 % bis 100 % gefüllt sein.
  • 2C zeigt, dass, wenn die Fingerspitze 204 zum Beispiel nahe der Position ist, die ein Berührungsereignis auslöst, das Objekt 205 nahezu vollständig gefüllt sein kann und der Benutzer eine Rückmeldung über das unmittelbar bevorstehende Berührungsereignis haben kann. Zum Beispiel kann das Objekt 205 zu 90 % bis 100 % gefüllt sein. Das Erreichen des Ereignispunktes (oder Erreichen des virtuellen Ziels, wenn der Ereignispunkt die gleichen Koordinaten wie das virtuelle Ziel hat) kann das Ereignis auslösen, das dem virtuellen Ziel zugeordnet ist.
  • Ein Verändern des Erscheinungsbildes des eingabeempfindlichen Objekts 205 selbst kann eine Verbesserung sein verglichen zu einer Veränderung eines Cursor-Objekts auf dem Bildschirm. Der Benutzer kann eine direkte Rückmeldung darüber, wie weit er von dem Berühren eines spezifischen Eingabeobjekts entfernt ist und nicht nur Informationen darüber, wo sich ein Cursor auf einem Bildschirm befindet, erhalten. 2A bis 2C zeigen den Vorgang, wenn ein Ereignis durch Berühren eines eingabeempfindlichen Objekts ausgelöst wird und dass das Objekt im Verhältnis zu der Distanz zu demselben modifiziert werden kann.
  • Weitere Einzelheiten und Aspekte sind in Verbindung mit den vorstehend oder nachstehend beschriebenen Ausführungsbeispielen erwähnt (z. B. betreffend die Vorrichtung zum Erzeugen des Anzeigensteuerungssignals, das Eingabemodul, das Detektionssignal, den Benutzerindikator, die Informationen bezogen auf eine Position des Benutzerindikators, die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, das virtuelle Ziel, das Verarbeitungsmodul, das Anzeigensteuerungssignal, die Anzeigeinformationen, die Anzeigevorrichtung und die benutzerwahrnehmbare Charakteristik). Die in 2A bis 2C gezeigten Ausführungsbeispiele können ein oder mehrere, optionale, zusätzliche Merkmale umfassen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren, vorstehend (z. B. 1) oder nachstehend (z. B. 3 bis 7) beschriebenen Ausführungsbeispielen erwähnt sind.
  • Gemäß einem Ausführungsbeispiel zeigen 3A und 3B eine schematische Darstellung einer Position eines Benutzerindikators oder der Distanz zwischen einem Benutzerindikator und zumindest einem Ereignispunkt, der einem virtuellen Ziel zugeordnet ist.
  • 3A zeigt eine Distanz, die zwischen einem Benutzerindikator 204 und einem Ereignispunkt gemessen wird, der einem virtuellen Ziel 205 zugeordnet ist. Ein Verarbeitungsmodul kann zum Beispiel ausgebildet sein, um basierend auf dem Detektionssignal eine Distanz d3 zwischen dem Benutzerindikator 204 und dem Ereignispunkt, der dem virtuellen Ziel 205 zugeordnet ist, zu bestimmen. Das Verarbeitungsmodul kann zum Beispiel ferner ausgebildet sein, um ein Anzeigensteuerungssignal zu erzeugen, sodass die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf der Distanz variiert wird. Das Verarbeitungsmodul kann zum Beispiel ausgebildet sein, um das Anzeigensteuerungssignal zu erzeugen, sodass die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels im Verhältnis zu Informationen bezogen auf Veränderungen der Position des Benutzerindikators oder der Distanz zwischen dem Benutzerindikator und dem Ereignispunkt variiert wird.
  • 3B zeigt ein anderes Beispiel einer Distanzmessung, die durch ein Verarbeitungsmodul durchgeführt werden kann. Das Verarbeitungsmodul kann zum Beispiel ausgebildet sein, um basierend auf dem Detektionssignal eine erste Distanz d1 zwischen dem Benutzerindikator 204 und einem ersten Ereignispunkt, der einem ersten virtuellen Ziel 205a zugeordnet ist, und eine zweite Distanz d2 zwischen dem Benutzerindikator und einem zweiten Ereignispunkt, der einem zweiten virtuellen Ziel 205b zugeordnet ist, zu bestimmen. Das Verarbeitungsmodul kann ausgebildet sein, um das Anzeigensteuerungssignal zu erzeugen, das Anzeigeinformationen zum Repräsentieren von zumindest einem von dem ersten und zweiten virtuellen Ziel durch die Anzeigevorrichtung umfasst, sodass zumindest eine benutzerwahrnehmbare Charakteristik von zumindest einem von dem ersten 205a und zweiten virtuellen Ziel 205b basierend auf der ersten Distanz und der zweiten Distanz variiert wird. Zum Beispiel kann das Verarbeitungsmodul ausgebildet sein, um das Anzeigensteuerungssignal zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik von einem von dem ersten 205a und zweiten 205b virtuellen Ziel basierend auf einem Vergleich der ersten Distanz und der zweiten Distanz variiert werden kann.
  • Wenn zum Beispiel ein Vergleich der ersten und der zweiten Distanz anzeigt, dass die zweite Distanz d2 zwischen dem Benutzerindikator und einem zweiten Ereignispunkt, der einem zweiten virtuellen Ziel 205b zugeordnet ist, kleiner als eine erste Distanz d1 zwischen dem Benutzerindikator 204 und einem ersten Ereignispunkt ist, der einem ersten virtuellen Ziel 205a zugeordnet ist, kann der Benutzerindikator 204 zum Beispiel näher an dem zweiten virtuellen Ziel als an dem ersten virtuellen Ziel sein. Das Verarbeitungsmodul kann dann zum Beispiel ausgebildet sein, um das Anzeigensteuerungssignal zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik des zweiten virtuellen Ziels 205b im Verhältnis zu Informationen bezogen auf Veränderungen der Distanz zwischen dem Benutzerindikator 204 und dem zweiten Ereignispunkt variiert werden kann. Das erste virtuelle Ziel kann zum Beispiel unverändert bleiben.
  • Bei anderen Beispielen kann das Verarbeitungsmodul ausgebildet sein, um das Anzeigensteuerungssignal zu erzeugen, sodass eine Variation von zumindest einer benutzerwahrnehmbaren Charakteristik des ersten virtuellen Ziels 205a auf der ersten Distanz d1 basieren kann (oder im Verhältnis zu dieser variiert werden kann) und eine Variation von zumindest einer benutzerwahrnehmbaren Charakteristik des zweiten virtuellen Ziels 205b auf der zweiten Distanz d2 basieren kann (oder im Verhältnis zu dieser variiert werden kann). Zum Beispiel kann zumindest eine benutzerwahrnehmbare Charakteristik sowohl des ersten als auch des zweiten virtuellen Ziels variiert werden, aber um unterschiedliche Beträge abhängig von den unterschiedlichen Distanzen zwischen dem Benutzerindikator 204 und jedem jeweiligen ersten und zweiten virtuellen Ziel, oder zwischen dem Benutzerindikator 204 und jedem jeweiligen ersten und zweiten Ereignispunkt des ersten und zweiten virtuellen Ziels.
  • Wie hierin beschrieben kann bei einigen Beispielen (zum Beispiel für Verfahren, die nur den Cursor selbst verändern) eine Distanz zu der (virtuellen) Masseebene ein Maß für die Distanz sein. Bei anderen Beispielen kann stattdessen die Distanz zu dem nächsten oder benachbarten Eingabeobjekt 205b verwendet werden. Dies kann dem Benutzer eine verbesserte Rückmeldung über einen Ort des Benutzerindikators in Bezug auf ein virtuelles Ziel geben. Zum Beispiel kann der Benutzerindikator eines aus einer Mehrzahl von virtuellen Zielen auswählen, oder kann zum Beispiel mehr als ein virtuelles Ziel aus einer Mehrzahl von virtuellen Zielen auswählen.
  • Weitere Einzelheiten und Aspekte sind in Verbindung mit den vorstehend oder nachstehend beschriebenen Ausführungsbeispielen erwähnt (z. B. betreffend die Vorrichtung zum Erzeugen des Anzeigensteuerungssignals, das Eingabemodul, das Detektionssignal, den Benutzerindikator, die Informationen bezogen auf eine Position des Benutzerindikators, die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, das virtuelle Ziel, das Verarbeitungsmodul, das Anzeigensteuerungssignal, die Anzeigeinformationen, die Anzeigevorrichtung und die benutzerwahrnehmbare Charakteristik). Die in 3A und 3B gezeigten Ausführungsbeispiele können ein oder mehrere, optionale, zusätzliche Merkmale umfassen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren, vorstehend (z. B. 1 bis 2C) oder nachstehend (z. B. 4 bis 7) beschriebenen Ausführungsbeispielen erwähnt sind.
  • 4 zeigt eine schematische Darstellung 400 eines virtuellen Layouts 412 von einem oder mehreren virtuellen Zielen, oder eines virtuellen Eingabebereichs für einen Desktop-PC oder ein Tablet.
  • Ein Verarbeitungsmodul kann ausgebildet sein, um das Anzeigensteuerungssignal zu erzeugen, das (Anzeige-)Informationen zum Produzieren einer virtuellen Tastatur für einen Benutzer oder ein Bild einer virtuellen Tastatur für einen Benutzer umfasst. Das virtuelle Ziel kann zum Beispiel eine Taste der virtuellen Tastatur sein. Ein Benutzer kann zum Beispiel Gesten innerhalb eines virtuellen Bereiches vor dem Bildschirm ausführen. Zumindest eine benutzerwahrnehmbare Charakteristik eines virtuellen Ziels 205 (z. B. virtuelle Schaltflächen-Nummer „5“) des virtuellen Layouts 412 kann basierend auf oder im Verhältnis zu der Distanz zwischen dem Benutzerindikator 204 und dem Ereignispunkt, der dem virtuellen Ziel 205 zugeordnet ist, variiert werden. Mit abnehmender Distanz (in Pfeilrichtung 407) zwischen dem Benutzerindikator 204 und dem Ereignispunkt, der dem virtuellen Ziel 205 zugeordnet ist, kann das virtuelle Ziel 205 zum Beispiel auffälliger werden, oder das virtuelle Ziele kann sich zum Beispiel hinsichtlich Form, Größe, Farbe oder Farbintensität verändern. Ein Ereignis kann ausgelöst werden, wenn der Benutzerindikator 204 den Ereignispunkt des virtuellen Ziels erreicht. Zum Beispiel kann das Ereignis ausgelöst werden, wenn der Benutzerindikator 204 in einer vorbestimmten Distanz von dem virtuellen Ziel 205 ankommt, das zum Beispiel als ein Ereignispunkt für das virtuelle Ziel 205 bezeichnet werden kann.
  • Bei einigen Beispielen kann zum Beispiel ein 2D-Bildschirm (z. B. ein Anzeigebildschirm) verwendet werden, wo eine Anwendung gezeigt werden kann und der Benutzer mit der Anwendung arbeiten kann, indem Operationen auf dem virtuellen Bereich vor diesem Bildschirm ausgeführt werden. Die Graphiken in 4 zeigen die visuelle Rückmeldung auf einem 2D-(Anzeige-)Bildschirm der Anwendung, wenn der Finger des Benutzers sich dem Eingabeobjekt auf einer Ebene einer virtuellen Tastatur nähert. Mit abnehmender Distanz zwischen dem Finger und dem oben erwähnten Eingabeobjekt kann die visuelle Rückmeldung auf dem 2D-Bildschirm auffälliger werden, bis sie das virtuelle Objekt vollständig abdeckt, wenn das Ereignis ausgelöst wird.
  • Weitere Einzelheiten und Aspekte sind in Verbindung mit den vorstehend oder nachstehend beschriebenen Ausführungsbeispielen erwähnt (z. B. betreffend die Vorrichtung zum Erzeugen des Anzeigensteuerungssignals, das Eingabemodul, das Detektionssignal, den Benutzerindikator, die Informationen bezogen auf eine Position des Benutzerindikators, die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, das virtuelle Ziel, das Verarbeitungsmodul, das Anzeigensteuerungssignal, die Anzeigeinformationen, die Anzeigevorrichtung und die benutzerwahrnehmbare Charakteristik). Das in 4 gezeigte Ausführungsbeispiel kann ein oder mehrere, optionale, zusätzliche Merkmale umfassen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren, vorstehend (z. B. 1 bis 3B) oder nachstehend (z. B. 5 bis 7) beschriebenen Ausführungsbeispielen erwähnt sind.
  • 5A zeigt eine Eingabeschnittstelle 500 gemäß einem Ausführungsbeispiel.
  • Die Eingabeschnittstelle 500 umfasst eine dreidimensionale Erfassungsvorrichtung 503, die ausgebildet ist, um ein Detektionssignal 516 zu erzeugen, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist. Die Eingabeschnittstelle 500 kann eine Vorrichtung 509 zum Erzeugen eines Anzeigensteuerungssignals 517 umfassen. Die Eingabeschnittstelle 500 kann ferner eine Anzeigevorrichtung 506 umfassen, die ausgebildet ist, um ein Bild des virtuellen Ziels für einen Benutzer basierend auf dem Anzeigensteuerungssignal 517 zu produzieren. Die Vorrichtung 509 umfasst ein Eingabemodul 501 und ein Verarbeitungsmodul 502. Die Vorrichtung 509, die das Eingabemodul 501 und das Verarbeitungsmodul 502 umfasst, kann zum Beispiel den in Bezug auf 1 bis 4 beschriebenen Vorrichtungen ähnlich sein.
  • Die Vorrichtung 509 kann zum Beispiel ferner eine Ausgabeschnittstelle 508 (z. B. einen Video-Port) umfassen, die ausgebildet ist, um das digitale Steuerungssignal an die Anzeigevorrichtung 506 bereitzustellen.
  • Aufgrund der Variation von zumindest einer benutzerwahrnehmbaren Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, kann ein Benutzer zum Beispiel eine Rückmeldung darüber detektieren oder empfangen, wie weit ein Benutzerindikator von einem virtuellen Ziel entfernt ist. Ein Variieren oder Verändern einer benutzerwahrnehmbaren Charakteristik, z. B. eines Erscheinungsbildes, des virtuellen Ziels kann eine Rückmeldung an den Benutzer verbessern, da der Benutzer eine direkte Rückmeldung über die Distanz zwischen dem Benutzerindikator und einem spezifischen Eingabeobjekt oder einem virtuellen Ziel empfangen kann.
  • 5B zeigt eine schematische Darstellung einer Eingabeschnittstelle, die eine Anzeigevorrichtung 506 (z. B. einen Bildschirm) und eine 3D-Erfassungsvorrichtung 503 umfasst. Die Eingabeschnittstelle kann zum Beispiel auch eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals umfassen. Zum Beispiel kann die Anzeigevorrichtung 506 ein Tablet oder einen All-in-One-PC umfassen. Zum Beispiel kann die Anzeigevorrichtung 506 ein Anzeigebildschirm für eine zweidimensionale Präsentation eines Bildes oder eines virtuellen Layouts sein. Eine 3D-Kamera (z. B. 503) kann vor derselben (z. B. der Anzeigevorrichtung 506) platziert sein oder kann zum Beispiel in die Anzeigevorrichtung 506 integriert sein. Ein virtueller Tastaturbereich kann zum Beispiel auf dem Tisch 512 vorhanden sein. Die Distanz d kann abnehmen, wenn die Fingerspitze sich in Richtung einer virtuellen Schaltfläche bewegt (oder einem Ort auf dem Tisch 512 oder einer virtuellen Grundfläche 511, die in der Nähe des Tischs sein kann). Dadurch kann die auf dem Bildschirm oder der Anzeigevorrichtung 506 angezeigte Schaltfläche (oder das virtuelle Ziel) zum Beispiel ihr visuelles Erscheinungsbild oder zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels verändern. Dies kann nützlich sein zum Bereitstellen einer visuellen Rückmeldung für den Benutzer, da der virtuelle Tastaturbereich (oder der Bereich, der auf dem Tisch 512 vorhanden ist) ein Erfassungsbereich sein kann, auf dem Benutzergestiken ausgeführt werden können, und insbesondere wenn ansonsten möglicherweise keine physische, tastbare oder visuelle Tastatur für den Benutzer vorhanden ist. Bei einigen Beispielen können zum Beispiel eine Projektion einer virtuellen Tastatur auf einen Tisch und ein Modifizieren des Erscheinungsbildes der vorhandenen Schaltflächen durchgeführt werden.
  • 5C zeigt eine schematische Darstellung einer Eingabeschnittstelle, die eine Anzeigevorrichtung 506 (z. B. einen Bildschirm) und eine 3D-Erfassungsvorrichtung 503 umfasst. Die Eingabeschnittstelle kann zum Beispiel auch eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals umfassen.
  • Zum Beispiel kann die Anzeigevorrichtung 506 ein Anzeigebildschirm für eine dreidimensionale Präsentation eines Bildes oder eines virtuellen Layouts sein. Das virtuelle Layout kann ein oder mehrere virtuelle Objekte oder virtuelle Ziele umfassen, die in einer oder mehreren virtuellen Ebenen angeordnet sind. Zum Beispiel kann die Anzeigevorrichtung 506 ausgebildet sein, um eine 3-Eingabetastatur auf dem Bildschirm für 3D-Vision-Bildschirme anzuzeigen.
  • Es können Techniken vorhanden sein, die die Erzeugung einer realen 3D-Ansicht auf einem Flachbildschirm erlauben, wo der Benutzer eine Shutterbrille tragen kann. Es kann möglich sein, einen bildschirmexternen Effekt zu erzeugen, was bedeutet, dass der Benutzer den Eindruck haben kann, dass ein Objekt näher an ihm als an der realen Bildschirmoberfläche ist. Unter Verwendung der vorgeschlagenen Lösung kann ein Benutzereingabeobjekt (oder virtuelles Ziel 205) an dem Bildschirm (oder der Anzeigevorrichtung 506) gezeigt sein, das sein Erscheinungsbild derart verändert, dass der Auftreffpunkt (oder Ereignispunkt), um eine Aktion auszulösen, vor dem Bildschirm sein kann. Unter Verwendung einer 3D-Tiefenerfassungsvorrichtung 503 kann das Erscheinungsbild eines virtuellen 3D-Eingabeobjekts (oder virtuellen Ziels 205) abhängig von der Distanz der Eingabevorrichtung (oder Benutzerindikators 204) zu diesem angepasst sein. Zum Beispiel kann die Variation der zumindest einen benutzerwahrnehmbaren Charakteristik des virtuellen Ziels eine Variation einer Position, eines optischen Erscheinungsbildes oder einer Größe des virtuellen Ziels in zumindest einer Abmessung (oder Richtung) in einem dreidimensionalen Raum sein (einem 3D-Raum, der durch Koordinaten auf einer x-Achse, z. B. einer horizontalen Richtung, einer y-Achse, z. B. einer vertikalen Richtung und einer z-Achse, z. B. in einer Vorwärts- oder Rückwärtsrichtung, definiert ist). Zum Beispiel kann eine Variation des virtuellen Ziels entlang der x-Achse oder y-Achse in Richtungen parallel zu einer planaren Oberfläche eines Anzeigebildschirms sein. Zum Beispiel kann eine Variation des virtuellen Ziels entlang der z-Achse in einer Richtung senkrecht zu einer planaren Oberfläche des Anzeigebildschirms sein.
  • Zum Beispiel kann das Verarbeitungsmodul ausgebildet sein, um eine Veränderung von zumindest einer benutzerwahrnehmbaren Charakteristik des virtuellen Ziels auszulösen, wenn der Benutzerindikator den Ereignispunkt erreicht, der dem virtuellen Ziel zugeordnet ist. Zum Beispiel kann das Verarbeitungsmodul ein Anzeigensteuerungssignal derart erzeugen, dass das virtuelle Ziel hinsichtlich der Position variieren kann, wenn der Benutzerindikator den Ereignispunkt erreicht, der dem virtuellen Ziel zugeordnet ist. Zum Beispiel kann sich der Ereignispunkt in einer konstanten Distanz von einer Hauptanzeigeoberfläche oder einem Hauptanzeigebildschirm der Anzeigevorrichtung 506 befinden. Da das Verarbeitungsmodul die Distanz des Benutzerindikators von der Anzeigevorrichtung 506 (oder dem Anzeigebildschirm) bestimmen kann, kann das Verarbeitungsmodul eine Stärke einer Variation einer Position, eines optischen Erscheinungsbildes oder Größe des virtuellen Ziels bestimmen, wenn der Benutzerindikator den Ereignispunkt erreicht, der dem virtuellen Ziel zugeordnet ist.
  • Zum Beispiel kann die Veränderung unter Verwendung eines bildschirmexternen Effekts (z. B. in einer z-Richtung) implementiert sein und kann das Eingabeobjekt (oder virtuelle Ziel 205) oder Teile von diesem näher an die Eingabevorrichtung (oder den Benutzerindikator 204) bewegen. 5C zeigt eine Momentaufnahme einer laufenden Benutzerinteraktion. Die Fingerspitze (oder der Benutzerindikator 204) kann sich zu dem Zieleingabeobjekt (oder virtuellen Ziel 205) bewegen und während der Annäherung können die Eingabeobjekte (oder das virtuelle Ziel 205) sich aus dem Bildschirm (oder der Anzeigevorrichtung 506) bewegen und können die Fingerspitze (oder den Benutzerindikator 204) an der virtuellen Ebene treffen, wo ein Ereignis zum Berühren des Objekts ausgelöst wird (z. B. an dem Ereignispunkt). Dies kann es dem Benutzer erlauben, mit einer Anwendung ohne eine physische Tastatur zu interagieren und kann vermeiden, dass der Benutzer die Bildschirmoberfläche mit seinen Fingern beschmutzt, weil der Auslösepunkt zum Beispiel von der Bildschirmoberfläche weg bewegt wird.
  • 5D zeigt eine schematische Darstellung einer weiteren Eingabeschnittstelle, die eine Anzeigevorrichtung 506 (z. B. eine am Kopf befestigte Anzeigevorrichtung) und eine 3D-Erfassungsvorrichtung 503 umfasst. Die Eingabeschnittstelle kann ferner zum Beispiel eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals umfassen.
  • Die Anzeigevorrichtung 506 kann zum Beispiel ausgebildet sein, um eine virtuelle 3D-Eingabetastatur für am Kopf befestigte Anzeigen der virtuellen Realität zu umfassen. Bei einem Beispiel kann die Eingabeschnittstelle für komplett immersive 3D-Umgebungen unter Verwendung einer am Kopf montierten Brille verwendet werden. Innerhalb der 3D-Umgebung kann der Benutzer 513 eine (virtuelle) Tastatur (z. B. in einer 3D-Welt eines Spiels oder einer Anwendung) sehen, die im Raum angezeigt ist. Zum Beispiel kann der Benutzer ein virtuelles Layout 412 einer Tastatur auf einem virtuellen Bildschirm sehen. Unter Verwendung einer 3D-Tiefenerfassungsvorrichtung, die auf der 3D-Brille (z. B. 506) oder an einem Platz um den Benutzer herum befestigt sein kann, kann seine Hand (oder ein Bild des Benutzerindikators 204) (durch die 3D-Erfassungsvorrichtung) erfasst werden, und eine semirealistische Repräsentation (oder ein Bild) seiner Hand (oder des Benutzerindikators 204) kann als ein Cursor in der 3D-Umgebung gezeigt werden. Wenn der Cursor sich der virtuellen Tastatur nähert, können sich die Schaltflächen der Tastatur (z. B. ein oder mehrere virtuelle Ziele) verändern (z. B. ein Kegel, der proportional zu der Distanz zu dem Cursor immer größer wird). Zum Beispiel können ein oder mehrere virtuelle Ziele 205a, 205b, 205c aus einer Mehrzahl virtueller Ziele des virtuellen Layouts 412 variiert werden, sodass zumindest eine benutzerwahrnehmbare Charakteristik eines oder mehrerer virtueller Ziele 205a, 205b, 205c jeweils basierend auf einer Distanz zwischen dem Benutzerindikator und jedem jeweiligen virtuellen Ziel variiert werden kann. Da die Distanz zwischen jedem virtuellen Ziel (z. B. 205a, 205b, 205c) unterschiedlich sein kann, kann sich die benutzerwahrnehmbare Charakteristik eines jeden virtuellen Ziels voneinander unterscheiden.
  • Weitere Einzelheiten und Aspekte sind in Verbindung mit den vorstehend oder nachstehend beschriebenen Ausführungsbeispielen erwähnt (z. B. betreffend die Vorrichtung zum Erzeugen des Anzeigensteuerungssignals, das Eingabemodul, das Detektionssignal, den Benutzerindikator, die Informationen bezogen auf eine Position des Benutzerindikators, die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, das virtuelle Ziel, das Verarbeitungsmodul, das Anzeigensteuerungssignal, die Anzeigeinformationen, die Anzeigevorrichtung und die benutzerwahrnehmbare Charakteristik). Das in 5A bis 5D gezeigten Ausführungsbeispiele können ein oder mehrere, optionale, zusätzliche Merkmale umfassen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren, vorstehend (z. B. 1 bis 4) oder nachstehend (z. B. 6 und 7) beschriebenen Ausführungsbeispielen erwähnt sind.
  • 6 zeigt ein Flussdiagramm eines Verfahrens 600 zum Erzeugen eines Anzeigensteuerungssignals gemäß einem Ausführungsbeispiel.
  • Das Verfahren 600 umfasst ein Empfangen 610 eines Detektionssignals, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist.
  • Das Verfahren 600 umfasst ferner ein Erzeugen 620 eines Anzeigensteuerungssignals, das Anzeigeinformationen zum Produzieren eines Bildes des virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer umfasst, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.
  • Aufgrund der Variation von zumindest einer benutzerwahrnehmbaren Charakteristik des virtuellen Ziels basierend auf den Informationen bezogen auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, kann ein Benutzer zum Beispiel eine Rückmeldung darüber detektieren oder empfangen, wie weit ein Benutzerindikator von einem virtuellen Ziel entfernt sein kann. Ein Variieren oder Verändern einer benutzerwahrnehmbaren Charakteristik, z. B. eines Erscheinungsbildes, des virtuellen Ziels kann die Rückmeldung an den Benutzer verbessern, da der Benutzer eine direkte Rückmeldung über die Distanz zwischen dem Benutzerindikator und einem spezifischen Eingabeobjekt oder virtuellen Ziel empfangen kann.
  • Das Verfahren 600 kann zum Beispiel ferner ein Bestimmen der Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, der dem virtuellen Ziel zugeordnet ist, basierend auf dem Detektionssignal umfassen.
  • Das Verfahren 600 kann ferner zum Beispiel ein Erzeugen des Anzeigensteuerungssignals umfassen, sodass eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels im Verhältnis zu den Informationen, die sich auf Veränderungen der Position des Benutzerindikators oder der Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.
  • Weitere Einzelheiten und Aspekte sind in Verbindung mit den vorstehend oder nachstehend beschriebenen Ausführungsbeispielen erwähnt (z. B. betreffend die Vorrichtung zum Erzeugen des Anzeigensteuerungssignals, das Eingabemodul, das Detektionssignal, den Benutzerindikator, die Informationen bezogen auf eine Position des Benutzerindikators, die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, das virtuelle Ziel, das Verarbeitungsmodul, das Anzeigensteuerungssignal, die Anzeigeinformationen, die Anzeigevorrichtung und die benutzerwahrnehmbare Charakteristik). Das in 6 gezeigte Ausführungsbeispiel kann ein oder mehrere, optionale, zusätzliche Merkmale umfassen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren, vorstehend (z. B. 1 bis 5D) oder nachstehend (z. B. 7) beschriebenen Ausführungsbeispielen erwähnt sind.
  • 7 zeigt ein Flussdiagramm eines Verfahrens 700 zum Erzeugen eines Anzeigensteuerungssignals gemäß einem Ausführungsbeispiel.
  • Das Verfahren 700 kann ein Bestimmen 710 einer Position oder einer Distanz bezogen auf einen Benutzerindikator umfassen. Diese Bestimmung kann durch eine 3D-Kamera, wie beispielsweise eine TOF-Kamera, durchgeführt werden, zum Beispiel zum Durchführen von Tiefenerfassungsmessungen unter Verwendung von TOF-Techniken.
  • Das Verfahren 700 kann ferner ein Berechnen 720 einer Distanz zu einem virtuellen Ziel (z. B. einer Distanz zwischen dem Benutzerindikator und einem oder mehreren virtuellen Zielen) umfassen.
  • Das Verfahren 700 kann ferner ein Aktualisieren 730 eines Layouts des virtuellen Ziels umfassen. (z. B. sodass eine benutzerwahrnehmbare Charakteristik von zumindest einem virtuellen Ziel im Verhältnis zu einer Distanz zwischen dem Benutzerindikator und dem virtuellen Ziel variiert werden kann).
  • Die Prozesse 710 bis 730 können wiederholt 740 werden, z. B. fortlaufend bei einer hohen Bildrate (z. B. größer als 50 Hz), für eine Reihe von Zyklen je nach Bedarf.
  • Weitere Einzelheiten und Aspekte sind in Verbindung mit den vorstehend oder nachstehend beschriebenen Ausführungsbeispielen erwähnt (z. B. betreffend die Vorrichtung zum Erzeugen des Anzeigensteuerungssignals, das Eingabemodul, das Detektionssignal, den Benutzerindikator, die Informationen bezogen auf eine Position des Benutzerindikators, die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, das virtuelle Ziel, das Verarbeitungsmodul, das Anzeigensteuerungssignal, die Anzeigeinformationen, die Anzeigevorrichtung und die benutzerwahrnehmbare Charakteristik). Das in 7 gezeigte Ausführungsbeispiel kann ein oder mehrere, optionale, zusätzliche Merkmale umfassen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren, vorstehend (z. B. 1 bis 6) beschriebenen Ausführungsbeispielen erwähnt sind.
  • Verschiedene Ausführungsbeispiele beziehen sich auf ein Verfahren für Benutzerinteraktion in einer immersiven 3D-Umgebung.
  • Ausführungsbeispiele können weiterhin ein Computerprogramm mit einem Programmcode zum Durchführen eines der obigen Verfahren bereitstellen, wenn das Computerprogramm auf einem Computer oder Prozessor ausgeführt wird. Ein Fachmann würde leicht erkennen, dass Schritte verschiedener oben beschriebener Verfahren durch programmierte Computer durchgeführt werden können. Hierbei sollen einige Ausführungsbeispiele auch Programmspeichervorrichtungen, z. B. Digitaldatenspeichermedien, abdecken, die maschinen- oder computerlesbar sind und maschinenausführbare oder computerausführbare Programme von Anweisungen codieren, wobei die Anweisungen einige oder alle der Handlungen der oben beschriebenen Verfahren durchführen. Die Programmspeichervorrichtungen können z. B. Digitalspeicher, magnetische Speichermedien wie beispielsweise Magnetplatten und Magnetbänder, Festplattenlaufwerke oder optisch lesbare Digitaldatenspeichermedien sein. Auch sollen weitere Ausführungsbeispiele Computer programmiert zum Durchführen der Schritte der oben beschriebenen Verfahren oder (feld-)programmierbare Logik-Arrays ((F)PLA = (Field) Programmable Logic Arrays) oder (feld-)programmierbare Gate-Arrays ((F)PGA = (Field) Programmable Gate Arrays) programmiert zum Durchführen der Schritte der oben beschriebenen Verfahren abdecken.
  • Durch die Beschreibung und Zeichnungen werden nur die Grundsätze der Offenbarung dargestellt. Es versteht sich daher, dass der Fachmann verschiedene Anordnungen ableiten kann, die, obwohl sie nicht ausdrücklich hier beschrieben oder dargestellt sind, die Grundsätze der Offenbarung verkörpern und in ihrem Sinn und Schutzbereich enthalten sind. Weiterhin sollen alle hier aufgeführten Beispiele grundsätzlich nur Lehrzwecken dienen, um den Leser beim Verständnis der Grundsätze der Offenbarung und der durch den (die) Erfinder beigetragenen Konzepte zur Weiterentwicklung der Technik zu unterstützen, und sollen als ohne Begrenzung solcher besonders aufgeführten Beispiele und Bedingungen dienend aufgefasst werden. Weiterhin sollen alle hiesigen Aussagen über Grundsätze, Aspekte und Ausführungsbeispiele der Offenbarung wie auch besondere Beispiele derselben deren Entsprechungen umfassen.
  • Als „Mittel für ...“ (Durchführung einer gewissen Funktion) bezeichnete Funktionsblöcke sind als Funktionsblöcke umfassend Schaltungen zu verstehen, die jeweils zum Durchführen einer gewissen Funktion ausgebildet sind. Daher kann ein „Mittel für etwas“ ebenso als „Mittel ausgebildet für oder geeignet für etwas“ verstanden werden. Ein Mittel ausgebildet zum Durchführen einer gewissen Funktion bedeutet daher nicht, dass ein solches Mittel notwendigerweise die Funktion durchführt (in einem gegebenen Zeitmoment).
  • Funktionen verschiedener in den Figuren dargestellter Elemente einschließlich jeder als „Mittel“, „Mittel zur Bereitstellung eines Sensorsignals“, „Mittel zum Erzeugen eines Sendesignals“ usw. bezeichneter Funktionsblöcke können durch die Verwendung dedizierter Hardware wie beispielsweise „eines Signalanbieters“, „einer Signalverarbeitungseinheit“, „eines Prozessors“, „einer Steuerung“, usw. wie auch als Hardware fähig der Ausführung von Software in Verbindung mit zugehöriger Software bereitgestellt werden. Weiterhin könnte jede hier als „Mittel“ beschriebene Instanz als „ein oder mehrere Module“, „eine oder mehrere Vorrichtungen“, „eine oder mehrere Einheiten“, usw. implementiert sein oder diesem entsprechen. Bei Bereitstellung durch einen Prozessor können die Funktionen durch einen einzigen dedizierten Prozessor, durch einen einzigen geteilten Prozessor oder durch eine Mehrzahl einzelner Prozessoren bereitgestellt werden, von denen einige geteilt sein können. Weiterhin soll ausdrückliche Verwendung des Begriffs „Prozessor“ oder „Steuerung“ nicht als ausschließlich auf zur Ausführung von Software fähige Hardware bezogen ausgelegt werden, und kann implizit ohne Begrenzung Digitalsignalprozessor-(DSP-)Hardware, Netzprozessor, anwendungsspezifische integrierte Schaltung (ASIC = Application Specific Integrated Circuit), feldprogrammierbare Logikanordnung (FPGA = Field Programmable Gate Array), Nurlesespeicher (ROM – Read Only Memory) zum Speichern von Software, Direktzugriffsspeicher (RAM = Random Access Memory) und nichtflüchtige Speichervorrichtung (storage) einschließen. Auch kann sonstige Hardware, herkömmliche und/oder kundenspezifische, eingeschlossen sein.
  • Der Fachmann sollte verstehen, dass alle hiesigen Blockschaltbilder konzeptmäßige Ansichten beispielhafter Schaltungen repräsentieren, die die Grundsätze der Offenbarung verkörpern. Auf ähnliche Weise versteht es sich, dass alle Flussdiagramme, Ablaufdiagramme, Zustandsübergangsdiagramme, Pseudocode und dergleichen verschiedene Prozesse repräsentieren, die im Wesentlichen in computerlesbarem Medium repräsentiert und so durch einen Computer oder Prozessor ausgeführt werden, ungeachtet dessen, ob ein solcher Computer oder Prozessor ausdrücklich dargestellt ist.
  • Weiterhin sind die nachfolgenden Ansprüche hiermit in die detaillierte Beschreibung aufgenommen, wo jeder Anspruch als getrenntes Ausführungsbeispiel für sich stehen kann. Wenn jeder Anspruch als getrenntes Ausführungsbeispiel für sich stehen kann, ist zu beachten, dass – obwohl ein abhängiger Anspruch sich in den Ansprüchen auf eine besondere Kombination mit einem oder mehreren anderen Ansprüchen beziehen kann – andere Ausführungsbeispiele auch eine Kombination des abhängigen Anspruchs mit dem Gegenstand jedes anderen abhängigen oder unabhängigen Anspruchs einschließen können. Diese Kombinationen werden hier vorgeschlagen, sofern nicht angegeben ist, dass eine bestimmte Kombination nicht beabsichtigt ist. Weiterhin sollen auch Merkmale eines Anspruchs für jeden anderen unabhängigen Anspruch eingeschlossen sein, selbst wenn dieser Anspruch nicht direkt abhängig von dem unabhängigen Anspruch gemacht ist.
  • Es ist weiterhin zu beachten, dass in der Beschreibung oder in den Ansprüchen offenbarte Verfahren durch eine Vorrichtung mit Mitteln zum Durchführen jeder der jeweiligen Schritte dieser Verfahren implementiert sein können.
  • Weiterhin versteht es sich, dass die Offenbarung vielfacher, in der Beschreibung oder den Ansprüchen offenbarter Schritte oder Funktionen nicht als in der bestimmten Reihenfolge befindlich ausgelegt werden sollte. Durch die Offenbarung von vielfachen Schritten oder Funktionen werden diese daher nicht auf eine bestimmte Reihenfolge begrenzt, es sei denn, dass diese Schritte oder Funktionen aus technischen Gründen nicht austauschbar sind.
  • Weiterhin kann in einigen Ausführungsbeispielen ein einzelner Schritt mehrere Teilschritte einschließen oder in diese aufgebrochen werden. Solche Teilschritte können eingeschlossen sein und Teil der Offenbarung dieses Einzelschrittes bilden, sofern sie nicht ausdrücklich ausgeschlossen sind.

Claims (20)

  1. Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals, umfassend ein Eingabemodul, das ausgebildet ist, um ein Detektionssignal zu empfangen, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist; ein Verarbeitungsmodul, das ausgebildet ist, um ein Anzeigensteuerungssignal zu erzeugen, das Anzeigeinformationen zum Produzieren eines Bildes des virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer erzeugt, wobei das Verarbeitungsmodul ausgebildet ist, um das Anzeigensteuerungssignal zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.
  2. Die Vorrichtung gemäß Anspruch 1, wobei das Anzeigensteuerungssignal Anzeigeinformationen zum Repräsentieren des virtuellen Ziels auf einem Anzeigebildschirm für zweidimensionale Präsentation umfasst.
  3. Die Vorrichtung gemäß Anspruch 1 oder 2, wobei das Anzeigensteuerungssignal Anzeigeinformationen zum Erzeugen einer dreidimensionalen Präsentation des virtuellen Ziels für einen Benutzer durch eine Anzeigevorrichtung für eine dreidimensionale Präsentation umfasst.
  4. Die Vorrichtung gemäß Anspruch 3, wobei die Anzeigevorrichtung für eine dreidimensionale Präsentation zumindest eines von einem dreidimensional-fähigen Anzeigebildschirm oder einer am Kopf befestigten Anzeigevorrichtung umfasst.
  5. Die Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei die Variation der zumindest einen benutzerwahrnehmbaren Charakteristik des virtuellen Ziels eine Variation einer Position, eines optischen Erscheinungsbildes oder einer Größe des virtuellen Ziels ist.
  6. Die Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei das Verarbeitungsmodul ferner ausgebildet ist, um ein Benutzerrückmeldungs-Steuerungssignal zum Variieren eines akustischen oder eines haptischen Signals basierend auf den Informationen zu erzeugen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen.
  7. Die Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei das Verarbeitungsmodul ausgebildet ist, um die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, der dem virtuellen Ziel zugeordnet ist, basierend auf dem Detektionssignal zu bestimmen, und um das Anzeigensteuerungssignal zu erzeugen, sodass die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf der Distanz variiert wird.
  8. Die Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei das Verarbeitungsmodul ausgebildet ist, um das Anzeigensteuerungssignal zu erzeugen, sodass die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels im Verhältnis zu Informationen bezogen auf Veränderungen der Position des Benutzerindikators oder der Distanz zwischen dem Benutzerindikator und dem Ereignispunkt variiert wird.
  9. Die Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei das Verarbeitungsmodul ausgebildet ist, um das digitale Steuerungssignal zu erzeugen, sodass die zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels variiert wird, wenn die Distanzen zwischen dem Benutzerindikator und dem Ereignispunkt, der dem virtuellen Ziel zugeordnet ist, unter einer Schwellendistanz sind.
  10. Die Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei das Verarbeitungsmodul ausgebildet ist, um basierend auf dem Detektionssignal eine erste Distanz zwischen dem Benutzerindikator und einem ersten Ereignispunkt, der einem ersten virtuellen Ziel zugeordnet ist, und eine zweite Distanz zwischen dem Benutzerindikator und einem zweiten Ereignispunkt, der einem zweiten virtuellen Ziel zugeordnet ist, zu bestimmen; wobei das Verarbeitungsmodul ausgebildet ist, um das Anzeigensteuerungssignal zu erzeugen, das Anzeigeinformationen zum Repräsentieren von zumindest einem von dem ersten und zweiten virtuellen Ziel durch die Anzeigevorrichtung umfasst, sodass zumindest eine benutzerwahrnehmbare Charakteristik von zumindest einem von dem ersten und zweiten virtuellen Ziel basierend auf der ersten Distanz und zweiten Distanz variiert wird.
  11. Die Vorrichtung gemäß Anspruch 10, wobei das Verarbeitungsmodul ausgebildet ist, um das Anzeigensteuerungssignal zu erzeugen, sodass eine Variation von zumindest einer benutzerwahrnehmbaren Charakteristik des ersten virtuellen Ziels auf der ersten Distanz basiert und eine Variation von zumindest einer benutzerwahrnehmbaren Charakteristik des zweiten virtuellen Ziels auf der zweiten Distanz basiert.
  12. Die Vorrichtung gemäß Anspruch 10, wobei das Verarbeitungsmodul ausgebildet ist, um das Anzeigensteuerungssignal zu erzeugen, sodass zumindest eine benutzerwahrnehmbare Charakteristik von einem von dem ersten und zweiten virtuellen Ziel basierend auf einem Vergleich der ersten Distanz und der zweiten Distanz variiert wird.
  13. Die Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei das Verarbeitungsmodul ausgebildet ist, um ein dem virtuellen Ziel zugeordnetes Ereignis auszulösen, wenn der Benutzerindikator den Ereignispunkt erreicht, der dem virtuellen Ziel zugeordnet ist.
  14. Die Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei der Benutzerindikator ein Finger des Benutzers, ein durch den Benutzer gesteuerter Stick oder ein durch den Benutzer gesteuerter Stift ist.
  15. Die Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei der Ereignispunkt sich in einer vorbestimmten Distanz von dem repräsentierten virtuellen Ziel befindet oder sich an dem repräsentierten virtuellen Ziel befindet.
  16. Die Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei das Eingabemodul ausgebildet ist, um das Detektionssignal von zumindest einem von einer Laufzeit-Kamera, einer Kamera zum Produzieren von dreidimensionalen Bildern oder einem Ultraschallsensor zu empfangen.
  17. Die Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei das Verarbeitungsmodul ausgebildet ist, um das Anzeigensteuerungssignal zu erzeugen, das Anzeigeinformationen zum Produzieren einer virtuellen Tastatur für einen Benutzer umfasst, wobei das virtuelle Ziel eine Taste der virtuellen Tastatur ist.
  18. Eine Eingabeschnittstelle, umfassend eine dreidimensionale Erfassungsvorrichtung, die ausgebildet ist, um ein Detektionssignal zu erzeugen, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist; eine Vorrichtung gemäß einem der vorangehenden Ansprüche; und eine Anzeigevorrichtung, die ausgebildet ist, um ein Bild des virtuellen Ziels für einen Benutzer basierend auf dem Anzeigensteuerungssignal zu produzieren.
  19. Ein Verfahren zum Erzeugen eines Anzeigensteuerungssignals, das Verfahren umfassend: Empfangen eines Detektionssignals, das Informationen bezogen auf eine Position eines Benutzerindikators oder eine Distanz zwischen einem Benutzerindikator und einem Ereignispunkt umfasst, der einem virtuellen Ziel zugeordnet ist; und Erzeugen eines Anzeigensteuerungssignals, das Anzeigeinformationen zum Produzieren eines Bildes eines virtuellen Ziels durch eine Anzeigevorrichtung für einen Benutzer umfasst, sodass zumindest eine benutzerwahrnehmbare Charakteristik des virtuellen Ziels basierend auf den Informationen, die sich auf die Position des Benutzerindikators oder die Distanz zwischen dem Benutzerindikator und dem Ereignispunkt beziehen, variiert wird.
  20. Das Verfahren gemäß Anspruch 19, ferner umfassend das Bestimmen der Distanz zwischen dem Benutzerindikator und dem Ereignispunkt, der dem virtuellen Ziel zugeordnet ist, basierend auf dem Detektionssignal.
DE102014114742.1A 2014-10-10 2014-10-10 Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben Ceased DE102014114742A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102014114742.1A DE102014114742A1 (de) 2014-10-10 2014-10-10 Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben
US14/878,606 US20160104322A1 (en) 2014-10-10 2015-10-08 Apparatus for generating a display control signal and a method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014114742.1A DE102014114742A1 (de) 2014-10-10 2014-10-10 Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben

Publications (1)

Publication Number Publication Date
DE102014114742A1 true DE102014114742A1 (de) 2016-04-14

Family

ID=55643925

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014114742.1A Ceased DE102014114742A1 (de) 2014-10-10 2014-10-10 Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben

Country Status (2)

Country Link
US (1) US20160104322A1 (de)
DE (1) DE102014114742A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110199251A (zh) * 2017-02-02 2019-09-03 麦克赛尔株式会社 显示装置和远程操作控制装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106201207B (zh) * 2016-07-13 2019-12-03 上海乐相科技有限公司 一种虚拟现实交互方法及装置
US10515484B1 (en) * 2017-10-20 2019-12-24 Meta View, Inc. Systems and methods to facilitate interactions with virtual content in an interactive space using visual indicators
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
US11176752B1 (en) * 2020-03-31 2021-11-16 Amazon Technologies, Inc. Visualization of a three-dimensional (3D) model in augmented reality (AR)
US11361735B1 (en) * 2020-04-15 2022-06-14 Apple Inc. Head-mountable device with output for distinguishing virtual and physical objects

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008029180A1 (en) * 2006-09-06 2008-03-13 Santosh Sharan An apparatus and method for position-related display magnification
DE102009006083A1 (de) * 2009-01-26 2010-07-29 Alexander Gruber Verfahren zur Ausführung einer Eingabe mittels einer auf einem Bildschirm dargestellten virtuellen Tastatur
EP2860614A1 (de) * 2013-10-10 2015-04-15 ELMOS Semiconductor AG Verfahren und Vorrichtung zur Handhabung grafisch dargestellter Daten

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5732784B2 (ja) * 2010-09-07 2015-06-10 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
WO2012040827A2 (en) * 2010-10-01 2012-04-05 Smart Technologies Ulc Interactive input system having a 3d input space
US9104239B2 (en) * 2011-03-09 2015-08-11 Lg Electronics Inc. Display device and method for controlling gesture functions using different depth ranges
KR101748668B1 (ko) * 2011-04-14 2017-06-19 엘지전자 주식회사 이동 단말기 및 그의 입체영상 제어방법
JP2013016018A (ja) * 2011-07-04 2013-01-24 Canon Inc 表示制御装置、制御方法及びプログラム
WO2013018099A2 (en) * 2011-08-04 2013-02-07 Eyesight Mobile Technologies Ltd. System and method for interfacing with a device via a 3d display
JP2013097593A (ja) * 2011-11-01 2013-05-20 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2013174642A (ja) * 2012-02-23 2013-09-05 Toshiba Corp 映像表示装置
TWI471756B (zh) * 2012-11-16 2015-02-01 Quanta Comp Inc 虛擬觸控方法
KR101844390B1 (ko) * 2014-01-03 2018-04-03 인텔 코포레이션 사용자 인터페이스 제어를 위한 시스템 및 기법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008029180A1 (en) * 2006-09-06 2008-03-13 Santosh Sharan An apparatus and method for position-related display magnification
DE102009006083A1 (de) * 2009-01-26 2010-07-29 Alexander Gruber Verfahren zur Ausführung einer Eingabe mittels einer auf einem Bildschirm dargestellten virtuellen Tastatur
EP2860614A1 (de) * 2013-10-10 2015-04-15 ELMOS Semiconductor AG Verfahren und Vorrichtung zur Handhabung grafisch dargestellter Daten

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110199251A (zh) * 2017-02-02 2019-09-03 麦克赛尔株式会社 显示装置和远程操作控制装置

Also Published As

Publication number Publication date
US20160104322A1 (en) 2016-04-14

Similar Documents

Publication Publication Date Title
DE102014114742A1 (de) Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben
DE60308541T2 (de) Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung
Kopper et al. Rapid and accurate 3D selection by progressive refinement
Gallo et al. 3D interaction with volumetric medical data: experiencing the Wiimote
DE112015005721T5 (de) Elektives paarweises zuordnen einer in einem virtuellen bereich dargestellten anwendung zu einer physischen anzeige
DE60201692T2 (de) Auf 3D Objekten angewendetes 2D Bildverarbeitungsverfahren
DE102007023506A1 (de) Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum
EP3067874A1 (de) Verfahren und vorrichtung zum testen eines in einem luftfahrzeug zu bedienenden geräts
EP2977961B1 (de) Verfahren und Kommunikationseinrichtung zum Erstellen und/oder Ändern virtueller Objekte
DE102009025236A1 (de) Schnittstellensystem zur Gestenerkennung mit einem lichtstreuenden Bildschirm
DE102021122362A1 (de) Wechsel zwischen zuständen in einer hybriden virtual-reality-desktop-rechenumgebung
DE112012003889T5 (de) Verfahren, Vorrichtung und Computerprogramm, die zum Zeigen auf ein Objekt dienen
DE102013109862A1 (de) Vorrichtung und Verfahren für Benutzeranbindung sowie Endgerät, das dieselben benutzt
US20170177077A1 (en) Three-dimension interactive system and method for virtual reality
DE102011016319A1 (de) Verfahren und System zum Simulieren einer dreidimensionalen Bedienschnittstelle
EP2325725A1 (de) Verfahren zum reduzieren eines effekts auf virtuelle objekte
CN107924268B (zh) 对象选择***和方法
DE112017001781T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und nicht transientes, computerlesbares Medium
WO2010083821A1 (de) Verfahren zur steuerung eines auf einem bildschirm dargestellten auswahlobjekts
DE102014107211A1 (de) Vorrichtung zum Anzeigen einer virtuellen Realität sowie Messgerät
DE112019002798T5 (de) Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm
EP1665023B1 (de) Verfahren und vorrichtung zur steuerung eines graphiksystems der virtuellen realität mittels interaktionen
DE102012222094A1 (de) Berührungserkennungssystem und verfahren fürberührungsbildschirm
WO2013034133A1 (de) Interaktion mit einem dreidimensionalen virtuellen szenario
DE112019000758B4 (de) Verfahren umfassend auffangen einer reflexion eines infraschallsignals

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final