WO2016046123A1 - Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung - Google Patents

Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung Download PDF

Info

Publication number
WO2016046123A1
WO2016046123A1 PCT/EP2015/071587 EP2015071587W WO2016046123A1 WO 2016046123 A1 WO2016046123 A1 WO 2016046123A1 EP 2015071587 W EP2015071587 W EP 2015071587W WO 2016046123 A1 WO2016046123 A1 WO 2016046123A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
screen
holding device
display device
generated
Prior art date
Application number
PCT/EP2015/071587
Other languages
English (en)
French (fr)
Inventor
Simon Brattke
Original Assignee
Carl Zeiss Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Ag filed Critical Carl Zeiss Ag
Publication of WO2016046123A1 publication Critical patent/WO2016046123A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1636Sensing arrangement for detection of a tap gesture on the housing

Definitions

  • Display device which can be placed on the head of a user, and methods for controlling such a display device
  • the present invention relates to a display device with a holding device which can be placed on the head of a user, an image module mechanically connected to the holding device, which has a screen on which an image is produced, and a first imaging optical unit mechanically connected to the holding device, which has the image formed on the screen as a virtual image so that the user can perceive it in the upside-down state of the holding device. Furthermore, the present invention relates to a method for controlling such a display device.
  • Such display devices may in particular be designed so that the user can only perceive the images generated by the display device and no longer the environment.
  • Such display devices are also referred to as HMD device (Head Mounted Display) device or as VR glasses (virtual reality glasses). Since the user can only perceive the images generated by the display device and no longer the environment, he immerses virtually in a virtual reality, which leaves a strong impression.
  • HMD device Head Mounted Display
  • VR glasses virtual reality glasses
  • a common user interface in such mobile phones is still an audio interface through which the mobile phone can be controlled by voice control.
  • the audio interface can not be operated quietly and discreetly.
  • not too many other audio sources should be present to ensure adequate error-free use through the audio interface. Proceeding from this, it is therefore an object of the invention to provide a display device of the type mentioned, which can be used safely and discreetly.
  • this object is achieved in the case of a display device with a holding device which can be placed on the head of a user, an image module mechanically connected to the holding device, which has a screen on which an image is generated, and a first imaging optical system which is mechanically connected to the holding device image formed on the screen as a virtual image so that the user can perceive it in the upside down state of the holding device,
  • the image module further comprises a control unit for driving the screen and a sensor unit for detecting a movement of the image module, wherein the sensor unit of the
  • the control unit supplies signals which, from the signals, are a tapping of the signals
  • Holding device detects and depending on the detected tap a change in the image generated on the screen and / or the control of running on the image module application that provides content that is included in the image generated on the screen causes.
  • Such a tapping or abutment of the holding device can be carried out discretely and also in a louder environment, without thereby distorting the input.
  • a discrete and secure control of the display device can take place.
  • an input can thus be made by tapping, pushing or tapping against the holding device.
  • the holding device is used as an input interface, which is sensitive to a touch of the holding device (in particular a tap, push or knock against the holding device), to which the holding device does not need to be specially adapted.
  • Holding device can be used as it is as an input interface, since the measurement of the interaction performed (typing, pushing, knocking, etc.) with the holding device by means of the sensor unit and the evaluation of the measured signals by means of the control unit, which are both part of the image module ,
  • the control unit from the supplied signals, the position of the performed tapping on the holding device, the strength of the performed tapping of the holding device, the time interval of at least two consecutive tap events recognize and / or recognize the direction in which when tapping was pushed or knocked against the holding device, and depending on the detected position, the detected strength of the tap, the detected temporal Distance and / or the direction detected cause a change in the image generated on the screen and / or the control of the application.
  • control unit can detect from the signals a spatial and / or temporal pattern of one or more tap events and, depending thereon, effect a change of the image generated on the screen and / or the control of the application.
  • the spatial and / or temporal pattern is thus implemented in a control command.
  • a selectable menu item can be displayed in the image, which can be selected by tapping the associated left or right side of the holding device. It is also possible for the display device to represent at least in one corner of the generated image a selectable menu item which can be selected by tapping the holding device in the region of this corner.
  • the display device according to the invention can be designed as an HMD device and / or as VR glasses. Furthermore, in the display device according to the invention, the image module
  • the holding device may have a front part, in which the image module and the first imaging optics are arranged, wherein in the mounted on the head state of the holding device, the front part is preferably positioned in front of the eyes of the user that the user only the virtual image and not the Environment can perceive.
  • the front part may be light-tight on the face in an area surrounding the eyes.
  • the screen of the image module can be substantially perpendicular to the straight-ahead direction in the state of the holding device mounted on the head.
  • the first imaging optics may comprise at least one optical element.
  • the optical element may, for example, be a lens, a Fresnel lens, a lens array and / or a diffractive optical element (DOE).
  • DOE diffractive optical element
  • Imaging optics comprise a lens, wherein the lens has an optically effective surface. On the lens, a diffractive structure may be arranged.
  • the display device may have, in addition to the first imaging optics, a second imaging optics, which may be formed in the same way as the first
  • the second imaging optics is in particular designed to provide a second image generated on the screen as a virtual image when the user
  • the first imaging optics can provide the virtual image for a first eye and the second imaging optics provide the virtual image for the second eye.
  • a binocular display device is provided.
  • the first and / or second imaging optics can be designed as magnifying glass optics.
  • the sensor unit may include an inertial sensor, such as an inertial sensor. a gyroscope, a tilt sensor, an acceleration sensor and / or another sensor.
  • the mechanical connection of the image module with the holding device is preferably free of play.
  • the image module may have a control unit for controlling the screen and a sensor unit for detecting a movement of the image module, wherein the sensor unit supplies signals to the control unit, by means of which the performed tap can be recognized.
  • the method according to the invention can realize the method steps described in connection with the display device according to the invention.
  • the application executed on the image module can control the screen in such a way that, based on supplied image data of a first image, the first image is generated both in a first section of the screen and in a second section of the screen separate from the first section.
  • the application is carried out directly on the image module, the desired image formation can advantageously be carried out quickly. Furthermore, image data that is stored on or generated by the image module can be used for display.
  • the image module may be a portable device having a controller for executing program instructions and driving the display.
  • Such an image forming apparatus is e.g. B. a mobile phone such. B. a smartphone.
  • Program instructions are used to execute the application on the image module with the appropriate instructions that performs the screen control and preferably the division of the screen into two sections with the representation of the same image in both sections.
  • the application can control the screen so that the two sections are spaced apart and the area between the two sections is darkened. Further, the application may generate the first image in the first and second sections so that there is no stereo effect when viewing the two images. Of course, the images can also be generated so that a stereo effect is present.
  • the image data may be supplied in such a way that the application accesses image data stored in the image module (hereinafter also referred to as image generation device) and / or that the image data is streamed onto the image generation device and / or that the image data is generated on the image generation device.
  • the application may image data of other applications on the imaging device
  • the first image can be predistorted in at least one of the sections, thereby at least partially compensating an aberration of the imaging optics.
  • the application can also be referred to as an app.
  • the added image data may in particular be image data of a recording of the surroundings of a user carrying the display device on his head and / or other image data. It is thus possible, for example, to present the environment to the user as the first image. In addition, the environment can be overlaid with other image information so that the user is shown more than the environment. These can be, for example, clues that are generated context-sensitively and displayed in the generated image.
  • the user can be displayed a live image of the environment.
  • a camera is provided which receives the environment.
  • the camera may be a separate camera, which is preferably attached to the display device (e.g., the fixture).
  • the display device e.g., the fixture.
  • a camera is usually provided, which is provided on the back (the side facing away from the screen), so that this camera can be used for recording the environment.
  • the application can generate the first image in the first and second sections in such a way that an image content of the first image in the first and second sections is generated either at a first distance or at a different second distance. This makes it possible to differentiate the image production
  • the application may have an interface over which the distance can be entered, in which case the first image in the first and second sections is generated as a function of the entered distance so that the input distance is present on the screen between the image content of the image.
  • the interface can
  • the inventive input interface of the holding device be that can be operated by tapping, knocking or bumping.
  • a continuous change in distance by means of the application is possible.
  • the complete first picture in the two sections is shown, but only a trimmed first picture. Any areas of the screen not filled in by the first image may be displayed in black.
  • a camera may be provided which receives the environment and supplies as image data to the image forming device.
  • the camera can be part of the image module.
  • the application can generate the first image, which is an image of the surroundings, in superposition with at least one further image element on the two sections of the screen.
  • the at least one further picture element may be z.
  • Image data processing before being displayed This can be a brightness adjustment, a color adjustment, a false color representation, etc.
  • augmented reality representation The described representation of the environment in superposition with a further image information is often referred to as augmented reality representation.
  • Fig. 1 is a schematic perspective view of an embodiment of
  • Fig. 2 is a schematic plan view of the embodiment of Fig. 1;
  • Fig. 3 is a schematic plan view arranged in the display device 1
  • FIG. 4 is a plan view of the image forming apparatus of FIG. 3 for explaining the
  • FIG. 5 is a sectional view through the first imaging optics 6 according to FIG. 2;
  • Fig. 6 is a diagram for explaining the provided field of view S
  • Fig. 7-9 are illustrations of the image forming apparatus according to Fig. 4 for explaining the
  • a first embodiment of the display device 1 is shown schematically in a perspective view.
  • the display device 1 comprises a substantially box-shaped front part 2 with an open side 3. All other sides of the front part are at least substantially closed.
  • the contour of the open side 3 is designed such that it can be applied to the head of a user so that the user can wear the display device 1 like a spectacle on his head.
  • Display device 1 is guided around the head of the user, so that the desired contact pressure is present in order to be able to carry the display device 1 ergonomically and preferably light-tight on the head.
  • the tether 5 may, for. B. may be formed as an elastic band and / or as a band with adjustable length.
  • the front part 2 forms together with the tether 5 a can be placed on the head of the user holding device.
  • the display device 1 comprises a first imaging optics 6 for a left eye LA of the user and a second imaging optics 7 for a right eye RA of the user, each of which magnifies an image generated in an image plane E so that the user perceives it as a virtual image can.
  • Fig. 2 shows a schematic plan view of the display device 1 according to the invention, for better illustration in Fig. 2, the front part 2 is shown as open at the top, which is not actually the case.
  • the front part 2 is substantially closed except for the side 3.
  • these sides are completely closed, which causes foreclosure of light from the outside.
  • the front part 2 is formed substantially closed except for the side 3, the user, if he carries the display device 1 as intended on the head, perceive only the images generated in the image plane E and no longer the environment.
  • the display device according to the invention may comprise a portable device 8 with a screen 9, which is arranged in the display device 1 so that the screen 9 of the portable device 8 is located in the image plane E.
  • the screen 9 of the portable device 8 is located in the image plane E.
  • FIG. 2 only the screen 9 is shown schematically in order to simplify the illustration, and FIG. 1 shows only the image plane E and not the device 8 in order to simplify the illustration.
  • FIG. 3 shows by way of example such a portable device 8 which has a screen 9, a control unit 10 and a sensor unit 11 for detecting a movement of the device 8. Further necessary for the operation of the device 8 elements are not shown.
  • the control unit 10 and the sensor unit 1 1 are shown in dashed lines, since they are installed in the device 8 and are not normally visible from the outside.
  • the control unit 10 can execute program instructions and serves to control the screen 9.
  • the sensor unit 1 1 may comprise an inertial sensor, such as a 1-axis, 2-axis or 3-axis gyroscope, an inclination sensor, an acceleration sensor and / or another sensor with which a detection of a movement of the device 8 is possible.
  • the sensor unit 1 1 generates corresponding measurement signals, which are transmitted to the control unit 10 (preferably continuously), as shown schematically by the dashed connecting line 12 in FIG.
  • the portable device 8 may be, for example, a mobile telephone (eg a so-called smartphone) or another device with a corresponding screen (such as the so-called iPod touch from Apple Inc., California, USA) and is preferably interchangeable arranged in the front part 2. As can be seen from the illustration in FIG.
  • each of the two imaging optics 6, 7 forms only a partial area of the screen 9.
  • a user wearing the display device 1 to be able to perceive an object to be displayed with both eyes, he must this thus in the two subregions of the screen 9, by the two
  • Imaging optics 6 and 7 are imaged.
  • an application or a program is provided on the portable device 8, which is executed by the control unit 10 and controls the screen 9 so that based on supplied image data for the object to be displayed or for a first image to be displayed, the object or the first image 13 with schematically represented picture elements 13i, 132 and 133 both on a first section 14 of the screen 9 and on a second section 15 of the screen separated from the first section 14, as shown in FIG.
  • image data stored on the device 8 or image data supplied to the device 8 can advantageously be used to display the images in the two sections 14 and 15 to produce.
  • image data originating from other applications running on the device 8 can be processed by the application according to the invention such that the same image is always displayed in both sections 14 and 15.
  • the user carrying the display device 1 on the head can thus be presented with images and films in such a way that he can perceive them enlarged with both eyes as virtual images. The user can thus z.
  • videos from youtube or other video sharing platforms videos that are stored on the device, or perceive other videos or images enlarged in the desired manner.
  • the two sections 14 and 15 may be chosen so that they directly adjoin one another. Alternatively, it is possible that they are spaced from each other.
  • the distance range can in particular be displayed or activated as a dark switched range.
  • the application can display the images 13 in the two sections 14, 15 in such a way that the user does not have a stereo effect. However, it is also possible to create a stereo effect.
  • the screen 9 is preferably touch-sensitive and forms the primary input interface.
  • This primary input interface is at
  • Display device 1 is designed so that a tapping of the front part 2 by means of the sensor unit 1 1 is measured and evaluated by the control unit 10, which then the screen 9 can control so that the first image 1 1 is changed.
  • One Tapping of the front part 2 can be detected well by means of the device 8, since the device 8 is mechanically connected to the front part 2 in the inserted state in the front part 2 (preferably free of play), so that it during the intended use of the
  • Display device 1 maintains the predetermined position relative to the imaging optics 6 and 7. Thus, a tap of the front part 2 transmits directly to the device 8, which can then be measured by means of the sensor unit 1 1. This leads to a change in the measurement signals generated by the sensor unit 11, which are transmitted to the control unit 10, so that the control unit 10 can detect a tapping performed as a function of the change in the measurement signals.
  • the simplest input is thus a single tap, which, for example, corresponds to clicking a button with a mouse in a conventional computer.
  • the control unit 10 can thus be designed in particular so that it detects a tapping. Also, the number of multiple tap operations and / or their temporal
  • Input interface is evaluated.
  • the application currently executing on the device 8 and displaying its image 11 may offer individual menu items or functions for selection in the four corners of the image, as indicated by the quadrants M1, M2, M3 and M4 in FIG. 4 is indicated.
  • a tapping of the front part 2 in the left upper area 16 ( Figure 1) then leads to the selection of the menu item M1.
  • a tap in the upper right area 17 of the front part 2 (Fig. 1) then leads to the selection of the menu item M2.
  • a tap in the lower left portion of the front panel 2 leads to the selection of the menu item M3 and a tap in the lower right portion of the front panel 2 to select the menu item M4.
  • the tapping of the front part 2 from different directions causes especially in the use of a "multi-axis" sensor characteristic in each axis signal, so that can be deduced by analyzing the signals in the individual axes on the location and / or direction of tapping.
  • a tap of the lower right corner in the upper left direction causes then, for example, a negative signal in the horizontal sensor but an example positive signal in the vertical sensor. And so on.
  • the direction of the tap can be determined. Since the shape of the front part 2 is known and a tapping is practically possible only from the outside, it is also (at least approximately) clear which part of the front part 2 was tapped. It is also possible to use the particular direction of tapping, ie the direction in which the tapping against the front part 2 was encountered, as an input criterion.
  • Striking in a first direction R1 from top right to bottom left may be e.g. be designed and processed as a selection of the menu item M2.
  • the position of the tap remain unconsidered, so that even a tap in the same direction at a different location of the front part 2, as shown by the arrow R1 'in Fig. 1, would lead to the selection of the menu item M2.
  • the position of the tap can also be considered. Further, e.g. the direction of the tapping together with the strength of the tap and thus the Antippimpuls or by tapping or
  • the display device according to the invention thus provides an easy-to-use and well-functioning input interface with which the device 8 can be operated.
  • the two imaging optics 6, 7 may be the same or different. In the embodiment described here, they are identical, so that only the first imaging optics 6 will be described in detail below.
  • the first imaging optics 6 comprises a first lens 18 with negative refractive power and a second positive power lens 19, both lenses 18, 19 being spaced apart (Figure 5).
  • the first lens 18 is formed as a convex-concave lens and has a first and a second interface 20, 21, wherein the concave side 20 of the screen 9 and the
  • Image plane E faces.
  • the second lens 19 is designed as a convex-convex lens and has a first and a second boundary surface 22, 23. All four interfaces 20 to 23 are formed as aspheric surfaces. In particular, they can be designed as rotationally symmetric aspheres, which are rotationally symmetrical with respect to the optical axis OA.
  • the optical axis OA is perpendicular to the image plane E.
  • the first lens 18 is formed of polycarbonate having a refractive index n1 of 1.855 and an Abbe number vi of 30.0.
  • the second lens 19 is formed of PM A having a second refractive index n2 of 1, 492 and a second Abbe number v2 of 57.2.
  • the refractive indices and Abbe numbers are given here for the wavelength of 589 nm.
  • Exit pupil 24 (or eyebox 24) of the first imaging optics 6 has a diameter of 8 mm.
  • the exit pupil 24 is spaced from the image plane E and thus from the screen 9 by a distance d of 60.52 mm.
  • the first and second sections 14, 15 each have an aspect ratio of 4: 3, the diagonal being 62.5 mm.
  • the two imaging optics 6 and 7 for the left and right eye LA, RA of the user are spaced apart by 61 mm. This corresponds approximately to the mean pupillary distance of the world population.
  • the two imaging optics 6, 7 each have a circular exit pupil 24 with a diameter of 8 mm, users with eye pupil distances in the range of 55 mm to 69 mm can perceive the virtual images of the images 13 on the screen 9 without cropping the image field.
  • the two images 13 are generated on the screen 9 so that the distance of Pixels 13i - 133 is adapted to the individual eye pupil distance of each user, in particular, the distance of the picture elements 13i - 133 correspond to the individual eye pupil distance or nearly correspond to this.
  • the application may have a function with which the distance of the images 13 and in particular the pixels 13i - 133 is changeable.
  • the portable device 8 is shown in the same manner as in Fig. 4, wherein the distance D of the picture elements 13i - 133 is shown. It is assumed that the distance D is 61 mm or is adapted for this distance of the two imaging optics 6 and 7. A user with an eye pupil distance of 61 mm can thus with attached
  • Extension of the images 13 in the horizontal direction is less left and right two strip-shaped areas of the screen 9 unused. These are shown hatched in Fig. 8 and may be dark, for example (it is shown in black).
  • the images 13 can be displayed such that the distance of the image elements 13i-133 is greater than in the state of FIG. 7. This state for the greater distance of the eye pupil is shown in Fig. 9.
  • the two images 13 can be displayed at a distance from each other, so that in the central region of the screen 9 there is an unused strip-shaped region, which is shown hatched in FIG. 9 and which in turn can be switched to dark.
  • the described input interface with the tapping of the front part 2 can be used to pass inputs with respect to the distance D of the picture elements 13i-133 of the application. Depending on this, the application then controls the image generation according to the states described in connection with FIGS. 7-9. It is also possible in the application to deposit a desired eye pupil distance, which is then used. This can be done via the described input interface with the tapping of the front part 2.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Es wird eine Anzeigevorrichtung mit einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung (2, 5), einem mechanisch mit der Haltevorrichtung (2, 5) verbundenen Bildmodul (8), das einen Bildschirm (9), auf dem ein Bild (13) erzeugt wird, aufweist, und einer mechanisch mit der Haltevorrichtung (2, 5) verbundenen ersten Abbildungsoptik (6, 7), die das auf dem Bildschirm (9) erzeugte Bild (13) als virtuelles Bild so abbildet, dass es der Benutzer im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung (2, 5) wahrnehmen kann, bereitgestellt, wobei das Bildmodul (8) ferner eine Steuereinheit (10) zur Ansteuerung des Bildschirms (9) und eine Sensoreinheit (11) zum Erfassen einer Bewegung des Bildmoduls (8) aufweist, wobei die Sensoreinheit (11) der Steuereinheit (10) Signale zuführt, die aus den Signalen ein durchgeführtes Antippen der Haltevorrichtung (2, 5) erkennt und in Abhängigkeit des erkannten Antippens eine Änderung des auf dem Bildschirm (9) erzeugten Bildes (13) und/oder die Steuerung einer auf dem Bildmodul ausgeführten Anwendung, die Inhalte bereitstellt, die im auf dem Bildschirm erzeugten Bild enthalten sind, bewirkt.

Description

Anzeigevorrichtung, die auf den Kopf eines Benutzers aufsetzbar ist, und Verfahren zum Steuern einer solchen Anzeigevorrichtung
Die vorliegende Erfindung betrifft eine Anzeigevorrichtung mit einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung, einem mechanisch mit der Haltevorrichtung verbundenen Bildmodul, das einen Bildschirm, auf dem ein Bild erzeugt wird, aufweist, und einer mechanisch mit der Haltevorrichtung verbundenen ersten Abbildungsoptik, die das auf dem Bildschirm erzeugte Bild als virtuelles Bild so abbildet, dass es der Benutzer im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung wahrnehmen kann. Ferner betrifft die vorliegende Erfindung ein Verfahren zum Steuern einer solchen Anzeigevorrichtung.
Solche Anzeigevorrichtungen können insbesondere so ausgebildet sein, dass der Benutzer nur noch die durch die Anzeigevorrichtung erzeugten Bilder und nicht mehr die Umgebung wahrnehmen kann. Solche Anzeigevorrichtungen werden auch als HMD-Vorrichtung (Head Mounted Display)-Vorrichtung oder auch als VR-Brille (Virtuelle-Realität-Brille) bezeichnet. Da der Benutzer nur noch die durch die Anzeigevorrichtung erzeugten Bilder und nicht mehr die Umgebung wahrnehmen kann, taucht er quasi in eine virtuelle Realität ein, was einen starken Eindruck hinterlässt. Bei solchen Anzeigevorrichtungen ist es möglich, eine tragbare Bilderzeugungsvorrichtung mit einem Bildschirm, wie z. B. einem Mobiltelefon, als Bildquelle einzusetzen, wobei eine Abbildungsoptik vorgesehen ist, die auf dem Bildschirm erzeugte Bilder so abbilden kann, dass sie der Benutzer im auf dem Kopf aufgesetzten Zustand der Anzeigevorrichtung als virtuelle Bilder wahrnehmen kann.
Wenn als Bildquelle ein Mobiltelefon mit einem berührungssensitiven Bildschirm als primäre Eingabeschnittstelle in der Anzeigevorrichtung verwendet wird, besteht die Schwierigkeit, dass diese primäre Eingabeschnittstelle im auf den Kopf aufgesetzten Zustand der Haltevorrichtung nicht mehr zugänglich ist.
Eine übliche Benutzerschnittstelle bei solchen Mobiltelefonen ist noch eine Audio-Schnittstelle, über die mittels Sprachsteuerung das Mobiltelefon gesteuert werden kann. Hierbei besteht jedoch der Nachteil, dass die Audio-Schnittstelle nicht leise und diskret bedient werden kann. Auch dürfen nicht zu viele andere Audio-Quellen vorhanden sein, um eine ausreichend fehlerfreie Benutzung über die Audio-Schnittstelle zu gewährleisten. Ausgehend hiervon ist es daher Aufgabe der Erfindung, eine Anzeigevorrichtung der eingangs genannten Art bereitzustellen, die sicher und diskret benutzt werden kann.
Erfindungsgemäß wird die Aufgabe bei einer Anzeigevorrichtung mit einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung, einem mechanisch mit der Haltevorrichtung verbundenen Bildmodul, das einen Bildschirm, auf dem ein Bild erzeugt wird, aufweist, und einer mechanisch mit der Haltevorrichtung verbundenen ersten Abbildungsoptik, die das auf dem Bildschirm erzeugte Bild als virtuelles Bild so abbildet, dass es der Benutzer im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung wahrnehmen kann, dadurch gelöst, dass das Bildmodul ferner eine Steuereinheit zur Ansteuerung des Bildschirms und eine Sensoreinheit zum Erfassen einer Bewegung des Bildmoduls aufweist, wobei die Sensoreinheit der
Steuereinheit Signale zuführt, die aus den Signalen ein durchgeführtes Antippen der
Haltevorrichtung erkennt und in Abhängigkeit des erkannten Antippens eine Änderung des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung einer auf dem Bildmodul ausgeführten Anwendung, die Inhalte bereitstellt, die im auf dem Bildschirm erzeugten Bild enthalten sind, bewirkt.
Ein solches Antippen oder Anstoßen der Haltevorrichtung kann diskret und auch in lauterer Umgebung durchgeführt werden, ohne dass dadurch die Eingabe verfälscht wird. Somit kann eine diskrete und sichere Steuerung der Anzeigevorrichtung erfolgen.
Bei der erfindungsgemäßen Anzeigevorrichtung kann somit über ein Tippen, Stoßen oder Klopfen gegen die Haltevorrichtung eine Eingabe durchgeführt werden. Erfindungsgemäß wird die Haltevorrichtung an sich als Eingabeschnittstelle genutzt, die auf eine Berührung der Haltevorrichtung (insbesondere ein Tippen, Stoßen oder Klopfen gegen die Haltevorrichtung) sensitiv ist, wobei dazu die Haltevorrichtung nicht speziell angepaßt werden muß. Die
Haltevorrichtung kann so wie sie ist als Eingabeschnittstelle genutzt werden, da die Messung der durchgeführten Interaktion (das Tippen, Stoßen, Klopfen, etc.) mit der Haltevorrichtung mittels der Sensoreinheit und die Auswertung der Meßsignale mittels der Steuereinheit erfolgt, die beide Teil des Bildmoduls sind.
Bei der erfindungsgemäßen Anzeigevorrichtung kann die Steuereinheit aus den zugeführten Signalen die Position des durchgeführten Antippens an der Haltevorrichtung, die Stärke des durchgeführten Antippens der Haltevorrichtung, den zeitlichen Abstand von zumindest zwei aufeinanderfolgenden Antipp-Ereignissen erkennen und/oder die Richtung erkennen, in der beim Antippen gegen die Haltevorrichtung gestoßen oder geklopft wurde, und in Abhängigkeit der erkannten Position, der erkannten Stärke des Antippens, des erkannten zeitlichen Abstandes und/oder der erkannten Richtung eine Änderung des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung der Anwendung bewirken.
Man kann auch sagen, dass die Steuereinheit aus den Signalen ein räumliches und/oder zeitliches Muster von einem oder mehreren Antipp-Ereignissen erkennen und in Abhängigkeit davon eine Änderung des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung der Anwendung bewirken kann. Das räumliche und/oder zeitliche Muster wird somit in einem Steuerungsbefehl umgesetzt. Insbesondere kann bei der erfindungsgemäßen Anzeigevorrichtung auf der linken und auf der rechten Seite des Bildschirms ein auswählbarer Menüpunkt im Bild dargestellt werden, der durch Antippen der zugeordneten linken oder rechten Seite der Haltevorrichtung auswählbar ist. Es ist auch möglich, dass die Anzeigevorrichtung zumindest in einer Ecke des erzeugten Bildes einen auswählbaren Menüpunkt darstellt, der durch Antippen der Haltevorrichtung im Bereich dieser Ecke auswählbar ist.
Insbesondere kann die erfindungsgemäße Anzeigevorrichtung als HMD-Vorrichtung und/oder als VR-Brille ausgebildet sein. Des weiteren kann bei der erfindungsgemäßen Anzeigevorrichtung das Bildmodul
auswechselbar mit der Haltevorrichtung verbunden sein.
Insbesondere kann die Haltevorrichtung ein Vorderteil aufweisen, in dem das Bildmodul und die erste Abbildungsoptik angeordnet sind, wobei im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung das Vorderteil bevorzugt so vor den Augen des Benutzers positioniert ist, dass der Benutzer nur das virtuelle Bild und nicht die Umgebung wahrnehmen kann. Insbesondere kann das Vorderteil lichtdicht auf dem Gesicht in einem die Augen umgebenden Bereich anliegen. Ferner kann bei der erfindungsgemäßen Anzeigevorrichtung der Bildschirm des Bildmoduls im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung im wesentlichen senkrecht zur Geradeausblickrichtung sein. Hierunter wird insbesondere verstanden, dass der Winkel zwischen der Geradeausblickrichtung und dem Bildschirm 90° oder nahezu 90° (beispielsweise mit einer maximalen Abweichung ^10° in beide Richtungen und somit der Winkel Werte von 80° bis 100° aufweisen kann oder bevorzugt mit einer maximalen Abweichung 5° in beide Richtungen und somit der Winkel Werte von 85° bis 95° aufweisen kann) beträgt. Die erste Abbildungsoptik kann zumindest ein optisches Element umfassen. Bei dem optischen Element kann es sich beispielsweise um eine Linse, eine Fresnellinse, ein Linsenarray und/oder ein diffraktives optisches Element (DOE) handeln. Beispielsweise kann die erste
Abbildungsoptik eine Linse umfassen, wobei die Linse eine optisch wirksame Fläche aufweist. Auf der Linse kann eine diffraktive Struktur angeordnet sein.
Die erfindungsgemäße Anzeigevorrichtung kann neben der ersten Abbildungsoptik eine zweite Abbildungsoptik aufweisen, die in gleicher Weise ausgebildet sein kann wie die erste
Abbildungsoptik. Die zweite Abbildungsoptik ist insbesondere dafür ausgebildet, ein auf dem Bildschirm erzeugtes zweites Bild als virtuelles Bild bereitzustellen, wenn der Benutzer die
Haltevorrichtung auf dem Kopf trägt. Insbesondere kann die erste Abbildungsoptik das virtuelle Bild für ein erstes Auge und die zweite Abbildungsoptik das virtuelle Bild für das zweite Auge bereitstellen. In diesem Fall wird eine binokulare Anzeigevorrichtung bereitgestellt. Die erste und/oder zweite Abbildungsoptik kann als Lupenoptik ausgebildet sein.
Die Sensoreinheit kann einen Trägheitssensor, wie z.B. ein Gyroskop, einen Neigungssensor, einen Beschleunigungssensor und/oder einen sonstigen Sensor aufweisen.
Die mechanische Verbindung des Bildmoduls mit der Haltevorrichtung ist bevorzugt spielfrei.
Es wird ferner ein Verfahren zum Steuern einer Anzeigevorrichtung mit einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung, einem mechanisch mit der Haltevorrichtung verbundenen Bildmodul, das einen Bildschirm, auf dem ein Bild erzeugt wird, aufweist, und einer mechanisch mit der Haltevorrichtung verbundenen ersten Abbildungsoptik, die das auf dem Bildschirm erzeugte Bild als virtuelles Bild so abbildet, dass es der Benutzer im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung wahrnehmen kann, bereitgestellt, wobei mittels des Bildmoduls ein durchgeführtes Antippen der Haltevorrichtung erkannt und in Abhängigkeit des erkannten Antippens eine Änderung des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung einer auf dem Bildmodul ausgeführten Anwendung, die Inhalte bereitstellt, die im auf dem Bildschirm erzeugten Bild enthalten sind, bewirkt wird.
Bei dem Verfahren kann das Bildmodul eine Steuereinheit zur Ansteuerung des Bildschirms und eine Sensoreinheit zum Erfassen einer Bewegung des Bildmoduls aufweisen, wobei die Sensoreinheit der Steuereinheit Signale zuführt, anhand derer das durchgeführten Antippen erkannt werden kann.
Das erfindungsgemäße Verfahren kann die in Verbindung mit der erfindungsgemäßen Anzeigevorrichtung beschriebenen Verfahrensschritte verwirklichen. Bei dem erfindungsgemäßen Verfahren kann die auf dem Bildmodul ausgeführte Anwendung den Bildschirm so ansteuern, dass basierend auf zugeführten Bilddaten eines ersten Bildes das erste Bild sowohl in einem ersten Abschnitt des Bildschirms als auch in einem vom ersten Abschnitt getrennten zweiten Abschnitt des Bildschirms erzeugt wird.
Da erfindungsgemäß die Anwendung direkt auf dem Bildmodul ausgeführt wird, kann in vorteilhafter Weise schnell die gewünschte Bilderzeugung durchgeführt werden. Des weiteren können Bilddaten, die auf dem Bildmodul gespeichert oder von diesem erzeugt werden sind, zur Darstellung genutzt werden.
Beim Bildmodul kann es sich um ein tragbares Gerät mit einer Steuereinheit zum Ausführen von Programmanweisungen und zum Ansteuern des Bildschirms handeln. Eine solche Bilderzeugungsvorrichtung ist z. B. ein Mobiltelefon, wie z. B. ein Smartphone.
Erfindungsgemäß wird somit die Eigenschaft des tragbaren Bildmoduls,
Programmanweisungen ausführen zu können, genutzt, um die Anwendung auf dem Bildmodul mit den entsprechenden Anweisungen auszuführen, die die Bildschirmansteuerung und bevorzugt die Aufteilung des Bildschirms in zwei Abschnitte mit der Darstellung des gleichen Bildes in beiden Abschnitten durchführt.
Die Anwendung kann den Bildschirm so ansteuern, dass die beiden Abschnitte voneinander beabstandet sind und der Bereich zwischen den beiden Abschnitten dunkel geschaltet ist. Ferner kann die Anwendung das erste Bild im ersten und zweiten Abschnitt so erzeugen, dass bei Betrachtung der beiden Bilder kein Stereoeffekt vorliegt. Natürlich können die Bilder auch so erzeugt werden, dass ein Stereoeffekt vorliegt.
Die Bilddaten können in der Weise zugeführt werden, dass die Anwendung auf im Bildmodul (nachfolgend auch Bilderzeugungsvorrichtung genannt) gespeicherte Bilddaten zugreift und/oder dass die Bilddaten auf die Bilderzeugungsvorrichtung gestreamt werden und/oder dass die Bilddaten auf der Bilderzeugungsvorrichtung erzeugt werden. Insbesondere kann die Anwendung Bilddaten anderer Anwendungen auf der Bilderzeugungsvorrichtung
erfindungsgemäß darstellen.
Ferner ist es möglich, dass das erste Bild in zumindest in einem der Abschnitte vorverzerrt erzeugt und dadurch ein Abbildungsfehler der Abbildungsoptik zumindest teilweise kompensiert wird. Wenn die tragbare Bilderzeugungsvorrichtung z. B. als obiltelefon ausgebildet ist, kann die Anwendung auch als App bezeichnet werden. Bei den zugefügten Bilddaten kann es sich insbesondere um Bilddaten einer Aufnahme der Umgebung eines die Anzeigevorrichtung auf dem Kopf tragenden Benutzers und/oder um sonstige Bilddaten handeln. Es ist somit beispielsweise möglich, dem Benutzer die Umgebung als erstes Bild darzustellen. Zusätzlich kann die Umgebung mit weiteren Bildinformationen in Überlagerung gezeigt werden, so dass dem Benutzer mehr als die Umgebung angezeigt wird. Dabei kann es sich beispielsweise um Hinweise handeln, die kontextsensitiv erzeugt und im erzeugten Bild dargestellt werden.
Insbesondere kann dem Benutzer ein Livebild der Umgebung angezeigt werden. Dazu ist bevorzugt noch eine Kamera vorgesehen, die die Umgebung aufnimmt. Die Kamera kann eine separate Kamera sein, die bevorzugt an der Anzeigevorrichtung (z.B. an der Haltevorrichtung) befestigt ist. Insbesondere ist es möglich, eine an der Bilderzeugungsvorrichtung vorhandene Kamera zu nutzen. Bei Smartphones ist in der Regel eine Kamera vorgesehen, die auf der Rückseite (der dem Bildschirm abgewandten Seite) vorgesehen ist, so dass diese Kamera für die Aufnahme der Umgebung genutzt werden kann.
Bei dem erfindungsgemäßen Verfahren kann die Anwendung das erste Bild im ersten und zweiten Abschnitt so erzeugen, dass ein Bildinhalt des ersten Bildes im ersten und zweiten Abschnitt entweder mit einem ersten Abstand oder mit einem davon verschiedenen zweiten Abstand erzeugt wird. Damit ist es möglich, die Bilderzeugung an unterschiedliche
Augenpupillenabstände von Benutzern anzupassen.
Insbesondere kann die Anwendung eine Schnittstelle aufweisen, über die der Abstand eingegeben werden kann, wobei dann das erste Bild im ersten und zweiten Abschnitt in Abhängigkeit des eingegebenen Abstandes so erzeugt wird, dass der eingegebene Abstand auf dem Bildschirm zwischen dem Bildinhalt des Bildes vorliegt. Die Schnittstelle kann
insbesondere die erfindungsgemäße Eingabeschnittstelle der Haltevorrichtung sein, die durch Antippen, Klopfen bzw. Stoßen bedient werden kann. Insbesondere ist eine kontinuierliche Abstandsänderung mittels der Anwendung möglich. Zur Einstellung des Abstandes kann es notwendig sein, das erste Bild zu beschneiden. Somit wird dann nicht das komplette erste Bild in den beiden Abschnitten dargestellt, sondern nur ein beschnittenes erstes Bild. Eventuell nicht durch das erste Bild ausgefüllte Bereiche des Bildschirms können schwarz dargestellt werden.
Bei der erfindungsgemäßen Anzeigevorrichtung kann eine Kamera vorgesehen sein, die die Umgebung aufnimmt und als Bilddaten der Bilderzeugungsvorrichtung zuführt. Insbesondere kann die Kamera Teil des Bildmoduls sein.
Somit ist es möglich, mit der erfindungsgemäßen Anzeigevorrichtung dem Benutzer die Umgebung darzustellen. Insbesondere kann dies als Livebild erfolgen.
Ferner kann bei der erfindungsgemäßen Anzeigevorrichtung die Anwendung das erste Bild, das eine Aufnahme der Umgebung ist, in Überlagerung mit zumindest einem weiteren Bildelement auf den beiden Abschnitten des Bildschirms erzeugen. Bei dem zumindest einem weiteren Bildelement kann es sich z. B. um einen Hinweis oder auch eine sonstige kontextsensitive Information handeln.
Natürlich ist es auch möglich, dass die aufgenommene Umgebung noch einer
Bilddatenverarbeitung unterzogen wird, bevor sie dargestellt wird. Dabei kann es sich um eine Helligkeitsanpassung, eine Farbanpassung, eine Falschfarbendarstellung, etc. handeln.
Die beschriebene Darstellung der Umgebung in Überlagerung mit einer weiteren Bildinformation wird häufig auch als Augmented Reality-Darstellung bezeichnet.
Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in den angegebenen Kombinationen, sondern auch in anderen
Kombinationen oder in Alleinstellung einsetzbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
Nachfolgend wird die Erfindung beispielsweise anhand der beigefügten Zeichnungen, die auch erfindungswesentliche Merkmale offenbaren, noch näher erläutert. Es zeigen:
Fig. 1 eine schematische perspektivische Darstellung einer Ausführungsform der
erfindungsgemäßen Anzeigevorrichtung 1 ; Fig. 2 eine schematische Draufsicht der Ausführungsform von Fig. 1 ;
Fig. 3 eine schematische Draufsicht der in der Anzeigevorrichtung 1 angeordneten
Bilderzeugungsvorrichtung; Fig. 4 eine Draufsicht der Bilderzeugungsvorrichtung gemäß Fig. 3 zur Erläuterung der
Aufteilung des Bildschirms in zwei Abschnitte und der Darstellung der gleichen Bilder auf beiden Abschnitten;
Fig. 5 eine Schnittdarstellung durch die erste Abbildungsoptik 6 gemäß Fig. 2;
Fig. 6 eine Darstellung zur Erläuterung des bereitgestellten Sichtfeldes S, und Fig. 7-9 Darstellungen der Bilderzeugungsvorrichtung gemäß Fig. 4 zur Erläuterung der
Anpassung der Darstellung der Bilder in den beiden Abschnitten an den
Augenpupillenabstand des Benutzers.
In Fig. 1 ist eine erste Ausführungsform der erfindungsgemäßen Anzeigevorrichtung 1 schematisch in einer perspektivischen Darstellung gezeigt. Die Anzeigevorrichtung 1 umfasst ein im wesentlichen kastenförmig ausgebildetes Vorderteil 2 mit einer offenen Seite 3. Alle anderen Seiten des Vorderteils sind zumindest im Wesentlichen geschlossen. Die Kontur der offenen Seite 3 ist so ausgebildet, dass sie an den Kopf eines Benutzers so anlegbar ist, dass der Benutzer die Anzeigevorrichtung 1 brillenartig auf dem Kopf tragen kann. Dazu weist die Kontur einerseits eine Nasenauflage 4 auf und ist an den beiden seitlichen Enden des Vorderteils 2 ein Halteband 5 befestigt ist. Das Halteband 5 ist beim Tragen der
erfindungsgemäßen Anzeigevorrichtung 1 um den Kopf des Benutzers geführt, so dass der gewünschte Anpressdruck vorliegt, um die Anzeigevorrichtung 1 ergonomisch und bevorzugt lichtdicht auf dem Kopf tragen zu können. Das Halteband 5 kann z. B. als ein elastisches Band und/oder als Band mit einstellbarer Länge ausgebildet sein. Das Vorderteil 2 bildet zusammen mit dem Halteband 5 eine auf den Kopf des Benutzers aufsetzbare Haltevorrichtung.
Die erfindungsgemäße Anzeigevorrichtung 1 umfasst eine erste Abbildungsoptik 6 für ein linkes Auge LA des Benutzers und eine zweite Abbildungsoptik 7 für ein rechtes Auge RA des Benutzers, die jeweils ein in einer Bildebene E erzeugtes Bild so vergrößert abbilden, dass es der Benutzer als virtuelles Bild wahrnehmen kann. Dies ist am besten in Fig. 2 ersichtlich, das eine schematische Draufsicht der erfindungsgemäßen Anzeigevorrichtung 1 zeigt, wobei zur besseren Darstellung in Fig. 2 das Vorderteil 2 als oben offen gezeigt ist, was jedoch nicht tatsächlich der Fall ist.
Das Vorderteil 2 ist bis auf die Seite 3 im Wesentlichen geschlossen ausgebildet. In einer bevorzugten Ausführungsform sind diese Seiten vollständig geschlossen, was eine Abschottung von Licht von außen bewirkt. In einer anderen bevorzugten Ausführungsform sind in diesen Seiten Lüftungsschlitze und/oder Lüftungslöcher eingebracht, welche besonders bevorzugt so gestaltet sind, dass das durch sie von außen hindurchtretende Licht minimiert ist.
Da das Vorderteil 2 bis auf die Seite 3 im Wesentlichen geschlossen ausgebildet ist, kann der Benutzer, wenn er die Anzeigevorrichtung 1 bestimmungsgemäß auf dem Kopf trägt, nur die in der Bildebene E erzeugten Bilder und nicht mehr die Umgebung wahrnehmen.
Zur Bilderzeugung kann die erfindungsgemäße Anzeigevorrichtung ein tragbares Gerät 8 mit einem Bildschirm 9 aufweisen, das in der Anzeigevorrichtung 1 so angeordnet ist, dass der Bildschirm 9 des tragbaren Gerätes 8 in der Bildebene E liegt. In Fig. 2 ist zur Vereinfachung der Darstellung lediglich der Bildschirm 9 schematisch eingezeichnet und in Fig. 1 ist zur Vereinfachung der Darstellung nur die Bildebene E und nicht das Gerät 8 dargestellt.
In Fig. 3 ist beispielhaft ein solches tragbares Gerät 8 dargestellt, das einen Bildschirm 9, eine Steuereinheit 10 sowie eine Sensoreinheit 11 zur Erfassung einer Bewegung des Gerätes 8 aufweist. Weitere zum Betrieb des Gerätes 8 notwendige Elemente sind nicht gezeigt. Die Steuereinheit 10 und die Sensoreinheit 1 1 sind gestrichelt dargestellt, da sie im Gerät 8 verbaut und von außen normalerweise nicht sichtbar sind. Die Steuereinheit 10 kann Programmanweisungen ausführen und dient zur Ansteuerung des Bildschirms 9.
Die Sensoreinheit 1 1 kann einen Trägheitssensor, wie z.B. ein 1 -achsiges, 2-achsiges oder 3- achsiges Gyroskop, einen Neigungssensor, einen Beschleunigungssensor und/oder einen sonstigen Sensor aufweisen, mit dem eine Detektion einer Bewegung des Gerätes 8 möglich ist. Die Sensoreinheit 1 1 erzeugt entsprechende Messsignale, die an die Steuereinheit 10 (bevorzugt laufend) übertragen werden, wie mit der gestrichelten Verbindungslinie 12 in Figur 3 schematisch dargestellt ist. Das tragbare Gerät 8 kann beispielsweise ein Mobiltelefon (z. B. ein sogenanntes Smartphone) oder eine sonstige Vorrichtung mit einem entsprechenden Bildschirm (wie z. B. der sogenannte iPod touch der Firma Apple Inc., Kalifornien, USA) sein und ist bevorzugt auswechselbar im Vorderteil 2 angeordnet. Wie aus der Darstellung in Fig. 2 ersichtlich ist, bildet jede der beiden Abbildungsoptiken 6, 7 nur einen Teilbereich des Bildschirms 9 ab. Damit ein die Anzeigevorrichtung 1 auf dem Kopf tragender Benutzer ein darzustellendes Objekt mit beiden Augen wahrnehmen kann, muss dieses somit in den beiden Teilbereichen des Bildschirms 9, die durch die beiden
Abbildungsoptiken 6 und 7 abgebildet werden, erzeugt werden.
Dazu ist eine Anwendung bzw. ein Programm auf dem tragbaren Gerät 8 vorgesehen, das durch die Steuereinheit 10 ausgeführt wird und den Bildschirm 9 so ansteuert, dass basierend auf zugeführten Bilddaten für das darzustellende Objekt bzw. für ein darzustellendes erstes Bild das Objekt bzw. das erste Bild 13 mit schematisch dargestellten Bildelementen 13i , 132 und 133 sowohl auf einem ersten Abschnitt 14 des Bildschirms 9 als auch auf einem vom ersten Abschnitt 14 getrennten zweiten Abschnitt 15 des Bildschirms erzeugt, wie in Fig. 4 gezeigt ist.
Da die Anwendung auf dem Gerät 8 selber ausgeführt wird, können in vorteilhafter Weise auf dem Gerät 8 gespeicherte Bilddaten oder dem Gerät 8 zugeführte Bilddaten (z. B. gestreamte Bilddaten, bevorzugt über eine geeignete drahtlose Verbindung) benutzt werden, um die Darstellung der Bilder in den beiden Abschnitten 14 und 15 zu erzeugen. Insbesondere können aus anderen auf dem Gerät 8 laufenden Anwendungen stammende Bilddaten durch die erfindungsgemäße Anwendung so aufbereitet werden, dass stets in beiden Abschnitten 14 und 15 das gleiche Bild dargestellt wird. Dem die Anzeigevorrichtung 1 auf dem Kopf tragenden Benutzer können somit Bilder und Filme so dargeboten werden, dass er sie mit beiden Augen vergrößert als virtuelle Bilder wahrnehmen kann. Der Benutzer kann somit z. B. Videos von youtube oder sonstigen Videoplattformen, Videos, die auf dem Gerät gespeichert sind, oder sonstige Videos oder Bilder in der gewünschten Art und Weise vergrößert wahrnehmen. Auch ist es möglich, Bilder von auf dem Gerät installierten Spielen oder sonstigen Anwendungen vergrößert darzustellen. Die beiden Abschnitte 14 und 15 können so gewählt sein, dass sie direkt aneinander grenzen. Alternativ ist es möglich, dass sie voneinander beabstandet sind. Der Abstandsbereich kann insbesondere als dunkel geschalteter Bereich dargestellt bzw. angesteuert werden.
Die Anwendung kann die Bilder 13 so in den beiden Abschnitten 14, 15 darstellen, dass für den Benutzer kein Stereoeffekt vorliegt. Es ist jedoch auch möglich, einen Stereoeffekt zu erzeugen.
Bei dem tragbaren Gerät 8 ist der Bildschirm 9 bevorzugt berührungssensitiv und bildet die primäre Eingabeschnittstelle. Diese primäre Eingabeschnittstelle ist beim
bestimmungsgemäßen Gebrauch der Anzeigevorrichtung 1 für den Benutzer nicht mehr zugänglich, da dann das Gerät in das Vorderteil 2 eingesetzt ist. Daher ist die
erfindungsgemäße Anzeigevorrichtung 1 so ausgebildet, dass ein Antippen des Vorderteils 2 mittels der Sensoreinheit 1 1 gemessen und mittels der Steuereinheit 10 ausgewertet wird, die daraufhin den Bildschirm 9 so ansteuern kann, dass das erste Bild 1 1 geändert wird. Ein Antippen des Vorderteils 2 kann mittels des Gerätes 8 gut detektiert werden, da das Gerät 8 im in das Vorderteil 2 eingesetzten Zustand mechanisch mit dem Vorderteil 2 verbunden ist (bevorzugt spielfrei), damit es während der bestimmungsgemäßen Benutzung der
Anzeigevorrichtung 1 die vorgegebene Position relativ zu den Abbildungsoptiken 6 und 7 beibehält. Somit überträgt sich ein Antippen des Vorderteils 2 direkt auf das Gerät 8, was dann mittels der Sensoreinheit 1 1 gemessen werden kann. Dies führt zu einer Änderung der von der Sensoreinheit 1 1 erzeugten Messsignale, die zur Steuereinheit 10 übertragen werden, so dass die Steuereinheit 10 in Abhängigkeit der Änderung der Messsignale ein durchgeführtes Antippen erkennen kann.
Die einfachste Eingabe ist somit ein einzelnes Antippen, was beispielsweise dem Anklicken einer Schaltfläche mit einer Maus bei einem herkömmlichen Computer entspricht.
Die Steuereinheit 10 kann somit insbesondere so ausgebildet sein, dass sie ein Antippen erkennt. Auch kann die Anzahl von mehreren Antippvorgängen und/oder deren zeitlicher
Abstand als Eingabesignale ausgewertet werden. Des weiteren ist es möglich, die Position, an der das Vorderteil 2 angetippt wird, als weitere Information für die so bereitgestellte
Eingabeschnittstelle ausgewertet wird. So kann beispielsweise die Anwendung, die gerade auf dem Gerät 8 ausgeführt wird und deren Bild 1 1 dargestellt wird, einzelne Menüpunkte oder Funktionen zur Auswahl in den vier Ecken des Bildes anbieten, wie durch die Viertelkreise M1 , M2, M3 und M4 in Fig. 4 angedeutet ist. Ein Antippen des Vorderteils 2 in dem linken oberen Bereich 16 (Fig. 1 ) führt dann zur Auswahl des Menüpunkts M1. Ein Antippen in dem rechten oberen Bereich 17 des Vorderteils 2 (Fig. 1 ) führt dann zur Auswahl des Menüpunkts M2. In gleicher Weise führt ein Antippen im linken unteren Bereich des Vorderteils 2 zur Auswahl des Menüpunkts M3 und ein Antippen im rechten unteren Bereich des Vorderteils 2 zur Auswahl des Menüpunkts M4.
Das Antippen des Vorderteils 2 aus unterschiedlichen Richtungen bewirkt insbesondere bei Verwendung eines„mehrachsigen" Sensors ein in jeder Achse charakteristisches Signal, so dass durch Analyse der Signale in den einzelnen Achsen auf den Ort und/oder die Richtung des Antippens rückgeschlossen werden kann.
Trägt beispielsweise ein aufrechtstehender Nutzer mit erhobenem Kopf das Gerät, so bewirkt beispielsweise ein Antippen der linken Seite ein beispielsweise positives Signal im
Horizontalsensor, während ein Antippen der rechten Seite ein dann beispielsweises negatives Signal im Horizontalsensor bewirkt. Dagegen zeigt der Vertikalsensor kein Signal. Ein Antippen der rechten oberen Ecke in Richtung links unten bewirkt beispielsweise ein negatives Signal im Horizontalsensor und ein beispielsweises negatives Signal im
Vertikalsensor. Ein Antippen der rechten unteren Ecke in Richtung links oben bewirkt dann ein beispielsweise negatives Signal im Horizontalsensor aber ein beispielsweise positives Signal im Vertikalsensor. Und so weiter. Auf diese Art und Weise lässt sich die Richtung des Antippens bestimmen. Da die Form des Vorderteils 2 bekannt ist und ein Antippen praktisch nur von außen möglich ist, ist damit auch (zumindest ungefähr) klar, welche Stelle des Vorderteils 2 angetippt wurde. Auch ist es möglich, die bestimmte Richtung des Antippens, also die Richtung, in der beim Antippen gegen das Vorderteil 2 gestoßen wurde, als Eingabekriterium zu nutzen. Ein
Anstoßen in einer ersten Richtung R1 von rechts oben nach links unten (Fig. 1 ) kann z.B. als Auswahl des Menüpunktes M2 ausgelegt und verarbeitet werden. Dabei kann z.B. die Position des Antippens unberücksichtigt bleiben, so dass auch ein Antippen in der selben Richtung an einer anderen Stelle des Vorderteils 2, wie durch den Pfeil R1 ' in Fig. 1 gezeigt ist, zur Auswahl des Menüpunktes M2 führen wurde. Alternativ kann natürlich die Position des Antippens zusätzlich berücksichtigt werden. Ferner kann z.B. die Richtung des Antippens zusammen mit der Stärke des Antippens und somit der Antippimpuls bzw. der durch das Antippen bzw.
Anstoßen erzeugte Impuls berücksichtigt werden.
Um eine klare Zuordnung von beispielsweise Menüpunkten oder anderen Funktionalitäten zu erreichen, ist es besonders vorteilhaft - anders als in üblichen Applikationen/Programmen - die Menüpunkte in die Ecken der Bildschirmanzeige zu verlegen, da hier eine klare Zuordnung der Signale zu den entsprechenden Richtungen bzw. angetippten Stellen besonders einfach ist.
Durch das Antippen oder Anstoßen des Vorderteils 2, was leicht mit einem Finger oder mehreren Fingern erfolgen kann, kann somit die durch das Gerät 8 bereitgestellte Anzeige bzw. die bereitgestellten Bilder 13 beeinflusst werden. Die erfindungsgemäße Anzeigevorrichtung stellt somit eine einfach zu bedienende und gut funktionierende Eingabeschnittstelle bereit, mit der das Gerät 8 bedient werden kann.
Die beiden Abbildungsoptiken 6, 7 können gleich oder unterschiedlich ausgebildet sein. Bei der hier beschriebenen Ausführungsform sind sie gleich ausgebildet, so dass nachfolgend lediglich die erste Abbildungsoptik 6 im Detail beschrieben wird.
Die erste Abbildungsoptik 6 umfasst eine erste Linse 18 mit negativer Brechkraft und eine zweite Linse 19 mit positiver Brechkraft, wobei beide Linsen 18, 19 voneinander beabstandet sind (Fig. 5).
Die erste Linse 18 ist als Konvex-Konkav-Linse ausgebildet und weist eine erste und eine zweite Grenzfläche 20, 21 auf, wobei die konkave Seite 20 dem Bildschirm 9 bzw. der
Bildebene E zugewandt ist. Die zweite Linse 19 ist als Konvex-Konvex-Linse ausgebildet und weist eine erste und eine zweite Grenzfläche 22, 23 auf. Alle vier Grenzflächen 20 bis 23 sind als asphärische Flächen ausgebildet. Insbesondere können sie als rotationssymmetrische Asphären ausgebildet sein, die bezüglich der optischen Achse OA rotationssymmetrisch sind. Die optische Achse OA steht senkrecht auf der Bildebene E.
Die vier Grenzflächen können durch die folgende Flächengleichung beschrieben werden, wobei r die radiale Höhe auf der Fläche ist. z = C? + Ar" + Br6 + Cr8 + Dr10 + Er12 + FrH
\ + ^\ - {\ + k)c2r2
Die Asphärenkonstanten für die Flächen sind in nachfolgenden Tabellen 1 und 2 angegeben.
Tabelle 1
Figure imgf000015_0001
Tabelle 2
Figure imgf000015_0002
Die Abstände entlang der optischen Achse OA sind in der nachfolgenden Tabelle 3 angegeben. Tabelle 3
Figure imgf000016_0001
Die erste Linse 18 ist aus Polycarbonat mit einer Brechzahl n1 von 1 ,585 und einer Abbe-Zahl vi von 30,0 gebildet. Die zweite Linse 19 ist aus PM A mit einer zweiten Brechzahl n2 von 1 ,492 und einer zweiten Abbe-Zahl v2 von 57,2 gebildet. Die Brechzahlen und Abbe-Zahlen sind hier für die Wellenlänge von 589 nm angegeben.
Da die beiden Linsen 18 und 19 voneinander beabstandet und nicht als Kittglied ausgebildet sind, können alle vier Grenzflächen 20 - 23 genutzt werden, um die gewünschte Abbildung zu erzielen. Damit ist es möglich, das Bild 13 als virtuelles Bild abzubilden, wobei die
Austrittspupille 24 (bzw. Eyebox 24) der ersten Abbildungsoptik 6 einen Durchmesser von 8 mm aufweist. Die Austrittspupille 24 ist von der Bildebene E und somit vom Bildschirm 9 um einen Abstand d von 60,52 mm beabstandet. Der erste und zweite Abschnitt 14, 15 weisen jeweils ein Seitenverhältnis von 4:3 auf, wobei die Diagonale 62,5 mm beträgt. Somit liegt ein äußerst kompakter Aufbau vor, der hervorragende optische Abbildungseigenschaften bereitstellt.
So wird das virtuelle Bild dem Benutzer mit einem Sichtfeld S mit a1 = 60° in y-Richtung und a2 = 45° in x-Richtung (Fig. 6) bereitgestellt, so dass das Sichtfeld S in der Diagonalen 75° beträgt. Da der Abstand zwischen der Austrittspupille 24 und der Fläche 23 18 mm beträgt, kann ein Brillenträger die erfindungsgemäße Anzeigevorrichtung 1 bestimmungsgemäß zusammen mit seiner Brille auf dem Kopf tragen.
Bei der erfindungsgemäßen Anzeigevorrichtung sind die beiden Abbildungsoptiken 6 und 7 für das linke und rechte Auge LA, RA des Benutzers um 61 mm voneinander beabstandet. Dies entspricht etwa dem mittleren Augenpupillenabstand der Weltbevölkerung. Nachdem die beiden Abbildungsoptiken 6, 7 jeweils eine runde Austrittspupille 24 mit einem Durchmesser von 8 mm aufweisen, können Benutzer mit Augenpupillenabständen im Bereich von 55 mm bis 69 mm die virtuellen Abbildungen der Bilder 13 auf dem Bildschirm 9 ohne Beschneidung des Bildfeldes wahrnehmen. Für ein ermüdungsfreies Betrachten der dargestellten Bilder ist es vorteilhaft, dass die beiden Bilder 13 so auf dem Bildschirm 9 so erzeugt werden, dass der Abstand der Bildelemente 13i - 133 an den individuellen Augenpupillenabstand des jeweiligen Benutzers angepasst ist, insbesondere kann der Abstand der Bildelemente 13i - 133 dem individuellen Augenpupillenabstand entsprechen oder diesem nahezu entsprechen. Dies gilt insbesondere für Benutzer mit einem Augenpupillenabstand der kleiner ist als der Abstand der beiden Abbildungsoptiken 6, 7, da diese sonst quasi etwas nach außen schielen müssen, was ergonomisch wesentlich ungünstiger ist und weniger toleriert wird, als ein Schielen nach innen, was Benutzer mit einem Augenpupillenabstand eventuell machen, der größer ist als der Abstand der beiden Abbildungsoptiken 6, 7. Daher kann die Anwendung eine Funktion aufweisen, mit der der Abstand der Bilder 13 und insbesondere der Bildelemente 13i - 133 änderbar ist.
In Fig. 7 ist das tragbare Gerät 8 in gleicher Weise wie in Fig. 4 dargestellt, wobei der Abstand D der Bildelemente 13i - 133 dargestellt ist. Es wird angenommen, dass der Abstand D 61 mm beträgt bzw. für diesen Abstand der beiden Abbildungsoptiken 6 und 7 angepasst ist. Ein Benutzer mit einem Augenpupillenabstand von 61 mm kann somit bei aufgesetzter
Anzeigevorrichtung 1 ermüdungsfrei geradeaus blicken und dabei die Bilder 13 gut wahrnehmen. Wenn nun ein Benutzer mit einem kleinere Augenpupillenabstand die erfindungsgemäße Anzeigevorrichtung 1 nutzen will, ist es möglich, den Abstand D zu verringern. Dies ist schematisch in Fig. 8 gezeigt. Dazu wird das Bild 13 z.B. von der linken Seite etwas beschnitten, so dass das Bildelement 133 nicht mehr komplett im Bild enthalten ist, wie in Fig. 8 dargestellt ist. Dies führt jedoch dazu, dass der Abstand D der Bildelemente 13i— 133 kleiner ist als bei dem in Fig. 7 gezeigten Zustand. Nachdem bei dem Zustand gemäß Fig. 8 die
Ausdehnung der Bilder 13 in waagrechter Richtung geringer ist, bleiben links und rechts zwei streifenförmige Bereiche des Bildschirms 9 ungenutzt. Diese sind in Fig. 8 schraffiert dargestellt und können z.B. dunkel geschaltet sein (es wird schwarz dargestellt). Für den Fall, dass der Abstand der Augenpupillen des Benutzers größer ist als der Abstand der Abbildungsoptiken 6, 7 können die Bilder 13 so dargestellt werden, dass der Abstand der Bildelemente 13i - 133 größer ist als in dem Zustand von Fig. 7. Dieser Zustand für den größeren Abstand der Augenpupillen ist in Fig. 9 gezeigt. Die beiden Bilder 13 können mit einem Abstand voneinander dargestellt werden, so dass im mittleren Bereich des Bildschirms 9 ein nicht genutzter streifenförmiger Bereich vorliegt, der in Fig. 9 schraffiert dargestellt ist und der wiederum dunkel geschaltet sein kann. Die beschriebene Eingabeschnittstelle mit dem Antippen des Vorderteils 2 kann dazu genutzt werden, Eingaben bezüglich des Abstandes D der Bildelemente 13i— 133 der Anwendung zu übergeben. In Abhängigkeit davon steuert die Anwendung dann die Bilderzeugung gemäß der in Verbindung mit Fig. 7 - 9 beschriebenen Zustände. Auch ist es möglich, in der Anwendung einen gewünschten Augenpupillenabstand zu hinterlegen, der dann verwendet wird. Dies kann über die beschriebene Eingabeschnittstelle mit dem Antippen des Vorderteils 2 durchgeführt werden.

Claims

Patentansprüche
1 . Anzeigevorrichtung mit
einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung (2, 5),
einem mechanisch mit der Haltevorrichtung (2, 5) verbundenen Bildmodul (8), das einen Bildschirm (9), auf dem ein Bild (13) erzeugt wird, aufweist,
und einer mechanisch mit der Haltevorrichtung (2, 5) verbundenen ersten Abbildungsoptik (6, 7), die das auf dem Bildschirm (9) erzeugte Bild (13) als virtuelles Bild so abbildet, dass es der Benutzer im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung (2, 5) wahrnehmen kann, wobei das Bildmodul (8) ferner eine Steuereinheit (10) zur Ansteuerung des Bildschirms (9) und eine Sensoreinheit (1 1 ) zum Erfassen einer Bewegung des Bildmoduls (8) aufweist, wobei die Sensoreinheit (1 1 ) der Steuereinheit (10) Signale zuführt, die aus den Signalen ein durchgeführtes Antippen der Haltevorrichtung (2, 5) erkennt und in Abhängigkeit des erkannten Antippens eine Änderung des auf dem Bildschirm (9) erzeugten Bildes (13) und/oder die
Steuerung einer auf dem Bildmodul ausgeführten Anwendung, die Inhalte bereitstellt, die im auf dem Bildschirm erzeugten Bild enthalten sind, bewirkt.
2. Anzeigevorrichtung nach Anspruch 1 , bei der die Steuereinheit (10) aus den zugeführten Signalen die Position des durchgeführten Antippens an der Haltevorrichtung (2, 5) erkennt und in Abhängigkeit der erkannten Position des Antippens eine Änderung des auf dem Bildschirm (9) erzeugten Bildes (13) und/oder die Steuerung der Anwendung bewirkt.
3. Anzeigevorrichtung nach Anspruch 1 oder 2, bei der die Steuereinheit (10) aus den Signalen den zeitlichen Abstand von zumindest zwei aufeinanderfolgenden Antipp-Ereignissen erkennt und in Abhängigkeit des zeitlichen Abstands eine Änderung des auf dem Bildschirm (9) erzeugten Bildes (13) und/oder die Steuerung der Anwendung bewirkt.
4. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der die Steuereinheit (10) aus den Signalen die Stärke des durchgeführten Antippens der Haltevorrichtung (2, 5) erkennt und in Abhängigkeit der erkannten Stärke des Antippens eine Änderung des auf dem Bildschirm (9) erzeugten Bildes (13) und/oder die Steuerung der Anwendung bewirkt.
5. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der die Steuereinheit (10) aus den Signalen die Richtung erkennt, in der beim Antippen gegen die Haltevorrichtung (2, 5) gestoßen wurde, und in Abhängigkeit der erkannten Richtung eine Änderung des auf dem Bildschirm (9) erzeugten Bildes (13) und/oder die Steuerung der Anwendung, bewirkt.
6. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der auf der linken und auf der rechten Seite des Bildschirms (9) ein auswählbarer Menüpunkt (M1 , M2, M3, M4) im Bild (13) dargestellt wird, der durch Antippen der zugeordneten linken oder rechten Seite der
Haltevorrichtung (2, 5) auswählbar ist.
7. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der zumindest in einer Ecke des erzeugten Bildes (13) ein auswählbarer Menüpunkt (M1 , M2, M3, M4) dargestellt wird, der durch Antippen der Haltevorrichtung (2, 5) im Bereich dieser Ecke auswählbar ist.
8. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der das Bildmodul (8) auswechselbar mit der Haltevorrichtung (2, 5) verbunden ist.
9. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der die Haltevorrichtung (2, 5) ein Vorderteil (2) aufweist, in dem das Bildmodul (8) und die erste Abbildungsoptik (6, 7) angeordnet sind und das im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung (2, 5) so vor den Augen des Benutzers positioniert ist, dass der Benutzer nur das virtuelle Bild und nicht mehr die Umgebung wahrnehmen kann.
10. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der der Bildschirm (9) des Bildmoduls (8) im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung (2, 5) im wesentlichen senkrecht zur Geradeausblickrichtung ist.
1 1 . Verfahren zum Steuern einer Anzeigevorrichtung mit
einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung (2, 5),
einem mechanisch mit der Haltevorrichtung (2, 5) verbundenen Bildmodul (8), das einen
Bildschirm (9), auf dem ein Bild (13) erzeugt wird, aufweist,
und einer mechanisch mit der Haltevorrichtung (2, 5) verbundenen ersten Abbildungsoptik (6, 7), die das auf dem Bildschirm (9) erzeugte Bild (13) als virtuelles Bild so abbildet, dass es der Benutzer im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung (2, 5) wahrnehmen kann, bei dem mittels des Bildmoduls ein durchgeführtes Antippen der Haltevorrichtung erkannt und in Abhängigkeit des erkannten Antippens eine Änderung des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung einer auf dem Bildmodul ausgeführten Anwendung, die Inhalte bereitstellt, die im auf dem Bildschirm erzeugten Bild enthalten sind, bewirkt wird.
PCT/EP2015/071587 2014-09-22 2015-09-21 Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung WO2016046123A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014113685.3A DE102014113685A1 (de) 2014-09-22 2014-09-22 Anzeigevorrichtung, die auf den Kopf eines Benutzers aufsetzbar ist, und Verfahren zum Steuern einer solchen Anzeigevorrichtung
DE102014113685.3 2014-09-22

Publications (1)

Publication Number Publication Date
WO2016046123A1 true WO2016046123A1 (de) 2016-03-31

Family

ID=54150421

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/071587 WO2016046123A1 (de) 2014-09-22 2015-09-21 Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung

Country Status (2)

Country Link
DE (1) DE102014113685A1 (de)
WO (1) WO2016046123A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227343A (zh) * 2016-07-20 2016-12-14 深圳市金立通信设备有限公司 一种虚拟现实眼镜及其控制方法
WO2018005131A1 (en) * 2016-07-01 2018-01-04 Google Llc Head mounted display device having display panels with asymmetric panel borders for improved nasal fov
WO2019071590A1 (zh) * 2017-10-13 2019-04-18 华为技术有限公司 一种vr设备用贴脸海绵垫及其制备方法、vr设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100079356A1 (en) * 2008-09-30 2010-04-01 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
US8319746B1 (en) * 2011-07-22 2012-11-27 Google Inc. Systems and methods for removing electrical noise from a touchpad signal
US20140194163A1 (en) * 2013-01-04 2014-07-10 Apple Inc. Fine-Tuning an Operation Based on Tapping

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100079356A1 (en) * 2008-09-30 2010-04-01 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
US8319746B1 (en) * 2011-07-22 2012-11-27 Google Inc. Systems and methods for removing electrical noise from a touchpad signal
US20140194163A1 (en) * 2013-01-04 2014-07-10 Apple Inc. Fine-Tuning an Operation Based on Tapping

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Oculus Rift - Wikipedia, the free encyclopedia", 21 September 2014 (2014-09-21), XP055230902, Retrieved from the Internet <URL:https://en.wikipedia.org/w/index.php?title=Oculus_Rift&oldid=626489213> [retrieved on 20151124] *
ANONYMOUS: "Taps as Input on the Rift | Input Devices | Oculus VR Forums", 9 July 2013 (2013-07-09), XP055230882, Retrieved from the Internet <URL:https://forums.oculus.com/viewtopic.php?t=2439> [retrieved on 20151124] *
BEN LANG: "Google: 'Cardboard is a Placeholder,' 6,000 Kits and 50,000+ App Downloads in First Week", 1 July 2014 (2014-07-01), XP055230945, Retrieved from the Internet <URL:http://www.roadtovr.com/***-cardboard-virtual-reality-6000-kits-50000-app-downloads-first-week/> [retrieved on 20151124] *
DABLET00: "DIY *** cardboard straps head mount, hands free gaming", 20 August 2014 (2014-08-20), XP054976221, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=o_tDXYa9ti4> [retrieved on 20151125] *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018005131A1 (en) * 2016-07-01 2018-01-04 Google Llc Head mounted display device having display panels with asymmetric panel borders for improved nasal fov
CN106227343A (zh) * 2016-07-20 2016-12-14 深圳市金立通信设备有限公司 一种虚拟现实眼镜及其控制方法
WO2019071590A1 (zh) * 2017-10-13 2019-04-18 华为技术有限公司 一种vr设备用贴脸海绵垫及其制备方法、vr设备

Also Published As

Publication number Publication date
DE102014113685A1 (de) 2016-04-07

Similar Documents

Publication Publication Date Title
DE112015002673T5 (de) Anzeige zur Informationsverwaltung
EP3293558B1 (de) Vorrichtung zum erfassen eines stereobilds
DE102014019631A1 (de) Elektronische Vorrichtung und Beschaffungssteuerverfahren
DE102011054833A1 (de) Verfahren zum Messen der binokularen Sehleistung, Programm zum Messen der binokularen Sehleistung, Verfahren zum Entwerfen von Brillengläsern und Verfahren zur Herstellung von Brillengläsern
DE102014209556A1 (de) Anzeigevorrichtung
DE202018101012U1 (de) Augennahe Anzeige mit erweiterter Akkomodationsbereichsanpassung
DE102016201567A1 (de) Projektionsvorrichtung für eine Datenbrille, Verfahren zum Darstellen von Bildinformationen mittels einer Projektionsvorrichtung und Steuergerät
WO2016083095A1 (de) Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist
DE202016104179U1 (de) Ausgabegerät zur stereoskopischen Bildwiedergabe
EP3730998A1 (de) Bestimmung mindestens eines optischen parameters eines brillenglases
EP3123278B1 (de) Verfahren und system zum betreiben einer anzeigevorrichtung
DE102014107938B4 (de) Anzeigevorrichtung
DE202016107458U1 (de) Transparentes Linsenelement in konvertierbarer Basis für Kameradurchgang
WO2016046123A1 (de) Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung
DE102014119225A1 (de) Informationsverarbeitungsverfahren und tragbares elektronisches Gerät
AT522012A1 (de) Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer
DE102015219859A1 (de) Vorrichtung und Verfahren für die AR-Darstellung
DE112016007015T5 (de) Anzeigevorrichtung, anzeigesteuervorrichtung und anzeigesteuerverfahren
WO2016046124A1 (de) Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung
DE102015214671B4 (de) Autofokussierende optische Vorrichtung und Verfahren zur optischen Autofokussierung
DE102015103276B4 (de) Elektronische Vorrichtung, Anzeigevorrichtung und Anzeigesteuerverfahren
EP3765888B1 (de) Verfahren zur benutzerindividuellen kalibrierung einer auf den kopf eines benutzers aufsetzbaren anzeigevorrichtung für eine augmentierte darstellung
DE102017114502B3 (de) Spiegelvorrichtung
WO2015158830A1 (de) Anzeigevorrichtung und anzeigeverfahren
US11686931B2 (en) Three-dimensional viewing device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15766821

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15766821

Country of ref document: EP

Kind code of ref document: A1