WO2017141956A1 - 空間表示装置 - Google Patents

空間表示装置 Download PDF

Info

Publication number
WO2017141956A1
WO2017141956A1 PCT/JP2017/005502 JP2017005502W WO2017141956A1 WO 2017141956 A1 WO2017141956 A1 WO 2017141956A1 JP 2017005502 W JP2017005502 W JP 2017005502W WO 2017141956 A1 WO2017141956 A1 WO 2017141956A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
adjustment
user
optical element
imaging optical
Prior art date
Application number
PCT/JP2017/005502
Other languages
English (en)
French (fr)
Inventor
旬臣 芝田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to US16/067,736 priority Critical patent/US20190025604A1/en
Priority to JP2018500149A priority patent/JPWO2017141956A1/ja
Publication of WO2017141956A1 publication Critical patent/WO2017141956A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/12Reflex reflectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0159Head-up displays characterised by mechanical features with movable elements with mechanical means other than scaning means for positioning the whole image

Definitions

  • the present invention relates to a spatial display device that displays an aerial image in an aerial display area.
  • Patent Document 1 discloses an optical system including a reflective surface-symmetric imaging element.
  • the conventional reflection-type surface-symmetric imaging element forms an image displayed on the display as an aerial image at a position that is plane-symmetric with the display with respect to the element surface. That is, the size of the image displayed on the display and the distance from the element surface are equal to the size of the aerial image and the distance from the element surface. For this reason, in order to enlarge and display an aerial image, the size of the display and the reflection-type plane-symmetric imaging element increases. Further, when an aerial image is displayed at a position distant from the reflective plane-symmetric imaging element, the distance between the display and the reflective plane-symmetric imaging element becomes large, so that the optical system becomes large.
  • an object of the present invention is to provide a small space display device that can perform enlarged display or distant display.
  • a spatial display device is a spatial display device that forms an image in an aerial display region and displays the image as an aerial image, and displays the image on a display surface.
  • An imaging optical element that has an image display unit, a concave lens, and an element surface and is disposed between the display surface and the concave lens, and when the concave lens is not present,
  • An imaging optical element that forms a displayed image in a temporary area that is plane-symmetric with the display surface with respect to the element surface, and the concave lens has a distance from the concave lens to the temporary area that is the concave lens It is arranged at a position shorter than the focal length.
  • FIG. 1 is a perspective view showing an application example of the space display device according to the embodiment to a kitchen.
  • FIG. 2A is a cross-sectional view illustrating an application example of the space display device according to the embodiment to a kitchen.
  • FIG. 2B is a cross-sectional view illustrating another application example of the space display device according to the embodiment to a kitchen.
  • FIG. 3 is a cross-sectional view showing an application example of the space display device according to the embodiment to a unit bus.
  • FIG. 4 is a schematic diagram illustrating a display principle of an aerial image when it is assumed that a concave lens is not provided in the spatial display device according to the embodiment.
  • FIG. 5 is a schematic perspective view of the space display device according to the embodiment.
  • FIG. 6 is a schematic cross-sectional view showing the configuration of the space display device according to the embodiment.
  • FIG. 7 is a schematic diagram illustrating the principle of the spatial display device according to the embodiment.
  • FIG. 8 is a diagram illustrating a characteristic table in which the user according to the embodiment is associated with the adjustment mode.
  • FIG. 9 is a diagram illustrating an operation table in which user operations and adjustment modes according to the embodiment are associated with each other.
  • FIG. 10 is a diagram illustrating the relationship between the display magnification and the display position of the aerial image with respect to the distance between the concave lens and the temporary region according to the embodiment.
  • FIG. 11 is a schematic diagram illustrating changes in the aerial image when the display of the spatial display device according to the embodiment is moved.
  • FIG. 11 is a schematic diagram illustrating changes in the aerial image when the display of the spatial display device according to the embodiment is moved.
  • FIG. 12 is a schematic diagram illustrating a change in the aerial image when the imaging optical element of the spatial display device according to the embodiment is moved.
  • FIG. 13 is a schematic diagram illustrating changes in the aerial image when the concave lens of the spatial display device according to the embodiment is moved.
  • FIG. 1 is a perspective view showing an application example of the space display device 1 according to the present embodiment to the kitchen 90.
  • 2A and 2B are cross-sectional views showing application examples of the space display device 1 according to the present embodiment to the kitchen 90, respectively.
  • the space display device 1 is incorporated in a kitchen table 91 as shown in FIGS. 1 and 2A.
  • the space display device 1 may be incorporated in the kitchen wall 92 as shown in FIG. 2B.
  • the display area 3 is a space area located above the kitchen table 91 and in front of the kitchen wall 92. Thereby, the aerial image 2 can be easily visually recognized for the user 5 standing in front of the kitchen table 91 and the kitchen wall 92.
  • the kitchen 90 is a facility for the user 5 to cook and wash dishes, for example.
  • the kitchen 90 is a system kitchen, and is incorporated into the kitchen table 91 for performing work such as cooking, a kitchen wall 92 arranged in a partition shape on the back side of the kitchen table 91, and the kitchen table 91.
  • the space display device 1 is incorporated in the kitchen table 91.
  • the spatial display device 1 forms an image on the display area 3 in the air and displays it as the aerial image 2.
  • the space display device 1 displays an aerial image 2 such as a recipe for cooking in the display area 3.
  • the user 5 can cook while looking at the recipe displayed as the aerial image 2.
  • the aerial image 2 displayed in the display area 3 can be operated by the user 5.
  • a user operation area 4 determined according to the position of the display area 3 is provided.
  • the user operation area 4 is an area for substantially detecting the operation when the user 5 operates so as to touch the aerial image 2 and substantially matches the display area 3.
  • the aerial image 2 is changed to another image by a user operation.
  • FIG. 3 is a schematic diagram showing an application example of the space display device 1 according to the present embodiment to the unit bus 96.
  • the space display device 1 may be incorporated in the bus wall 97 of the unit bus 96.
  • the bus wall 97 is fixed inside the outer wall 98.
  • the display area 3 is located above the bathtub 99. Thereby, the user 5 can visually recognize the aerial image 2 while being immersed in the bathtub 99.
  • the spatial display device 1 includes a display 20, an imaging optical element 30, and a concave lens 40.
  • the spatial display device 1 displays an image displayed on the display surface by the display 20 as an aerial image 2 by the imaging optical element 30 and the concave lens 40.
  • the space display device 1 includes the concave lens 40, so that the image displayed on the display 20 can be displayed in an enlarged manner or in a distant manner.
  • the display principle of the aerial image 2 when it is assumed that the spatial display device 1 does not include the concave lens 40 will be briefly described with reference to FIG.
  • FIG. 4 is a schematic diagram illustrating the display principle of the aerial image 2 when it is assumed that the concave lens 40 is not provided in the spatial display device 1 according to the present embodiment.
  • the spatial display device 1 displays the two-dimensional image displayed on the display 20 as the aerial image 2 in three dimensions in the air. That is, the space display device 1 can display an image (aerial image 2) in a state of floating in the air.
  • the display area 3 in which the aerial image 2 is displayed is symmetrical with the display surface of the display 20 with respect to the element surface of the imaging optical element 30.
  • the size and position of the aerial image 2 are equal to the size and position of the display surface.
  • the image (video) displayed on the display surface of the display 20 may be either a still image or a moving image.
  • a content video stored in the spatial display device 1 a television It is a broadcast video or a recorded video of a program, a playback video such as a BD (Blu-ray (registered trademark) Disc) or a DVD (Digital Versatile Disc), or an Internet image.
  • BD Blu-ray (registered trademark) Disc
  • DVD Digital Versatile Disc
  • FIG. 5 is a schematic perspective view of the space display device 1 according to the present embodiment.
  • FIG. 6 is a schematic cross-sectional view showing the configuration of the space display device 1 according to the present embodiment. Specifically, FIG. 6 schematically shows a cross section taken along line VI-VI shown in FIG.
  • the space display device 1 includes a housing 10, a motion sensor 60, one or more switches 62, and a camera 70.
  • the spatial display device 1 includes a display 20, an imaging optical element 30, a concave lens 40, display surface driving units 50 and 51, and element driving units 52 and 53 inside a housing 10. And lens driving units 54 and 55.
  • the space display device 1 includes a display control unit 65, an adjustment unit 80, and a storage unit 85.
  • the display control unit 65, the adjustment unit 80, and the storage unit 85 are realized by a control circuit such as a system LSI (Large Scale Integration) or a microcomputer.
  • the control circuit is attached, for example, inside or outside the housing 10.
  • each constituent member is accommodated in the housing 10 or fixed to the outside to be unitized.
  • the installation work of the space display device 1 can be easily performed.
  • the installer since the installer does not need to directly touch the optical system such as the display 20, the imaging optical element 30, and the concave lens 40 with bare hands or the like, adhesion of dirt such as fingerprints or foreign matters can be suppressed. Thereby, blurring of the aerial image 2 due to dirt can be suppressed.
  • the housing 10 is an outer housing of the spatial display device 1 and includes a display 20, an imaging optical element 30, a concave lens 40, display surface driving units 50 and 51, an element driving unit 52, and an inside as shown in FIG. 53 and lens driving units 54 and 55 are housed.
  • a motion sensor 60 and a switch 62 are embedded in the outer wall of the housing 10.
  • a camera 70 is attached to the outer surface of the housing 10.
  • casing 10 are not specifically limited.
  • the motion sensor 60 and the camera 70 may be housed inside the housing 10.
  • the motion sensor 60 and the camera 70 may detect the finger 5 and the face 6 of the user 5 outside the housing 10 via the cover glass 15.
  • the outer shape of the housing 10 has a substantially rectangular parallelepiped shape. Note that the outer shape of the housing 10 may be substantially cylindrical or the like, and is not limited thereto.
  • the housing 10 is made of, for example, a metal material such as aluminum or a resin material.
  • the housing 10 is provided with an opening 11 for taking out light from the display 20 to the outside on a surface facing the concave lens 40.
  • a cover glass 15 is provided in the opening 11.
  • the cover glass 15 is a translucent glass plate that transmits visible light.
  • the cover glass 15 is made of, for example, transparent soda glass.
  • casing 10 is not specifically limited, For example, width or depth is 10 cm or less.
  • the housing 10 (the space display device 1) can be embedded in the bus wall 97 of the general unit bus 96.
  • the display 20 is an example of an image display unit that displays an image on the display surface 21. As shown in FIG. 6, the display 20 has a display surface 21 on the imaging optical element 30 side.
  • the display 20 is, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display device.
  • LCD Liquid Crystal Display
  • organic EL Electro Luminescence
  • the position and orientation of the display surface 21 can be adjusted.
  • the movable range of the display surface 21 is indicated by a broken line.
  • a display surface driving unit 50 is attached to one end of the display 20, and a display surface driving unit 51 is attached to the other end.
  • the display surface driving units 50 and 51 move the end of the display 20 to change the position and orientation of the display surface 21.
  • the imaging optical element 30 is a so-called reflective surface-symmetric imaging element.
  • the imaging optical element 30 is, for example, a flat plate formed of a resin material.
  • the imaging optical element 30 has an element surface 31. As shown by a two-dot chain line in FIG. 6, the element surface 31 is a virtual surface passing through the center in the thickness direction of the imaging optical element 30, and is a main surface (incident surface or exit surface) of the imaging optical element 30. ) Parallel to the surface.
  • a minute through hole having a side of 100 ⁇ m and a depth of 100 ⁇ m is formed on the element surface 31, and the inner wall of the through hole is a mirror surface (micromirror).
  • the light passing through the through hole is reflected twice by two adjacent micromirrors.
  • the imaging optical element 30 forms a mirror image of the light source at a position that is symmetrical with the light source with respect to the element surface 31. That is, the distance from the element surface 31 to the light source is equal to the distance from the element surface 31 to the mirror image, and the size of the light source and the size of the mirror image are also equal.
  • FIG. 7 is a schematic diagram showing the principle of the space display device 1 according to the present embodiment.
  • the imaging optical element 30 is disposed between the display surface 21 and the concave lens 40. As shown in FIG. 7, the imaging optical element 30 assumes that the image displayed on the display surface 21 is symmetrical with the display surface 21 with respect to the element surface 31 when it is assumed that the concave lens 40 does not exist. An image is formed in the region 22. The distance from the imaging optical element 30 to the display surface 21 is equal to the distance from the imaging optical element 30 to the temporary area 22. Further, the size of the image displayed on the display surface 21 is equal to the size of the image (real image) formed on the temporary area 22 when it is assumed that the concave lens 40 does not exist. Actually, since the concave lens 40 exists, no image is formed on the temporary region 22.
  • the size of the imaging optical element 30 is, for example, the same as the display surface 21 of the display 20 or larger than the display surface 21. As a result, the imaging optical element 30 can form the entire image displayed on the display surface 21 on the temporary region 22.
  • the position and orientation of the imaging optical element 30 can be adjusted.
  • the movable range of the imaging optical element 30 (element surface 31) is indicated by a broken line.
  • an element driving unit 52 is attached to one end of the imaging optical element 30, and an element driving unit 53 is attached to the other end.
  • the element driving units 52 and 53 move the end of the imaging optical element 30 to change the position and posture of the element surface 31.
  • the concave lens 40 is disposed on the opposite side of the display 20 with respect to the imaging optical element 30. Specifically, as shown in FIG. 7, the concave lens 40 is disposed at a position where the distance a from the concave lens 40 to the temporary region 22 is shorter than the focal length f of the concave lens 40. That is, the concave lens 40 is disposed between the imaging optical element 30 and the temporary region 22 and at a position satisfying 0 ⁇ a ⁇ f.
  • the concave lens 40 forms the aerial image 2 on the display region 3 as an erect real image based on the image that can be formed in the temporary region 22.
  • the image displayed on the display surface 21 of the aerial image 2 is enlarged by the enlargement action of the concave lens 40.
  • the concave lens 40 can move the position imaged by the imaging optical element 30 from the temporary area 22 to the display area 3 and can enlarge it.
  • the display 20 (display surface 21), the focal point F1 of the concave lens 40 on the display 20 side, the imaging optical element 30, the concave lens 40, the temporary region 22, and the focal point F2 of the concave lens 40 on the user 5 side are: It is located in this order. Thereby, the aerial image 2 is displayed between the user 5 and the focus F2. If the temporary region 22 is located between the concave lens 40 and the focal point F2, the imaging optical element 30 may be located between the focal point F1 and the display 20. Alternatively, the display 20 may be positioned between the focal point F1 and the imaging optical element 30.
  • the temporary region 22 is plane-symmetric with the display surface 21 with respect to the element surface 31. That is, the size and position of the temporary area 22 are equal to the size and position of the display surface 21.
  • the display magnification m is represented by the size of the aerial image 2 with respect to the display surface 21 (that is, the temporary area 22). Specifically, as can be seen with reference to FIG. 7, the display magnification m is represented by b / a. That is, the display magnification m is expressed by the following (Expression 2) based on (Expression 1).
  • the focal length f of the concave lens 40 is 60 mm.
  • the display magnification m is 3 times and the distance b is 120 mm based on (Expression 1) and (Expression 2).
  • the position and posture of the concave lens 40 can be adjusted.
  • the movable range of the concave lens 40 is indicated by a broken line.
  • the lens driving unit 54 is attached to one end of the concave lens 40, and the lens driving unit 54 is attached to the other end.
  • the lens driving units 54 and 55 move the end of the concave lens 40, the position and posture of the concave lens 40 are changed.
  • the size of the concave lens 40 is, for example, the same as the element surface 31 of the imaging optical element 30 or larger than the element surface 31.
  • the display surface driving units 50 and 51 change the position and orientation of the display surface 21 of the display 20 based on the control signal from the adjustment unit 80. Specifically, as shown in FIG. 6, the display surface driving unit 50 moves one end of the display 20 along the normal direction of the cover glass 15. The display surface driving unit 51 rotates the display 20 with the display surface driving unit 50 as a fulcrum.
  • the display surface driving units 50 and 51 can bring the display 20 close to or away from the imaging optical element 30 while maintaining the posture of the display 20.
  • the posture of the display 20 is represented by an angle (tilt) formed by the display surface 21 with respect to the element surface 31 (or the cover glass 15) of the imaging optical element 30.
  • the display surface driving units 50 and 51 can change the posture of the display 20 while maintaining the position of the end portion (display surface driving unit 50) of the display 20. Further, the display surface driving units 50 and 51 can change both the position and the posture of the display 20.
  • the element driving units 52 and 53 change the position and posture of the element surface 31 of the imaging optical element 30 based on the control signal from the adjustment unit 80. Specific operations of the element driving units 52 and 53 are the same as those of the display surface driving units 50 and 51, respectively.
  • the element driving units 52 and 53 can move the imaging optical element 30 closer to or away from the concave lens 40 while maintaining the posture of the imaging optical element 30.
  • the posture of the imaging optical element 30 is represented by an angle (inclination) formed by the element surface 31 with respect to the center plane (or the cover glass 15) of the concave lens 40.
  • the element driving units 52 and 53 can change the posture of the imaging optical element 30 while maintaining the position of the end (element driving unit 52) of the imaging optical element 30.
  • the element driving units 52 and 53 can change both the position and the posture of the imaging optical element 30.
  • the lens driving units 54 and 55 change the position and posture of the concave lens 40 based on the control signal from the adjustment unit 80. Specific operations of the lens driving units 54 and 55 are the same as those of the display surface driving units 50 and 51, respectively.
  • the lens driving units 54 and 55 can move the concave lens 40 closer to or away from the imaging optical element 30 while maintaining the posture of the concave lens 40.
  • the posture of the concave lens 40 is represented by an angle (inclination) formed by the center plane of the concave lens 40 with respect to the element surface 31 (or the cover glass 15) of the imaging optical element 30.
  • the lens driving units 54 and 55 can change the posture of the concave lens 40 while maintaining the position of the end portion (lens driving unit 54) of the concave lens 40. Further, the lens driving units 54 and 55 can change both the position and the posture of the concave lens 40.
  • the display surface driving units 50 and 51, the element driving units 52 and 53, and the lens driving units 54 and 55 are, for example, motors or actuators.
  • the motion sensor 60 is an example of an operation detection unit that detects an operation of the user 5 on the aerial image 2 in the user operation area 4 determined according to the position of the display area 3. As shown in FIGS. 1 to 3, the user operation area 4 is an area including the display area 3, for example.
  • the motion sensor 60 includes, for example, an infrared LED (Light Emitting Diode) and an image sensor, and receives reflected light of the infrared light emitted from the infrared LED by the user 5 with the image sensor. Detects operations.
  • the motion sensor 60 may be a stereo camera, a TOF (Time Of Flight) type distance sensor, or the like.
  • the motion sensor 60 performs user operations according to the changed display area 3 when at least one of the size, position, and orientation of the display area 3 is changed by the adjustment unit 80.
  • the size, position and orientation of the area 4 are adjusted.
  • the motion sensor 60 changes the user operation area 4 so as to follow the change in the display area 3.
  • the switch 62 is a switch for controlling the display control unit 65 (or the display 20) and the adjustment unit 80.
  • the switch 62 is, for example, a mechanical switch (such as a push button), a touch sensor, or a non-contact sensor.
  • a plurality of switches 62 are provided on the outer surface of the housing 10.
  • the plurality of switches 62 are a power switch for switching on / off the display of the display 20 and an adjustment for adjusting the position or posture of each of the display 20, the imaging optical element 30, and the concave lens 40. Including the switch.
  • a control signal is output from the switch 62 to the adjustment unit 80.
  • the adjustment unit 80 controls the position or posture of the display 20, the imaging optical element 30, and the concave lens 40.
  • a control signal is output from the switch 62 to the display control unit 65 (or the display 20).
  • the display control unit 65 (or the display 20) starts or stops displaying an image on the display surface 21.
  • the space display device 1 includes the switch 62, and can accept an operation from the user 5 when, for example, the aerial image 2 is not displayed or the motion sensor 60 does not function. Thereby, user convenience can be improved.
  • the display control unit 65 controls display on the display surface 21 of the display 20. Specifically, the display control unit 65 generates an image and displays the generated image on the display surface 21. The display control unit 65 generates a still image such as an operation image or a moving image such as a video and displays the generated moving image on the display surface 21.
  • the display control unit 65 generates a predetermined image based on a user operation detected by the motion sensor 60 or the switch 62. For example, when the motion sensor 60 detects that a GUI (Graphical User Interface) included in the operation image is operated by the user 5, the display control unit 65 displays an image (for example, the next operation) Image) is generated and displayed on the display surface 21. For example, when the motion sensor 60 (or switch 62) detects that a start button for a recipe or movie indicating the cooking procedure has been pressed, the display control unit 65 displays the recipe or movie on the display surface 21. .
  • GUI Graphic User Interface
  • the display control unit 65 is shown as a component different from the display 20, but may be included in the display 20.
  • the camera 70 is an example of a detection unit that detects the user 5. Specifically, the camera 70 detects the face 6 of the user 5 or the operation of the user 5. For example, the camera 70 shoots the user 5 to generate moving image data in which the user 5 is reflected, and outputs the moving image data to the adjustment unit 80. Specifically, the camera 70 includes a light receiving element such as an image sensor and an optical element such as a lens.
  • the adjustment unit 80 adjusts at least one of the position and posture of the display surface 21, the imaging optical element 30, and the concave lens 40. In the present embodiment, the adjustment unit 80 performs adjustment according to the user 5 detected by the camera 70.
  • the adjustment unit 80 performs adjustment based on the position of the face 6 of the user 5 detected by the camera 70. For example, when the distance between the face 6 of the user 5 and the imaging optical element 30 is larger than a predetermined distance, the adjustment unit 80 performs adjustment so that the display region 3 is positioned at a predetermined first position, and the user 5 When the distance between the face 6 and the imaging optical element 30 is smaller than the predetermined distance, adjustment is performed so that the display region 3 is positioned at a second position closer to the imaging optical element 30 than the first position. As an example, the adjustment unit 80 performs adjustment so that the display area 3 is further away as the face 6 is farther from the imaging optical element 30, and the display area 3 is closer as the face 6 is closer to the imaging optical element 30. Make adjustments so that
  • the aerial image 2 is displayed at a position closer to the user 5, so that the user convenience is improved.
  • the adjustment unit 80 (i) enlarges the display region 3 by increasing the distance between the imaging optical element 30 and the provisional region 22, and from the imaging optical element 30.
  • the display area 3 is reduced and moved closer to the imaging optical element 30 by moving to a farther position, or (ii) reducing the distance between the imaging optical element 30 and the temporary area 22. Move to position. Details will be described later with reference to FIGS.
  • the adjustment unit 80 may make adjustments with reference to a table stored in the storage unit 85.
  • the adjustment unit 80 refers to the characteristic table 86 stored in the storage unit 85, determines an adjustment mode corresponding to the face 6 detected by the camera 70, and performs adjustment in the determined mode.
  • the adjustment unit 80 refers to the operation table 87 stored in the storage unit 85, determines an adjustment mode corresponding to the operation detected by the camera 70, and performs adjustment in the determined mode. Details of each table will be described later.
  • the adjustment unit 80 is realized by, for example, a nonvolatile memory in which an adjustment program is stored, a volatile memory that is a temporary storage area for executing the adjustment program, an input / output port, and a processor that executes the adjustment program. .
  • the storage unit 85 is a memory for storing the characteristic table 86 and the operation table 87.
  • the storage unit 85 is a non-volatile memory such as a flash memory, for example.
  • FIG. 8 is a diagram showing a characteristic table 86 in which the user 5 and the adjustment mode according to the present embodiment are associated with each other.
  • the characteristic table 86 is an example of a third table in which one or more user information is associated with one or more aspects of adjustment. Specifically, the user information is information indicating the user's face, and the characteristic table 86 is also an example of a first table.
  • the user's face is indicated by a user's face image previously captured by the camera 70.
  • the data may be modeled by extracting feature points such as eyes, nose, and mouth from the user's face image.
  • the user's face may be associated with height information of the user registered in advance.
  • the mode of adjustment is specifically represented by the object to be adjusted and the amount of adjustment.
  • the adjustment target is at least one of the display surface 21 (display 20), the imaging optical element 30, and the concave lens 40.
  • the amount of adjustment is indicated by the amount of change from the current position or posture of the object to be adjusted, or the position or posture after adjustment.
  • a mode in which the distance between the display 20 and the imaging optical element 30 is set to XX mm is associated.
  • the adjustment amount “XXmm” is determined in advance so that the aerial image 2 is displayed at a position that is easy for the user P to see.
  • a mode in which the distance between the display 20 and the imaging optical element 30 is set to YYmm is associated with the short user Q.
  • the adjustment amount “YYmm” is set in advance so that the aerial image 2 is displayed at a position that is easy for the user Q to see.
  • the aerial image 2 for the user P is enlarged and displayed at a distant position compared to the aerial image 2 for the user Q who is short and has a low face position. Details will be described later.
  • FIG. 9 is a diagram showing an operation table 87 in which the operation of the user 5 according to the present embodiment is associated with the adjustment mode.
  • the action table 87 is an example of a second table in which one or more actions by the user 5 are associated with one or more modes of adjustment.
  • the action by the user 5 is specifically a gesture performed using the user's 5 hand, face or whole body.
  • the gesture includes, for example, an operation in which the user 5 moves the hand from the top to the bottom, an operation to raise the hand, and an operation to shake the neck sideways.
  • a mode in which the display 20 is moved away from the imaging optical element 30 by ZZ mm is associated with the operation of moving the hand from top to bottom. Further, an aspect in which the display 20 is moved closer to the imaging optical element 30 by ZZ mm is associated with the operation of moving the hand from the bottom to the top.
  • the aerial image 2 can be enlarged or reduced, or a distant display or a near display can be performed.
  • “reduction” means that the aerial image 2 enlarges the image displayed on the display surface 21 at a relatively low magnification. That is, the aerial image 2 is not smaller than the image displayed on the display surface 21.
  • the adjustment unit 80 changes the distance a by adjusting at least one position of the display surface 21 (display 20), the imaging optical element 30, and the concave lens 40.
  • the distance b corresponding to the display position of the aerial image 2 and the display magnification m can be changed by adjusting the distance a as shown in (Expression 1) and (Expression 2). That is, the size and display position of the aerial image 2 can be changed based on the adjustment of the display surface 21 and the like by the adjustment unit 80.
  • FIG. 10 is a diagram illustrating the relationship between the display magnification and the display position of the aerial image 2 with respect to the distance a between the concave lens 40 and the temporary region 22 according to the present embodiment. Note that the display position of the aerial image 2 is indicated by a distance b between the concave lens 40 and the aerial image 2. FIG. 10 shows a case where the focal length f of the concave lens 40 is 50 mm.
  • the display magnification of the aerial image 2 increases. Further, as the distance a between the concave lens 40 and the temporary region 22 increases, the distance b between the concave lens 40 and the aerial image 2 also increases.
  • FIG. 11 is a schematic diagram showing a change in the aerial image 2 when the display 20 (display surface 21) of the spatial display device 1 according to the present embodiment is moved.
  • the temporary region 22 When the display 20 is moved away from the imaging optical element 30 (that is, when the distance A between the display 20 and the imaging optical element 30 is changed from A11 to A12 (> A11)), as shown in FIG.
  • the temporary region 22 also moves to a position far from the imaging optical element 30. This is because the temporary region 22 is plane-symmetric with the display surface 21 with respect to the element surface 31 of the imaging optical element 30. Therefore, the distance a between the concave lens 40 and the temporary region 22 increases from a11 to a12 (> a11).
  • the distance b between the aerial image 2 and the concave lens 40 also increases from b11 to b12 (> b11). That is, the aerial image 2 is displayed at a position further away from the imaging optical element 30. Similarly, the size of the aerial image 2 is further increased by moving the display 20 away from the imaging optical element 30.
  • the aerial image 2 can be enlarged at a higher magnification and displayed at a further distance (position at a distance B12 from the imaging optical element 30). It can. Note that when the display 20 is brought close to the imaging optical element 30, the reverse is true, so the aerial image 2 is reduced (expanded at a low magnification) and close to the temporary area 22 (image formation). Display at a distance B11 from the optical element 30).
  • FIG. 12 is a schematic diagram showing a change in the aerial image 2 when the imaging optical element 30 of the spatial display device 1 according to the present embodiment is moved.
  • the imaging optical element 30 When the imaging optical element 30 is moved away from the concave lens 40 (that is, when the distance C between the imaging optical element 30 and the concave lens 40 is changed from C21 to C22 (> C21)), as shown in FIG.
  • the distance A between 20 and the imaging optical element 30 changes from A21 to A22 ( ⁇ A22).
  • the distance b between the aerial image 2 and the concave lens 40 is also shortened from b21 to b22 ( ⁇ b21). That is, the aerial image 2 is displayed at a position closer to the imaging optical element 30.
  • the size of the aerial image 2 is closer to the size of the provisional region 22 by moving the imaging optical element 30 away from the concave lens 40.
  • the aerial image 2 is reduced and displayed at a position closer to the temporary area 22 (position at a distance B22 from the imaging optical element 30). Can do. Note that when the imaging optical element 30 is brought close to the concave lens 40, the reverse is true, so the aerial image 2 is enlarged at a high magnification and is distant (position at a distance B21 from the imaging optical element 30). ) Can be displayed.
  • FIG. 13 is a schematic diagram showing a change in the aerial image 2 when the concave lens 40 of the spatial display device 1 according to the present embodiment is moved.
  • the concave lens 40 When the concave lens 40 is moved away from the imaging optical element 30 (that is, when the distance C between the imaging optical element 30 and the concave lens 40 is changed from C31 to C32 (> C31)), as shown in FIG.
  • the distance b between the aerial image 2 and the concave lens 40 is also shortened from b31 to b32 ( ⁇ b31). That is, the aerial image 2 is displayed at a position closer to the imaging optical element 30.
  • the size of the aerial image 2 becomes closer to the size of the temporary region 22 by moving the concave lens 40 away from the imaging optical element 30.
  • the aerial image 2 is reduced by moving the concave lens 40 away from the imaging optical element 30 and is displayed at a position closer to the temporary area 22 (position at a distance B32 from the imaging optical element 30). Can do.
  • the concave lens 40 is brought close to the imaging optical element 30, the reverse is true, so the aerial image 2 is magnified at a high magnification and is distant (position at a distance B31 from the imaging optical element 30). ) Can be displayed.
  • the adjustment unit 80 adjusts the position of the display 20 (display surface 21), the imaging optical element 30, or the concave lens 40, thereby changing the position and size of the aerial image 2 (display area 3). Can do.
  • the adjusting unit 80 may adjust not only the position but also the posture (tilt).
  • the adjustment unit 80 may adjust only the posture. For example, when the display 20 is tilted, the temporary area 22 is also tilted, and the aerial image 2 is tilted accordingly. By adjusting the angle of inclination, the aerial image 2 can be displayed at a position that is easy for the user 5 to see. Note that two or more of the display 20 (display surface 21), the imaging optical element 30, and the concave lens 40 may be moved simultaneously.
  • the user operation area 4 also changes based on the size, position, and orientation of the aerial image 2. For example, as shown in FIG. 11, when the aerial image 2 (display area 3) is enlarged and displayed far away by moving the display 20 away from the imaging optical element 30, the display 20 is adjusted to the aerial image 2. Thus, the user operation area 4 is also enlarged and changed far away.
  • the aerial image 2 (display area 3) is reduced by bringing the display 20 close to the imaging optical element 30 and displayed near the temporary area 22, the user operation area is adjusted to the aerial image 2. 4 is also reduced and changed to near.
  • the spatial display device 1 is a spatial display device that forms an image on the display region 3 in the air and displays the image as the aerial image 2, and displays the image on the display surface 21.
  • the imaging optical element 30 has the display 20, the concave lens 40, and the element surface 31, and is disposed between the display surface 21 and the concave lens 40, and the concave lens 40 does not exist, the display surface And an imaging optical element 30 that forms an image displayed on the image area 21 on the provisional area 22 that is plane-symmetric with the display surface 21 with respect to the element surface 31, and the concave lens 40 extends from the concave lens 40 to the provisional area 22.
  • the distance “a” is disposed at a position shorter than the focal length “f” of the concave lens 40.
  • the image displayed on the display surface 21 is enlarged by the imaging optical element 30 and the concave lens 40 and displayed far away. Further, since the image displayed on the display surface 21 can be enlarged or distantly displayed, the display surface 21 (display 20) and the imaging optical element 30 can be reduced in size. Thus, the space display device 1 according to the present embodiment can be enlarged or distantly displayed, and can be realized in a small size.
  • the space display device 1 further includes an adjustment unit 80 that adjusts at least one of the position and posture of the display surface 21, the imaging optical element 30, and the concave lens 40.
  • At least one of the position and orientation of the display surface 21, the imaging optical element 30, and the concave lens 40 is variable, so that the position, size, or orientation (orientation) of the aerial image 2 can be changed.
  • the space display device 1 further includes a camera 70 that detects the user 5, and the adjustment unit 80 performs adjustment according to the user 5 detected by the camera 70.
  • the position, size or posture of the aerial image 2 can be changed according to the detected user 5.
  • the aerial image 2 can be easily viewed and operated by the user 5.
  • the camera 70 detects the face 6 of the user 5, and the adjustment unit 80 performs adjustment based on the position of the face 6 detected by the camera 70.
  • the position, size or posture of the aerial image 2 can be changed based on the detected position of the face 6 of the user 5.
  • the aerial image 2 can be easily viewed and operated by the user 5.
  • the spatial display device 1 further includes a storage unit 85 that stores a characteristic table 86 in which one or more user faces are associated with one or more aspects of adjustment, and the adjustment unit 80 includes the characteristic table 86.
  • the mode of adjustment corresponding to the face 6 detected by the camera 70 may be determined, and adjustment may be performed in the determined mode.
  • the appropriate aerial image 2 can be displayed according to the detected user. .
  • the adjustment unit 80 performs adjustment so that the display region 3 is positioned at the first position.
  • the distance between the face 6 and the imaging optical element 30 is smaller than the predetermined distance, adjustment is performed so that the display region 3 is positioned at a second position closer to the imaging optical element 30 than the first position.
  • the aerial image 2 can be displayed at a position farther from the display position of the aerial image 2 when the face 6 is far away.
  • the distance between the face 6 and the aerial image 2 can be made substantially constant according to the position of the face 6.
  • the spatial display device 1 further includes a storage unit 85 that stores an operation table 87 in which one or more operations by the user 5 and one or more modes of adjustment are associated with each other. The operation may be detected, and the adjustment unit 80 may refer to the operation table 87 to determine an adjustment mode corresponding to the operation detected by the camera 70 and perform adjustment in the determined mode.
  • the adjusting unit 80 (i) enlarges the display region 3 by increasing the distance between the imaging optical element 30 and the temporary region 22 and / or from the imaging optical element 30. By moving to a farther position, or (ii) reducing the distance between the imaging optical element 30 and the temporary area 22 to reduce the display area 3 and / or from the imaging optical element 30 Move to a closer position.
  • the size and / or the display position of the aerial image 2 can be changed only by changing the distance between the imaging optical element 30 and the temporary region 22.
  • the aerial image 2 can be enlarged and / or distantly displayed with a simple configuration in which a drive mechanism (element drive unit 52 or the like) that changes the position of the imaging optical element 30 is provided.
  • the display control unit 65 moves the display 20 to the display 20 in accordance with the movement of each component.
  • the image to be displayed may be reduced.
  • the display 20 is moved away from the imaging optical element 30, the image displayed on the display 20 may be reduced. That is, an image may be displayed only on a part of the display surface 21 of the display 20. Thereby, for example, it is possible to change only the display position while keeping the aerial image 2 at a constant size.
  • the space display device 1 further includes a motion sensor 60 that detects an operation of the user 5 on the aerial image 2 in the user operation area 4 determined according to the position of the display area 3.
  • a motion sensor 60 that detects an operation of the user 5 on the aerial image 2 in the user operation area 4 determined according to the position of the display area 3.
  • the size, position, and orientation of the user operation area 4 are changed according to the changed display area 3. adjust.
  • the user operation area 4 also changes. Therefore, the user 5 moves the finger according to the aerial image 2 displayed in the display area 3 to include the user operation area 4 in the aerial image 2.
  • the GUI can be operated. Therefore, user convenience can be improved.
  • a concave lens 40 may be attached to the opening 11 of the housing 10 instead of the cover glass 15.
  • the space display device 1 does not need to be unitized without including the housing 10.
  • the display 20, the imaging optical element 30, and the concave lens 40 may be arranged so as to satisfy the positional relationship described above.
  • the adjustment unit 80 is not limited to the height of the face 6 of the user 5 such as high height and low height, but based on the position where the user 5 stands (specifically, the position of the face 6 in the horizontal direction).
  • the mode of adjustment may be determined. For example, in FIG. 1, when the user 5 is standing in front of the sink 93, the aerial image 2 may be tilted and displayed on the sink 93 side. Similarly, when the user 5 is standing in front of the cooking device 94, the aerial image 2 may be tilted and displayed on the cooking device 94 side. Thereby, it is possible to display the aerial image 2 in an easy-to-view posture for the user 5 who is cooking or washing.
  • the space display device 1 may not include a detection unit that detects the user, such as the camera 70.
  • the adjustment unit 80 refers to the characteristic table 86 stored in the storage unit 85, determines the adjustment mode corresponding to the user information selected by the user 5, and performs the adjustment in the determined mode. May be.
  • the display 20 displays the user selection screen stored in the characteristic table 86 on the display surface 21.
  • the user selection screen includes, for example, user names or icon images of one or more users indicated by the characteristic table 86. Accordingly, the user selection screen is displayed as the aerial image 2, and the user 5 performs an operation of touching the user name or icon image displayed on the selection screen with a finger.
  • the adjustment unit 80 adjusts the position and posture of the concave lens 40 and the like based on the selected user.
  • the space display device 1 may accept a selection operation from the user 5 instead of detecting the user 5. Thereby, even when the detection of the user 5 is not successful, the spatial display device 1 can display the aerial image 2 at a position and posture suitable for the user 5.
  • the user 5 may be associated with the plurality of switches 62 instead of the display 20 displaying the selection screen.
  • the spatial display device 1 adjusts the position and posture of the concave lens 40 and the like based on the user associated with the selected switch 62.
  • the space display device 1 may not include the adjustment unit 80. That is, at least one of the position and posture of the display 20, the imaging optical element 30, and the concave lens 40 may be adjusted manually instead of automatically. Alternatively, at least one of the position and posture of the display 20, the imaging optical element 30, and the concave lens 40 may be fixed so as not to be adjusted.
  • the space display device 1 may include a projector that projects an image on a display surface instead of the display 20 as an image display unit.
  • the projector may display an image using the inner surface of the housing 10 as a display surface by projecting an image on the inner surface (for example, the lower surface) of the housing 10.
  • the space display device 1 may include an infrared sensor instead of the camera 70 as a detection unit.
  • the infrared sensor detects the position of the face 6 of the user 5.
  • the infrared sensor as the detection unit may also be used as the motion sensor 60.
  • the present invention can be realized not only as a spatial display device, but also as a program including steps performed by each component of the spatial display device, and a computer-readable non-transitory recording medium that records the program You can also
  • the comprehensive or specific aspect described above may be realized by a system, an apparatus, an integrated circuit, a computer program, or a computer-readable recording medium, and any of the system, the apparatus, the integrated circuit, the computer program, and the recording medium It may be realized by various combinations.
  • the embodiment can be realized by arbitrarily combining the components and functions in each embodiment without departing from the scope of the present invention, or a form obtained by subjecting each embodiment to various modifications conceived by those skilled in the art. Forms are also included in the present invention.
  • SYMBOLS 1 Spatial display apparatus 2 Aerial image 3 Display area 4 User operation area 5 User 6 Face 20 Display (image display part) 21 Display surface 22 Temporary region 30 Imaging optical element 31 Element surface 40 Concave lens 60 Motion sensor (operation detection unit) 70 Camera (detection unit) 80 Adjustment unit 85 Storage unit 86 Characteristic table (first table) 87 Operation table (second table)

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

画像を空中の表示領域(3)に結像させて空中画像(2)として表示する空間表示装置(1)であって、表示面(21)に画像を表示するディスプレイ(20)と、凹レンズ(40)と、素子面(31)を有し、表示面(21)と凹レンズ(40)との間に配置された結像光学素子(30)であって、凹レンズ(40)が存在しないと仮定した場合に、表示面(21)に表示された画像を、素子面(31)に対して表示面(21)と面対称になる仮領域(22)に結像させる結像光学素子(30)とを備え、凹レンズ(40)は、凹レンズ(40)から仮領域(22)までの距離が凹レンズ(40)の焦点距離より短くなる位置に配置されている。

Description

空間表示装置
 本発明は、空中の表示領域に空中画像を表示する空間表示装置に関する。
 近年、空中画像を閲覧可能とする技術の開発が進められている。例えば、特許文献1には、反射型面対称結像素子を備える光学システムが開示されている。
特開2008-158114号公報
 上記従来の反射型面対称結像素子は、ディスプレイに表示された画像を、素子面に対してディスプレイと面対称になる位置に空中画像として結像させる。すなわち、ディスプレイに表示された画像の大きさ及び素子面からの距離と、空中画像の大きさ及び素子面からの距離とは等しくなる。このため、空中画像を拡大して表示するためには、ディスプレイ及び反射型面対称結像素子のサイズが大きくなる。また、空中画像を反射型面対称結像素子から離れた位置に表示させる場合には、ディスプレイと反射型面対称結像素子との間の距離が大きくなるので、光学システムが大型化する。
 そこで、本発明は、拡大表示又は遠方表示が可能な小型の空間表示装置を提供することを目的とする。
 上記目的を達成するため、本発明の一態様に係る空間表示装置は、画像を空中の表示領域に結像させて空中画像として表示する空間表示装置であって、表示面に前記画像を表示する画像表示部と、凹レンズと、素子面を有し、前記表示面と前記凹レンズとの間に配置された結像光学素子であって、前記凹レンズが存在しないと仮定した場合に、前記表示面に表示された画像を、前記素子面に対して前記表示面と面対称になる仮領域に結像させる結像光学素子とを備え、前記凹レンズは、当該凹レンズから前記仮領域までの距離が当該凹レンズの焦点距離より短くなる位置に配置されている。
 本発明によれば、拡大表示又は遠方表示が可能な小型の空間表示装置を提供することができる。
図1は、実施の形態に係る空間表示装置のキッチンへの適用例を示す斜視図である。 図2Aは、実施の形態に係る空間表示装置のキッチンへの適用例を示す断面図である。 図2Bは、実施の形態に係る空間表示装置のキッチンへの別の適用例を示す断面図である。 図3は、実施の形態に係る空間表示装置のユニットバスへの適用例を示す断面図である。 図4は、実施の形態に係る空間表示装置において、凹レンズを備えないと仮定した場合の空中画像の表示原理を示す模式図である。 図5は、実施の形態に係る空間表示装置の概観斜視図である。 図6は、実施の形態に係る空間表示装置の構成を示す概略断面図である。 図7は、実施の形態に係る空間表示装置の原理を示す模式図である。 図8は、実施の形態に係るユーザと調整の態様とを対応付けた特性テーブルを示す図である。 図9は、実施の形態に係るユーザの動作と調整の態様とを対応付けた動作テーブルを示す図である。 図10は、実施の形態に係る凹レンズと仮領域との間の距離に対する空中画像の表示倍率及び表示位置の関係を示す図である。 図11は、実施の形態に係る空間表示装置のディスプレイを移動させた場合の空中画像の変化を示す模式図である。 図12は、実施の形態に係る空間表示装置の結像光学素子を移動させた場合の空中画像の変化を示す模式図である。 図13は、実施の形態に係る空間表示装置の凹レンズを移動させた場合の空中画像の変化を示す模式図である。
 以下では、本発明の実施の形態に係る空間表示装置について、図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。したがって、以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する趣旨ではない。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 また、各図は、模式図であり、必ずしも厳密に図示されたものではない。したがって、例えば、各図において縮尺などは必ずしも一致しない。また、各図において、実質的に同一の構成に対しては同一の符号を付しており、重複する説明は省略又は簡略化する。
 (実施の形態)
 [概要]
 まず、本実施の形態に係る空間表示装置の概要について説明する。
 図1は、本実施の形態に係る空間表示装置1のキッチン90への適用例を示す斜視図である。図2A及び図2Bはそれぞれ、本実施の形態に係る空間表示装置1のキッチン90への適用例を示す断面図である。
 空間表示装置1は、図1及び図2Aに示すように、キッチン台91に組み込まれている。あるいは、空間表示装置1は、図2Bに示すように、キッチン壁92に組み込まれていてもよい。表示領域3は、キッチン台91の上方かつキッチン壁92の前方に位置する空間領域である。これにより、キッチン台91及びキッチン壁92の前方に立つユーザ5にとって、空中画像2が容易に視認可能になる。
 キッチン90は、例えばユーザ5が調理をし、食器を洗うための設備である。具体的には、キッチン90は、システムキッチンであり、調理などの作業を行うためのキッチン台91と、キッチン台91の奥側に衝立状に配置されたキッチン壁92と、キッチン台91に組み込まれた流し台(シンク)93と、キッチン台91に併設された加熱調理器94と、キッチン台91の下方に設置された収納庫95とを備える。本実施の形態において、空間表示装置1は、キッチン台91に組み込まれている。
 図1、図2A又は図2Bに示すように、空間表示装置1は、画像を空中の表示領域3に結像させて空中画像2として表示する。空間表示装置1は、例えば、表示領域3に料理のレシピなどの空中画像2を表示する。これにより、ユーザ5は、空中画像2として表示されたレシピなどを見ながら調理することができる。
 なお、詳細は後述するが、表示領域3に表示された空中画像2は、ユーザ5によって操作可能である。具体的には、表示領域3の位置に応じて定められたユーザ操作領域4が設けられている。ユーザ操作領域4は、表示領域3に略一致し、ユーザ5が空中画像2に触れるように操作した場合に、その操作を検知するための領域である。例えば、ユーザ操作によって、空中画像2が別の画像に変更される。
 また、図3に示すように、空間表示装置1は、キッチン90でなく、ユニットバス96に適用してもよい。図3は、本実施の形態に係る空間表示装置1のユニットバス96への適用例を示す模式図である。
 図3に示すように、空間表示装置1は、ユニットバス96のバス壁97に組み込まれていてもよい。バス壁97は、外壁98の内側に固定されている。表示領域3は、浴槽99の上方に位置する。これにより、ユーザ5は、浴槽99に浸かった状態で、空中画像2を視認することができる。
 図2A、図2B又は図3に示すように、空間表示装置1は、ディスプレイ20と、結像光学素子30と、凹レンズ40とを備える。空間表示装置1は、ディスプレイ20が表示面に表示させた画像を、結像光学素子30と凹レンズ40とによって空中画像2として表示させる。
 本実施の形態では、空間表示装置1は、凹レンズ40を備えることで、ディスプレイ20が表示する画像を拡大表示又は遠方表示することができる。まず、図4を用いて、空間表示装置1が凹レンズ40を備えないと仮定した場合の空中画像2の表示原理について簡単に説明する。図4は、本実施の形態に係る空間表示装置1において、凹レンズ40を備えないと仮定した場合の空中画像2の表示原理を示す模式図である。
 図4に示すように、空間表示装置1は、ディスプレイ20に表示された2次元画像を空中画像2として立体的に空中に表示する。つまり、空間表示装置1は、空中に浮かび上がった状態で画像(空中画像2)を表示することができる。このとき、空中画像2が表示される表示領域3は、結像光学素子30の素子面に対して、ディスプレイ20の表示面と面対称になる。空中画像2の大きさ及び位置は、表示面の大きさ及び位置に等しくなる。
 なお、本実施の形態において、ディスプレイ20の表示面に表示される画像(映像)は、静止画及び動画像のいずれであってもよく、例えば、空間表示装置1に記憶されたコンテンツ映像、テレビ番組の放送中の映像若しくは録画映像、BD(Blu-ray(登録商標) Disc)若しくはDVD(Digital Versatile Disc)などの再生映像、又は、インターネット画像などである。
 [構成]
 続いて、空間表示装置1の詳細な構成について説明する。
 図5は、本実施の形態に係る空間表示装置1の概観斜視図である。図6は、本実施の形態に係る空間表示装置1の構成を示す概略断面図である。具体的には、図6は、図5に示すVI-VI線における断面を模式的に示している。
 図5に示すように、空間表示装置1は、筐体10と、モーションセンサ60と、1以上のスイッチ62と、カメラ70とを備える。図6に示すように、空間表示装置1は、筐体10の内部に、ディスプレイ20と、結像光学素子30と、凹レンズ40と、表示面駆動部50及び51と、素子駆動部52及び53と、レンズ駆動部54及び55とを備える。
 さらに、空間表示装置1は、表示制御部65と、調整部80と、記憶部85とを備える。表示制御部65、調整部80及び記憶部85は、システムLSI(Large Scale Integration)又はマイクロコンピュータなどの制御回路によって実現される。当該制御回路は、例えば、筐体10の内部又は外部に取り付けられる。
 このように、空間表示装置1は、各構成部材が筐体10の内部に収容され、又は、外部に固定されてユニット化されている。これにより、空間表示装置1の設置作業を容易に行うことができる。また、ディスプレイ20、結像光学素子30及び凹レンズ40などの光学系を設置者が素手などで直接触らずに済むため、指紋又は異物などの汚れの付着を抑制することができる。これにより、汚れによる空中画像2の不鮮明化などを抑制することができる。
 [筐体]
 筐体10は、空間表示装置1の外郭筐体であり、図6に示すように、内部にディスプレイ20、結像光学素子30、凹レンズ40、表示面駆動部50及び51、素子駆動部52及び53並びにレンズ駆動部54及び55が収納されている。筐体10の外壁には、図5及び図6に示すように、モーションセンサ60及びスイッチ62が埋め込まれている。また、筐体10の外側面には、カメラ70が取り付けられている。なお、モーションセンサ60及びカメラ70の位置及び筐体10への固定方法は、特に限定されない。例えば、モーションセンサ60及びカメラ70は、筐体10の内部に収納されてもよい。モーションセンサ60及びカメラ70は、例えば、カバーガラス15を介して、筐体10の外部のユーザ5の指及び顔6を検知してもよい。
 本実施の形態では、筐体10の外形は、略直方体状である。なお、筐体10の外形は、略円柱状などでもよく、これらに限定されない。筐体10は、例えば、アルミニウムなどの金属材料又は樹脂材料から形成される。
 筐体10には、ディスプレイ20からの光を外部に取り出すための開口11が、凹レンズ40に対向する面に設けられている。図5に示すように、開口11にはカバーガラス15が設けられている。カバーガラス15は、可視光を透過させる透光性のガラス板である。カバーガラス15は、例えば、透明なソーダガラスなどから形成される。カバーガラス15が開口11を蓋することで、筐体10内部に異物などが進入するのを抑制することができる。
 筐体10の大きさは、特に限定されないが、例えば、幅又は奥行きが10cm以下である。これにより、図3に示したように、一般的なユニットバス96のバス壁97などに筐体10(空間表示装置1)を埋め込むことができる。
 [ディスプレイ(画像表示部)]
 ディスプレイ20は、表示面21に画像を表示する画像表示部の一例である。ディスプレイ20は、図6に示すように、結像光学素子30側に表示面21を有する。ディスプレイ20は、例えば、LCD(Liquid Crystal Display)又は有機EL(Electro Luminescence)表示装置などである。表示面21には、例えば、マトリクス状に複数の画素が設けられている。表示面21には、例えば1フレームの画像が表示される。
 本実施の形態では、表示面21の位置及び姿勢が調整可能である。図6には、表示面21の可動域を破線で示している。図6に示すように、ディスプレイ20の一の端部に表示面駆動部50が取り付けられ、他の端部に表示面駆動部51が取り付けられている。表示面駆動部50及び51がディスプレイ20の端部を移動させることによって、表示面21の位置及び姿勢が変更される。
 [結像光学素子]
 結像光学素子30は、いわゆる反射型面対称結像素子である。結像光学素子30は、例えば、樹脂材料で形成された平板状のプレートである。結像光学素子30は、素子面31を有する。図6の二点鎖線で示すように、素子面31は、結像光学素子30の厚み方向における中央を通る仮想的な面であって、結像光学素子30の主面(入射面又は出射面)に平行な面である。
 具体的には、素子面31には、例えば、1辺が100μm、深さが100μmの微小な貫通孔が形成されており、当該貫通孔の内壁が鏡面(マイクロミラー)になっている。貫通孔を通過する光は、隣接する2面のマイクロミラーによって2回反射される。
 上記構成により、結像光学素子30は、素子面31に対して光源と面対称になる位置に、光源の鏡像を形成する。つまり、素子面31から光源までの距離と、素子面31から鏡像までの距離は等しく、光源の大きさと鏡像の大きさとも等しくなる。
 図7は、本実施の形態に係る空間表示装置1の原理を示す模式図である。
 本実施の形態では、結像光学素子30は、表示面21と凹レンズ40との間に配置されている。図7に示すように、結像光学素子30は、凹レンズ40が存在しないと仮定した場合に、表示面21に表示された画像を、素子面31に対して表示面21と面対称になる仮領域22に結像させる。結像光学素子30から表示面21までの距離と結像光学素子30から仮領域22までの距離とは等しい。また、表示面21に表示される画像の大きさと、凹レンズ40が存在しないと仮定した場合に仮領域22に結像される画像(実像)の大きさとは等しい。なお、実際には、凹レンズ40が存在するために、仮領域22には結像されない。
 結像光学素子30の大きさは、例えば、ディスプレイ20の表示面21と同じ、又は、表示面21より大きい。これにより、結像光学素子30は、表示面21に表示される画像の全体を、仮領域22に結像させることができる。
 本実施の形態では、結像光学素子30の位置及び姿勢が調整可能である。図6には、結像光学素子30(素子面31)の可動域を破線で示している。図6に示すように、結像光学素子30の一の端部に素子駆動部52が取り付けられ、他の端部に素子駆動部53が取り付けられている。素子駆動部52及び53が結像光学素子30の端部を移動させることによって、素子面31の位置及び姿勢が変更される。
 [凹レンズ]
 凹レンズ40は、結像光学素子30に対して、ディスプレイ20とは反対側に配置されている。具体的には、図7に示すように、凹レンズ40は、凹レンズ40から仮領域22までの距離aが凹レンズ40の焦点距離fより短くなる位置に配置されている。すなわち、凹レンズ40は、結像光学素子30と仮領域22との間で、かつ、0<a<fを満たす位置に配置されている。
 仮領域22が凹レンズ40の焦点距離fより凹レンズ40に近い位置に位置しているので、結像光学素子30によって仮領域22に結像されうる画像は、凹レンズ40に対して虚光源として作用する。したがって、凹レンズ40は、仮領域22に形成されうる画像に基づいて、正立の実像として空中画像2を表示領域3に結像させる。
 これにより、図7に示すように、空中画像2は、凹レンズ40の拡大作用によって、表示面21に表示される画像が拡大されている。このように、凹レンズ40は、結像光学素子30によって結像される位置を、仮領域22から表示領域3に移動させ、かつ、拡大することができる。
 本実施の形態では、ディスプレイ20(表示面21)、凹レンズ40のディスプレイ20側の焦点F1、結像光学素子30、凹レンズ40、仮領域22、及び、凹レンズ40のユーザ5側の焦点F2は、この順で位置している。これにより、ユーザ5と焦点F2との間に、空中画像2が表示される。なお、仮領域22が凹レンズ40と焦点F2との間に位置するのであれば、結像光学素子30は、焦点F1とディスプレイ20との間に位置してもよい。あるいは、ディスプレイ20は、焦点F1と結像光学素子30との間に位置してもよい。
 仮領域22は、上述したように、素子面31に対して表示面21と面対称になる。すなわち、仮領域22の大きさ及び位置は、表示面21の大きさ及び位置と等しくなる。
 ここで、レンズの公式より、-1/a+1/b=-1/fが成立するので、凹レンズ40と空中画像2との間の距離bは、次の(式1)で表される。
 (式1) b=a×f/(f-a)
 表示倍率mは、表示面21(すなわち、仮領域22)に対する空中画像2の大きさで表される。具体的には、図7を参照して分かるように、表示倍率mは、b/aで表される。すなわち、表示倍率mは、(式1)に基づいて、次の(式2)で示される。
 (式2) m=b/a=f/(f-a)
 例えば、凹レンズ40の焦点距離fが60mmである場合を想定する。この場合において、凹レンズ40と仮領域22との間の距離aが40mmであるとき、(式1)及び(式2)に基づいて、表示倍率mは3倍となり、距離bは120mmとなる。
 なお、凹レンズ40と仮領域22との間の距離aは、結像光学素子30と表示面21との間の距離Aと、結像光学素子30と凹レンズ40との間の距離Cとの差分(=A-C)で表される。また、空中画像2は、結像光学素子30から距離B(=C+b)だけ離れた位置に表示される。例えば、距離Aを70mm、距離Cを30mmとすることで、空中画像2は、結像光学素子30から150mm離れた位置に表示される。
 本実施の形態では、凹レンズ40の位置及び姿勢が調整可能である。図6には、凹レンズ40の可動域を破線で示している。図6に示すように、凹レンズ40の一の端部にレンズ駆動部54が取り付けられ、他の端部にレンズ駆動部54が取り付けられている。レンズ駆動部54及び55が凹レンズ40の端部を移動させることによって、凹レンズ40の位置及び姿勢が変更される。
 凹レンズ40の大きさは、例えば、結像光学素子30の素子面31と同じ、又は、素子面31より大きい。
 [駆動部]
 表示面駆動部50及び51は、調整部80からの制御信号に基づいて、ディスプレイ20の表示面21の位置及び姿勢を変化させる。具体的には、図6に示すように、表示面駆動部50は、カバーガラス15の法線方向に沿ってディスプレイ20の一の端部を移動させる。表示面駆動部51は、表示面駆動部50を支点としてディスプレイ20を回動させる。
 これにより、表示面駆動部50及び51は、ディスプレイ20の姿勢を保ったまま、ディスプレイ20を結像光学素子30に近づける、又は、遠ざけることができる。なお、ディスプレイ20の姿勢は、結像光学素子30の素子面31(又はカバーガラス15)に対して表示面21がなす角度(傾き)で表される。また、表示面駆動部50及び51は、ディスプレイ20の端部(表示面駆動部50)の位置を保ったまま、ディスプレイ20の姿勢を変化させることができる。また、表示面駆動部50及び51は、ディスプレイ20の位置及び姿勢の両方を変化させることができる。
 素子駆動部52及び53は、調整部80からの制御信号に基づいて、結像光学素子30の素子面31の位置及び姿勢を変化させる。素子駆動部52及び53の具体的な動作は、はそれぞれ、表示面駆動部50及び51と同様である。
 これにより、素子駆動部52及び53は、結像光学素子30の姿勢を保ったまま、結像光学素子30を凹レンズ40に近づける、又は、遠ざけることができる。なお、結像光学素子30の姿勢は、凹レンズ40の中心面(又はカバーガラス15)に対して素子面31がなす角度(傾き)で表される。また、素子駆動部52及び53は、結像光学素子30の端部(素子駆動部52)の位置を保ったまま、結像光学素子30の姿勢を変化させることができる。また、素子駆動部52及び53は、結像光学素子30の位置及び姿勢の両方を変化させることができる。
 レンズ駆動部54及び55は、調整部80からの制御信号に基づいて、凹レンズ40の位置及び姿勢を変化させる。レンズ駆動部54及び55の具体的な動作はそれぞれ、表示面駆動部50及び51と同様である。
 これにより、レンズ駆動部54及び55は、凹レンズ40の姿勢を保ったまま、凹レンズ40を結像光学素子30に近づける、又は、遠ざけることができる。なお、凹レンズ40の姿勢は、結像光学素子30の素子面31(又はカバーガラス15)に対して凹レンズ40の中心面がなす角度(傾き)で表される。また、レンズ駆動部54及び55は、凹レンズ40の端部(レンズ駆動部54)の位置を保ったまま、凹レンズ40の姿勢を変化させることができる。また、レンズ駆動部54及び55は、凹レンズ40の位置及び姿勢の両方を変化させることができる。
 表示面駆動部50及び51、素子駆動部52及び53並びにレンズ駆動部54及び55は、例えば、モータ又はアクチュエータなどである。
 [モーションセンサ(操作検知部)]
 モーションセンサ60は、表示領域3の位置に応じて定められたユーザ操作領域4内における空中画像2に対するユーザ5の操作を検知する操作検知部の一例である。図1~図3に示すように、ユーザ操作領域4は、例えば、表示領域3を含む領域である。
 モーションセンサ60は、例えば、赤外LED(Light Emitting Diode)とイメージセンサとを備え、赤外LEDが発した赤外光のユーザ5の指による反射光をイメージセンサで受光することで、ユーザ5の操作を検知する。あるいは、モーションセンサ60は、ステレオカメラ、又は、TOF(Time Of Flight)式の距離センサなどでもよい。
 本実施の形態では、モーションセンサ60は、調整部80が調整を行うことで表示領域3の大きさ、位置及び姿勢の少なくとも一方が変化した場合に、変更後の表示領域3に応じてユーザ操作領域4の大きさ、位置及び姿勢を調整する。具体的には、モーションセンサ60は、表示領域3の変化に追随するように、ユーザ操作領域4を変化させる。
 [スイッチ]
 スイッチ62は、表示制御部65(又はディスプレイ20)及び調整部80を制御するためのスイッチである。スイッチ62は、例えば、メカニカルスイッチ(押しボタンなど)、タッチセンサ、又は、非接触センサなどである。
 本実施の形態では、図5に示すように、複数のスイッチ62が筐体10の外側面に設けられている。例えば、複数のスイッチ62は、ディスプレイ20の表示のオン及びオフを切り替えるための電源用のスイッチと、ディスプレイ20、結像光学素子30及び凹レンズ40の各々の位置又は姿勢を調整するための調整用のスイッチとを含んでいる。
 例えば、ユーザ5が調整用のスイッチ62を操作した場合、スイッチ62から制御信号が調整部80に出力される。制御信号に応じて調整部80は、ディスプレイ20、結像光学素子30及び凹レンズ40の位置又は姿勢を制御する。あるいは、ユーザ5が電源用のスイッチ62を操作した場合、スイッチ62から制御信号が表示制御部65(又はディスプレイ20)に出力される。表示制御部65(又はディスプレイ20)は、表示面21への画像の表示を開始又は停止する。
 このように、空間表示装置1は、スイッチ62を備えることで、例えば、空中画像2が表示されない場合、又は、モーションセンサ60が機能しない場合などに、ユーザ5からの操作を受け付けることができる。これにより、ユーザ利便性を高めることができる。
 [表示制御部]
 表示制御部65は、ディスプレイ20の表示面21への表示を制御する。具体的には、表示制御部65は、画像を生成し、生成した画像を表示面21へ表示させる。表示制御部65は、操作画像などの静止画、又は、映像などの動画像を生成し、表示面21へ表示させる。
 具体的には、表示制御部65は、モーションセンサ60又はスイッチ62によって検知されたユーザ操作に基づいて、所定の画像を生成する。例えば、操作画像に含まれるGUI(Graphical User Interface)がユーザ5によって操作されたことをモーションセンサ60が検知した場合に、表示制御部65は、GUIの操作に応じた画像(例えば、次の操作画像)を生成して表示面21へ表示させる。例えば、料理の手順を示すレシピ又は映画などの開始ボタンが押下されたことをモーションセンサ60(又はスイッチ62)が検知した場合に、表示制御部65は、レシピ又は映画を表示面21へ表示させる。
 なお、本実施の形態では、表示制御部65は、ディスプレイ20とは異なる構成要素として示したが、ディスプレイ20に備えられてもよい。
 [カメラ(検知部)]
 カメラ70は、ユーザ5を検知する検知部の一例である。具体的には、カメラ70は、ユーザ5の顔6、又は、ユーザ5の動作を検知する。例えば、カメラ70は、ユーザ5を撮影することで、ユーザ5が映った動画像データを生成し、当該動画像データを調整部80に出力する。カメラ70は、具体的には、イメージセンサなどの受光素子及びレンズなどの光学素子を備える。
 [調整部]
 調整部80は、表示面21、結像光学素子30及び凹レンズ40の少なくとも1つの位置及び姿勢の少なくとも一方の調整を行う。本実施の形態では、調整部80は、カメラ70が検知したユーザ5に応じて調整を行う。
 具体的には、調整部80は、カメラ70が検知したユーザ5の顔6の位置に基づいて調整を行う。例えば、調整部80は、ユーザ5の顔6と結像光学素子30との間の距離が所定距離より大きい場合、所定の第1位置に表示領域3が位置するように調整を行い、ユーザ5の顔6と結像光学素子30との間の距離が所定距離より小さい場合、第1位置より結像光学素子30に近い第2位置に表示領域3が位置するように調整を行う。一例として、調整部80は、顔6が結像光学素子30より遠い程、表示領域3が遠くになるように調整を行い、顔6が結像光学素子30に近い程、表示領域3が近くになるように調整を行う。
 これにより、例えば、身長が高いユーザ5にとっては、ユーザ5により近い位置に空中画像2が表示されるので、ユーザ利便性が高くなる。
 本実施の形態では、調整部80は、(i)結像光学素子30と仮領域22との間の距離を大きくすることで、表示領域3を拡大し、かつ、結像光学素子30から、より遠い位置に移動させ、又は、(ii)結像光学素子30と仮領域22との間の距離を小さくすることで、表示領域3を縮小し、かつ、結像光学素子30から、より近い位置に移動させる。詳細については、図11~図13を用いて後で説明する。
 なお、本実施の形態では、調整部80は、記憶部85に記憶されたテーブルを参照して調整を行ってもよい。具体的には、調整部80は、記憶部85に記憶された特性テーブル86を参照して、カメラ70が検知した顔6に対応する調整の態様を決定し、決定した態様で調整を行う。また、例えば、調整部80は、記憶部85に記憶された動作テーブル87を参照して、カメラ70が検知した動作に対応する調整の態様を決定し、決定した態様で調整を行う。各テーブルの詳細については、後で説明する。
 調整部80は、例えば、調整プログラムが格納された不揮発性メモリ、調整プログラムを実行するための一時的な記憶領域である揮発性メモリ、入出力ポート、調整プログラムを実行するプロセッサなどで実現される。
 [記憶部]
 記憶部85は、特性テーブル86及び動作テーブル87を記憶するためのメモリである。記憶部85は、例えば、フラッシュメモリなどの不揮発性メモリである。
 図8は、本実施の形態に係るユーザ5と調整の態様とを対応付けた特性テーブル86を示す図である。特性テーブル86は、1以上のユーザ情報と調整の1以上の態様とを対応付けた第3テーブルの一例である。ユーザ情報は、具体的には、ユーザの顔を示す情報であり、特性テーブル86は、第1テーブルの一例でもある。
 ユーザの顔は、具体的には、カメラ70によって予め撮影されたユーザの顔画像で示される。あるいは、ユーザの顔画像から目、鼻、口などの特徴点を抽出してモデル化したデータでもよい。なお、ユーザの顔には、予め登録しておいたユーザの身長情報などが対応付けられていてもよい。
 調整の態様は、具体的には、調整の対象物と、その調整量とによって表される。調整の対象物は、表示面21(ディスプレイ20)、結像光学素子30及び凹レンズ40の少なくとも1つである。調整量は、調整の対象物の現在の位置若しくは姿勢からの変化量、又は、調整後の位置若しくは姿勢で示される。
 図8に示すように、例えば、高身長のユーザPに対しては、ディスプレイ20と結像光学素子30との間の距離をXXmmにするという態様が対応付けられている。なお、「XXmm」という調整量は、ユーザPにとって見やすい位置に空中画像2が表示されるように予め定められている。
 また、低身長のユーザQに対しては、ディスプレイ20と結像光学素子30との間の距離をYYmmにするという態様が対応付けられている。なお、「YYmm」という調整量は、ユーザQにとって見やすい位置に空中画像2が表示されるように予め定められている。
 例えば、高身長で顔の位置が高いユーザPにとっては、空中画像2は、凹レンズ40(カバーガラス15)から離れた位置に表示される方が操作しやすい。このため、ユーザPに対する空中画像2は、低身長で顔の位置が低いユーザQに対する空中画像2よりも拡大され、かつ、遠方の位置に表示される。詳細については、後で説明する。
 図9は、本実施の形態に係るユーザ5の動作と調整の態様とを対応付けた動作テーブル87を示す図である。動作テーブル87は、ユーザ5による1以上の動作と調整の1以上の態様とを対応付けた第2テーブルの一例である。
 ユーザ5による動作は、具体的には、ユーザ5の手、顔又は全身を使って行うジェスチャである。ジェスチャには、例えば、ユーザ5が手を上から下へ動かす動作、手を挙げる動作、首を横にふる動作などが含まれる。
 図9に示す例では、手を上から下へ動かす動作に対して、ディスプレイ20を結像光学素子30からZZmm遠ざけるという態様が対応付けられている。また、手を下から上へ動かす動作に対して、ディスプレイ20を結像光学素子30にZZmm近づけるという態様が対応付けられている。これにより、ユーザ5の意思に基づいて、空中画像2の拡大若しくは縮小、又は、遠方表示若しくは近方表示を行わせることができる。
 なお、本実施の形態において、「縮小」とは、空中画像2が、表示面21に表示される画像を相対的に低い倍率で拡大することを意味する。すなわち、空中画像2は、表示面21に表示される画像より小さくなる訳ではない。
 [調整]
 続いて、調整による空中画像2(表示領域3)の変化について、図10~図13を用いて説明する。
 本実施の形態では、調整部80は、表示面21(ディスプレイ20)、結像光学素子30及び凹レンズ40の少なくとも1つの位置の調整を行うことにより、距離aを変化させる。空中画像2の表示位置に相当する距離b及び表示倍率mは、(式1)及び(式2)に示したように、距離aを調整することによって変化させることができる。すなわち、調整部80による表示面21などの調整に基づいて、空中画像2の大きさ及び表示位置を変化させることができる。
 図10は、本実施の形態に係る凹レンズ40と仮領域22との間の距離aに対する空中画像2の表示倍率及び表示位置の関係を示す図である。なお、空中画像2の表示位置は、凹レンズ40と空中画像2との間の距離bで示される。図10では、凹レンズ40の焦点距離fが50mmの場合を示している。
 図10に示すように、凹レンズ40と仮領域22との間の距離aが大きくなるにつれて、空中画像2の表示倍率が大きくなる。また、凹レンズ40と仮領域22との間の距離aが大きくなるにつれて、凹レンズ40と空中画像2との間の距離bも大きくなる。
 以下では、表示面21(ディスプレイ20)、結像光学素子30及び凹レンズ40の各々の位置を調整した場合について、図面を用いて順に説明する。
 <ディスプレイを移動>
 まず、図11を用いて、結像光学素子30及び凹レンズ40を固定した状態でディスプレイ20のみを移動させる場合について説明する。図11は、本実施の形態に係る空間表示装置1のディスプレイ20(表示面21)を移動させた場合の空中画像2の変化を示す模式図である。
 ディスプレイ20を結像光学素子30から遠ざけた場合(すなわち、ディスプレイ20と結像光学素子30との間の距離AがA11からA12(>A11)に変化した場合)、図11に示すように、仮領域22も結像光学素子30から遠い位置に移動する。これは、仮領域22が結像光学素子30の素子面31に対して表示面21と面対称になるためである。したがって、凹レンズ40と仮領域22との間の距離aは、a11からa12(>a11)になって長くなる。
 このため、図11に示すように、空中画像2と凹レンズ40との間の距離bについてもb11からb12(>b11)になって長くなる。すなわち、空中画像2は、結像光学素子30から、より離れた位置に表示される。また、空中画像2の大きさについても同様に、ディスプレイ20を結像光学素子30から遠ざけることで、より大きくなる。
 以上のように、ディスプレイ20を結像光学素子30から遠ざけることで、空中画像2をより高い倍率で拡大し、かつ、より遠方(結像光学素子30から距離B12の位置)に表示することができる。なお、ディスプレイ20を結像光学素子30に近づけた場合は、上記と逆のことが成立するので、空中画像2を縮小(低い倍率で拡大)し、かつ、仮領域22に近い位置(結像光学素子30から距離B11の位置)に表示することができる。
 <結像光学素子を移動>
 次に、図12を用いて、ディスプレイ20及び凹レンズ40を固定した状態で結像光学素子30のみを移動させる場合について説明する。図12は、本実施の形態に係る空間表示装置1の結像光学素子30を移動させた場合の空中画像2の変化を示す模式図である。
 結像光学素子30を凹レンズ40から遠ざけた場合(すなわち、結像光学素子30と凹レンズ40の間の距離CがC21からC22(>C21)に変化した場合)、図12に示すように、ディスプレイ20と結像光学素子30との間の距離Aの距離がA21からA22(<A22)に変化する。
 したがって、図12に示すように、凹レンズ40と仮領域22との間の距離aは、a21(=A21-C21)からa22(=A22-C22<a21)になって短くなる。このため、空中画像2と凹レンズ40との間の距離bについてもb21からb22(<b21)になって短くなる。すなわち、空中画像2は、結像光学素子30に、より近い位置に表示される。また、空中画像2の大きさについても同様に、結像光学素子30を凹レンズ40から遠ざけることで、より仮領域22の大きさに近くなる。
 以上のように、結像光学素子30を凹レンズ40から遠ざけることで、空中画像2を縮小し、かつ、より仮領域22に近い位置(結像光学素子30から距離B22の位置)に表示することができる。なお、結像光学素子30を凹レンズ40に近づけた場合は、上記と逆のことが成立するので、空中画像2を高い倍率で拡大し、かつ、遠方(結像光学素子30から距離B21の位置)に表示することができる。
 <凹レンズを移動>
 次に、図13を用いて、ディスプレイ20及び結像光学素子30を固定した状態で凹レンズ40のみを移動させる場合について説明する。図13は、本実施の形態に係る空間表示装置1の凹レンズ40を移動させた場合の空中画像2の変化を示す模式図である。
 凹レンズ40を結像光学素子30から遠ざけた場合(すなわち、結像光学素子30と凹レンズ40の間の距離CがC31からC32(>C31)に変化した場合)、図13に示すように、凹レンズ40と仮領域22との間の距離aは、a31(=A-C31)からa32(=A-C32<a31)になって短くなる。このため、空中画像2と凹レンズ40との間の距離bについてもb31からb32(<b31)になって短くなる。すなわち、空中画像2は、結像光学素子30に、より近い位置に表示される。また、空中画像2の大きさについても同様に、凹レンズ40を結像光学素子30から遠ざけることで、より仮領域22の大きさに近くなる。
 以上のように、凹レンズ40を結像光学素子30から遠ざけることで、空中画像2を縮小し、かつ、より仮領域22に近い位置(結像光学素子30から距離B32の位置)に表示することができる。なお、凹レンズ40を結像光学素子30に近づけた場合は、上記と逆のことが成立するので、空中画像2を高い倍率で拡大し、かつ、遠方(結像光学素子30から距離B31の位置)に表示することができる。
 以上のように、調整部80がディスプレイ20(表示面21)、結像光学素子30又は凹レンズ40の位置を調整することで、空中画像2(表示領域3)の位置及び大きさを変更することができる。このとき、調整部80は、位置だけでなく、姿勢(傾き)も調整してもよい。あるいは、調整部80は、姿勢のみを調整してもよい。例えば、ディスプレイ20を傾けることで、仮領域22も傾斜し、これに伴って空中画像2も傾斜する。傾斜の角度を調整することで、ユーザ5にとって見やすい位置に空中画像2を表示させることができる。なお、ディスプレイ20(表示面21)、結像光学素子30及び凹レンズ40のうち2つ以上を同時に動かしてもよい。
 また、本実施の形態では、図11~図13に示すように、空中画像2の大きさ、位置及び姿勢に基づいて、ユーザ操作領域4も変化する。例えば、図11に示すように、ディスプレイ20を結像光学素子30から遠ざけることで、空中画像2(表示領域3)が拡大され、かつ、遠方に表示される場合には、空中画像2に合わせてユーザ操作領域4も拡大され、かつ、遠方に変更される。ディスプレイ20を結像光学素子30に近づけることで、空中画像2(表示領域3)が縮小され、かつ、仮領域22に近方に表示される場合には、空中画像2に合わせてユーザ操作領域4も縮小され、かつ、近方に変更される。
 [効果など]
 以上のように、本実施の形態に係る空間表示装置1は、画像を空中の表示領域3に結像させて空中画像2として表示する空間表示装置であって、表示面21に画像を表示するディスプレイ20と、凹レンズ40と、素子面31を有し、表示面21と凹レンズ40との間に配置された結像光学素子30であって、凹レンズ40が存在しないと仮定した場合に、表示面21に表示された画像を、素子面31に対して表示面21と面対称になる仮領域22に結像させる結像光学素子30とを備え、凹レンズ40は、凹レンズ40から仮領域22までの距離aが凹レンズ40の焦点距離fより短くなる位置に配置されている。
 これにより、表示面21に表示された画像は、結像光学素子30と凹レンズ40とによって拡大され、かつ、遠方に表示される。また、表示面21に表示される画像の拡大表示又は遠方表示が可能であるので、表示面21(ディスプレイ20)及び結像光学素子30を小型化することができる。このように、本実施の形態に係る空間表示装置1は、拡大表示又は遠方表示が可能となり、かつ、小型で実現される。
 また、例えば、空間表示装置1は、さらに、表示面21、結像光学素子30及び凹レンズ40の少なくとも1つの位置及び姿勢の少なくとも一方の調整を行う調整部80を備える。
 これにより、表示面21、結像光学素子30及び凹レンズ40の少なくとも1つの位置及び姿勢の少なくとも一方が可変になるので、空中画像2の位置、大きさ又は姿勢(向き)を変化させることができる。
 また、例えば、空間表示装置1は、さらに、ユーザ5を検知するカメラ70を備え、調整部80は、カメラ70が検知したユーザ5に応じて調整を行う。
 これにより、検知されたユーザ5に応じて空中画像2の位置、大きさ又は姿勢を変化させることができる。例えば、ユーザ5にとって空中画像2を見やすく、また、操作しやすくすることができる。
 また、例えば、カメラ70は、ユーザ5の顔6を検知し、調整部80は、カメラ70が検知した顔6の位置に基づいて調整を行う。
 これにより、検知されたユーザ5の顔6の位置に基づいて空中画像2の位置、大きさ又は姿勢を変化させることができる。例えば、ユーザ5にとって空中画像2を見やすく、また、操作しやすくすることができる。
 また、例えば、空間表示装置1は、さらに、1以上のユーザの顔と調整の1以上の態様とを対応付けた特性テーブル86を記憶する記憶部85を備え、調整部80は、特性テーブル86を参照して、カメラ70が検知した顔6に対応する調整の態様を決定し、決定した態様で調整を行ってもよい。
 これにより、例えば、ユーザ毎に空中画像2の適切な位置、大きさ又は姿勢などを予め対応付けておくことができるので、検知されたユーザに応じて適切な空中画像2を表示させることができる。
 また、例えば、調整部80は、ユーザ5の顔6と結像光学素子30との間の距離が所定距離より大きい場合、第1位置に表示領域3が位置するように調整を行い、ユーザ5の顔6と結像光学素子30との間の距離が所定距離より小さい場合、第1位置より結像光学素子30に近い第2位置に表示領域3が位置するように調整を行う。
 これにより、ユーザ5の顔6が近い場合には、顔6が遠い場合の空中画像2の表示位置よりも離れた位置に空中画像2を表示させることができる。例えば、顔6の位置に応じて、顔6と空中画像2との間の距離を略一定にすることができる。
 また、例えば、空間表示装置1は、さらに、ユーザ5による1以上の動作と調整の1以上の態様とを対応付けた動作テーブル87を記憶する記憶部85を備え、カメラ70は、ユーザ5の動作を検知し、調整部80は、動作テーブル87を参照して、カメラ70が検知した動作に対応する調整の態様を決定し、決定した態様で調整を行ってもよい。
 これにより、ユーザ5の動作に応じて空中画像2の位置、大きさ又は姿勢などを変化させることができる。したがって、ユーザ5の要望に応じて空中画像2の表示の態様を変化させることができる。
 また、例えば、調整部80は、(i)結像光学素子30と仮領域22との間の距離を大きくすることで、表示領域3を拡大し、かつ/若しくは、結像光学素子30から、より遠い位置に移動させ、又は、(ii)結像光学素子30と仮領域22との間の距離を小さくすることで、表示領域3を縮小し、かつ/若しくは、結像光学素子30から、より近い位置に移動させる。
 これにより、結像光学素子30と仮領域22との間の距離を変化させるだけで、空中画像2の大きさ及び/又は表示位置を変化させることができる。例えば、結像光学素子30の位置を可変にする駆動機構(素子駆動部52など)を設けるという簡易な構成で、空中画像2の拡大表示及び/又は遠方表示を実現することができる。
 例えば、ディスプレイ20、結像光学素子30及び凹レンズ40の少なくとも1つを移動させた場合に空中画像2が拡大されるとき、表示制御部65は、各構成部材の移動に合わせて、ディスプレイ20に表示させる画像を縮小してもよい。例えば、ディスプレイ20を結像光学素子30から遠ざけた場合に、ディスプレイ20に表示させる画像を縮小してもよい。すなわち、ディスプレイ20の表示面21の一部のみで画像を表示してもよい。これにより、例えば、空中画像2を一定の大きさに保ったまま、表示位置のみを変更することができる。
 また、例えば、空間表示装置1は、さらに、表示領域3の位置に応じて定められたユーザ操作領域4内における空中画像2に対するユーザ5の操作を検知するモーションセンサ60を備え、モーションセンサ60は、調整部80が調整を行うことで表示領域3の大きさ、位置及び姿勢の少なくとも一方が変化した場合に、変更後の表示領域3に応じてユーザ操作領域4の大きさ、位置及び姿勢を調整する。
 これにより、表示領域3が変化した場合には、ユーザ操作領域4も変化するので、ユーザ5は、表示領域3に表示される空中画像2に合わせて指を動かすことで、空中画像2に含まれるGUIなどを操作することができる。したがって、ユーザ利便性を高めることができる。
 (その他)
 以上、本発明に係る空間表示装置について、実施の形態に基づいて説明したが、本発明は、上記の実施の形態に限定されるものではない。
 例えば、筐体10の開口11には、カバーガラス15ではなく、凹レンズ40が取り付けられていてもよい。また、例えば、空間表示装置1は、筐体10を備えずに、ユニット化されていなくてもよい。例えば、ディスプレイ20、結像光学素子30及び凹レンズ40がそれぞれ、上述した位置関係を満たすように配置すればよい。
 また、調整部80は、高身長及び低身長などのユーザ5の顔6の高さに限らず、ユーザ5の立っている位置(具体的には、顔6の水平方向の位置)に基づいて、調整の態様を決定してもよい。例えば、図1において、ユーザ5が流し台93の前に立っている場合は、流し台93側に空中画像2を傾けて表示してもよい。同様に、ユーザ5が加熱調理器94の前に立っている場合は、加熱調理器94側に空中画像2を傾けて表示してもよい。これにより、調理又は洗い物を行っているユーザ5に対して、見やすい姿勢で空中画像2を表示することができる。
 また、例えば、空間表示装置1は、カメラ70などのユーザを検知する検知部を備えていなくてもよい。具体的には、調整部80は、記憶部85に記憶された特性テーブル86を参照して、ユーザ5によって選択されたユーザ情報に対応する調整の態様を決定し、決定した態様で調整を行ってもよい。
 例えば、ディスプレイ20は、特性テーブル86に記憶されたユーザの選択画面を表示面21に表示する。ユーザの選択画面には、例えば、特性テーブル86が示す1以上のユーザのユーザ名又はアイコン画像などが含まれる。これにより、空中画像2としてユーザの選択画面が表示されるので、ユーザ5は、選択画面に表示されたユーザ名又はアイコン画像を指でタッチする動作を行う。モーションセンサ60がユーザ5の指の動きを検出することで、調整部80は、選択されたユーザに基づいて凹レンズ40などの位置及び姿勢の調整を行う。
 このように、空間表示装置1は、ユーザ5を検知するのではなく、ユーザ5からの選択操作を受け付けてもよい。これにより、ユーザ5の検知がうまくできない場合でも、空間表示装置1は、ユーザ5に適した位置及び姿勢で空中画像2を表示することができる。
 なお、ディスプレイ20が選択画面を表示する代わりに、複数のスイッチ62にユーザ5が対応付けられていてもよい。ユーザ5がスイッチ62を選択することで、空間表示装置1は、選択されたスイッチ62に対応付けられたユーザに基づいて凹レンズ40などの位置及び姿勢の調整を行う。
 また、例えば、空間表示装置1は、調整部80を備えなくてもよい。つまり、ディスプレイ20、結像光学素子30及び凹レンズ40の少なくとも1つの位置及び姿勢の少なくとも一方は、自動ではなく、手動で調整可能でもよい。あるいは、ディスプレイ20、結像光学素子30及び凹レンズ40の少なくとも1つの位置及び姿勢の少なくとも一方は、調整不可能に固定されていてもよい。
 また、例えば、空間表示装置1は、画像表示部としてディスプレイ20の代わりに画像を表示面に投影するプロジェクタを備えてもよい。例えば、プロジェクタは、筐体10の内面(例えば、下面)に画像を投影することで、筐体10の内面を表示面として画像を表示してもよい。
 また、例えば、空間表示装置1は、検知部としてカメラ70の代わりに赤外線センサを備えてもよい。例えば、赤外線センサは、ユーザ5の顔6の位置を検知する。また、検知部としての赤外線センサは、モーションセンサ60と兼用されてもよい。
 また、本発明は、空間表示装置として実現できるだけではなく、空間表示装置の各構成要素が行う処理をステップとして含むプログラム、及び、そのプログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体として実現することもできる。
 つまり、上述した包括的又は具体的な態様は、システム、装置、集積回路、コンピュータプログラム又はコンピュータ読み取り可能な記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態や、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。
1 空間表示装置
2 空中画像
3 表示領域
4 ユーザ操作領域
5 ユーザ
6 顔
20 ディスプレイ(画像表示部)
21 表示面
22 仮領域
30 結像光学素子
31 素子面
40 凹レンズ
60 モーションセンサ(操作検知部)
70 カメラ(検知部)
80 調整部
85 記憶部
86 特性テーブル(第1テーブル)
87 動作テーブル(第2テーブル)
 

Claims (10)

  1.  画像を空中の表示領域に結像させて空中画像として表示する空間表示装置であって、
     表示面に前記画像を表示する画像表示部と、
     凹レンズと、
     素子面を有し、前記表示面と前記凹レンズとの間に配置された結像光学素子であって、前記凹レンズが存在しないと仮定した場合に、前記表示面に表示された画像を、前記素子面に対して前記表示面と面対称になる仮領域に結像させる結像光学素子とを備え、
     前記凹レンズは、当該凹レンズから前記仮領域までの距離が当該凹レンズの焦点距離より短くなる位置に配置されている
     空間表示装置。
  2.  さらに、
     前記表示面、前記結像光学素子及び前記凹レンズの少なくとも1つの位置及び姿勢の少なくとも一方の調整を行う調整部を備える
     請求項1に記載の空間表示装置。
  3.  さらに、
     ユーザを検知する検知部を備え、
     前記調整部は、前記検知部が検知したユーザに応じて前記調整を行う
     請求項2に記載の空間表示装置。
  4.  前記検知部は、前記ユーザの顔を検知し、
     前記調整部は、前記検知部が検知した顔の位置に基づいて前記調整を行う
     請求項3に記載の空間表示装置。
  5.  さらに、
     1以上のユーザの顔と前記調整の1以上の態様とを対応付けた第1テーブルを記憶する記憶部を備え、
     前記調整部は、前記第1テーブルを参照して、前記検知部が検知した顔に対応する前記調整の態様を決定し、決定した態様で前記調整を行う
     請求項4に記載の空間表示装置。
  6.  前記調整部は、
     前記ユーザの顔と前記結像光学素子との間の距離が所定距離より大きい場合、第1位置に前記表示領域が位置するように前記調整を行い、
     前記ユーザの顔と前記結像光学素子との間の距離が前記所定距離より小さい場合、前記第1位置より前記結像光学素子に近い第2位置に前記表示領域が位置するように前記調整を行う
     請求項4又は5に記載の空間表示装置。
  7.  さらに、
     前記ユーザによる1以上の動作と前記調整の1以上の態様とを対応付けた第2テーブルを記憶する記憶部を備え、
     前記検知部は、前記ユーザの動作を検知し、
     前記調整部は、前記第2テーブルを参照して、前記検知部が検知した動作に対応する前記調整の態様を決定し、決定した態様で前記調整を行う
     請求項3に記載の空間表示装置。
  8.  さらに、
     1以上のユーザ情報と前記調整の1以上の態様とを対応付けた第3テーブルを記憶する記憶部を備え、
     前記調整部は、前記第3テーブルを参照して、ユーザによって選択されたユーザ情報に対応する前記調整の態様を決定し、決定した態様で前記調整を行う
     請求項2に記載の空間表示装置。
  9.  前記調整部は、
     (i)前記結像光学素子と前記仮領域との間の距離を大きくすることで、前記表示領域を拡大し、かつ/若しくは、前記結像光学素子から、より遠い位置に移動させ、又は、
     (ii)前記結像光学素子と前記仮領域との間の距離を小さくすることで、前記表示領域を縮小し、かつ/若しくは、前記結像光学素子から、より近い位置に移動させる
     請求項2~8のいずれか1項に記載の空間表示装置。
  10.  さらに、
     前記表示領域の位置に応じて定められたユーザ操作領域内における前記空中画像に対する前記ユーザの操作を検知する操作検知部を備え、
     前記操作検知部は、前記調整部が前記調整を行うことで前記表示領域の大きさ、位置及び姿勢の少なくとも一方が変化した場合に、変更後の表示領域に応じて前記ユーザ操作領域の大きさ、位置及び姿勢を調整する
     請求項2~9のいずれか1項に記載の空間表示装置。
     
     
PCT/JP2017/005502 2016-02-19 2017-02-15 空間表示装置 WO2017141956A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/067,736 US20190025604A1 (en) 2016-02-19 2017-02-15 Space display apparatus
JP2018500149A JPWO2017141956A1 (ja) 2016-02-19 2017-02-15 空間表示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-030496 2016-02-19
JP2016030496 2016-02-19

Publications (1)

Publication Number Publication Date
WO2017141956A1 true WO2017141956A1 (ja) 2017-08-24

Family

ID=59625871

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/005502 WO2017141956A1 (ja) 2016-02-19 2017-02-15 空間表示装置

Country Status (3)

Country Link
US (1) US20190025604A1 (ja)
JP (1) JPWO2017141956A1 (ja)
WO (1) WO2017141956A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3499295A1 (en) * 2017-12-13 2019-06-19 Funai Electric Co., Ltd. Aerial image display device
JP2019146035A (ja) * 2018-02-21 2019-08-29 富士ゼロックス株式会社 情報処理装置及びプログラム
WO2021217821A1 (zh) * 2020-04-30 2021-11-04 像航(上海)科技有限公司 无接触空中成像电梯厅外设备
JP2022136349A (ja) * 2021-03-07 2022-09-20 晃基 田▲崎▼ 画像投影型タッチパネル
WO2022249800A1 (ja) * 2021-05-24 2022-12-01 マクセル株式会社 空間浮遊映像表示装置および光源装置
JP7402265B2 (ja) 2021-06-28 2023-12-20 日立チャネルソリューションズ株式会社 情報処理システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114675432A (zh) * 2022-04-09 2022-06-28 郭生文 一种显示***及成像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008123500A1 (ja) * 2007-03-30 2008-10-16 National Institute Of Information And Communications Technology 空中映像インタラクション装置及びそのプログラム
JP2011081296A (ja) * 2009-10-09 2011-04-21 Pioneer Electronic Corp 表示装置
US20140253880A1 (en) * 2013-03-07 2014-09-11 Seiko Epson Corporation Display device
JP2014178652A (ja) * 2013-03-15 2014-09-25 Nikon Corp 光学素子、表示装置及び光学素子の製造方法
JP2015040944A (ja) * 2013-08-21 2015-03-02 株式会社ニコン 光学装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5148960B2 (ja) * 2007-09-21 2013-02-20 独立行政法人情報通信研究機構 体積走査型3次元空中映像ディスプレイ
JP6405739B2 (ja) * 2014-06-20 2018-10-17 船井電機株式会社 画像表示装置
US9881529B2 (en) * 2015-06-12 2018-01-30 Innolux Corporation Display device and operating method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008123500A1 (ja) * 2007-03-30 2008-10-16 National Institute Of Information And Communications Technology 空中映像インタラクション装置及びそのプログラム
JP2011081296A (ja) * 2009-10-09 2011-04-21 Pioneer Electronic Corp 表示装置
US20140253880A1 (en) * 2013-03-07 2014-09-11 Seiko Epson Corporation Display device
JP2014178652A (ja) * 2013-03-15 2014-09-25 Nikon Corp 光学素子、表示装置及び光学素子の製造方法
JP2015040944A (ja) * 2013-08-21 2015-03-02 株式会社ニコン 光学装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3499295A1 (en) * 2017-12-13 2019-06-19 Funai Electric Co., Ltd. Aerial image display device
CN109917545A (zh) * 2017-12-13 2019-06-21 船井电机株式会社 空中图像显示装置
US10962797B2 (en) 2017-12-13 2021-03-30 Funai Electric Co., Ltd. Aerial image display device
CN109917545B (zh) * 2017-12-13 2022-04-19 船井电机株式会社 空中图像显示装置
JP2019146035A (ja) * 2018-02-21 2019-08-29 富士ゼロックス株式会社 情報処理装置及びプログラム
JP7247457B2 (ja) 2018-02-21 2023-03-29 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
WO2021217821A1 (zh) * 2020-04-30 2021-11-04 像航(上海)科技有限公司 无接触空中成像电梯厅外设备
JP2022136349A (ja) * 2021-03-07 2022-09-20 晃基 田▲崎▼ 画像投影型タッチパネル
WO2022249800A1 (ja) * 2021-05-24 2022-12-01 マクセル株式会社 空間浮遊映像表示装置および光源装置
JP7402265B2 (ja) 2021-06-28 2023-12-20 日立チャネルソリューションズ株式会社 情報処理システム

Also Published As

Publication number Publication date
US20190025604A1 (en) 2019-01-24
JPWO2017141956A1 (ja) 2018-08-02

Similar Documents

Publication Publication Date Title
WO2017141956A1 (ja) 空間表示装置
WO2017125984A1 (ja) 空中表示装置
CN109564495B (zh) 显示装置、存储介质、显示方法及控制装置
JP7018099B2 (ja) 照明装置
JP2017146564A (ja) 空間表示装置
US10955960B2 (en) Control device, control method, and program
JP5364846B2 (ja) 撮像装置、撮像装置の制御方法および制御方法に用いられるプログラム
JP5974189B2 (ja) 投写型映像表示装置及び投写型映像表示方法
US10623648B2 (en) Imaging apparatus, method for controlling the imaging apparatus, and storage medium
JP6134804B2 (ja) 映像投射装置
JP2018031925A (ja) 空中表示装置
JP2011525635A (ja) タンジブル・ユーザ・インタフェース上への画像の投影
EP3039515B1 (en) Touch input association
WO2013190906A1 (ja) 表示制御装置および撮像装置ならびに表示制御方法
JP6844171B2 (ja) 投影装置、投影方法及びプログラム
WO2014141612A1 (ja) 撮像装置
JP2006267181A (ja) 表示装置
JP2015171116A (ja) カメラの表示装置
JP2016046677A (ja) 表示装置及び投影装置
JP2013205543A (ja) 映像表示装置
JP2017161732A (ja) 空中表示装置及び空中表示方法
KR20130021642A (ko) 프로젝터 모듈을 구비한 이동 단말에서 포커스 조절을 위한 방법 및 이를 위한 이동 단말
JP2008182480A (ja) 投写型表示装置
JP6965910B2 (ja) 動作方法および表示装置
JP2017142309A (ja) 結像光学素子及び空中表示装置並びに結像光学素子の製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17753212

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018500149

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17753212

Country of ref document: EP

Kind code of ref document: A1