WO2007114225A1 - 立体的二次元画像表示装置 - Google Patents

立体的二次元画像表示装置 Download PDF

Info

Publication number
WO2007114225A1
WO2007114225A1 PCT/JP2007/056816 JP2007056816W WO2007114225A1 WO 2007114225 A1 WO2007114225 A1 WO 2007114225A1 JP 2007056816 W JP2007056816 W JP 2007056816W WO 2007114225 A1 WO2007114225 A1 WO 2007114225A1
Authority
WO
WIPO (PCT)
Prior art keywords
image display
stereoscopic
dimensional
dimensional image
image
Prior art date
Application number
PCT/JP2007/056816
Other languages
English (en)
French (fr)
Inventor
Isao Tomisawa
Masaru Ishikawa
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Publication of WO2007114225A1 publication Critical patent/WO2007114225A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images

Definitions

  • the present invention relates to a stereoscopic two-dimensional image display device that displays a two-dimensional image in a pseudo-stereoscopic manner.
  • Patent Document 1 JP 2001-255493 A
  • Patent Document 2 Japanese Patent Laid-Open No. 2003-98479
  • the above-described conventional stereoscopic two-dimensional image display device simply displays a two-dimensional image in three dimensions, and an observer simply observes the stereoscopic two-dimensional image displayed in a passive position. Just do it. That is, the observer cannot perform any action on the displayed stereoscopic two-dimensional image, and it is not an interactive communication tool. Therefore, a stereoscopic two-dimensional image display device as an interactive communication tool is desired!
  • the present invention has been made in view of the above circumstances, and an example of the problem is to provide a stereoscopic two-dimensional image display device capable of giving a sense of vigilance to an observer. .
  • a stereoscopic two-dimensional image display device In order to achieve the above object, a stereoscopic two-dimensional image display device according to claim 1 A display unit having an image display surface for displaying a three-dimensional image, and an image transmission panel disposed on the image display surface so as to be separated from the image display surface. A stereoscopic image display means for displaying a stereoscopic two-dimensional image by forming an image on an imaging plane in a space opposite to the display portion of the panel, and a position of the detection object in the vicinity of the imaging plane.
  • the haptic presentation means for applying a force to the subject that is part or all of the detected object, and the position of the detected object detected by the position detecting means, And a knot control unit that controls the magnitude and direction of the force applied to the object by the knot presentation unit.
  • the stereoscopic two-dimensional image display device includes a display unit including an image display surface for displaying a two-dimensional image, and an image transmission panel arranged separately from the image display surface.
  • the three-dimensional two-dimensional image is displayed by forming light emitted from the image display surface on an image formation surface in a space opposite to the display portion of the image transmission panel.
  • a force sense control means for controlling the magnitude and direction of the force applied to the object.
  • FIG. 1 is a configuration diagram of a stereoscopic two-dimensional image display device according to an embodiment of the present invention.
  • FIG. 2 is a diagram for explaining an example of position detection and sensation presentation in the stereoscopic two-dimensional image display device according to the embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of a stereoscopic two-dimensional image display device according to an embodiment of the present invention.
  • FIG. 4 is a diagram for explaining a specific example in which the sensation is changed according to the position of a finger in the embodiment shown in FIG.
  • FIG. 5 is a diagram for explaining another example of the stereoscopic two-dimensional image display device according to the embodiment of the present invention.
  • FIG. 6 is a diagram for explaining a specific example in which the sensation is changed according to the displayed image in the embodiment shown in FIG.
  • FIG. 7 is a diagram for explaining another example of the stereoscopic two-dimensional image display device according to the embodiment of the present invention.
  • FIG. 8 is a diagram for explaining a specific example in which the image is changed according to the position of the finger to change the sense of click in the embodiment shown in FIG.
  • FIG. 9 is a diagram showing an example of the shape of an object used in the stereoscopic two-dimensional image display device according to the embodiment of the present invention.
  • FIG. 1 is a configuration diagram of a stereoscopic two-dimensional image display apparatus 100 according to an embodiment of the present invention.
  • the stereoscopic two-dimensional image display device 100 is a pseudo-stereoscopic image display device that displays a two-dimensional image that can be viewed by an observer as a stereoscopic display on a predetermined plane in space.
  • a stereoscopic two-dimensional image display device 100 includes a display unit 10 and a microlens array 20 (image transmission panel), and includes a stereoscopic image display unit 2 that displays a two-dimensional image on a plane in space. Prepared in body 1.
  • the stereoscopic two-dimensional image display device 100 is associated with the sound output unit 50 that outputs sound such as sound effects and human voices on the housing 1 and the position of the two-dimensional image displayed in the space.
  • the position detection sensor 40 that is arranged and detects the position of the object to be detected by the observer H (for example, a finger) 70 and the object to be detected (for example, a metal) that is attached to the object 70 to be detected by the observer H
  • the haptic device 60 that applies force to 71 is provided.
  • the sensation of sensation means the sensation that occurs when an object is touched, and is the sensation of recognizing the hardness of the object or the shape of the object. That is, when the observer H touches the displayed pseudo-stereoscopic image, the stereoscopic two-dimensional image display device 100 applies a force to the observer H and presents a sense of touching an object. It is also a device to do.
  • the display drive unit 3 that drives and controls the display unit 10 and the position detection sensor 40 are driven, and the detection that is detected via the position detection sensor 40 is performed.
  • a sensor driving unit 4 for receiving signals, an audio driving unit 5 for driving and controlling the audio output unit 50, a katsu device driving unit 6 for driving and controlling the katsu device 60, an image generating unit 7 for generating image data to be displayed, and
  • a control unit 8 that performs overall control regarding image display, audio output, and force presentation is provided adjacent to the housing 1.
  • the display drive unit 3, the sensor drive unit 4, the audio drive unit 5, the haptic device drive unit 6, the image generation unit 7, and the control Part 8 may be configured so that all components are included in the same casing.
  • the display unit 10 is provided along one inner surface of the housing 1 facing the observer H, and is two-dimensional.
  • An image display surface 11 for displaying images is provided.
  • the display unit 10 includes a display such as a liquid crystal display, an EL (electroluminescence) panel, and a CRT (Cathode Ray Tube), and displays an image corresponding to the drive signal of the display drive unit 6. Displayed on image display screen 11. That is, light corresponding to the image is emitted from the image display surface 11.
  • a panel display such as a liquid crystal display or an EL panel which is a thin image display surface is suitable.
  • the microlens array 20 is configured by arranging two lens array halves 21 in parallel with each other.
  • Each lens array half 21 has a plurality of micro-convex lenses 23 having the same radius of curvature arranged adjacent to each other in a matrix on both surfaces of a transparent substrate 22 made of glass or resin having excellent translucency.
  • the optical axis of each micro-convex lens 23 formed on one surface is adjusted to be the same as the optical axis of the micro-convex lens 23 formed on the other surface. That is, each pair of micro-convex lenses 23 adjusted to have the same optical axis is arranged two-dimensionally (the XY plane in FIG. 1) so that the respective optical axes are parallel to each other. Yes.
  • the microlens array 20 is arranged at a position parallel to the image display surface 11 of the display unit 10 by a predetermined distance (the working distance of the microlens array 20).
  • the microlens array 20 is a three-dimensional image display surface in which the light corresponding to the image emitted from the image display surface 11 of the display unit 10 is separated by a predetermined distance (the working distance of the microlens array 20) opposite to the image display surface 11.
  • the image displayed on the image display surface 11 is displayed on the stereoscopic image display surface 30 which is a two-dimensional plane in space. This formed image is a force that is a two-dimensional image.
  • the two-dimensional image displayed on the stereoscopic image display surface 30 is referred to as a stereoscopic two-dimensional image.
  • the display unit 10 and the microlens array 20 form an image of light corresponding to an image on the stereoscopic image display surface 30 (that is, the imaging surface) to form a stereoscopic two-dimensional image.
  • the stereoscopic image display unit 2 to be displayed is configured.
  • the stereoscopic image display surface 30 is a plane virtually set in space and is an entity. Then, it is one plane in the space defined according to the working distance of the microlens array 20. Therefore, the front surface of the housing 1 is opened so that an image displayed on the stereoscopic image display surface 30 can be seen from the front.
  • the position detection sensor 40 is disposed on the front surface of the housing 1 and determines the position of an object 70 to be detected (for example, a finger) 70 of an observer H that exists in a predetermined detection area near the stereoscopic image display surface 30. It is a sensor to detect. For example, as a two-dimensional position detection sensor capable of detecting the position on the stereoscopic image display surface 30 (X-Y coordinates in FIG. 1), the position of the object to be detected by the observer H who touches the stereoscopic two-dimensional image is detected. You may do it.
  • the 3D position detection sensor can also detect the position (Z coordinate in FIG. 1) in the depth direction (Z direction in FIG. 1) perpendicular to the stereoscopic image display surface 30 not only on the position on the stereoscopic image display surface 30. May be.
  • an optical sensor is adopted as the two-dimensional position detection sensor, as shown in FIG. 2, an outer frame is provided around the detection plane (for example, the stereoscopic image display surface 30), A frame-shaped two-dimensional position detection sensor 40 is arranged on the outer frame. That is, among the four sides of the outer frame, the light emitting part of the X direction detection line sensor is provided on one of the two sides parallel to the Y direction, and the light receiving part is provided on the other side, and the Y direction is detected on one of the two sides parallel to the X direction. By providing the light emitting part of the line sensor and the light receiving part on the other side, the position coordinates on the XY plane when the detected object 70 crosses the detection plane can be determined.
  • a two-dimensional position detection sensor shown in FIG. 2 is used so that a space including the stereoscopic image display surface 30 is used as a detection region. It can be configured by arranging in multiple layers in the Z direction.
  • the object 70 to be detected by the observer H is detected by the frame-shaped position detection sensor 40.
  • the two-dimensional position detection sensor and the three-dimensional position detection sensor described above are used.
  • the detected object 70 of the observer H may be detected by a device other than the above.
  • the position of the detected object 70 of the observer H may be detected by a camera or the like.
  • the position of the detected object 70 of the observer H is detected by image recognition of color and shape).
  • the haptic device 60 is a device that is arranged on the front surface of the housing 1 and applies a force to the subject 71 of the observer H existing in a predetermined detection area near the stereoscopic image display surface 30.
  • the object to be detected 71 is, for example, a metal (magnetic material) attached to a finger or the like.
  • the detected object 70 and the operated object 71 may be configured to be the same as the finger itself, for example.
  • a force is applied to the object 71 remotely from the outside (see FIG. 1), and a predetermined device itself attached to the object 70 generates a force (see FIG. 1). There are two ways (not shown).
  • the haptic device 60 may be an electromagnet that generates magnetic force, a wind generator that generates wind, or the like.
  • an electromagnet is used as the haptic device 60, a plurality of electromagnets are arranged on the outer frame around the stereoscopic image display surface 30, and a current is passed through the electromagnet, so that the object attached to the detection object (finger) 70.
  • a magnetic force can be applied to the acting body (metal, etc.) 71.
  • the observer H can be given a sense of being pulled in the direction of the electromagnet that has passed the current.
  • a plurality of wind pressure generators are installed on the outer frame around the three-dimensional image display surface 30 and the wind generator generates the wind, thereby detecting the object to be detected.
  • (Finger) Actuated body attached to 70 (wind pressure receiver like a sail or finger itself) 7 1 It is possible to apply wind force to the observer 1, and as a result, the observer H has a wind generator that generates wind force. A sense of being away from the direction can be given.
  • an electromagnet that generates a magnetic force when the predetermined device itself attached to the detected object 70 generates a force, as the kap device 60, an electromagnet that generates a magnetic force, a wind force generator that generates wind force, and a vibration device, etc. Is assumed.
  • an electromagnet is used as the haptic device 60, a metal outer frame is arranged around the three-dimensional image display surface 30 and a current is passed through the electromagnet attached to the finger so that the electromagnet is magnetically applied to the metal outer frame. The electromagnet may be attracted to the metal outer frame.
  • the wind power generator when the wind power generator is used as the haptic device 60, the wind power generator may be attached to the finger so that the force is directly felt in the direction opposite to the wind generated by the finger.
  • a vibration device when used as the haptic device 60, a vibration device having a noise function is directly attached to the finger or hand, and a vibration is imparted to the finger or hand so that a tactile sensation is easily provided. May be.
  • the direction of the applied force cannot be controlled accurately, but even if it touches a three-dimensional two-dimensional image, it can be influenced by vision and give a sense. It is also possible to make the observer H feel the approximate direction of the force by attaching multiple vibration devices to the finger or hand.
  • the haptic device 60 attached to the detected body 70 is connected to the haptic device driving unit 6 by wire or wirelessly. It comes to be driven and controlled!
  • the haptic device 60 shown in FIG. 2 has electromagnets 61 arranged on each side of the outer frame around the stereoscopic image display surface 30 and is parallel to the stereoscopic image display surface 30, that is, within the stereoscopic image display surface 30.
  • the force is applied in the predetermined direction. For example, when the force Fa in the + X direction is to be applied to the metal 71, the electromagnet 6la is driven. In this case, the finger 70 can be given a feeling of being pulled in the + X direction.
  • the finger 70 is given a feeling of being pulled in the + Y direction. it can.
  • the electromagnets 61a and 61b may be driven simultaneously (the force Fa acts in the + X direction and the force Fb acts in the + Y direction. In this case, the finger 70 can be given a sensation of being pulled diagonally upward to the right. In FIG.
  • the display drive unit 3 controls the drive of the display unit 10 according to the image sent from the control unit 8. More specifically, the display drive unit 3 receives the image data generated by the image generation unit 7 via the control unit 8, and displays an image corresponding to the image data on the image display surface 11 of the display unit 10. It becomes.
  • the audio driving unit 5 is configured to drive and control the audio output unit 50, and to output predetermined audio from the audio output unit 50 in response to an instruction from the control unit 10.
  • the sensor driving unit 4 drives the position detection sensor 40 and receives a detection signal indicating the position detected from the position detection sensor 40.
  • the received detection signal is sent to the control unit 8
  • the control unit 8 instructs the image generation unit 7 to generate an image corresponding to the detection signal, and the generated image is displayed on the image display surface 11 of the display unit 11 via the display driving unit 3. Or a sound corresponding to the generated image is output from the sound output unit 50, or a force corresponding to the detection signal is applied to the object 71 via the haptic device 6.
  • the image generation unit 7 generates image data to be displayed on the display unit 10, and is configured to generate an image according to a predetermined program, for example.
  • the image generation unit 7 may include an image storage unit in which a predetermined image is stored in advance, and may be configured to output the stored image to the control unit 8 in response to an instruction from the control unit 8. .
  • the control unit 8 receives the signal output from the position detection sensor 40 via the sensor driving unit 4, and displays the image corresponding to the output signal until now according to the output signal of the position detection sensor 40.
  • the displayed image power is also switched and displayed. That is, the control unit 8 controls the display unit 10 so as to change the image according to the position of the detection target 70 of the observer H, and thereby the stereoscopic image formed on the stereoscopic image display surface 30 in space.
  • the target two-dimensional image is changed.
  • control unit 8 receives the signal output from the position detection sensor 40 via the sensor driving unit 4, and changes the force applied to the object 71 according to the output signal of the position detection sensor 40. It has become to let you. That is, the control unit 8 controls the haptic device 60 so as to change the magnitude and direction of the force to be generated according to the position of the detected object 70 of the observer H. I change my senses.
  • control unit 8 changes the force applied to the object 71 in accordance with the contents of the image data generated from the image generation unit 7. That is, the control unit 8 controls the katsu device 60 so as to change the magnitude and direction of the force to be generated according to the content of the image, thereby changing the katsu sense felt by the observer H.
  • the stereoscopic two-dimensional image display apparatus 100 changes the image according to the position of the detected object 70 of the observer H, or changes the position to the detected object 70 of the observer H. Therefore, it is possible to change the sensation presented to the observer H, or to change the sensation presented to the observer H according to the content of the image, so that more effective stereoscopic display can be achieved and more rear view can be achieved. Use as an interactive communication tool with high amusement can do.
  • the position detection sensor 40 and the haptic device 60 as shown in FIG. 2, that is, the position detection sensor 40 on the frame arranged around the stereoscopic image display surface 30, and the stereoscopic image display surface A case where an electromagnet 61 is provided on each side of the outer frame near the 30 circumference and a force is applied to the metal 71 attached to the finger 70 will be described.
  • FIG. 3 is a diagram showing a schematic configuration of the stereoscopic two-dimensional image display apparatus 1 OOA of the first embodiment.
  • the stereoscopic two-dimensional image display device 100A includes, as the position detection sensor 40, a two-dimensional position detection sensor that can detect a position in the stereoscopic image display surface 30 (position coordinates on the XY plane), and As the haptic device 60, a haptic device that applies a force in a direction parallel to the stereoscopic image display surface 30 (XY plane) is provided. As shown in FIG.
  • the stereoscopic two-dimensional image display device 100A is configured such that when the finger 70 of the observer H touches a predetermined stereoscopic two-dimensional image P displayed on the stereoscopic image display surface 30, the metal 71
  • force F is applied to the two-dimensional image P and the finger 70 is released from the two-dimensional image P (touching the three-dimensional two-dimensional image P)
  • control is performed without applying the force F. That is, when the position of the finger 71 is detected from the position detection sensor 40 and it is determined that the three-dimensional two-dimensional image P is touched from the detected position coordinate, the force F is applied. If it is determined that the three-dimensional two-dimensional image P is touched, the three-dimensional two-dimensional image P may be changed and the force F may be applied.
  • the haptic control in the present embodiment can be variously modified.
  • a force F is applied to the metal 71.
  • the stereoscopic two-dimensional image P may be moved in accordance with the moved direction, and the applied force F may be changed.
  • the magnitude and direction of the force applied to the finger 70 that touches the stereoscopic two-dimensional image P may be changed according to the content of the displayed stereoscopic two-dimensional image P (the wind blows).
  • Force F is applied, and if it is a three-dimensional two-dimensional image P in which water is flowing, force F is applied from upstream to downstream on the image.
  • a strong force F may be applied to a rapid river, and a weak force F may be applied to a slow river).
  • FIG. 4 is an example of a stereoscopic two-dimensional image P1 displayed by the stereoscopic two-dimensional image display device 100A.
  • the stereoscopic two-dimensional image P1 shown in FIG. 4 is an image of a waterfall.
  • the stereoscopic two-dimensional image display device 100A puts the finger 70 when the finger 70 is placed at the position of the waterfall of the stereoscopic two-dimensional image PI (the portion where water flows).
  • a three-dimensional two-dimensional image P1 that generates splashes at the position is displayed, and a downward force F1 is applied to the metal 71 attached to the finger 70 to put the finger into the water that actually falls under the upper force. It gives the feeling of time. Note that even if you put your finger 70 in a place other than the waterfall position, no force is applied to the metal 71.
  • the stereoscopic two-dimensional image display device 100A responds to the movement of the finger 70 as shown in FIG. 4 (b).
  • 3D image P 1 where the position of splashing has moved up is displayed and a downward force F2 (> F1) is applied to the metal 71 attached to the finger 70 to
  • F2 higher force
  • the stereoscopic two-dimensional image display device 100A responds to the movement of the finger 70 as shown in FIG. 4 (c).
  • the downward force F3 ((F1) is applied to the metal 71 attached to the finger 70, and the upper force actually falls down into the water.
  • the observer H According to the stereoscopic two-dimensional image display device 100A of the first embodiment, according to the position of the detection object 70 of the observer H and the content of the stereoscopic two-dimensional image P, the observer H's By controlling the magnitude and direction of the force F acting on the subject 71 and applying a parallel force F to the stereoscopic image display surface 30, the viewer H feels like being pulled or pushed up and down or left and right. give be able to.
  • the force applied to the metal 71 by the haptic device 60 is always the actual force (the force actually felt when a finger is put into the waterfall). It may be weaker than the actual force. This is because the human sense is strongly influenced by vision, so that the observer H can feel a force sense that is close to the actual sense, even with a power that assists the vision.
  • FIG. 5 is a diagram showing a schematic configuration of the stereoscopic two-dimensional image display apparatus 1 OOB of the second embodiment.
  • the stereoscopic two-dimensional image display device 100B includes a two-dimensional position detection sensor capable of detecting a position (position coordinates on the XY plane) in the stereoscopic image display surface 30 as the position detection sensor 40, and In addition to the direction parallel to the stereoscopic image display surface 30 (X-Y plane), the visual device 60 that applies force in the depth direction (Z direction) perpendicular to the stereoscopic image display surface 30 is used. I have.
  • the haptic device 60 is disposed in front of and behind the stereoscopic image display surface 30 (in the Z direction), respectively! Because of sneaking (the haptic device 60 shown in the first embodiment is arranged in front of and behind the three-dimensional image display surface 30), it is pushed back (force acting in the Z-axis direction) and pulled back. A sensation (force acting in the -Z axis direction) can be given to the observer H.
  • the opposite of the haptic devices 60 arranged in front of the observer H By driving the electromagnets 61 on the two sides, the force in the + Z-axis direction can be applied to the metal 71.
  • a force in the Z-axis direction can be applied to the metal 71.
  • the force F can be applied to the direction of displacement in the vertical and horizontal directions, depending on the position of the subject 71 and the electromagnet to be driven.
  • FIG. 6 shows an example of a stereoscopic two-dimensional image P2 displayed by the stereoscopic two-dimensional image display device 100B.
  • the stereoscopic two-dimensional image P2 shown in FIG. 6A is a cloud image
  • the stereoscopic two-dimensional image P2 shown in FIG. 6B is a box image.
  • 3D drawing The image display device 100B displays a three-dimensional cloud two-dimensional image P2 as shown in FIG. 6 (a), and if the observer H's finger 70 touches the three-dimensional two-dimensional image P2, the observer The metal 71 attached to the finger 70 of H applies a weak force in the + Z-axis direction so that it changes gently and pushes back the finger 70 so that it is light and elastic.
  • the observer H According to the stereoscopic two-dimensional image display device 100B of the second embodiment, according to the position of the detection object 70 of the observer H and the content of the stereoscopic two-dimensional image P, the observer H's By controlling the magnitude and direction of the force F acting on the subject 71 and applying force to the stereoscopic image display surface 30 up, down, left, and right, the feeling of being pulled back and pushed back It is possible to give to the observer H, and it is possible to give the observer H a soft or hard feeling when touching an object.
  • FIG. 7 is a diagram illustrating a schematic configuration of a stereoscopic two-dimensional image display device 100C according to the third embodiment.
  • the stereoscopic two-dimensional image display device 100C includes a three-dimensional position detection sensor capable of detecting the position of a three-dimensional space including the stereoscopic image display surface 30 as the position detection sensor 40 (or detects a three-dimensional position using a camera or the like).
  • the stereoscopic image display surface 30 can be used as the haptic device 60 as in the second embodiment. It is equipped with a haptic device that applies force in the depth direction (Z direction) perpendicular to the surface.
  • the display unit 10A includes a plurality of display units having parallel image display surfaces.
  • the first display unit 10 and the second display unit (located in the center) Display section) 90 and the third display section (display section located on the rightmost side) 90 include an image display surface 91 for displaying a two-dimensional image, and are on the optical axis of the image transmission panel 20, and the first display unit 10 and the image transmission panel 20 of Arranged between.
  • the second display unit 90 and the third display unit 90 are light transmissive from the surface facing the image display surface 11 toward the image display surface 91, and light emitted from the first display unit 10.
  • the third display unit 90 transmits both the light emitted from the first display unit 10 and the light emitted from the second display unit 90).
  • the second display unit 90 for example, a light-transmitting organic EL display device which is a self-luminous display device is suitable.
  • three parallel stereoscopic image display surfaces 30A, 30B, and 30C are defined according to the working distance of the microlens array 20, and each of the stereoscopic image display surfaces 3OA, 30B is defined.
  • 3D images P are displayed on 30C and 30C, respectively. That is, the image emitted from the image display surface 11 of the first display unit 10 is displayed on the first stereoscopic image display surface 30C, and the image emitted from the image display surface 91 of the second display unit 90 is converted to the second stereoscopic image.
  • the image displayed on the image display surface 30B and emitted from the image display surface 91 of the third display unit 90 is displayed on the third stereoscopic image display surface 30A.
  • FIG. 8 shows an example of a stereoscopic two-dimensional image P4 displayed by the stereoscopic two-dimensional image display device 100C.
  • the stereoscopic two-dimensional image P4 shown in FIG. 8 (a) is an image of a box displayed on the stereoscopic image display surface 30C (surface closest to the observer H)
  • FIG. 8 (b) The stereoscopic two-dimensional image P4 shown is a box image displayed on the stereoscopic image display surface 30A (surface farthest from the observer H).
  • FIG. 8 shows an example of a stereoscopic two-dimensional image P4 displayed by the stereoscopic two-dimensional image display device 100C.
  • the stereoscopic two-dimensional image P4 shown in FIG. 8 (a) is an image of a box displayed on the stereoscopic image display surface 30C (surface closest to the observer H)
  • FIG. 8 (b) The stereoscopic two-dimensional image P4 shown is a box image displayed on the stereoscopic image display surface 30
  • the stereoscopic two-dimensional image display device 100C displays the stereoscopic two-dimensional image P4 on the stereoscopic image display surface 30C, which is the front surface, and the finger 70 of the observer H is stereoscopically displayed.
  • the force of the metal 71 z + attached to the finger 70 of the observer H + Z direction is applied to make the observer H feel the repulsive force.
  • the observer H moves the finger 70 slightly backward (the position detection sensor 40 detects the movement of the finger 70 in the Z-axis direction), and the observer H's finger 70
  • the 3D image P4 displayed on the 3D image display surface 30C is displayed on the 3D image display surface 30A, which is the back surface, and No force is applied to the metal 71 attached to 70. That is, in the example shown in FIG. 8, when the observer H pushes the stereoscopic two-dimensional image P4, the stereoscopic two-dimensional image P4 moves to the back, and as a result, the finger 70 of the observer H is three-dimensional. The observer H can no longer touch the two-dimensional image P4. Can produce an effect of not feeling rebound.
  • the stereoscopic two-dimensional image display device 100C of the third embodiment the three-dimensional position of the object 70 to be detected by the observer H can be detected and the plurality of stereoscopic image display surfaces 30 can be detected. Since the stereoscopic two-dimensional image P can be displayed, more complicated image control and haptic control according to the accurate position detection of the detected object 70 becomes possible.
  • the stereoscopic two-dimensional image display device 100 is separated from the display unit 10 including the image display surface 11 that displays a two-dimensional image and the image display surface 11.
  • the image transmission panel 20 is arranged in such a manner that the light emitted from the image display surface 11 is imaged on the imaging surface 30 in the space located on the opposite side of the display unit 10 of the image transmission panel 20.
  • a control unit 8 for controlling the direction.
  • the stereoscopic two-dimensional image display device 100 is disposed separately from the display unit 10 including the image display surface 11 that displays a two-dimensional image and the image display surface 11.
  • the image transmission panel 20, and the light emitted from the image display surface 11 is imaged on the imaging surface 30 in the space located on the opposite side of the display unit 10 of the image transmission panel 20,
  • the stereoscopic image display unit 2 that displays a stereoscopic two-dimensional image
  • the haptic device 60 that applies a force to the subject 71 near the imaging plane 30, and the contents of the two-dimensional image displayed on the image display plane 11
  • the force sense device 60 has a control unit 8 that controls the magnitude and direction of the force that the force device 60 acts on the subject 71, so that the observer can be given a sense of sensation, and thus more effective.
  • 3D display is possible, and the presence and amusement can be improved.
  • the naked-eye three-dimensional stereoscopic system can be realized by a method different from the stereoscopic two-dimensional image display apparatus according to the embodiments and examples of the present invention, but the embodiment of the present invention is not limited. And direct contact with a stereoscopic image as in the stereoscopic two-dimensional image display device according to the embodiment. And you can't get a feel.
  • there are a parallax barrier method and a lenticular method as a method for realizing a three-dimensional stereoscopic system without using glasses. In either method, the right eye shows the right image and the left eye shows the left image.
  • the focus position (image display surface) of the observer's eyes is different from the position where the 3D image (virtual image) is displayed. Therefore, if you try to touch the 3D image, The focus position of the eye moves to the position of the finger trying to touch the 3D image (virtual image), and the 3D image cannot be viewed correctly. In other words, with the parallax barrier method or the lenticular method, it is not possible to directly touch and feel the stereoscopic image.
  • the stereoscopic two-dimensional image displayed by the stereoscopic two-dimensional image display apparatus according to the embodiment and the example of the present invention is a real image formed by the microlens array 20, and therefore, the stereoscopic two-dimensional image is displayed. Even if you bring your hand to the position of the image, you can touch it directly without feeling uncomfortable, and you can also feel the insects.
  • the magnitude of the force may be controlled by feeding back the position of the detected object 70 in this way.
  • the current flowing through the electromagnet 61 is controlled according to the distance between the subject 71 and the magnet 61. It is. This is because if the same current is always applied to the electromagnet 61, the magnitude of the magnetic force changes depending on the distance between the electromagnet 61 and the subject 71 (the magnetic force is inversely proportional to the square of the distance).
  • the position of the object 70 in order to apply a certain amount of force to the object 71, the position of the object 70 This is because it is necessary to feed back to the device driving unit 6 and control the current flowing through the magnet 61 depending on the distance between the object 71 and the electromagnet 61.
  • an alarm or warning may be given.
  • a vibration device equipped with a vibration function is attached to the finger 70 as the haptic device 60, if the finger 70 is inserted beyond the allowable depth, strong vibration is applied and the finger is moved to the allowable position. If 70 is returned, strong vibrations may be settled.
  • the form of the activator 71 used in the above embodiment and examples is not particularly limited, and various forms can be adopted depending on the purpose.
  • it may be attached in a sac shape, that is, so as to be put on the finger, and may be fixed to the finger to some extent.
  • the observer H can feel the fine movement of the subject 71 as a haptic sensation.
  • the ring shape as shown in FIG. 9 (b) allows the object 71 to move along the finger 70, that is, the ring diameter is slightly larger than the thickness of the finger 70, The finger 70 may be slidable.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

立体的二次元画像表示装置100は、二次元画像を表示する画像表示面11を備えた表示部10と、画像表示面11に離間して配置されたマイクロレンズアレイ20と、から構成され、画像表示面11から出射される光をマイクロレンズアレイ20の表示部10とは反対側に位置する空間中の結像面30に結像して、立体的二次元画像を表示する立体画像表示部2と、結像面30に触れた観察者の被検出体70の位置を検出する位置検出センサ40と、被検出体70に装着した被作用体71に力を作用させる力覚デバイス60と、位置検出センサ40によって検出された被検出体70の位置に応じて、力覚デバイス60が被作用体71に作用させる力の大きさ及び方向を制御する制御部8と、を有する。

Description

明 細 書
立体的二次元画像表示装置
技術分野
[0001] 本発明は、二次元画像を擬似立体的に表示する立体的二次元画像表示装置に関 する。
背景技術
[0002] マイクロレンズアレイ (画像伝達パネル)を、二次元画像の表示面の前方に所定の 間隔を隔てて配置することにより、マイクロレンズアレイの前方の空間上に、二次元画 像の擬似立体画像を表示する立体的二次元画像表示装置が知られている(例えば 、特許文献 1、特許文献 2参照。 )0
[0003] 特許文献 1 :特開 2001— 255493号公報
特許文献 2:特開 2003 - 98479号公報
発明の開示
発明が解決しょうとする課題
[0004] ところで、上述した従来の立体的二次元画像表示装置は、単に二次元画像を立体 的に表示させ、観察者は、ただ受動的な立場で表示された立体的二次元画像を視 認するだけである。すなわち、観察者が表示された立体的二次元画像に対して何ら かのアクションを行うことができず、インタラクティブ性を有するコミュニケーションツー ルとはなっていない。このため、インタラクティブ性を有するコミュニケーションツール としての立体的二次元画像表示装置が望まれて!/ヽた。
[0005] 例えば、観察者が空中に表示された立体的二次元画像に触れることによって、表 示された立体的二次元画像を変化させたり、感触を与えたりすれば、より効果的な立 体表示ができ、臨場感やアミューズメント性を向上させることができる。
[0006] 本発明は、上記の事情を鑑みてなされたものであり、その課題の一例としては、観 察者にカ覚を与えることができる立体的二次元画像表示装置を提供することにある。 課題を解決するための手段
[0007] 上記の課題を達成するため、請求項 1記載の立体的二次元画像表示装置は、二 次元画像を表示する画像表示面を備えた表示部と、前記画像表示面に離間して配 置された画像伝達パネルと、から構成され、前記画像表示面から出射される光を前 記画像伝達パネルの前記表示部とは反対側に位置する空間中の結像面に結像して 、立体的二次元画像を表示する立体画像表示手段と、前記結像面近傍における被 検出体の位置を検出する位置検出手段と、前記被検出体の一部又は全部である被 作用体に力を作用させるカ覚提示手段と、前記位置検出手段によって検出された被 検出体の位置に応じて、前記カ覚提示手段が前記被作用体に作用させる力の大き さ及び方向を制御するカ覚制御手段と、を有することを特徴とする。
[0008] また、請求項 3記載の立体的二次元画像表示装置は、二次元画像を表示する画像 表示面を備えた表示部と、前記画像表示面に離間して配置された画像伝達パネルと 、から構成され、前記画像表示面から出射される光を前記画像伝達パネルの前記表 示部とは反対側に位置する空間中の結像面に結像して、立体的二次元画像を表示 する立体画像表示手段と、前記結像面近傍における被作用体に力を作用させる力 覚提示手段と、前記画像表示面に表示される二次元画像の内容に応じて、前記力 覚提示手段が前記被作用体に作用させる力の大きさ及び方向を制御するカ覚制御 手段と、を有することを特徴とする。
図面の簡単な説明
[0009] [図 1]本発明の実施の形態に係る立体的二次元画像表示装置の構成図である。
[図 2]本発明の実施の形態に係る立体的二次元画像表示装置における位置検出及 びカ覚提示の一例を説明する図である。
[図 3]本発明の実施の形態に係る立体的二次元画像表示装置の一実施例を説明す る図である。
[図 4]図 3に示す一実施例において、指の位置に応じてカ覚を変化させる具体例を 説明する図である。
[図 5]本発明の実施の形態に係る立体的二次元画像表示装置の別の実施例を説明 する図である。
[図 6]図 5に示す一実施例にお ヽて、表示される画像に応じてカ覚を変化させる具体 例を説明する図である。 [図 7]本発明の実施の形態に係る立体的二次元画像表示装置の別の実施例を説明 する図である。
[図 8]図 7に示す一実施例において、指の位置に応じて画像を変化させ、カ覚を変化 させる具体例を説明する図である。
[図 9]本発明の実施の形態に係る立体的二次元画像表示装置に用いられる被作用 体の形状の一例を示す図である。
符号の説明
1 筐体
2 立体画像表示部
3 ディスプレイ駆動部
4 センサ駆動部
5 オーディオ駆動部
6 カ覚デバイス駆動部
7 画像生成部
8 制御部
10 表示部
11 画像表示面
20 マイクロレンズアレイ
21 レンズアレイ半体
22 透明基板
23 マイクロ凸レンズ
30 立体画像表示面
40 位置検出センサ
50 音声出力部
60 カ覚デバイス
61a, 61b, 61c, 61d 電磁石
70 被検出体 (指)
71 被作用体 (金属) 100, 100A, 100B, 100C 立体的二次元画像表示装置
発明を実施するための最良の形態
[0011] 以下、本発明の実施の形態を図面を用いて説明する。
[0012] 図 1は、本発明の実施の形態に係る立体的二次元画像表示装置 100の構成図で ある。立体的二次元画像表示装置 100は、観察者が立体表示であると視認可能な 二次元画像を空間中の所定の平面上に表示する擬似立体画像表示装置である。
[0013] 立体的二次元画像表示装置 100は、表示部 10及びマイクロレンズアレイ 20 (画像 伝達パネル)から構成され、二次元画像を空間中の平面上に表示する立体画像表 示部 2を筐体 1の中に備えている。また、立体的二次元画像表示装置 100は、筐体 1 上に、効果音や人の声などの音声を出力する音声出力部 50、空間中に表示された 二次元画像の位置に対応付けて配置され、観察者 Hの被検出体 (例えば、指など) 7 0の位置を検出する位置検出センサ 40、及び観察者 Hの被検出体 70に装着された 被作用体 (例えば、金属など) 71に力を作用させるカ覚デバイス 60を備えている。こ こで、カ覚とは、物体に触れているときに生じる感覚を意味し、物体の硬さや物体の 形状を認識する感覚である。すなわち、立体的二次元画像表示装置 100は、表示さ れた擬似立体画像に観察者 Hが触れた場合には、観察者 Hに力を作用させ、物に 触れて 、るような感覚を提示する装置でもある。
[0014] また、立体的二次元画像表示装置 100には、上述した表示部 10を駆動制御する ディスプレイ駆動部 3、位置検出センサ 40を駆動するとともに、位置検出センサ 40を 介して検出された検出信号を受け取るセンサ駆動部 4、音声出力部 50を駆動制御 するオーディオ駆動部 5、カ覚デバイス 60を駆動制御するカ覚デバイス駆動部 6、表 示すべき画像データを生成する画像生成部 7、並びに画像表示、音声出力及び力 覚提示に関する全体的な制御を行う制御部 8を筐体 1に隣接して設けている。なお、 本実施形態に係る立体的二次元画像表示装置 100にお ヽては、ディスプレイ駆動 部 3、センサ駆動部 4、オーディオ駆動部 5、カ覚デバイス駆動部 6、画像生成部 7及 び制御部 8を、筐体 1とは物理的に別な構成とした力 同一の筐体内にすべての構 成要素を包含するような構成であってもよ 、。
[0015] 表示部 10は、観察者 Hと対向する、筐体 1の一内側面に沿って設けられ、二次元 画像を表示する画像表示面 11を備えている。具体的には、表示部 10は、液晶ディス プレイ、 EL (electro- luminescence)パネル、 CRT (Cathode Ray Tube)等のディスプ レイから構成されており、ディスプレイ駆動部 6の駆動信号に応じた画像を画像表示 面 11に表示するようになっている。すなわち、画像表示面 11から画像に応じた光が 出射される。なお、表示部 10としては、薄型化された画像表示面である液晶ディスプ レイや ELパネル等のパネルディスプレイが好適である。
[0016] マイクロレンズアレイ 20は、 2枚のレンズアレイ半体 21が互いに平行に配列されて 構成されている。各レンズアレイ半体 21は、透光性に優れたガラスまたは榭脂からな る透明基板 22の両面に、同一の曲率半径を有する複数の微小なマイクロ凸レンズ 2 3をマトリクス状に互いに隣接配置したものである。一面に形成された各マイクロ凸レ ンズ 23の光軸は、対向する位置に形成された他面のマイクロ凸レンズ 23の光軸と同 一となるように調整されている。すなわち、同一の光軸を有するように調整されたマイ クロ凸レンズ 23の各対は、それぞれの光軸が互いに平行になるように、 2次元状(図 1の X— Y平面)に配列されている。
[0017] マイクロレンズアレイ 20は、表示部 10の画像表示面 11に対して平行に所定距離( マイクロレンズアレイ 20の作動距離)だけ離れた位置に配置されて!、る。マイクロレン ズアレイ 20は、表示部 10の画像表示面 11から出射した画像に対応する光を画像表 示面 11と反対側の所定距離 (マイクロレンズアレイ 20の作動距離)だけ離れた立体 画像表示面 30上に結像させることにより、画像表示面 11に表示された画像を空間上 の二次元平面である立体画像表示面 30上に表示するようになって 、る。この結像さ れた画像は二次元画像である力 その画像が奥行き感を持つものである場合やディ スプレイ上の背景画像が黒くコントラストが強調されているような場合には、空間上に 浮いて表示されることから、正面の観察者 Hからは、あた力も立体画像が映し出され ているように見える。以下、立体画像表示面 30に表示される二次元画像を立体的二 次元画像という。このように、本実施の形態においては、表示部 10とマイクロレンズァ レイ 20によって、画像に対応する光を立体画像表示面 30 (すなわち結像面)に結像 して立体的二次元画像を表示する立体画像表示部 2を構成している。
[0018] ここで、立体画像表示面 30は、空間上に仮想的に設定される平面であって実体物 ではなぐマイクロレンズアレイ 20の作動距離に応じて定義される空間上の 1平面で ある。そのため、筐体 1の前面は、立体画像表示面 30上に表示される画像を正面か ら見ることができるように開口されて 、る。
[0019] 位置検出センサ 40は、筐体 1の前面に配置され、立体画像表示面 30近傍の所定 の検出領域内に存在する観察者 Hの被検出体 (例えば、指など) 70の位置を検出す るセンサである。例えば、立体画像表示面 30上の位置(図 1の X—Y座標)を検出可 能な二次元位置検出センサとして、立体的二次元画像に触れる観察者 Hの被検出 体の位置を検出するようにしてもよい。また、立体画像表示面 30上の位置だけでは なぐ立体画像表示面 30に垂直な奥行き方向(図 1の Z方向)の位置(図 1の Z座標) も検出可能な三次元位置検出センサであってもよい。
[0020] 具体的には、二次元位置検出センサに光学式センサを採用する場合には、図 2に 示すように、検出平面 (例えば、立体画像表示面 30)の周囲に外枠を設け、外枠上 に枠状の二次元位置検出センサ 40を配置する。すなわち、外枠の四辺のうち、 Y方 向に平行な二辺の一方に X方向検出用ラインセンサの発光部、他方に受光部を設け 、 X方向に平行な二辺の一方に Y方向検出用ラインセンサの発光部、他方に受光部 を設けることにより、被検出体 70が検出平面を横切った際の X—Y平面上の位置座 標を割り出すことができる。
[0021] また、三次元位置検出センサに光学式センサを採用する場合には、立体画像表示 面 30を含む空間を検出領域とするように、例えば、図 2に示す二次元位置検出セン サを Z方向に複数層に配列することで構成することができる。
[0022] なお、本実施の形態では、枠状の位置検出センサ 40により観察者 Hの被検出体 7 0を検知するようにしたが、上述した二次元位置検出センサや三次元位置検出セン サ以外の装置により観察者 Hの被検出体 70を検知してもよいのは勿論であり、例え ば、カメラ等により観察者 Hの被検出体 70の位置を検知するようにしてもょ 、 (色や 形の画像認識により、観察者 Hの被検出体 70の位置を検知する)。
[0023] カ覚デバイス 60は、筐体 1の前面に配置され、立体画像表示面 30近傍の所定の 検出領域内に存在する観察者 Hの被作用体 71に力を作用させる装置である。ここで 、被作用体 71は、例えば、指に装着される金属 (磁性体)などのように、被検出体 70 の一部に含まれる構成であってもよいし、また、例えば、指自身のように、被検出体 7 0と被作用体 71を同一とする構成であってもよい。カ覚デバイス 60としては、外部か ら遠隔的に被作用体 71に力を作用させる形態 (図 1参照)と、被検出体 70に装着し た所定の装置自体が力を発生する形態(図示せず)の 2通りが存在する。
[0024] 例えば、外部力も遠隔的に被作用体 71に力を作用させる場合には、カ覚デバイス 60として、磁力を発生させる電磁石、風力を発生させる風力発生装置などが想定さ れる。電磁石をカ覚デバイス 60として用いる場合には、立体画像表示面 30周囲の 外枠上に複数の電磁石を配置し、この電磁石に電流を流すことによって、被検出体( 指) 70に装着した被作用体 (金属など) 71に磁力を作用させることができ、この結果、 観察者 Hには電流を流した電磁石の方向に引っ張られる感覚を与えることができる。 また、風力発生装置をカ覚デバイス 60として用いる場合には、立体画像表示面 30 周囲の外枠上に複数の風圧発生装置を設置し、風力発生装置が風を発生させること によって、被検出体 (指) 70に装着した被作用体 (帆のような風圧受け又は指自身) 7 1に風力を作用させることができ、この結果、観察者 Hには風力を発生させた風力発 生装置の方向から遠ざけられるような感覚を与えることができる。
[0025] また、被検出体 70に装着した所定の装置自体が力を発生する場合には、カ覚デ バイス 60として、磁力を発生させる電磁石、風力を発生させる風力発生装置、及び 振動装置などが想定される。電磁石をカ覚デバイス 60として用いる場合には、立体 画像表示面 30周囲に金属製の外枠を配置し、指に装着した電磁石に電流を流すこ とによって、電磁石が金属製の外枠に磁力を作用させ、電磁石が金属製の外枠に引 き寄せられるようにしてもよい。また、風力発生装置をカ覚デバイス 60として用いる場 合には、指に風力発生装置を装着し、指が発生する風とは逆の方向に力を直接感じ るようにしてもよい。さらには、振動装置をカ覚デバイス 60として用いる場合には、指 や手に直接、ノイブレーシヨン機能を備える振動装置を装着し、指や手にバイブレー シヨンを与えることで、容易に触感を与えてもよい。この場合には、作用させる力の方 向を正確に制御することはできないが、立体的二次元画像に触れると振動するだけ でも、視覚に影響されて感覚を与えることができる。また、複数の振動装置を指や手 に装着することで、観察者 Hに力のおおよその方向を感じさせることも可能である。な お、被検出体 70に装着した所定の装置自体が力を発生する場合においては、被検 出体 70に装着したカ覚デバイス 60は、有線又は無線によりカ覚デバイス駆動部 6と 接続されて ヽて、駆動制御されるようになって!/ヽる。
[0026] ここで、カ覚デバイス 60として電磁石 61を採用し、電磁石 61が指 70に装着した金 属 71に力を作用させる場合を、図 2を参照して具体的に説明する。図 2に示すカ覚 デバイス 60は、立体画像表示面 30周囲の外枠上の各辺に電磁石 61をそれぞれ配 置し、立体画像表示面 30に平行な方向、すなわち、立体画像表示面 30内の所定の 方向に力を作用させるようになつている。例えば、金属 71に +X方向の力 Faを作用 させたいときには、電磁石 6 laを駆動させればよぐこの場合、指 70には +X方向に 引っ張られる感覚を与えることができる。また、同様にして、金属 71に +Y方向の力 F bを作用させたいときには、電磁石 6 lbを駆動させればよぐこの場合、指 70には +Y 方向に引っ張られる感覚を与えることができる。さらには、金属 71に右斜め上方の力 Fabを作用させたいときには、電磁石 61a及び 61bを同時に駆動させればよく(+X 方向に力 Fa、 +Y方向に力 Fbの力が作用するので、ベクトルの総和として、右斜め 上方の力 Fabが作用する)、この場合には、指 70には右斜め上方に引っ張られる感 覚を与えることができる。なお、図 2においては、電磁石 61を各辺に 1つずつ配置す る構成を採用したが、電磁石 61の配置構成はこれに限定されず、その他の構成、例 えば、より多くの電磁石 61を配置する構成 (各辺に複数の電磁石を配置するなど)を 採用し、金属 71に作用させる力の大きさ及び方向をよりきめ細力べ制御できるようにし てもよい。
[0027] ディスプレイ駆動部 3は、制御部 8から送られる画像に応じて表示部 10を駆動制御 するようになつている。より詳しくは、ディスプレイ駆動部 3は、画像生成部 7により生 成された画像データを制御部 8を介して受け取り、その画像データに対応した画像を 表示部 10の画像表示面 11に表示させるようになって 、る。
[0028] オーディオ駆動部 5は、音声出力部 50を駆動制御するようになっており、制御部 10 力もの指示に応じて所定の音声を音声出力部 50から出力させるようになって 、る。
[0029] センサ駆動部 4は、位置検出センサ 40を駆動し、位置検出センサ 40から検出した 位置を示す検出信号を受け取るようになつている。受け取った検出信号は、制御部 8 に送られ、制御部 8は、この検出信号に応じた画像の生成を画像生成部 7に指示し、 生成された画像をディスプレイ駆動部 3を介して表示部 11の画像表示面 11に表示さ せたり、生成された画像に対応した音声を音声出力部 50から出力させたり、カ覚デ バイス 6を介して検出信号に応じた力を被作用体 71に作用させるようになつている。
[0030] 画像生成部 7は、表示部 10に表示される画像データを生成するものであり、例えば 所定のプログラムに応じて画像を生成するように構成されている。なお、画像生成部 7は、予め所定の画像が記憶された画像記憶部を備え、制御部 8からの指示に応じ て記憶された画像を制御部 8に出力するように構成してもよ ヽ。
[0031] 制御部 8は、位置検出センサ 40から出力された信号をセンサ駆動部 4を介して受け 取り、位置検出センサ 40の出力信号に応じて、その出力信号に応じた画像を今まで 表示していた画像力も切り換えて表示するようになっている。すなわち、制御部 8は、 観察者 Hの被検出体 70の位置に応じて、画像を変化させるように表示部 10を制御し 、これにより空間上の立体画像表示面 30に結像される立体的二次元画像を変化さ せるようになっている。
[0032] また、制御部 8は、位置検出センサ 40から出力された信号をセンサ駆動部 4を介し て受け取り、位置検出センサ 40の出力信号に応じて、被作用体 71に作用させる力を 変化させるようになつている。すなわち、制御部 8は、観察者 Hの被検出体 70の位置 に応じて、発生させる力の大きさ及び方向を変化させるようにカ覚デバイス 60を制御 し、これにより観察者 Hが感じるカ覚を変化させている。
[0033] さらには、制御部 8は、画像生成部 7から生成される画像データの内容に合わせて 、被作用体 71に作用させる力を変化させるようになつている。すなわち、制御部 8は、 画像の内容に応じて、発生させる力の大きさ及び方向を変化させるようにカ覚デバイ ス 60を制御し、これにより観察者 Hが感じるカ覚を変化させて 、る。
[0034] このように、本実施形態に係る立体的二次元画像表示装置 100は、観察者 Hの被 検出体 70の位置によって映像を変化させたり、観察者 Hの被検出体 70の位置によ つて観察者 Hに提示するカ覚を変化させたり、映像の内容に応じて観察者 Hに提示 するカ覚を変化させたりすることができるので、より効果的な立体表示ができ、よりリア ルで、アミューズメント性の高 、インタラクティブなコミュニケーションツールとして活用 することができる。
[0035] 以下、カ覚制御の具体的内容を説明する。なお、以下の実施例では、図 2に示す ような位置検出センサ 40及びカ覚デバイス 60、すなわち、立体画像表示面 30の周 囲に配置した枠上の位置検出センサ 40、及び立体画像表示面 30周囲近傍の外枠 上の各辺に電磁石 61を設けた場合であって、指 70に装着した金属 71に力を作用さ せる場合について説明する。
実施例 1
[0036] 図 3は実施例 1の立体的二次元画像表示装置 1 OOAの概略構成を示す図である。
立体的二次元画像表示装置 100Aは、位置検出センサ 40として、立体画像表示面 3 0内の位置 (X— Y平面上の位置座標)を検出可能な二次元位置検出センサを備え ており、かつ、カ覚デバイス 60として、立体画像表示面 30 (X—Y平面)に平行な方 向に力を作用させるカ覚デバイスを備えている。立体的二次元画像表示装置 100A は、図 3 (a)に示すように、観察者 Hの指 70が立体画像表示面 30に表示された所定 の立体的二次元画像 Pに触れると、金属 71に力 Fを作用させ、立体的二次元画像 P から指 70を離すと(立体的二次元画像 Pに触れて 、な 、と)、力 Fを作用させな 、制 御を行う。すなわち、位置検出センサ 40から指 71の位置を検出し、検出した位置座 標から立体的二次元画像 Pに触れていると判断したときには、力 Fを作用させるように なっている。なお、立体的二次元画像 Pに触れていると判断したときには、立体的二 次元画像 Pを変化させるとともに、力 Fを作用させるようにしてもょ 、。
[0037] 本実施例におけるカ覚制御はこの他、種々のバリエーションを施せるものである。
例えば、図 3 (b)に示すように、立体的二次元画像 Pを触れていない位置力 指 70を 移動させてきて、立体的二次元画像 Pに触れると、金属 71に力 Fを作用させ、また、 力 Fを作用させた位置力 さらに指 70を上方に移動させると、移動した方向に合わせ て立体的二次元画像 Pを移動させ、かつ作用させる力 Fも変化させるようにしてもよい (立体的二次元画像 Pとして表示された所定の物体に触れて、所定の物体を持ち上 げたイメージ)。また、表示された立体的二次元画像 Pの内容に応じて、立体的二次 元画像 Pに触れる指 70に作用させる力の大きさ及び方向を変化させるようにしてもよ い(風が吹いている立体的二次元画像 Pであれば、画像上の風上から風下にかけて 力 Fを作用させ、また、水が流れている立体的二次元画像 Pであれば、画像上の川 上から川下にかけて力 Fを作用させる。この場合、急流の川の場合には、強い力 Fを 作用させ、緩流な川の場合には、弱い力 Fを作用させるなどしてもよい)。
[0038] 図 4は、立体的二次元画像表示装置 100Aが表示する立体的二次元画像 P1の一 例である。ここで、図 4に示された立体的二次元画像 P1は、滝の画像である。立体的 二次元画像表示装置 100Aは、図 4 (a)に示すように立体的二次元画像 PIの滝の位 置 (水が流れている部分)に指 70を入れると、指 70を入れた位置に水しぶきを発生さ せる立体的二次元画像 P1を表示し、かつ指 70に装着した金属 71に下向きの力 F1 を作用させて、実際に上力 下に落ちる水の中に指を入れたときの感触を与えるよう になっている。なお、滝の位置ではないところに指 70を入れても、金属 71に力は作 用しない。
[0039] そして、図 4 (a)の状態から、指 70を上に移動させると、立体的二次元画像表示装 置 100Aは、図 4 (b)に示すように、指 70の移動に応じて、水しぶきの発生する位置 が上に移動した立体的二次元画像 P 1を表示するとともに、指 70に装着した金属 71 に下向きの力 F2 ( >F1)を作用させて、実際に上から下に落ちる水の中に指 70を入 れて指 70を上に移動させたときの感触、すなわち、水の流れに逆らって指 70を動か しているので、図 4 (a)に示す状態よりも強い力を受ける感触を与えるようになつてい る。
[0040] 一方、図 4 (a)の状態から、指 70を下に移動させると、立体的二次元画像表示装置 100Aは、図 4 (c)に示すように、指 70の移動に応じて、水しぶきの発生する位置が 下に移動した画像 P1を表示するとともに、指 70に装着した金属 71に下向きの力 F3 (く F1)を作用させて、実際に上力も下に落ちる水の中に指 70を入れて指 70を下に 移動させたときの感触、すなわち、水の流れに沿って指 70を動力しているので、図 4 (a)に示す状態よりも弱!ヽカを受ける感触を与えるようになって!/、る。
[0041] このように、実施例 1の立体的二次元画像表示装置 100Aによれば、観察者 Hの被 検出体 70の位置や立体的二次元画像 Pの内容に応じて、観察者 Hの被作用体 71 に作用させる力 Fの大きさや方向を制御し、立体画像表示面 30に対して平行な力 F を与えるので、観察者 Hに上下や左右に引っ張られたり押されたりする感覚を与える ことができる。
[0042] なお、図 4に示した例において、カ覚デバイス 60が金属 71に作用させる力は、必 ずしも実際にかかる力(滝の中に指を入れたときに実際に感じる力)と同一である必 要はなぐ実際よりも弱い力であってもよい。これは、人間の感覚は、視覚からの影響 が強いので、視覚を補助する程度の力であっても、観察者 Hは実際に近い力覚を感 じることができるためである。
実施例 2
[0043] 図 5は実施例 2の立体的二次元画像表示装置 1 OOBの概略構成を示す図である。
立体的二次元画像表示装置 100Bは、位置検出センサ 40として、立体画像表示面 3 0内の位置 (X— Y平面上の位置座標)を検出可能な二次元位置検出センサを備え ており、かつ、カ覚デバイス 60として、立体画像表示面 30 (X—Y平面)に平行な方 向に加えて、立体画像表示面 30に垂直な奥行き方向(Z方向)に力を作用するカ覚 デバイスを備えている。
[0044] 詳しくは、図 5に示すように、カ覚デバイス 60は、立体画像表示面 30の前後(Z方 向)にそれぞれ配置されて!ヽるので (実施例 1に示すカ覚デバイス 60が立体画像表 示面 30の前後にそれぞれ配置されている)、手前に押し戻される感覚(+Z軸方向に 作用する力)及び奥に引っ張られる感覚(-Z軸方向に作用する力)を観察者 Hに与 えることができる。例えば、指 70に装着された金属 71が画像表示面 30に表示された 立体的二次元画像 Pに触れたときに、観察者 Hに対して手前に配置したカ覚デバイ ス 60のうち、対向する二辺のそれぞれの電磁石 61を駆動させれば、 +Z軸方向の力 を金属 71に作用させることができる。また、観察者 Hに対して奥に配置したカ覚デバ イス 60のうち、対向する二辺のそれぞれの電磁石 61を駆動させれば、 Z軸方向の 力を金属 71に作用させることができる。勿論、この他、被作用体 71の位置、及び駆 動させる電磁石の選択によって、上下左右前後の 、ずれの方向に対しても力 Fを作 用させることは可能である。
[0045] 図 6は、立体的二次元画像表示装置 100Bが表示する立体的二次元画像 P2の一 例を示している。ここで、図 6 (a)に示された立体的二次元画像 P2は、雲の画像であ り、図 6 (b)に示された立体的二次元画像 P2は、箱の画像である。立体的二次元画 像表示装置 100Bは、図 6 (a)に示すような雲の立体的二次元画像 P2を表示し、観 察者 Hの指 70が立体的二次元画像 P2に触れた場合には、観察者 Hの指 70に装着 した金属 71には +Z軸方向の全体的に弱い力を、なだらかに変化するように作用さ せ、軽く弾力があるように指 70を押し戻すので、「雲は柔らかい」という感覚を観察者 Hに与えるようになつている。一方、図 6 (b)に示すような箱の立体的二次元画 P3を 表示し、観察者 Hの指 70が立体的二次元画 P3に触れた場合には、観察者 Hの指 7 0に装着した金属 71に + Z軸方向の強い力を瞬間的に作用させて、指 70を押し戻 すので、「箱は硬い」という感覚を与えるようになつている。なお、箱に触れなかった場 合には、観察者 Hの指 70に装着した金属 71に力は作用しな 、。
[0046] このように、実施例 2の立体的二次元画像表示装置 100Bによれば、観察者 Hの被 検出体 70の位置や立体的二次元画像 Pの内容に応じて、観察者 Hの被作用体 71 に作用させる力 Fの大きさや方向を制御し、立体画像表示面 30に対して上下左右前 後に力を作用させることができるので、奥に引っ張られる感覚や手前に押し戻される 感覚を観察者 Hに与えることができ、また、物体に触れたときの柔らかい感覚や硬い 感覚を観察者 Hに与えることができる。
実施例 3
[0047] 図 7は実施例 3の立体的二次元画像表示装置 100Cの概略構成を示す図である。
[0048] 立体的二次元画像表示装置 100Cは、位置検出センサ 40として立体画像表示面 30 を含む立体空間の位置を検出可能な三次元位置検出センサを備え (またはカメラ等 により三次元位置を検出可能な装置であってもよい)、かつ、カ覚デバイス 60として、 実施例 2と同様に、立体画像表示面 30 (X—Y平面)に平行な方向に加えて、立体画 像表示面 30に垂直な奥行き方向(Z方向)に力を作用するカ覚デバイスを備えてい る。
[0049] また、表示部 10Aは、画像表示面が平行な複数の表示部から構成されており、例 えば、図 7に示すように、第 1表示部 10、第 2表示部(中央に位置する表示部) 90及 び第 3表示部(一番右側に位置する表示部) 90の 3つの表示部から構成されている。 ここで、第 2表示部 90及び第 3表示部 90は、二次元画像を表示する画像表示面 91 を備え、画像伝達パネル 20の光軸上にあり、第 1表示部 10と画像伝達パネル 20の 間に配置される。また、第 2表示部 90及び第 3表示部 90は、画像表示面 11に対向 する面から画像表示面 91に向けて光透過性を有しており、第 1表示部 10から出射さ れる光を透過するとともに、二次元画像を表示するようになっている(第 3表示部 90は 、第 1表示部 10から出射される光及び第 2表示部 90から出射される光の双方を透過 する)。この第 2表示部 90としては、例えば、自発光型表示装置である光透過性の有 機 EL表示装置が好適である。
[0050] このような表示部 10Aの構成により、 3つの平行な立体画像表示面 30A、 30B及び 30Cがマイクロレンズアレイ 20の作動距離に応じて、定義され、各立体画像表示面 3 OA、 30B及び 30C上にそれぞれ立体的二次元画像 Pが表示される。すなわち、第 1 表示部 10の画像表示面 11から出射された画像は、第 1立体画像表示面 30Cに表 示され、第 2表示部 90の画像表示面 91から出射された画像を第 2立体画像表示面 3 0Bに表示され、第 3表示部 90の画像表示面 91から出射された画像は第 3立体画像 表示面 30Aに表示されるようになって!/、る。
[0051] 図 8は、立体的二次元画像表示装置 100Cが表示する立体的二次元画像 P4の一 例を示している。ここで、図 8 (a)に示す立体的二次元画像 P4は、立体画像表示面 3 0C (観察者 Hに一番近い面)に表示された箱の画像であり、図 8 (b)に示す立体的二 次元画像 P4は、立体画像表示面 30A (観察者 Hから一番遠い面)に表示された箱 の画像である。立体的二次元画像表示装置 100Cは、図 8 (a)に示すように手前の面 である立体画像表示面 30Cに立体的二次元画像 P4を表示し、観察者 Hの指 70が 立体的二次元画像 P4に触れた場合には、観察者 Hの指 70に装着した金属 71〖こ + Z方向の力を作用させ、観察者 Hに反発力を感じさせるようになつている。そして、こ のまま、観察者 Hが指 70を若干奥の方向に移動させて (位置検出センサ 40により指 70の— Z軸方向の移動が検出される)、観察者 Hの指 70が立体的二次元画像 P4を 押すような動作をすると、立体画像表示面 30Cに表示されていた立体的二次元画像 P4は、奥の面である立体画像表示面 30Aに表示され、観察者 Hの指 70に装着した 金属 71には力は作用しなくなる。すなわち、図 8に示す一例においては、観察者 H が立体的二次元画像 P4を押すことによって、立体的二次元画像 P4は奥に移動する ので、この結果、観察者 Hの指 70は立体的二次元画像 P4に触れなくなり、観察者 H は反発力を感じなくなるという演出を行うことができる。
[0052] このように、実施例 3の立体的二次元画像表示装置 100Cによれば、観察者 Hの被 検出体 70の 3次元的な位置を検出できるとともに、複数の立体画像表示面 30に立 体的二次元画像 Pを表示できるので、被検出体 70の正確な位置検出に応じた、より 複雑な画像制御及びカ覚制御が可能となる。
[0053] 以上説明したように、本発明の一実施形態の立体的二次元画像表示装置 100は、 二次元画像を表示する画像表示面 11を備えた表示部 10と、画像表示面 11に離間 して配置された画像伝達パネル 20と、から構成され、画像表示面 11から出射される 光を画像伝達パネル 20の表示部 10とは反対側に位置する空間中の結像面 30に結 像して、立体的二次元画像を表示する立体画像表示部 2と、結像面 30近傍における 被検出体 70の位置を検出する位置検出センサ 40と、被検出体 70の一部又は全部 である被作用体 71に力を作用させるカ覚デバイス 60と、位置検出センサ 40によって 検出された被検出体 70の位置に応じて、カ覚デバイス 60が被作用体 71に作用させ る力の大きさ及び方向を制御する制御部 8と、を有するので、観察者にカ覚を与える ことができ、以つて、より効果的な立体表示ができ、臨場感やアミューズメント性を向 上させることができる。
[0054] また、本発明の一実施形態の立体的二次元画像表示装置 100は、二次元画像を 表示する画像表示面 11を備えた表示部 10と、画像表示面 11に離間して配置された 画像伝達パネル 20と、から構成され、画像表示面 11から出射される光を画像伝達パ ネル 20の表示部 10とは反対側に位置する空間中の結像面 30に結像して、立体的 二次元画像を表示する立体画像表示部 2と、結像面 30近傍における被作用体 71に 力を作用させるカ覚デバイス 60と、画像表示面 11に表示される二次元画像の内容 に応じて、力覚デバイス 60が被作用体 71に作用させる力の大きさ及び方向を制御 する制御部 8と、を有するので、観察者にカ覚を与えることができ、以つて、より効果 的な立体表示ができ、臨場感やアミューズメント性を向上させることができる。
[0055] なお、本発明の実施の形態及び実施例に係る立体的二次元画像表示装置とは異 なる方式でも、裸眼 3次元立体視システムを実現することはできるが、本発明の実施 の形態及び実施例に係る立体的二次元画像表示装置のように、立体画像に直接触 れて、かつ感触を得るということはできない。すなわち、メガネを用いずに 3次元立体 視システムを実現する方法としては、視差バリア方式やレンチキュラー方式などが存 在するが、いずれの方式も右目には右画像、左目には左画像を見せることによって 立体画像を見せるようにして 、るので、観察者の目の焦点位置 (画像表示面)と立体 画像 (虚像)が表示される位置は異なっており、それ故に立体画像に触れようとすると 、目の焦点位置が画像表示面力 立体画像 (虚像)に触れようとする指の位置に移 動してしまい、立体画像を正しく視認することができなくなる。すなわち、視差バリア方 式やレンチキュラー方式では、立体画像に直接手を触れて、かつ感触を得るというこ とはできない。これに対して、本発明の実施の形態及び実施例に係る立体的二次元 画像表示装置が表示する立体的二次元画像は、マイクロレンズアレイ 20が結像する 実像であるので、立体的二次元画像の位置に手を持ってきても違和感なく直接触れ ることができ、かつ、感虫も感じることができる。
[0056] 以上、本発明の実施の形態及び実施例について説明してきたが、本発明の要旨を 逸脱しな!、範囲にぉ 、て、本発明の実施の形態及び実施例に対して種々の変形や 変更を施すことができる。
[0057] 例えば、立体画像表示面 30の端に向けて力を作用させ、立体画像表示面 30の端 に被作用体 71が近接した場合では、被作用体 71に作用させる力を弱くして、これ以 上立体画像表示面 30の端に向けて指 70を移動させな 、ようにしてもょ 、。これは、 立体画像表示面 30の端を観察者 Hに認識させるとともに、指 70を立体画像表示面 3 0の外枠に配置した位置検出センサ 40ゃカ覚デバイス 60に接触させないように注意 を喚起するためである。
[0058] また、カ覚デバイス 60として電磁石 61を備えるときには、このように被検出体 70の 位置をフィードバックして力の大きさを制御してもよい。例えば、被検出体 70の検出 位置によらず、被作用体 71に一定の力を作用させる場合には、被作用体 71と電磁 石 61の距離に応じて電磁石 61に流す電流を制御するものである。これは、常に同じ 電流を電磁石 61に流すと、電磁石 61と被作用体 71との距離によって、磁力の大きさ が変化してしまうので (磁力は距離の 2乗に反比例)、被検出体 71の位置によらず、 被作用体 71に一定の大きさの力を作用させるためには、被検出体 70の位置をカ覚 デバイス駆動部 6にフィードバックし、被作用体 71と電磁石 61の距離に応じて電磁 石 61に流す電流を制御する必要があるからである。
[0059] また、観察者 Hが想定される操作と異なる操作 (誤操作)をしたときには、エラーや 警告を促すようなカ覚を与えるようにしてもよい。例えば、バイブレーション機能を備 えた振動装置をカ覚デバイス 60として指 70に装着している場合に、許容される奥行 き以上に指 70を挿入したときには、強い振動を与え、許容される位置まで指 70を戻 すと、強い振動が収まるようにしてもよい。
[0060] なお、上記実施の形態及び実施例で用いた被作用体 71の形態は特に限定されず 、目的に応じて種々の形態が採用できる。例えば、図 9 (a)に示すようにサック状、す なわち指に被せるように装着して、ある程度指に密着させて固定させるようにしてもよ い。このような形態の場合には、カ覚デバイス 60からの力が指に伝わりやすいので、 観察者 Hは、被作用体 71のきめ細かい動きをカ覚として感じることができる。また、例 えば、図 9 (b)に示すようなリング状にして、被作用体 71が指 70に沿って移動可能、 すなわち、リングの径を指 70の太さよりもやや大きくして、リングを指 70に対してスライ ド可能としてもよい。この場合には、カ覚デバイス 60から指 70に沿った方向に力の作 用があっても、カ覚を感じないという効果がある。例えば、図 2に示すようなカ覚デバ イス 60を用い、指 70を Z方向に平行にして立体画像表示面 30近傍に位置づけた場 合 (指 70が立体画像表示面 30に触れる場合だけでなぐ立体画像表示面 30手前又 は奥に位置づけられている場合も含む)には、被作用体 70に Z方向の力が作用して も、被作用体 70は指 70に沿って移動するため、観察者 Hは、 Z方向の力を感じにくく 、 XY平面に平行な方向の力だけを感じやすいので、 Z方向に対して指 70を自由に 動作させるような場合には好適である。

Claims

請求の範囲
[1] 二次元画像を表示する画像表示面を備えた表示部と、前記画像表示面に離間し て配置された画像伝達パネルと、から構成され、前記画像表示面から出射される光 を前記画像伝達パネルの前記表示部とは反対側に位置する空間中の結像面に結 像して、立体的二次元画像を表示する立体画像表示手段と、
前記結像面近傍における被検出体の位置を検出する位置検出手段と、 前記被検出体の一部又は全部である被作用体に力を作用させるカ覚提示手段と、 前記位置検出手段によって検出された被検出体の位置に応じて、前記カ覚提示 手段が前記被作用体に作用させる力の大きさ及び方向を制御するカ覚制御手段と、 を有することを特徴とする立体的二次元画像表示装置。
[2] 前記位置検出手段によって検出された被検出体の位置に応じて、前記画像表示 面に表示される二次元画像を変化させて、前記結像面に表示される前記立体的二 次元画像を変化させる画像制御手段を有することを特徴とする請求項 1記載の立体 的二次元画像表示装置。
[3] 二次元画像を表示する画像表示面を備えた表示部と、前記画像表示面に離間し て配置された画像伝達パネルと、から構成され、前記画像表示面から出射される光 を前記画像伝達パネルの前記表示部とは反対側に位置する空間中の結像面に結 像して、立体的二次元画像を表示する立体画像表示手段と、
前記結像面近傍における被作用体に力を作用させるカ覚提示手段と、 前記画像表示面に表示される二次元画像の内容に応じて、前記力覚提示手段が 前記被作用体に作用させる力の大きさ及び方向を制御するカ覚制御手段と、 を有することを特徴とする立体的二次元画像表示装置。
[4] 前記立体画像表示手段は、
複数の前記表示部を備え、
各表示部と前記画像伝達パネルとの距離に応じて、複数の平行な前記結像面を備 えることを特徴とする請求項 1乃至 3のいずれか 1項に記載の立体的二次元画像表 示装置。
[5] 前記位置検出手段は、前記結像面上の位置を検出する二次元位置検出センサで あることを特徴とする請求項 1乃至 4のいずれか 1項に記載の立体的二次元画像表 示装置。
[6] 前記位置検出手段は、前記結像面を含む立体空間の位置を検出する三次元位置 検出センサであることを特徴とする請求項 1乃至 4のいずれか 1項に記載の立体的二 次元画像表示装置。
[7] 前記カ覚提示手段は、前記結像面に平行な方向の力を前記被作用体に作用させ ることを特徴とする請求項 5又は 6記載の立体的二次元画像表示装置。
[8] 前記カ覚提示手段は、前記結像面に垂直な方向の力を前記被作用体に作用させ ることを特徴とする請求項 7記載の立体的二次元画像表示装置。
[9] 前記カ覚提示手段は、前記結像面の周囲に配置された複数の電磁石であり、 前記被作用体は、前記被検出体に装着された磁性体であり、
前記カ覚制御手段は、前記複数の電磁石のうち駆動させる電磁石及び該電磁石 に流す電流の大きさを制御して、所望の力の大きさ及び方向を決定することを特徴と する
請求項 1乃至 8のいずれか 1項に記載の立体的二次元画像表示装置。
PCT/JP2007/056816 2006-03-31 2007-03-29 立体的二次元画像表示装置 WO2007114225A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-098040 2006-03-31
JP2006098040 2006-03-31

Publications (1)

Publication Number Publication Date
WO2007114225A1 true WO2007114225A1 (ja) 2007-10-11

Family

ID=38563493

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/056816 WO2007114225A1 (ja) 2006-03-31 2007-03-29 立体的二次元画像表示装置

Country Status (1)

Country Link
WO (1) WO2007114225A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022639A (ja) * 2010-07-16 2012-02-02 Ntt Docomo Inc 表示装置、映像表示システムおよび映像表示方法
JP2012032964A (ja) * 2010-07-29 2012-02-16 Olympus Imaging Corp 表示装置
JP2014044662A (ja) * 2012-08-28 2014-03-13 Nec Casio Mobile Communications Ltd 電子機器、その制御方法及びプログラム
JP2019121388A (ja) * 2017-12-28 2019-07-22 イマージョン コーポレーションImmersion Corporation 仮想現実の長距離相互作用のためのシステム及び方法
KR20210050251A (ko) * 2019-10-28 2021-05-07 방신웅 자성체를 이용한 감각 제공장치
WO2023042489A1 (ja) * 2021-09-17 2023-03-23 株式会社Jvcケンウッド 触感生成装置、触感生成方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1062717A (ja) * 1996-08-20 1998-03-06 Nippon Sheet Glass Co Ltd 画像浮上表示装置
JP2000172430A (ja) * 1998-12-09 2000-06-23 Sony Corp 情報入力装置、その位置認識装置、その位置認識方法、仮想画像立体合成装置及び記憶媒体
JP2000250689A (ja) * 1999-03-03 2000-09-14 Minolta Co Ltd 仮想物体呈示システム
JP2000259074A (ja) * 1999-03-11 2000-09-22 Minolta Co Ltd 道具媒介型の力覚呈示システム
JP2002304246A (ja) * 2001-04-04 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 力覚提示装置及び仮想空間システム
JP2006048386A (ja) * 2004-08-05 2006-02-16 Nippon Telegr & Teleph Corp <Ntt> 力覚提示装置、仮想オブジェクト算出方法、および仮想オブジェクト算出プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1062717A (ja) * 1996-08-20 1998-03-06 Nippon Sheet Glass Co Ltd 画像浮上表示装置
JP2000172430A (ja) * 1998-12-09 2000-06-23 Sony Corp 情報入力装置、その位置認識装置、その位置認識方法、仮想画像立体合成装置及び記憶媒体
JP2000250689A (ja) * 1999-03-03 2000-09-14 Minolta Co Ltd 仮想物体呈示システム
JP2000259074A (ja) * 1999-03-11 2000-09-22 Minolta Co Ltd 道具媒介型の力覚呈示システム
JP2002304246A (ja) * 2001-04-04 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 力覚提示装置及び仮想空間システム
JP2006048386A (ja) * 2004-08-05 2006-02-16 Nippon Telegr & Teleph Corp <Ntt> 力覚提示装置、仮想オブジェクト算出方法、および仮想オブジェクト算出プログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022639A (ja) * 2010-07-16 2012-02-02 Ntt Docomo Inc 表示装置、映像表示システムおよび映像表示方法
KR101298848B1 (ko) * 2010-07-16 2013-08-23 엔티티 도꼬모 인코퍼레이티드 표시 장치, 영상 표시 시스템, 및 영상 표시 방법
US8866739B2 (en) 2010-07-16 2014-10-21 Ntt Docomo, Inc. Display device, image display system, and image display method
JP2012032964A (ja) * 2010-07-29 2012-02-16 Olympus Imaging Corp 表示装置
JP2014044662A (ja) * 2012-08-28 2014-03-13 Nec Casio Mobile Communications Ltd 電子機器、その制御方法及びプログラム
JP2019121388A (ja) * 2017-12-28 2019-07-22 イマージョン コーポレーションImmersion Corporation 仮想現実の長距離相互作用のためのシステム及び方法
US10558267B2 (en) 2017-12-28 2020-02-11 Immersion Corporation Systems and methods for long-range interactions for virtual reality
US10747325B2 (en) 2017-12-28 2020-08-18 Immersion Corporation Systems and methods for long-range interactions for virtual reality
KR20210050251A (ko) * 2019-10-28 2021-05-07 방신웅 자성체를 이용한 감각 제공장치
KR102268293B1 (ko) 2019-10-28 2021-06-23 방신웅 자성체를 이용한 감각 제공장치
WO2023042489A1 (ja) * 2021-09-17 2023-03-23 株式会社Jvcケンウッド 触感生成装置、触感生成方法及びプログラム

Similar Documents

Publication Publication Date Title
US8866739B2 (en) Display device, image display system, and image display method
US8854331B2 (en) Method and apparatus for providing haptic feedback utilizing multi-actuated waveform phasing
JP2005141102A (ja) 立体的二次元画像表示装置及び方法
TW200813479A (en) Image display device and image display method
US20170150108A1 (en) Autostereoscopic Virtual Reality Platform
WO2007114225A1 (ja) 立体的二次元画像表示装置
JP4939543B2 (ja) 画像表示装置
JPWO2009025034A1 (ja) 画像表示装置
WO2007100204A1 (en) Stereovision-based virtual reality device
KR20120071895A (ko) 촉감 제시 장치, 촉감 셀, 및 촉감 제시 장치를 제어하는 방법
WO2011086874A1 (ja) 表示装置および表示方法
KR102218967B1 (ko) 3차원 공간터치 디스플레이 시스템 및 그 제어방법
Bohdal Devices for Virtual and Augmented Reality
JP4284158B2 (ja) 立体的二次元画像表示システム及び画像表示方法
KR101601951B1 (ko) 공간 터치 입력이 수행되는 곡면디스플레이 장치
JP6807144B1 (ja) 画像表示装置
WO2015196877A1 (en) Autostereoscopic virtual reality platform
CN111782040A (zh) 一种裸眼虚拟现实屏幕
JP2007018053A (ja) 立体画像表示装置
CN216052966U (zh) 视触觉反馈***
JP2007206519A (ja) 画像表示装置
KR101409845B1 (ko) 영상 표시 장치 및 방법
WO2007088779A1 (ja) 立体的二次元画像表示装置
Kim et al. A tangible floating display system for interaction
US20240094817A1 (en) Provision of feedback to an actuating object

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07740254

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 07740254

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)