WO2022254833A1 - 情報処理装置、情報処理方法及びプログラムを記録した記録媒体 - Google Patents

情報処理装置、情報処理方法及びプログラムを記録した記録媒体 Download PDF

Info

Publication number
WO2022254833A1
WO2022254833A1 PCT/JP2022/008177 JP2022008177W WO2022254833A1 WO 2022254833 A1 WO2022254833 A1 WO 2022254833A1 JP 2022008177 W JP2022008177 W JP 2022008177W WO 2022254833 A1 WO2022254833 A1 WO 2022254833A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
viewpoint position
user
information processing
phase
Prior art date
Application number
PCT/JP2022/008177
Other languages
English (en)
French (fr)
Inventor
仕豪 温
雅人 赤尾
佳明 神山
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2022254833A1 publication Critical patent/WO2022254833A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/22Processes or apparatus for obtaining an optical image from holograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and a recording medium recording a program.
  • VR virtual reality
  • HMD head-mounted display
  • rendering is performed based on the detected positions of the user's head and eyes.
  • Eye position is constantly moving. Therefore, there is a time lag (latency) between the detection of the position of the user's head and eyes and the display of the image, and as a result, the actual movement of the user's head and eyes when viewing the displayed image.
  • the problem arises that the positions are different from the user's head and eye positions used for rendering, making it difficult to provide the user with a smooth viewing experience.
  • Time warp processing exists as a way to deal with such problems.
  • Time warp processing detects the positions of the user's head and eyes immediately before displaying the image after the image is generated by rendering, and compensates for the displayed image based on the detected positions. This technology reduces the gap between the position of the head and eyes at the time of viewing and the displayed image.
  • AR augmented reality
  • CGH computer-generated holograms
  • the present disclosure proposes an information processing device, an information processing method, and a recording medium that records a program that can suppress deterioration of the user's viewing experience.
  • an information processing apparatus includes a viewpoint position acquisition unit that acquires a viewpoint position of a user, a rendering unit that generates a rendering image based on the viewpoint position, and A wavefront propagation unit that generates a propagation signal representing a hologram based on a rendered image; a phase signal generation unit that generates a first phase signal for displaying a hologram based on the propagation signal; a correction unit that performs correction based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit.
  • FIG. 1 is a schematic diagram for explaining the outline of a hologram display system according to a first embodiment
  • FIG. 1 is a simplified schematic diagram of a hologram display system according to a first embodiment
  • FIG. FIG. 3 is a diagram obtained by rotating the schematic diagram shown in FIG. 2
  • 1 is a block diagram showing a schematic configuration example of a hologram display system according to a first embodiment
  • FIG. 4 is a flowchart showing an operation example of the hologram display system according to the first embodiment
  • 6 is a diagram showing a specific example for explaining step S102 of FIG. 5 according to the first embodiment
  • FIG. FIG. 4 is a diagram showing an example of RGB image data according to the first embodiment
  • FIG. 4 is a diagram for explaining a case where a user's viewpoint position changes between time T1 and time T2 according to the first embodiment;
  • FIG. 4 is a diagram showing an example of a linear phase pattern in the x direction according to the first embodiment;
  • FIG. 10 is a diagram showing an example of a phase pattern when the compensating phase pattern shown in FIG. 9 has a period of 0 to 2 ⁇ ;
  • 11 is a two-dimensional image expressing the compensating phase pattern shown in FIG. 10 in grayscale;
  • FIG. 4 is a diagram for explaining a case where a user's viewpoint position changes between time T1 and time T2 according to the first embodiment;
  • FIG. 4 is a diagram showing an example of a linear phase pattern in the x direction according to the first embodiment;
  • FIG. 10 is a diagram showing an example of a phase pattern when the compensating phase pattern shown
  • FIG. 9 is a timing chart for explaining the operation flow according to Modification 1 of the first embodiment
  • FIG. FIG. 10 is a diagram showing an example of a pre-computed one-dimensional compensation phase pattern according to Modification 3 of the first embodiment
  • 15 is a two-dimensional image obtained by two-dimensionally representing the compensating phase pattern shown in FIG. 14
  • FIG. 11 is a diagram showing an example of a y-direction compensating phase pattern according to Modification 4 of the first embodiment
  • FIG. 11 is a diagram showing an example of compensation phase patterns in the x-direction and the y-direction according to Modification 4 of the first embodiment
  • FIG. 11 is a block diagram showing a schematic configuration example of a hologram display system according to a second embodiment
  • FIG. 9 is a flowchart showing an operation example of the hologram display system according to the second embodiment
  • FIG. 11 is a schematic diagram for explaining an outline of an AR HUD system using CGH according to the third embodiment
  • 1 is a block diagram showing a hardware configuration example of an information processing apparatus according to an embodiment
  • an information processing apparatus, an information processing method, and a recording medium storing a program according to a first embodiment of the present disclosure will be described in detail with reference to the drawings.
  • an AR device using an optical see-through HMD is exemplified as a hologram display system to which the information processing apparatus, information processing method, and program according to the embodiment are applied. is not limited to
  • FIG. 1 is a schematic diagram for explaining the outline of the hologram display system according to this embodiment.
  • (A) to (F) indicate respective schematic positions.
  • this embodiment exemplifies a hologram display system 1 including a light source 11, an enlarging optical system composed of a plurality of lenses 12 and 13, a beam splitter 14, and a spatial light modulator 15. do.
  • a laser beam L1 emitted from a light source 11 at position (D) is converted into coherent light L2 with an enlarged beam diameter by an expansion optical system composed of a plurality of lenses 12 and 13 at position (C). be done.
  • the coherent light L 2 passes through the beam splitter 14 and enters the spatial light modulator 15 .
  • a reflective SLM is exemplified as the spatial light modulator 15, but it is not limited to this, and may be a transmissive SLM. Also, in this description, a phase-only SLM is exemplified, but the present invention is not limited to this, and an amplitude-only SLM may be used.
  • the coherent light L2 is modulated by the spatial light modulator 15 so as to display a hologram at a desired display position (E) in real space.
  • the beam splitter 14 at the position (B) is arranged so that a viewer (hereinafter referred to as a user) 19 at the position (viewpoint position (F)) can observe the hologram 18 reproduced by the spatial light modulator 15. For example, Projected at the display position (E) on the real space. A user 19 at the viewpoint position (F) can see the hologram 18 superimposed on the real space seen through the beam splitter 14 by observing the direction of the display position (E).
  • the hologram display system can make a virtual object or the like appear in the real space, direct an object in the real space with a special effect or the like, or present predetermined information to the user. experience can be provided.
  • FIG. 1 the schematic diagram of the hologram display system 1 illustrated in FIG. 1 can be simplified as shown in FIG.
  • the spatial light modulator 15 of FIG. 1 which was of a reflective type, is changed to a transmissive type.
  • FIG. 3 is a diagram rotated 90 degrees to the right to make the schematic diagram shown in FIG. 2 easier to see.
  • FIG. 4 is a block diagram showing a schematic configuration example of the hologram display system according to this embodiment.
  • the hologram display system 1 includes a viewpoint position acquisition unit 110, a rendering unit 120, a wavefront propagation unit 130, a viewpoint position change calculation unit 140, and a correction signal generation unit 150. , a complex signal synthesizing unit 160 , an interference fringe transforming unit 170 , and an output device 180 .
  • the complex signal synthesizing unit 160 and the interference fringe transforming unit 170 can correspond to, for example, an example of the phase signal generating unit in the scope of claims.
  • the viewpoint position change calculation unit 140 and the correction signal generation unit 150 can correspond to an example of the correction unit in the claims, for example.
  • the viewpoint position acquisition unit 110 receives input from a sensor such as an IMU (Inertial Measurement Unit) provided in an HMD worn on the head of the user 19 or a camera that acquires images of the eyes and face of the user 19, for example. Based on the information, information about the viewpoint position (F) of the user 19 (hereinafter referred to as viewpoint position information) is acquired.
  • a sensor such as an IMU (Inertial Measurement Unit) provided in an HMD worn on the head of the user 19 or a camera that acquires images of the eyes and face of the user 19, for example.
  • viewpoint position information information about the viewpoint position (F) of the user 19
  • the viewpoint position information may be the position of the viewpoint of the user 19 in the physical space. Further, the position of the viewpoint of the user 19 in the physical space may be the position of both eyes or one eye of the user 19 in the physical space, or the position of the head of the user 19 in the physical space. good too.
  • the viewpoint position information may include information regarding the orientation of both eyes or one eye or the head of the user 19 in addition to the information regarding the position of the user's 19 eyes or one eye or the head.
  • the viewpoint position acquisition unit 110 may acquire the viewpoint position of the user 19 in the physical space by SLAM (Simultaneous Localization and Mapping). Furthermore, the viewpoint position acquisition unit 110 predicts the viewpoint position after a predetermined time (for example, a preset time) has elapsed from the current viewpoint position (F), and acquires this predicted viewpoint position as the user's viewpoint position.
  • SLAM Simultaneous Localization and Mapping
  • the rendering unit 120 renders the three-dimensional image information 101 of the object displayed as a hologram based on the viewpoint position information input from the viewpoint position acquisition unit 110, thereby obtaining RGB image data representing the texture of the object and Generate a depth map representing depth.
  • a set of RGB image data and a depth map indicating the depth value of each pixel of the RGB image data is also called RGB+D image data or rendered image.
  • the wavefront propagation unit 130 propagates the RGB+D image data generated by the rendering unit 120 to generate a propagation signal of the hologram pattern displayed by the spatial light modulator 15 .
  • the viewpoint position change calculation unit 140 calculates the viewpoint position information acquired by the viewpoint position acquisition unit 110 when the rendering unit 120 renders the three-dimensional image information 101 (that is, the viewpoint position information used by the rendering unit 120 for rendering the three-dimensional image information 101).
  • the difference between the viewpoint position (F) of the user 19 in the viewpoint position information acquired by the viewpoint position acquisition unit 110 and the viewpoint position of the user 19 in the current viewpoint position information acquired by the viewpoint position acquisition unit 110 is It is calculated as a viewpoint position change amount.
  • the correction signal generation unit 150 generates a correction signal for correcting the propagation signal of the hologram pattern generated by the wavefront propagation unit 130 based on the viewpoint position change amount calculated by the viewpoint position change calculation unit 140 .
  • the complex signal synthesizing unit 160 synthesizes the propagation signal generated by the wavefront propagating unit 130 and the correction signal generated by the correction signal generating unit 150 to generate a complex signal of the hologram pattern.
  • the interference fringe conversion unit 170 converts the complex signal generated by the complex signal synthesis unit 160 to generate a phase signal for displaying the hologram pattern on the spatial light modulator 15 .
  • the output device 180 displays the phase signal generated by the interference fringe converter 170 on the spatial light modulator 15 . As a result, the hologram is superimposed on the real space and displayed to the user 19 .
  • FIG. 5 is a flowchart showing an operation example of the hologram display system according to this embodiment.
  • the operation of the hologram display system 1 includes a first half step S100 of generating a propagation signal of the hologram pattern based on the viewpoint position (F) of the user 19 at a certain time (time T1);
  • the hologram pattern is corrected based on the viewpoint position (F′) of the user 19 at the time immediately before the display (time T2), and the second half step S200 of displaying the corrected hologram pattern.
  • a first half step S100 of generating a propagation signal of the hologram pattern based on the viewpoint position (F) of the user 19 at a certain time (time T1) The hologram pattern is corrected based on the viewpoint position (F′) of the user 19 at the time immediately before the display (time T2), and the second half step S200 of displaying the corrected hologram pattern.
  • Step S101 As shown in FIG. 5, in the first half step S100, first, the viewpoint position acquisition unit 110, for example, based on sensor information from a sensor such as an IMU provided in an HMD or the like worn on the head of the user 19, , the viewpoint position information of the user 19 at time T1 is obtained (step S101).
  • the acquired viewpoint position information may include a time stamp indicating the time T1 at which the viewpoint position information was acquired.
  • the acquired viewpoint position information is input to the rendering unit 120 and the viewpoint position change calculation unit 140 .
  • Step S102 the rendering unit 120 renders the externally input three-dimensional image information 101 based on the viewpoint position (F) of the user 19 indicated by the viewpoint position information at time T1, thereby generating an RGB image representing the texture of the object. Data and a depth map representing the depth of the object are generated (step S102).
  • FIG. 6 is a diagram showing a specific example for explaining step S102 in FIG. 6, in the simplified schematic diagram shown in FIG. 2, the initial position is 500 mm (millimeters) forward from the viewpoint position (F) of the user 19 (for example, the position of the right eye).
  • the initial position is 500 mm (millimeters) forward from the viewpoint position (F) of the user 19 (for example, the position of the right eye).
  • a case where three-dimensional image information 101 for displaying a distant point object 18a is input to the rendering unit 120 will be illustrated.
  • the spatial light modulator 15 is assumed to be arranged at a position 100 mm (millimeters) away from the viewpoint position (right eye) of the user 19 in front.
  • FIG. 7A is a diagram showing an example of RGB image data 18RGB when the hologram of the point object 18a shown in FIG. 6 is displayed to the user.
  • FIG. 10 is a diagram showing an example of a depth map 18D displayed for .
  • the rendering unit 120 sets black to areas where there is no image to be projected. Further, as shown in FIG. 6, when displaying the hologram of the point object 18a 500 mm away from the viewpoint position (F) to the user 19, as shown in FIG. are given colored pixel values corresponding to the texture of the point object 18a, and pixels in the other regions are given black pixel values to generate RGB image data 18RGB. That is, the rendering unit 120 sets black to areas where there is no image to be projected. Further, as shown in FIG.
  • the rendering unit 120 gives, for example, a depth value corresponding to 400 mm, which is the distance from the spatial light modulator 15 to the point object 18a, to pixels in the area of the point object 18a, and A depth map 18D is generated in which white pixel values indicating that the distance from the spatial light modulator 15 is infinite are given to the pixels in the other area.
  • Step S103 the wavefront propagation unit 130 wavefront propagates the RGB+D image data generated in step S102, so that the hologram pattern at the position (hereinafter also referred to as the SLM position) (A) where the spatial light modulator 15 is arranged is generated (step S103).
  • Arithmetic processing for generating a propagation signal of a hologram pattern depends on the type of spatial light modulator 15, propagation distance, and encoding technique.
  • a case where a phase-only liquid crystal on silicon (LCoS) is used as the spatial light modulator 15 will be exemplified.
  • the wavefront propagation can be expressed by the Fresnel diffraction formula.
  • a dual-phase encoding algorithm can also be used for phase-only encoding. The propagation formula and encoding algorithm according to this embodiment will be described below.
  • the wavefront propagating unit 130 propagates the wavefront of each point represented in units of pixels in FIGS. 7A and 7B by using Fresnel's wavefront diffraction formula shown in Equation (1) below.
  • z indicates the distance from the display position (E) on the real space where each point is displayed to the SLM position (A) where the spatial light modulator 15 is arranged.
  • the distance (400 mm) from the display position (E) in the real space where the point object 18a is displayed to the SLM position (A) where the spatial light modulator 15 is arranged is Set as the value of z.
  • the wavefront propagation unit 130 sets the value of z for all points and causes wavefront propagation for each point using equation (1), thereby generating a propagation signal of the hologram pattern for all points.
  • the values of all points are summed to generate the hologram pattern, as shown in equation (1).
  • Other wave propagation functions that can be used to generate the hologram pattern at SLM position A can also be used.
  • the wavefront propagation unit 130 Through the processing of step S103, the wavefront propagation unit 130 generates a propagation signal representing a complex number that displays a hologram at the SLM position (A).
  • the generated propagation signal is input to the complex signal synthesizing section 160 .
  • Step S201 Subsequently, in the second half step S200, first, similar to step S101, the viewpoint position acquisition unit 110, for example, based on sensor information from a sensor such as an IMU provided in the HMD or the like worn on the head of the user 19. Thus, viewpoint position information of the user 19 at time T2 is obtained (step S201). The acquired viewpoint position information is input to the viewpoint position change calculation unit 140 .
  • Step S202 the viewpoint position change calculation unit 140 calculates the viewpoint position (F) in the viewpoint position information at time T1 input in step S101 and the viewpoint position in the viewpoint position information at time T2 newly input in step S201. A difference (viewpoint position change amount) from (F') is obtained (step S202). Note that the viewpoint position information acquired in step S201 may also be input to the rendering unit 120 and used for rendering the 3D image information 101 from the next time onward.
  • FIG. 8 is a diagram for explaining a case where the user's viewpoint position changes between time T1 and time T2. 8, the positional relationship between the viewpoint position (F) of the user 19, the spatial light modulator 15, and the display position (E) where the hologram 18 (however, the point object 18a shown in FIG. 6 and the like) is displayed. are the same as those illustrated in FIGS. 3 and 6 to 7B.
  • the hologram pattern (point object 18a) displayed by the spatial light modulator 15 is calculated based on the viewpoint position (F) of the user 19 at time T1.
  • the point object 18a calculated based on the viewpoint position (F) at time T1 is displayed as it is when the position (A) is translated to the viewpoint positions (F') and (A') separated by a distance d to the right, for example, , the point object 18a is displayed at the display position (E') which is moved rightward by a distance d from the display position (E) where it should be displayed.
  • an arrow extending from the point object 18a indicates an optical path from the point object 18a through the spatial light modulator 15 to the viewpoint position (F) or (F') of the user 19.
  • the rendering unit 120 uses the 3D image information 101 to render the three-dimensional image information 101 in order to correct the deviation of the display position of the hologram pattern due to the movement of the viewpoint position (F) between rendering and display.
  • the difference between the viewpoint position (F) of the user 19 in the viewpoint position information at time T1 and the viewpoint position (F′) of the user 19 in the viewpoint position information acquired by the viewpoint position acquisition unit 110 at time T2 immediately before the display is Acquired as a viewpoint position change amount. For example, in the example shown in FIG.
  • the viewpoint position change calculation unit 140 changes the viewpoint position (F) and A distance d (for example, 3 mm) from the viewpoint position (F′) is acquired as the viewpoint position change amount.
  • the viewpoint position change amount may be a vector from the viewpoint position (F) to the viewpoint position (F').
  • Step S203 the correction signal generation unit 150 generates a correction signal for reducing display position deviation due to a change in viewpoint position based on the viewpoint position change amount generated in step S202 (step S203).
  • This embodiment illustrates a method of adding a linear phase signal to the propagation signal generated in step S103.
  • a linear phase signal is a correction signal for shifting an object displayed in the field of complex numbers in accordance with a change in viewpoint position, and can be expressed by the following equation (2), for example.
  • the viewpoint position change amount is 3 mm and the distance from the SLM position (A) to the display position (E) is 400 mm, based on the above equation (2), from the point object 18a
  • the display position of the point object 18a can be changed to the position before the movement even when the viewpoint position moves from (F) to (F′). can be set to the display position (E).
  • the incident angle of the optical path from the point object 18a to the spatial light modulator 15 in the case of FIG. 5 in the initial state is assumed to be zero degrees, and the wavelength of the light emitted from the light source 11 is assumed to be Assuming 532 nm (nanometers) and the pixel pitch of the spatial light modulator 15 to be 3.74 ⁇ m (micrometers), in order to rotate the optical path of light from the spatial light modulator 15 by 0.86 degrees, the complex number field should be approximately 0.33128 radians, or 19 degrees, between adjacent pixels in linear phase added to .
  • FIG. 9 is a diagram showing an example of a compensating phase pattern of linear phase only in the x direction.
  • the horizontal axis indicates the viewpoint position change amount (in units of pixels), and the vertical axis indicates the phase.
  • the linear phase shown in FIG. 9 can be a phase pattern that repeats with a period of 0 to 2 ⁇ .
  • FIG. 11 is a two-dimensional image of a linear phase compensation phase pattern in which phase values in the range of 0 to 2 ⁇ are expressed in gray scale.
  • black has the smallest phase difference, and the closer to white, the greater the phase difference.
  • Step S204 the complex signal synthesizing unit 160 synthesizes the propagation signal generated in step S103 and the correction signal generated in step S203 to generate a complex signal of the hologram pattern (step S204). Equation (3) shown below, for example, is used to synthesize the propagation signal and the correction signal.
  • Step S205 the interference fringe conversion unit 170 executes hologram pattern conversion processing (step S205).
  • the complex number field represented by the complex signal generated in step S204 is converted into a hologram pattern phase signal that can be displayed using the spatial light modulator 15 .
  • This hologram pattern conversion process requires a different conversion technique for each type of spatial light modulator 15 . If the spatial light modulator 15 is a phase-only SLM, as exemplified in this description, the complex number field needs to be converted to a phase-only field in order for the hologram to be displayed on the spatial light modulator 15. be. However, it is not limited to this, and various other encoding methods may be used.
  • Pa and Pb in equation (4) alternate in a checkerboard pattern to form a phase-only signal (phase signal) for displaying the hologram pattern on spatial light modulator 15.
  • phase signal phase signal
  • Step S206 The phase signal of the hologram pattern generated in step S205 is input to the output device 180 that controls the light source 11. FIG. Then, by controlling the light source 11 based on the phase signal input by the output device 180, the light for displaying the hologram pattern is irradiated onto the modulation surface of the spatial light modulator 15, thereby causing the user 19 to Then, the hologram at the display position (E) is displayed (step S206).
  • step S300 the control unit that controls the overall operation of the hologram display system determines whether or not to continue this operation (step S300), and ends the operation. If so (YES in step S300), this operation is terminated. On the other hand, when not ending (NO of step S300), a control part returns to step S101 and performs subsequent operation
  • the hologram pattern to be displayed is corrected based on the viewpoint position (F′) immediately before display. can be reduced. As a result, it is possible to reduce the sense of discomfort that the user feels due to the positional deviation between the real space and the object superimposed thereon, so that it is possible to suppress deterioration in the user's viewing experience.
  • the first half step S100 of generating the propagation signal of the hologram pattern based on the viewpoint position (F) of the user 19 at a certain time T1 and the The hologram pattern is corrected based on the viewpoint position (F') of the user 19 at time T2, and the hologram pattern is displayed after correction.
  • S200 was configured to be executed.
  • FIG. 13 is a timing chart for explaining the operation flow according to Modification 1. As shown in FIG.
  • the viewpoint position acquisition unit 110 generates line-of-sight position information in a predetermined cycle based on sensor information sequentially input from sensors provided in an HMD or the like (step S101, S201).
  • the generated line-of-sight position information is sequentially input to the rendering unit 120 and the viewpoint position change calculation unit 140 .
  • the first half process S100 that is, steps S101 to S103 in FIG. 5 are looped asynchronously with the second half process S200. is looped asynchronously.
  • the cycle in which the viewpoint position acquisition unit 110 outputs the viewpoint position information may be a cycle shorter than the cycle in which the first half step S100 and the second half step S200 are looped.
  • a correction signal is generated based on the acquired viewpoint position change amount (S203), and by using the generated correction signal, is corrected (S204), and the complex signal generated by this correction is converted into a phase signal (S205) and output, so that the hologram pattern is displayed on the spatial light modulator 15 (S206 ) is repeated.
  • the wavefront propagation process of step S103 requires a much longer processing time than the other processes. Therefore, for example, when displaying a hologram to the user 19 at time T3, the propagation signal used to generate the hologram pattern is based on the rendered image rendered using the viewpoint position information at time T1. If the propagated signal is not corrected based on the viewpoint position information at the time T2 immediately before the display, there is a possibility that a very large shift in the display position will occur. Since the user 19 is sensitive to such display position deviation, there is a possibility that the user's viewing experience will be significantly degraded if no correction is made.
  • the correction signal generation unit 150 generates the correction signal asynchronously with the generation of the propagation signal by the wavefront propagation unit 130, so that the hologram based on the latest viewpoint position is always displayed to the user 19. is possible, it is possible to reduce the deviation of the display position. As a result, it becomes possible to suppress deterioration of the user's viewing experience.
  • the propagation signals generated in the same first half step S100 can be corrected based on each of two or more viewpoint positions at different times to display the hologram, the substantial frame rate of the hologram displayed to the user 19 can be increased.
  • Modification 2 refers to the viewpoint position acquisition unit 110 .
  • the viewpoint position acquisition unit 110 receives input from sensors such as an IMU provided in the HMD worn on the head of the user 19 and a camera that acquires images of the eyes and face of the user 19. The case where the viewpoint position information of the user 19 is acquired based on the sensor information obtained is illustrated.
  • the viewpoint position (head and eye positions) of the user 19 is estimated from the position and posture of the HMD worn on the head of the user 19 will be illustrated.
  • the sensors include, for example, an internal sensor such as an IMU, such as a sensor used for SLAM, an external camera, a ToF (Time of Flight) sensor, and the like.
  • IMU internal sensor
  • the IMU is capable of sensing at a high sampling frequency of 1000 Hz or higher and at a low cost of several milliseconds (milliseconds) or less. It is possible to acquire with low latency and high frequency.
  • the viewpoint position (head and eye position) of the user 19 can be estimated from the position and posture of the HMD. Therefore, by using the sensor information from the IMU for estimating the viewpoint position of the user 19, it is possible to obtain an accurate viewpoint position with low latency and high frequency. Such acquisition of an accurate viewpoint position with low latency and high frequency eliminates side effects such as displacement of the display position caused by the operation illustrated in FIG. can contribute to reducing
  • the hologram pattern is displayed after obtaining the viewpoint position information of the viewpoint position (F′) of the display straight line during the processing time of the latter step S200. It is effective to shorten the time to Therefore, in Modification 3, a lookup table (LUT) is used in the process of generating the correction signal shown in step S202 in the latter half of the process S200, thereby shortening the processing time of the entire latter half of the process S200 including step S202.
  • LUT lookup table
  • the LUT stores pre-calculated compensating phase patterns to compensate based on the required diffraction angle ⁇ given in equation (2) above.
  • the number of compensating phase patterns stored in the LUT depends on how many diffraction angles ⁇ are quantized. For example, when the diffraction angle ⁇ of 0.1 to 3.0 degrees is quantized in increments of 0.1 degrees, the LUT stores 30 compensating phase patterns.
  • FIG. 14 shows an example of a pre-computed one-dimensional representation of the compensating phase pattern.
  • FIG. 15 shows a two-dimensional image obtained by two-dimensionally expressing the compensating phase pattern shown in FIG.
  • Other compensating phase patterns in the LUT can also be generated by a simple method similar to the method described above.
  • the compensation phase obtained from the LUT illustrated in Modification 3 may be corrected based on actual use. For example, if the viewpoint of the user 19 moves not only horizontally (x-direction) but also vertically (y-direction), the compensation phase (correction signal) shifts the object displayed as a hologram in two dimensions. may be corrected as follows.
  • the display position (E′) of the point object 18a is changed to It is possible to shift the display position of the point object 18a in the x direction and the y direction to the original display position (E) by continuously applying the compensation phase pattern for shifting to .
  • a compensation phase pattern for shifting the display position in the x-direction and the y-direction can be a combination of an x-direction compensation phase pattern and a y-direction compensation phase pattern.
  • the compensating phase pattern illustrated in FIG. 11 can be used as the compensating phase pattern in the x direction.
  • the compensating phase pattern in the y direction is as shown in FIG.
  • the x direction of the compensating phase pattern obtained by rotating the compensating phase pattern in the x direction to the right by 90 degrees is multiplied by m/n.
  • the compensating phase pattern obtained by setting the resolution to (m:n) may be used as the compensating phase pattern in the y direction.
  • the (m:n) area is cut out (cropped) from the (m:n) area.
  • the propagation signal generated by the wavefront propagation unit 130 and the correction signal generated by the correction signal generation unit 150 are combined in the complex signal synthesis unit 160,
  • the obtained complex signal is converted into a phase signal in the interference fringe converter 170 .
  • the propagation signal is converted into a phase signal before synthesizing the correction signal, and then the correction signal is synthesized.
  • FIG. 18 is a block diagram showing a schematic configuration example of a hologram display system according to this embodiment.
  • the hologram display system 2 according to the present embodiment has a configuration similar to that of the hologram display system 1 described in the first embodiment with reference to FIG. 260 , and the arrangement of the interference fringe conversion section 170 is changed between the wavefront propagation section 130 and the phase signal synthesis section 260 .
  • the interference fringe conversion section 170 converts the propagation signal of the hologram pattern generated by the wavefront propagation section 130 into a phase signal, and inputs the phase signal to the phase signal synthesis section 260 .
  • the phase signal synthesizing unit 260 synthesizes the phase signal input from the interference fringe converting unit 170 and the correction signal generated by the correction signal generating unit 150 to display the hologram pattern on the spatial light modulator 15. is generated and input to the output device 180 .
  • the interference fringe conversion unit 170 and the phase signal synthesis unit 260 can correspond to an example of the phase signal generation unit in the scope of claims, for example.
  • the viewpoint position change calculation unit 140 and the correction signal generation unit 150 can correspond to an example of the correction unit in the claims, for example.
  • FIG. 19 is a flowchart showing an operation example of the hologram display system according to this embodiment.
  • the operation of the hologram display system 2 is similar to the operation described using FIG. 5 in the first embodiment, based on the viewpoint position (F) of the user 19 at a certain time T1. and a second half step S500 of correcting the hologram pattern based on the viewpoint position (F′) of the user 19 at time T2 immediately before display and displaying the corrected hologram pattern. It consists of processes.
  • Step S401 the interference fringe conversion unit 170 performs hologram pattern conversion processing on the propagation signal of the hologram pattern generated by the wavefront propagation unit 130 (step S401).
  • the content of the hologram pattern conversion processing may be the same as the processing content shown in step S205 of FIG. 5 illustrated in the first embodiment.
  • Step S501 the phase signal synthesizer 260 synthesizes the phase signal generated in step S401 and the correction signal generated in step S203 to generate the phase signal of the hologram pattern (step S501).
  • Formula (6) shown below, for example, is used to synthesize the phase signal and the correction signal.
  • Step S206 the phase signal of the hologram pattern generated in step S501 is input to the output device 180 that controls the light source 11, and the output device 180 controls the light source 11 based on the input phase signal.
  • the modulation surface of the spatial light modulator 15 is irradiated with light for displaying the hologram pattern, and the hologram at the display position (E) is displayed to the user 19 (step S206).
  • the control unit determines whether or not to continue this operation (step S300), and if it ends (YES in step S300), end the action. On the other hand, when not ending (NO of step S300), a control part returns to step S101 and performs subsequent operation
  • an AR device using an optical see-through HMD was exemplified as a hologram display system, but the present invention is not limited to this. It can be applied to various AR devices that can superimpose and display a hologram on the real world, such as an AR device using a naked-eye stereoscopic television or the like.
  • an AR HUD system using CGH can be realized as an application example of the hologram display system described with reference to FIG. 1 in the first embodiment. Therefore, in the third embodiment, an AR HUD system using CGH will be described as an example.
  • FIG. 20 is a schematic diagram for explaining the outline of the AR HUD system using the CGH according to this embodiment.
  • the principle by which the spatial light modulator 15 forms the hologram 18 may be the same as the principle by which the spatial light modulator 15 forms the hologram 18 in the first embodiment, for example.
  • a transmissive SLM is used as the spatial light modulator 15 .
  • the light emitted from the light source 11 is magnified by a magnifying optical system composed of a plurality of lenses 12 and 13, and then transmitted through the spatial light modulator 15, thereby creating a hologram at the display position (E). form 18.
  • the hologram 18 formed at the display position (E) is reflected by the combiner 30 and viewed by the user 19 at the viewpoint position (F) as the hologram 18A at the display position (G).
  • a hologram combiner that reflects light from the light source 11 while transmitting light in the visible light range may be used.
  • the technology according to the present disclosure is not limited to HMD type AR devices, but can be applied to various AR devices that can display holograms superimposed on the real world.
  • FIG. 21 is a hardware configuration diagram showing an example of a computer 1000 that implements the functions of the information processing apparatus according to the above-described embodiments.
  • the computer 1000 has a CPU 1100 , a RAM 1200 , a ROM (Read Only Memory) 1300 , a HDD (Hard Disk Drive) 1400 , a communication interface 1500 and an input/output interface 1600 . Each part of computer 1000 is connected by bus 1050 .
  • the CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. For example, the CPU 1100 loads programs stored in the ROM 1300 or HDD 1400 into the RAM 1200 and executes processes corresponding to various programs.
  • the ROM 1300 stores a boot program such as BIOS (Basic Input Output System) executed by the CPU 1100 when the computer 1000 is started, and programs dependent on the hardware of the computer 1000.
  • BIOS Basic Input Output System
  • the HDD 1400 is a computer-readable recording medium that non-temporarily records programs executed by the CPU 1100 and data used by such programs.
  • HDD 1400 is a recording medium that records the program according to the present disclosure, which is an example of program data 1450 .
  • a communication interface 1500 is an interface for connecting the computer 1000 to an external network 1550 (for example, the Internet).
  • the CPU 1100 receives data from another device via the communication interface 1500, and transmits data generated by the CPU 1100 to another device.
  • the input/output interface 1600 is an interface for connecting the input/output device 1650 and the computer 1000 .
  • the CPU 1100 receives data from input devices such as a keyboard and mouse via the input/output interface 1600 .
  • the CPU 1100 transmits data to an output device such as a display, a speaker, or a printer via the input/output interface 1600 .
  • the input/output interface 1600 may function as a media interface for reading a program or the like recorded on a predetermined recording medium.
  • Media include, for example, optical recording media such as DVD (Digital Versatile Disc) and PD (Phase change rewritable disk), magneto-optical recording media such as MO (Magneto-Optical disk), tape media, magnetic recording media, semiconductor memories, etc. is.
  • optical recording media such as DVD (Digital Versatile Disc) and PD (Phase change rewritable disk)
  • magneto-optical recording media such as MO (Magneto-Optical disk)
  • tape media magnetic recording media
  • magnetic recording media semiconductor memories, etc. is.
  • the CPU 1100 of the computer 1000 executes a program loaded on the RAM 1200 to obtain the viewpoint position acquisition unit 110, the rendering unit 120, the wavefront propagation At least part of the functions of the unit 130, the viewpoint position change calculation unit 140, the correction signal generation unit 150, the complex signal synthesis unit 160 or the phase signal synthesis unit 260, the interference fringe conversion unit 170, and the output device 180 are realized.
  • the HDD 1400 also stores programs and the like according to the present disclosure. Although CPU 1100 reads and executes program data 1450 from HDD 1400 , as another example, these programs may be obtained from another device via external network 1550 .
  • the present technology can also take the following configuration.
  • a viewpoint position acquisition unit that acquires a user's viewpoint position; a rendering unit that generates a rendered image based on the viewpoint position; a wavefront propagation unit that generates a propagated signal representing a hologram based on the rendered image; a phase signal generator that generates a first phase signal for displaying a hologram based on the propagation signal; a correction unit that corrects the displayed hologram based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit; Information processing device.
  • the correction unit generates a correction signal for correcting the propagation signal based on the user's current viewpoint position acquired by the viewpoint position acquisition unit
  • the phase signal generator is a complex signal synthesizing unit that generates a complex signal based on the propagation signal and the correction signal; an interference fringe conversion unit that converts the complex signal into the first phase signal; including, The information processing device according to (1) above.
  • the phase signal generation unit includes an interference fringe conversion unit that converts the propagation signal into a second phase signal,
  • the correction unit generates a correction signal for correcting the second phase signal based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit,
  • the phase signal generation unit further includes a phase signal synthesis unit that generates the first phase signal based on the second phase signal and the correction signal,
  • the information processing device according to (1) above.
  • the correction unit generates the correction signal by referring to a lookup table prepared in advance based on the current viewpoint position of the user. information processing equipment.
  • the information processing apparatus corrects the correction signal obtained from the lookup table prepared in advance based on the current viewpoint position of the user.
  • the correction signal has a compensating phase pattern of a linear phase.
  • the compensating phase pattern has a phase pattern that repeats with a period of 0 to 2 ⁇ .
  • the correction signal includes a horizontal compensating phase pattern and a vertical compensating phase pattern.
  • the information processing apparatus according to any one of (2) to (9), wherein the correction signal has a compensating phase pattern obtained by synthesizing a horizontal compensating phase pattern and a vertical compensating phase pattern.
  • the correction unit generates the correction signal asynchronously with generation of the propagation signal by the wavefront propagation unit.
  • the information processing apparatus according to any one of (1) to (12) above, further comprising an output unit that controls a light source that outputs light to the spatial light modulator based on the first phase signal.
  • the spatial light modulator is a phase limited spatial light modulator or an amplitude limited spatial light modulator.
  • An information processing method comprising: (19) A recording medium recording a program for operating a processor mounted in a system for displaying a hologram by irradiating a spatial light modulator with light, to the processor; a process of acquiring a user's viewpoint position; a process of generating a rendered image based on the viewpoint position; generating a propagated signal representing a hologram based on the rendered image; a process of generating a first phase signal for displaying a hologram based on the propagation signal; a process of obtaining the user's current viewpoint position; a process of correcting the displayed hologram based

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Holo Graphy (AREA)

Abstract

ユーザの視聴体験の低下を抑制する。情報処理装置は、ユーザの視点位置を取得する視点位置取得部(110)と、前記視点位置に基づいてレンダリング画像を生成するレンダリング部(120)と、前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する波面伝搬部(130)と、前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する位相信号生成部(160、170)と、表示される前記ホログラムを前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて補正する補正部(140、150)と、を備える。

Description

情報処理装置、情報処理方法及びプログラムを記録した記録媒体
 本開示は、情報処理装置、情報処理方法及びプログラムを記録した記録媒体に関する。
 ヘッドマウントディスプレイ(HMD)を利用してユーザに仮想空間を表示する仮想現実(VR)の分野では、検出されたユーザの頭や目の位置に基づいてレンダリングが実行されるが、ユーザの頭や目の位置は常に動いている。そのため、ユーザの頭や目の位置を検出してから映像を表示するまでの間に時間差(レイテンシー)が生じ、それにより、ユーザが表示された映像を観る際のユーザの頭や目の実際の位置が、レンダリングに使用したユーザの頭や目の位置とは異なってしまい、ユーザにスムーズな視聴体験を提供することが困難になるという問題が生じる。
 このような問題に対処する方法としては、タイムワープ処理が存在する。タイムワープ処理は、レンダリングにより映像を生成した後、その映像を表示する直前に、ユーザの頭や目の位置を検出し、検出された位置に基づいて表示する映像を補償することで、ユーザの視聴時点での頭や目の位置と表示される映像とのずれを低減する技術である。
国際公開第2019/181263号
 上述のようなレイテンシーによる問題は、コンピュータにより生成されたホログラム(以下、CGHともいう)を現実世界にHMD等を用いて重畳する拡張現実(AR)の分野でも生じる。しかしながら、ARの場合、VRの場合と比較して、ホログラムパターンの生成に長い処理時間を要する。そのため、ユーザの頭や目の位置を検出してから映像を表示するまでの時間差がより大きくなり、ユーザにスムーズな視聴体験を提供することが困難になり得るという問題が存在する。
 また、現実空間に重畳される点が空間光変調器(SLM)上の領域における複数のピクセルに投射されるため、ホログラムパターンの単純な変換、回転又は再投影であっても副作用が生じてしまい、ユーザにスムーズな視聴体験を提供することが困難になるという問題も存在する。
 そこで本開示では、ユーザの視聴体験の低下を抑制することが可能な情報処理装置、情報処理方法及びプログラムを記録した記録媒体を提案する。
 上記の課題を解決するために、本開示の一形態に係る情報処理装置は、ユーザの視点位置を取得する視点位置取得部と、前記視点位置に基づいてレンダリング画像を生成するレンダリング部と、前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する波面伝搬部と、前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する位相信号生成部と、表示される前記ホログラムを前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて補正する補正部と、を備える。
第1の実施形態に係るホログラム表示システムの概要を説明するための模式図である。 第1の実施形態に係るホログラム表示システムの簡素化された模式図である。 図2に示す模式図を回転させた図である。 第1の実施形態に係るホログラム表示システムの概略構成例を示すブロック図である。 第1の実施形態に係るホログラム表示システムの動作例を示すフローチャートである。 第1の実施形態に係る図5のステップS102を説明するための具体例を示す図である。 第1の実施形態に係るRGB画像データの一例を示す図である。 第1の実施形態に係るデプスマップの一例を示す図である。 第1の実施形態に係る時刻T1から時刻T2の間にユーザの視点位置が変化した場合を説明するための図である。 第1の実施形態に係るx方向の直線位相パターンの一例を示す図である。 図9に示す補償位相パターンを0~2πの周期とした場合の位相パターンの一例を示す図である。 図10に示す補償位相パターンをグレースケールで表現した2次元画像である。 第1の実施形態に係る式(4)におけるPa及びPbの配置例を示す図である。 第1の実施形態の本変形例1に係る動作フローを説明するためのタイミングチャートである。 第1の実施形態の変形例3に係る事前に計算された1次元表現の補償位相パターンの一例を示す図である。 図14に示す補償位相パターンを2次元表現することで得られる2次元画像である。 第1の実施形態の変形例4に係るy方向の補償位相パターンの一例を示す図である。 第1の実施形態の変形例4に係るx方向及びy方向の補償位相パターンの一例を示す図である。 第2の実施形態に係るホログラム表示システムの概略構成例を示すブロック図である。 第2の実施形態に係るホログラム表示システムの動作例を示すフローチャートである。 第3の実施形態に係るCGHを用いたAR HUDシステムの概要を説明するための模式図である。 実施形態に係る情報処理装置のハードウエア構成例を示すブロック図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.第1の実施形態
   1.1 概要
   1.2 構成例
   1.3 動作例
    1.3.1 前半工程S100
    1.3.2 後半工程S200
   1.4 作用効果
   1.5 変形例
    1.5.1 変形例1
    1.5.2 変形例2
    1.5.3 変形例3
    1.5.4 変形例4
  2.第2の実施形態
   2.1 構成例
   2.2 動作例
    2.2.1 前半工程S400
    2.2.2 後半工程S500
   2.3 作用効果
  3.第3の実施形態
   3.1 作用効果
  4.ハードウエア構成
 1.第1の実施形態
 まず、本開示の第1の実施形態に係る情報処理装置、情報処理方法及びプログラムを記録した記録媒体について、図面を参照して詳細に説明する。なお、以下の説明では、本実施形態に係る実施形態に係る情報処理装置、情報処理方法及びプログラムが適用されるホログラム表示システムとして、光学シースルー型のHMDを用いたARデバイスを例示するが、これに限定されるものではない。
 1.1 概要
 まず、本実施形態に係るホログラム表示システムの概要について説明する。図1は、本実施形態に係るホログラム表示システムの概要を説明するための模式図である。なお、図1及び以下の図において、(A)~(F)は、それぞれの概略的な位置を示している。
 図1に示すように、本実施形態では、光源11と、複数のレンズ12及び13で構成された拡大光学系と、ビームスプリッタ14と、空間光変調器15とを備えるホログラム表示システム1を例示する。
 図1において、位置(D)の光源11から出射したレーザ光L1は、位置(C)の複数のレンズ12及び13で構成された拡大光学系により、ビーム径が拡大されたコヒーレント光L2に変換される。コヒーレント光L2は、ビームスプリッタ14を通過して空間光変調器15に入射する。
 本実施形態では、空間光変調器15として、反射型のSLMを例示するが、これに低減されず、透過型のSLMであってもよい。また、本説明では、位相限定型(Phase-Only)のSLMを例示するが、これに限定されず、振幅限定型(Amplitude-Only)のSLMであってもよい。コヒーレント光L2は、空間光変調器15によって、実空間上の所望の表示位置(E)にホログラムを表示するように変調される。
 位置(B)のビームスプリッタ14は、空間光変調器15によって再生されたホログラム18を、位置(視点位置(F))の視聴者(以下、ユーザという)19が観察可能なように、例えば、実空間上の表示位置(E)に映し出す。視点位置(F)のユーザ19は、表示位置(E)の方向を観察することで、ビームスプリッタ14越しに見える実空間に重畳ざれたホログラム18を見ることができる。
 このように、本実施形態に係るホログラム表示システムは、実空間に仮想オブジェクト等を出現させたり、実空間の物体を特殊効果等によって演出したり、ユーザに所定の情報を提示したりなどの視聴体験を提供することが可能である。
 なお、光源11及びビームスプリッタ14は、表示位置(E)と空間光変調器15の位置(A)と、ユーザ19の視点位置(F)との相対的な位置関係に対してほとんど影響しない。そのため、図1に例示するホログラム表示システム1の模式図は、図2に示すように簡素化することができる。なお、図2では、説明の都合上、図1において反射型であった空間光変調器15が透過型に変更されている。また、図3は、図2に示す模式図をさらに見やすくするために、右に90度回転させた図である。
 1.2 構成例
 図4は、本実施形態に係るホログラム表示システムの概略構成例を示すブロック図である。図4に示すように、本実施形態に係るホログラム表示システム1は、視点位置取得部110と、レンダリング部120と、波面伝搬部130と、視点位置変化計算部140と、補正信号生成部150と、複素信号合成部160と、干渉縞変換部170と、出力装置180とを備える。
 本実施形態において、複素信号合成部160と干渉縞変換部170とは、例えば、請求の範囲における位相信号生成部の一例に相当し得る。また、視点位置変化計算部140と補正信号生成部150とは、例えば、請求の範囲における補正部の一例に相当し得る。
 (視点位置取得部110)
 視点位置取得部110は、例えば、ユーザ19の頭部に装着されるHMDに設けられたIMU(Inertial Measurement Unit)やユーザ19の眼や顔の画像を取得するカメラなどのセンサから入力されたセンサ情報に基づいて、ユーザ19の視点位置(F)に関する情報(以下、視点位置情報という)を取得する。
 なお、本説明において、視点位置情報は、現実空間内でのユーザ19の視点の位置であってよい。また、現実空間内でのユーザ19の視点の位置は、現実空間内でのユーザ19の両目又は片目の位置であってもよいし、現実空間内でのユーザ19の頭部の位置であってもよい。加えて、視点位置情報には、ユーザ19の両目又は片目若しくは頭部の位置に関する情報の他に、ユーザ19の両目又は片目若しくは頭部の向きに関する情報が含まれてもよい。
 また、さらに、視点位置取得部110は、SLAM(Simultaneous Localization and Mapping)により現実空間内でのユーザ19の視点位置を取得してもよい。さらに、視点位置取得部110は、現在の視点位置(F)から所定時間(例えば予め設定された時間)経過後の視点位置を予測し、この予測された視点位置をユーザの視点位置として取得してもよい。
 (レンダリング部120)
 レンダリング部120は、ホログラムとして表示するオブジェクトの3次元画像情報101を、視点位置取得部110から入力された視点位置情報に基づいてレンダリングすることで、オブジェクトのテクスチャを表すRGB画像データと、オブジェクトの奥行を表すデプスマップとを生成する。なお、以下の説明では、RGB画像データと、RGB画像データの各画素のデプス値を示すデプスマップとのセットをRGB+D画像データ又はレンダリング画像ともいう。
 (波面伝搬部130)
 波面伝搬部130は、レンダリング部120により生成されたRGB+D画像データを波面伝搬することで、空間光変調器15で表示するホログラムパターンの伝搬信号を生成する。
 (視点位置変化計算部140)
 視点位置変化計算部140は、レンダリング部120が3次元画像情報101をレンダリングする際に視点位置取得部110により取得された視点位置情報(すなわち、レンダリング部120が3次元画像情報101のレンダリングに使用した視点位置情報)におけるユーザ19の視点位置(F)と、視点位置取得部110により取得された現在の視点位置情報におけるユーザ19の視点位置(これを視点位置F’とする)との差分を視点位置変化量として計算する。
 (補正信号生成部150)
 補正信号生成部150は、視点位置変化計算部140により計算された視点位置変化量に基づいて、波面伝搬部130により生成されたホログラムパターンの伝搬信号を補正するための補正信号を生成する。
 (複素信号合成部160)
 複素信号合成部160は、波面伝搬部130により生成された伝搬信号と、補正信号生成部150により生成された補正信号とを合成することで、ホログラムパターンの複素信号を生成する。
 (干渉縞変換部170)
 干渉縞変換部170は、複素信号合成部160により生成された複素信号を変換することで、ホログラムパターンを空間光変調器15で表示するための位相信号を生成する。
 (出力装置180)
 出力装置180は、干渉縞変換部170により生成された位相信号を空間光変調器15で表示する。それにより、ユーザ19に対して、ホログラムが現実空間に重畳して表示される。
 1.3 動作例
 図5は、本実施形態に係るホログラム表示システムの動作例を示すフローチャートである。図5に示すように、ホログラム表示システム1の動作は、ある時刻(これを時刻T1とする)におけるユーザ19の視点位置(F)に基づいてホログラムパターンの伝搬信号を生成する前半工程S100と、表示直前の時刻(これを時刻T2とする)のユーザ19の視点位置(F’)に基づいてホログラムパターンを補正して補正後のホログラムパターンを表示する後半工程S200との2つの工程から構成されている。
 1.3.1 前半工程S100
 (ステップS101)
 図5に示すように、前半工程S100では、まず、視点位置取得部110が、例えば、ユーザ19の頭部に装着されるHMD等に設けられたIMUなどのセンサからのセンサ情報に基づくことで、時刻T1でのユーザ19の視点位置情報を取得する(ステップS101)。なお、取得された視点位置情報には、この視点位置情報を取得した時刻T1を示すタイムスタンプが含まれていてよい。そして、取得された視点位置情報は、レンダリング部120及び視点位置変化計算部140に入力される。
 (ステップS102)
 次に、レンダリング部120が、外部から入力された3次元画像情報101を時刻T1の視点位置情報が示すユーザ19の視点位置(F)に基づいてレンダリングすることで、オブジェクトのテクスチャを表すRGB画像データと、オブジェクトの奥行(デプス)を表すデプスマップとを生成する(ステップS102)。
 ここで、ステップS102の処理を、具体例を用いて説明する。図6は、図5のステップS102を説明するための具体例を示す図である。なお、図6では、説明の簡略化のため、図2に示す簡素化された模式図において、初期位置がユーザ19の視点位置(F)(例えば右眼の位置)から前方に500mm(ミリメートル)離れた点オブジェクト18aを表示するための3次元画像情報101がレンダリング部120に入力された場合を例示する。ただし、図6に示す例では、簡単のため、平行射影の場合が示されているが、これに限定されず、透視投影の場合であっても同様に適用可能である。また、図6に示す例では、空間光変調器15は、ユーザ19の視点位置(右眼)から前方に100mm(ミリメートル)離れた位置に配置されているものとする。
 図7Aは、図6に示す点オブジェクト18aのホログラムをユーザに対して表示する場合のRGB画像データ18RGBの一例を示す図であり、図7Bは、同じく図6に示す点オブジェクト18aのホログラムをユーザに対して表示する場合のデプスマップ18Dの一例を示す図である。
 図6に示すように、視点位置(F)から500mm離れた点オブジェクト18aのホログラムをユーザ19に表示する場合、図7Aに示すように、レンダリング部120は、例えば、点オブジェクト18aの領域の画素には点オブジェクト18aのテクスチャに対応する有色の画素値が与えられ、それ以外の領域の画素には黒の画素値が与えられたRGB画像データ18RGBを生成する。すなわち、レンダリング部120は、投影される画像が存在しない領域に黒を設定する。また、図7Bに示すように、レンダリング部120は、例えば、点オブジェクト18aの領域の画素には空間光変調器15から点オブジェクト18aまでの距離である400mmに相当するデプス値が与えられ、それ以外の領域の画素には空間光変調器15からの距離が無限遠であることを示す白の画素値が与えられたデプスマップ18Dを生成する。
 (ステップS103)
 次に、波面伝搬部130が、ステップS102で生成されたRGB+D画像データを波面伝搬することで、空間光変調器15が配置された位置(以下、SLM位置ともいう)(A)でのホログラムパターンの伝搬信号を生成する(ステップS103)。
 ホログラムパターンの伝搬信号を生成するための演算処理は、空間光変調器15のタイプと、伝搬距離と、符号化手法とに依存する。本実施形態では、位相限定型のLCoS(Phase-Only Liquid Crystal on Silicon)を空間光変調器15として用いた場合を例示する。
 図6~図7Bに示した例のように、伝搬距離が数100mmの範囲である場合、波面伝搬は、フレネル回折の公式により表すことができる。また、位相限定符号化には、二重相符号化アルゴリズムを用いることができる。以下に、本実施形態に係る伝搬式及び符号化アルゴリズムについて説明する。
 波面伝搬部130は、図7A及び図7Bにおいて画素単位で表される各点を、以下の式(1)に示すフレネルの波面回折式を用いることで波面伝搬させる。
Figure JPOXMLDOC01-appb-M000001
 式(1)において、zは各点が表示される実空間上の表示位置(E)から空間光変調器15が配置されたSLM位置(A)までの距離を示す。例えば、図6~図7Bに示した例では、点オブジェクト18aが表示される実空間上の表示位置(E)から空間光変調器15が配置されたSLM位置(A)まで距離(400mm)がzの値として設定される。
 なお、本例では、簡略化のため、点オブジェクト18aが1画素に対応している場合を例示するが、1つのオブジェクトが複数の点より構成されている場合や複数のオブジェクトを表示する場合などでは、波面伝搬部130は、全ての点についてzの値を設定し、各点を式(1)を用いて波面伝搬させることで、全ての点についてホログラムパターンの伝搬信号を生成する。
 本例では、式(1)に示すように、ホログラムパターンを生成するために、全ての点の値が合計される。しかしながら、実際のユースケースでは、デプス値が異なる領域を合成する手法を用いる必要がある。例えば、個々の点のデプスオクルージョンを考慮した伝搬アルゴリズムを用いる必要がある。また、SLM位置Aにおけるホログラムパターンの生成に利用することができる他の波動伝搬関数を用いることも可能である。例えば、異なる前提で使用することが可能なレイリー・ゾンマーフェルトの回折式やフラウンホーファーの回折式を用いることも可能である。
 このようなステップS103の処理により、波面伝搬部130は、SLM位置(A)にホログラムを表示する複素数体を表す伝搬信号を生成する。生成された伝搬信号は、複素信号合成部160に入力される。
 1.3.2 後半工程S200
 (ステップS201)
 つづいて、後半工程S200では、まず、ステップS101と同様に、視点位置取得部110が、例えば、ユーザ19の頭部に装着されるHMD等に設けられたIMUなどのセンサからのセンサ情報に基づくことで、時刻T2でのユーザ19の視点位置情報を取得する(ステップS201)。そして、取得された視点位置情報は、視点位置変化計算部140に入力される。
 (ステップS202)
 次に、視点位置変化計算部140が、ステップS101で入力された時刻T1での視点位置情報における視点位置(F)と、ステップS201で新たに入力された時刻T2での視点位置情報における視点位置(F’)との差分(視点位置変化量)を取得する(ステップS202)。なお、ステップS201で取得された視点位置情報は、レンダリング部120にも入力されて、次以降の3次元画像情報101のレンダリングに使用されてよい。
 図8は、時刻T1から時刻T2の間にユーザの視点位置が変化した場合を説明するための図である。なお、図8において、ユーザ19の視点位置(F)と、空間光変調器15と、ホログラム18(ただし、図6等に示す点オブジェクト18a)が表示される表示位置(E)との位置関係は、図3及び図6~図7Bに例示したものと同じであるとする。
 図8の左図(T1)に示すように、空間光変調器15で表示されるホログラムパターン(点オブジェクト18a)は、時刻T1におけるユーザ19の視点位置(F)に基づいて算出される。しかしながら、図8の左図(T1)から右図(T2)に示すように、時刻T1から時刻T2までの間にユーザ19の視点位置及び空間光変調器15の位置が視点位置(F)及び位置(A)から例えば右側に距離d離れた視点位置(F’)及び(A’)に平行移動した場合、時刻T1の視点位置(F)に基づいて算出された点オブジェクト18aをそのまま表示すると、点オブジェクト18aは、本来表示されるべき表示位置(E)から右方向へ距離d移動した表示位置(E’)に表示されることとなる。なお、図8において、点オブジェクト18aから延びる矢印は、点オブジェクト18aから空間光変調器15を介してユーザ19の視点位置(F)又は(F’)までの光路を示している。
 そこで、図5のステップS202では、レンダリングから表示までの間の視点位置(F)の移動によるホログラムパターンの表示位置のずれを補正するために、レンダリング部120が3次元画像情報101のレンダリングに使用した時刻T1の視点位置情報におけるユーザ19の視点位置(F)と、表示直前の時刻T2に視点位置取得部110により取得された視点位置情報におけるユーザ19の視点位置(F’)との差分が視点位置変化量として取得される。例えば、図8に示す例では、点オブジェクト18aが表示される位置を表示位置(E’)から表示位置(E)に補正するために、視点位置変化計算部140は、視点位置(F)と視点位置(F’)との距離d(例えば3mm)を視点位置変化量として取得する。なお、視点位置変化量は、視点位置(F)から視点位置(F’)までのベクトルであってもよい。
 (ステップS203)
 次に、補正信号生成部150が、ステップS202で生成された視点位置変化量に基づいて、視点位置の変化による表示位置のずれを低減するための補正信号を生成する(ステップS203)。
 ここで、視点位置の変化による表示位置のずれを低減する方法としては、いくつかの方法が存在する。本実施形態では、ステップS103で生成された伝搬信号に直線位相信号を加算する方法を例示する。
 直線位相信号は、視点位置の変化に従って複素数体で表示されるオブジェクトをシフトさせるための補正信号であり、例えば、以下の式(2)で表すことができる。
Figure JPOXMLDOC01-appb-M000002
 例えば、図8に示す例のように、視点位置変化量が3mmで、SLM位置(A)から表示位置(E)までの距離が400mmの場合、上記式(2)に基づき、点オブジェクト18aからの光路をtan-1(3/400)(約0.43度)左回転させることで、視点位置が(F)から(F’)に移動した場合でも、点オブジェクト18aの表示位置を移動前の表示位置(E)とすることが可能となる。
 ここで、図5に示す模式図において、初期状態での点オブジェクト18aからの光路の空間光変調器15(図5の場合)に対する入射角をゼロ度とし、光源11から出射する光の波長を532nm(ナノメートル)とし、空間光変調器15の画素ピッチを3.74μm(マイクロメートル)と仮定すると、空間光変調器15からの光の光路を0.86度回転させるためには、複素数体に加算される直線位相での隣接画素間の位相差を約0.33128ラジアン、つまり19度とする必要がある。
 そして、図8に示す例のように、視点位置が右方向(これをx方向とする)にのみ移動する場合を仮定すると、補正信号は、点オブジェクト18aの位置をx方向に移動させればよいこととなる。その場合、x方向に対してのみ直線位相が適用される。
 図9は、x方向のみの直線位相の補償位相パターンの一例を示す図である。なお、図9において、横軸は視点位置変化量(画素単位)を示し、縦軸は位相を示している。また、図10に示すように、図9に示す直線位相は、0~2πの周期で繰り返される位相パターンとするが可能である。
 また、図11は、0~2πの範囲の位相値がグレースケールで表現された直線位相の補償位相パターンの2次元画像である。なお、図11に示す例では、黒色が最も位相差が小さく、白色に近づくほど位相差が大きい。
 (ステップS204)
 次に、複素信号合成部160が、ステップS103で生成された伝搬信号と、ステップS203で生成された補正信号とを合成することで、ホログラムパターンの複素信号を生成する(ステップS204)。伝搬信号と補正信号との合成には、例えば、以下に示す式(3)が使用される。
Figure JPOXMLDOC01-appb-M000003
 (ステップS205)
 次に、干渉縞変換部170が、ホログラムパターン変換処理を実行する(ステップS205)。ホログラムパターン変換処理では、ステップS204で生成された複素信号により表される複素数体が空間光変調器15を用いて表示できるホログラムパターンの位相信号に変換される。このホログラムパターン変換処理には、空間光変調器15のタイプごとに異なる変換手法が要求される。本説明で例示したように、空間光変調器15が位相限定型のSLMである場合、ホログラムを空間光変調器15で表示するためには、複素数体が位相のみのフィールドに変換される必要がある。ただし、これに限定されず、その他の種々の符号化手法が用いられてもよい。例えば、振幅廃棄法(Amplitude Discard method)やGerchberg-Saxtonアルゴリズムや二重相符号化アルゴリズムなどの手法が用いられてもよい。本例では、上述したように、二重相符号化アルゴリズムを用いた場合を例示する。その場合の計算式を以下の式(4)に示す。
Figure JPOXMLDOC01-appb-M000004
 図12に示すように、式(4)におけるPa及びPbは、ホログラムパターンを空間光変調器15で表示するための位相のみの信号(位相信号)を形成するために、市松模様のように交互に入れ替わっている。この市松模様のパターンは固定されているため、空間光変調器15の画素ごとに式(4)におけるPa及びPbが計算されるように、符号化処理を実行することができる。
 なお、Pa及びPbは、共に位相値であるため、式(4)で計算された値が空間光変調器15が対応可能な範囲を超えた場合でも、0~2πの範囲に落とし込むことが可能である。
 (ステップS206)
 ステップS205で生成されたホログラムパターンの位相信号は、光源11を制御する出力装置180に入力される。そして、出力装置180が入力された位相信号に基づいて光源11を制御することで、ホログラムパターンを表示するための光が空間光変調器15の変調面に照射され、それにより、ユーザ19に対して表示位置(E)のホログラムが表示される(ステップS206)。
 以上のように、前半工程S100と後半工程S200とを実行すると、例えば、ホログラム表示システムの全体動作を制御する制御部は、本動作を継続するか否かを判定し(ステップS300)、終了する場合(ステップS300のYES)、本動作を終了する。一方、終了しない場合(ステップS300のNO)、制御部は、ステップS101へ戻り、以降の動作を実行する。
 1.4 作用効果
 以上のように、本実施形態によれば、表示直前の視点位置(F’)に基づいて表示対象のホログラムパターンが補正されるため、視点位置の変化による表示位置のずれを低減することが可能となる。それにより、実空間とそれに重畳されたオブジェクトと位置ずれによるユーザが抱く違和感等を低減することが可能となるため、ユーザの視聴体験の低下を抑制することが可能となる。
 1.5 変形例
 つづいて、上述した第1の実施形態の変形例について、いくつか例を挙げて説明する。
 1.5.1 変形例1
 上述した第1の実施形態では、図5を用いて説明したように、ある時刻T1におけるユーザ19の視点位置(F)に基づいてホログラムパターンの伝搬信号を生成する前半工程S100と、表示直前の時刻T2のユーザ19の視点位置(F’)に基づいてホログラムパターンを補正して補正後のホログラムパターンを表示する後半工程S200との2つの工程から構成され、前半工程S100が完了した後に後半工程S200が実行されるように構成されていた。
 これに対し、本変形例1では、前半工程S100と後半工程S200とが独立して動作する場合を例に挙げる。図13は、本変形例1に係る動作フローを説明するためのタイミングチャートである。
 図13に示すように、本変形例1では、視点位置取得部110は、HMD等に設けられたセンサから順次入力されるセンサ情報に基づいて、所定の周期で視線位置情報を生成する(ステップS101、S201)。生成された視線位置情報は、順次、レンダリング部120及び視点位置変化計算部140に入力される。
 また、本変形例1では、前半工程S100、すなわち図5におけるステップS101~S103が後半工程S200とは非同期にループされ、同様に、後半工程S200、すなわち図5におけるステップS201~S205が前半工程S100とは非同期にループされる。なお、視点位置取得部110が視点位置情報を出力する周期は、前半工程S100及び後半工程S200がループされる周期よりも短い周期であってよい。
 前半工程S100のループでは、図5を用いて説明した動作と同様に、視点位置取得部110から順次入力(S101)される視点位置情報のうち最新の視点位置情報に基づいて最新の3次元画像情報101がレンダリング(S102)され、それにより生成されたレンダリング画像からホログラムパターンの伝搬信号が生成(S103)される動作が繰り返される。
 また、後半工程S200のループでは、図5を用いて説明した動作と同様に、視点位置取得部110から順次入力(S201)される視点位置情報のうち最新のセンサ情報に基づいて視点位置変化量が取得(S202)され、取得された視点位置変化量に基づいて補正信号が生成(S203)され、生成された補正信号を用いることで、前半工程S100のループにおいて順次生成される伝搬信号のうちの最新の伝搬信号が補正(S204)され、そして、この補正により生成された複素信号が位相信号に変換(S205)されて出力されることで、ホログラムパターンが空間光変調器15で表示(S206)される動作が繰り返される。
 ここで、図13に示されているように、ステップS101~S103及びS201~S206の処理のうち、ステップS103の波面伝搬処理は、他の処理と比較して、非常に長い処理時間を要する。そのため、例えば、時刻T3にてユーザ19にホログラムを表示する場合、そのホログラムパターンの生成に使用される伝搬信号が時刻T1の視点位置情報を用いてレンダリングされたレンダリング画像に基づく伝搬信号となるため、表示直前の時刻T2での視点位置情報に基づいて伝搬信号を補正しない場合、非常に大きな表示位置のずれが生じてしまう可能性が存在する。そして、ユーザ19は、このような表示位置のずれに対して敏感であるため、何ら補正をしない場合、ユーザの視聴体験を著しく低下させてしまう可能性が存在する。
 これに対し、本変形例1のように、前半工程S100のループで順次生成される伝搬信号を表示直線の視点位置にて補正する後半工程S200を前半工程S100とは非同期にループさせることで、より具体的には、補正信号生成部150が波面伝搬部130による伝搬信号の生成とは非同期に補正信号を生成することで、ユーザ19に対して常に最新の視点位置に基づくホログラムを表示することが可能となるため、表示位置のずれを低減することが可能となる。その結果、ユーザの視聴体験の低下を抑制することが可能となる。
 また、前半工程S100のループで順次生成される伝搬信号を表示直線の視点位置にて補正する後半工程S200を前半工程S100とは非同期にループさせることで、同じ前半工程S100で生成された伝搬信号を時刻の異なる2以上の視点位置それぞれに基づいて補正してホログラムを表示することが可能となるため、ユーザ19に表示されるホログラムの実質的なフレームレートを上げることが可能となる。
 1.5.2 変形例2
 変形例2では、視点位置取得部110について言及する。上述した第1の実施形態では、視点位置取得部110は、ユーザ19の頭部に装着されるHMDに設けられたIMUやユーザ19の眼や顔の画像を取得するカメラなどのセンサから入力されたセンサ情報に基づいて、ユーザ19の視点位置情報を取得する場合を例示した。これに対し、変形例2では、ユーザ19の頭部に装着されたHMDの位置や姿勢からユーザ19の視点位置(頭や目の位置)を推定する場合を例示する。
 HMDの位置や姿勢からユーザ19の視点位置を推定する場合、センサには、例えば、SLAMに用いられるセンサのように、IMUなどの内界センサと、外部カメラやToF(Time of Flight)センサやLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)などの外界センサとの組み合わせが用いられ得る。例えば、IMUは、1000Hz以上の高いサンプリング周波数で且つ数ms(ミリ秒)以下の低廉シーでのセンシングが可能であるため、IMUからのセンサ情報を用いることで、HMDの正確な位置や姿勢を低レイテンシーで且つ高頻度に取得することが可能となる。
 そして、ユーザ19の視点位置(頭や目の位置)は、HMDの位置や姿勢から推定することが可能である。したがって、ユーザ19の視点位置の推定にIMUからのセンサ情報を用いることで、正確な視点位置を低レイテンシーで且つ高頻度に取得することが可能となる。このような、正確な視点位置の低レイテンシーで且つ高頻度な取得は、図5に例示した動作(例えば、ステップS103の波面伝搬処理)に時間がかかることにより生じる表示位置のずれなどの副作用を低減することに寄与し得る。
 1.5.3 変形例3
 第1の実施形態において、表示位置のずれをより低減させるためには、後半工程S200の処理時間、すなわち表示直線の視点位置(F’)の視点位置情報を取得してからホログラムパターンを表示するまでの時間をより短縮することが有効である。そこで、本変形例3では、後半工程S200におけるステップS202に示す補正信号の生成処理にルックアップテーブル(LUT)を用いることで、ステップS202を含めた後半工程S200全体の処理時間を短縮する。
 LUTには、上述において式(2)に示した要求される回折角θに基づいて補償するために、事前に計算された補償位相パターンが格納されている。LUTに格納される補償位相パターンの数は、回折角θを幾つに量子化するかに依存する。例えば、0.1~3.0度の回折角θを0.1度刻みに量子化した場合には、LUTには、30個の補償位相パターンが格納される。
 ここで、例として、回折角θが1.0度の補償位相パターンを事前に計算する場合を説明する。例えば、図5に示す模式図において、初期状態での点オブジェクト18aからの光路の空間光変調器15(図5の場合)に対する入射角をゼロ度とし、光源11から出射する光の波長を532nm(ナノメートル)とし、空間光変調器15の画素ピッチを3.74μmと仮定すると、空間光変調器15からの光の光路を1.0度回転させるためには、複素数体に加算される直線位相での隣接画素間の位相差を約0.77ラジアン、つまり44度とする必要がある。図14に、事前に計算された1次元表現の補償位相パターンの一例を示す。また、図15に、図14に示す補償位相パターンを2次元表現することで得られる2次元画像を示す。なお、LUTにおける他の補償位相パターンについても、上述による手法と同様の簡単な手法で生成することが可能である。
 1.5.4 変形例4
 また、変形例3で例示したLUTから取得された補償位相は、実際の使用に基づいて補正されてもよい。例えば、ユーザ19の視点が水平方向(x方向)だけでなく垂直方向(y方向)にも移動するような場合、補償位相(補正信号)は、ホログラムとして表示するオブジェクトを2次元方向にシフトさせるように補正されてもよい。
 例えば、図6~図8に示す例において、ユーザ19の視点位置(F)がx方向及びy方向にそれぞれ3mmずつ移動した場合、点オブジェクト18aの表示位置(E’)をx方向及びy方向にシフトさせるための補償位相パターンを連続して適用することで、点オブジェクト18aの表示位置をx方向及びy方向にシフトさせて本来の表示位置(E)とすることが可能である。
 表示位置をx方向及びy方向にシフトさせるための補償位相パターンは、x方向の補償位相パターンと、y方向の補償位相パターンとの組み合わせとすることができる。x方向の補償位相パターンには、例えば、図11に例示した補償位相パターンを用いることができる。その場合、空間光変調器15の画素のアスペクト比(x:y)が1:1である場合、すなわち、画素形状が正方形である場合、y方向の補償位相パターンには、図16に示すように、x方向の補償位相パターンを90度右回転させた補償位相パターンを用いることが可能である。なお、空間光変調器15の画素のアスペクト比(x:y)がm:nである場合、x方向の補償位相パターンを90度右回転させた補償位相パターンのx方向をm/n倍し、その解像度を(m:n)にすることで得られる補償位相パターンをy方向の補償位相パターンとして用いてもよい。これにより、(m:n)の領域から(m:n)の領域が切り出される(クロッピングされる)。
 このように、2つの位相成分をホログラムパターンの複素数体に連続して適用することは、位相成分として表現された複素数体とホログラムパターンの複素数体とを乗算することと同じである。そのため、以下の式(5)に示される結合法則を用いた場合、図11に示すx方向の補償位相パターンと図16に示すy方向の補償位相パターンとを合成した最終的な補償位相パターンは、図17に示すようになる。
Figure JPOXMLDOC01-appb-M000005
 2.第2の実施形態
 次に、本開示の第2の実施形態に係る情報処理装置、情報処理方法及びプログラムを記録した記録媒体について、図面を参照して詳細に説明する。なお、以下の説明において、第1の実施形態又はその変形例と同様の構成及び動作については、それらを引用することで、重複する説明を省略する。
 上述した第1の実施形態又はその変形例では、波面伝搬部130により生成された伝搬信号と、補正信号生成部150により生成された補正信号とを複素信号合成部160において合成した後、合成により得られた複素信号を干渉縞変換部170において位相信号に変換していた。これに対し、第2の実施形態では、補正信号を合成する前に伝搬信号を位相信号に変換し、その後、補正信号を合成する場合について例を挙げる。
 2.1 構成例
 図18は、本実施形態に係るホログラム表示システムの概略構成例を示すブロック図である。図18に示すように、本実施形態に係るホログラム表示システム2は、第1の実施形態において図4を用いて説明したホログラム表示システム1と同様の構成において、複素信号合成部160が位相信号合成部260に置き換えられるとともに、干渉縞変換部170の配置が波面伝搬部130と位相信号合成部260との間に変更されている。
 本実施形態において、干渉縞変換部170は、波面伝搬部130により生成されたホログラムパターンの伝搬信号を位相信号に変換し、位相信号合成部260に入力する。
 位相信号合成部260は、干渉縞変換部170から入力された位相信号と、補正信号生成部150により生成された補正信号とを合成することで、ホログラムパターンを空間光変調器15で表示するための位相信号を生成し、これを出力装置180に入力する。
 本実施形態において、干渉縞変換部170と位相信号合成部260とは、例えば、請求の範囲における位相信号生成部の一例に相当し得る。また、視点位置変化計算部140と補正信号生成部150とは、例えば、請求の範囲における補正部の一例に相当し得る。
 2.2 動作例
 図19は、本実施形態に係るホログラム表示システムの動作例を示すフローチャートである。図19に示すように、ホログラム表示システム2の動作は、第1の実施形態において図5を用いて説明した動作と同様に、ある時刻T1におけるユーザ19の視点位置(F)に基づいてホログラムパターンの伝搬信号を生成する前半工程S400と、表示直前の時刻T2のユーザ19の視点位置(F’)に基づいてホログラムパターンを補正して補正後のホログラムパターンを表示する後半工程S500との2つの工程から構成されている。
 2.2.1 前半工程S400
 (ステップS101~S103)
 図19に示すように、前半工程S400では、まず、図5のステップS101~S103と同様の動作が実行されることで、SLM位置(A)にホログラムパターンを表現する複素数体を表す伝搬信号が生成される。
 (ステップS401)
 次に、干渉縞変換部170が、波面伝搬部130により生成されたホログラムパターンの伝搬信号に対してホログラムパターン変換処理を実行する(ステップS401)。なお、ホログラムパターン変換処理の内容は、第1の実施形態において例示した図5のステップS205に示す処理内容と同様であってよい。
 2.2.2 後半工程S500
 (ステップS201)
 つづいて、後半工程S500では、まず、図5のステップS201~S203と同様の動作が実行されることで、視点位置(F)から視点位置(F’)までの視点位置変化量に基づく補正信号が生成される。
 (ステップS501)
 次に、位相信号合成部260が、ステップS401で生成された位相信号と、ステップS203で生成された補正信号とを合成することで、ホログラムパターンの位相信号を生成する(ステップS501)。位相信号と補正信号との合成には、例えば、以下に示す式(6)が使用される。
Figure JPOXMLDOC01-appb-M000006
 (ステップS206)
 その後、図5のステップS206と同様に、ステップS501で生成されたホログラムパターンの位相信号が光源11を制御する出力装置180に入力され、出力装置180が入力された位相信号に基づいて光源11を制御することで、ホログラムパターンを表示するための光が空間光変調器15の変調面に照射されて、ユーザ19に対して表示位置(E)のホログラムが表示される(ステップS206)。
 以上のように、前半工程S400と後半工程S500とを実行すると、例えば、制御部は、本動作を継続するか否かを判定し(ステップS300)、終了する場合(ステップS300のYES)、本動作を終了する。一方、終了しない場合(ステップS300のNO)、制御部は、ステップS101へ戻り、以降の動作を実行する。
 2.3 作用効果
 以上のように、補正信号を合成する前に伝搬信号を位相信号に変換し、その後、補正信号を合成した場合でも、第1の実施形態又はその変形例と同様に、表示直前の視点位置(F’)に基づいて表示対象のホログラムパターンが補正されるため、視点位置の変化による表示位置のずれを低減することが可能となる。それにより、実空間とそれに重畳されたオブジェクトと位置ずれによるユーザが抱く違和感等を低減することが可能となるため、ユーザの視聴体験の低下を抑制することが可能となる。
 その他の構成、動作及び効果は、第1の実施形態又はその変形例と同様であってよいため、ここでは詳細な説明を省略する。なお、第1の実施形態において説明した変形例1~4は、第2の実施形態に対しても同様に適用することが可能である。
 3.第3の実施形態
 上述した実施形態又はその変形例では、ホログラム表示システムとして光学シースルー型のHMDを用いたARデバイスを例示したが、これに限定されず、例えば、ヘッドアップディスプレイ(HUD)や、裸眼立体テレビ等を用いたARデバイスなど、現実世界にホログラムを重畳して表示し得る種々のARデバイスに適用することが可能である。例えば、CGHを用いたAR HUDシステムは、第1の実施形態において図1を用いて説明したホログラム表示システムの応用例として実現することができる。そこで、第3の実施形態では、CGHを用いたAR HUDシステムを例に挙げて説明する。
 図20は、本実施形態に係るCGHを用いたAR HUDシステムの概要を説明するための模式図である。図20において、空間光変調器15がホログラム18を形成する原理は、例えば、第1の実施形態において空間光変調器15がホログラム18を形成する原理と同様であってよい。ただし、本実施形態では、空間光変調器15として、透過型のSLMが用いられている。
 AR HUDシステム3では、光源11から出射した光が複数のレンズ12及び13で構成された拡大光学系により拡大された後、空間光変調器15を透過することで、表示位置(E)にホログラム18を形成する。表示位置(E)に形成されたホログラム18は、コンバイナ30によって反射されることで、表示位置(G)のホログラム18Aとして視点位置(F)のユーザ19に視聴される。コンバイナ30には、例えば、可視光域の光を透過しつつ光源11からの光を反射するホログラムコンバイナが使用されてよい。
 3.1 作用効果
 このように、本開示に係る技術は、HMD型のARデバイスに限られず、現実世界にホログラムを重畳して表示し得る種々のARデバイスに適用することが可能である。
 その他の構成、動作及び効果は、上述した実施形態又はその変形例と同様であってよいため、ここでは詳細な説明を省略する。なお、第1の実施形態において説明した変形例1~4は、第3の実施形態に対しても同様に適用することが可能である。
 4.ハードウエア構成
 上述してきた実施形態及びその変形例並びに応用例に係る視点位置取得部110、レンダリング部120、波面伝搬部130、視点位置変化計算部140、補正信号生成部150、複素信号合成部160又は位相信号合成部260、干渉縞変換部170、及び、出力装置180の少なくとも一部を備える情報処理装置は、例えば図21に示すような構成のコンピュータ1000によって実現され得る。図21は、上述した実施形態に係る情報処理装置の機能を実現するコンピュータ1000の一例を示すハードウエア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インタフェース1500、及び入出力インタフェース1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
 CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
 ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウエアに依存するプログラム等を格納する。
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係るプログラムを記録する記録媒体である。
 通信インタフェース1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインタフェースである。例えば、CPU1100は、通信インタフェース1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
 入出力インタフェース1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインタフェースである。例えば、CPU1100は、入出力インタフェース1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インタフェース1600を介して、ディスプレイやスピーカやプリンタ等の出力デバイスにデータを送信する。また、入出力インタフェース1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインタフェースとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000が上述の実施形態に係る情報処理装置として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、視点位置取得部110、レンダリング部120、波面伝搬部130、視点位置変化計算部140、補正信号生成部150、複素信号合成部160又は位相信号合成部260、干渉縞変換部170、及び、出力装置180の少なくとも一部の機能を実現する。また、HDD1400には、本開示に係るプログラム等が格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
 以上、本開示の各実施形態及びその変形例について説明したが、本開示の技術的範囲は、上述の各実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
 また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 ユーザの視点位置を取得する視点位置取得部と、
 前記視点位置に基づいてレンダリング画像を生成するレンダリング部と、
 前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する波面伝搬部と、
 前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する位相信号生成部と、
 表示される前記ホログラムを前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて補正する補正部と、
 を備える情報処理装置。
(2)
 前記補正部は、前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて前記伝搬信号を補正するための補正信号を生成し、
 前記位相信号生成部は、
  前記伝搬信号と前記補正信号とに基づいて複素信号を生成する複素信号合成部と、
  前記複素信号を前記第1位相信号に変換する干渉縞変換部と、
 を含む、
 前記(1)に記載の情報処理装置。
(3)
 前記複素信号合成部は、前記伝搬信号と前記補正信号とを重畳することで前記複素信号を生成する前記(2)に記載の情報処理装置。
(4)
 前記位相信号生成部は、前記伝搬信号を第2位相信号に変換する干渉縞変換部を含み、
 前記補正部は、前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて前記第2位相信号を補正するための補正信号を生成し、
 前記位相信号生成部は、前記第2位相信号と前記補正信号とに基づいて前記第1位相信号を生成する位相信号合成部をさらに含む、
 前記(1)に記載の情報処理装置。
(5)
 前記位相信号合成部は、前記第2位相信号と前記補正信号とを重畳することで前記第1位相信号を生成する前記(4)に記載の情報処理装置。
(6)
 前記補正部は、前記ユーザの前記現在の視点位置に基づいて予め用意されたルックアップテーブルを参照することで、前記補正信号を生成する前記(2)~(5)の何れか1つに記載の情報処理装置。
(7)
 前記補正部は、予め用意された前記ルックアップテーブルから取得した前記補正信号を前記ユーザの前記現在の視点位置に基づいて修正する前記(6)に記載の情報処理装置。
(8)
 前記補正信号は、直線位相の補償位相パターンを有する前記(2)~(7)の何れか1つに記載の情報処理装置。
(9)
 前記補償位相パターンは、0から2πの周期で繰り返される位相パターンを有する前記(8)に記載の情報処理装置。
(10)
 前記補正信号は、水平方向の補償位相パターンと垂直方向の補償位相パターンとを含む前記(2)~(9)の何れか1つに記載の情報処理装置。
(11)
 前記補正信号は、水平方向の補償位相パターンと垂直方向の補償位相パターンとを合成した補償位相パターンを有する前記(2)~(9)の何れか1つに記載の情報処理装置。
(12)
 前記補正部は、前記波面伝搬部による前記伝搬信号の生成とは非同期に前記補正信号を生成する前記(2)~(11)の何れか1つに記載の情報処理装置。
(13)
 前記第1位相信号に基づいて空間光変調器へ向けて出力する光源を制御する出力部をさらに備える前記(1)~(12)の何れか1つに記載の情報処理装置。
(14)
 前記空間光変調器は、位相限定型空間光変調器又は振幅限定型空間光変調器である前記(13)に記載の情報処理装置。
(15)
 前記視点位置取得部は、前記ユーザの頭の位置を前記視点位置として取得する前記(1)~(14)の何れか1つに記載の情報処理装置。
(16)
 前記視点位置取得部は、前記ユーザの頭部に装着される機器に設けられた慣性センサからの信号に戻づいて前記ユーザの視点位置を取得する前記(1)~(15)の何れか1つに記載の情報処理装置。
(17)
 前記ユーザの頭部に装着される機器は、ヘッドマウントディスプレイである前記(16)に記載の情報処理装置。
(18)
 ユーザの視点位置を取得する工程と、
 前記視点位置に基づいてレンダリング画像を生成する工程と、
 前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する工程と、
 前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する工程と、
 前記ユーザの現在の視点位置を取得する工程と、
 表示される前記ホログラムを前記ユーザの現在の視点位置に基づいて補正する工程と、
 を備える情報処理方法。
(19)
 空間光変調器に光を照射することでホログラムを表示するシステムに実装されるプロセッサを機能させるためのプログラムを記録した記録媒体であって、
 前記プロセッサに、
  ユーザの視点位置を取得する処理と、
  前記視点位置に基づいてレンダリング画像を生成する処理と、
  前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する処理と、
  前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する処理と、
  前記ユーザの現在の視点位置を取得する処理と、
  表示される前記ホログラムを前記ユーザの現在の視点位置に基づいて補正する処理と、
 を実行させるためのプログラムを記録した記録媒体。
 1、2 ホログラム表示システム
 3 AR HUDシステム
 11 光源
 12、13 レンズ
 14 ビームスプリッタ
 15 空間光変調器
 18、18A ホログラム
 18D デプスマップ
 18RGB RGB画像データ
 18a 点オブジェクト
 19 ユーザ
 101 3次元画像情報
 110 視点位置取得部
 120 レンダリング部
 130 波面伝搬部
 140 視点位置変化計算部
 150 補正信号生成部
 160 複素信号合成部
 170 干渉縞変換部
 180 出力装置
 260 位相信号合成部

Claims (19)

  1.  ユーザの視点位置を取得する視点位置取得部と、
     前記視点位置に基づいてレンダリング画像を生成するレンダリング部と、
     前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する波面伝搬部と、
     前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する位相信号生成部と、
     表示される前記ホログラムを前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて補正する補正部と、
     を備える情報処理装置。
  2.  前記補正部は、前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて前記伝搬信号を補正するための補正信号を生成し、
     前記位相信号生成部は、
      前記伝搬信号と前記補正信号とに基づいて複素信号を生成する複素信号合成部と、
      前記複素信号を前記第1位相信号に変換する干渉縞変換部と、
     を含む、
     請求項1に記載の情報処理装置。
  3.  前記複素信号合成部は、前記伝搬信号と前記補正信号とを重畳することで前記複素信号を生成する請求項2に記載の情報処理装置。
  4.  前記位相信号生成部は、前記伝搬信号を第2位相信号に変換する干渉縞変換部を含み、
     前記補正部は、前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて前記第2位相信号を補正するための補正信号を生成し、
     前記位相信号生成部は、前記第2位相信号と前記補正信号とに基づいて前記第1位相信号を生成する位相信号合成部をさらに含む、
     請求項1に記載の情報処理装置。
  5.  前記位相信号合成部は、前記第2位相信号と前記補正信号とを重畳することで前記第1位相信号を生成する請求項4に記載の情報処理装置。
  6.  前記補正部は、前記ユーザの前記現在の視点位置に基づいて予め用意されたルックアップテーブルを参照することで、前記補正信号を生成する請求項2に記載の情報処理装置。
  7.  前記補正部は、予め用意された前記ルックアップテーブルから取得した前記補正信号を前記ユーザの前記現在の視点位置に基づいて修正する請求項6に記載の情報処理装置。
  8.  前記補正信号は、直線位相の補償位相パターンを有する請求項2に記載の情報処理装置。
  9.  前記補償位相パターンは、0から2πの周期で繰り返される位相パターンを有する請求項8に記載の情報処理装置。
  10.  前記補正信号は、水平方向の補償位相パターンと垂直方向の補償位相パターンとを含む請求項2に記載の情報処理装置。
  11.  前記補正信号は、水平方向の補償位相パターンと垂直方向の補償位相パターンとを合成した補償位相パターンを有する請求項2に記載の情報処理装置。
  12.  前記補正部は、前記波面伝搬部による前記伝搬信号の生成とは非同期に前記補正信号を生成する請求項2に記載の情報処理装置。
  13.  前記第1位相信号に基づいて空間光変調器へ向けて出力する光源を制御する出力部をさらに備える請求項1に記載の情報処理装置。
  14.  前記空間光変調器は、位相限定型空間光変調器又は振幅限定型空間光変調器である請求項13に記載の情報処理装置。
  15.  前記視点位置取得部は、前記ユーザの頭の位置を前記視点位置として取得する請求項1に記載の情報処理装置。
  16.  前記視点位置取得部は、前記ユーザの頭部に装着される機器に設けられた慣性センサからの信号に戻づいて前記ユーザの視点位置を取得する請求項1に記載の情報処理装置。
  17.  前記ユーザの頭部に装着される機器は、ヘッドマウントディスプレイである請求項16に記載の情報処理装置。
  18.  ユーザの視点位置を取得する工程と、
     前記視点位置に基づいてレンダリング画像を生成する工程と、
     前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する工程と、
     前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する工程と、
     前記ユーザの現在の視点位置を取得する工程と、
     表示される前記ホログラムを前記ユーザの現在の視点位置に基づいて補正する工程と、
     を備える情報処理方法。
  19.  空間光変調器に光を照射することでホログラムを表示するシステムに実装されるプロセッサを機能させるためのプログラムを記録した記録媒体であって、
     前記プロセッサに、
      ユーザの視点位置を取得する処理と、
      前記視点位置に基づいてレンダリング画像を生成する処理と、
      前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する処理と、
      前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する処理と、
      前記ユーザの現在の視点位置を取得する処理と、
      表示される前記ホログラムを前記ユーザの現在の視点位置に基づいて補正する処理と、
     を実行させるためのプログラムを記録した記録媒体。
PCT/JP2022/008177 2021-05-31 2022-02-28 情報処理装置、情報処理方法及びプログラムを記録した記録媒体 WO2022254833A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-091158 2021-05-31
JP2021091158 2021-05-31

Publications (1)

Publication Number Publication Date
WO2022254833A1 true WO2022254833A1 (ja) 2022-12-08

Family

ID=84324113

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008177 WO2022254833A1 (ja) 2021-05-31 2022-02-28 情報処理装置、情報処理方法及びプログラムを記録した記録媒体

Country Status (1)

Country Link
WO (1) WO2022254833A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005516258A (ja) * 2002-01-30 2005-06-02 エックスワイジー イメージング インク. 合成1段階ホログラムの書き込み方法
JP2009544036A (ja) * 2006-07-18 2009-12-10 セルオプティック、インコーポレイテッド 受信電磁放射線から物体の3次元情報を抽出するシステム、装置および方法
JP2010528325A (ja) * 2007-05-16 2010-08-19 シーリアル テクノロジーズ ソシエテ アノニム 3dレンダリング・グラフィック・パイプラインを向上するためにビデオホログラムをリアルタイムに生成する方法
US20190310585A1 (en) * 2013-06-06 2019-10-10 Seereal Technologies S.A. Device and method for calculating holographic data
JP2020516933A (ja) * 2017-04-07 2020-06-11 デュアリタス リミテッド ホログラフィックプロジェクタ
JP2020533629A (ja) * 2017-09-08 2020-11-19 デュアリタス リミテッド ホログラフィックプロジェクタ

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005516258A (ja) * 2002-01-30 2005-06-02 エックスワイジー イメージング インク. 合成1段階ホログラムの書き込み方法
JP2009544036A (ja) * 2006-07-18 2009-12-10 セルオプティック、インコーポレイテッド 受信電磁放射線から物体の3次元情報を抽出するシステム、装置および方法
JP2010528325A (ja) * 2007-05-16 2010-08-19 シーリアル テクノロジーズ ソシエテ アノニム 3dレンダリング・グラフィック・パイプラインを向上するためにビデオホログラムをリアルタイムに生成する方法
US20190310585A1 (en) * 2013-06-06 2019-10-10 Seereal Technologies S.A. Device and method for calculating holographic data
JP2020516933A (ja) * 2017-04-07 2020-06-11 デュアリタス リミテッド ホログラフィックプロジェクタ
JP2020533629A (ja) * 2017-09-08 2020-11-19 デュアリタス リミテッド ホログラフィックプロジェクタ

Similar Documents

Publication Publication Date Title
Maimone et al. Holographic near-eye displays for virtual and augmented reality
Park et al. Holographic techniques for augmented reality and virtual reality near-eye displays
US10481554B2 (en) Near-eye device
Padmanaban et al. Holographic near-eye displays based on overlap-add stereograms
KR101620852B1 (ko) 홀로그래픽 보정을 갖는 홀로그래픽 이미지 프로젝션
JP5265546B2 (ja) サブホログラムを使用してビデオホログラムをリアルタイムに生成する方法
US10558049B2 (en) Focal surface display
EP1287400B8 (en) Computation time reduction for three-dimensional displays
JP7486822B2 (ja) ホログラフィックヘッドアップディスプレイ装置
JP5468537B2 (ja) 3dレンダリング・グラフィック・パイプラインを向上するためにビデオホログラムをリアルタイムに生成する方法
JP5266223B2 (ja) 伝播を使用して計算機ビデオホログラムをリアルタイムに生成する方法
US20180364643A1 (en) Method for computing holograms for holographic reconstruction of two-dimensional and/or three-dimensional scenes
US10845761B2 (en) Reduced bandwidth holographic near-eye display
JP2008541159A (ja) シーンのホログラフィック再構成を行う投影装置及び方法
JP2008541159A5 (ja)
WO2005099386A2 (en) Holographic projector
JP7227095B2 (ja) ホログラム生成装置およびホログラム生成方法
Kang et al. Color holographic wavefront printing technique for realistic representation
JP2004516498A (ja) 改良型3dディスプレイ
WO2022254833A1 (ja) 情報処理装置、情報処理方法及びプログラムを記録した記録媒体
JP2009540353A (ja) エレクトロホログラフィックディスプレイにおける実効画素ピッチを低減する方法及び低減された実効画素ピッチを含むエレクトロホログラフィックディスプレイ
US20220342366A1 (en) Holographic display apparatus including freeform curved surface and operating method thereof
CN109946943B (zh) 一种基于光束整形抑制散斑噪声的全息显示***
CN110431470B (zh) 焦面显示
US10168668B2 (en) Method of forming a rarefied hologram for video imaging and 3D lithography

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22815591

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22815591

Country of ref document: EP

Kind code of ref document: A1