WO2019198784A1 - ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法 - Google Patents

ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法 Download PDF

Info

Publication number
WO2019198784A1
WO2019198784A1 PCT/JP2019/015745 JP2019015745W WO2019198784A1 WO 2019198784 A1 WO2019198784 A1 WO 2019198784A1 JP 2019015745 W JP2019015745 W JP 2019015745W WO 2019198784 A1 WO2019198784 A1 WO 2019198784A1
Authority
WO
WIPO (PCT)
Prior art keywords
light field
information
image
display
image generation
Prior art date
Application number
PCT/JP2019/015745
Other languages
English (en)
French (fr)
Inventor
森本 哲郎
Original Assignee
凸版印刷株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 凸版印刷株式会社 filed Critical 凸版印刷株式会社
Priority to JP2020513445A priority Critical patent/JP7377413B2/ja
Priority to KR1020207029432A priority patent/KR20200144097A/ko
Priority to EP19784488.9A priority patent/EP3779892A4/en
Priority to CN201980025186.7A priority patent/CN111954896A/zh
Publication of WO2019198784A1 publication Critical patent/WO2019198784A1/ja
Priority to US17/069,130 priority patent/US11961250B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/10Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images using integral imaging methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Definitions

  • the present invention relates to a light field image generation system, an image display system, a shape information acquisition server, an image generation server, a display device, a light field image generation method, and an image display method.
  • the remote operation system is a system that includes a robot for performing work on an object and a remote operation device, and remotely operates the robot wirelessly or the like (see, for example, Patent Document 1).
  • HMD Head Mounted Display
  • an operator who processes an object wears a head-mounted display (hereinafter referred to as HMD (Head Mounted Display)) on the head and observes an image captured by an imaging device arranged in the field. While working.
  • HMD Head Mounted Display
  • the operator when observing the object, depth information of the object is obtained by convergence, and the three-dimensional shape is reconstructed in the brain.
  • the operator adjusts the crystalline lens of the eyeball so that it matches the display surface of the HMD on which the image of the object is displayed. For this reason, since the focus is not adjusted to the position of the depth perceived by the convergence in the eyes of the worker, a mismatch between the convergence and the focus adjustment occurs.
  • an HMD using a display using a light field technology has been developed.
  • light field information information on light rays emitted from the surface of the object
  • the three-dimensional shape of the object can be configured in the brain.
  • the light field information of the work object is acquired, and an image corresponding to the light field information is generated and displayed on the HMD. It is possible to focus on a desired depth position in the shape. By using this light field information, it is possible to make the convergence and focus adjustment of the worker coincide with each other, and it is possible to suppress eye strain, motion sickness, etc., making it easy to perform detailed work and long work. I can expect that.
  • the light field information is information on light rays in the light field, and the light field information described above in the light field obtained from a set of captured images (light field images) of a plurality of, for example, n ⁇ m matrices with the viewpoint shifted by a predetermined distance. It is information on rays.
  • the viewpoint positions are shifted in the x direction and the y direction, and n ⁇ m imaging devices 401 having different viewpoint positions, for example, 3 ⁇ 3 different nine viewpoints.
  • the object 403 is imaged by each of the nine imaging devices 401 arranged in each.
  • the nine captured images having different viewpoint positions are generated as a light field image 402 having light ray information (light field information) in nine directions from the object 403.
  • is an angle in a plane between an axis passing perpendicularly through the center of the light field image and the y axis.
  • is the angle in the plane between the axis that passes perpendicularly through the center of the light field image and the x-axis. Since each of the light field images 402 is picked up with a predetermined resolution, the light field image 402 has a gradation level corresponding to a pixel corresponding to the resolution. Therefore, the data amount of the light field information is (number of pixels ⁇ gradation) ⁇ number of light field images, which is very large.
  • the amount of data to be transmitted is so large that the communication load increases, and the light field information data It takes time to send. Since it takes time to transmit the data of the light field image, it is necessary to periodically update the light field information when displaying an image, particularly a moving image, on the HMD. An image display process may be delayed or an image may be lost, which may cause trouble in remote operation.
  • the present invention has been made in view of the above situation, and by reducing the amount of light field information to be transmitted, the communication load is reduced, image display processing in the HMD is delayed, and image loss occurs.
  • a light field image generation system, an image display system, a shape information acquisition server, an image generation server, a display device, a light field image generation method, and an image display method are provided.
  • a first aspect of the present invention is a light field image generation system, a shape information acquisition server that acquires shape information indicating a three-dimensional shape of an object, and 3 of the object in a virtual space from the shape information.
  • An image generation server including a shape reconstruction unit that reconstructs a three-dimensional shape as a virtual three-dimensional shape, and a light field image generation unit that generates a light field image at a predetermined viewpoint position in the virtual space.
  • the light field image generation unit in the image generation server uses a virtual imaging device based on an arbitrary viewpoint position and viewpoint direction in the virtual space.
  • the virtual three-dimensional shape may be picked up to generate a light field image from the arbitrary viewpoint position and viewpoint direction.
  • the shape information acquisition server uses the captured image of the target object captured from the captured image of the target object. Shape information may be generated.
  • the shape information is gradation level information of each pixel in a captured image in which the object is captured. And depth information.
  • the shape information includes three-dimensional point group information including feature points of the object, Each of them may be gradation level information of feature points.
  • the gradation information is gradations of an R component, a G color component, and a B color component as color information. Also good.
  • the shape information is captured by a plurality of imaging devices arranged at different viewpoint positions and viewpoint directions. It may also be configured from information extracted from a plurality of captured images.
  • An eighth aspect of the present invention is an image display system, comprising any one of the light field image generation systems described above, an image generation server that generates a display image from the light field image, and a display device, wherein the display device is , A display having two or more layers including at least a front transparent display and a rear display, each having a display unit arranged so that corresponding pixels overlap in a plan view, and the image generation server displays each on the display Each of the display images is generated by compressing the gradation level information of the pixels of the light field image.
  • a ninth aspect of the present invention is a shape information acquisition server, and in a virtual space from a shape information of an object, a shape reconstruction unit that reconfigures the three-dimensional shape of the object as a virtual three-dimensional shape;
  • a shape information acquisition server provided in a light field image generation system together with an image generation server having a light field image generation unit that generates a light field image of a virtual three-dimensional shape at a predetermined viewpoint in the virtual space, The shape information indicating the three-dimensional shape of the object is acquired.
  • a tenth aspect of the present invention is an image generation server, which is an image generation server provided in a light field image generation system together with a shape information acquisition server that acquires shape information indicating a three-dimensional shape of an object. To generate a light field image at a predetermined viewpoint position in the virtual space, and a shape reconstruction unit that reconstructs the three-dimensional shape of the object as a virtual three-dimensional shape in the virtual space A light field image generation unit is provided.
  • An eleventh aspect of the present invention is a display device that displays an image together with the light field image generation system according to any one of the first to sixth aspects and an image generation server that generates a display image from the light field image.
  • a display device included in the system comprising a display unit in which at least two layers of a display including at least a front transparent display and a rear display are arranged so that corresponding pixels overlap in a plan view, and generated by the image generation server
  • Each display image which is displayed on the display and is compressed with the gradation information of the pixel of the light field image, is displayed on each display.
  • a twelfth aspect of the present invention is a light field image generation method, a shape information acquisition process for acquiring shape information indicating a three-dimensional shape of an object, and 3 of the object in a virtual space from the shape information.
  • a shape reconstruction process for reconstructing a three-dimensional shape as a virtual three-dimensional shape; and a light field image generation process for generating a light field image at a predetermined viewpoint position in the virtual space.
  • a thirteenth aspect of the present invention is an image display method, a shape information acquisition process for acquiring shape information indicating a three-dimensional shape of an object, and a three-dimensional shape of the object in a virtual space from the shape information. At least a front surface, a shape reconstruction process for reconfiguring the virtual three-dimensional shape, a light field image generation process for generating a light field image at a predetermined viewpoint position in the virtual space, and a display device.
  • a display image generation process for generating each display image in which information is compressed.
  • the communication load is reduced by reducing the amount of information to be transmitted, the image display processing in the HMD is delayed, and the loss of the image occurs. It is possible to provide a light field image generation system, an image display system, a shape information acquisition server, an image generation server, a display device, a light field image generation method, and an image display method that can suppress this.
  • FIG. 1 is a diagram showing a configuration example of a light field image generation system according to the first embodiment of the present invention.
  • the light field image generation system includes a shape information acquisition server 1 and an image generation server 2.
  • Each of the shape information acquisition server 1 and the image generation server 2 transmits and receives data via the information communication network 500.
  • the imaging device 3_1 and the imaging device 3_2 capture the target object 200 and output the captured image to the shape information acquisition server 1.
  • the imaging device 3_1 and the imaging device 3_2 when accessed from the shape information acquisition server 1, capture the target object 200 and output the captured image to the shape information acquisition server 1.
  • Each of the imaging device 3_1 and the imaging device 3_2 is, for example, a camera that captures a two-dimensional image of the target object 200, and each captured image is converted into three-dimensional shape information (three-dimensional point group information including feature points or (Shape information that is a combination of depth information that is a depth image and color information that is a color image (color image)) is output to the shape information acquisition server 1 (case # 1).
  • Each of the imaging device 3_1 and the imaging device 3_2 images the target object 200 from different viewpoints to form a captured image. In case # 1, two or more captured images may be captured from different viewpoints with one imaging device 3_1.
  • each of the imaging device 3_1 and the imaging device 3_2 is, for example, an RGB (Red, Green, Blue) -D (Depth) camera, and a camera that captures a two-dimensional image of the target object 200.
  • the target object 200 is output to the shape information acquisition server 1 as three-dimensional shape information (combination of depth information and color information) (Case # 2). In case # 2, it is sufficient that only one image pickup apparatus 3_1 picks up a picked-up image from one viewpoint.
  • Each of the imaging device 3_1 and the imaging device 3_2 is, for example, a three-dimensional measurement device, and includes 3 feature points indicating the three-dimensional shape of the target object 200 by a light (laser light) cutting method or a fringe projection method.
  • the three-dimensional point group is output to the shape information acquisition server 1 as three-dimensional shape information (three-dimensional point group or depth image and color information at the feature point) of the target object 200 (case # 3). In this case # 3, since the shape information is obtained from the reflected light of the emitted laser light, the color information of each feature point of the three-dimensional point group cannot be acquired.
  • Each of the imaging device 3_1 and the imaging device 3_2 is, for example, a light field camera (for example, a camera array method, a coded aperture method, or a microlens array method), and light ray information is obtained from a captured image captured by the light field camera. To get. Then, based on the acquired ray information, the three-dimensional shape information (three-dimensional point group information or depth information that is a depth image) of the feature point indicating the three-dimensional shape of the target object 200 and the color information (for example, color component) of the feature point R component, G component, and B component). Then, this three-dimensional shape information is output to the shape information acquisition server 1 as the three-dimensional shape information of the target object 200 (case # 4).
  • a light field camera for example, a camera array method, a coded aperture method, or a microlens array method
  • the shape information acquisition server 1 includes a captured image input unit 11, a three-dimensional shape information generation unit 12, a three-dimensional shape information output unit 13, and a storage unit 14.
  • the captured image input unit 11 inputs three-dimensional shape information indicating the shape of the target object 200 from each of the imaging device 3_1 and the imaging device 3_2, and temporarily writes and stores the information in the storage unit.
  • the three-dimensional shape information generation unit 12 reads the three-dimensional shape information from the storage unit 14, and from the read three-dimensional shape information, the depth information (geometric information) and color of the target object 200 transmitted to the image generation server 2 Three-dimensional shape information including information is generated.
  • Case # 1 The three-dimensional shape information generation unit 12 uses the stereo matching method to obtain the geometric information of the target object 200 from two captured images captured at different viewpoints, and the target object in the virtual three-dimensional space. It is generated as a three-dimensional point group of 200 feature points.
  • the three-dimensional shape information generation unit 12 performs the gradation information on the feature points (the levels of the color components RGB of the pixel corresponding to the feature points) with respect to the geometric information that is the depth information.
  • the tone information of the R component, the G component, and the B component is given as the information on the furniture, that is, the color information composed of the tone values of the R component, the G component, and the B component, thereby obtaining three-dimensional shape information.
  • the three-dimensional shape information generation unit 12 is the gradation information of the feature points of the three-dimensional shape and the respective geometric information supplied from the imaging device 3_1 and the imaging device 3_2 as the three-dimensional shape information.
  • the depth information is set as three-dimensional shape information to be transmitted to the image generation server 2. Further, a three-dimensional point group in the virtual three-dimensional space of the feature points is generated from the gradation level information of the feature points of the three-dimensional shape and the depth information supplied from the imaging devices 3_1 and 3_2, and this three-dimensional point group is generated.
  • the point cloud may be configured as geometric information.
  • the three-dimensional shape information generation unit 12 has the gradation information of the feature points of the three-dimensional point group (depth information) as the R component, the G component, and the B component.
  • Each of the R component, the G component, and the B component as the gradation information of the feature point (information on the gradation of each of the R component, G component, and B component of the color component RGB of the pixel corresponding to the feature point, that is, color information) Are given three-dimensional shape information.
  • FIG. 2 is a conceptual diagram showing each of three-dimensional shape information and gradation degree information acquired from the captured image.
  • FIG. 2A shows each of depth information acquired by the RGB-D camera and gradation information of color information.
  • the depth information is a three-dimensional point group or a depth image (an image in which the depth is indicated by a gradation).
  • Each of the imaging device 3_1 and the imaging device 3_2 captures the target object 200 (measures a three-dimensional shape), and as depth information (gradation degree display) 212 of each feature point of the target object 200, as three-dimensional shape information, Since the image to be captured is a color image, gradation level information 213 (color information) including the gradation levels of the R component, G component, and B component of the feature point is generated.
  • the three-dimensional shape information generation unit 12 may use the plurality of pieces of geometric information. 3D point group or depth image that can be observed from multiple viewpoints is generated in the virtual 3D space as depth information, and color information is added to the feature points of the depth information to create a 3D shape Information.
  • the three-dimensional shape information generation unit 12 generates a three-dimensional point group including feature points in a virtual three-dimensional space indicating the three-dimensional shape of the target object 200 supplied as geometric information.
  • the three-dimensional shape information of the target object 200 is used.
  • the color information of each feature point in the three-dimensional point group cannot be obtained. Only the geometric information of the dimension point group or depth image is provided.
  • the feature points in each three-dimensional point group or depth image are As the color information, the gradation of each of the R component, the G component, and the B component can be given. In this case, each of depth information and color information can be included in the three-dimensional shape information.
  • Case # 4 The three-dimensional shape information generation unit 12 extracts light ray information from the captured image captured by the light field camera. Then, the three-dimensional shape information generation unit 12 includes feature points in a virtual three-dimensional space indicating the three-dimensional shape of the target object 200 supplied as geometric information from the light ray information using, for example, a photogrammetry method.
  • a three-dimensional point cloud or depth image is generated.
  • This three-dimensional point group is geometric information of the target object 200.
  • the picked-up image picked up by the light field camera is a color image
  • the gradation of each of the R component, the G component, and the B component is given to the feature points in each three-dimensional point group as color information. It is assumed to be shape information.
  • Case # 5 New three-dimensional shape information is obtained by combining and combining depth information and color information (three-dimensional shape information) obtained from each of case # 1 to case # 4.
  • the imaging devices of the camera, the RGBD camera, the three-dimensional measuring device, and the light field camera have different resolutions, geometric positions and orientations, lens distortions, and the like.
  • a plurality of calibration targets such as a plane board on which a grid or a dot pattern is printed, or a three-dimensional shape with a known shape, can be captured in various postures and positions.
  • the captured image is captured.
  • the relative position / orientation and lens parameters of each imaging device (camera, etc.) in the same three-dimensional space are estimated in correspondence with the shape of the calibration target captured in the captured image. From this estimation result, it is necessary to acquire the consistency of the relative imaging position and imaging direction in the same three-dimensional space for each position and orientation of each imaging apparatus.
  • FIG. 2B shows depth information and gradation level information acquired by each of the light field camera and the RGBD camera.
  • FIG. 2B shows depth information and color information (gradation degree information) obtained by synthesizing geometric information (three-dimensional point cloud or depth image) generated from captured images of the light field camera and the RGBD camera. Is shown.
  • Each of the light field camera and the RGBD camera captures the target object 200, and as the three-dimensional shape information, the depth information of each feature point of the target object 200 and the feature point when the captured image is a color image.
  • gradation level information including gradation levels of the R component, the G component, and the B component is generated.
  • the depth information 232 generated from the captured image of the light field camera is combined with the depth information 222 (depth image) generated from the captured image of the RGBD camera to obtain depth information of the target object 200.
  • the gradation level information 233 generated from the captured image of the light field camera is combined with the gradation level information 223 generated from the captured image of the RGBD camera, and the gradation level information (as color information) of the target object 200 is synthesized.
  • R, G, and B component gradation levels) of the feature points since the field angle of a light field camera is generally narrower than that of an RGBD camera, the range of an imaged area is smaller than that of an RGBD camera.
  • the light field camera has higher resolution than the RGBD camera, increases the number of feature points that can be acquired, and can acquire dense depth information and color information.
  • the depth information and the color information As a result, in each of the depth information and the color information, a region with a sparse feature point and a dense region are generated. However, when there is a region to be observed in detail in the overall three-dimensional shape of the target object 200 as an application, a dense feature point obtained from a captured image obtained by capturing the region to be observed in detail with a light field camera Thus, in order to complement the sparse feature points obtained from the captured image captured by the RGBD camera, the depth information and the color information may be combined. When combining the depth information and color information described above, the boundary between the dense feature area and the sparse area is given a gradation, and gradually from the sparse feature area toward the dense area.
  • the boundary portion can be made inconspicuous when the user observes the light field image.
  • the boundary portion is desired to be clear, the area where the feature points are sparse and the dense area are simply synthesized to obtain depth information and color information of the three-dimensional shape information of the target object 200, so that where the user is now Can be visually recognized as to which is a dense region.
  • the three-dimensional shape information output unit 13 uses the depth information and the color information as the three-dimensional shape information generated by the three-dimensional shape information generation unit 12 as light field information via the information communication network 500 and the image generation server. 2 is transmitted.
  • a light field image as light field information
  • nine captured images captured at each of nine different viewpoint positions of n ⁇ m, for example, 3 ⁇ 3 are transmitted.
  • each captured image has the gradation of each of the R component, the G component, and the B component for each pixel. For this reason, when the resolution of the captured image is increased or the light ray information to be acquired is increased, the amount of data in the captured image is further increased.
  • the depth information that is the geometric information of the target object 200 and the color information of each feature point are converted into a three-dimensional shape.
  • the amount of data to be transmitted can be reduced, and light field information can be transmitted at a higher speed than the transmission of conventional light field images.
  • the three-dimensional shape information by converting each of the feature points in the geometric information into a depth image and a color image with consistency, using a light field image and an RGBD image, The depth information and the color information including the sparse area and the dense area, respectively, and the feature point information of the sparse area and the dense area are held as the light field information.
  • FIG. 12 is a diagram for explaining generation of a depth image and a color image indicating the three-dimensional shape information of the target object 200.
  • a virtual three-dimensional shape 371 of the target object 200 is generated in the virtual three-dimensional space 370. Since the virtual three-dimensional shape 371 uses a light field image and an RGBD image for generation as described above, there are regions where feature points are dense and sparse. In the virtual three-dimensional space 370, the virtual three-dimensional shape 371 is imaged by each of the virtual cameras 375 and 376.
  • each of color information (color image) 375_1 and depth information (depth image) 375_2 is generated from the captured image (actually projected image, that is, orthographic projection) captured by the virtual camera 375 (right camera).
  • each of color information (color image) 376_1 and depth information (depth image) 376_2 is generated from a captured image (actually projected image, that is, orthographic projection) captured by the virtual camera 376 (left camera).
  • each of the color information 375_1, 376_1, depth information 375_2 and 376_2 is output to the shape information acquisition server 1 as the three-dimensional shape information of the target object 200.
  • each feature point of the feature point in the three-dimensional shape information and each of the color information are not orthographically projected as a captured image on the above-described two-dimensional plane using a sphere or a cylinder.
  • FIG. 13 is a diagram illustrating generation of a depth image and a color image indicating the three-dimensional shape information of the target object 200 by UV development.
  • a virtual three-dimensional shape 351 of the target object 200 is generated. Since this virtual three-dimensional shape 351 uses a light field image and an RGBD image for generation, as in FIG. 12, there are regions where feature points are dense and sparse.
  • a sphere 352 including the virtual three-dimensional shape 351 with the center of gravity of the virtual three-dimensional shape 351 as the center is generated.
  • the color information (color image) of the feature point of the virtual three-dimensional shape 351 is projected (UV development) onto the inner surface of the sphere 352 to generate a color image 360, and the projected portion is transformed from the sphere 352.
  • a depth image (not shown) using the depth information, which is the distance to the feature point, as gradation information is generated.
  • the feature points are dense and sparse. The area and exist.
  • a general image compression algorithm can be used, and the amount of data can be further reduced, which is particularly effective for transmitting a moving image.
  • the resolution of the area with dense feature points is different from the resolution of the sparse area, and thus the area needs to be divided and transmitted.
  • the viewing angle can be increased as compared with FIG. 12, and the three-dimensional shape information (depth information and color information) in all directions of the target object 200 is transmitted. be able to.
  • the image generation server 2 includes a three-dimensional shape information input unit 21, a three-dimensional shape reconstruction unit 22, a light field image generation unit 23, and a storage unit 24.
  • the three-dimensional shape information input unit 21 inputs, from the shape information acquisition server 1, three-dimensional shape information including depth information that is geometric information indicating the shape of the target object 200 and color information of feature points in the geometric information. Then, the data is written in the storage unit 24 and temporarily stored.
  • the three-dimensional shape reconstruction unit 22 performs reconstruction (restoration) processing on the three-dimensional shape of the target object 200 as a virtual three-dimensional shape in the virtual three-dimensional space from the three-dimensional shape information including depth information and color information.
  • This three-dimensional shape restoration process uses a method of restoring any three-dimensional shape of commonly used methods.
  • the virtual three-dimensional shape to be restored may require fineness (cleanliness).
  • the following restoration methods can be selected as appropriate according to the required density in accordance with the intended use.
  • a virtual three-dimensional shape obtained by restoring a three-dimensional point cloud of a geometric shape or a depth image itself may be used.
  • 3D coordinates of each feature point are calculated using a 3D point cloud or depth image of a geometric shape to obtain higher density point cloud data (Dense point cloud).
  • the dense point cloud data may be a restored virtual three-dimensional shape (three-dimensional shape model).
  • 3D coordinates of each feature point are calculated using a 3D point cloud of geometric information or a depth image to obtain higher density point cloud data, and mesh data is obtained from this point cloud data. It is also possible to restore the final virtual three-dimensional shape (three-dimensional shape model) by complementing each color of the mesh data corresponding to the RGB gradation of the feature points.
  • a three-dimensional shape of the target object 200 for example, data of a three-dimensional shape generated by CG (Computer Graphics) is written and stored in the storage unit 24 in advance, and is combined with the restored virtual three-dimensional shape. It is good also as a structure. For example, the area captured by the camera provided in the endoscope is narrow (the angle of view is narrow).
  • the three-dimensional shape reconstruction unit 22 may be configured to read a three-dimensional shape generated in advance from the stomach with CG from the storage unit 24 and synthesize it with the restored virtual three-dimensional shape. Accordingly, the light field image generation unit 23 can generate a light field image in which the virtual three-dimensional shape is focused in the three-dimensional shape heart generated by CG. By viewing this light field image, the user can clearly recognize which position of the heart corresponds to the position of the heart observed by the endoscope.
  • the three-dimensional shape data of the heart is generated by using CG from an image such as MRI (Magnetic Resonance Imaging), for example, and the geometrical consistency with the imaging position of the endoscope is acquired in advance.
  • the three-dimensional shape of the CG and the virtual three-dimensional shape are arranged in the same three-dimensional space with their positions aligned.
  • the technique for synthesizing the CG three-dimensional shape and the virtual three-dimensional shape can also be used as an MR (Mixed Reality) manual for superimposing and displaying a CG virtual image on a real image.
  • a virtual three-dimensional image of a portion observed by a user is synthesized with a three-dimensional shape of the entire engine generated by CG, and from which screw A three-dimensional shape is formed by superimposing information such as information on whether to remove or an image explaining the position name and function.
  • the light field image generation unit 23 combines a three-dimensional image of the engine generated by CG, a virtual three-dimensional shape of the region observed by the user, a description image, and the like in a three-dimensional space. To generate a light field image.
  • AR Augmented Reality
  • the light field image generation unit 23 captures the virtual three-dimensional shape of the target object 200 in the virtual three-dimensional space restored by the three-dimensional shape reconstruction unit 22 with a virtual camera (virtual imaging device) in the virtual three-dimensional space. Then, a light field image is generated. That is, in the virtual three-dimensional space, as shown in FIG. 11, virtual cameras are arranged in a matrix of n ⁇ m at viewpoint positions shifted by a predetermined distance, and target objects from n ⁇ m different positions. 200 is imaged, and n ⁇ m captured images are generated (acquired) as light field images.
  • the light field image generation unit 23 writes the generated light field image into the storage unit 24 and stores it.
  • FIG. 3 is a conceptual diagram illustrating generation of a light field image by capturing the virtual three-dimensional shape of the restored target object 200 with a virtual camera arranged in a matrix.
  • an R (red) color component gradation image 312r, a G (green) color component gradation image 312g, and a B (blue) color component gradation image 312b are obtained.
  • a light field image composed of 25 captured images images composed of gradation images of the color component R, the color component G, and the color component B, respectively. Image
  • Image can be easily obtained.
  • a light field image of a virtual three-dimensional shape can be obtained from an arbitrary viewpoint freely in the dimensional space.
  • FIG. 4 is a conceptual diagram illustrating a light field in a three-dimensional space.
  • each of the target object 200_1 and the target object 200_2 is imaged by a plurality of imaging devices (or light field cameras) arranged in a matrix.
  • each of the imaging devices captures a captured image whose viewpoint position is shifted depending on the position where the imaging device is disposed.
  • light beams (light beams in different directions) emitted from different portions on the surfaces of the target object 200_1 and the target object 200_2 are captured using the arranged position as the viewpoint position.
  • emitted in several direction can be obtained for every part in each surface of the target object 200_1 and the target object 200_2.
  • the light field (light space) information shown in FIG. 4B can be obtained by geometrically processing each captured image.
  • the luminance along the light ray direction at the coordinate point V (Vx, Vy, Vu) in the light ray space shown in FIG. 4B is expressed by the following equation (1).
  • is an angle in the vertical direction of the ray direction (an angle in a two-dimensional plane generated by the x axis and the y axis), and ⁇ is an angle in a parallel direction of the ray direction (a two dimensional plane generated by the x axis and the u axis) Angle).
  • P P ( ⁇ , ⁇ , Vx, Vy, Vu) (1)
  • the two-dimensional image observed from the viewpoint direction (the line-of-sight direction) can be observed differently in the light space as in the real space.
  • the viewpoint direction is a direction perpendicular to the cross section indicated by the cross section C1 or the cross section C2 obtained by cutting the light space in a plane.
  • the light ray space described above is restored to the virtual three-dimensional space in the image generation server 2 even if the virtual three-dimensional shape of the target object 200 is restored to the virtual three-dimensional space generated from the light field image in the real space. The same holds true for the virtual three-dimensional space of the target object 200.
  • the viewpoint position and the viewpoint direction of the imaging camera that generates the light space are arbitrarily set. Therefore, it is possible to capture a light field image of the target object 200 even in a place (remote place) away from the target object 200, as in real space.
  • FIG. 5 is a flowchart showing an operation example of light field image generation processing by the light field image generation system according to the present embodiment.
  • Step S101 Each of the imaging device 3_1 and the imaging device 3_2 captures the target object 200 from a predetermined viewpoint position in a fixed state in a remote place away from the place where the light field image is used.
  • an RGB-D camera is used for each of the imaging device 3_1 and the imaging device 3_2.
  • each of the imaging device 3_1 and the imaging device 3_2 outputs the geometric information # 1 and the geometric information # 2 at the respective viewpoint positions indicating the three-dimensional shape of the target object 200 to the shape information acquisition server 1. .
  • the captured image input unit 11 writes and stores the geometric information # 1 and the geometric information # 2 supplied from each of the imaging device 3_1 and the imaging device 3_2 in the storage unit 14, respectively.
  • Step S102 The three-dimensional shape information generation unit 12 reads the geometric information # 1 and the geometric information # 2 from the storage unit 14, and matches the feature points of the geometric information # 1 and the geometric information # 2 in the virtual space. The feature points of the geometric information # 1 and the geometric information # 2 are integrated. Then, the three-dimensional shape information generation unit 12 uses a three-dimensional point group (or depth image) indicating the three-dimensional shape of the target object 200 based on the gradation information and depth information of each of the geometric information # 1 and the geometric information # 2. ) In the virtual three-dimensional space as geometric information.
  • the three-dimensional shape information generation unit 12 gives gradation information of the color component RGB as color information to each feature point in the three-dimensional point group (or depth image), and the three-dimensional shape of the target object 200 Information. Then, the three-dimensional shape information generation unit 12 writes and stores the generated three-dimensional shape information data in the storage unit 14.
  • Step S103 The three-dimensional shape information output unit 13 reads the three-dimensional shape information from the storage unit 14 and outputs it to the image generation server 2 via the information communication network 500.
  • the depth information as the geometric information and the color information of the feature points of the three-dimensional shape are each converted into a geometrically consistent depth image, color
  • the three-dimensional shape information input unit 21 writes and stores the three-dimensional shape information data of the target object 200 supplied from the shape information acquisition server 1 in the storage unit 24.
  • Step S104 The three-dimensional shape reconstruction unit 22 reads the data of the three-dimensional shape information as light field information from the storage unit 24, reconstructs (restores) the three-dimensional shape of the target object 200 in the virtual three-dimensional space, and the target object 200. As a virtual three-dimensional shape. Then, the three-dimensional shape reconstruction unit 22 writes and stores the virtual three-dimensional shape data generated in the three-dimensional virtual space in the storage unit 24.
  • Step S105 The light field image generation unit 23 reads a virtual three-dimensional shape from the storage unit 24, and captures a virtual three-dimensional shape light field image with a virtual camera (light field camera) at an arbitrary viewpoint position in the virtual three-dimensional space. To do. Then, the light field image generation unit 23 writes the captured light field image into the storage unit 24 and stores it.
  • a virtual camera light field camera
  • the shape information acquisition server 1 acquires the three-dimensional shape information of the target object 200, transmits the data of the three-dimensional shape information to the image generation server 2, and the image generation server In order to restore the virtual three-dimensional shape of the target object 200 based on the three-dimensional shape information supplied with 2, the other is relatively remote from one of the shape information acquisition server 1 and the image generation server 2.
  • 3D shape information such as 3D point cloud and color information is transmitted as light field information
  • the communication load of data transmission / reception in the information communication network 500 is reduced and the light field image is transmitted as it is.
  • Light field information can be transmitted at a higher speed than As a result, according to the present embodiment, it is possible to obtain a light field image at a higher speed in a remote place where the target object 200 exists than in the past.
  • the virtual three-dimensional space in order to restore the virtual three-dimensional shape of the target object 200 in the virtual three-dimensional space, the virtual three-dimensional space is enlarged or reduced to an arbitrary size, and an arbitrary viewpoint position is obtained by the virtual camera.
  • a light field image can be easily obtained.
  • FIG. 6 is a diagram showing a configuration example of an image display system according to the second embodiment using the light field image generation system of the present invention.
  • the shape information acquisition server 1 has the same configuration as that of the first embodiment.
  • the image generation server 2A has a configuration in which a light field image output unit 25 is added to the image generation server 2 in the first embodiment.
  • the display image generation terminal 4 and the HMD 42 may be integrally formed, for example, by including the function of the display image generation terminal 4 in the function unit of the HMD 42.
  • the light field image output unit 25 reads the light field image generated by the light field image generation unit 23 and stored in the storage unit 24. Then, the light field image output unit 25 outputs the read light field image to the display image generation terminal 4.
  • the display image generation terminal 4 generates a display image to be displayed on the display unit 42A of the HMD 42 based on the light field image supplied from the light field image output unit 25. Then, the display image generation terminal 4 outputs the generated display image to the HMD 42 (an example of a display device).
  • the HMD 42 displays a display image supplied from the display image generation terminal 4 on the display unit 42A by an internal display control unit (not shown).
  • the HMD 42 is attached to the head of an observer who observes the virtual three-dimensional shape of the target object 200.
  • FIG. 7 is a conceptual diagram showing a configuration example of the display unit 42A of the HMD 42 in the present embodiment.
  • the display unit 42A includes two liquid crystal panels, a front liquid crystal panel 201 which is a front transparent display and a rear liquid crystal panel 202 which is a rear display. The layers are laminated so as to be overlapped in plan view.
  • the front liquid crystal panel 201 is closer to the observer's eye (the eyepiece 112) than the rear liquid crystal panel 202.
  • the display unit 42A is described as being composed of two liquid crystal panels, but may be configured by laminating a plurality of three or more sheets.
  • each of the other liquid crystal panels arranged on the front surface of the rear display other than the rear display (rear liquid crystal panel 202) which is the last surface is a transparent liquid crystal panel.
  • a surface orthogonal to the optical axis of the eyepiece 112 and each display surface are arranged in parallel.
  • a spacer 204 having a predetermined width (width in the optical axis direction) is provided between the front liquid crystal panel 201 and the rear liquid crystal panel 202 in order to separate the display surfaces at predetermined intervals.
  • the eyepiece 112 is disposed at a position where the optical axis is perpendicular to the display surfaces of the front liquid crystal panel 201 and the rear liquid crystal panel 202.
  • the backlight 203 is disposed at a position facing the rear surface of the display surface facing the front liquid crystal panel 201 of the rear liquid crystal panel 202.
  • the observer wearing the HMD 42 observes each of the front liquid crystal panel 201 and the rear liquid crystal panel 202 via the eyepiece 112, whereby the front liquid crystal panel 201 and the rear liquid crystal panel 202 are observed.
  • the three-dimensional effect of the virtual three-dimensional shape of the target object 200 can be visually recognized by a light field (light beam space) composed of light beams emitted from each.
  • a light field image 402 that is a plurality of captured images captured by the imaging devices arranged in a matrix shown in FIG.
  • Each of the front liquid crystal panel 201 and the rear liquid crystal panel 202 needs to be displayed as a predetermined image. That is, by displaying a predetermined image on each of the front liquid crystal panel 201 and the rear liquid crystal panel 202, a light field that reproduces light emitted from the surface of the virtual three-dimensional shape is configured.
  • the viewpoint direction of the cross section C1 and the cross section C2 in the light field.
  • Different combinations of observed pixel overlaps For this reason, the direction and the luminance of light passing through the overlapping pixels in the front liquid crystal panel 201 and the rear liquid crystal panel 202 change depending on the position where the observer is focused, and the portion of the virtual three-dimensional shape to be observed is different. For this reason, the observer can visually recognize the virtual three-dimensional shape on the display unit 42 ⁇ / b> A in three dimensions by the focus adjustment function of his / her own eye.
  • FIG. 8 is a conceptual diagram illustrating the correspondence between the light field image and the display image displayed on the display unit 42A.
  • a display image 201A and a display image 202A are displayed on the front liquid crystal panel 201 and the rear liquid crystal panel 202, respectively.
  • Each of the display image 201A and the display image 202A is an image obtained by compressing light field light information included in the light field image.
  • Each of the display image 201A and the display image 202A has information on the position and direction of emission of light rays in the light field in the light field image.
  • the compression of the light field image is performed by compressing light ray information in the light field image by a non-negative matrix factorization method (rank-1 NMF method) according to the number of liquid crystal panels.
  • the display image 202 ⁇ / b> A generated from the light field image 312 (FIG. 3) is displayed on the rear liquid crystal panel 202 and the display image 201 ⁇ / b> A is displayed on the front liquid crystal panel 201 by the above-described compression.
  • a display image 201A and a display image 202A that are respectively displayed on the display image 201A and the display image 202A are formed.
  • the display image 201A and the display image 202A that are virtually displayed on the virtual screen 301 and the virtual screen 302 separated by a predetermined distance are connected to the retina of the observer through the eyepiece 112.
  • the virtual screen 301 corresponds to the front liquid crystal panel 201
  • the virtual screen 302 corresponds to the rear liquid crystal panel 202.
  • the observer observes the display image 201A and the display image 202A displayed on each of the front liquid crystal panel 201 and the rear liquid crystal panel 202 in an overlapping manner.
  • the direction and brightness of the light beam transmitted through the overlapping pixels in the front liquid crystal panel 201 and the rear liquid crystal panel 202 that is, the overlap of the respective pixels of the display image 201A and the display image 202A Changes. Therefore, an observation image 303A (a two-dimensional image obtained by projecting a virtual three-dimensional shape on a cross section) corresponding to the viewpoint in the light field can be observed, and the virtual three-dimensional shape can be viewed three-dimensionally on the display unit 42A. it can.
  • FIG. 9 is a flowchart showing an operation example of a display image generation process for stereoscopic viewing of a virtual three-dimensional shape by the image display system according to the present embodiment.
  • steps S101 to S105 are the same as steps S101 to S5 in FIG.
  • the processing from step S106 to step S108 will be described.
  • Step S106 The light field image output unit 25 transmits the light field image generated by the light field image generation unit 23 from the storage unit 24 to the display image generation terminal 4.
  • the display image generation terminal 4 compresses the light field image supplied from the image generation server 2 to generate a display image 201A and a display image 202A to be displayed on each of the front liquid crystal panel 201 and the rear liquid crystal panel 202.
  • Step S107 The display image generation terminal 4 outputs each of the generated display image 201A and display image 202A to the HMD 42.
  • Step S108 The display control unit of the HMD 42 displays the display image 201A and the display image 202A on the front liquid crystal panel 201 and the rear liquid crystal panel 202, respectively.
  • the shape information acquisition server 1 acquires the three-dimensional shape information of the target object 200 and transmits the data of the three-dimensional shape information to the image generation server 2.
  • the image generation server 2 restores the virtual three-dimensional shape of the target object 200 based on the supplied three-dimensional shape information
  • the shape information acquisition server 1 and the image generation server 2 are located at remote locations. Since 3D shape information such as 3D point cloud and color information is transmitted as the light field information, the communication load on the information communication network 500 is reduced, and the light field image is transmitted at a higher speed than when transmitting the light field image as it is. By obtaining field information, a light field image can be generated.
  • the display unit 42A of the HMD 42 has been described as a structure having a plurality of liquid crystal panels as a light field display.
  • the light field display may have a parallax barrier configuration using a display unit that spatially allocates a field of view using a parallax barrier and displays light rays in the light field.
  • the light field display may have a lenticular configuration using a display unit that spatially allocates a field of view using a microlens array of lenticular lenses and displays light rays in the light field.
  • the display image generation terminal 4 generates a display image corresponding to the light field display method of each configuration from the light field image.
  • FIG. 10 is a diagram showing a configuration example of an image display system using the image display server 6 according to the third embodiment of the present invention.
  • the image display server 6 includes a captured image input unit 11 and a three-dimensional shape information generation unit 12 of the shape information acquisition server 1 in the first embodiment, and a three-dimensional image in the image generation server 2 in the first embodiment.
  • a shape reconstruction unit 22 and a light field image generation unit 23, and a display image generation unit 41 having the function of the display image generation terminal 4 in the second embodiment are provided.
  • the storage unit 14 ⁇ / b> A has a configuration in which the storage unit 14 in the shape information acquisition server 1 and the storage unit 24 in the image generation server 2 are integrated.
  • the 3D shape information generation unit 12 generates a 3D point group (or depth image) of feature points of the target object 200 in the virtual 3D space and color information of the feature points as 3D shape information, and stores it. It is written and stored in the part 14A.
  • the 3D shape reconstruction unit 22 reads the 3D shape information from the storage unit 14A, and in the virtual 3D space, the 3D point group (or depth image) that is depth information and the color of the feature points of the 3D point group From the information, the three-dimensional shape of the target object 200 is reconstructed as a virtual three-dimensional shape, and is written and stored in the storage unit 14A. Then, the light field image generation unit 23 reads the virtual three-dimensional shape of the target object 200 from the storage unit 14A.
  • the light field image generation unit 23 captures a virtual three-dimensional shape of the target object 200 from an arbitrary viewpoint direction with a virtual camera in the virtual three-dimensional space, generates a light field image, and writes the light field image in the storage unit 14A.
  • the display image generation unit 41A reads the light field image from the storage unit 14A, performs the compression processing described above, and sends the generated display image 201A and display image 202A to the HMD 42 via the cable 42B or wirelessly. Output.
  • a parallax barrier type display or a lenticular type display may be used as the light field display instead of the stacked display type of the HMD 42.
  • the image display server 6 compresses the light field image and generates each of the display image 201A and the display image 202A to be displayed on the display unit 42A of the HMD 42.
  • the display image can be generated in real time, and the observer can observe the virtual three-dimensional shape without delay.
  • each of the display image 201A and the display image 202A, not the light field image is output to the HMD 42 via the cable 42B or wirelessly, so that the data transfer load can be reduced and transmission can be performed.
  • an image such as a moving image can be displayed on the display unit 42A in real time, and the observer can observe the virtual three-dimensional shape on the HMD 42 without delay.
  • the image generation server 2A and the display image generation terminal 4 in FIG. 6, and the image display server 6 in FIG. Is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to obtain a light field image of a virtual three-dimensional shape of an object, or an HMD. Control for generating a display image displayed on the display unit may be performed.
  • the “computer system” includes an OS and hardware such as peripheral devices.
  • the “computer system” includes a WWW system provided with a homepage providing environment (or display environment).
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.
  • RAM volatile memory
  • the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
  • the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement
  • SYMBOLS 1 Shape information acquisition server 2 ... Image generation server 3-1 and 3-2 ... Imaging device 4 ... Display image generation terminal 11 ... Captured image input part 12 ... Three-dimensional shape information generation part 13 ... Three-dimensional shape information output part 14 , 14A, 24 ... storage unit 21 ... 3D shape information input unit 22 ... 3D shape reconstruction unit 23 ... light field image generation unit 24 ... storage unit 25 ... light field image output unit 41 ... display image generation unit 42 ... HMD 42A ... display unit 500 ... information communication network

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本発明は、対象物の3次元形状を示す形状情報を取得する形状情報取得サーバと、形状情報から仮想空間内において、対象物の3次元形状を仮想3次元形状として再構成する形状再構成部と、仮想3次元形状を仮想空間内における所定の視点位置におけるライトフィールド画像を生成するライトフィールド画像生成部とを有する画像生成サーバとを備えるライトフィールド画像生成システムである。

Description

ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法
 本発明は、ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法に関する。
 本願は、2018年4月12日に、日本に出願された特願2018-076786号に基づき優先権を主張し、これらの内容をここに援用する。
 危険な場所や、処理の対象物が遠隔地にある場合、作業者が直接に現地で作業を行うことが困難である。
 そのため、対象物のある位置から離れた場所から、この対象物のある場所に設置された機械を操作して作業を行う遠隔操作システムがある。遠隔操作システムは、対象物に対し作業を行うためのロボットと遠隔操作装置を備え、ロボットを無線等で遠隔操作するシステムである(例えば、特許文献1参照)。
 上述した遠隔操作システムにおいては、対象物を処理する作業者がヘッドマウントディスプレイ(以下、HMD(Head Mounted Display))を頭部に装着して、現地に配置された撮像装置が撮像した画像を観察しつつ作業を行う。
 この場合、通常のHMDにおいては、対象物を観察する際、輻輳により対象物の深度情報を得て、3次元形状を脳内において再構成している。
 一方、対象物を観察する際、作業者は、眼球の水晶体を調整して、対象物の画像が表示されているHMDの表示面に合わせる。このため、作業者の眼においては、焦点が輻輳により認知される深度の位置に調節されないため、輻輳と焦点調節との不一致が発生する。
 このため、作業者は、HMDを用いて遠隔操作を行う場合、上述した輻輳と焦点調節との不一致により、眼精疲労や映像酔いなどを起し、作業(特に細かい操作を必要とする作業)に支障を来す場合がある。
 また、作業者は、眼精疲労や映像酔いなどにより、HMDを用いての遠隔作業を長時間に渡って行うことができない。
 上述したHMDにおける輻輳と焦点調節との不一致を解消するため、近年、ライトフィールドの技術を用いたディスプレイを使用したHMDが開発されている。
 ライトフィールド情報(対象物の表面から射出される光線の情報)を用いることにより、一枚の画像において対象物が有する奥行き感(対象物の3次元形状)を視認させることが可能となり、作業者の脳内により対象物の3次元形状を構成させることが可能となる。
日本国特開2014-004656号公報
 上述したように、作業の対象物のライトフィールド情報を取得して、このライトフィールド情報に対応した画像を生成し、HMDに表示することにより、作業者が同一の画像内の対象物の3次元形状において所望の深度の位置にも焦点を合わすことが可能となる。
 このライトフィールド情報を用いることにより、作業者における輻輳と焦点調節とを一致させることができ、眼精疲労や映像酔いなどを抑止することが可能となり、細かい作業や長時間の作業を行い易くすることが期待できる。
 しかしながら、ライトフィールド情報は、ライトフィールドにおける光線の情報であり、視点を所定の距離ずらした複数の、例えばn×mのマトリクスの撮像画像の集合(ライトフィールド画像)から得られるライトフィールドにおける上述した光線の情報である。
 図11に示す様に、同一平面状において、x方向及びy方向に視点位置(撮像位置)をずらし、視点位置が各々異なるn×mの撮像装置401、例えば3×3の異なる9個の視点に各々配列した9個の撮像装置401それぞれにより、対象物403を撮像する。この9個の視点位置の異なる撮像画像が、対象物403からの9方向に対する光線の情報(ライトフィールド情報)を有するライトフィールド画像402として生成される。θがライトフィールド画像の中心を垂直に通る軸とy軸との平面における角度である。φがライトフィールド画像の中心を垂直に通る軸とx軸との平面における角度である。
 このライトフィールド画像402の各々は、所定の解像度により撮像されるため、解像度に対応した画素分の階調度を有している。したがって、ライトフィールド情報のデータ量は、(画素数×階調度)×ライトフィールド画像の枚数となり、非常に大きくなる。
 このため、遠隔地で撮像したライトフィールド画像を、HMDに対して表示させる処理を行うサーバまで送信する際、送信するデータ量が非常に大きいために通信負荷が増大して、ライトフィールド情報のデータ送信に時間を要する。
 このライトフィールド画像のデータ送信に時間がかかるため、画像、特に動画像をHMDに表示させる際など、ライトフィールド情報の更新が周期的に必要であるが、ライトフィールド情報の伝搬が遅れ、HMDにおける画像の表示処理が遅延したり、画像の欠落が発生したりすることになり、遠隔操作における作業に支障が発生する場合がある。
 本発明は、上記状況に鑑みてなされたもので、送信するライトフィールド情報の情報量を少なくすることで通信負荷を低減して、HMDにおける画像の表示処理が遅延したり、画像の欠落が発生したりすることを抑制することが可能なライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法を提供する。
 本発明の第1態様は、ライトフィールド画像生成システムであって、対象物の3次元形状を示す形状情報を取得する形状情報取得サーバと、前記形状情報から仮想空間内において、前記対象物の3次元形状を仮想3次元形状として再構成する形状再構成部と、前記仮想3次元形状を前記仮想空間内における所定の視点位置におけるライトフィールド画像を生成するライトフィールド画像生成部とを有する画像生成サーバとを備える。
 本発明の第2態様は、上記第1態様のライトフィールド画像生成システムにおいて、前記画像生成サーバにおける前記ライトフィールド画像生成部が、前記仮想空間内における任意の視点位置及び視点方向により、仮想撮像装置により前記仮想3次元形状を撮像し、前記任意の視点位置及び視点方向からライトフィールド画像を生成してもよい。
 本発明の第3態様は、上記第1態様または第2態様のライトフィールド画像生成システムにおいて、前記形状情報取得サーバが、撮像装置により前記対象物が撮像された撮像画像から、当該対象物の前記形状情報を生成してもよい。
 本発明の第4態様は、上記第1態様から第3態様のいずれか一態様のライトフィールド画像生成システムにおいて、前記形状情報が、前記対象物が撮像された撮像画像における各画素の階調度情報及び深度情報の各々であってもよい。
 本発明の第5態様は、上記第1態様から第3態様のいずれか一態様のライトフィールド画像生成システムにおいて、前記形状情報が、前記対象物の特徴点からなる3次元点群情報と、各特徴点の階調度情報との各々であってもよい。
 本発明の第6態様は、上記第4態様または第5態様のライトフィールド画像生成システムにおいて、前記階調度情報が、色情報としてのR成分、G色成分及びB色成分の階調度であってもよい。
 本発明の第7態様は、上記第1態様から第6態様のいずれか一態様のライトフィールド画像生成システムにおいて、前記形状情報が異なる視点位置及び視点方向に配置された複数の撮像装置により撮像された複数の撮像画像から抽出した情報から構成されていてもよい。
 本発明の第8態様は、画像表示システムであって、上記いずれかのライトフィールド画像生成システムと、ライトフィールド画像から表示画像を生成する画像生成サーバと、表示装置とを備え、前記表示装置が、少なくとも前面透明ディスプレイと後面ディスプレイとを含む2層以上のディスプレイが平面視で対応する画素が重なるように配置された表示部を備えており、前記画像生成サーバが、前記ディスプレイに各々に表示する、前記ライトフィールド画像の前記画素の階調度情報を圧縮した表示画像それぞれを生成する。
 本発明の第9態様は、形状情報取得サーバであって、対象物の形状情報から仮想空間内において、前記対象物の3次元形状を仮想3次元形状として再構成する形状再構成部と、前記仮想3次元形状を前記仮想空間内における所定の視点位置におけるライトフィールド画像を生成するライトフィールド画像生成部とを有する画像生成サーバとともにライトフィールド画像生成システムに備えられる形状情報取得サーバであり、前記対象物の3次元形状を示す前記形状情報を取得する。
 本発明の第10態様は、画像生成サーバであって、対象物の3次元形状を示す形状情報を取得する形状情報取得サーバとともにライトフィールド画像生成システムに備えられる画像生成サーバであり、前記形状情報から仮想空間内において、前記対象物の3次元形状を仮想3次元形状として再構成する形状再構成部と、前記仮想3次元形状を前記仮想空間内における所定の視点位置におけるライトフィールド画像を生成するライトフィールド画像生成部と備える。
 本発明の第11態様は、表示装置であって、上記第1態様から第6態様のいずれか一態様のライトフィールド画像生成システムと、ライトフィールド画像から表示画像を生成する画像生成サーバとともに画像表示システムに含まれる表示装置であり、少なくとも前面透明ディスプレイと後面ディスプレイとを含む2層以上のディスプレイが平面視で対応する画素が重なるように配置された表示部を備え、前記画像生成サーバが生成した前記ディスプレイに各々に表示する、前記ライトフィールド画像の前記画素の階調度情報を圧縮した表示画像それぞれを、前記ディスプレイのそれぞれに表示する。
 本発明の第12態様は、ライトフィールド画像生成方法であって、対象物の3次元形状を示す形状情報を取得する形状情報取得過程と、前記形状情報から仮想空間内において、前記対象物の3次元形状を仮想3次元形状として再構成する形状再構成過程と、前記仮想3次元形状を前記仮想空間内における所定の視点位置におけるライトフィールド画像を生成するライトフィールド画像生成過程とを含む。
 本発明の第13態様は、画像表示方法であって、対象物の3次元形状を示す形状情報を取得する形状情報取得過程と、前記形状情報から仮想空間内において、前記対象物の3次元形状を仮想3次元形状として再構成する形状再構成過程と、前記仮想3次元形状を前記仮想空間内における所定の視点位置におけるライトフィールド画像を生成するライトフィールド画像生成過程と、表示装置が、少なくとも前面透明ディスプレイと後面ディスプレイとを含む2層以上のディスプレイが平面視で対応する画素が重なるように配置された表示部に対し、前記ディスプレイに各々に表示する、前記ライトフィールド画像の前記画素の階調度情報を圧縮した表示画像それぞれを生成する表示画像生成過程とを含む。
 以上説明したように、本発明の上記態様によれば、送信する情報量を少なくすることで通信負荷を低減して、HMDにおける画像の表示処理が遅延したり、画像の欠落が発生したりすることを抑制することが可能なライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法を提供することが可能となる。
本発明の第1の実施形態によるライトフィールド画像生成システムの構成例を示す図である。 撮像画像から取得される3次元形状情報及び階調度情報の各々を示す概念図である。 復元された対象物体200の仮想3次元形状を、マトリクス状に配列した仮想カメラで撮像することによるライトフィールド画像の生成を示す概念図である。 3次元空間におけるライトフィールドを説明する概念図である。 第1の実施形態によるライトフィールド画像生成システムによるライトフィールド画像生成の処理の動作例を示すフローチャートである。 本発明のライトフィールド画像生成システムを用いた、第2の実施形態の画像表示システムの構成例を示す図である。 第2の実施形態におけるHMD42の表示部42Aの構成例を示す概念図である。 ライトフィールド画像と表示部42Aに表示される表示画像との対応関係を説明する概念図である。 本実施形態による画像表示システムによる仮想3次元形状の立体視のための表示画像生成の処理の動作例を示すフローチャートである。 本発明の第3の実施形態による画像表示サーバ6を用いた画像表示システムの構成例を示す図である。 対象物のライトフィールド画像の撮像を説明する概念図である。 対象物体200の3次元形状情報を示す深度画像(深度が階調度で示された画像)及びカラー画像の生成を説明する図である。 UV展開による対象物体200の3次元形状情報を示す深度画像及びカラー画像の生成を説明する図である。
<第1の実施形態>
 以下、本発明の第1の実施形態によるライトフィールド画像生成システムを、図面を参照して説明する。図1は、本発明の第1の実施形態によるライトフィールド画像生成システムの構成例を示す図である。
 図1において、ライトフィールド画像生成システムは、形状情報取得サーバ1と画像生成サーバ2とを備えている。形状情報取得サーバ1と画像生成サーバ2との各々は、情報通信網500を介してデータの送受信を行う。撮像装置3_1及び撮像装置3_2は、対象物体200を撮像し、撮像した撮像画像を形状情報取得サーバ1に出力する。あるいは、撮像装置3_1及び撮像装置3_2は、形状情報取得サーバ1からアクセスがあった場合、対象物体200を撮像し、撮像した撮像画像を形状情報取得サーバ1に対して出力する。
 撮像装置3_1及び撮像装置3_2の各々は、例えば、対象物体200の2次元画像を撮像するカメラであり、それぞれ撮像画像を対象物体200の3次元形状情報(特徴点からなる3次元点群情報あるいは深度画像である深度情報と、色画像(カラー画像)である色情報との組合せである形状情報)として形状情報取得サーバ1に出力する(ケース#1)。撮像装置3_1及び撮像装置3_2の各々は、異なる視点から対象物体200を撮像して撮像画像をする。ケース#1の場合、撮像装置3_1の一台で、異なる視点で2枚以上の撮像画像を撮像しても良い。
 また、撮像装置3_1及び撮像装置3_2の各々は、例えば、RGB(Red、Green、Blue)-D(Depth)カメラであり、対象物体200の2次元画像を撮像するカメラであり、それぞれ撮像画像を対象物体200の3次元形状情報(深度情報及び色情報の組合せ)として形状情報取得サーバ1に出力する(ケース#2)。ケース#2の場合、撮像装置3_1の一台のみで、一視点からの撮像画像を撮像するのみでも良い。
 また、撮像装置3_1及び撮像装置3_2の各々は、例えば、3次元計測装置であり、光(レーザ光)切断法、あるいは縞投影法により、対象物体200の3次元形状を示す特徴点からなる3次元点群を対象物体200の3次元形状情報(3次元点群あるいは深度画像と、特徴点における色情報)として、形状情報取得サーバ1に出力する(ケース#3)。このケース#3の場合、放射したレーザ光の反射光から形状情報を得るため、3次元点群の特徴点の各々の色情報を取得することができない。
 また、撮像装置3_1及び撮像装置3_2の各々は、例えば、ライトフィールドカメラ(例えば、カメラアレイ方式、符号化開口方式あるいはマイクロレンズアレイ方式)であり、このライトフィールドカメラで撮像した撮像画像から光線情報を取得する。そして、取得した光線情報により、対象物体200の3次元形状を示す特徴点の3次元形状情報(3次元点群情報または深度画像である深度情報)及び当該特徴点の色情報(例えば、色成分のR成分、G成分、B成分の各階調度)を求める。そして、この3次元形状情報が、対象物体200の3次元形状情報として、形状情報取得サーバ1に対して出力される(ケース#4)。
 また、上述したケース#1からケース#4の各々で撮像した撮像画像を用いて、それぞれの撮像画像から求めた特徴点の深度情報及び色情報を整合性を求めた後に合成して(この合成のアルゴリズムについては後述)、この合成結果を、対象物体200の3次元形状を示す特徴点からなる3次元点群を対象物体200の3次元形状情報(3次元点群情報あるいは深度画像である深度情報と、色情報との組合せ)として、形状情報取得サーバ1に出力する(ケース#5)。
 形状情報取得サーバ1は、撮像画像入力部11、3次元形状情報生成部12、3次元形状情報出力部13及び記憶部14の各々を備えている。
 撮像画像入力部11は、撮像装置3_1及び撮像装置3_2の各々から、対象物体200の形状を示す3次元形状情報を入力し、記憶部14に一旦書き込んで記憶させる。
 3次元形状情報生成部12は、記憶部14から3次元形状情報を読み込み、読み込んだ3次元形状情報から、画像生成サーバ2に対して送信する対象物体200の深度情報(幾何学情報)及び色情報を含む3次元形状情報を生成する。
 ・ケース#1の場合
 3次元形状情報生成部12は、異なる視点において撮像された2枚の撮像画像から、ステレオマッチング法を用いて対象物体200の幾何学情報を、仮想3次元空間における対象物体200の特徴点の3次元点群として生成する。3次元形状情報生成部12は、2次元画像がカラー画像である場合、深度情報である幾何学情報に対し、特徴点の階調度情報(特徴点に対応する画素の色成分RGBの各々の階調度の情報、すなわちR成分、G成分、B成分の階調度からなる色情報)として、R成分、G成分及びB成分の各々の階調度を付与し、3次元形状情報とする。
 ・ケース#2の場合
 3次元形状情報生成部12は、3次元形状情報として撮像装置3_1、撮像装置3_2から供給される、3次元形状の特徴点の階調度情報とそれぞれの幾何学情報である深度情報とを、画像生成サーバ2に対して送信する3次元形状情報とする。また、撮像装置3_1、撮像装置3_2から供給される、3次元形状の特徴点の階調度情報とそれぞれの深度情報とから特徴点の仮想3次元空間における3次元点群を生成し、この3次元点群を幾何学情報とする構成としても良い。3次元形状情報生成部12は、3次元点群(深度情報)の特徴点の階調度情報がR成分、G成分及びB成分の階調度である場合、幾何学情報である深度情報に対し、特徴点の階調度情報(特徴点に対応する画素の色成分RGBのR成分、G成分及びB成分の各々の階調度の情報、すなわち色情報)として、R成分、G成分及びB成分の各々の階調度を付与し、3次元形状情報とする。
 図2は、撮像画像から取得される3次元形状情報及び階調度情報の各々を示す概念図である。図2(a)は、RGB-Dカメラが取得する深度情報と、色情報の階調度情報との各々を示している。ここで、深度情報は、3次元点群あるいは深度画像(深度が階調度で示された画像)である。撮像装置3_1及び撮像装置3_2の各々は、対象物体200を撮像(3次元形状を計測)して、3次元形状情報として、対象物体200の各特徴点の深度情報(階調度表示)212と、撮像される画像がカラー画像であるため、特徴点のR成分、G成分及びB成分の階調度からなる階調度情報213(色情報)を生成する。
 また、複数の異なる視点から、RGBカメラで撮像した複数の幾何学情報(3次元点群または深度画像の深度情報)が得られる場合、3次元形状情報生成部12は、これら複数の幾何学情報における特徴点を統合して、複数の視点から観察可能な3次元点群あるいは深度画像を仮想3次元空間に生成して深度情報とし、深度情報の特徴点に色情報を付加して3次元形状情報とする。
 ・ケース#3の場合
 図1に戻り、3次元形状情報生成部12は、幾何学情報として供給される対象物体200の3次元形状を示す仮想3次元空間における特徴点からなる3次元点群を、対象物体200の3次元形状情報とする。ここで、すでに述べたように、レーザ光の反射から幾何的な形状を取得するのみで、3次元点群における特徴点の各々の色情報が得られないため、3次元形状情報としては、3次元点群あるいは深度画像の幾何学情報のみとなる。
 しかしながら、別のカメラで対象物体200を撮像し、この撮像画像の画素と3次元点群の特徴点との整合性を取得することにより、各3次元点群または深度画像における特徴点には、色情報としてR成分、G成分及びB成分の各々の階調度を付与することができる。この場合、3次元形状情報に深度情報及び色情報の各々を含ませることができる。
 ・ケース#4の場合
 3次元形状情報生成部12は、ライトフィールドカメラが撮像した撮像画像から光線情報を抽出する。そして、3次元形状情報生成部12は、この光線情報から、例えばフォトグラムメトリ法を用いて、幾何学情報として供給される対象物体200の3次元形状を示す仮想3次元空間における特徴点からなる3次元点群あるいは深度画像を生成する。この3次元点群は、対象物体200の幾何学情報である。ここで、各3次元点群における特徴点には、ライトフィールドカメラが撮像した撮像画像がカラー画像の場合、色情報としてR成分、G成分及びB成分の各々の階調度が付与され、3次元形状情報とされている。
 ・ケース#5の場合
 ケース#1からケース#4の各々から得られる深度情報及び色情報(3次元形状情報)を組み合わせて合成することで、新たな3次元形状情報としている。
 しかしながら、カメラ、RGBDカメラ、3次元計測装置及びライトフィールドカメラの各々の撮像装置は、それぞれ解像度、幾何学的な位置及び姿勢、レンズの歪みなどが異なる。このため、対象物体200を撮像する前に、格子あるいはドットパターンを印刷した平面のボード、あるいは形状が既知の3次元形状などの校正対象を、各撮像装置が撮像できる様々な姿勢及び位置で複数の撮像画像を撮像する。そして、この撮像画像に撮像された校正対象の形状に対応して、同一の3次元空間における各撮像装置(カメラなど)の相対的な位置・姿勢及びレンズパラメータを推定する。この推定結果から、各撮像装置の位置・姿勢の各々に対しては、同一の3次元空間における相対的な撮像位置及び撮像方向の整合性を取得しておく必要がある。これにより、各撮像装置で撮像した撮像画像から生成される対象物体200の3次元形状の特徴点を、同一の3次元空間において合成して統合し、統合結果における密な特徴点の各々に対応する深度情報及び色情報を取得する。
 図2(b)は、ライトフィールドカメラ及びRGBDカメラの各々が取得する深度情報及び階調度情報の各々を示している。この図2(b)は、ライトフィールドカメラ及びRGBDカメラの各々の撮像画像から生成した幾何学情報(3次元点群あるいは深度画像)を合成して得た深度情報及び色情報(階調度情報)を示している。
 ライトフィールドカメラ及びRGBDカメラの各々は、対象物体200を撮像して、3次元形状情報として、対象物体200の各特徴点の深度情報と、撮像される画像がカラー画像である場合に特徴点の色情報としてR成分、G成分及びB成分の階調度からなる階調度情報を生成する。
 そして、RGBDカメラの撮像画像から生成した深度情報222(深度画像)に対して、ライトフィールドカメラの撮像画像から生成した深度情報232を合成して、対象物体200の深度情報とする。また、同様に、RGBDカメラの撮像画像から生成した階調度情報223に対して、ライトフィールドカメラの撮像画像から生成した階調度情報233を合成して、対象物体200の階調度情報(色情報としての特徴点のR成分、G成分及びB成分の階調度)とする。
 ここで、ライトフィールドカメラは、RGBDカメラに比較して一般的に画角が狭いため、撮像する領域の範囲がRGBDカメラより小さくなる。一方、ライトフィールドカメラは、RGBDカメラに比較して分解能が高く、取得できる特徴点数が多くなり、密な深度情報及び色情報が取得できる。これにより、深度情報及び色情報の各々において、特徴点が疎な領域と密な領域とのそれぞれが生成される。
 しかしながら、用途として、対象物体200の全体的な3次元形状において部分的に詳細に観察したい領域がある場合、その詳細に観察したい領域をライトフィールドカメラで撮像した撮像画像から求めた密な特徴点により、RGBDカメラで撮像した撮像画像から求めた疎な特徴点を補完するために、深度情報及び色情報の各々の合成を行う構成としてもよい。
 上述した深度情報、色情報それぞれの合成を行う際、特徴点が密な領域と疎な領域との境界部分を、グラデーションを付けて、特徴点数が疎の領域から徐々に密な領域に向かって増加するようにすれば、利用者がライトフィールド画像を観察する際に、境界部分を目立たなくすることができる。一方、境界部分が明確としたい場合、特徴点が疎な領域と密な領域とを単純に合成し、対象物体200の3次元形状情報の深度情報と色情報とすることで、いまどこを利用者がライトフィールドカメラで観察しているか、すなわちどこが密な領域であるかを視認し易くできる。
 3次元形状情報出力部13は、3次元形状情報生成部12が生成した3次元形状情報としての深度情報及び色情報の各々を、ライトフィールド情報として、情報通信網500を介して、画像生成サーバ2に対して送信する。
 ここで、ライトフィールド情報として、ライトフィールド画像を送信する場合、図11に示す様にn×m、例えば3×3の異なる9箇所の各々の視点位置で撮像した9枚の撮像画像を送信する必要が有る。すでに、説明したように、各撮像画像は、画素毎にR成分、G成分及びB成分の各々の階調度を有している。このため、撮像画像の解像度を増加させる、あるいは取得する光線情報を増加させる場合、さらに撮像画像におけるデータ量が増加することになる。
 しかしながら、上述したように、仮想3次元空間における対象物体200の特徴点からなる3次元点群として、対象物体200の幾何学情報である深度情報と、各特徴点の色情報とを3次元形状情報として送信することにより、送信するデータ量を低減させ、従来のライトフィールド画像の送信に比較して高速にライトフィールド情報を送信することができる。
 また、伝送に関しては、3次元形状情報において、幾何学情報における特徴点の各々を整合性が取れた深度画像とカラー画像とに変換して送ることで、ライトフィールド画像及びRGBD画像を用いて、特徴点が疎な領域と密な領域とを含む深度情報及び色情報それぞれを、疎な領域及び密な領域の特徴点の情報が保持された状態で、3次元形状情報をライトフィールド情報として、形状情報取得サーバ1から画像生成サーバ2に対して送信することができる。
 図12は、対象物体200の3次元形状情報を示す深度画像とカラー画像の生成を説明する図である。図12において、仮想三次元空間370には、対象物体200の仮想三次元形状371が生成されている。この仮想三次元形状371は、上述したように、生成に対してライトフィールド画像及びRGBD画像とを用いているため、特徴点が密な領域と疎な領域とが存在している。この仮想三次元空間370において、この仮想三次元形状371を仮想カメラ375及び376の各々により撮像する。そして、仮想カメラ375(右側のカメラ)が撮像した撮像画像(実際には投影した画像、すなわち正投影)から、色情報(カラー画像)375_1及び深度情報(深度画像)375_2の各々が生成される。また、仮想カメラ376(左側のカメラ)が撮像した撮像画像(実際には投影した画像、すなわち正投影)から、色情報(カラー画像)376_1及び深度情報(深度画像)376_2の各々が生成される。
 そして、上記色情報375_1、376_1、深度情報375_2及び376_2の各々が、対象物体200の3次元形状情報として、形状情報取得サーバ1に対して出力される。
 深度画像として深度情報を送信することにより、3次元点群の各々の特徴点の3次元空間における座標値として送信するよりも、データ量を低減することができる。また、深度画像を送信する場合、一般的な画像圧縮のアルゴリズムが使用でき、さらにデータ量を低減できるため、動画の送信には特に有効である。
 ポリゴンで送信した場合にも、ポリゴンの形状や座標値を示すデータ、さらにテクスチャの貼り付ける位置を示すデータなどが必要となるため、非常にデータ量が増加することになる。
 また、球体や円柱を用いて、上述した2次元平面に撮像画像として3次元形状情報の各々の特徴点を正投影するのではなく、3次元形状情報における特徴点の深度情報及び色情報の各々を、位置情報を対応づけて、それぞれ深度画像、カラー画像としてUV展開し、図12と同様な画像として3次元形状情報を送信しても良い。
 図13は、UV展開による対象物体200の3次元形状情報を示す深度画像及びカラー画像の生成を説明する図である。
 仮想三次元空間350には、対象物体200の仮想三次元形状351が生成されている。この仮想三次元形状351は、図12と同様に、生成に対してライトフィールド画像及びRGBD画像とを用いているため、特徴点が密な領域と疎な領域とが存在している。仮想三次元空間350において、仮想三次元形状351の重心位置を中心とし、この仮想三次元形状351を包含する球体352を生成する。そして、この球体352の内面に対して、仮想三次元形状351の特徴点の色情報(カラー画像)を投影(UV展開)してカラー画像360を生成し、この投影された部分に球体352から特徴点までの距離である深度情報を、階調度情報とした深度画像(不図示)を生成する。
 図13においても、図12と同様に、この仮想三次元形状351は、上述したように、生成に対してライトフィールド画像及びRGBD画像とを用いているため、特徴点が密な領域と疎な領域とが存在している。
 深度画像として深度情報を送信することにより、3次元点群の各々の特徴点の3次元空間における座標値として送信するよりも、データ量を低減することができる。また、深度画像を送信する場合、一般的な画像圧縮のアルゴリズムが使用でき、さらにデータ量を低減できるため、動画像の送信には特に有効である。
 なお、図12及び図13の各々の場合には、特徴点が密な領域の解像度と疎な領域の解像度とが異なるため、領域を分割して送信する必要がある。
 さらに、図13のUV展開を用いた場合、図12に比較して視野角を稼ぐことができ、対象物体200の全方位における3次元形状情報(深度情報及び色情報)を有して送信することができる。
 画像生成サーバ2は、3次元形状情報入力部21、3次元形状再構成部22、ライトフィールド画像生成部23及び記憶部24の各々を備えている。
 3次元形状情報入力部21は、形状情報取得サーバ1から、対象物体200の形状を示す幾何学情報である深度情報と、幾何学情報における特徴点の色情報とを含む3次元形状情報を入力し、記憶部24に書き込んで一旦記憶させる。
 3次元形状再構成部22は、深度情報及び色情報を含む3次元形状情報から対象物体200の3次元形状を仮想3次元空間において、仮想3次元形状として再構成(復元)処理を行う。この3次元形状の復元処理は、一般的に用いられている手法のいずれかの3次元形状を復元する手法を用いる。
 この復元手法において、ライトフィールド画像生成システムが使用される用途により、復元される仮想3次元形状としては緻密さ(綺麗さ)が必要な場合がある。使用用途に対応させて、必要とされる緻密さに応じて、以下の復元の手法を適宜選択することができる。
 仮想3次元形状の一例としては、幾何学形状の3次元点群あるいは深度画像のそのものを復元した仮想3次元形状(3次元形状モデル)としても良い。また、他の例として、幾何学形状の3次元点群あるいは深度画像を用いて各特徴点の3次元座標を計算し、より高密度な点群データ(Dense point cloud)を求めて、この高密度な点群データを、復元した仮想3次元形状(3次元形状モデル)としても良い。さらに、他の例として、幾何学情報の3次元点群あるいは深度画像を用いて各特徴点の3次元座標を計算し、より高密度な点群データを求め、この点群データからメッシュデータを作成して、特徴点のRGBの階調度に対応して、メッシュデータの各々の色を補完することで最終的な仮想3次元形状(3次元形状モデル)を復元しても良い。
 また、記憶部24に対して、予め対象物体200の3次元形状、例えばCG(Computer Graphics)で生成した3次元形状のデータを書き込んで記憶させておき、復元した上記仮想3次元形状と合成する構成としてもよい。
 例えば、内視鏡に設けられたカメラで撮像する領域が狭く(画角が狭く)、例えば、胃の内部を撮像している際、撮像されている部分が胃のどのあたりの場所であるかの判定が、初心者にはなかなかつけられない場合がある。このとき、3次元形状再構成部22は、予め胃の内部をCGで生成した3次元形状を記憶部24から読み出し、復元した仮想3次元形状と合成する構成としてもよい。
 これにより、ライトフィールド画像生成部23は、CGで生成した3次元形状の心臓の中において、仮想3次元形状がフォーカスされたライトフィールド画像を生成することができる。利用者は、このライトフィールド画像を見ることにより、内視鏡で自身が観察している心臓の箇所を、全体のいずれの位置に相当するかを明確に認識することができる。
 ここで、心臓の3次元形状のデータは、例えばMRI(Magnetic Resonance Imaging)などの画像からCGを用いて生成され、内視鏡の撮像する位置とは幾何学的な整合性は予め取得しておき、CGの3次元形状と、仮想3次元形状とは同一の3次元空間において、位置が整合された状態で配置される。
 また、上記CGの3次元形状と、仮想3次元形状とを合成する技術は、MR(Mixed Reality、実画像にCGの仮想画像を重畳表示する)マニュアルとして使用することもできる。例えば、自動車のエンジンの分解を行う場合、CGで生成したエンジン全体の3次元形状に対して、利用者が観察している箇所の仮想3次元画像を合成し、分解するためにはどのネジから外すかなどの情報、位置の名称や機能を説明する画像を重畳して、3次元形状を構成する。そして、ライトフィールド画像生成部23は、3次元空間において、CGで生成したエンジンの3次元画像と、利用者の観察している領域の仮想3次元形状と、説明の画像などが合成された形状からライトフィールド画像を生成する。これにより、AR(Augmented Reality)としての画像を、利用者が観察することができ、初心者でもエンジンの分解や各部分の機能の学習を行うことができる。
 ライトフィールド画像生成部23は、3次元形状再構成部22が復元した、仮想3次元空間内における対象物体200の仮想3次元形状を、仮想3次元空間内における仮想カメラ(仮想撮像装置)により撮像して、ライトフィールド画像を生成する。
 すなわち、仮想3次元空間において、図11に示したのと同様に、所定の距離ずらした視点位置に、n×mのマトリクス状に仮想カメラを配置し、n×m個の異なる位置から対象物体200を撮像し、n×m枚の撮像画像をライトフィールド画像として生成(取得)する。
 また、ライトフィールド画像生成部23は、生成したライトフィールド画像を、記憶部24に書き込んで記憶させる。
 図3は、復元された対象物体200の仮想3次元形状を、マトリクス状に配列した仮想カメラで撮像することによるライトフィールド画像の生成を示す概念図である。
 図3において、仮想3次元空間内における対象物体200の仮想3次元形状311を、この仮想空間内の任意の視点から、5(=n)×5(=m)のマトリクス状に配列した25台の仮想カメラにより、ライトフィールド画像として、R(red)色成分の階調度画像312r、G(green)色成分の階調度画像312g及びB(blue)色成分の階調度が像312bを得る。
 この結果、仮想3次元空間内において、いずれの任意の視点からも、25枚の撮像画像からなるライトフィールド画像(それぞれ色成分R、色成分G及び色成分Bの各々の階調度画像からなる撮像画像)を容易に得ることができる。
 図11に示す実空間においてライトフィールド画像を撮像する場合、視点を変えて撮像する毎に、新たなライトフィールド画像を撮像して送信する必要がある。
 しかしながら、仮想3次元空間内であれば、対象物体200の3次元形状を復元した仮想3次元形状があるため、形状が変化しない限り、新たな仮想3次元形状を復元する必要がなく、仮想3次元空間において自由に任意の視点から、仮想3次元形状のライトフィールド画像を得ることができる。
 図4は、3次元空間におけるライトフィールドを説明する概念図である。
 図4(a)に示すように、対象物体200_1及び対象物体200_2の各々を、マトリクス状に配置された複数の撮像装置(あるいはライトフィールドカメラ)で撮像する。
 これにより、撮像装置の各々には、配置された位置により、視点位置がずれた撮像画像が撮像される。この撮像画像の各々には、配置された位置を視点位置として、対象物体200_1及び対象物体200_2の各々の表面における異なる部分から射出される光線(異なる方向の光線)が撮像されている。これにより、対象物体200_1及び対象物体200_2の各々の表面における部分毎に、複数の方向(光線方向)に射出される光線の情報を得ることができる。
 これにより、撮像画像の各々を幾何学的に処理することで、図4(b)に示すライトフィールド(光線空間)情報を得ることができる。
 図4(b)に示す光線空間における座標点V(Vx,Vy,Vu)における光線の光線方向に沿った輝度が、以下に示す(1)式などにより表される。θが光線方向の垂直方向の角度(x軸及びy軸により生成される2次元平面における角度)であり、φが光線方向の平行方向の角度(x軸及びu軸により生成される2次元平面における角度)である。
 P=P(θ、φ、Vx、Vy、Vu)  …(1)
 したがって、図4(c)に示す様に、光線空間において、視点方向(視線方向)から観察される2次元画像が実空間と同様に異なって観察できる。ここで、視点方向とは、光線空間を平面で切断した、断面C1あるいは断面C2に示す断面に対して垂直な方向である。
 上述した光線空間は、実空間におけるライトフィールド画像から生成される仮想3次元空間に復元される対象物体200の仮想3次元形状であっても、画像生成サーバ2における仮想3次元空間に復元される対象物体200の仮想3次元空間であっても同様に成り立つ。
 また、画像生成サーバ2が仮想3次元空間における対象物体200の仮想3次元形状を用いてライトフィールド画像を生成する際、光線空間を生成する撮像カメラの視点位置及び視点方向を任意に設定することができるため、対象物体200から離れた場所(遠隔地)においても、実空間においてと同様に対象物体200のライトフィールド画像の撮像が可能となる。
 図5は、本実施形態によるライトフィールド画像生成システムによるライトフィールド画像生成の処理の動作例を示すフローチャートである。
 ステップS101:
 撮像装置3_1及び撮像装置3_2の各々は、ライトフィールド画像を使用する場所と離れた遠隔地において、固定された状態において対象物体200を所定の視点位置から撮像する。ここで、一例として、撮像装置3_1及び撮像装置3_2の各々にはRGB-Dカメラを用いる。
 そして、撮像装置3_1及び撮像装置3_2の各々は、対象物体200の3次元形状を示す、それぞれの視点位置における幾何学情報#1及び幾何学情報#2を形状情報取得サーバ1に対して出力する。
 このとき、撮像画像入力部11は、撮像装置3_1及び撮像装置3_2の各々から供給される幾何学情報#1、幾何学情報#2それぞれを、記憶部14に書き込んで記憶させる。
 ステップS102:
 3次元形状情報生成部12は、記憶部14から幾何学情報#1及び幾何学情報#2を読み出し、仮想空間内において、幾何学情報#1及び幾何学情報#2の各々の特徴点の整合性を取り、幾何学情報#1、幾何学情報#2それぞれの特徴点の統合を行う。
 そして、3次元形状情報生成部12は、幾何学情報#1及び幾何学情報#2の各々の階調度情報、深度情報により、対象物体200の3次元形状を示す3次元点群(あるいは深度画像)を、幾何学情報として仮想3次元空間内に生成する。そして、3次元形状情報生成部12は、3次元点群(あるいは深度画像)における特徴点の各々に対して色情報として、色成分RGBの階調度情報を付与し、対象物体200の3次元形状情報とする。
 そして、3次元形状情報生成部12は、生成した3次元形状情報のデータを記憶部14に書き込んで記憶させる。
 ステップS103:
 3次元形状情報出力部13は、記憶部14から3次元形状情報を読み出し、情報通信網500を介して、画像生成サーバ2に対して出力する。
 このとき、図12及び図13で説明したように、幾何学情報としての深度情報と、この3次元形状の特徴点の色情報の各々を、幾何学的に整合性を有した深度画像、カラー画像それぞれからなる3次元形状情報として送信することにより、一般的な画像圧縮を用いることでデータ量を少なくすることができ、3次元形状情報の電送の負荷(伝送量)をさらに低減することができる。
 3次元形状情報入力部21は、形状情報取得サーバ1から供給される、対象物体200の3次元形状情報のデータを、記憶部24に書き込んで記憶させる。
 ステップS104:
 3次元形状再構成部22は、記憶部24からライトフィールド情報としての3次元形状情報のデータを読み出し、対象物体200の3次元形状を仮想3次元空間において再構成(復元)し、対象物体200の仮想3次元形状として生成する。
 そして、3次元形状再構成部22は、3次元仮想空間において生成した仮想3次元形状のデータを、記憶部24に書き込んで記憶させる。
 ステップS105:
 ライトフィールド画像生成部23は、仮想3次元形状を記憶部24から読み出し、仮想3次元空間内における任意の視点位置において、仮想カメラ(ライトフィールドカメラ)により、仮想3次元形状のライトフィールド画像を撮像する。
 そして、ライトフィールド画像生成部23は、撮像したライトフィールド画像を、記憶部24に書き込んで記憶させる。
 上述した構成により、本実施形態によれば、形状情報取得サーバ1により対象物体200の3次元形状情報を取得し、この3次元形状情報のデータを、画像生成サーバ2に送信し、画像生成サーバ2が供給される3次元形状情報により対象物体200の仮想3次元形状を復元するため、形状情報取得サーバ1と画像生成サーバ2との各々の一方に対して他方が相対的に遠隔地に位置している場合、ライトフィールド情報として3次元点群や色情報などの3次元形状情報を送信するため、情報通信網500におけるデータの送受信の通信負荷を低減させ、ライトフィールド画像をそのまま送信する場合に比較して、高速にライトフィールド情報を送信することができる。
 これにより、本実施形態によれば、対象物体200の存在する遠隔地において、従来に比較して高速にライトフィールド画像を得ることが可能となる。
 また、本実施形態によれば、仮想3次元空間内に対象物体200の仮想3次元形状を復元するため、仮想3次元空間を任意のサイズに拡大あるいは縮小し、かつ仮想カメラにより任意の視点位置から容易にライトフィールド画像を得ることが可能となる。
<第2の実施形態>
 以下、本発明の第2の実施形態として、本発明の第1の実施形態によるライトフィールド画像生成システムを用いた画像表示システムについて、図面を参照して説明する。図6は、本発明のライトフィールド画像生成システムを用いた、第2の実施形態の画像表示システムの構成例を示す図である。
 以下、図6の第2の実施形態において、図1の第1の実施形態と異なる構成及び動作のみ説明する。形状情報取得サーバ1は、第1の実施形態と同様の構成である。画像生成サーバ2Aは、第1の実施形態における画像生成サーバ2にライトフィールド画像出力部25が追加された構成となっている。また、画像表示システムとしては、表示画像生成端末4、表示部42Aを含むHMD42の構成が追加されている。また、本実施形態において、表示画像生成端末4とHMD42とが一体として、例えばHMD42の機能部に表示画像生成端末4の機能が含まれて形成される構成としても良い。
 ライトフィールド画像出力部25は、記憶部24に記憶されている、ライトフィールド画像生成部23が生成したライトフィールド画像を読み出す。そして、ライトフィールド画像出力部25は、読み出したライトフィールド画像を、表示画像生成端末4に対して出力する。
 表示画像生成端末4は、ライトフィールド画像出力部25から供給されるライトフィールド画像に基づき、HMD42の表示部42Aに表示する表示画像を生成する。そして、表示画像生成端末4は、生成した表示画像をHMD42(表示装置の一例)に対して出力する。
 HMD42は、図示しない内部の表示制御部により、表示画像生成端末4から供給される表示画像を表示部42Aに対して表示する。HMD42は、対象物体200の仮想3次元形状を観察する観察者の頭部に装着される。
 図7は、本実施形態におけるHMD42の表示部42Aの構成例を示す概念図である。図7に示すように、表示部42Aは、前面透明ディスプレイである前面液晶パネル201と、後面ディスプレイである後面液晶パネル202との2枚の液晶パネルが互いに表示面が平行に、対応する画素が平面視で重なるように対向して積層されて構成されている。前面液晶パネル201は、後面液晶パネル202より、観察者の眼(接眼レンズ112)に近い配置となっている。本実施形態においては、表示部42Aを2枚の液晶パネルから構成されるとして説明するが、3枚以上の複数枚を積層して構成しても良い。この複数枚の液晶パネルの構成において、最後の面である後面ディスプレイ(後面液晶パネル202)以外の、後面ディスプレイの前面に配置される他の液晶パネルの各々は透明な液晶パネルである。
 前面液晶パネル201と後面液晶パネル202との各々は、接眼レンズ112の光軸に直交する面と、それぞれの表示面とが平行に配置されている。
 前面液晶パネル201と後面液晶パネル202との間には、それぞれの表示面を所定の間隔で離間させるため、所定幅(光軸方向の幅)のスペーサ204が設けられている。
 接眼レンズ112は、光軸が前面液晶パネル201と後面液晶パネル202との表示面と垂直となる位置に配置されている。
 バックライト203は、後面液晶パネル202の前面液晶パネル201と対向する表示面の裏面と対向する位置に配置されている。
 上述した表示部42Aの構成により、HMD42を装着した観察者は、接眼レンズ112を介して前面液晶パネル201と後面液晶パネル202との各々を観察することにより、前面液晶パネル201、後面液晶パネル202それぞれから出射する光線により構成されるライトフィールド(光線空間)により、対象物体200の仮想3次元形状の立体感を視認することができる。
 上述したように、観察者に対して仮想3次元形状を立体的に視認させるため、図11に示すマトリクス状に配置された撮像装置により撮像された複数の撮像画像であるライトフィールド画像402を、前面液晶パネル201と後面液晶パネル202との各々に所定の画像として表示させる必要がある。すなわち、前面液晶パネル201と後面液晶パネル202との各々に対し、それぞれ所定の画像を表示させることで、仮想3次元形状の表面から出射する光線を再現するライトフィールドを構成する。これにより、ライトフィールド内において、図4に示す任意の断面(例えば、断面C1、断面C2の視点方向)により、前面液晶パネル201と後面液晶パネル202とにおいて、観察者の焦点を合わせた際に観察される画素の重なりの組合わせが異なる。このため、観察者の焦点を合わせた位置により、前面液晶パネル201と後面液晶パネル202とにおける重なる画素を透過する光線方向及び輝度が変化し、仮想3次元形状の観察する部位が異なる。このため、観察者は、表示部42Aにおける仮想3次元形状を、自身の眼の焦点調節機能によって立体的に視認することができる。
 図8は、ライトフィールド画像と表示部42Aに表示される表示画像との対応関係を説明する概念図である。
 前面液晶パネル201と後面液晶パネル202との各々には、それぞれ表示画像201A、表示画像202Aが表示される。この表示画像201A及び表示画像202Aの各々は、ライトフィールド画像が有しているライトフィールドの光線の情報を圧縮した画像である。
 表示画像201A及び表示画像202Aの各々は、ライトフィールド画像におけるライトフィールドにおける光線の射出される位置及び方向の情報を有している。このライトフィールド画像の圧縮は、液晶パネルの枚数に応じて、非負値行列因子分解法(rank-1 NMF法)により、ライトフィールド画像における光線の情報を圧縮することにより行われる。
 図8において、上述された圧縮により、例えば、ライトフィールド画像312(図3)から生成された表示画像202Aが後面液晶パネル202に、表示画像201Aが前面液晶パネル201にそれぞれ表示される。
 この結果、観察者の眼200Eの網膜においては、表示画像201A及び表示画像202Aの各々にそれぞれ表示される表示画像201A、表示画像202Aが結像する。このとき、観察者の網膜には、接眼レンズ112を介することにより、所定の距離だけ離れた仮想スクリーン301と仮想スクリーン302との各々に仮想的に表示された表示画像201A及び表示画像202Aが結像される。仮想スクリーン301は前面液晶パネル201に対応し、仮想スクリーン302は後面液晶パネル202に対応している。
 これにより、観察者は、前面液晶パネル201及び後面液晶パネル202の各々に表示される、表示画像201A、表示画像202Aそれぞれを重ね合わせて観察することになる。
 すでに述べたように、観察者の焦点を合わせた位置により、前面液晶パネル201と後面液晶パネル202とにおける重なる画素を透過する光線方向及び輝度、すなわち表示画像201A、表示画像202Aそれぞれの画素の重なりが変化する。このため、ライトフィールドにおける視点に対応した観察画像303A(仮想3次元形状を断面に投影した2次元画像)を観察することができ、表示部42Aにおいて仮想3次元形状を立体的に視認することができる。
 図9は、本実施形態による画像表示システムによる仮想3次元形状の立体視のための表示画像生成の処理の動作例を示すフローチャートである。図9において、ステップS101からステップS105までは、図5におけるステップS101からステップS5までと同様である。以下、ステップS106からステップS108までの処理を説明する。
 ステップS106:
 ライトフィールド画像出力部25は、記憶部24からライトフィールド画像生成部23が生成したライトフィールド画像を、表示画像生成端末4に対して送信する。
 表示画像生成端末4は、画像生成サーバ2から供給されるライトフィールド画像を圧縮して、前面液晶パネル201及び後面液晶パネル202の各々に表示する表示画像201A、表示画像202Aそれぞれを生成する。
 ステップS107:
 表示画像生成端末4は、生成した表示画像201A及び表示画像202Aの各々を、HMD42に対して出力する。
 ステップS108:
 HMD42の表示制御部は、表示画像201A及び表示画像202Aの各々を、前面液晶パネル201、後面液晶パネル202それぞれに表示する。
 上述した構成により、本実施形態によれば、形状情報取得サーバ1により対象物体200の3次元形状情報を取得し、この3次元形状情報のデータを、画像生成サーバ2に送信する。そして、画像生成サーバ2が供給される3次元形状情報により対象物体200の仮想3次元形状を復元するため、形状情報取得サーバ1と画像生成サーバ2との各々が遠隔地に位置している場合、ライトフィールド情報として3次元点群や色情報などの3次元形状情報を送信するため、情報通信網500における通信負荷を低減させ、ライトフィールド画像をそのまま送信する場合に比較して、高速にライトフィールド情報を得て、ライトフィールド画像を生成することができる。
 これにより、本実施形態によれば、対象物体200の存在する遠隔地において、HMD42などに対し、従来に比較して高速にライトフィールド画像から生成される表示画像を生成して供給することが可能となる。
 また、本実施形態において、ライトフィールドディスプレイとしてHMD42の表示部42Aを、複数枚の液晶パネルを有する構成として説明した。しかしながら、ライトフィールドディスプレイには、パララックスバリアを使用して空間的に視野を割り振り、ライトフィールドにおける光線を表示する表示部を用いたパララックスバリア方式の構成としてもよい。あるいは、ライトフィールドディスプレイには、レンチキュラーレンズのマイクロレンズアレイを用いて空間的に視野を割り振り、ライトフィールドにおける光線を表示する表示部を用いたレンチキュラー方式の構成としてもよい。また、回折格子とディスプレイとを用いた方式を用いた構成としてもよい。これらの方式の場合、表示画像生成端末4は、それぞれの構成のライトフィールドディスプレイの方式に対応した表示画像をライトフィールド画像から生成する。
<第3の実施形態>
 以下、本発明の第3の実施形態として、本発明の第1の実施形態による形状情報取得サーバ1と、第2の実施形態による画像生成サーバ2との各々の構成を複合した画像表示サーバ6を用いた画像表示システムについて、図面を参照して説明する。図10は、本発明の第3の実施形態による画像表示サーバ6を用いた画像表示システムの構成例を示す図である。
 図10において、画像表示サーバ6は、第1の実施形態における形状情報取得サーバ1の撮像画像入力部11及び3次元形状情報生成部12と、第1の実施形態における画像生成サーバ2における3次元形状再構成部22及びライトフィールド画像生成部23と、第2の実施形態における表示画像生成端末4の機能を有する表示画像生成部41とが設けられている。また、記憶部14Aは、形状情報取得サーバ1における記憶部14と、画像生成サーバ2における記憶部24とが統合された構成である。
 3次元形状情報生成部12は、仮想3次元空間において対象物体200の特徴点の3次元点群(あるいは深度画像)と、この特徴点の色情報とを3次元形状情報として生成して、記憶部14Aに書き込んで記憶させる。
 3次元形状再構成部22は、記憶部14Aから上記3次元形状情報を読み出し、仮想3次元空間において深度情報である3次元点群(あるいは深度画像)と、3次元点群の特徴点の色情報とから、対象物体200の3次元形状を仮想3次元形状として再構成し、記憶部14Aに書き込んで記憶させる。
 そして、ライトフィールド画像生成部23は、対象物体200の仮想3次元形状を記憶部14Aから読み出す。
 また、ライトフィールド画像生成部23は、仮想3次元空間内において仮想カメラにより、対象物体200の仮想3次元形状を任意の視点方向から撮像して、ライトフィールド画像を生成し、記憶部14Aに書き込んで記憶させる。
 表示画像生成部41Aは、記憶部14Aからライトフィールド画像を読み出し、すでに説明した圧縮処理を行い、生成された表示画像201A及び表示画像202Aの各々を、ケーブル42Bあるいは無線を介してHMD42に対して出力する。また、第2の実施形態に記載したように、ライトフィールドディスプレイとして、HMD42の積層方式のディスプレイの方式ではなく、パララックスバリア方式またはレンチキュラー方式のディスプレイを用いてもよい。
 上述したように、本実施形態によれば、仮想3次元空間に対象物体200の仮想3次元形状を復元しているため、観察者の任意の視点方向のライトフィールド(光線空間)を形成することができ、従来のように、視点方向を変える毎にライトフィールド画像を撮像する必要がなく、観察者の撮像工程における手間を低減することができる。
 また、本実施形態によれば、画像表示サーバ6において、ライトフィールド画像を圧縮して、HMD42の表示部42Aに表示する表示画像201A及び表示画像202Aの各々を生成しているため、処理速度を向上させることが可能となり、動画に対する表示画像の生成をリアルタイムに行え、観察者が遅延無く仮想3次元形状を観察することができる。
 また、本実施形態によれば、ライトフィールド画像ではなく、表示画像201A及び表示画像202Aの各々を、ケーブル42Bあるいは無線を介してHMD42に対して出力するため、データ転送の負荷が低減でき、送信速度を上昇させることにより、表示部42Aにおける動画等の画像表示をリアルタイムに行え、観察者が遅延無く仮想3次元形状をHMD42において観察することができる。
 なお、本発明における図1における形状情報取得サーバ1及び画像生成サーバ2と、図6における画像生成サーバ2A及び表示画像生成端末4と、図10における画像表示サーバ6との各々機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、対象物の仮想3次元形状のライトフィールド画像の撮像、あるいはHMDの表示部に表示される表示画像を生成する制御を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
 また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
 また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 1…形状情報取得サーバ
 2…画像生成サーバ
 3-1,3-2…撮像装置
 4…表示画像生成端末
 11…撮像画像入力部
 12…3次元形状情報生成部
 13…3次元形状情報出力部
 14,14A,24…記憶部
 21…3次元形状情報入力部
 22…3次元形状再構成部
 23…ライトフィールド画像生成部
 24…記憶部
 25…ライトフィールド画像出力部
 41…表示画像生成部
 42…HMD
 42A…表示部
 500…情報通信網

Claims (13)

  1.  対象物の3次元形状を示す形状情報を取得する形状情報取得サーバと、
     前記形状情報から仮想空間内において、前記対象物の3次元形状を仮想3次元形状として再構成する形状再構成部と、前記仮想3次元形状を前記仮想空間内における所定の視点位置におけるライトフィールド画像を生成するライトフィールド画像生成部とを有する画像生成サーバと
     を備えるライトフィールド画像生成システム。
  2.  前記画像生成サーバにおける前記ライトフィールド画像生成部が、
     前記仮想空間内における任意の視点位置及び視点方向により、仮想撮像装置により前記仮想3次元形状を撮像し、前記任意の視点位置及び視点方向からライトフィールド画像を生成する
     請求項1に記載のライトフィールド画像生成システム。
  3.  前記形状情報取得サーバが、
     撮像装置により前記対象物が撮像された撮像画像から、当該対象物の前記形状情報を生成する
     請求項1または請求項2に記載のライトフィールド画像生成システム。
  4.  前記形状情報が、前記対象物が撮像された撮像画像における各画素の階調度情報及び深度情報の各々である
     請求項1から請求項3のいずれか一項に記載のライトフィールド画像生成システム。
  5.  前記形状情報が、前記対象物の特徴点からなる3次元点群情報と、各特徴点の階調度情報との各々である
     請求項1から請求項3のいずれか一項に記載のライトフィールド画像生成システム。
  6.  前記階調度情報が、色情報としてのR成分、G色成分及びB色成分の階調度である
     請求項4または請求項5に記載のライトフィールド画像生成システム。
  7.  前記形状情報が異なる視点位置及び視点方向に配置された複数の撮像装置により撮像された複数の撮像画像から抽出した情報から構成されている
     請求項1から請求項6のいずれか一項に記載のライトフィールド画像生成システム。
  8.  前記請求項1から請求項7のいずれか一項に記載のライトフィールド画像生成システムと、
     ライトフィールド画像から表示画像を生成する画像生成サーバと、
     表示装置と
     を備え、
     前記表示装置が、少なくとも前面透明ディスプレイと後面ディスプレイとを含む2層以上のディスプレイが平面視で対応する画素が重なるように配置された表示部を備えており、
     前記画像生成サーバが、前記ディスプレイに各々に表示する、前記ライトフィールド画像の前記画素の階調度情報を圧縮した表示画像それぞれを生成する
     画像表示システム。
  9.  対象物の形状情報から仮想空間内において、前記対象物の3次元形状を仮想3次元形状として再構成する形状再構成部と、前記仮想3次元形状を前記仮想空間内における所定の視点位置におけるライトフィールド画像を生成するライトフィールド画像生成部とを有する画像生成サーバとともにライトフィールド画像生成システムに備えられる形状情報取得サーバであり、
     前記対象物の3次元形状を示す前記形状情報を取得する
     形状情報取得サーバ。
  10.  対象物の3次元形状を示す形状情報を取得する形状情報取得サーバとともにライトフィールド画像生成システムに備えられる画像生成サーバであり、
     前記形状情報から仮想空間内において、前記対象物の3次元形状を仮想3次元形状として再構成する形状再構成部と、
     前記仮想3次元形状を前記仮想空間内における所定の視点位置におけるライトフィールド画像を生成するライトフィールド画像生成部と
     を備える画像生成サーバ。
  11.  前記請求項1から請求項6のいずれか一項に記載のライトフィールド画像生成システムと、ライトフィールド画像から表示画像を生成する画像生成サーバとともに画像表示システムに含まれる表示装置であり、
     少なくとも前面透明ディスプレイと後面ディスプレイとを含む2層以上のディスプレイが平面視で対応する画素が重なるように配置された表示部を備え、前記画像生成サーバが生成した前記ディスプレイに各々に表示する、前記ライトフィールド画像の前記画素の階調度情報を圧縮した表示画像それぞれを、前記ディスプレイのそれぞれに表示する
     表示装置。
  12.  対象物の3次元形状を示す形状情報を取得する形状情報取得過程と、
     前記形状情報から仮想空間内において、前記対象物の3次元形状を仮想3次元形状として再構成する形状再構成過程と、
     前記仮想3次元形状を前記仮想空間内における所定の視点位置におけるライトフィールド画像を生成するライトフィールド画像生成過程と
     を含むライトフィールド画像生成方法。
  13.  対象物の3次元形状を示す形状情報を取得する形状情報取得過程と、
     前記形状情報から仮想空間内において、前記対象物の3次元形状を仮想3次元形状として再構成する形状再構成過程と、
     前記仮想3次元形状を前記仮想空間内における所定の視点位置におけるライトフィールド画像を生成するライトフィールド画像生成過程と、
     表示装置が、少なくとも前面透明ディスプレイと後面ディスプレイとを含む2層以上のディスプレイが平面視で対応する画素が重なるように配置された表示部に対し、前記ディスプレイに各々に表示する、前記ライトフィールド画像の前記画素の階調度情報を圧縮した表示画像それぞれを生成する表示画像生成過程と
     を含む画像表示方法。
PCT/JP2019/015745 2018-04-12 2019-04-11 ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法 WO2019198784A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020513445A JP7377413B2 (ja) 2018-04-12 2019-04-11 ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、ライトフィールド画像生成方法及び画像表示方法
KR1020207029432A KR20200144097A (ko) 2018-04-12 2019-04-11 라이트 필드 화상 생성 시스템, 화상 표시 시스템, 형상 정보 취득 서버, 화상 생성 서버, 표시 장치, 라이트 필드 화상 생성 방법 및 화상 표시 방법
EP19784488.9A EP3779892A4 (en) 2018-04-12 2019-04-11 LIGHT FIELD GENERATION SYSTEM, IMAGE DISPLAY SYSTEM, INFORMATION ACQUISITION SERVER, IMAGE GENERATION SERVER, DISPLAY DEVICE, LIGHT FIELD IMAGE GENERATION METHOD, AND PICTURE DISPLAY METHOD
CN201980025186.7A CN111954896A (zh) 2018-04-12 2019-04-11 光场图像生成***、图像显示***、形状信息取得服务器、图像生成服务器、显示装置、光场图像生成方法及图像显示方法
US17/069,130 US11961250B2 (en) 2018-04-12 2020-10-13 Light-field image generation system, image display system, shape information acquisition server, image generation server, display device, light-field image generation method, and image display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018076786 2018-04-12
JP2018-076786 2018-04-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/069,130 Continuation US11961250B2 (en) 2018-04-12 2020-10-13 Light-field image generation system, image display system, shape information acquisition server, image generation server, display device, light-field image generation method, and image display method

Publications (1)

Publication Number Publication Date
WO2019198784A1 true WO2019198784A1 (ja) 2019-10-17

Family

ID=68163697

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/015745 WO2019198784A1 (ja) 2018-04-12 2019-04-11 ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法

Country Status (6)

Country Link
US (1) US11961250B2 (ja)
EP (1) EP3779892A4 (ja)
JP (1) JP7377413B2 (ja)
KR (1) KR20200144097A (ja)
CN (1) CN111954896A (ja)
WO (1) WO2019198784A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023166794A1 (ja) * 2022-03-03 2023-09-07 キヤノン株式会社 情報処理装置、情報処理方法、画像生成装置、画像生成方法及びプログラム
US11943271B2 (en) 2020-12-17 2024-03-26 Tencent America LLC Reference of neural network model by immersive media for adaptation of media for streaming to heterogenous client end-points

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020242047A1 (en) * 2019-05-30 2020-12-03 Samsung Electronics Co., Ltd. Method and apparatus for acquiring virtual object data in augmented reality
CN114363530B (zh) * 2022-01-18 2022-08-30 北京拙河科技有限公司 基于亿级像素设备的云端视频监控方法与监控平台
CN115022616B (zh) * 2022-08-08 2022-12-02 太原理工大学 一种基于人眼跟踪的图像聚焦增强显示装置和显示方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285260A (ja) * 1999-03-31 2000-10-13 Toshiba Corp 多視点画像の符号化方法及び任意視点画像の生成方法
JP2008263528A (ja) * 2007-04-13 2008-10-30 Univ Nagoya 画像情報処理方法及び画像情報処理システム
JP2011233141A (ja) * 2010-04-05 2011-11-17 Kddi Corp 自由視点画像伝送のためのサーバ装置、プログラム及び自由視点画像伝送方法
JP2014004656A (ja) 2012-06-25 2014-01-16 Univ Of Tsukuba マニピュレーションシステム
JP2014135006A (ja) * 2013-01-11 2014-07-24 Canon Inc 画像処理装置、画像処理方法、およびプログラム
WO2017079329A1 (en) * 2015-11-04 2017-05-11 Magic Leap, Inc. Dynamic display calibration based on eye-tracking
JP2018076786A (ja) 2016-11-07 2018-05-17 アイシン精機株式会社 電動ポンプ
JP2018191079A (ja) * 2017-04-28 2018-11-29 凸版印刷株式会社 多焦点視覚出力方法、多焦点視覚出力装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3453086B2 (ja) * 1999-05-18 2003-10-06 日本電信電話株式会社 三次元表示方法およびヘッドマウントディスプレイ装置
JP4192640B2 (ja) * 2003-03-19 2008-12-10 セイコーエプソン株式会社 ブロック内のエッジを検出しながら処理を行う画像処理装置、および画像処理方法
JP2006287592A (ja) * 2005-03-31 2006-10-19 Namco Bandai Games Inc 画像生成装置、電子機器、画像生成方法及びプログラム
CN101883291B (zh) * 2010-06-29 2012-12-19 上海大学 感兴趣区域增强的视点绘制方法
KR101906936B1 (ko) * 2012-01-19 2018-10-11 삼성전자주식회사 라이트 필드 홀로그램 생성 장치 및 방법
CN104685860A (zh) * 2012-09-28 2015-06-03 派力肯影像公司 利用虚拟视点从光场生成图像
RU2015145510A (ru) * 2013-03-26 2017-05-03 Сейко Эпсон Корпорейшн Наголовное устройство отображения, способ управления наголовным устройством отображения и система отображения
US10469873B2 (en) * 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10546424B2 (en) * 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10085005B2 (en) * 2015-04-15 2018-09-25 Lytro, Inc. Capturing light-field volume image and video data using tiled light-field cameras
US10275898B1 (en) * 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10567464B2 (en) * 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
KR101670970B1 (ko) * 2015-05-15 2016-11-01 한양대학교 에리카산학협력단 3차원 디스플레이 장치, 3차원 디스플레이 방법 및 이를 이용한 헤드업 마운트 디스플레이 장치
US20180204387A1 (en) * 2015-07-28 2018-07-19 Hitachi, Ltd. Image generation device, image generation system, and image generation method
EP3516625B8 (en) * 2016-10-18 2021-04-21 Photonic Sensors & Algorithms, S.L. A device and method for obtaining distance information from views
KR101817756B1 (ko) * 2016-12-28 2018-01-11 (주)앤미디어 인터랙티브한 시점 제어가 가능한 3차원 모델 기반의 ptm 생성 시스템 및 이를 이용한 ptm 생성 방법
JP6134874B1 (ja) * 2017-01-10 2017-05-24 株式会社Cygames 複合現実環境を作成するためのシステム等
CN109143576B (zh) * 2017-06-27 2021-01-22 京东方科技集团股份有限公司 显示***及其显示方法、交通工具
CN107545586B (zh) * 2017-08-04 2020-02-28 中国科学院自动化研究所 基于光场极线平面图像局部的深度获取方法及***
US10545215B2 (en) * 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
CN112074782A (zh) * 2018-01-14 2020-12-11 光场实验室公司 用于渲染来自3d环境的数据的***和方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285260A (ja) * 1999-03-31 2000-10-13 Toshiba Corp 多視点画像の符号化方法及び任意視点画像の生成方法
JP2008263528A (ja) * 2007-04-13 2008-10-30 Univ Nagoya 画像情報処理方法及び画像情報処理システム
JP2011233141A (ja) * 2010-04-05 2011-11-17 Kddi Corp 自由視点画像伝送のためのサーバ装置、プログラム及び自由視点画像伝送方法
JP2014004656A (ja) 2012-06-25 2014-01-16 Univ Of Tsukuba マニピュレーションシステム
JP2014135006A (ja) * 2013-01-11 2014-07-24 Canon Inc 画像処理装置、画像処理方法、およびプログラム
WO2017079329A1 (en) * 2015-11-04 2017-05-11 Magic Leap, Inc. Dynamic display calibration based on eye-tracking
JP2018076786A (ja) 2016-11-07 2018-05-17 アイシン精機株式会社 電動ポンプ
JP2018191079A (ja) * 2017-04-28 2018-11-29 凸版印刷株式会社 多焦点視覚出力方法、多焦点視覚出力装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FUKUSHIMA NORISHIGE; YENDO TOMOHIRO; FUJII TOSHIAKI; TANIMOTO MASAYUKI: "Real-time synthesis of wide-angle and arbitrarily viewpoint image based on Ray-Space", IEICE TECHNICAL REPORT, vol. 105, no. 292, 9 September 2005 (2005-09-09), pages 61 - 66, XP009524092 *
NORISHIGE FUKUSHIMA; TOMOHIRO YENDO; TOSHIAKI FUJII; MASAYUKI TANIMOTO: "Acceleration of free-viewpoint image generation by Ray-Space Method", SYMPOSIUM MATERIAL OF THE 10TH IMAGE MEDIA PROCESSING SYMPOSIUM, vol. 10, 9 November 2005 (2005-11-09), pages 57 - 58, XP009524214 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11943271B2 (en) 2020-12-17 2024-03-26 Tencent America LLC Reference of neural network model by immersive media for adaptation of media for streaming to heterogenous client end-points
JP7487331B2 (ja) 2020-12-17 2024-05-20 テンセント・アメリカ・エルエルシー 没入型メディアをストリーミングする方法、並びにそのコンピュータシステム、及びコンピュータプログラム
WO2023166794A1 (ja) * 2022-03-03 2023-09-07 キヤノン株式会社 情報処理装置、情報処理方法、画像生成装置、画像生成方法及びプログラム

Also Published As

Publication number Publication date
EP3779892A4 (en) 2021-05-05
US11961250B2 (en) 2024-04-16
JP7377413B2 (ja) 2023-11-10
US20210042948A1 (en) 2021-02-11
JPWO2019198784A1 (ja) 2021-04-30
CN111954896A (zh) 2020-11-17
EP3779892A1 (en) 2021-02-17
KR20200144097A (ko) 2020-12-28

Similar Documents

Publication Publication Date Title
WO2019198784A1 (ja) ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法
JP4228646B2 (ja) 立体視画像生成方法および立体視画像生成装置
JP5340952B2 (ja) 三次元投影ディスプレイ
CN108141578B (zh) 呈现相机
JP6406853B2 (ja) 光フィールド映像を生成する方法及び装置
US11960086B2 (en) Image generation device, head-mounted display, and image generation method
TWI788739B (zh) 3d顯示設備、3d圖像顯示方法
JP4817425B2 (ja) 画像表示システム及び画像表示方法
US20220113543A1 (en) Head-mounted display and image display method
JPH07240945A (ja) 仮想空間生成提示装置
US20220113794A1 (en) Display device and image display method
KR100764382B1 (ko) 컴퓨터-생성 집적영상시스템에서의 이미지 매핑장치 및 그방법
CN108450031A (zh) 图像捕获装置
JP2006254240A (ja) 立体画像表示装置、その方法及びプログラム
JP4523538B2 (ja) 立体映像撮影表示装置
JP2017098596A (ja) 画像生成方法及び画像生成装置
JP2004178579A (ja) 立体視用印刷物の製造方法、立体視用印刷物
JP2842735B2 (ja) 複数視点3次元画像入力装置、画像合成装置、及びその画像出力装置
Kakeya Real-image-based autostereoscopic display using LCD, mirrors, and lenses
KR101567002B1 (ko) 컴퓨터 그래픽스 기반의 스테레오 플로팅 집적 영상생성시스템
JP2005175539A (ja) 立体映像表示装置及び映像表示方法
JP6200316B2 (ja) 画像生成方法、画像生成装置及び画像生成プログラム
Katayama et al. A method for converting three-dimensional models into auto-stereoscopic images based on integral photography
Hill Scalable multi-view stereo camera array for real world real-time image capture and three-dimensional displays
JP2011182003A (ja) パノラマカメラ及び360度パノラマ立体映像システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19784488

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020513445

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2019784488

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2019784488

Country of ref document: EP

Effective date: 20201112