WO2023238646A1 - 情報処理装置、情報処理方法、プログラム、情報処理システム - Google Patents

情報処理装置、情報処理方法、プログラム、情報処理システム Download PDF

Info

Publication number
WO2023238646A1
WO2023238646A1 PCT/JP2023/018964 JP2023018964W WO2023238646A1 WO 2023238646 A1 WO2023238646 A1 WO 2023238646A1 JP 2023018964 W JP2023018964 W JP 2023018964W WO 2023238646 A1 WO2023238646 A1 WO 2023238646A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
camera
processing
information
shooting
Prior art date
Application number
PCT/JP2023/018964
Other languages
English (en)
French (fr)
Inventor
正樹 広瀬
弘晃 菊地
隆史 土屋
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023238646A1 publication Critical patent/WO2023238646A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Definitions

  • the present technology relates to an information processing device, an information processing method, a program, and an information processing system, and particularly relates to a video production technology using virtual video.
  • Patent Document 1 discloses a system technology for photographing performers and objects performing in front of a background image.
  • the appearance of the background should differ depending on the position of the camera relative to the display and the shooting direction. If the background image is simply displayed, the background will not change even if the camera position or shooting direction changes, resulting in an unnatural image. Therefore, depending on the camera position and shooting direction, we can change the background image (at least the image within the camera's field of view on the display) so that it looks the same as the actual three-dimensional space. , it will be possible to shoot images that are equivalent to those shot with an actual landscape in the background.
  • the color tone of the shot image may differ from what the director and staff had envisioned.
  • it is necessary to adjust the hue by changing various settings at the studio where the photo is taken, which in reality is an extremely troublesome and time-consuming task. This worsens the efficiency of video production.
  • the information processing device creates a virtual image by performing rendering using the 3D model used in a shooting system that uses a camera to shoot an image on a display displaying a virtual image obtained by rendering using a 3D model. for generating a simulation image using a rendering unit to generate, and processing parameters for realizing the brightness or color characteristics at the time of shooting of the camera used in the shooting system for the virtual image generated by the rendering unit; and a video processing unit that performs actual photographic imaging processing.
  • a 3D model used in the shooting system is used to render virtual images such as background images so that they can be monitored.
  • the virtual image is subjected to image processing that reproduces the brightness and color characteristics of the camera at the time of shooting.
  • FIG. 1 is an explanatory diagram of a photographing system according to an embodiment of the present technology.
  • FIG. 3 is an explanatory diagram of a background image according to the camera position of the photographing system according to the embodiment.
  • FIG. 3 is an explanatory diagram of a background image according to the camera position of the photographing system according to the embodiment.
  • FIG. 2 is an explanatory diagram of a video content production process according to an embodiment.
  • FIG. 1 is a block diagram of a photographing system according to an embodiment. It is a flowchart of background image generation of the photographing system of an embodiment.
  • FIG. 1 is a block diagram of a photographing system using multiple cameras according to an embodiment.
  • FIG. 1 is a block diagram of an information processing device according to an embodiment.
  • FIG. 3 is an explanatory diagram of pre-visualization according to the embodiment.
  • 1 is a block diagram of an example of a system configuration according to a first embodiment
  • FIG. FIG. 3 is an explanatory diagram of setting a cropping range from an image sensor.
  • 7 is a flowchart of actual photographic imaging processing according to the first embodiment.
  • FIG. 2 is a block diagram of an example of a system configuration according to a second embodiment. 7 is a flowchart of color conversion information generation processing according to the second embodiment.
  • FIG. 7 is a block diagram of an example of a system configuration according to a third embodiment.
  • FIG. 3 is a block diagram of an example of a system configuration according to a fourth embodiment.
  • FIG. 7 is an explanatory diagram of a camera position operation video according to the fourth embodiment.
  • FIG. 7 is an explanatory diagram of a moiré alert according to the fourth embodiment.
  • FIG. 12 is an explanatory diagram of operations in a camera position operation video according to the fourth embodiment. It is a flowchart of moiré alert processing of a 4th embodiment. 12 is a flowchart of moiré alert processing during photographing according to the fourth embodiment.
  • video or “image” includes both still images and moving images.
  • video does not only refer to the state displayed on the display, but may also comprehensively refer to video data that is not displayed on the display.
  • the background video before being displayed on the display, the video shot by the camera, and the background video and shot video switched by the switcher are video data rather than the actually displayed video. It is written as “background video”, “photographed video”, etc.
  • FIG. 1 schematically shows an imaging system 500.
  • This photographing system 500 is a system for photographing as a virtual production, and the figure shows some of the equipment arranged in a photographing studio.
  • a performance area 501 is provided where performers 510 perform acting and other performances.
  • a large-sized display device is arranged at least on the back surface of the performance area 501, as well as on the left and right sides and the top surface.
  • the device type of the display device is not limited, the figure shows an example in which an LED wall 505 is used as an example of a large display device.
  • One LED wall 505 forms a large panel by connecting and arranging a plurality of LED panels 506 vertically and horizontally.
  • the size of the LED wall 505 here is not particularly limited, but may be any size necessary or sufficient to display the background when photographing the performer 510.
  • a necessary number of lights 580 are arranged at necessary positions above or to the sides of the performance area 501 to illuminate the performance area 501.
  • a camera 502 for shooting movies and other video content is arranged near the performance area 501.
  • the position of the camera 502 can be moved by a cameraman 512, and the shooting direction, angle of view, etc. can be controlled.
  • the camera 502 may move or change the angle of view automatically or autonomously.
  • the camera 502 may be mounted on a pan head or a moving object.
  • the camera 502 collectively photographs the performer 510 in the performance area 501 and the images displayed on the LED wall 505. For example, by displaying a landscape as the background video vB on the LED wall 505, it is possible to capture a video that is similar to when the performer 510 is actually performing in the scene.
  • An output monitor 503 is placed near the performance area 501. On this output monitor 503, the video being photographed by the camera 502 is displayed in real time as a monitor video vM. This allows the director and staff involved in producing video content to check the video being shot.
  • the photographing system 500 that photographs the performance of the performer 510 with the LED wall 505 in the background in the photographing studio has various advantages compared to green-back photography.
  • Post-production after shooting is also more efficient than in the case of green screen shooting. This is because there are cases where so-called chroma key synthesis can be made unnecessary, and there are cases where color correction and reflection synthesis can be made unnecessary. Furthermore, even if chromakey composition is required during shooting, it is only necessary to display green and blue images, which eliminates the need for an additional physical background screen, which also helps improve efficiency.
  • the background video vB will be explained with reference to FIGS. 2 and 3. Even if the background video vB is displayed on the LED wall 505 and photographed together with the performer 510, if the background video vB is simply displayed, the background of the photographed video will be unnatural. This is because the background, which is actually three-dimensional and has depth, is used as the two-dimensional background image vB.
  • the camera 502 can photograph performers 510 in the performance area 501 from various directions, and can also perform zoom operations.
  • the performer 510 is not standing still in one place either. Then, the actual appearance of the background of the performer 510 should change depending on the position, shooting direction, angle of view, etc. of the camera 502, but such a change cannot be obtained in the background image vB as a flat image. Therefore, the background image vB is changed so that the background looks the same as it actually looks, including the parallax.
  • FIG. 2 shows the camera 502 photographing the performer 510 from a position on the left side of the diagram
  • FIG. 3 shows the camera 502 photographing the performer 510 from a position on the right side of the diagram.
  • a shooting area video vBC is shown within a background video vB.
  • the portion of the background video vB excluding the shooting area video vBC is called an "outer frustum”
  • the shooting area video vBC is called an "inner frustum”.
  • the background video vB described here refers to the entire video displayed as a background, including the shooting area video vBC (inner frustum).
  • the range of this photographing area video vBC corresponds to the range actually photographed by the camera 502 within the display surface of the LED wall 505.
  • the photographing area video vBC is a video that expresses the scene actually seen when the position of the camera 502 is set as a viewpoint, depending on the position of the camera 502, the photographing direction, the angle of view, etc.
  • 3D background data which is a 3D (three dimensions) model
  • the 3D background data is rendered sequentially in real time based on the viewpoint position of the camera 502. do.
  • the range of the photographing area video vBC is a slightly wider range than the range photographed by the camera 502 at that time. This is to prevent the outer frustum image from being reflected due to rendering delay when the photographed range changes slightly due to panning, tilting, zooming, etc. of the camera 502, and to prevent the outer frustum image from being reflected. This is to avoid the influence of diffracted light.
  • the image of the shooting area image vBC rendered in real time in this way is combined with the image of the outer frustum.
  • the outer frustum image used in the background image vB may be rendered in advance based on 3D background data, or may be rendered in real time every frame or every intermittent frame.
  • the entire background image vB is generated by incorporating the image of the shooting area image vBC (inner frustum) into a part of the outer frustum image. Note that there are cases where the outer frustum video is rendered every frame as well as the inner frustum, but here we will take a still video as an example, and in the following explanation we will mainly use cases where only the first frame of the outer frustum video is rendered. will be explained as an example.
  • the background that is photographed together with the performer 510 will change depending on the viewpoint position and FOV (Field of View) associated with the actual movement of the camera 502.
  • FOV Field of View
  • a monitor video vM including a performer 510 and a background is displayed on the output monitor 503, and this is the photographed video.
  • the background in this monitor video vM is the shooting area video vBC.
  • the background included in the shot video is a real-time rendered video.
  • the photographing system 500 of the embodiment not only displays the background image vB in a two-dimensional manner, but also displays the photographing area image so that it is possible to photograph an image similar to that when actually photographing a landscape. Background video vB including vBC is changed in real time.
  • the process of producing video content as a virtual production that is shot using the shooting system 500 will be explained.
  • the video content production process is roughly divided into three stages. They are asset creation ST1, production ST2, and post-production ST3.
  • Asset creation ST1 is a process of creating 3D background data for displaying background video vB.
  • the background video vB is generated by performing rendering in real time using 3D background data during shooting.
  • 3D background data as a 3D model is created in advance.
  • Examples of methods for producing 3D background data include full CG (Full Computer Graphics), point cloud scanning, and photogrammetry.
  • Full CG is a method of creating 3D models using computer graphics. Although this method requires the most man-hours and time among the three methods, it is suitable for use when it is desired to use an unrealistic video or a video that is difficult to photograph as the background video vB.
  • Point cloud data scanning involves measuring distance from a certain position using, for example, LiDAR, and then taking a 360-degree image from the same position with a camera, and adding the color of the image taken by the camera to the point measured by LiDAR. This is a method of generating a 3D model using point cloud data by loading data. Compared to full CG, 3D models can be created in a shorter time. It is also easier to create high-definition 3D models than photogrammetry.
  • Photogrammetry is a photogrammetry technique that analyzes parallax information to obtain dimensions and shapes from two-dimensional images obtained by photographing objects from multiple viewpoints. You can create 3D models in a short time. Note that point cloud information acquired by a lidar may be used in generating 3D data by photogrammetry.
  • a 3D model that becomes 3D background data is created using, for example, these methods.
  • these methods may be used in combination.
  • a part of a 3D model created using point cloud data scanning or photogrammetry is created using CG and then synthesized.
  • Production ST2 is a step in which shooting is performed in a shooting studio as shown in FIG.
  • the elemental technologies in this case include real-time rendering, background display, camera tracking, and lighting control.
  • Real-time rendering is a rendering process for obtaining a shooting area video vBC at each point in time (each frame of the background video vB), as explained in FIGS. 2 and 3. This is to perform rendering on the 3D background data created in asset creation ST1 from a viewpoint according to the position of the camera 502 at each point in time.
  • Camera tracking is performed to obtain photographic information by the camera 502, and tracks positional information, photographing direction, angle of view, etc. of the camera 502 at each point in time.
  • photographic information including these By providing photographic information including these to the rendering engine in correspondence with each frame, real-time rendering can be performed according to the viewpoint position of the camera 502 and the like.
  • the shooting information is information that is linked or associated with the video as metadata. It is assumed that the photographing information includes position information of the camera 502 at each frame timing, camera orientation, angle of view, focal length, F value (aperture value), shutter speed, lens information, and the like.
  • Illumination control refers to controlling the state of illumination in the photographing system 500, specifically controlling the light amount, emitted color, illumination direction, etc. of the light 580. For example, lighting control is performed according to the time and location settings of the scene to be photographed.
  • Post-production ST3 indicates various processes performed after shooting. For example, video correction, video adjustment, clip editing, video effects, etc. are performed.
  • Image correction may include color gamut conversion and color matching between cameras and materials.
  • Image adjustment may include color adjustment, brightness adjustment, contrast adjustment, etc.
  • Clip editing may include clip cutting, order adjustment, time length adjustment, and the like.
  • CG video or special effect video may be synthesized.
  • FIG. 5 is a block diagram showing the configuration of the imaging system 500 outlined in FIGS. 1, 2, and 3.
  • the photographing system 500 shown in FIG. 5 includes the LED wall 505 formed by the plurality of LED panels 506, the camera 502, the output monitor 503, and the light 580 described above.
  • the photographing system 500 further includes a rendering engine 520, an asset server 530, a sync generator 540, an operation monitor 550, a camera tracker 560, an LED processor 570, a lighting controller 581, and a display controller 590, as shown in FIG.
  • Each of the LED processors 570 is provided corresponding to one or more LED panels 506, and drives the corresponding one or more LED panels 506 to display images.
  • the sync generator 540 generates a synchronization signal for synchronizing the frame timing of the video displayed by the LED panel 506 and the frame timing of the image captured by the camera 502, and supplies it to each LED processor 570, camera 502, and rendering engine 520. .
  • the camera tracker 560 generates information captured by the camera 502 at each frame timing and supplies it to the rendering engine 520. For example, the camera tracker 560 detects the position information of the camera 502 relative to the position of the LED wall 505 or a predetermined reference position, and the shooting direction of the camera 502 as one of the shooting information, and supplies these to the rendering engine 520. . As a specific detection method using the camera tracker 560, reflectors are placed randomly on the ceiling, and the position is detected from the reflected light of infrared light emitted from the camera tracker 560 attached to the camera 502. There is a way to do it.
  • a detection method there is also a method of estimating the self-position of the camera 502 by using gyro information mounted on the pan head of the camera 502 or the main body of the camera 502, or by image recognition of an image taken by the camera 502.
  • the camera 502 may supply the rendering engine 520 with the angle of view, focal length, F value, shutter speed, lens information, etc. as photographic information.
  • the asset server 530 is a server that stores the 3D model created in the asset creation ST1, that is, the 3D background data, in a recording medium, and can read out the 3D model as needed. That is, it functions as a DB (data base) of 3D background data.
  • the rendering engine 520 performs processing to generate a background video vB to be displayed on the LED wall 505.
  • the rendering engine 520 reads the necessary 3D background data from the asset server 530.
  • the rendering engine 520 generates an image of the outer frustum to be used as the background image vB by rendering the 3D background data as viewed from a prespecified spatial coordinate.
  • the rendering engine 520 uses the imaging information supplied from the camera tracker 560 and the camera 502 to specify the viewpoint position and the like with respect to the 3D background data, and renders the imaging area video vBC (inner frustum).
  • the rendering engine 520 synthesizes the shooting area video vBC, which dynamically changes according to the movement of the camera 502, with the outer frustum to generate a background video vB as one frame of video data.
  • the rendering engine 520 then transmits the generated one frame of video data to the display controller 590.
  • the display controller 590 generates a divided video signal nD by dividing one frame of video data into video parts to be displayed on each LED panel 506, and transmits the divided video signal nD to each LED panel 506. At this time, the display controller 590 may perform calibration according to individual differences such as color development between display units/manufacturing errors. Note that the display controller 590 may not be provided and the rendering engine 520 may perform these processes. That is, the rendering engine 520 may generate the divided video signal nD, perform calibration, and transmit the divided video signal nD to each LED panel 506.
  • the entire background video vB is displayed on the LED wall 505 by each LED processor 570 driving the LED panel 506 based on the received divided video signal nD.
  • the background video vB includes a shooting area video vBC rendered according to the position of the camera 502 at that time.
  • the camera 502 can thus photograph the performance of the performer 510 including the background video vB displayed on the LED wall 505.
  • the video obtained by shooting with the camera 502 is recorded on a recording medium inside the camera 502 or in an external recording device (not shown), and is also supplied in real time to the output monitor 503 and displayed as a monitor video vM.
  • the operation monitor 550 displays an operation image vOP for controlling the rendering engine 520.
  • the engineer 511 can perform necessary settings and operations regarding rendering of the background video vB while viewing the operation image vOP.
  • the lighting controller 581 controls the emission intensity, emission color, irradiation direction, etc. of the light 580.
  • the lighting controller 581 may control the light 580 asynchronously with the rendering engine 520, or may control the light 580 in synchronization with photographing information and rendering processing. Therefore, the lighting controller 581 may control the light emission based on instructions from the rendering engine 520 or a master controller (not shown). Alternatively, the light 580 may be controlled from the rendering engine 520.
  • FIG. 6 shows a processing example of the rendering engine 520 in the photographing system 500 having such a configuration.
  • the rendering engine 520 reads the 3D background data to be used this time from the asset server 530 in step S10, and develops it in an internal work area. In some cases, an image to be used as an outer frustum is generated at this stage.
  • the rendering engine 520 repeats the processes from step S30 to step S60 until it determines in step S20 that the display of the background video vB based on the read 3D background data has ended.
  • step S30 the rendering engine 520 acquires shooting information from the camera tracker 560 and camera 502. This confirms the position and state of the camera 502 to be reflected in the current frame.
  • step S40 the rendering engine 520 performs rendering based on the shooting information. That is, the viewpoint position for the 3D background data is specified based on the position of the camera 502, the shooting direction, or the angle of view to be reflected in the current frame, and rendering is performed. At this time, image processing that reflects focal length, F-number, shutter speed, lens information, etc. can also be performed. Through this rendering, video data as a shooting area video vBC (inner frustum) can be obtained.
  • the outer frustum may be generated in advance as a fixed image in step S10, or may be generated for each frame in step S40.
  • step S50 the rendering engine 520 performs processing to synthesize the outer frustum, which is the entire background image, and the image reflecting the viewpoint position of the camera 502, that is, the shooting area image vBC.
  • this process is a process of combining an image generated by reflecting the viewpoint of the camera 502 with an image of the entire background rendered at a certain reference viewpoint.
  • one frame of background video vB displayed on the LED wall 505, that is, background video vB including the shooting area video vBC is generated.
  • step S60 The process of step S60 is performed by the rendering engine 520 or the display controller 590.
  • the rendering engine 520 or the display controller 590 generates a divided video signal nD, which is obtained by dividing one frame of the background video vB into videos to be displayed on the individual LED panels 506. Calibration may also be performed. Then, each divided video signal nD is transmitted to each LED processor 570.
  • the background video vB including the shooting area video vBC captured by the camera 502 is displayed on the LED wall 505 at each frame timing.
  • FIG. 7 shows an example of a configuration in which a plurality of cameras 502a and 502b are used.
  • the cameras 502a and 502b are configured to be able to take pictures in the performance area 501 independently.
  • each camera 502a, 502b and each LED processor 570 are maintained in synchronization by a sync generator 540.
  • Output monitors 503a and 503b are provided corresponding to the cameras 502a and 502b, and are configured to display images taken by the corresponding cameras 502a and 502b as monitor images vMa and vMb.
  • camera trackers 560a and 560b are provided corresponding to the cameras 502a and 502b, and detect the positions and shooting directions of the corresponding cameras 502a and 502b, respectively.
  • the shooting information from the camera 502a and camera tracker 560a and the shooting information from the camera 502b and camera tracker 560b are sent to the rendering engine 520.
  • the rendering engine 520 can perform rendering to obtain the background video vB of each frame using shooting information from either or both of the camera 502a side and the camera 502b side.
  • FIG. 7 shows an example in which two cameras 502a and 502b are used, it is also possible to perform imaging using three or more cameras 502.
  • the shooting information of each camera is used to render and display the shooting area video vBC (inner frustum) corresponding to each camera 502
  • the shooting area videos vBC will be different from each other.
  • a shooting area video vBC corresponding to the camera 502a is shown, but when using an image from the camera 502b, a shooting area video vBC corresponding to the camera 502b is shown.
  • the shooting area videos vBC corresponding to the cameras 502a and 502b are simply displayed, they will interfere with each other. Therefore, it is necessary to devise a method for displaying the photographing area video vBC.
  • the information processing device 70 is a device capable of information processing, especially video processing, such as a computer device.
  • the information processing device 70 is assumed to be a personal computer, a workstation, a mobile terminal device such as a smartphone or a tablet, a video editing device, or the like.
  • the information processing device 70 may be a computer device configured as a server device or an arithmetic device in cloud computing.
  • the information processing device 70 can function as a 3D model production device that produces a 3D model in asset creation ST1.
  • the information processing device 70 can also function as a rendering engine 520 and an asset server 530 that constitute the photographing system 500 used in the production ST2.
  • the information processing device 70 can also function as a video editing device that performs various video processing in post-production ST3.
  • the information processing device 70 can also function as an information processing device (rendering engine 31) that generates a simulation video vSM in pre-visualization, which will be described later with reference to FIG. 10 and the like.
  • the CPU 71 of the information processing device 70 shown in FIG. Execute various processes according to the programmed program.
  • the RAM 73 also appropriately stores data necessary for the CPU 71 to execute various processes.
  • the video processing unit 85 is configured as a processor that performs various video processing.
  • the processor is capable of performing one or more of 3D model generation processing, rendering, DB processing, video processing including color/brightness adjustment processing, video editing processing, video analysis/detection processing, and the like.
  • This video processing unit 85 can be realized by, for example, a CPU separate from the CPU 71, a GPU (Graphics Processing Unit), a GPGPU (General-purpose computing on graphics processing units), an AI (artificial intelligence) processor, or the like. Note that the video processing section 85 may be provided as a function within the CPU 71.
  • the CPU 71, ROM 72, RAM 73, nonvolatile memory section 74, and video processing section 85 are interconnected via a bus 83.
  • An input/output interface 75 is also connected to this bus 83.
  • the input/output interface 75 is connected to an input section 76 consisting of an operator or an operating device.
  • various operators and operating devices such as a keyboard, a mouse, a key, a trackball, a dial, a touch panel, a touch pad, a grating panel, and a remote controller are assumed.
  • a user's operation is detected by the input unit 76, and a signal corresponding to the input operation is interpreted by the CPU 71.
  • a microphone is also assumed as the input section 76. Voices uttered by the user can also be input as operation information.
  • a display section 77 consisting of an LCD (Liquid Crystal Display) or an organic EL (electro-luminescence) panel, and an audio output section 78 consisting of a speaker etc. are connected to the input/output interface 75, either integrally or separately.
  • the display unit 77 is a display unit that performs various displays, and is configured by, for example, a display device provided in the casing of the information processing device 70, a separate display device connected to the information processing device 70, or the like.
  • the display unit 77 displays various images, operation menus, icons, messages, etc., ie, as a GUI (Graphical User Interface), on the display screen based on instructions from the CPU 71.
  • GUI Graphic User Interface
  • the input/output interface 75 may also be connected to a storage section 79 and a communication section 80, which are comprised of an HDD (Hard Disk Drive), solid-state memory, or the like.
  • HDD Hard Disk Drive
  • solid-state memory solid-state memory
  • the storage unit 79 can store various data and programs.
  • a DB can also be configured in the storage unit 79.
  • the storage unit 79 can be used to construct a DB that stores a group of 3D background data.
  • the communication unit 80 performs communication processing via a transmission path such as the Internet, and communicates with various devices such as an external DB, editing device, and information processing device through wired/wireless communication, bus communication, and the like.
  • various devices such as an external DB, editing device, and information processing device through wired/wireless communication, bus communication, and the like.
  • the communication unit 80 accesses a DB as the asset server 530 or receives shooting information from the camera 502 or camera tracker 560. be able to.
  • the information processing device 70 used in post-production ST3 it is also possible to access the DB as the asset server 530 through the communication unit 80.
  • a drive 81 is also connected to the input/output interface 75 as required, and a removable recording medium 82 such as a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory is appropriately loaded.
  • the drive 81 can read video data, various computer programs, etc. from the removable recording medium 82.
  • the read data is stored in the storage section 79, and the video and audio included in the data are outputted on the display section 77 and the audio output section 78. Further, computer programs and the like read from the removable recording medium 82 are installed in the storage unit 79 as necessary.
  • software for the processing of this embodiment can be installed via network communication by the communication unit 80 or the removable recording medium 82.
  • the software may be stored in advance in the ROM 72, storage unit 79, or the like.
  • FIG. 9 shows the flow of asset creation (ST1), production (ST2), and post-production (ST3) previously explained in FIG. 4.
  • Production (ST2) is a stage in which shooting is actually performed in the studio, and is divided into shooting preparation and shooting.
  • pre-visualization which is the focus of the embodiment, is assumed to be performed mainly at a stage prior to preparation for photographing.
  • pre-visualization may be performed at a stage after the 3D model for rendering the background video vB is created in asset creation (ST1).
  • pre-visualization may be considered to be performed at the final stage of asset creation (ST1), or may be considered to be performed at a stage before shooting preparation in production (ST2).
  • video confirmation is a process that allows the director and staff to confirm the captured video vC obtained by shooting, prior to shooting. To make it possible to check mainly the hue of a photographed image vC using a simulation image.
  • Moire alert is a process that predicts moire when a staff member is virtually operating the camera position while checking the video, and issues a warning if moire is predicted to appear. This makes it possible to avoid the occurrence of artifacts during subsequent imaging.
  • color calibration is performed along with various settings such as the LED and camera in the photography system 500.
  • a calibration LUT Look Up Table
  • the calibration LUT is, for example, a 3D-LUT. Note that instead of using a 3D-LUT, preparation for calibration may be performed using a combination of a matrix and a 1D-LUT or other video signal processing.
  • the moire alert in this case is a process of outputting a moire alert to a photographer or the like in real time in accordance with the moire determination made by the rendering engine 520.
  • the calibration LUT is a process of canceling color changes related to background video display by the LED wall 505, camera 502, etc. by applying the LUT generated by color calibration during preparation for shooting.
  • On-set camera setting is a process of acquiring camera settings set in pre-visualization from, for example, a cloud server and reflecting them on the camera 502 in the studio.
  • FIG. 10 a configuration example as the first embodiment will be described using FIG. 10. Note that in each of the embodiments below, the configuration of the imaging system 500 and the configuration for pre-visualization will be described in parallel.
  • the upper part of the drawing in FIGS. 10, 13, 15, and 18 shows a simplified configuration of the imaging system 500 explained in FIG. system 700).
  • a rendering engine 520 an LED processor 570, an LED wall 505, a camera 502, a camera signal processing section 515, an operation monitor 550, or an output monitor 503 are shown.
  • the operation monitor 550 or output monitor 503 in this figure comprehensively indicates the monitor that displays the shot video vC and monitor video vM in the studio, which is the shooting site. For the sake of explanation, it will be abbreviated as "monitor 550 etc.” below.
  • Rendering engine 520 is shown as including a rendering section 520a and a color calibration section 520b. As described above, the rendering unit 520a renders the inner frustum (shooting area video) vBC according to the position and shooting direction of the outer frustum and camera 502, and generates the background video vB to be displayed on the LED wall 505. Shows functionality. That is, the rendering unit 520a has a function of performing the processing shown in FIG.
  • the rendering engine 520 may have a function as a color calibration unit 520b.
  • the color calibration unit 520b cancels color changes caused by the processing of the LED processor 570, the LED light emitting characteristics of the LED panel 506 (not shown in FIG. 10) constituting the LED wall 505, and the light receiving characteristics and processing of the camera. Indicates a function that performs calibration processing.
  • the color calibration unit 520b performs color conversion of the rendered background video vB using the LUT generated by color calibration during the preparation stage for photographing.
  • the rendering engine 520 processes the calibration LUT using the function of the color calibration unit 520b in this manner, it may be assumed that, for example, no color change occurs on the display side of the background video vB.
  • the color change here refers to a color change that occurs due to the processing and light emission characteristics of the rendered background image vB until it is displayed on the LED wall 505, the light reception characteristics and processing of the camera, and the like.
  • the rendering engine 520 does not have a function as the color calibration unit 520b, or if it does not enable it even if it has the function, the color in the state rendered from the 3D model and the state displayed on the LED wall 505 There may be a change in the color due to hue, that is, color shading, RGB balance, etc.
  • a camera signal processing unit 515 that performs signal processing of the captured video signal. Although omitted in FIGS. 5 and 7, the camera signal processing section 515 may be formed by a processor within the camera 502, or may be provided as a separate unit from the camera 502.
  • the video signal photographed by the camera 502 is subjected to development processing including brightness processing, color processing, etc., resizing processing, etc. in a camera signal processing unit 515, and is output as a photographed video vC or a monitor video vM.
  • the photographed video vC is recorded on a recording medium as a main video, or transmitted to other devices for broadcasting or distribution. Further, the photographed video vC is used as a monitor video vM and displayed on the monitor 550 or the like.
  • a pre-visualization system 700 is configured as a system outside the studio, for example.
  • the pre-visualization system 700 includes at least an information processing device 70 functioning as a rendering engine 31 and a monitor 40.
  • the rendering engine 31 is configured by, for example, an information processing device 70 separate from the rendering engine 520.
  • the rendering engine 31 includes a rendering section 32 and a video processing section 33.
  • the rendering unit 32 has the same rendering function as the rendering unit 520a in the rendering engine 520 described above, and can generate a background video vBP based on a 3D model.
  • This rendering unit 32 can render the background video vB using at least the 3D model created in the step of asset creation (ST1). That is, the same 3D model used in the production (ST2) process is acquired from, for example, the asset server 530 (see FIGS. 5 and 7), and rendering is performed using it.
  • the rendering unit 32 can render, for example, an inner frustum using the 3D model.
  • an inner frustum photographing area video vBC
  • an arbitrary camera position and direction are input, and rendering is performed at a viewpoint position for the 3D model corresponding to the input.
  • background images generated by the rendering unit 32 will be referred to as "background images vBP" to distinguish them from the shooting area image vBC generated by the rendering engine 520 at the time of shooting for the sake of explanation.
  • the video processing unit 33 has a function of performing various video processing on the background video vBP.
  • the video processing unit 33 performs actual shooting visualization processing.
  • Actual shooting visualization processing is processing for generating a simulation video vSM that imitates the camera 502 actually used for shooting.
  • a simulation video vSM is generated for the background video vBP using processing parameters that realize at least the brightness or color characteristics at the time of photographing by the camera 502 used in the photographing system 500.
  • a simulation video vSM with the same hue as the captured video vC is generated, and the simulation video vSM is displayed on the monitor 40. .
  • the monitor 40 indicates a monitor device that displays images output from the information processing device 70 as the rendering engine 31, and may be a monitor device located at a location other than the shooting studio, for example, or a monitor device located in the shooting studio. But that's fine.
  • the monitor 40 may be of any type as long as it displays the simulation video vSM at least in the pre-visualization stage.
  • a rendering unit 32 generates a background video vBP, and a video processing unit 33 performs actual shooting visualization processing to generate a simulation video vSM.
  • the staff can confirm the simulation video vSM, which has the same color tone as the background video included in the captured video vC at the time of shooting. This makes it possible to check the colors prior to photographing and, if necessary, adjust the colors in the camera 502 and the camera signal processing unit 515 during the preparation stage for photographing.
  • the background video vBP rendered by the rendering unit 32 is made to have at least the same color tone as the background video included in the shooting video vC during actual shooting.
  • the video processing unit 33 adjusts parameters such as RGB gain, white balance value, gamma value, and offset value to the camera 502.
  • the video processing unit 33 performs processing on the background video vBP to give R, G, and B gains similar to the gain values for the pixel signals of each color read from the image sensor in the camera 502. Further, the video processing unit 33 performs white balance processing on the background video vBP using the same white balance value as the white balance value at the time of photographing by the camera 502 in the actual photographic imaging processing. This makes it possible to obtain a simulation video vSM having a background of the same hue as the background in the photographed video vC. As a result, on the monitor 40, it is possible to see an image with the same hue as when viewing the photographed image vC on the monitor 550 or the like at the time of photographing.
  • the video processing unit 33 may perform processing on the background video vBP to make the angle of view the same by setting the cropping range from the image sensor of the camera 502, the zoom magnification, etc., as the actual photographic imaging processing.
  • FIG. 11 shows an example of the readout range from the image sensor 30 of the camera 502.
  • the photoelectric conversion signal which is the imaging signal from the image sensor 30, may be read out from the entire pixel area as shown by the solid line, or may be read out in various ways depending on the readout mode, such as the range shown by the dotted line, the range shown by the broken line, or the range shown by the dashed-dotted line. be.
  • the angle of view in the photographed video vC differs depending on the difference in these readout ranges. Therefore, in the actual photographic imaging process of the video processing unit 33, the angle of view is made to be the same as that of the photographed video vC.
  • the video processing unit 33 processes the background video vBP to visualize various characteristics of the lens attached to the camera 502 (whether it is a spherical or anamorphic lens, color, transmittance, flare, distortion, etc.). Processing may also be performed to reflect characteristics (such as aberrations and peripheral light falloff). This brings the simulation video vSM closer to the photographed video vC.
  • the video processing unit 33 may perform a process of reflecting the characteristics of an optical filter such as a circular polarizing filter mounted on the camera 502 on the background video vBP as actual photographic imaging processing. Thereby, even when photographing with a filter attached, the simulation video vSM can be brought closer to the photographed video vC.
  • an optical filter such as a circular polarizing filter mounted on the camera 502 on the background video vBP
  • the actual shooting visualization process may be a process that reflects the color change on the camera side. This is because the color of the background video vB displayed on the LED wall 505 does not change from the rendered state.
  • color calibration as described above is not performed, a color change may already have occurred in the background video vB displayed on the LED wall 505.
  • processing is also performed to reflect the brightness (intensity) characteristics of each color on the LED side. Thereby, the simulation video vSM can be brought closer to the captured video vC.
  • the camera settings such as the frame rate, shutter speed, and exposure value of the virtual camera assumed when the rendering engine 31 renders the simulation video vSM are the same as those of the actual camera 502. Same settings as . That is, the video processing unit 33 sets the background video vBP to RGB values according to various camera settings such as frame rate, shutter speed, exposure value, ND setting, etc., and then adjusts the RGB gain, white balance value, etc. By performing the color processing, a simulation video vSM that imitates the hue of the actual captured video vC is generated. Further, the brightness of the LED wall 505 may also be reflected in the same way as the camera settings.
  • FIG. 12 shows an example of processing by the rendering engine 31 during pre-visualization.
  • the rendering engine 31 obtains the camera settings and white balance of the camera 502 at the time of shooting, and sets processing parameters accordingly. These are basic parameters such as frame rate, shutter speed, and exposure value. Further, in step S100, the rendering engine 31 may acquire various characteristics of the lens attached to the camera 502 at the time of photographing and characteristics of the optical filter, and reflect them in the processing parameters.
  • step S101 the rendering engine 31 determines the end of monitoring the simulation video vSM in pre-visualization. Until the end, the rendering engine 31 executes the processing from step S102 for each frame, for example.
  • Camera position setting is performed in step S102.
  • This is a process of virtually setting the relative position and direction (photographing direction) of the camera 502 with respect to the LED wall 505.
  • this is a process of setting a viewpoint position for a 3D model during rendering. If settings for the position of the camera 502 and the camera path (camera movement trajectory) during actual shooting exist at the pre-visualization stage, the camera position for each frame may be set using that information. Furthermore, the staff may input an arbitrary setting of the camera position at the pre-visualization stage.
  • step S103 the rendering engine 31 renders the background video vBP using the 3D model after setting the viewpoint position based on the set camera position. For example, a background image corresponding to the inner frustum (photographing area image vBC) is generated.
  • step S104 the rendering engine 31 determines whether or not to cancel the color change up to the LED wall 505 through color calibration processing at the time of photographing.
  • the rendering engine 31 may determine the presence or absence of color calibration processing at the time of photographing and the content of the process based on input from the user, or if it can communicate with the photographing system 500, the rendering engine 520 of the photographing system 500 The determination may also be made by communicating with.
  • the presence or absence of color calibration processing is known without communication or the like.
  • the rendering engine 31 performs the process of step S105 as one of the actual shooting visualization processes. That is, brightness/color processing is performed to reflect the change in brightness or color that occurs in the background video vB displayed on the LED wall 505 to the background video vBP. For example, gain parameters are set according to the luminance balance of each RGB color of the LED panel 506, and color correction is performed on the background video vBP.
  • step S105 If the color change up to the LED wall 505 is canceled during color calibration processing at the time of photographing, no color change occurs in the background video vB displayed on the LED wall 505, so the process of step S105 is skipped.
  • the rendering engine 31 performs the process of step S106 as one of the actual shooting visualization processes. That is, brightness/color processing is performed to reflect the color change occurring on the camera 502 side in the background video vBP. For example, as described above, processing is performed to make the white balance value and RGB gain similar to those of the camera 502. Furthermore, in the actual photographic imaging processing in step S106, the rendering engine 31 may perform processing to reflect the angle of view, lens characteristics, optical filter characteristics, and the like.
  • step S107 the rendering engine 31 outputs one frame as the simulation video vSM. For example, it is output and displayed on the monitor 40.
  • the staff and the like who take photographs using the photographing system 500 can check the color tone of the photographed video vC in advance on the monitor 40.
  • FIG. 13 shows a configuration example of the second embodiment.
  • the second embodiment allows staff to actively perform color adjustment.
  • the monitor 40 displays the simulated video vSM created by the actual imaging processing performed by the video processing section 33 as described above, allowing the staff to check the color tone.
  • the rendering engine 31 is provided with the function of an adjustment operation section 35 that can be used by users such as staff members for color adjustment operations.
  • a GUI using the display unit 77 and input unit 76 of the information processing device 70, which is the rendering engine 31, is provided to the user. This allows the user to manipulate the color tone of the image while viewing the monitor 40. That is, when a staff member looks at the simulated video vSM created by the actual photographic visualization process and feels that the color tone is different from what he or she had in mind, he/she performs color adjustment to obtain the desired color. Further, by providing the content of the adjustment as color conversion information Ic to the camera 502 and the camera signal processing unit 515, the adjusted color can be reflected at the time of photographing.
  • the rendering engine 31 performs the process shown in FIG. 14 using the function of the video processing unit 33.
  • step S201 the rendering engine 31 monitors the user's color adjustment operation using the GUI by the adjustment operation unit 35. If a color adjustment operation is detected, the rendering engine 31 proceeds to step S202 and performs color adjustment processing according to the color adjustment operation.
  • the rendering engine 31 monitors the determination operation by the adjustment operation unit 35.
  • the determining operation here is an instruction to generate color conversion information Ic so that the adjusted color state can be reproduced later.
  • the color conversion information Ic is an LUT or CDL (Color Decision List), which will be described below.
  • the rendering engine 31 proceeds to step S204 and performs processing to generate an LUT or CDL as color conversion information Ic.
  • the LUT has, for example, the R, G, and B levels as three axes, and the adjusted R, G, and B values for the original color indicated by each grid point on the three axes, This is a three-dimensional LUT (3DLUT) that stores B-value colors.
  • CDL has parameters for adjusting the slope, offset, and power for each of R, G, and B, and parameters for adjusting saturation.
  • step S205 the rendering engine 31 performs a process of storing the generated LUT and CDL and outputting the generated LUT and CDL to a predetermined device.
  • the output destination of the LUT or CDL may be the camera 502 or the camera signal processing unit 515 as shown in FIG.
  • the staff when the staff can confirm the hue of the photographed video vC in advance using the simulation video vSM, the staff can actively adjust the color. Then, an LUT or CDL is generated according to the adjustment details so that it can be used for later shooting.
  • the LUT or CDL can be applied to the captured video vC to perform color adjustment.
  • the staff can check the captured video vC in advance and make color adjustments as needed.
  • the color adjustment as an LUT or CDL it can be applied in video processing during shooting.
  • the photographed video vC is subjected to the same color adjustment as in the pre-visualization. In other words, it becomes possible to check the hue of the photographed video vC in advance and even make adjustments.
  • the third embodiment is an example in which the video processing unit 33 of the rendering engine 31 performs a process of changing camera setting information to be reflected in the simulation video vSM according to an input, and can output the camera setting information.
  • the camera setting information here refers to, for example, readout size setting from the image sensor 30, shutter speed setting, exposure setting, ND setting, lens characteristics, focus/iris/zoom operation setting, white balance value, RGB gain, etc.
  • these setting values are matched with the settings of the camera 502 used for photographing to simulate the actual photographed video vC.
  • various camera settings can be prepared in advance by adjusting these camera settings.
  • FIG. 15 shows that the video processing unit 33 performs pre-camera setting processing.
  • This pre-camera setting is a process in which, for example, a staff member changes the above-mentioned camera settings by operating the adjustment operation section 35 while viewing the simulation video vSM on the monitor 40.
  • the video processing unit 33 performs video processing such that changes in exposure settings are reflected in a simulated manner in the simulation video vSM, such as conversion of each RGB luminance value, in response to operations such as shutter speed and exposure settings, for example. .
  • the video processing unit 33 also enables storage and transmission of camera settings changed according to operations. For example, camera settings corresponding to adjustment operations can be reflected on the camera 502 and the like during subsequent shooting.
  • FIG. 15 shows that camera settings are sent to the cloud server 41. It is assumed that the cloud server 41 stores the camera settings sent from the rendering engine 31 and can provide them to the imaging system 500 later.
  • the user performs adjustment operations for various camera settings while checking the simulation video vSM in pre-visualization, and adjusts, for example, camera settings for each scene.
  • the camera settings are stored in the cloud server 41 according to each of the scenes SC1, SC2, and SC3, as shown in FIG. 16, for example.
  • the camera settings can be used during actual shooting.
  • the camera settings may include the LUT, CDL, etc. described in the second embodiment.
  • FIG. 17 shows an example of processing by the rendering engine 31 using the functions of the video processing unit 33.
  • the rendering engine 31 can execute the process shown in FIG. 17 in addition to the process shown in FIG. 12 and FIG. 14.
  • step S301 the rendering engine 31 monitors whether the adjustment operation unit 35 performs an adjustment operation regarding camera settings. If an adjustment operation has been performed, the rendering engine 31 changes the camera settings in step S302. Note that since there is no actual camera, changing the settings is a process of changing necessary video processing parameters so as to realize the video according to the camera settings. In this state, the user can view the simulation video vSM when changing the camera settings.
  • step S303 the rendering engine 31 detects a setting storage instruction.
  • the rendering engine 31 proceeds to step S304, and stores and transmits the camera setting information at that time.
  • the rendering engine 31 performs processing such as storing it in an internal storage medium or transmitting it to an external device such as the cloud server 41. This allows the camera settings adjusted by the staff at the pre-visualization stage to be used in the imaging system 500 during subsequent imaging.
  • the fourth embodiment will be described with reference to FIG.
  • the fourth embodiment is an example in which a moiré alert can be output at the pre-visualization stage.
  • the rendering engine 31 includes a moire prediction section 36 and a position operation section 37.
  • the position operation unit 37 is an interface function that allows the user to arbitrarily operate the virtual camera position.
  • the moire prediction unit 36 has a function of predicting whether or not moire will occur at a set camera position using a specific algorithm.
  • a specific algorithm may be, for example, - Based on information such as camera position, angle, iris/focus/zoom status - Display (virtual LED wall set by the rendering engine 31) position, angle, etc., if you actually shoot in this state, moiré and scan lines will occur. This is an algorithm that determines whether such artifacts occur.
  • the moire prediction unit 36 predicts the occurrence of moire based on conditions such as the camera position, it notifies the video processing unit 33 of information on the occurrence of moire and information on the position of occurrence.
  • the video processing unit 33 causes the monitor 40 to display, for example, a moire warning or an image indicating the moire position.
  • FIG. 19 is a video including a simulation video vSM of the background video vBP, and is also an image showing a virtual LED wall 54 and a virtual camera 51.
  • the video processing unit 33 not only displays the simulation video vSM of the background video vBP, but also can display a video with the viewpoint position set at a certain position in the studio, for example.
  • position information 52 of the LED wall 54 and position information 52 of the camera are further displayed. Further, as origin information 50, the origin position and three axis directions of X, Y, and Z are shown as a reference for each position in space.
  • FIG. 20 is an example in which a moire alert 53 is displayed and a moire position 57 is shown.
  • a moire alert 53 is displayed, and the position where moire occurs is displayed as a moire position 57.
  • the position of the camera 51 on the video can be changed arbitrarily by the user. For example, when the user performs an operation to specify the camera 51, movement axes 55 in the X, Y, and Z directions are displayed as shown in FIG. When the user performs an operation such as dragging while aligning the cursor 56 with a certain movement axis 55, the position of the camera 51 in the virtual space is changed.
  • the user interface as described above is provided by the function of the position operation section 37.
  • the user can arbitrarily move the virtual camera 51 and check whether moiré occurs. This makes it possible to set the camera position and camera path during actual shooting so that moiré does not occur.
  • FIG. 22 shows processing related to moiré by the rendering engine 31.
  • the rendering engine 31 executes, for example, the process in FIG. 22 in addition to the process in FIG. 12, the process in FIG. 14, and the process in FIG. 17.
  • step S401 the rendering engine 31 monitors whether a camera position operation has been performed. For example, if the user operates the camera position using the function of the position operation unit 37, the rendering engine 31 proceeds to step S402 and performs moiré prediction using the changed camera position and shooting direction information. Note that the process may proceed to step S402 not only when a camera position operation is performed, but also when a zoom operation, an exposure adjustment operation, or the like is performed.
  • step S403 the rendering engine 31 checks the result of moire prediction, and if it is predicted that moire will occur, performs processing to output a moire alert in step S404.
  • a moire alert 53 as shown in FIG. 20 is displayed, which allows the staff to know the occurrence of moire before photographing. Therefore, it is possible to consider camera positions and camera paths that will prevent moiré before the actual shooting.
  • the rendering engine 520 can also perform moiré determination during actual shooting.
  • a CG camera setting section 520c and a moiré determination section 520d are shown on the rendering engine 520 side.
  • the CG camera setting unit 520c receives shooting information from the camera tracker 560, such as the position of the camera 502, shooting direction, angle of view, focal length, F value, shutter speed, lens information, etc., and performs rendering according to the information by the rendering unit 520a. have it executed.
  • the moire determination unit 520d determines whether moire is currently occurring in the rendered photographic area video vBC using the information obtained by the CG camera setting unit 520c. That is, the current occurrence of moire is determined using the same algorithm as the moire prediction unit 36. If it is determined that moire has occurred, the information is transmitted to the camera 502, and a moire alert is displayed on the viewfinder or the like.
  • FIG. 23 shows an example of processing for performing such a real-time moiré alert. Note that in FIG. 23, in addition to steps S10 to S60 described in FIG. 6, steps S70 and subsequent steps are performed.
  • the rendering engine 520 performs the processing from step S30 to step S60 at each frame timing.
  • the background video vB is displayed on the LED wall 505.
  • the rendering engine 520 performs moiré determination in step S70.
  • the rendering engine 520 checks the result of moire determination, and if it is determined that moire has occurred, it performs processing to output a moire alert in step S72.
  • the rendering engine 520 sends moire alert information to the camera 502 so that the moire alert is displayed on a viewfinder or the like.
  • a moire alert may be displayed on the monitor 550 or the like.
  • the cameraman can recognize that moiré is currently occurring during shooting and can deal with it. For example, you can deal with this by moving the camera position or adjusting the focus.
  • the captured video vC captured by the camera 502 can be transmitted to, for example, a distribution server and stream-distributed in real time. This will allow some of the video content production staff to remotely monitor the captured video vC on an external monitor.
  • the shot video vC into a video file, transferring it to a cloud server, etc., and storing it so that it can be shared by post-production staff, it is possible to proceed with various post-production tasks.
  • the position information of the camera 502, camera orientation, angle of view, focal length, aperture value, shutter speed, lens information, etc. used as shooting information at the time of shooting, the LUT used, CDL, etc. are converted into metadata and saved as a file. Make sure to include it.
  • photographing information, LUT, CDL, etc. can be referenced in association with at least the moving image. This makes it possible to perform editing using information at the time of shooting.
  • Video files include RAW video files, MPEG-4 (Moving Picture Experts Group), AVI (Audio Video Interleave), MOV (Quick time File Format), WMV (Windows Media Video), mezzanine files, proxy videos, etc. It can be a file of any format, such as a file.
  • the work of checking and adjusting the pre-visualization can be executed by the rendering engine 31 of the information processing device 70 outside the studio. Furthermore, as mentioned above, by monitoring the shot video VC in real time and sharing it using a cloud server, etc., post-production becomes possible without being tied to a shooting studio. In other words, these can promote the remoteization and efficiency of a series of video production tasks.
  • the rendering engine 31 of the embodiment implemented by the information processing device 70 has a rendering unit 32 that performs rendering using a 3D model used during photographing by the photographing system 500 to generate a background video vBP that is a virtual video. Furthermore, the rendering engine 31 generates a simulation video vSM for the background video vBP generated by the rendering unit 32 using processing parameters that realize the brightness or color characteristics at the time of photographing by the camera 502 used in the photographing system 500.
  • a video processing unit 33 is provided for performing actual photographic imaging processing for the purpose of video processing.
  • a monitor image that simulates the brightness and color conditions of the photographed image vC can be displayed at a stage before photographing. Therefore, prior to shooting, the director and staff can check the brightness and color of the shot video vC obtained by shooting.
  • a shot video vC may be obtained that differs from the color tone and the like envisioned by the director, but in this case, color adjustment in the studio takes time, reducing production efficiency. For this reason, it is important to be able to check the color tone, etc. of the photographed video vC before photographing.
  • a 3D model for the background video vB is created at the asset creation (ST1) stage.
  • the environment is such that the background video vB can be rendered before shooting. Therefore, as shown in FIG. 10, by adding actual photographic imaging processing in the video processing section 33, it is possible to realize brightness and color confirmation in advance.
  • the rendering engine 31 has been described as being realized by an information processing device 70 separate from the rendering engine 520, but the rendering engines 31 and 520 may be realized by a single information processing device 70.
  • the video processing unit 33 also performs display video processing (video processing in step S105 in FIG. 12) using processing parameters that realize the brightness or color change characteristics of the video of the LED wall 505, and then processes the video on the camera 502.
  • display video processing video processing in step S105 in FIG. 12
  • image processing in step S106 in FIG. 12 processing parameters that realize the brightness or color characteristics at the time of photographing. If there is a change in color or brightness on the LED wall 505 side, that is, if a change in color or brightness occurs in the processing of the LED panel 506 or LED processor 570, by taking that change into consideration, the captured video vC at the time of shooting can be simulated. This improves simulation accuracy and is suitable for video confirmation.
  • the video processing unit 33 performs color adjustment processing on the simulation video vSM in response to a control signal based on a user operation, and generates color conversion information Ic based on the color adjustment processing.
  • the video processing unit 33 generates LUT and CDL as color conversion information Ic.
  • the staff can perform color adjustment operations while checking the monitor 40, and LUTs and CDLs are generated accordingly. That is, at the pre-visualization stage, it is possible to create a desired color and generate color conversion information Ic that realizes the desired color creation.
  • the video processing section 33 is capable of outputting color conversion information Ic. After the video processing unit 33 generates the LUT or CDL as the color conversion information Ic, it outputs it so that it can be used by the camera 502, the camera signal processing unit 515, and the like. As a result, color adjustment using LUTs and the like set during the pre-visualization stage can be easily achieved during actual shooting.
  • the video processing unit 33 is capable of performing a process of changing camera setting information to be reflected in the simulation video vSM in response to a control signal based on a user operation, and outputting the changed camera setting information.
  • the video processing unit 33 holds the settings of the camera 502 at the time of shooting as pre-camera settings.
  • the settings include readout size settings from the image sensor 30, shutter speed settings, exposure settings, ND settings, lens characteristics, focus/iris/zoom operation settings, white balance settings, etc.
  • the adjusted camera setting information is then output so that it can be provided to the camera 502, camera signal processing section 515, or LED processor 570. This makes it possible to adjust the camera settings during shooting to the optimal state while checking the image during the pre-visualization stage. The actual shooting process can begin from the state confirmed during pre-visualization.
  • a white balance value is included as a processing parameter that realizes the brightness or color characteristics of the camera 502 used in the photographing system 500 at the time of photographing. It is important to be able to check the color tone of the photographed video vC at the time of photographing before photographing. Therefore, in pre-visualization, it is preferable to generate a simulation video vSM that includes the white balance value applied by the camera 502 at the time of photographing and is subjected to actual photographic imaging processing.
  • the processing parameters for realizing the brightness or color characteristics at the time of shooting of the camera 502 used in the shooting system 500 include gain values for pixel signals of each color read from the image sensor in the camera 502. include.
  • gain values for pixel signals of each color read from the image sensor in the camera 502. include.
  • As an element for checking the hue of the photographed video vC there is, for example, a color balance determined by the gain for each R, G, and B pixel signal. Therefore, in the pre-visualization, it is preferable to include the gains (color balance) for the R, G, and B signals applied by the camera 502 at the time of photographing, and perform the actual photographic imaging processing.
  • the video processing unit 33 generates the simulation video vSM in the actual shooting imaging process with a view angle setting based on the view angle information at the time of shooting of the camera 502 used in the shooting system 500.
  • the simulation video vSM is a video having the same angle of view as the captured video vC at the time of shooting. This is because it is desirable for the simulation video vSM to have the same color tone and the same angle of view as the captured video vC for video confirmation.
  • the view angle information includes view angle information based on zoom settings, and view angle information indicating a cutout range setting from the image sensor 30.
  • the video processing unit 33 generates the simulation video vSM that reflects the lens characteristics of the camera 502 used in the imaging system 500 in the actual shooting imaging process. Since it is desirable that the simulation video vSM be as close as possible to the captured video vC at the time of shooting, the simulation video vSM should be a video that also expresses characteristics such as lens distortion.
  • the video processing unit 33 generates the simulation video vSM that reflects the characteristics of the optical filter attached to the camera 502 used in the imaging system 500 in the actual imaging processing.
  • the simulation video vSM can be brought closer to the photographed video vC at the time of photographing by reflecting the characteristics of the optical filter.
  • a user interface for arbitrarily changing the camera position on the video is provided, and an example is given in which moiré prediction is performed according to the camera position changed by the user interface (Fig. 19, (See FIGS. 20, 21, and 22).
  • a staff member can simulate various camera positions in a camera position operation video, occurrence of moiré can be predicted according to the camera position. This is useful for planning camera work, such as choosing a camera position that does not cause moiré.
  • the fourth embodiment an example was also described in which a process is performed to display a moire alert on the viewfinder of the camera 502, etc., according to the moire determination information by the moire determination unit 520d (see FIGS. 18 and 23).
  • This allows the cameraman and the like to know the moiré situation at the time of shooting, and to deal with it.
  • the moire prediction by the moire prediction unit 36 and the moire determination by the moire determination unit 520d may be performed using the same algorithm or different algorithms.
  • the prediction/judgment thresholds may be the same or different.
  • the information processing device 70 serving as the rendering engine 31 has been described as being a separate device from the devices constituting the imaging system 500.
  • the information processing device 70 for pre-visualization is a device different from the equipment that constitutes the photographing system 500 built in the photographing studio.
  • the staff uses equipment other than the studio set, such as a PC or a tablet, as the information processing device 70 of this embodiment. This allows the staff to check the simulation video vSM at a location other than the studio, which is suitable for improving the efficiency of video content production.
  • simulation video vSM described in the embodiment can also be generated using the rendering engine 520 in the imaging system 500.
  • the rendering engine 520 is equipped with the same function as the video processing unit 33 and performs actual imaging processing, it is also possible to use the imaging system 500 to check, for example, the simulation video vSM before starting imaging. It is.
  • the program of the embodiment is a program that causes a processor such as a CPU, a DSP, or a device including these to execute the processes shown in FIGS. 12, 14, 17, and 22 described above. That is, the program of the embodiment performs rendering using a 3D model used in the imaging system 500 to generate a virtual image (for example, background image vBP), and performs processing for the generated virtual image to be used in the imaging system 500.
  • This is a program that causes an information processing apparatus to execute an actual photographic imaging process that generates a simulation video vSM using processing parameters that realize the brightness or color characteristics at the time of photographing by the camera 502.
  • the information processing device 70 that generates the simulation video vSM in the pre-visualization described above can be realized by various computer devices.
  • Such a program can be recorded in advance in an HDD as a recording medium built into equipment such as a computer device, or in a ROM in a microcomputer having a CPU.
  • such programs can be used for flexible discs, CD-ROMs (Compact Disc Read Only Memory), MO (Magneto Optical) discs, DVDs (Digital Versatile Discs), Blu-ray Discs (registered trademark), magnetic It can be stored (recorded) temporarily or permanently in a removable recording medium such as a disk, semiconductor memory, or memory card.
  • a removable recording medium can be provided as so-called package software.
  • a program In addition to installing such a program into a personal computer or the like from a removable recording medium, it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • Such a program is suitable for widely providing the information processing device 70 that serves as the rendering engine 31 of the embodiment.
  • a program for example, by downloading a program to a personal computer, communication device, mobile terminal device such as a smartphone or tablet, mobile phone, game device, video device, PDA (Personal Digital Assistant), etc., these devices can be used as the information processing device of the present disclosure. 70 (rendering engine 31).
  • a rendering unit that generates a virtual image by performing rendering using the 3D model used in a shooting system that uses a camera to shoot an image of a display displaying a virtual image obtained by rendering using the 3D model; Actual shooting imaging processing is performed on the virtual image generated by the rendering unit to generate a simulation image using processing parameters that realize the brightness or color characteristics at the time of shooting of the camera used in the shooting system.
  • An information processing device comprising: a video processing unit that performs (2) The image processing unit performs display image processing using processing parameters that realize the brightness or color change characteristics of the image on the display, and then processes the display image using processing parameters that realize the brightness or color change characteristics of the image taken by the camera.
  • the information processing device which performs video processing to generate the simulation video.
  • Device. (4) The information processing device according to (3) above, wherein the video processing unit is capable of outputting the color conversion information.
  • the information processing device according to (4) above, wherein the color conversion information is output as information used for signal processing of a captured image by the camera.
  • the video processing unit is capable of performing a process of changing camera setting information to be reflected in the simulation video in response to a control signal based on a user operation, and outputting the changed camera setting information.
  • the information processing device according to any one of. (7) The information processing device according to (6) above, wherein the camera setting information is output as information used for setting the camera.
  • the processing parameters for realizing the brightness or color characteristics at the time of photographing of the camera used in the photographing system include a white balance value.
  • the processing parameters for realizing the brightness or color characteristics of the camera used in the photographing system at the time of photographing include gain values for pixel signals of each color read from the image sensor of the camera.
  • the information processing device according to any one of (8).
  • the video processing unit In the actual shooting visualization process, the video processing unit generates the simulation video with a view angle setting based on view angle information of the camera used in the imaging system at the time of shooting. (1) to (9) above.
  • the information processing device according to any one of. (11)
  • Device. (12) The video processing unit generates the simulation video that reflects the characteristics of an optical filter attached to the camera used in the imaging system in the actual shooting imaging process, and any one of (1) to (11) above.
  • a process of performing rendering using the 3D model to generate a virtual image which is used in a shooting system that uses a camera to shoot an image of a display displaying a virtual image rendered using the 3D model;
  • Actual shooting imaging processing that generates a simulation image for the generated virtual image using processing parameters that realize the brightness or color characteristics at the time of shooting of the camera used in the shooting system;
  • a program that causes an information processing device to execute.
  • a shooting system that uses a camera to shoot an image of a display displaying a virtual image rendered using a 3D model; an information processing device that uses the 3D model; Equipped with The information processing device includes: a rendering unit that performs rendering using the 3D model to generate a virtual image; Performing actual shooting visualization processing on the virtual image generated by the rendering unit to generate a simulation image using processing parameters that realize the brightness or color characteristics at the time of shooting of the camera used in the shooting system.
  • the photographing system includes: The information processing system according to (18) above, wherein when capturing an image of the display with the camera, output processing of a moire warning is performed according to moire determination information.
  • the video processing unit performs color adjustment processing on the simulation video in response to a control signal based on a user operation, generates and outputs color conversion information based on the color adjustment processing,
  • the video processing unit performs a process of changing camera setting information to be reflected in the simulation video in response to a control signal based on a user operation, and outputs the changed camera setting information,
  • the information processing system according to any one of (18) to (20), wherein the photographing system sets the camera based on the camera setting information.
  • rendering engine 32 rendering unit 33 video processing unit 35 adjustment operation unit 36 moire prediction unit 37 position operation unit 40 monitor 41 cloud server 70 information processing device, 500 Photographing system 502 Camera 503 Output monitor 505 LED wall 506 LED panel 515 Camera signal processing section 520 Rendering engine 520a Rendering section 520b Color calibration section 520c CG camera setting section 700 Pre-visualization system vB, vBP Background image vC Photographed image vM Monitor video vSM Simulation video vP Camera position operation video Ic Color conversion information

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】カメラでディスプレイの仮想映像を撮影する前の時点で、撮影映像の色合い等を確認できるようにする。 【解決手段】情報処理装置は、3Dモデルを用いたレンダリングにより得た仮想映像を表示するディスプレイ(505)の映像をカメラ(502)で撮影する撮影システムにおいて使用する3Dモデルを用いてレンダリングを行うことで仮想映像を生成するレンダリング部(520a)と、レンダリング部で生成した仮想映像に対して、撮影システムで使用するカメラの撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像を生成するための実撮影映像化処理を行う映像処理部(33)とを備える。

Description

情報処理装置、情報処理方法、プログラム、情報処理システム
 本技術は情報処理装置、情報処理方法、プログラム、情報処理システムに関し、特に仮想映像を用いた映像制作の技術に関する。
 映画等の映像コンテンツの制作のための撮影手法として、いわゆるグリーンバックの前で演者が演技を行い、後に背景映像を合成する技術が知られている。
 また近年はグリーンバック撮影に代わって、大型のディスプレイを設置したスタジオにおいて、ディスプレイに背景映像を表示させ、その前で演者が演技を行うことで、演者と背景を撮影できる撮影システムも開発され、いわゆるバーチャルプロダクション(Virtual Production)、インカメラVFX(In-Camera VFX)、またはLED(Light Emitting Diode)ウォールバーチャルプロダクション(LED Wall Virtual Production)として知られている。
 下記特許文献1には、背景映像の前で演技する演者や物体を撮影するシステムの技術が開示されている。
米国特許出願公開第2020/0145644号明細書
 大型のディスプレイに背景映像を表示させたうえで、演者及び背景映像をカメラで撮影することによれば、撮影後に背景映像を別途合成しなくてもよいことや、演者やスタッフがシーンを視覚的に理解して演技や演技良否の判断ができるなど、グリーンバック撮影に比べて利点が多い。
 ただしディスプレイに対するカメラの位置や撮影方向によって、背景の見え方が異なるべきである。単純に背景映像を映すのみでは、カメラの位置や撮影方向などが異なっても背景が変わらず、かえって不自然な映像となってしまう。そこでカメラの位置や撮影方向などに応じて、実際の三次元空間の見え方と同等となるように、背景映像(少なくともディスプレイ内でカメラの画角内となる範囲の映像)を変化させることで、実際の風景を背景に撮影した場合と同等の映像が撮影できるようになる。
 このような仮想的な背景映像を用いる撮影システムの場合は、実際に撮影した段階では、撮影された映像の色合いなどが、監督やスタッフの思い描いていたものと異なる場合がある。そのような場合、撮影現場であるスタジオなどで、各種の設定変更などを行って色合いを調整することが必要になり、現実には極めて面倒かつ時間を要する作業となる。これは映像制作の効率を悪化させる。
 そこで本開示では、映像制作をより効率的に行うことができる技術を提案する。
 本技術に係る情報処理装置は、3Dモデルを用いたレンダリングにより得た仮想映像を表示するディスプレイの映像をカメラで撮影する撮影システムにおいて使用する前記3Dモデルを用いてレンダリングを行うことで仮想映像を生成するレンダリング部と、前記レンダリング部で生成した仮想映像に対して、前記撮影システムで使用する前記カメラの撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像を生成するための実撮影映像化処理を行う映像処理部と、を備える。
 撮影に先立って、撮影システムで用いる3Dモデルを用いて背景映像等の仮想映像をレンダリングし、モニタリングできるようにする。この場合に、仮想映像について、撮影時のカメラの輝度や色の特性を再現する映像処理を施す。
本技術の実施の形態の撮影システムの説明図である。 実施の形態の撮影システムのカメラ位置に応じた背景映像の説明図である。 実施の形態の撮影システムのカメラ位置に応じた背景映像の説明図である。 実施の形態の映像コンテンツ制作工程の説明図である。 実施の形態の撮影システムのブロック図である。 実施の形態の撮影システムの背景映像生成のフローチャートである。 実施の形態の複数カメラを用いた撮影システムのブロック図である。 実施の形態の情報処理装置のブロック図である。 実施の形態のプレビジュアライゼーションの説明図である。 第1の実施の形態のシステム構成例のブロック図である。 イメージセンサからの切り出し範囲設定の説明図である。 第1の実施の形態の実撮影映像化処理のフローチャートである。 第2の実施の形態のシステム構成例のブロック図である。 第2の実施の形態の色変換情報生成処理のフローチャートである。 第3の実施の形態のシステム構成例のブロック図である。 第3の実施の形態のシーン毎のカメラ設定記憶の説明図である。 第3の実施の形態のカメラ設定についての処理のフローチャートである。 第4の実施の形態のシステム構成例のブロック図である。 第4の実施の形態のカメラ位置操作映像の説明図である。 第4の実施の形態のモアレアラートの説明図である。 第4の実施の形態のカメラ位置操作映像における操作の説明図である。 第4の実施の形態のモアレアラート処理のフローチャートである。 第4の実施の形態の撮影時のモアレアラート処理のフローチャートである。
 以下、実施の形態を次の順序で説明する。
<1.撮影システム及びコンテンツ制作>
<2.情報処理装置の構成>
<3.第1の実施の形態>
<4.第2の実施の形態>
<5.第3の実施の形態>
<6.第4の実施の形態>
<7.撮影データのフロー>
<8.まとめ及び変型例>
 なお、本開示において「映像」或いは「画像」とは静止画、動画のいずれをも含む。また「映像」とはディスプレイに表示されている状態を指すだけでなく、ディスプレイに表示されていない状態の映像データについても包括的に「映像」と表記する場合がある。
 例えば実施の形態において、ディスプレイでの表示に至る前における背景映像、カメラによる撮影映像、スイッチャーで切り替えられる背景映像や撮影映像は、実際に表示されている映像ではなく映像データであるが、便宜上「背景映像」「撮影映像」等と表記する。
<1.撮影システム及び映像コンテンツ制作>
 本開示の技術を適用できる撮影システム及び映像コンテンツの制作について説明する。
 図1は撮影システム500を模式的に示している。この撮影システム500はバーチャルプロダクションとしての撮影を行うシステムで、図では撮影スタジオに配置される機材の一部を示している。
 撮影スタジオにおいては演者510が演技その他のパフォーマンスを行うパフォーマンスエリア501が設けられる。このパフォーマンスエリア501の少なくとも背面、さらには左右側面や上面には、大型の表示装置が配置される。表示装置のデバイス種別は限定されないが、図では大型の表示装置の一例としてLEDウォール505を用いる例を示している。
 1つのLEDウォール505は、複数のLEDパネル506を縦横に連結して配置することで、大型のパネルを形成する。ここでいうLEDウォール505のサイズは特に限定されないが、演者510の撮影を行うときに背景を表示するサイズとして必要な大きさ、或いは十分な大きさであればよい。
 パフォーマンスエリア501の上方、或いは側方などの必要な位置に、必要な数のライト580が配置され、パフォーマンスエリア501に対して照明を行う。
 パフォーマンスエリア501の付近には、例えば映画その他の映像コンテンツの撮影のためのカメラ502が配置される。カメラ502は、カメラマン512が位置を移動させることができ、また撮影方向や、画角等の操作を行うことができる。もちろんリモート操作によってカメラ502の移動や画角操作等が行われるものも考えられる。またカメラ502が自動的もしくは自律的に移動や画角変更を行うものであってもよい。このためにカメラ502が雲台や移動体に搭載される場合もある。
 カメラ502によって、パフォーマンスエリア501における演者510と、LEDウォール505に表示されている映像がまとめて撮影される。例えばLEDウォール505に背景映像vBとして風景が表示されることで、演者510が実際にその風景の場所に居て演技をしている場合と同様の映像を撮影できることになる。
 パフォーマンスエリア501の付近にはアウトプットモニタ503が配置される。このアウトプットモニタ503にはカメラ502で撮影されている映像がモニタ映像vMとしてリアルタイム表示される。これにより映像コンテンツの制作を行う監督やスタッフが、撮影されている映像を確認することができる。
 このように、撮影スタジオにおいてLEDウォール505を背景にした演者510のパフォーマンスを撮影する撮影システム500では、グリーンバック撮影に比較して各種の利点がある。
 例えば、グリーンバック撮影の場合、演者が背景やシーンの状況を想像しにくく、それが演技に影響するということがある。これに対して背景映像vBを表示させることで、演者510が演技しやすくなり、演技の質が向上する。また監督その他のスタッフにとっても、演者510の演技が、背景やシーンの状況とマッチしているか否かを判断しやすい。
 またグリーンバック撮影の場合よりも撮影後のポストプロダクションが効率化される。これは、いわゆるクロマキー合成が不要とすることができる場合や、色の補正や映り込みの合成が不要とすることができる場合があるためである。また、撮影時にクロマキー合成が必要とされた場合においても、緑や青の映像を表示するだけで済むため物理的な背景用スクリーンを追加不要とされることも効率化の一助となっている。
 グリーンバック撮影の場合、演者の身体、衣装、物にグリーンの色合いが増してしまうため、その修正が必要となる。またグリーンバック撮影の場合、ガラス、鏡、スノードームなどの周囲の光景が映り込む物が存在する場合、その映り込みの画像を生成し、合成する必要があるが、これは手間のかかる作業となっている。
 これに対し、図1の撮影システム500で撮影する場合、グリーンの色合いが増すことはないため、その補正は不要である。また背景映像vBを表示させることで、ガラス等の実際の物品への映り込みも自然に得られて撮影されているため、映り込み映像の合成も不要である。
 ここで、背景映像vBについて図2、図3で説明する。背景映像vBを、LEDウォール505に表示させて、演者510とともに撮影を行うにしても、単純に背景映像vBを表示させるのみでは、撮影された映像は背景が不自然になる。実際には立体で奥行きもある背景を平面的に背景映像vBとしているためである。
 例えばカメラ502は、パフォーマンスエリア501の演者510に対して、多様な方向から撮影することができ、またズーム操作も行うことができる。演者510も一カ所に立ち止まっているわけではない。するとカメラ502の位置、撮影方向、画角などに応じて、演者510の背景の実際の見え方は変化するはずであるが、平面映像としての背景映像vBではそのような変化が得られない。そこで背景が、視差を含めて、実際の見え方と同様になるように背景映像vBを変化させる。
 図2はカメラ502が図の左側の位置から演者510を撮影している様子を示し、また図3はカメラ502が図の右側の位置から演者510を撮影している様子を示している。各図において、背景映像vB内に撮影領域映像vBCを示している。
 なお背景映像vBのうちで撮影領域映像vBCを除いた部分は「アウターフラスタム」と呼ばれ、撮影領域映像vBCは「インナーフラスタム」と呼ばれる。
 ここで説明している背景映像vBとは、撮影領域映像vBC(インナーフラスタム)を含んで背景として表示される映像全体を指す。
 この撮影領域映像vBC(インナーフラスタム)の範囲は、LEDウォール505の表示面内で、カメラ502によって実際に撮影される範囲に相当する。そして撮影領域映像vBCは、カメラ502の位置、撮影方向、画角等に応じて、実際にそのカメラ502の位置を視点としたときに見える光景を表現するような映像となっている。
 具体的には、撮影領域映像vBCは、背景としての3D(three dimensions)モデルである3D背景データを用意し、その3D背景データに対して、リアルタイムで逐次、カメラ502の視点位置に基づいてレンダリングする。
 なお、実際には撮影領域映像vBCの範囲は、その時点でカメラ502によって撮影される範囲よりも少し広い範囲とされる。これはカメラ502のパン、チルトやズームなどにより撮影される範囲が若干変化したときに、描画遅延によってアウターフラスタムの映像が映り込んでしまうことを防止するためや、アウターフラスタムの映像からの回折光による影響を避けるためである。
 このようにリアルタイムでレンダリングされた撮影領域映像vBCの映像は、アウターフラスタムの映像と合成される。背景映像vBで用いられるアウターフラスタムの映像は、予め3D背景データに基づいてレンダリングされたものである場合や、毎フレーム或いは間欠的なフレーム毎に、リアルタイムにレンダリングされる場合があるが、そのアウターフラスタムの映像の一部に、撮影領域映像vBC(インナーフラスタム)の映像を組み込むことで、全体の背景映像vBを生成している。
 なお、アウターフラスタムの映像もインナーフラスタムと同様に毎フレームレンダリングするケースがあるが、ここでは静止した映像を例にとり、以降の説明では主にアウターフラスタムの映像は先頭フレームのみレンダリングする場合を例として説明する。
 これにより、カメラ502を前後左右に移動させたり、ズーム操作を行ったりしても、演者510とともに撮影される範囲の背景は、実際のカメラ502の移動に伴う視点位置やFOV(Field of View(視野))の変化に応じた映像として撮影されることになる。
 図2、図3に示すように、アウトプットモニタ503には、演者510と背景を含むモニタ映像vMが表示されるが、これが撮影された映像である。このモニタ映像vMにおける背景は、撮影領域映像vBCである。つまり撮影された映像に含まれる背景は、リアルタイムレンダリングされた映像となる。
 このように実施の形態の撮影システム500においては、単に背景映像vBを平面的に表示させるだけではなく、実際に風景を撮影した場合と同様の映像を撮影することができるように、撮影領域映像vBCを含む背景映像vBをリアルタイムに変化させるようにしている。
 なお、LEDウォール505に表示させた背景映像vBの全体ではなく、カメラ502によって映り込む範囲としての撮影領域映像vBCのみをリアルタイムにレンダリングすることで、システムの処理負担も軽減するような工夫を行ってもよい。
 ここで、撮影システム500で撮影を行うバーチャルプロダクションとしての映像コンテンツの制作工程を説明しておく。図4に示すように、映像コンテンツ制作工程は3つの段階に大別される。アセットクリエイションST1、プロダクションST2、ポストプロダクションST3である。
 アセットクリエイションST1は、背景映像vBを表示するための3D背景データを制作する工程である。上述のように背景映像vBは、撮影の際に3D背景データを用いてリアルタイムでレンダリングを行って生成する。そのために予め3Dモデルとしての3D背景データを制作しておく。
 3D背景データの制作手法の例として、フルCG(Full Computer Graphics)、点群データ(Point Cloud)スキャン、フォトグラメトリ(Photogrammetry)という例がある。
 フルCGは、3Dモデルをコンピュータグラフィックスで制作する手法である。3つの手法の中で最も工数や時間を要する手法となるが、非現実的な映像や、実際には撮影が困難な映像などを背景映像vBとしたい場合に用いられることが好適となる。
 点群データスキャンは、ある位置から例えばライダー(LiDAR)を用いて距離測定を行うとともに、同じ位置からカメラで360度の画像を撮影し、ライダーで測距した点の上にカメラで撮影した色データを載せることで点群データによる3Dモデルを生成する手法である。フルCGに比較して、短い時間で3Dモデル制作ができる。またフォトグラメトリより高精細の3Dモデルを制作しやすい。
 フォトグラメトリは、物体を複数視点から撮影して得た2次元画像から、視差情報を解析して寸法・形状を求める写真測量の技術である。3Dモデル制作を短時間で行うことができる。
 なお、フォトグラメトリによる3Dデータ生成において、ライダーで取得した点群情報を用いても良い。
 アセットクリエイションST1では、例えばこれらの手法を用いて3D背景データとなる3Dモデルを制作する。もちろん上記手法を複合的に用いてもよい。例えば点群データスキャンやフォトグラメトリで制作した3Dモデルの一部をCGで制作し、合成するなどである。
 プロダクションST2は、図1に示したような撮影スタジオにおいて撮影を行う工程である。この場合の要素技術として、リアルタイムレンダリング、背景表示、カメラトラッキング、照明コントロールなどがある。
 リアルタイムレンダリングは、図2、図3で説明したように各時点(背景映像vBの各フレーム)で撮影領域映像vBCを得るためのレンダリング処理である。これはアセットクリエイションST1で制作した3D背景データに対して、各時点のカメラ502の位置等に応じた視点でレンダリングを行うものである。
 このようにリアルタイムレンダリングを行って撮影領域映像vBCを含む各フレームの背景映像vBを生成し、LEDウォール505に表示させる。
 カメラトラッキングは、カメラ502による撮影情報を得るために行われ、カメラ502の各時点の位置情報、撮影方向、画角などをトラッキングする。これらを含む撮影情報を各フレームに対応させてレンダリングエンジンに提供することで、カメラ502の視点位置等に応じたリアルタイムレンダリングが実行できる。
 撮影情報はメタデータとして映像と紐づけられたり対応づけられたりする情報である。
 撮影情報としては各フレームタイミングでのカメラ502の位置情報、カメラの向き、画角、焦点距離、F値(絞り値)、シャッタースピード、レンズ情報などを含むことが想定される。
 照明コントロールとは、撮影システム500における照明の状態をコントロールすることで、具体的にはライト580の光量、発光色、照明方向などの制御を行う。例えば撮影するシーンの時刻設定や場所の設定などに応じた照明コントロールが行われる。
 ポストプロダクションST3は、撮影後に行われる各種処理を示している。例えば映像の補正、映像の調整、クリップ編集、映像エフェクトなどが行われる。
 映像の補正としては、色域変換や、カメラや素材間の色合わせなどが行われる場合がある。
 映像の調整として色調整、輝度調整、コントラスト調整などが行われる場合がある。
 クリップ編集として、クリップのカット、順番の調整、時間長の調整などが行われる場合がある。
 映像エフェクトとして、CG映像や特殊効果映像の合成などが行われる場合がある。
 続いてプロダクションST2で用いられる撮影システム500の構成を説明する。
 図5は、図1、図2、図3で概要を説明した撮影システム500の構成を示すブロック図である。
 図5に示す撮影システム500は、上述した、複数のLEDパネル506によるLEDウォール505、カメラ502、アウトプットモニタ503、ライト580を備える。そしてさらに撮影システム500は、図5に示すように、レンダリングエンジン520、アセットサーバ530、シンクジェネレータ540、オペレーションモニタ550、カメラトラッカー560、LEDプロセッサ570、ライティングコントローラ581、ディスプレイコントローラ590を備える。
 LEDプロセッサ570のそれぞれは、1又は複数のLEDパネル506に対応して設けられ、それぞれ対応する1又は複数のLEDパネル506の映像表示駆動を行う。
 シンクジェネレータ540は、LEDパネル506による表示映像のフレームタイミングと、カメラ502による撮像のフレームタイミングの同期をとるための同期信号を発生し、各LEDプロセッサ570、カメラ502、及びレンダリングエンジン520に供給する。
 カメラトラッカー560は、各フレームタイミングでのカメラ502による撮影情報を生成し、レンダリングエンジン520に供給する。例えばカメラトラッカー560は撮影情報の1つとして、LEDウォール505の位置或いは所定の基準位置に対する相対的なカメラ502の位置情報や、カメラ502の撮影方向を検出し、これらをレンダリングエンジン520に供給する。
 カメラトラッカー560による具体的な検出手法としては、天井にランダムに反射板を配置して、それらに対してカメラ502に組み付けられたカメラトラッカー560から照射された赤外光の反射光から位置を検出する方法がある。また検出手法としては、カメラ502の雲台やカメラ502の本体に搭載されたジャイロ情報や、カメラ502の撮影映像の画像認識によりカメラ502の自己位置推定する方法もある。
 またカメラ502からレンダリングエンジン520に対しては、撮影情報として画角、焦点距離、F値、シャッタースピード、レンズ情報などが供給される場合もある。
 アセットサーバ530は、アセットクリエイションST1で制作された3Dモデル、即ち3D背景データを記録媒体に格納し、必要に応じて3Dモデルを読み出すことができるサーバである。即ち3D背景データのDB(data Base)として機能する。
 レンダリングエンジン520は、LEDウォール505に表示させる背景映像vBを生成する処理を行う。このためレンダリングエンジン520は、アセットサーバ530から必要な3D背景データを読み出す。そしてレンダリングエンジン520は、3D背景データをあらかじめ指定された空間座標から眺めた形でレンダリングしたものとして背景映像vBで用いるアウターフラスタムの映像を生成する。
 またレンダリングエンジン520は、カメラトラッカー560やカメラ502から供給された撮影情報を用いて3D背景データに対する視点位置等を特定して撮影領域映像vBC(インナーフラスタム)のレンダリングを行う。
 さらにレンダリングエンジン520は、アウターフラスタムに対し、カメラ502の動きに応じて動的に変化する撮影領域映像vBCを合成して1フレームの映像データとしての背景映像vBを生成する。そしてレンダリングエンジン520は、生成した1フレームの映像データをディスプレイコントローラ590に送信する。
 ディスプレイコントローラ590は、1フレームの映像データを、各LEDパネル506で表示させる映像部分に分割した分割映像信号nDを生成し、各LEDパネル506に対して分割映像信号nDの伝送を行う。このときディスプレイコントローラ590は、表示部間の発色などの個体差/製造誤差などに応じたキャリブレーションを行っても良い。
 なお、ディスプレイコントローラ590を設けず、これらの処理をレンダリングエンジン520が行うようにしてもよい。つまりレンダリングエンジン520が分割映像信号nDを生成し、キャリブレーションを行い、各LEDパネル506に対して分割映像信号nDの伝送を行うようにしてもよい。
 各LEDプロセッサ570が、それぞれ受信した分割映像信号nDに基づいてLEDパネル506を駆動することで、LEDウォール505において全体の背景映像vBが表示される。その背景映像vBには、その時点のカメラ502の位置等に応じてレンダリングされた撮影領域映像vBCが含まれている。
 カメラ502は、このようにLEDウォール505に表示された背景映像vBを含めて演者510のパフォーマンスを撮影することができる。カメラ502の撮影によって得られた映像は、カメラ502の内部又は図示しない外部の記録装置において記録媒体に記録されるほか、リアルタイムでアウトプットモニタ503に供給され、モニタ映像vMとして表示される。
 オペレーションモニタ550では、レンダリングエンジン520の制御のためのオペレーション画像vOPが表示される。エンジニア511はオペレーション画像vOPを見ながら背景映像vBのレンダリングに関する必要な設定や操作を行うことができる。
 ライティングコントローラ581は、ライト580の発光強度、発光色、照射方向などを制御する。ライティングコントローラ581は、例えばレンダリングエンジン520とは非同期でライト580の制御を行うものとしてもよいし、或いは撮影情報やレンダリング処理と同期して制御を行うようにしてもよい。そのためレンダリングエンジン520或いは図示しないマスターコントローラ等からの指示によりライティングコントローラ581が発光制御を行うようにしてもよい。またレンダリングエンジン520からライト580の制御を行うようにしてもよい。
 このような構成の撮影システム500におけるレンダリングエンジン520の処理例を図6に示す。
 レンダリングエンジン520は、ステップS10でアセットサーバ530から、今回使用する3D背景データを読み出し、内部のワークエリアに展開する。
 この段階でアウターフラスタムとして用いる映像を生成する場合もある。
 その後レンダリングエンジン520は、ステップS20で、読み出した3D背景データに基づく背景映像vBの表示終了と判定するまで、ステップS30からステップS60の処理を繰り返す。
 ステップS30でレンダリングエンジン520は、カメラトラッカー560やカメラ502からの撮影情報を取得する。これにより、現フレームで反映させるカメラ502の位置や状態を確認する。
 ステップS40でレンダリングエンジン520は、撮影情報に基づいてレンダリングを行う。即ち現在のフレームに反映させるカメラ502の位置、撮影方向、或いは画角等に基づいて3D背景データに対する視点位置を特定してレンダリングを行う。このとき、焦点距離、F値、シャッタースピード、レンズ情報などを反映した映像処理を行うこともできる。このレンダリングによって撮影領域映像vBC(インナーフラスタム)としての映像データを得ることができる。アウターフラスタムについては、ステップS10で予め固定的な映像として生成する他、ステップS40でフレーム毎に生成することもある。
 ステップS50でレンダリングエンジン520は、全体の背景映像であるアウターフラスタムと、カメラ502の視点位置を反映した映像、即ち撮影領域映像vBCを合成する処理を行う。例えばある特定の基準視点でレンダリングした背景全体の映像に対して、カメラ502の視点を反映して生成した映像を合成する処理である。これにより、LEDウォール505で表示される1フレームの背景映像vB、つまり撮影領域映像vBCを含む背景映像vBが生成される。
 ステップS60の処理は、レンダリングエンジン520又はディスプレイコントローラ590で行う。ステップS60でレンダリングエンジン520又はディスプレイコントローラ590は、1フレームの背景映像vBについて、個別のLEDパネル506に表示される映像に分割した分割映像信号nDを生成する。キャリブレーションを行う場合もある。そして各分割映像信号nDを各LEDプロセッサ570に送信する。
 以上の処理により、各フレームタイミングで、カメラ502で撮像される撮影領域映像vBCを含む背景映像vBがLEDウォール505に表示されることになる。
 ところで図5では1台のカメラ502のみを示したが、複数台のカメラ502で撮影を行うこともできる。図7は複数のカメラ502a,502bを使用する場合の構成例を示している。カメラ502a,502bは、それぞれ独立してパフォーマンスエリア501における撮影を行うことができるようにされる。また各カメラ502a,502b及び各LEDプロセッサ570は、シンクジェネレータ540により同期が維持される。
 カメラ502a,502bに対応して、アウトプットモニタ503a,503bが設けられ、それぞれ対応するカメラ502a,502bによって撮影された映像を、モニタ映像vMa,vMbとして表示するように構成される。
 またカメラ502a,502bに対応して、カメラトラッカー560a,560bが設けられ、それぞれ対応するカメラ502a,502bの位置や撮影方向を検出する。カメラ502a及びカメラトラッカー560aからの撮影情報や、カメラ502b及びカメラトラッカー560bからの撮影情報は、レンダリングエンジン520に送信される。
 レンダリングエンジン520は、カメラ502a側、或いはカメラ502b側のいずれか一方又は両方の撮影情報を用いて、各フレームの背景映像vBを得るためのレンダリングを行うことができる。
 なお図7では2台のカメラ502a、502bを用いる例を示したが、3台以上のカメラ502を用いて撮影を行うことも可能である。
 但し、複数のカメラ502を用い、それぞれの撮影情報を用いて、それぞれのカメラ502に対応した撮影領域映像vBC(インナーフラスタム)のレンダリングを行い、表示させると、それぞれの撮影領域映像vBCが互いに干渉するという事情がある。例えば図7のように2台のカメラ502a、502bを用いる例では、カメラ502aに対応する撮影領域映像vBCを示しているが、カメラ502bの映像を用いる場合、カメラ502bに対応する撮影領域映像vBCも必要になる。その場合に単純に各カメラ502a、502bに対応するそれぞれの撮影領域映像vBCを表示させると、それらが互いに干渉する。このため撮影領域映像vBCの表示に関する工夫が必要とされる。
<2.情報処理装置の構成>
 次に、アセットクリエイションST1、プロダクションST2、ポストプロダクションST3で用いることができる情報処理装置70の構成例を図8で説明する。
 情報処理装置70は、コンピュータ機器など、情報処理、特に映像処理が可能な機器である。この情報処理装置70としては、具体的には、パーソナルコンピュータ、ワークステーション、スマートフォンやタブレット等の携帯端末装置、ビデオ編集装置等が想定される。また情報処理装置70は、クラウドコンピューティングにおけるサーバ装置や演算装置として構成されるコンピュータ装置であってもよい。
 本実施の形態の場合、具体的には情報処理装置70は、アセットクリエイションST1において3Dモデルを制作する3Dモデル制作装置として機能できる。
 また情報処理装置70は、プロダクションST2で用いる撮影システム500を構成するレンダリングエンジン520やアセットサーバ530としても機能できる。
 また情報処理装置70は、ポストプロダクションST3における各種映像処理を行う映像編集装置としても機能できる。
 さらに情報処理装置70は、図10等で後述するプレビジュアライゼーションにおけるシミュレーション映像vSMの生成を行う情報処理装置(レンダリングエンジン31)としても機能できる。
 図8に示す情報処理装置70のCPU71は、ROM72や例えばEEP-ROM(Electrically Erasable Programmable Read-Only Memory)などの不揮発性メモリ部74に記憶されているプログラム、または記憶部79からRAM73にロードされたプログラムに従って各種の処理を実行する。RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなども適宜記憶される。
 映像処理部85は各種の映像処理を行うプロセッサとして構成される。例えば3Dモデル生成処理、レンダリング、DB処理、色・輝度調整処理を含む映像処理、映像編集処理、映像解析・検出処理などのいずれか、或いは複数の処理を行うことができるプロセッサとされる。
 この映像処理部85は例えば、CPU71とは別体のCPU、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、AI(artificial intelligence)プロセッサ等により実現できる。
 なお映像処理部85はCPU71内の機能として設けられてもよい。
 CPU71、ROM72、RAM73、不揮発性メモリ部74、映像処理部85は、バス83を介して相互に接続されている。このバス83にはまた、入出力インタフェース75も接続されている。
 入出力インタフェース75には、操作子や操作デバイスよりなる入力部76が接続される。例えば入力部76としては、キーボード、マウス、キー、トラックボール、ダイヤル、タッチパネル、タッチパッド、グレーティング用パネル、リモートコントローラ等の各種の操作子や操作デバイスが想定される。
 入力部76によりユーザの操作が検知され、入力された操作に応じた信号はCPU71によって解釈される。
 入力部76としてはマイクロフォンも想定される。ユーザの発する音声を操作情報として入力することもできる。
 また入出力インタフェース75には、LCD(Liquid Crystal Display)或いは有機EL(electro-luminescence)パネルなどよりなる表示部77や、スピーカなどよりなる音声出力部78が一体又は別体として接続される。
 表示部77は各種表示を行う表示部であり、例えば情報処理装置70の筐体に設けられるディスプレイデバイスや、情報処理装置70に接続される別体のディスプレイデバイス等により構成される。
 表示部77は、CPU71の指示に基づいて表示画面上に各種の画像、操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
 入出力インタフェース75には、HDD(Hard Disk Drive)や固体メモリなどより構成される記憶部79や通信部80が接続される場合もある。
 記憶部79は、各種のデータやプログラムを記憶することができる。記憶部79においてDBを構成することもできる。
 例えば情報処理装置70がアセットサーバ530や後述のレンダリングエンジン31として機能する場合、記憶部79を利用して3D背景データ群を格納するDBを構築できる。
 通信部80は、インターネット等の伝送路を介しての通信処理や、外部のDB、編集装置、情報処理装置等の各種機器との有線/無線通信、バス通信などによる通信を行う。
 例えば情報処理装置70がレンダリングエンジン520や後述のレンダリングエンジン31として機能する場合、通信部80によりアセットサーバ530としてのDBにアクセスしたり、カメラ502やカメラトラッカー560からの撮影情報を受信したりすることができる。
 またポストプロダクションST3に用いる情報処理装置70の場合も、通信部80によりアセットサーバ530としてのDBにアクセスすることなども可能である。
 入出力インタフェース75にはまた、必要に応じてドライブ81が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体82が適宜装着される。
 ドライブ81により、リムーバブル記録媒体82からは映像データや、各種のコンピュータプログラムなどを読み出すことができる。読み出されたデータは記憶部79に記憶されたり、データに含まれる映像や音声が表示部77や音声出力部78で出力されたりする。またリムーバブル記録媒体82から読み出されたコンピュータプログラム等は必要に応じて記憶部79にインストールされる。
 この情報処理装置70では、例えば本実施の形態の処理のためのソフトウェアを、通信部80によるネットワーク通信やリムーバブル記録媒体82を介してインストールすることができる。或いは当該ソフトウェアは予めROM72や記憶部79等に記憶されていてもよい。
<3.第1の実施の形態>
 以下の各実施の形態では、プレビジュアライゼーションとしての処理に注目する。まず映像制作過程におけるプレビジュアライゼーションの位置づけを図9で説明する。
 図9には先に図4で説明したアセットクリエイション(ST1)、プロダクション(ST2)、ポストプロダクション(ST3)という流れを示している。
 プロダクション(ST2)は、実際にスタジオで撮影を行う段階であるが、これは撮影準備と撮影に分けられる。
 これに対して実施の形態で注目するプレビジュアライゼーションとは、主に撮影準備よりも前の段階で行われることが想定される。なお、必ずしも時系列的な順序は限定されないが、プレビジュアライゼーションは、アセットクリエイション(ST1)において背景映像vBをレンダリングするための3Dモデルが制作された後の段階で行われればよい。
 その意味で、プレビジュアライゼーションは、アセットクリエイション(ST1)の最終段階で行われるととらえてもよいし、プロダクション(ST2)における撮影準備の前の段階で行われるととらえてもよい。
 プレビジュアライゼーションでは、映像確認、モアレアラートという処理が行われる。これらは実施の形態の処理として詳述するが、映像確認とは、撮影に先立って、撮影により得られる撮影映像vCを監督やスタッフが確認できるようにする処理である。主に撮影映像vCの色合いを含む確認をシミュレーション映像により可能とする。
 モアレアラートは、例えば映像確認をしながらスタッフが仮想的にカメラ位置を操作している際に、モアレ予測を行い、モアレが出ると予測される場合に、その警告を発する処理である。これにより、その後の撮影の際のアーティファクト発生を回避できるようにする。
 撮影準備の段階では、撮影システム500におけるLEDやカメラ等各種の設定とともに、色キャリブレーションが行われる。具体的にはLEDウォール505をカメラ502で撮影したときに生ずる色変化をキャンセルするキャリブレーションLUT(Look Up Table)を生成する。キャリブレーションLUTは例えば3D-LUTとされる。
 なお3D-LUTの代わりに、マトリックスと1D-LUTの組み合わせや他の映像信号処理で行うキャリブレーションのための準備を行ってもよい。
 撮影の段階では、モアレアラート、キャリブレーションLUT、on-setカメラ設定が行われる。
 この場合のモアレアラートとは、レンダリングエンジン520によるモアレ判定に応じてリアルタイムにカメラマン等にモアレアラートを出力する処理である。
 キャリブレーションLUTとは、撮影準備の際の色キャリブレーションで生成したLUTを適用してLEDウォール505やカメラ502等による背景映像表示に関する色変化をキャンセルする処理である。
on-setカメラ設定とは、プレビジュアライゼーションで設定したカメラ設定を例えばクラウドサーバ等から取得し、スタジオのカメラ502に反映させる処理である。
 以下、第1の実施の形態としての構成例を、図10を用いて説明する。なお以下の各実施の形態では、撮影システム500の構成と、プレビジュアライゼーションのための構成とを並記する。図10、図13、図15、図18における図面上方は、図5等で説明した撮影システム500の構成を簡略化して示しており、図面下方は、プレビジュアライゼーションで使用する構成(プレビジュアライゼーションシステム700)を示している。
 図10において撮影システム500に関しては、レンダリングエンジン520、LEDプロセッサ570、LEDウォール505、カメラ502、カメラ信号処理部515、オペレーションモニタ550又はアウトプットモニタ503を示している。
 この図におけるオペレーションモニタ550又はアウトプットモニタ503は、撮影現場であるスタジオにおいて撮影映像vCやモニタ映像vMを表示するモニタを包括的に示している。以下では説明上「モニタ550等」と略称する。
 レンダリングエンジン520はレンダリング部520aと色キャリブレーション部520bを含むものとして示している。
 レンダリング部520aは先に説明したとおり、アウターフラスタムやカメラ502の位置や撮影方向に応じたインナーフラスタム(撮影領域映像)vBCのレンダリングを行い、LEDウォール505に表示させる背景映像vBを生成する機能を示している。即ちレンダリング部520aは図6の処理を行う機能である。
 レンダリングエンジン520は、色キャリブレーション部520bとしての機能を備える場合がある。色キャリブレーション部520bは、LEDプロセッサ570の処理やLEDウォール505を構成するLEDパネル506(図10では不図示)のLED発光特性及びカメラの受光特性や処理などにより生ずる色変化をキャンセルするためのキャリブレーション処理を行う機能を示している。
 即ち色キャリブレーション部520bは、撮影準備の段階の色キャリブレーションにより生成したLUTを用いて、レンダリングされた背景映像vBの色変換を行う。
 このようにレンダリングエンジン520において色キャリブレーション部520bとしての機能でキャリブレーションLUTの処理を行う場合は、例えば背景映像vBの表示側における色変化は生じないものとすることもできる。
 なお、ここでいう色変化とは、レンダリングされた背景映像vBがLEDウォール505で表示されるまでの処理や発光特性や、カメラの受光特性や処理などにより生ずる色変化のことである。
 レンダリングエンジン520において色キャリブレーション部520bとしての機能を備えていない場合、或いは当該機能を備えていても有効化しない場合は、3Dモデルからレンダリングした状態の色と、LEDウォール505で表示された状態の色に、色合い、つまり色の濃淡やRGBバランスなどによる変化が生ずる場合がある。
 図10では、カメラ502に対しては、撮像映像信号の信号処理を行うカメラ信号処理部515を示している。図5,図7では省略したが、このカメラ信号処理部515は、カメラ502内のプロセッサ等により形成されてもよいし、カメラ502とは別体ユニットの装置として設けられても良い。
 カメラ502で撮影された映像信号はカメラ信号処理部515で輝度処理、色処理等を含む現像処理やリサイズ処理などをされて、撮影映像vCやモニタ映像vMとして出力される。
 撮影映像vCは本線映像とされて記録媒体に記録されたり、放送や配信のために他機器に送信されたりする。また撮影映像vCはモニタ映像vMとして用いられてモニタ550等で表示される。
 以上のような撮影システム500に対して、例えばスタジオ外のシステムとしてプレビジュアライゼーションシステム700が構成される。プレビジュアライゼーションシステム700ではレンダリングエンジン31として機能する情報処理装置70と、モニタ40を少なくとも備える。
 レンダリングエンジン31は例えばレンダリングエンジン520とは別体の情報処理装置70により構成される。
 レンダリングエンジン31はレンダリング部32と映像処理部33を備える。
 レンダリング部32は、上述のレンダリングエンジン520におけるレンダリング部520aと同様のレンダリング機能であり、3Dモデルに基づいて背景映像vBPを生成することができる。
 このレンダリング部32は、少なくともアセットクリエイション(ST1)の工程で制作された3Dモデルを用いて背景映像vBのレンダリングを行うことができる。つまりプロダクション(ST2)の工程で用いるものと同じ3Dモデルを例えばアセットサーバ530(図5,図7参照)から取得し、それを用いてレンダリングを行う。
 そしてレンダリング部32は、当該3Dモデルを用いて例えばインナーフラスタムのレンダリングを行うことができる。なお、インナーフラスタム(撮影領域映像vBC)を生成する場合は、任意のカメラ位置や方向が入力され、それに応じた3Dモデルに対する視点位置でレンダリングを行う。
 これら、レンダリング部32で生成する背景映像を、撮影時にレンダリングエンジン520で生成する撮影領域映像vBCと説明上、区別する意味で、「背景映像vBP」と表記する。
 映像処理部33は、背景映像vBPに対する各種の映像処理を行う機能を示している。
 映像処理の1つとして映像処理部33は実撮影映像化処理を行う。実撮影映像化処理とは、実際に撮影に用いるカメラ502を模したシミュレーション映像vSMを生成する処理である。この実撮影映像化処理では、背景映像vBPに対して、少なくとも撮影システム500で使用するカメラ502の撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像vSMを生成する。
 輝度又は色に関するパラメータを、撮影時のカメラ502と同じとすることで、撮影映像vCと同じ色合いのシミュレーション映像vSMが生成されるようにし、そのシミュレーション映像vSMがモニタ40に表示されるようにする。
 モニタ40は、レンダリングエンジン31としての情報処理装置70から出力される映像を表示するモニタ装置を示しており、例えば撮影スタジオとは別の場所にあるモニタ装置でもよいし、撮影スタジオにあるモニタ装置でもよい。モニタ40は、少なくともプレビジュアライゼーションの段階でシミュレーション映像vSMを表示させるものであればどのような形態でもよい。
 レンダリングエンジン31においてレンダリング部32で背景映像vBPを生成し、映像処理部33で実撮影映像化処理を行ってシミュレーション映像vSMを生成する。これをモニタ40に表示させることで、スタッフは、撮影時の撮影映像vCに含まれる背景の映像と同じ色合いとされたシミュレーション映像vSMを確認することができる。これにより、撮影に先立って、色の確認を行い、必要に応じて撮影準備段階でのカメラ502やカメラ信号処理部515での色の調整などを行うことができるようになる。
 このような映像処理部33の実撮影映像化処理としては、レンダリング部32でレンダリングされた背景映像vBPについて、少なくとも色合いを、実際の撮影時の撮影映像vCに含まれる背景の映像と同等とする。
 このために具体的には映像処理部33は、RGBゲインやホワイトバランス値、ガンマ値、オフセット値等のパラメータをカメラ502に合わせる。
 例えば映像処理部33は、背景映像vBPに対し、カメラ502におけるイメージセンサから読み出された各色の画素信号に対するゲインの値と同様のR、G、Bゲインを与える処理を行う。
 また映像処理部33は、背景映像vBPに対し、実撮影映像化処理においてカメラ502の撮影時のホワイトバランス値と同じホワイトバランス値でホワイトバランス処理を行う。
 これにより、撮影映像vCにおける背景と同じ色合いの背景となるシミュレーション映像vSMが得られるようにする。これによりモニタ40では、撮影時にモニタ550等で撮影映像vCを見る場合と同じ色合いの映像を確認できる。
 さらに映像処理部33は、実撮影映像化処理として、背景映像vBPに対し、カメラ502のイメージセンサからの切り出し範囲やズーム倍率設定などによる画角も同一とする処理を行ってもよい。
 例えば図11にカメラ502のイメージセンサ30からの読み出し範囲の例を示している。実線がイメージセンサ30の全画素領域であるとする。イメージセンサ30からの撮像信号となる光電変換信号の読み出しは、実線の全画素領域とされる場合もあるし、点線の範囲、破線の範囲、一点鎖線の範囲など、読み出しモードによって各種の場合がある。これらの読み出し範囲の差によって撮影映像vCにおける画角が異なる。
 そこで映像処理部33の実撮影映像化処理では、画角も撮影映像vCと同等となるようにする。
 また映像処理部33は、実撮影映像化処理として、背景映像vBPに対し、カメラ502に装着されたレンズの各種特性(球面あるいはアナモルフィックレンズの別や、色味・透過率・フレア・歪曲収差・周辺光量落ち等の特性)を反映させる処理を行ってもよい。これにより、シミュレーション映像vSMをより撮影映像vCに近づける。
 また映像処理部33は、実撮影映像化処理として、背景映像vBPに対し、カメラ502に装着された円偏光フィルタ等の光学フィルタの特性を反映させる処理を行ってもよい。これにより、フィルタを装着して撮影する場合でも、シミュレーション映像vSMを、より撮影映像vCに近づける。
 ところで、撮影時にレンダリングエンジン520での色キャリブレーション処理でLEDウォール505までの色変化がキャンセルされる場合には、実撮影映像化処理としては、カメラ側の色変化等を反映させる処理でよい。LEDウォール505に表示される背景映像vBはレンダリングされた状態から色変化が生じないとされるためである。
 一方で、上記のような色キャリブレーションが行われない場合は、LEDウォール505に表示される背景映像vBにおいても既に色変化が生じている場合がある。そのような場合は、映像処理部33における実撮影映像化処理では、LED側の各色の輝度(強度)特性などを反映する処理も行うようにする。これにより、シミュレーション映像vSMを撮影映像vCに近づけることができる。
 なお、以上の実撮影映像化処理の前提として、レンダリングエンジン31がシミュレーション映像vSMをレンダリングする際に想定する仮想的なカメラのフレームレート、シャッタースピード、露出値などのカメラ設定は、実際のカメラ502と同様の設定とする。即ち映像処理部33は、背景映像vBPについて、フレームレート、シャッタースピード、露出値、ND設定、などの各種のカメラ設定に応じたRGB値となるようにした上で、RGBゲインやホワイトバランス値等の色処理を行うことで、実際の撮影映像vCの色合いを模したシミュレーション映像vSMを生成する。
 またLEDウォール505の明るさについてもカメラ設定と同様に反映させるとよい。
 図12に、プレビジュアライゼーションの際のレンダリングエンジン31の処理例を示す。
 先ずレンダリングエンジン31はステップS100で、撮影時のカメラ502のカメラ設定やホワイトバランスを取得し、それに応じた処理パラメータを設定する。フレームレート、シャッタースピード、露出値などの基本的なパラメータである。またレンダリングエンジン31は、このステップS100で、撮影時にカメラ502に装着されるレンズの各種特性や光学フィルタの特性を取得して、それらを処理パラメータに反映させる場合もある。
 ステップS101でレンダリングエンジン31は、プレビジュアライゼーションでのシミュレーション映像vSMのモニタリングの終了を判定する。終了に至るまではレンダリングエンジン31は、例えばフレーム毎にステップS102以降の処理を実行する。
 ステップS102でカメラ位置設定を行う。これは仮想的に、LEDウォール505に対するカメラ502の相対的な位置及び向き(撮影方向)を設定する処理である。つまりレンダリングする際の3Dモデルに対する視点位置の設定処理である。
 実際の撮影時のカメラ502の位置やカメラパス(カメラ移動軌跡)の設定がプレビジュアライゼーションの段階で存在するのであれば、その情報を用いてフレーム毎のカメラ位置を設定すればよい。またプレビジュアライゼーションの段階でスタッフが任意にカメラ位置を設定する入力を行うようにしてもよい。
 ステップS103でレンダリングエンジン31は、設定したカメラ位置による視点位置設定のうえで、3Dモデルを用いて背景映像vBPのレンダリングを行う。例えばインナーフラスタム(撮影領域映像vBC)に相当する背景の映像を生成する。
 ステップS104ではレンダリングエンジン31は、撮影時の色キャリブレーション処理により、LEDウォール505までの色変化をキャンセルするか否かを判定する。
 レンダリングエンジン31は、撮影時の色キャリブレーション処理の有無や処理の内容は、ユーザの入力などにより判定してもよいし、撮影システム500と通信連携可能であれば、撮影システム500のレンダリングエンジン520との通信により判定してもよい。レンダリングエンジン31がレンダリングエンジン520の処理を兼ねるシステムの場合は、色キャリブレーション処理の有無は通信等を行わずとも既知である。
 撮影時に色キャリブレーション処理を行わない場合は、レンダリングエンジン31はステップS105の処理を、実撮影映像化処理の1つとして行う。即ちLEDウォール505に表示される背景映像vBに生ずる輝度又は色の変化特性を、背景映像vBPにも反映させる輝度・色処理を行う。例えばLEDパネル506のRGB各色の輝度バランスに応じたゲインパラメータを設定して背景映像vBPに対する色補正を行う。
 撮影時に色キャリブレーション処理でLEDウォール505までの色変化をキャンセルする場合は、LEDウォール505に表示される背景映像vBに色変化は生じないため、ステップS105の処理はスキップする。
 即ち、撮影時に色キャリブレーション処理を行う場合は、LEDウォール505に表示される背景映像vBに生ずる輝度又は色の変化はキャンセルされる一方、撮影時に色キャリブレーション処理を行わない場合は、LEDウォール505に表示される背景映像vBに生ずる輝度又は色の変化は撮影映像vCの色に影響する。そこで、撮影時に色キャリブレーション処理を行わない場合は、ステップS105の処理を行うことで、シミュレーション映像vSMに、そのLEDウォール505までの色変化も反映されるようにする。
 続いてレンダリングエンジン31はステップS106の処理を、実撮影映像化処理の1つとして行う。即ちカメラ502側で生ずる色変化を、背景映像vBPにも反映させる輝度・色処理を行う。例えば上述のように、ホワイトバランス値やRGBゲインをカメラ502と同様とする処理を行う。
 なおさらにステップS106の実撮影映像化処理においてレンダリングエンジン31は、画角、レンズ特性、光学フィルタ特性などを反映させる処理を行う場合もある。
 ステップS106の処理、又はステップS105とS106の処理が施された背景映像vBPがシミュレーション映像vSMとなる。
 ステップS107でレンダリングエンジン31は、そのシミュレーション映像vSMとしての1フレームを出力する。例えばモニタ40に出力して表示させる。
 以上の処理をレンダリングエンジン31が実行することにより、撮影システム500で撮影を行うスタッフ等は、モニタ40により事前に撮影映像vCの色合いなどを確認できるようになる。
<4.第2の実施の形態>
 第2の実施の形態の構成例を図13に示す。
 第2の実施の形態では、スタッフが、積極的に色調整を行うことができるようにするものである。モニタ40では上述のように映像処理部33の実撮影映像化処理によるシミュレーション映像vSMが表示され、スタッフが色合いを確認できる。
 この場合に、レンダリングエンジン31はスタッフ等のユーザが色調整操作に用いることのできる調整操作部35の機能を備えるようにする。例えばレンダリングエンジン31とされる情報処理装置70の表示部77や入力部76を利用したGUIなどをユーザに提供する。これによりユーザは、モニタ40を見ながら映像の色合いを操作することができる。
 即ち、スタッフが、実撮影映像化処理によるシミュレーション映像vSMを見て、考えていた色合いとは異なっていると感じた場合に、色調整を行い、望みの色が得られるようにする。
 また、調整の内容を色変換情報Icとしてカメラ502やカメラ信号処理部515に提供することで、調整した色を、撮影時に反映できるようにもする。
 具体的にレンダリングエンジン31は、先の図12の処理に加えて、映像処理部33の機能により図14のような処理を行う。
 ステップS201でレンダリングエンジン31は、調整操作部35によるGUIを用いたユーザの色調整操作を監視する。
 色調整操作を検知した場合は、レンダリングエンジン31はステップS202に進み、その色調整操作に応じた色調整処理を行う。
 またステップS203でレンダリングエンジン31が調整操作部35による決定操作を監視する。ここでいう決定操作とは、調整後の色の状態を後に再現できるようにするための色変換情報Icを生成する指示の操作である。
 具体的には色変換情報Icは、次に述べるLUTやCDL(Color Decision List)などである。
 決定操作があったらレンダリングエンジン31はステップS204に進み、色変換情報IcとしてのLUTやCDLの生成処理を行う。
 この場合のLUTは、例えばR、G、Bのレベルを3軸として、3軸の各格子点で示されるもとの色のR、G、B値に対して、調整後のR、G、B値の色を記憶する三次元LUT(3DLUT)である。
 CDLは、R、G、Bのそれぞれにスロープ、オフセット、パワーを調整するパラメータや、サチュレーションを調整するパラメータなどを有するものである。
 これらのLUTやCDLとしての色変換情報Icは、例えば実撮影映像化処理で生成したシミュレーション映像vSMの色を基準にし、ユーザの調整操作による色の変化を示すものである。
 ステップS205でレンダリングエンジン31は、生成したLUTやCDLを記憶したり、所定の機器に出力したりする処理を行う。
 例えばLUTやCDLの出力先としては、図13に示すようにカメラ502やカメラ信号処理部515とすることが考えられる。
 つまり第2の実施の形態では、シミュレーション映像vSMによりスタッフが予め撮影映像vCの色合いなどを確認できる場合に、スタッフが色を積極的に調整できるようにする。そして調整内容に応じたLUTやCDLを生成し、後の撮影の際に使用できるようにする。
 LUTやCDLは、カメラ502やカメラ信号処理部515に導入することで、撮影映像vCにLUTやCDLを適用させて、色調整を実行させることができる。
 つまり、スタッフは予め、撮影映像vCを確認するとともに、必要に応じて色調整を行うことができる。その色調整については、LUTやCDLとして記憶/出力されることで、撮影時の映像処理で適用させることができる。これにより撮影映像vCは、プレビジュアライゼーションの際と同様の色調整が施されたものとなる。換言すれば、予め撮影映像vCの色合いを確認し、調整までもしてしまうことが可能となる。
<5.第3の実施の形態>
 第3の実施の形態は、レンダリングエンジン31の映像処理部33が、入力に応じてシミュレーション映像vSMに反映するカメラ設定情報の変更処理を行い、カメラ設定情報を出力可能とする例である。
 ここでいうカメラ設定情報とは、例えばイメージセンサ30からの読み出しサイズ設定、シャッタースピード設定、露出設定、ND設定、レンズ特性、フォーカス/アイリス/ズーム動作設定、ホワイトバランス値、RGBゲインなどを指す。
 上述の実撮影映像化処理では、基本的にはこれらの設定値は、撮影に用いるカメラ502の設定に合わせることで、実際の撮影映像vCをシミュレートする。
 その上で第3の実施の形態では、これらのカメラ設定を調整操作することで、各種のカメラ設定を予め用意できるようにする。
 図15では、映像処理部33がプレカメラ設定の処理を行うことを示している。
 このプレカメラ設定とは、例えばスタッフが、シミュレーション映像vSMをモニタ40で見ながら、調整操作部35の操作により、上記のカメラ設定を変更していく処理である。映像処理部33では、例えばシャッタースピードや露出設定などの操作に応じて、シミュレーション映像vSMにおいて露出設定変化が擬似的に反映されるようにする映像処理、例えばRGBの各輝度値の変換などを行う。
 また映像処理部33は、操作に応じて変更したカメラ設定の記憶や送信ができるようにする。例えば調整操作に応じたカメラ設定を後の撮影時にカメラ502等に反映させることができるようにする。
 図15では、カメラ設定をクラウドサーバ41に送信することを示している。クラウドサーバ41はレンダリングエンジン31から送信されてくるカメラ設定を記憶し、後に撮影システム500に提供できるものとする。
 例えばユーザは、プレビジュアライゼーションでシミュレーション映像vSMを確認しながら各種のカメラ設定の調整操作を行っていき、例えばシーン毎のカメラ設定などを調整する。それらをクラウドサーバ41にアップロードすることで、クラウドサーバ41には、例えば図16のようにシーンSC1,SC2,SC3のそれぞれに応じてカメラ設定が記憶される。
 このようなカメラ設定は、クラウドサーバ41からカメラ502やカメラ信号処理部515にダウンロード可能とすることで、実際の撮影時に、そのカメラ設定が用いられるようにすることができる。
 なお、カメラ設定に限らず、LED側の設定も同様に調整できるようにし、LEDプロセッサ570に設定情報がダウンロードできるようにすることもできる。
 またカメラ設定としては、上記の情報に加えて、第2の実施の形態で説明したLUTやCDL等を含むものでもよい。
 図17に映像処理部33の機能によるレンダリングエンジン31の処理例を示す。例えばレンダリングエンジン31は図12の処理や図14の処理に加えて図17の処理も実行できるようにする。
 ステップS301でレンダリングエンジン31は調整操作部35によりカメラ設定に関する調整操作が行われたか否かを監視する。
 調整操作が行われた場合は、レンダリングエンジン31はステップS302でカメラ設定の設定変更を行う。なお実際のカメラが存在するわけではないので、設定変更とは、カメラ設定による映像を実現するように必要な映像処理パラメータを変更する処理となる。
 この状態でユーザは、カメラ設定を変更した場合のシミュレーション映像vSMを見ることができる。
 ステップS303でレンダリングエンジン31は、設定記憶指示を検知する。ユーザが調整操作部35による操作などにより設定記憶指示を行った場合は、レンダリングエンジン31はステップS304に進み、その時点のカメラ設定情報の記憶や送信を行う。例えばレンダリングエンジン31は内部の記憶媒体に記憶したり、クラウドサーバ41等の外部装置に送信したりする処理を行う。
 これによりプレビジュアライゼーションの段階でスタッフが調整したカメラ設定を、後の撮影時に撮影システム500において使用できるようにする。
<6.第4の実施の形態>
 第4の実施の形態を図18で説明する。第4の実施の形態は、プレビジュアライゼーションの段階でモアレアラートを出力できるようにする例である。
 図18ではレンダリングエンジン31に、モアレ予測部36、位置操作部37を示している。位置操作部37は、仮想的なカメラ位置をユーザが任意に操作できるようにしたインタフェース機能である。
 モアレ予測部36は、設定されているカメラ位置の状態で、モアレが発生するか否かを特定のアルゴリズムで予測する機能である。
 特定のアルゴリズムとは、例えば、
・カメラの位置、角度、アイリス/フォーカス/ズーム状態
・ディスプレイ(レンダリングエンジン31が設定する仮想的なLEDウォール)の位置、角度
 等の情報から、この状態で実際に撮影を行うとモアレやスキャンライン等のアーティファクトが発生するということを判定するアルゴリズムである。
 モアレ予測部36は、カメラ位置などの条件で、モアレ発生を予測した場合は、そのモアレ発生の情報及び発生位置の情報を映像処理部33に通知する。
 映像処理部33は、例えばモアレの警告や、モアレ位置を示す映像をモニタ40に表示させるようにする。
 例えば図19は、背景映像vBPのシミュレーション映像vSMを含む映像であるが、さらに仮想的なLEDウォール54や仮想的なカメラ51を示した画像である。
 映像処理部33は、単に背景映像vBPのシミュレーション映像vSMを表示させるだけでなく、例えば視点位置をスタジオ内の或る位置に設定したような映像を表示させることもできるようにする。
 図19の映像では、さらに、LEDウォール54の位置情報52や、カメラの位置情報52を表示させている。
 また原点情報50として、空間内での各位置の基準となる原点位置やX、Y、Zの3軸方向を示している。
 図20は、モアレアラート53が表示されるとともに、モアレ位置57が示されている例である。
 例えばカメラ51の位置が図19と変更されているが、この状態でモアレ発生予測がなされたとする。その場合、モアレアラート53が表示され、またモアレが発生する位置がモアレ位置57として表示される。
 なお、映像上でのカメラ51の位置は、ユーザが任意に変更させることができる。例えばユーザがカメラ51を指定する操作を行うと、図21に示すようにX、Y、Z方向の移動軸55が表示される。ユーザはカーソル56を或る移動軸55に合わせた状態で、ドラッグ等の操作を行うと、仮想空間内のカメラ51の位置が変更される。例えば以上のようなユーザインタフェースが位置操作部37の機能により提供されるようにする。
 従ってユーザは、仮想的なカメラ51を任意に動かしながら、モアレが生ずるか否かを確認していくことができる。
 これにより、実際の撮影時のカメラ位置やカメラパスを、モアレが生じないように設定することも可能となる。
 図22はレンダリングエンジン31によるモアレに関する処理を示している。レンダリングエンジン31は、例えば図12の処理、図14の処理、図17の処理に加えて図22の処理を実行する。
 ステップS401でレンダリングエンジン31はカメラ位置操作がなされたか否かを監視する。
 例えばユーザが位置操作部37の機能でカメラ位置操作を行った場合は、レンダリングエンジン31はステップS402に進み、変更したカメラ位置及び撮影方向の情報を用いてモアレ予測を行う。
 なお、カメラ位置操作の際だけでなく、ズーム操作や露出調整操作などが行われた場合にもステップS402に進むようにしてもよい。
 ステップS403でレンダリングエンジン31はモアレ予測の結果を確認し、モアレが発生すると予測された場合は、ステップS404でモアレアラートを出力させる処理を行う。
 以上により、図20で示したようなモアレアラート53が表示され、これによりスタッフは撮影前の段階で、モアレ発生を知ることができる。従ってモアレが発生しないようなカメラ位置やカメラパスを考えるなどを本番撮影前に行うことができる。
 ところで、実際の撮影時においてレンダリングエンジン520がモアレ判定を行うこともできる。
 図18ではレンダリングエンジン520側において、レンダリング部520aに加えてCGカメラ設定部520cとモアレ判定部520dを示している。
 CGカメラ設定部520cは、カメラトラッカー560からの撮影情報、例えばカメラ502の位置、撮影方向、画角、焦点距離、F値、シャッタースピード、レンズ情報などを受け、それに応じたレンダリングをレンダリング部520aに実行させる。
 モアレ判定部520dは、レンダリングされた撮影領域映像vBCに対して、今、モアレが発生しているか否かの判定を、CGカメラ設定部520cが得た情報を利用して行う。つまりモアレ予測部36と同様のアルゴリズムで現在のモアレ発生判定を行う。
 そしてモアレ発生と判定した場合は、例えばその情報をカメラ502に送信し、ビューファインダーなどにおいてモアレアラートが表示されるようにする。
 図23にそのようなリアルタイムのモアレアラートを行う処理例を示している。なお、図23は図6で説明したステップS10からステップS60に加えて、ステップS70以降が行われるようにしたものである。
 上述したようにレンダリングエンジン520はフレームタイミング毎にステップS30からステップS60までの処理を行う。これにより背景映像vBがLEDウォール505に表示される。
 レンダリングエンジン520はステップS70でモアレ判定を行う。
 ステップS71でレンダリングエンジン520はモアレ判定の結果を確認し、モアレが発生していると判定した場合は、ステップS72でモアレアラートを出力させる処理を行う。例えばレンダリングエンジン520はモアレアラートの情報をカメラ502に送信し、ビューファインダーなどにおいてモアレアラートが表示されるようにする。或いはモニタ550等にモアレアラートが表示されるようにしてもよい。
 以上により、カメラマンは、撮影中に現在モアレが発生していると認識して対処することができる。例えばカメラ位置を移動させたり、フォーカス調整を行ったりして対処できる。
<7.撮影データのフロー>
 続いて、撮影システム500を用いたプロダクション(ST2)で得た撮影映像vCのポストプロダクション(ST3)への提供形態について述べておく。
 カメラ502で撮影した撮影映像vCは、例えば配信サーバに送信し、リアルタイムでストリーム配信することができる。これにより映像コンテンツの制作スタッフの一部が、外部モニタで撮影映像vCをリモートモニタリングできるようになる。
 また撮影映像vCを動画ファイルとしてファイル化してクラウドサーバ等に転送し、ポストプロダクションスタッフが共有可能に保存することで、ポストプロダクションの各種作業を進めるようにすることができる。
 その際、撮影時の撮影情報としてのカメラ502の位置情報、カメラの向き、画角、焦点距離、絞り値、シャッタースピード、レンズ情報などや、使用したLUT、CDL等をメタデータ化してファイルに含めるようにする。或いは撮影情報や、LUT、CDL等を少なくとも動画と関連づけて参照できるようにしておく。これにより撮影時の情報を用いた編集等を行うことができる。
 動画ファイルとしては、RAW動画ファイル、MPEG-4(Moving Picture Experts Group)、AVI(Audio Video Interleave)、MOV(Quick time File Format)、WMV(Windows Media Video)等の動画ファイル、メザニンファイル、プロキシ動画ファイルなど、どのような形式のファイルでもよい。
 先に述べたように、プレビジュアライゼーションの確認や調整の作業は、スタジオ外の情報処理装置70によるレンダリングエンジン31により実行可能である。
 また上記のように撮影映像vCをリアルタイムモニタリングすることやクラウドサーバ等により共有化することで、ポストプロダクションも撮影スタジオに縛られずに可能となる。つまりこれらにより、一連の映像制作作業のリモート化、効率化を促進できる。
<8.まとめ及び変型例>
 以上の実施の形態によれば次のような効果が得られる。
 情報処理装置70により実現される実施の形態のレンダリングエンジン31は、撮影システム500で撮影時に使用する3Dモデルを用いてレンダリングを行って仮想映像である背景映像vBPを生成するレンダリング部32を有する。またレンダリングエンジン31は、レンダリング部32で生成した背景映像vBPに対して、撮影システム500で使用するカメラ502の撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像vSMを生成するための実撮影映像化処理を行う映像処理部33を備える。
 これにより、撮影前の段階で、撮影映像vCにおける輝度や色の状態を模したモニタ映像が表示できる。従って撮影に先立って監督やスタッフが、撮影によって得られる撮影映像vCの輝度や色の具合を確認することができる。
 実際に撮影の段階で、監督等が思い描いていた色合いなどと異なる撮影映像vCが得られることがあるが、その場合、現場のスタジオにおける色調整に時間がかかり、制作効率が低下する。このため撮影前に予め撮影映像vCの色合いなどを確認できることは重要である。
 またバーチャルプロダクションの場合、アセットクリエイション(ST1)の段階で背景映像vBのための3Dモデルが制作される。つまり撮影前の段階で、背景映像vBをレンダリングできる環境にある。このため図10のように映像処理部33で実撮影映像化処理を加えることで予めの輝度・色確認を実現できる。
 なお実施の形態においてレンダリングエンジン31は、レンダリングエンジン520とは別の情報処理装置70により実現されるとして説明したが、レンダリングエンジン31、520が一つの情報処理装置70により実現されてもよい。
 実施の形態では、映像処理部33は、LEDウォール505の映像の輝度又は色の変化特性を実現する処理パラメータによるディスプレイ映像処理(図12のステップS105の映像処理)も行ったうえで、カメラ502の撮影時の輝度又は色の特性を実現する処理パラメータによるカメラ映像処理(図12のステップS106の映像処理)を行ってシミュレーション映像vSMを生成する場合についても述べた。
 LEDウォール505側において、色や輝度の変化がある場合、つまりLEDパネル506やLEDプロセッサ570の処理において色や輝度の変化が生じる場合は、その変化も加味することで、撮影時の撮影映像vCをシミュレートできる。これによりシミュレーション精度を向上でき、映像確認に適している。
 なお、図10で説明したようにレンダリングエンジン520において色キャリブレーション部520bの処理により、LEDウォール505側の背景映像vBに、機器や処理による色変化がキャンセルされる場合もある。そのような撮影システム500の場合は、LEDウォール505側の特性は反映せず、カメラ特性をシミュレートした実撮影映像化処理でよい。
 第2の実施の形態では、映像処理部33がユーザ操作に基づく制御信号に応じてシミュレーション映像vSMの色調整処理を行い、色調整処理に基づいて色変換情報Icを生成する例を挙げた。
 図13で説明したように映像処理部33は、色変換情報IcとしてLUTやCDLを生成する。スタッフは、モニタ40を確認しながら色調整操作を行うことができ、これに応じてLUTやCDLが生成される。つまりプレビジュアライゼーションの段階で、望ましい色づくりを行い、その色づくりを実現する色変換情報Icを生成しておくことができる。
 第2の実施の形態で述べたように、映像処理部33は、色変換情報Icを出力可能とされている。
 映像処理部33は、色変換情報IcとしてLUTやCDLを生成したら、それを出力し、カメラ502やカメラ信号処理部515などで用いることができるようにする。これによりプレビジュアライゼーションの段階で設定したLUT等による色調整を本番の撮影の際に容易に実現できる。
 第3の実施の形態では、映像処理部33は、ユーザ操作に基づく制御信号に応じてシミュレーション映像vSMに反映するカメラ設定情報の変更処理を行い、変更したカメラ設定情報を出力可能とされている例を挙げた。
 図15で説明したように映像処理部33は、プレカメラ設定としてカメラ502の撮影時の設定を保持する。例えばイメージセンサ30からの読み出しサイズ設定、シャッタースピード設定、露出設定、ND設定、レンズ特性、フォーカス/アイリス/ズーム動作設定、ホワイトバランス設定などである。さらには適用するLUT等の設定もある。
 例えばこれらの設定をカメラ502と同一にした状態からスタッフの操作により変更していくことができるようにする。そして調整したカメラ設定情報を出力し、カメラ502やカメラ信号処理部515、或いはLEDプロセッサ570に提供できるようにする。これにより、撮影時のカメラ設定をプレビジュアライゼーションの段階で映像を確認しながら最適な状態に調整することが可能になる。本番の撮影作業は、プレビジュアライゼーションの際に確認した状態から開始できる。
 実施の形態において、撮影システム500で使用するカメラ502の撮影時の輝度又は色の特性を実現する処理パラメータとしては、ホワイトバランス値を含むものとした。
 撮影前に撮影時の撮影映像vCの色合いを確認できることが重要である。そのためプレビジュアライゼーションでは撮影時のカメラ502で適用するホワイトバランス値を含んで実撮影映像化処理を行ったシミュレーション映像vSMを生成することが好適である。
 また実施の形態において、撮影システム500で使用するカメラ502の撮影時の輝度又は色の特性を実現する処理パラメータとしては、カメラ502におけるイメージセンサから読み出された各色の画素信号に対するゲインの値を含む。
 撮影映像vCの色合いの確認のための要素としては、例えばR、G、Bの各画素信号に対するゲインによって決まる色バランスがある。そこでプレビジュアライゼーションでは撮影時のカメラ502で適用するR、G、B信号についてのゲイン(色バランス)を含んで実撮影映像化処理を行うことが好適である。
 また実施の形態において、映像処理部33は、実撮影映像化処理において、撮影システム500で使用するカメラ502の撮影時の画角情報に基づいた画角設定でシミュレーション映像vSMを生成する例を述べた。
 シミュレーション映像vSMとしては、撮影時の撮影映像vCと同じ画角の映像とする。シミュレーション映像vSMは撮影映像vCと同じ色合いであることに加えて同じ画角であることが、映像の確認としては望ましいためである。
 なお画角情報とは、ズーム設定による画角情報もあるし、イメージセンサ30からの切り出し範囲設定を示す画角情報もある。
 また実施の形態において、映像処理部33は、実撮影映像化処理において、撮影システム500で使用するカメラ502のレンズ特性を反映したシミュレーション映像vSMを生成する例を述べた。
 シミュレーション映像vSMとしては、撮影時の撮影映像vCに限りなく近づけることが望ましいため、レンズ歪み等の特性も表現される映像とする。
 また実施の形態において、映像処理部33は、実撮影映像化処理において、撮影システム500で使用するカメラ502に装着される光学フィルタの特性を反映したシミュレーション映像vSMを生成する例を述べた。
 カメラ502に光学フィルタが装着される場合は、その光学フィルタ特性も反映させることで、シミュレーション映像vSMを撮影時の撮影映像vCに近づけることができる。
 第4の実施の形態では、レンダリング部32によってレンダリングされた背景映像vBPについて判定されたモアレ予測情報に応じて、モアレ警告の出力処理を行う例を述べた。
 図18で説明したようにモアレ予測部36によるモアレ予測情報に応じて、モニタ40などにおいてモアレアラート53を表示させる処理を行う。これによりプレビジュアライゼーションの段階でモアレの状況を予測できる。
 また第4の実施の形態では、映像上でカメラ位置を任意に変更させるユーザインタフェースが用意され、モアレ予測は、ユーザインタフェースにより変更されるカメラ位置に応じて行われる例を挙げた(図19,図20,図21,図22参照)。
 スタッフがカメラ位置操作映像においてカメラ位置を各種シミュレートできるようにした場合、そのカメラ位置に応じてモアレ発生が予測されるようにする。これによりモアレの出ないカメラ位置を選ぶなど、カメラワークの構想にも役立つ。
 また第4の実施の形態では、モアレ判定部520dによるモアレ判定情報に応じて、カメラ502のビューファインダーなどにおいてモアレアラートを表示させる処理を行う例も述べた(図18,図23参照)。これにより撮影時にカメラマン等はモアレの状況を知ることができ、対処できる。
 なお、モアレ予測部36によるモアレ予測と、モアレ判定部520dによるモアレ判定は、同じアルゴリズムでもよいし、異なるアルゴリズムでもよい。また同じアルゴリズムの場合に、予測/判定の閾値を同じとしてもよいし、異なるものとしてもよい。
 実施の形態においてレンダリングエンジン31とされる情報処理装置70は、撮影システム500を構成する機器とは別体の機器であるとして説明した。
 プレビジュアライゼーションのための情報処理装置70は、撮影スタジオに構築された撮影システム500を構成する機器とは別の装置とする。例えばスタッフは、スタジオセット以外のPC、タブレット等の機器を本実施の形態の情報処理装置70として用いる。これによりスタッフは、スタジオとは別の場所でシミュレーション映像vSMを確認でき、映像コンテンツ制作の効率化に好適である。
 なお、撮影システム500におけるレンダリングエンジン520を利用して実施の形態で説明したシミュレーション映像vSMを生成することもできる。即ちレンダリングエンジン520が映像処理部33と同等の機能を備えて実撮影映像化処理を行うようにすれば撮影システム500を使用して、例えば撮影開始前にシミュレーション映像vSMを確認するといったことも可能である。
 実施の形態のプログラムは、上述の図12,図14,図17,図22のような処理を、例えばCPU、DSP等のプロセッサ、或いはこれらを含むデバイスに実行させるプログラムである。
 即ち実施の形態のプログラムは、撮影システム500で使用する3Dモデルを用いてレンダリングを行って仮想映像(例えば背景映像vBP)を生成する処理と、生成した仮想映像に対して、撮影システム500で使用するカメラ502の撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像vSMを生成する実撮影映像化処理とを情報処理装置に実行させるプログラムである。
 このようなプログラムにより、上述したプレビジュアライゼーションにおけるシミュレーション映像vSMを生成する情報処理装置70を、各種のコンピュータ装置により実現できる。
 このようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。また、このようなプログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 またこのようなプログラムによれば、実施の形態のレンダリングエンジン31となる情報処理装置70の広範な提供に適している。例えばパーソナルコンピュータ、通信機器、スマートフォンやタブレット等の携帯端末装置、携帯電話機、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、これらの装置を本開示の情報処理装置70(レンダリングエンジン31)として機能させることができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 なお本技術は以下のような構成も採ることができる。
 (1)
 3Dモデルを用いたレンダリングにより得た仮想映像を表示するディスプレイの映像をカメラで撮影する撮影システムにおいて使用する前記3Dモデルを用いてレンダリングを行うことで仮想映像を生成するレンダリング部と、
 前記レンダリング部で生成した仮想映像に対して、前記撮影システムで使用する前記カメラの撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像を生成するための実撮影映像化処理を行う映像処理部と、を備えた
 情報処理装置。
 (2)
 前記映像処理部は、前記ディスプレイの映像の輝度又は色の変化特性を実現する処理パラメータによるディスプレイ映像処理を行ったうえで、前記カメラの撮影時の輝度又は色の特性を実現する処理パラメータによるカメラ映像処理を行って前記シミュレーション映像を生成する
 上記(1)に記載の情報処理装置。
 (3)
 前記映像処理部は、ユーザ操作に基づく制御信号に応じて前記シミュレーション映像の色調整処理を行い、色調整処理に基づいて色変換情報を生成する
 上記(1)又は(2)に記載の情報処理装置。
 (4)
 前記映像処理部は、前記色変換情報を出力可能とされている
 上記(3)に記載の情報処理装置。
 (5)
 前記色変換情報は、前記カメラによる撮影映像の信号処理に用いられる情報として出力される
 上記(4)に記載の情報処理装置。
 (6)
 前記映像処理部は、ユーザ操作に基づく制御信号に応じて前記シミュレーション映像に反映するカメラ設定情報の変更処理を行い、変更したカメラ設定情報を出力可能とされている
 上記(1)から(5)のいずれかに記載の情報処理装置。
 (7)
 前記カメラ設定情報は、前記カメラの設定に用いられる情報として出力される
 上記(6)に記載の情報処理装置。
 (8)
 前記撮影システムで使用する前記カメラの撮影時の輝度又は色の特性を実現する処理パラメータとしては、ホワイトバランス値を含む
 上記(1)から(7)のいずれかに記載の情報処理装置。
 (9)
 前記撮影システムで使用する前記カメラの撮影時の輝度又は色の特性を実現する処理パラメータとしては、前記カメラにおけるイメージセンサから読み出された各色の画素信号に対するゲインの値を含む
 上記(1)から(8)のいずれかに記載の情報処理装置。
 (10)
 前記映像処理部は、前記実撮影映像化処理において、前記撮影システムで使用する前記カメラの撮影時の画角情報に基づいた画角設定で前記シミュレーション映像を生成する
 上記(1)から(9)のいずれかに記載の情報処理装置。
 (11)
 前記映像処理部は、前記実撮影映像化処理において、前記撮影システムで使用する前記カメラのレンズ特性を反映した前記シミュレーション映像を生成する
 上記(1)から(10)のいずれかに記載の情報処理装置。
 (12)
 前記映像処理部は、前記実撮影映像化処理において、前記撮影システムで使用する前記カメラに装着される光学フィルタの特性を反映した前記シミュレーション映像を生成する
 上記(1)から(11)のいずれかに記載の情報処理装置。
 (13)
 前記レンダリング部によってレンダリングされた映像について判定されたモアレ予測情報に応じて、モアレ警告の出力処理を行う
 上記(1)から(12)のいずれかに記載の情報処理装置。
 (14)
 映像上でカメラ位置を任意に変更させるユーザインタフェースが用意され、モアレ予測は、前記ユーザインタフェースにより変更されるカメラ位置に応じて行われる
 上記(13)に記載の情報処理装置。
 (15)
 前記撮影システムを構成する機器とは別体の機器である
 上記(1)から(14)のいずれかに記載の情報処理装置。
 (16)
 3Dモデルを用いてレンダリングした仮想映像を表示するディスプレイの映像をカメラで撮影する撮影システムで使用する前記3Dモデルを用いてレンダリングを行って仮想映像を生成し、
 生成した仮想映像に対して、前記撮影システムで使用するカメラの撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像を生成する実撮影映像化処理を行う
 情報処理方法。
 (17)
 3Dモデルを用いてレンダリングした仮想映像を表示するディスプレイの映像をカメラで撮影する撮影システムで使用する前記3Dモデルを用いてレンダリングを行って仮想映像を生成する処理と、
 生成した仮想映像に対して、前記撮影システムで使用するカメラの撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像を生成する実撮影映像化処理と、
を情報処理装置に実行させるプログラム。
 (18)
 3Dモデルを用いてレンダリングした仮想映像を表示するディスプレイの映像をカメラで撮影する撮影システムと、
 前記3Dモデルを使用する情報処理装置と、
 を備え、
 前記情報処理装置は、
前記3Dモデルを用いてレンダリングを行って仮想映像を生成するレンダリング部と、
 前記レンダリング部で生成した仮想映像に対して、前記撮影システムで使用するカメラの撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像を生成するための実撮影映像化処理を行う映像処理部と、を備えた
 情報処理システム。
 (19)
 前記撮影システムは、
 前記ディスプレイの映像を前記カメラで撮影する場合に、モアレ判定情報に応じて、モアレ警告の出力処理を行う
 上記(18)に記載の情報処理システム。
 (20)
 前記映像処理部は、ユーザ操作に基づく制御信号に応じて前記シミュレーション映像の色調整処理を行い、色調整処理に基づいて色変換情報を生成して出力し、
 前記撮影システムは、前記色変換情報を用いて前記カメラによる撮影映像の信号処理を行う
 上記(18)又は(19)に記載の情報処理システム。
 (21)
 前記映像処理部は、ユーザ操作に基づく制御信号に応じて前記シミュレーション映像に反映するカメラ設定情報の変更処理を行い、変更したカメラ設定情報を出力し、
 前記撮影システムは、前記カメラ設定情報に基づいて前記カメラの設定を行う
 上記(18)から(20)のいずれかに記載の情報処理システム。
31 レンダリングエンジン
32 レンダリング部
33 映像処理部
35 調整操作部
36 モアレ予測部
37 位置操作部
40 モニタ
41 クラウドサーバ
70 情報処理装置、
500 撮影システム
502 カメラ
503 アウトプットモニタ
505 LEDウォール
506 LEDパネル
515 カメラ信号処理部
520 レンダリングエンジン
520a レンダリング部
520b 色キャリブレーション部
520c CGカメラ設定部
700 プレビジュアライゼーションシステム
vB,vBP 背景映像
vC 撮影映像
vM モニタ映像
vSM シミュレーション映像
vP カメラ位置操作映像
Ic 色変換情報

Claims (21)

  1.  3Dモデルを用いたレンダリングにより得た仮想映像を表示するディスプレイの映像をカメラで撮影する撮影システムにおいて使用する前記3Dモデルを用いてレンダリングを行うことで仮想映像を生成するレンダリング部と、
     前記レンダリング部で生成した仮想映像に対して、前記撮影システムで使用する前記カメラの撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像を生成するための実撮影映像化処理を行う映像処理部と、を備えた
     情報処理装置。
  2.  前記映像処理部は、前記ディスプレイの映像の輝度又は色の変化特性を実現する処理パラメータによるディスプレイ映像処理を行ったうえで、前記カメラの撮影時の輝度又は色の特性を実現する処理パラメータによるカメラ映像処理を行って前記シミュレーション映像を生成する
     請求項1に記載の情報処理装置。
  3.  前記映像処理部は、ユーザ操作に基づく制御信号に応じて前記シミュレーション映像の色調整処理を行い、色調整処理に基づいて色変換情報を生成する
     請求項1に記載の情報処理装置。
  4.  前記映像処理部は、前記色変換情報を出力可能とされている
     請求項3に記載の情報処理装置。
  5.  前記色変換情報は、前記カメラによる撮影映像の信号処理に用いられる情報として出力される
     請求項4に記載の情報処理装置。
  6.  前記映像処理部は、ユーザ操作に基づく制御信号に応じて前記シミュレーション映像に反映するカメラ設定情報の変更処理を行い、変更したカメラ設定情報を出力可能とされている
     請求項1に記載の情報処理装置。
  7.  前記カメラ設定情報は、前記カメラの設定に用いられる情報として出力される
     請求項6に記載の情報処理装置。
  8.  前記撮影システムで使用する前記カメラの撮影時の輝度又は色の特性を実現する処理パラメータとしては、ホワイトバランス値を含む
     請求項1に記載の情報処理装置。
  9.  前記撮影システムで使用する前記カメラの撮影時の輝度又は色の特性を実現する処理パラメータとしては、前記カメラにおけるイメージセンサから読み出された各色の画素信号に対するゲインの値を含む
     請求項1に記載の情報処理装置。
  10.  前記映像処理部は、前記実撮影映像化処理において、前記撮影システムで使用する前記カメラの撮影時の画角情報に基づいた画角設定で前記シミュレーション映像を生成する
     請求項1に記載の情報処理装置。
  11.  前記映像処理部は、前記実撮影映像化処理において、前記撮影システムで使用する前記カメラのレンズ特性を反映した前記シミュレーション映像を生成する
     請求項1に記載の情報処理装置。
  12.  前記映像処理部は、前記実撮影映像化処理において、前記撮影システムで使用する前記カメラに装着される光学フィルタの特性を反映した前記シミュレーション映像を生成する
     請求項1に記載の情報処理装置。
  13.  前記レンダリング部によってレンダリングされた映像について判定されたモアレ予測情報に応じて、モアレ警告の出力処理を行う
     請求項1に記載の情報処理装置。
  14.  映像上でカメラ位置を任意に変更させるユーザインタフェースが用意され、モアレ予測は、前記ユーザインタフェースにより変更されるカメラ位置に応じて行われる
     請求項13に記載の情報処理装置。
  15.  前記撮影システムを構成する機器とは別体の機器である
     請求項1に記載の情報処理装置。
  16.  3Dモデルを用いてレンダリングした仮想映像を表示するディスプレイの映像をカメラで撮影する撮影システムで使用する前記3Dモデルを用いてレンダリングを行って仮想映像を生成し、
     生成した仮想映像に対して、前記撮影システムで使用するカメラの撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像を生成する実撮影映像化処理を行う
     情報処理方法。
  17.  3Dモデルを用いてレンダリングした仮想映像を表示するディスプレイの映像をカメラで撮影する撮影システムで使用する前記3Dモデルを用いてレンダリングを行って仮想映像を生成する処理と、
     生成した仮想映像に対して、前記撮影システムで使用するカメラの撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像を生成する実撮影映像化処理と、
    を情報処理装置に実行させるプログラム。
  18.  3Dモデルを用いてレンダリングした仮想映像を表示するディスプレイの映像をカメラで撮影する撮影システムと、
     前記3Dモデルを使用する情報処理装置と、
     を備え、
     前記情報処理装置は、
     前記3Dモデルを用いてレンダリングを行って仮想映像を生成するレンダリング部と、
     前記レンダリング部で生成した仮想映像に対して、前記撮影システムで使用するカメラの撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像を生成するための実撮影映像化処理を行う映像処理部と、を備えた
     情報処理システム。
  19.  前記撮影システムは、
     前記ディスプレイの映像を前記カメラで撮影する場合に、モアレ判定情報に応じて、モアレ警告の出力処理を行う
     請求項18に記載の情報処理システム。
  20.  前記映像処理部は、ユーザ操作に基づく制御信号に応じて前記シミュレーション映像の色調整処理を行い、色調整処理に基づいて色変換情報を生成して出力し、
     前記撮影システムは、前記色変換情報を用いて前記カメラによる撮影映像の信号処理を行う
     請求項18に記載の情報処理システム。
  21.  前記映像処理部は、ユーザ操作に基づく制御信号に応じて前記シミュレーション映像に反映するカメラ設定情報の変更処理を行い、変更したカメラ設定情報を出力し、
     前記撮影システムは、前記カメラ設定情報に基づいて前記カメラの設定を行う
     請求項18に記載の情報処理システム。
PCT/JP2023/018964 2022-06-07 2023-05-22 情報処理装置、情報処理方法、プログラム、情報処理システム WO2023238646A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-092354 2022-06-07
JP2022092354 2022-06-07

Publications (1)

Publication Number Publication Date
WO2023238646A1 true WO2023238646A1 (ja) 2023-12-14

Family

ID=89118287

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/018964 WO2023238646A1 (ja) 2022-06-07 2023-05-22 情報処理装置、情報処理方法、プログラム、情報処理システム

Country Status (1)

Country Link
WO (1) WO2023238646A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000338000A (ja) * 1999-03-23 2000-12-08 Hitachi Ltd 電子ディスプレイ装置の画素欠陥検査方法、および、電子ディスプレイ装置の製造方法
JP2003143464A (ja) * 2001-10-31 2003-05-16 Konica Corp 証明写真用の撮影装置及び画像処理方法
JP2004080205A (ja) * 2002-08-13 2004-03-11 Fuji Photo Film Co Ltd 画像処理装置
JP2010183384A (ja) * 2009-02-06 2010-08-19 Nippon Hoso Kyokai <Nhk> 撮影カメラ学習装置及びそのプログラム
KR20190033705A (ko) * 2017-09-22 2019-04-01 고유철 증강현실 포토존 제공 시스템
US20200145644A1 (en) * 2018-11-06 2020-05-07 Lucasfilm Entertainment Company Ltd. LLC Immersive content production system with multiple targets
CN112330736A (zh) * 2020-11-02 2021-02-05 北京虚拟动点科技有限公司 一种场景画面的拍摄方法、装置、电子设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000338000A (ja) * 1999-03-23 2000-12-08 Hitachi Ltd 電子ディスプレイ装置の画素欠陥検査方法、および、電子ディスプレイ装置の製造方法
JP2003143464A (ja) * 2001-10-31 2003-05-16 Konica Corp 証明写真用の撮影装置及び画像処理方法
JP2004080205A (ja) * 2002-08-13 2004-03-11 Fuji Photo Film Co Ltd 画像処理装置
JP2010183384A (ja) * 2009-02-06 2010-08-19 Nippon Hoso Kyokai <Nhk> 撮影カメラ学習装置及びそのプログラム
KR20190033705A (ko) * 2017-09-22 2019-04-01 고유철 증강현실 포토존 제공 시스템
US20200145644A1 (en) * 2018-11-06 2020-05-07 Lucasfilm Entertainment Company Ltd. LLC Immersive content production system with multiple targets
CN112330736A (zh) * 2020-11-02 2021-02-05 北京虚拟动点科技有限公司 一种场景画面的拍摄方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
US7782439B2 (en) Method and system for preserving the creative intent within a motion picture production chain
US10356377B2 (en) Control and display system with synchronous direct view video array and incident key lighting
JP2004088247A (ja) 画像処理装置、カメラキャリブレーション処理装置、および方法、並びにコンピュータ・プログラム
JP2013025649A (ja) 画像処理装置及び画像処理方法、プログラム
WO2020170606A1 (ja) 画像処理装置、画像処理方法、プログラム
US6476874B1 (en) Apparatus and method for combining background images with main images
US20210258485A1 (en) Virtual reality real-time shooting monitoring system and control method thereof
WO2023238646A1 (ja) 情報処理装置、情報処理方法、プログラム、情報処理システム
JP4747616B2 (ja) 画像提示システムおよび画像提示プログラム
WO2023223759A1 (ja) 情報処理装置、情報処理方法、撮影システム
WO2023223758A1 (ja) スイッチャー装置、制御方法、撮影システム
WO2024048295A1 (ja) 情報処理装置、情報処理方法、プログラム
JPH1042307A (ja) キーシステム及び合成画像作成方法
WO2023047645A1 (ja) 情報処理装置、映像処理方法、プログラム
WO2023007817A1 (ja) 情報処理装置、映像処理方法、プログラム
WO2023176269A1 (ja) 情報処理装置、情報処理方法、プログラム
WO2024004584A1 (ja) 情報処理装置、情報処理方法、プログラム
WO2020189510A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
WO2023095742A1 (ja) 情報処理装置、情報処理方法
WO2023047643A1 (ja) 情報処理装置、映像処理方法、プログラム
WO2024075525A1 (ja) 情報処理装置およびプログラム
WO2023090038A1 (ja) 情報処理装置、映像処理方法、プログラム
WO2024042893A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2020188417A (ja) 画像処理装置、画像処理方法、及び、コンピュータプログラム
WO2024070618A1 (ja) 撮像装置、プログラム、撮像システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23819630

Country of ref document: EP

Kind code of ref document: A1