WO2024048295A1 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
WO2024048295A1
WO2024048295A1 PCT/JP2023/029689 JP2023029689W WO2024048295A1 WO 2024048295 A1 WO2024048295 A1 WO 2024048295A1 JP 2023029689 W JP2023029689 W JP 2023029689W WO 2024048295 A1 WO2024048295 A1 WO 2024048295A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
marker
image
photographed
display
Prior art date
Application number
PCT/JP2023/029689
Other languages
English (en)
French (fr)
Inventor
隆史 土屋
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2024048295A1 publication Critical patent/WO2024048295A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Definitions

  • the present technology relates to an information processing device, an information processing method, and a program, and relates to a technology that can be used, for example, in the field of video production.
  • Patent Document 1 discloses a system technology for photographing performers and objects performing in front of a background image.
  • the range in which background images and the like are displayed is within the frame of the display and is limited.
  • the shooting range may extend outside the frame of the display.
  • the photographer In order to avoid this, the photographer must be careful when photographing the area of the display, which limits framing.
  • the information processing device is configured to detect a captured image captured by a camera of the display that displays an image including a boundary marker to be displayed at a peripheral portion of a display area of the display, and to detect a boundary marker in a target frame of the captured image. It includes a photographed video processing unit that performs determination processing to determine the position.
  • the information processing device also includes a marker processing unit that performs a process of adding a boundary marker to be displayed on a peripheral portion of the display area of the display to an image to be displayed on the display that is to be photographed by the camera. .
  • a boundary marker that is displayed at the periphery of the display is added.
  • the boundary marker allows the range of the display frame to be accurately detected on the captured video.
  • the video processing unit detects this boundary marker in the captured video.
  • FIG. 1 is an explanatory diagram of a photographing system according to an embodiment of the present technology.
  • FIG. 3 is an explanatory diagram of a background image according to the camera position of the photographing system according to the embodiment.
  • FIG. 3 is an explanatory diagram of a background image according to the camera position of the photographing system according to the embodiment.
  • FIG. 2 is an explanatory diagram of a video content production process according to an embodiment.
  • FIG. 1 is a block diagram of a photographing system according to an embodiment. It is a flowchart of background image generation of the photographing system of an embodiment.
  • FIG. 1 is a block diagram of a photographing system using multiple cameras according to an embodiment.
  • FIG. 1 is a block diagram of an information processing device according to an embodiment.
  • FIG. 3 is an explanatory diagram of marker processing and photographed video processing according to the embodiment.
  • FIG. 3 is an explanatory diagram of a background image displayed in the embodiment. It is an explanatory view of a boundary marker of an embodiment.
  • FIG. 3 is an explanatory diagram of a photographed video including boundary markers according to the embodiment.
  • FIG. 3 is an explanatory diagram of extracted marker images according to the embodiment.
  • FIG. 3 is an explanatory diagram of a marker image whose position has been estimated according to the embodiment. It is an explanatory view of a mask of an embodiment.
  • FIG. 2 is an explanatory diagram of a final output video according to the embodiment.
  • 3 is a flowchart of rendering including marker processing according to the embodiment. It is a flowchart of photographed video processing of an embodiment.
  • FIG. 3 is an explanatory diagram of a background image displayed in the embodiment. It is an explanatory view of a boundary marker of an embodiment.
  • FIG. 3 is an explanatory diagram of a photographed video including
  • FIG. 6 is an explanatory diagram of calculation of peripheral light amount fall and distortion amount according to the embodiment.
  • FIG. 7 is an explanatory diagram of a comparison for calculating the amount of peripheral light falloff and the amount of distortion according to the embodiment.
  • It is an explanatory diagram of mask generation of an embodiment.
  • FIG. 3 is an explanatory diagram of mask blending according to the embodiment.
  • FIG. 3 is an explanatory diagram of the compositing process according to the embodiment.
  • video or “image” includes both still images and moving images.
  • video does not only refer to the state displayed on the display, but may also comprehensively refer to video data that is not displayed on the display.
  • image For example, in the embodiment, the background video before being displayed on the display, the video shot by the camera, and the background video and shot video switched by the switcher are video data rather than the actually displayed video. It is written as “background video”, “photographed video”, etc.
  • FIG. 1 schematically shows an imaging system 500.
  • This photographing system 500 is a system for photographing as a virtual production, and the figure shows some of the equipment arranged in a photographing studio.
  • a performance area 501 is provided where performers 510 perform acting and other performances.
  • a large-sized display device is arranged at least on the back surface of the performance area 501, as well as on the left and right sides and the top surface.
  • the device type of the display device is not limited, the figure shows an example in which an LED wall 505 is used as an example of a large display device.
  • One LED wall 505 forms a large panel by connecting and arranging a plurality of LED panels 506 vertically and horizontally.
  • the size of the LED wall 505 here is not particularly limited, but may be any size necessary or sufficient to display the background when photographing the performer 510.
  • a necessary number of lights 580 are arranged at necessary positions above or to the sides of the performance area 501 to illuminate the performance area 501.
  • a camera 502 for shooting movies and other video content is arranged near the performance area 501.
  • the position of the camera 502 can be moved by a cameraman 512, and the shooting direction, angle of view, etc. can be controlled.
  • the camera 502 may move or change the angle of view automatically or autonomously.
  • the camera 502 may be mounted on a pan head or a moving object.
  • the camera 502 collectively photographs the performer 510 in the performance area 501 and the images displayed on the LED wall 505. For example, by displaying a landscape as the background video vB on the LED wall 505, it is possible to capture a video that is similar to when the performer 510 is actually performing in the scene.
  • An output monitor 503 is placed near the performance area 501. On this output monitor 503, the video being photographed by the camera 502 is displayed in real time as a monitor video vM. This allows the director and staff involved in producing video content to check the video being shot.
  • the photographing system 500 that photographs the performance of the performer 510 with the LED wall 505 in the background in the photographing studio has various advantages compared to green-back photography.
  • Post-production after shooting is also more efficient than in the case of green screen shooting. This is because there are cases where so-called chroma key synthesis can be made unnecessary, and there are cases where color correction and reflection synthesis can be made unnecessary. Furthermore, even if chromakey composition is required during shooting, it is only necessary to display green and blue images, which eliminates the need for an additional physical background screen, which also helps improve efficiency.
  • the background video vB will be explained with reference to FIGS. 2 and 3. Even if the background video vB is displayed on the LED wall 505 and photographed together with the performer 510, if the background video vB is simply displayed, the background of the photographed video will be unnatural. This is because the background, which is actually three-dimensional and has depth, is used as the two-dimensional background image vB.
  • the camera 502 can photograph performers 510 in the performance area 501 from various directions, and can also perform zoom operations.
  • the performer 510 is not standing still in one place either. Then, the actual appearance of the background of the performer 510 should change depending on the position, shooting direction, angle of view, etc. of the camera 502, but such a change cannot be obtained in the background image vB as a flat image. Therefore, the background image vB is changed so that the background looks the same as it actually looks, including the parallax.
  • FIG. 2 shows the camera 502 photographing the performer 510 from a position on the left side of the diagram
  • FIG. 3 shows the camera 502 photographing the performer 510 from a position on the right side of the diagram.
  • a shooting area video vBC is shown within a background video vB.
  • the portion of the background video vB excluding the shooting area video vBC is called an "outer frustum”
  • the shooting area video vBC is called an "inner frustum”.
  • the background video vB described here refers to the entire video displayed as a background, including the shooting area video vBC (inner frustum).
  • the range of this photographing area video vBC corresponds to the range actually photographed by the camera 502 within the display surface of the LED wall 505.
  • the photographing area video vBC is a video that expresses the scene actually seen when the position of the camera 502 is set as a viewpoint, depending on the position of the camera 502, the photographing direction, the angle of view, etc.
  • 3D background data which is a 3D (three dimensions) model
  • the 3D background data is rendered sequentially in real time based on the viewpoint position of the camera 502. do.
  • the range of the photographing area video vBC is a slightly wider range than the range photographed by the camera 502 at that time. This is to prevent the outer frustum image from being reflected due to rendering delay when the photographed range changes slightly due to panning, tilting, zooming, etc. of the camera 502, and to prevent the outer frustum image from being reflected. This is to avoid the influence of diffracted light.
  • the image of the shooting area image vBC rendered in real time in this way is combined with the image of the outer frustum.
  • the outer frustum image used in the background image vB may be rendered in advance based on 3D background data, or may be rendered in real time every frame or every intermittent frame.
  • the entire background image vB is generated by incorporating the image of the shooting area image vBC (inner frustum) into a part of the outer frustum image. Note that there are cases where the outer frustum video is rendered every frame as well as the inner frustum, but here we will take a still video as an example, and in the following explanation we will mainly use cases where only the first frame of the outer frustum video is rendered. will be explained as an example.
  • the background that is photographed together with the performer 510 will change depending on the viewpoint position and FOV (Field of View) associated with the actual movement of the camera 502.
  • FOV Field of View
  • a monitor video vM including a performer 510 and a background is displayed on the output monitor 503, and this is the photographed video.
  • the background in this monitor video vM is the shooting area video vBC.
  • the background included in the shot video is a real-time rendered video.
  • the photographing system 500 of the embodiment not only displays the background image vB in a two-dimensional manner, but also displays the photographing area image so that it is possible to photograph an image similar to that when actually photographing a landscape. Background video vB including vBC is changed in real time.
  • the process of producing video content as a virtual production that is shot using the shooting system 500 will be explained.
  • the video content production process is roughly divided into three stages. They are asset creation ST1, production ST2, and post-production ST3.
  • Asset creation ST1 is a process of creating 3D background data for displaying background video vB.
  • the background video vB is generated by performing rendering in real time using 3D background data during shooting.
  • 3D background data as a 3D model is created in advance.
  • Examples of methods for producing 3D background data include full CG (Full Computer Graphics), point cloud scanning, and photogrammetry.
  • Full CG is a method of creating 3D models using computer graphics. Although this method requires the most man-hours and time among the three methods, it is suitable for use when it is desired to use an unrealistic video or a video that is difficult to photograph as the background video vB.
  • Point cloud data scanning involves measuring distance from a certain position using, for example, LiDAR, and then taking a 360-degree image from the same position with a camera, and adding the color of the image taken by the camera to the point measured by LiDAR. This is a method of generating a 3D model using point cloud data by loading data. Compared to full CG, 3D models can be created in a shorter time. It is also easier to create high-definition 3D models than photogrammetry.
  • Photogrammetry is a photogrammetry technique that analyzes parallax information to obtain dimensions and shapes from two-dimensional images obtained by photographing objects from multiple viewpoints. You can create 3D models in a short time. Note that point cloud information acquired by a lidar may be used in generating 3D data by photogrammetry.
  • a 3D model that becomes 3D background data is created using, for example, these methods.
  • these methods may be used in combination.
  • a part of a 3D model created using point cloud data scanning or photogrammetry is created using CG and then synthesized.
  • Production ST2 is a step in which shooting is performed in a shooting studio as shown in FIG.
  • the elemental technologies in this case include real-time rendering, background display, camera tracking, and lighting control.
  • Real-time rendering is a rendering process for obtaining a shooting area video vBC at each point in time (each frame of the background video vB), as explained in FIGS. 2 and 3. This is to perform rendering on the 3D background data created in asset creation ST1 from a viewpoint according to the position of the camera 502 at each point in time.
  • Camera tracking is performed to obtain photographic information by the camera 502, and tracks positional information, photographing direction, angle of view, etc. of the camera 502 at each point in time.
  • photographic information including these By providing photographic information including these to the rendering engine in correspondence with each frame, real-time rendering can be performed according to the viewpoint position of the camera 502 and the like.
  • the shooting information is information that is linked or associated with the video as metadata. It is assumed that the photographing information includes position information of the camera 502 at each frame timing, camera orientation, angle of view, focal length, F value (aperture value), shutter speed, lens information, and the like.
  • Illumination control refers to controlling the state of illumination in the photographing system 500, specifically controlling the light amount, emitted color, illumination direction, etc. of the light 580. For example, lighting control is performed according to the time and location settings of the scene to be photographed.
  • Post-production ST3 indicates various processes performed after shooting. For example, video correction, video adjustment, clip editing, video effects, etc. are performed.
  • Image correction may include color gamut conversion and color matching between cameras and materials.
  • Image adjustment may include color adjustment, brightness adjustment, contrast adjustment, etc.
  • Clip editing may include clip cutting, order adjustment, time length adjustment, and the like.
  • CG video or special effect video may be synthesized.
  • FIG. 5 is a block diagram showing the configuration of the imaging system 500 outlined in FIGS. 1, 2, and 3.
  • the photographing system 500 shown in FIG. 5 includes the LED wall 505 formed by the plurality of LED panels 506, the camera 502, the output monitor 503, and the light 580 described above.
  • the photographing system 500 further includes a rendering engine 520, an asset server 530, a sync generator 540, an operation monitor 550, a camera tracker 560, an LED processor 570, a lighting controller 581, and a display controller 590, as shown in FIG.
  • Each of the LED processors 570 is provided corresponding to one or more LED panels 506, and drives the corresponding one or more LED panels 506 to display images.
  • the sync generator 540 generates a synchronization signal for synchronizing the frame timing of the video displayed by the LED panel 506 and the frame timing of the imaging by the camera 502, and supplies it to each LED processor 570, camera 502, and rendering engine 520. .
  • the camera tracker 560 generates information captured by the camera 502 at each frame timing and supplies it to the rendering engine 520. For example, the camera tracker 560 detects the position information of the camera 502 relative to the position of the LED wall 505 or a predetermined reference position, and the shooting direction of the camera 502 as one of the shooting information, and supplies these to the rendering engine 520. . As a specific detection method using the camera tracker 560, reflectors are placed randomly on the ceiling, and the position is detected from the reflected light of infrared light emitted from the camera tracker 560 attached to the camera 502. There is a way to do it.
  • a detection method there is also a method of estimating the self-position of the camera 502 by using gyro information mounted on the pan head of the camera 502 or the main body of the camera 502, or by image recognition of an image taken by the camera 502.
  • the camera 502 may supply the rendering engine 520 with the angle of view, focal length, F value, shutter speed, lens information, etc. as photographic information.
  • the asset server 530 is a server that stores the 3D model created in the asset creation ST1, that is, the 3D background data, in a recording medium, and can read out the 3D model as needed. That is, it functions as a DB (data base) of 3D background data.
  • the rendering engine 520 performs processing to generate a background video vB to be displayed on the LED wall 505.
  • the rendering engine 520 reads the necessary 3D background data from the asset server 530.
  • the rendering engine 520 generates an image of the outer frustum to be used as the background image vB by rendering the 3D background data as viewed from a prespecified spatial coordinate.
  • the rendering engine 520 uses the imaging information supplied from the camera tracker 560 and the camera 502 to specify the viewpoint position and the like with respect to the 3D background data, and renders the imaging area video vBC (inner frustum).
  • the rendering engine 520 synthesizes the shooting area video vBC, which dynamically changes according to the movement of the camera 502, with the outer frustum to generate a background video vB as one frame of video data.
  • the rendering engine 520 then transmits the generated one frame of video data to the display controller 590.
  • the display controller 590 generates a divided video signal nD by dividing one frame of video data into video parts to be displayed on each LED panel 506, and transmits the divided video signal nD to each LED panel 506. At this time, the display controller 590 may perform calibration according to individual differences such as color development between display units/manufacturing errors. Note that the display controller 590 may not be provided and the rendering engine 520 may perform these processes. That is, the rendering engine 520 may generate the divided video signal nD, perform calibration, and transmit the divided video signal nD to each LED panel 506.
  • the entire background video vB is displayed on the LED wall 505 by each LED processor 570 driving the LED panel 506 based on the received divided video signal nD.
  • the background video vB includes a shooting area video vBC rendered according to the position of the camera 502 at that time.
  • the camera 502 can thus photograph the performance of the performer 510 including the background video vB displayed on the LED wall 505.
  • the video obtained by shooting with the camera 502 is recorded on a recording medium inside the camera 502 or in an external recording device (not shown), and is also supplied in real time to the output monitor 503 and displayed as a monitor video vM.
  • the operation monitor 550 displays an operation image vOP for controlling the rendering engine 520.
  • the engineer 511 can perform necessary settings and operations regarding rendering of the background video vB while viewing the operation image vOP.
  • the lighting controller 581 controls the emission intensity, emission color, irradiation direction, etc. of the light 580.
  • the lighting controller 581 may control the light 580 asynchronously with the rendering engine 520, or may control the light 580 in synchronization with photographing information and rendering processing. Therefore, the lighting controller 581 may control the light emission based on instructions from the rendering engine 520 or a master controller (not shown). Alternatively, the light 580 may be controlled from the rendering engine 520.
  • FIG. 6 shows a processing example of the rendering engine 520 in the photographing system 500 having such a configuration.
  • the rendering engine 520 reads the 3D background data to be used this time from the asset server 530 in step S10, and develops it in an internal work area. In some cases, an image to be used as an outer frustum is generated at this stage.
  • the rendering engine 520 repeats the processes from step S30 to step S60 until it determines in step S20 that the display of the background video vB based on the read 3D background data has ended.
  • step S30 the rendering engine 520 acquires shooting information from the camera tracker 560 and camera 502. This confirms the position and state of the camera 502 to be reflected in the current frame.
  • step S40 the rendering engine 520 performs rendering based on the shooting information. That is, the viewpoint position for the 3D background data is specified based on the position of the camera 502, the shooting direction, or the angle of view to be reflected in the current frame, and rendering is performed. At this time, image processing that reflects focal length, F-number, shutter speed, lens information, etc. can also be performed. Through this rendering, video data as a shooting area video vBC (inner frustum) can be obtained.
  • the outer frustum may be generated in advance as a fixed image in step S10, or may be generated for each frame in step S40.
  • step S50 the rendering engine 520 performs processing to synthesize the outer frustum, which is the entire background image, and the image reflecting the viewpoint position of the camera 502, that is, the shooting area image vBC.
  • this process is a process of combining an image generated by reflecting the viewpoint of the camera 502 with an image of the entire background rendered at a certain reference viewpoint.
  • one frame of background video vB displayed on the LED wall 505, that is, background video vB including the shooting area video vBC is generated.
  • step S60 The process of step S60 is performed by the rendering engine 520 or the display controller 590.
  • the rendering engine 520 or the display controller 590 generates a divided video signal nD, which is obtained by dividing one frame of the background video vB into videos to be displayed on the individual LED panels 506. Calibration may also be performed. Then, each divided video signal nD is transmitted to each LED processor 570.
  • the background video vB including the shooting area video vBC captured by the camera 502 is displayed on the LED wall 505 at each frame timing.
  • FIG. 7 shows an example of a configuration in which a plurality of cameras 502a and 502b are used.
  • the cameras 502a and 502b are configured to be able to take pictures in the performance area 501 independently.
  • each camera 502a, 502b and each LED processor 570 are maintained in synchronization by a sync generator 540.
  • Output monitors 503a and 503b are provided corresponding to the cameras 502a and 502b, and are configured to display images taken by the corresponding cameras 502a and 502b as monitor images vMa and vMb.
  • camera trackers 560a and 560b are provided corresponding to the cameras 502a and 502b, and detect the positions and shooting directions of the corresponding cameras 502a and 502b, respectively.
  • the shooting information from the camera 502a and camera tracker 560a and the shooting information from the camera 502b and camera tracker 560b are sent to the rendering engine 520.
  • the rendering engine 520 can perform rendering to obtain the background video vB of each frame using shooting information from either or both of the camera 502a side and the camera 502b side.
  • FIG. 7 shows an example in which two cameras 502a and 502b are used, it is also possible to perform imaging using three or more cameras 502.
  • the shooting information of each camera is used to render and display the shooting area video vBC (inner frustum) corresponding to each camera 502
  • the shooting area videos vBC will be different from each other.
  • a shooting area video vBC corresponding to the camera 502a is shown, but when using an image from the camera 502b, a shooting area video vBC corresponding to the camera 502b is shown.
  • the shooting area videos vBC corresponding to the cameras 502a and 502b are simply displayed, they will interfere with each other. Therefore, it is necessary to devise a method for displaying the photographing area video vBC.
  • the information processing device 70 is a device capable of information processing, especially video processing, such as a computer device.
  • the information processing device 70 is assumed to be a personal computer, a workstation, a mobile terminal device such as a smartphone or a tablet, a video editing device, or the like.
  • the information processing device 70 may be a computer device configured as a server device or an arithmetic device in cloud computing.
  • the information processing device 70 can function as a 3D model production device that produces a 3D model in asset creation ST1.
  • the information processing device 70 can also function as a rendering engine 520 and an asset server 530 that constitute the photographing system 500 used in the production ST2.
  • the information processing device 70 can also function as a video editing device that performs various video processing in post-production ST3.
  • the information processing device 70 can also function as an information processing device (rendering engine 31) that generates a simulation video vSM in pre-visualization, which will be described later with reference to FIG. 25 and the like.
  • the CPU 71 of the information processing device 70 shown in FIG. Execute various processes according to the programmed program.
  • the RAM 73 also appropriately stores data necessary for the CPU 71 to execute various processes.
  • the video processing unit 85 is configured as a processor that performs various video processing.
  • the processor is capable of performing one or more of 3D model generation processing, rendering, DB processing, video processing including color/brightness adjustment processing, video editing processing, video analysis/detection processing, and the like.
  • FIG. 8 shows a photographed video processing section 85a and a marker processing section 85b as processing functions in the video processing section 85.
  • the photographed video processing section 85a and the marker processing section 85b are provided in the information processing device 70 as the rendering engine 520, for example.
  • the marker processing unit 85b has a function of adding a boundary marker 60 (see FIG. 9, etc.), which will be described later, to the rendered background image vB.
  • the background image vB displayed on the LED wall 505 includes the image of the boundary marker 60.
  • the photographed video processing unit 85a has a function of performing determination processing for determining the position of the boundary marker 60 in the target frame of the photographed video vC, which is displayed on the LED wall 505 and is obtained by photographing the background video vB including the boundary marker 60.
  • the target frame refers to a frame that is a processing target for photographed video processing at a certain point in time. For example, each frame constituting the captured video vC as a moving image is sequentially set as a target frame. Note that the position in the target frame of the photographed video vC (for example, the position of the boundary marker 60) is the position in the image of that frame, and does not include the position of temporally different frames.
  • the video processing unit 85 in the information processing device 70 may include an example that has the photographed video processing unit 85a but does not have the marker processing unit 85b, or an example that has the marker processing unit 85b but does not have the photographed video processing unit 85a. is also assumed.
  • This video processing unit 85 can be realized by, for example, a CPU separate from the CPU 71, a GPU (Graphics Processing Unit), a GPGPU (General-purpose computing on graphics processing units), an AI (artificial intelligence) processor, or the like. Note that the video processing section 85 may be provided as a function within the CPU 71.
  • the CPU 71, ROM 72, RAM 73, nonvolatile memory section 74, and video processing section 85 are interconnected via a bus 83.
  • An input/output interface 75 is also connected to this bus 83.
  • the input/output interface 75 is connected to an input section 76 consisting of an operator or an operating device.
  • the input unit 76 may be various operators or operating devices such as a keyboard, mouse, keys, trackball, dial, touch panel, touch pad, or remote controller.
  • a user's operation is detected by the input unit 76, and a signal corresponding to the input operation is interpreted by the CPU 71.
  • a microphone is also assumed as the input section 76. Voices uttered by the user can also be input as operation information.
  • a display section 77 consisting of an LCD (Liquid Crystal Display) or an organic EL (electro-luminescence) panel, and an audio output section 78 consisting of a speaker etc. are connected to the input/output interface 75, either integrally or separately.
  • the display unit 77 is a display unit that performs various displays, and is configured by, for example, a display device provided in the casing of the information processing device 70, a separate display device connected to the information processing device 70, or the like.
  • the display unit 77 displays various images, operation menus, icons, messages, etc., ie, as a GUI (Graphical User Interface), on the display screen based on instructions from the CPU 71.
  • GUI Graphic User Interface
  • the input/output interface 75 may be connected to a storage section 79 and a communication section 80, which are comprised of an HDD (Hard Disk Drive), solid-state memory, or the like.
  • HDD Hard Disk Drive
  • solid-state memory solid-state memory
  • the storage unit 79 can store various data and programs.
  • a DB can also be configured in the storage unit 79.
  • the storage unit 79 can be used to construct a DB that stores a group of 3D background data.
  • the communication unit 80 performs communication processing via a transmission path such as the Internet, and communicates with various devices such as an external DB, editing device, and information processing device through wired/wireless communication, bus communication, and the like.
  • various devices such as an external DB, editing device, and information processing device through wired/wireless communication, bus communication, and the like.
  • the communication unit 80 accesses a DB as the asset server 530 or receives shooting information from the camera 502 or camera tracker 560. be able to.
  • the information processing device 70 used in post-production ST3 it is also possible to access the DB as the asset server 530 through the communication unit 80.
  • a drive 81 is also connected to the input/output interface 75 as required, and a removable recording medium 82 such as a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory is appropriately loaded.
  • the drive 81 can read video data, various computer programs, etc. from the removable recording medium 82.
  • the read data is stored in the storage section 79, and the video and audio included in the data are outputted on the display section 77 and the audio output section 78. Further, computer programs and the like read from the removable recording medium 82 are installed in the storage unit 79 as necessary.
  • software for the processing of this embodiment can be installed via network communication by the communication unit 80 or the removable recording medium 82.
  • the software may be stored in advance in the ROM 72, storage unit 79, or the like.
  • FIG. 9 shows marker processing and photographed video processing in the process of virtual production.
  • the marker generation process P2 and marker addition process P3 in FIG. 9 are performed by the function of the marker processing unit 85b in the video processing unit 85 in FIG.
  • the marker generation process P2 and the marker addition process P3 are executed as processes within the rendering engine 520, for example, when shooting in virtual production, that is, when displaying the background video vB on the LED wall 505.
  • the photographed video processing (P11 to P19) is performed by the function of the photographed video processing section 85a in the video processing section 85 in FIG.
  • the photographed video processing (P11 to P19) may be performed in real time at the time of shooting, for example, in the rendering engine 520 into which the photographed video vC is input, or in another device, or may be performed at the post-production ST3 stage. good.
  • the video processing unit 85 of the information processing device 70 as the rendering engine 520 generates the background video vB as the rendering P1 in FIG.
  • FIG. 10A shows an example of the background video vB.
  • the rendering engine 520 generates a background image vB as shown in FIG. 10A, but in this example, the image is wider than the display area of the LED wall 505.
  • the range of the actual display area 100 indicated by a broken line is the image actually displayed on the LED wall 505.
  • the rendering engine 520 may generate the background video vB with the same range as the display range of the LED wall 505, but as shown in FIG. 10A, by generating the background video vB with a wider range, it is possible to In photographed video processing, this background video vB can be used for synthesis.
  • the background image vB also includes a photographing area image vBC (inner frustum).
  • the video processing unit 85 of the rendering engine 520 performs marker generation processing P2 shown in FIG. 9 using the function of the marker processing unit 85b.
  • the marker generation process P2 information about the rendered background video vB and its actual display area 100 is input to generate a marker image vMK.
  • FIGS. 11A and 11B Examples of marker images vMK are shown in FIGS. 11A and 11B.
  • the example of the marker image vMK in FIG. 11A is an example in which the pattern as the boundary marker 60 surrounds the periphery.
  • the example of the marker image vMK in FIG. 11B is an example in which patterns as boundary markers 60 are arranged on the left, right, and upper peripheral edges.
  • This boundary marker 60 is used to detect when the photographing range of the camera 502 photographing the LED wall 505 extends beyond the LED wall 505. For this reason, it is preferable that the boundary marker 60 be formed all around the peripheral edge as shown in FIG. 11A. However, the performance area 501 of the photographing system 500 as shown in FIG. There is no problem even if it protrudes downward. In such a case, a boundary marker 60 as shown in FIG. 11B may be used.
  • the boundary marker 60 shown in FIGS. 11A and 11B has a boundary line 61 and a detection pattern 62.
  • the boundary line 61 is a line formed in, for example, a frame shape to clearly define the edge of the LED wall 505.
  • the detection pattern 62 is a vertical and horizontal grid pattern provided to determine the amount of peripheral light falloff and the amount of spatial distortion caused by the lens of the camera 502. Note that the pattern shape is just an example, and is not limited to this. The pattern shape itself of such a boundary marker 60 may be stored in the system in advance.
  • the rendering engine 520 sets the brightness, color, and size of the boundary marker 60 to generate a marker image vMK.
  • the brightness and color of the boundary marker 60 are set so as to stand out in the background video vB with reference to the brightness and color of the background video vB. For example, if the background video vB shows a bright scene, the brightness of the boundary marker 60 is lowered, and if the background video vB shows a dark scene, the brightness of the boundary marker 60 is increased. Further, the color is also set according to the color of the background video vB. Further, the rendering engine 520 sets the size of the boundary marker 60 so that the boundary marker 60 is displayed at the periphery of the actual display area 100. Note that the line of the actual display area 100 is added for the purpose of explanation, and the background video vB does not actually include such a line indicating the actual display area 100.
  • the video processing unit 85 of the rendering engine 520 performs marker addition processing P3 using the function of the marker processing unit 85b.
  • the rendering engine 520 performs a process of compositing a marker image vMK with the rendered background video vB and adding a boundary marker 60. That is, the pixel value at the position corresponding to the boundary marker 60 in the original background image vB is replaced with the pixel value of the boundary marker 60.
  • FIG. 10B shows a background video vB with a boundary marker 60 added.
  • a boundary marker 60 is added at a position that is a peripheral portion of the actual display area 100 in the background image vB of FIG. 10A.
  • a background video vB to which such a boundary marker 60 is added is displayed on the LED wall 505. Therefore, as shown in FIG. 9, a boundary marker 60 is displayed on the periphery of the LED wall 505.
  • the camera 502 photographs the background video vB of the LED wall 505 and the performer 510.
  • the background video vB photographed by the camera 502 is within the range of the photographing area video vBC.
  • the photographing area video vBC is within the LED wall 505, and the photographing range of the camera 502 does not extend beyond the LED wall 505. Further, in the illustrated example, the photographing area video vBC does not overlap with the boundary marker 60 either.
  • the photographing area video vBC substantially matches the photographing range of the camera 502, if the photographing range of the camera 502 protrudes from the LED wall 505, a part of the photographing area video vBC protrudes from the LED wall 505.
  • the rendering engine 520 inputs the captured video vC by the camera 502, performs captured video processing on each frame of the captured video vC, and outputs the final output video vCF as the final captured video.
  • each frame of the photographed video vC is sequentially processed as a target frame.
  • the rendering engine 520 performs marker extraction processing P11, marker position estimation processing P12, peripheral light fall amount/distortion amount detection processing P13, and mask generation in FIG. 9 for the target frame using the functions of the captured video processing unit 85a.
  • Processing P14, peripheral light reduction/distortion addition processing P15, peripheral light reduction/distortion removal processing P16, selection processing P17, P18, and composition processing P19 are performed.
  • processing performed by the rendering engine 520 is an example, and the following photographed video processing may be performed as processing by another device or a processor inside the camera 502.
  • a captured video vC is output by the camera 502 (output processing P10).
  • the camera 502 simultaneously photographs the photographing area video vBC in the background video vB displayed on the LED wall 505 and the actual scene of the performer 510 and the like.
  • the outside of the LED wall 505 may be included in the shot video vC.
  • the scene outside the frame of the LED wall 505 and the boundary marker 60 displayed on the periphery of the LED wall 505 are also photographed.
  • the photograph may include the boundary marker 60.
  • FIG. 12 shows an example of a photographed video vC. This is a case where the photographing range of the camera 502 extends above, to the left, or to the right of the LED wall 505. For example, if the camera 502 has a wide angle that exceeds the width of the LED wall 505 and the shooting direction is set too high, a shot video vC as shown in FIG. 12 will be obtained.
  • the photographed image vC includes a photographed area image vBC in the background image vB, a boundary marker 60 in addition to the performer 510, and a scene around the LED wall 505 (blacked out in the figure).
  • the rendering engine 520 performs the marker extraction process P11 of FIG. 9 on the target frame of such a captured video vC.
  • the rendering engine 520 refers to the information (marker generation information Imk) used in the marker generation process P2. That is, information on the brightness and color of the boundary marker 60 is acquired.
  • the marker generation information Imk is information such as the brightness, color, pattern shape, and size of the boundary marker 60 set during the marker generation process P2.
  • the rendering engine 520 sets threshold levels for brightness and color based on this marker generation information Imk, compares each pixel value of the captured video vC, and extracts the boundary marker 60 from the captured video vC. For example, a marker extraction image vMKa as shown in FIG. 13 is generated from the photographed video vC of FIG. 12.
  • the rendering engine 520 also performs marker position estimation processing P12 shown in FIG. This is a process of calculating to estimate at which position of the target frame in the photographed video vC the boundary marker 60 will be displayed. If the relative positional relationship between the LED wall 505 and the camera 502, the angle of view, and the size of the image sensor for the target frame of the current captured video vC are known, the position of the boundary marker 60 in the captured video vC can be calculated.
  • Information about the arrangement position and angle of the LED wall 505 is known in advance within the system, and can be stored in the rendering engine 520 as information about the LED wall 505, for example.
  • the size of the image sensor of camera 502 is also known and set in advance for calculation.
  • the position, shooting direction, and zoom angle of view of the camera 502 are input as shooting information from the camera tracker 560 (see FIG. 5). Therefore, by acquiring the shooting information from the camera tracker 560 for each frame of the shot video vC, the rendering engine 520 can estimate by real-time calculation where in the shot video vC the boundary marker 60 will be displayed. . Then, the rendering engine 520 generates a marker position estimation image vMKb showing the estimated boundary marker 60, as shown in FIG. 14, for example.
  • the position of the boundary marker 60 in the marker position estimation image vMKb of FIG. 14 is an ideal position without the influence of lens distortion.
  • the position of the boundary marker 60 in the marker extraction image vMKa of FIG. 13 is a position affected by lens distortion of the camera 502.
  • the rendering engine 520 performs peripheral light fall amount/distortion amount detection processing P13.
  • the rendering engine 520 uses the marker extraction image vMKa and the marker position estimation image vMKb to calculate the amount of peripheral light fall and the amount of distortion.
  • the amount of peripheral light falloff prepare multiple images in which different amounts of peripheral light falloff are added to the marker position estimation image vMKb, and calculate the difference between the marker extraction image vMKa and the marker position estimation image vMKb for each pixel.
  • the amount of peripheral light falloff that minimizes the sum of the absolute values of the differences is selected.
  • a similar method can be used for the amount of distortion. Although details will be described later, through this processing, the amount of peripheral light falloff and the amount of distortion in the photographed video vC are determined.
  • the rendering engine 520 performs mask generation processing P14.
  • the rendering engine 520 generates the mask vK of FIG. 15 using an image obtained by adding a distortion amount to the marker extraction image vMKa or the marker position estimation image vMKb.
  • the mask vK is information indicating a first area 111 (hatched area) in which the photographed image vC is used in the compositing process P19 and a second area 112 in which the CG image (for example, the background image vB) is to be combined.
  • the first area 111 is a target frame of the photographed video vC, and is an area inside the boundary marker 60.
  • the second area 112 is an area outside the first area 111 and includes the boundary marker 60.
  • the mask vK generates an ⁇ channel image with a value that gradually transitions from "1" to "0" by providing a boundary region (blend region 111a described later) with the second region 112 within the first region 111. You may. Details will be described later.
  • the rendering engine 520 performs peripheral light reduction/distortion addition processing P15 or peripheral light reduction/distortion removal processing P16.
  • the peripheral light loss/distortion addition process P15 uses the peripheral light loss amount and distortion amount obtained in the peripheral light loss amount/distortion amount detection process P13 to add the same peripheral light amount to the background image vB as the image vC captured by the camera 502. This is a process that adds the amount of drop and distortion.
  • the peripheral light loss/distortion removal process P16 uses the peripheral light loss amount and distortion amount obtained in the peripheral light loss amount/distortion amount detection process P13, applies the inverse characteristics to the photographed image vC, and removes the peripheral light loss from the photographed image vC. This is a process to remove light falloff and distortion.
  • the selection process P17 is performed when the photographed video vC is outputted as is (for the purpose of explanation, it is referred to as "A course"), and when the photographed video vC is output after performing peripheral light reduction/distortion removal processing P16 (for the purpose of explanation, it is referred to as "B course”). ).
  • the selection process P18 selects between a case where the background image vB is subjected to peripheral light reduction/distortion addition process P15 and output (A course), and a case where the background image vB is output as is (B course).
  • a synthesis process P19 is performed on the photographed video vC and the background video vB to which the amount of peripheral light falloff and the amount of distortion have been added. In this case, images that take advantage of distortion and light falloff caused by the camera 502 are combined.
  • a synthesis process P19 is performed on the photographed video vC from which peripheral light falloff and distortion have been removed and the background video vB. In this case, images produced by the camera 502 without distortion or drop in light amount are combined.
  • the A course and the B course may be selected as appropriate depending on the creator's production intention.
  • the rendering engine 520 performs compositing of the photographed video vC selected in course A or course B and the background video vB using mask vK, and generates the final output video vCF as shown in FIG. be done.
  • This final output video vCF has a portion of the background video vB corresponding to the second region 112 outside the dashed line BD with respect to a captured video vC corresponding to the first region 111 of the mask vK shown inside the dashed line BD.
  • This is a video added as an extra-frame additional video vOT.
  • a part of the CG image generated as the background image vB is added as the extra-frame additional image vOT to an in-plane area outward from the boundary marker 60 including the boundary marker 60 in the photographed image vC.
  • the above photographed video processing (P11 to P19) is executed in real time at the time of photographing by the rendering engine 520, the camera 502, or another device having the configuration of the information processing apparatus 70.
  • the above photographed video processing (P11 to P19) may be executed in the information processing device 70 serving as a video editing device in post-production ST3.
  • part of the photographed video processing may be performed in real time at the time of photographing, and part may be performed in post-production ST3.
  • marker extraction processing P11 and marker position estimation processing P12 may be performed at the time of photographing, and the others may be performed in post-production ST3.
  • the marker extraction process P11 to the selection processes P17 and P18 may be performed at the time of photographing, and the compositing process P19 may be performed in post-production ST3.
  • Other examples are possible.
  • the information processing device 70 that performs post-production ST3 can acquire the photographed video vC, background video vB, and mask vK of course A or B.
  • FIG. 9 shows an example in which the background video vB is used as the source of the extra-frame additional video vOT
  • the CG video that becomes the extra-frame additional video vOT may be generated separately from the background video vB.
  • the background video vB is generated including the area outside the actual display area 100.
  • the background video vB can be used for the shooting range that protrudes from the LED wall 505, but if it protrudes even further, or if the background video vB is a video of only the actual display area 100, the background video vB It is conceivable to separately generate a CG video to serve as the extra-frame additional video vOT.
  • Processing example> A processing example of the information processing device 70 including marker processing and photographed video processing as shown in FIG. 9 will be described. Here, the description will be made assuming that, for example, the rendering engine 520 performs marker processing and photographed video processing in real time during photographing.
  • FIG. 17 is an example in which marker processing is added to the rendering process described in FIG. 6. Since steps S10 to S50 are the same as those in FIG. 6, repeated explanation will be avoided.
  • a frame of background video vB including shooting area video vBC (inner frustum) is generated.
  • the rendering engine 520 performs marker processing from step S51 to step S55 on this background video vB. Note that "P2" and “P3" are added to indicate the correspondence with the marker processing in FIG. 9.
  • step S51 the rendering engine 520 calculates the feature amount of the background video vB.
  • Features include brightness, color, edges, etc.
  • step S52 the rendering engine 520 sets the brightness and color of the boundary marker 60 so that it can be easily distinguished from the background according to the feature amount of the background video vB, and in step S53, the rendering engine 520 sets a marker image having the boundary marker 60 according to the settings. Generate vMK.
  • the background video vB shows a bright scene
  • the brightness of the boundary marker 60 is lowered
  • the background video vB shows a dark scene
  • the brightness of the boundary marker 60 is increased.
  • the background image vB has many vertical lines as edges
  • the boundary marker 60 is set to a pattern with many horizontal line components.
  • the boundary marker 60 may be generated by combining characteristics of brightness, color, and edges. Further, the boundary marker 60 according to the feature amount may be non-uniform, for example, the right half is bright and the left half is dark. In other words, the boundary marker 60 may be changed depending on the characteristics of the background of the area where it is displayed.
  • step S54 the rendering engine 520 stores marker generation information Imk for the boundary marker 60 of the current frame in the storage medium.
  • the marker generation information Imk is made readable in relation to the current frame at a later point in time.
  • step S55 the rendering engine 520 performs a process of adding a boundary marker 60 to the background video vB.
  • step S60 the rendering engine 520 outputs the background video vB including the boundary marker 60 as shown in FIG. 10B, and displays it on the LED wall 505.
  • FIG. 18 shows an example of photographed video processing. "P11" to “P19" are added to indicate the correspondence with the photographed video processing in FIG. 9.
  • the rendering engine 520 acquires information about the LED wall 505 in step S100 prior to photographing. That is, it is information on the arrangement position and angle of the LED wall 505 for the marker position estimation process P12.
  • the rendering engine 520 After the shooting starts, the rendering engine 520 performs steps S101 to S113 for each frame of the shot video vC.
  • step S101 the rendering engine 520 obtains marker generation information Imk regarding the current frame to be processed.
  • step S ⁇ b>102 the rendering engine 520 acquires shooting information regarding the current frame to be processed, particularly information on the position, shooting direction, and angle of view of the camera 502 from the camera tracker 560 .
  • step S103 the rendering engine 520 performs marker position estimation processing P12 using the information on the LED wall 505, the photographing information, and the marker generation information Imk (pattern shape, size), and generates a marker position estimation image vMKb.
  • step S104 the rendering engine 520 sets a threshold based on the marker generation information Imk (luminance, color), performs marker extraction processing P11 from the photographed video vC, and generates a marker extraction image vMKa.
  • Imk luminance, color
  • step S103 may be executed only when proceeding from step S105 to step S106.
  • step S105 the rendering engine 520 determines whether part or all of the boundary marker 60 has been photographed for the current frame. Through the process in step S104, it can be determined whether part or all of the boundary marker 60 is reflected in the current frame.
  • the rendering engine 520 proceeds from step S105 to step S113, and outputs the frame of the captured video vC as it is as the final output video vCF of the captured video.
  • it may be stored in a storage medium as one frame of an output video image taken, or transmitted to an external device.
  • step S105 the rendering engine 520 proceeds from step S105 to step S106, and performs peripheral light fall amount/distortion amount detection processing P13.
  • FIG. 19 shows a specific example of the peripheral light fall amount/distortion amount detection process P13.
  • the rendering engine 520 calculates the amount of peripheral light falloff and the amount of distortion using the marker extraction image vMKa and the marker position estimation image vMKb.
  • the rendering engine 520 performs binarization processing P21 on the marker extraction image vMKa. Since the marker extracted image vMKa is an image obtained by extracting the boundary marker 60 from the photographed video vC, it is not in a binary state. This is binarized and the peripheral light falloff is removed.
  • the rendering engine 520 generates an image to which several levels of lens distortion from small to large are added based on the estimated marker position image vMKb. For example, as shown in FIG. 20, n images are generated from image vMKb1 as image vMKb(n). These images vMKb1 to vMKb(n) have different amounts of distortion in stages.
  • the rendering engine 520 performs a difference calculation P23. This is a process of calculating the difference between each of the images vMKb1 to vMKb(n) and the binarized marker extraction image vMKa.
  • the rendering engine 520 then performs distortion amount determination processing P24. This is done by determining the image with the smallest difference from the binarized marker extraction image vMKa from images vMKb1 to vMKb(n), and calculating the amount of distortion added to that image from the captured image vC of the current frame. This process determines the amount of distortion in . For example, if image vMKb2 is an image with the smallest difference from the binarized marker extraction image vMKa, the amount of distortion added to image vMKb2 becomes the amount of distortion for detection purposes. In the above manner, the amount of distortion in the photographed video vC is detected.
  • the rendering engine 520 performs lens distortion addition processing P25 on the estimated marker position image vMKb in order to detect the amount of peripheral light falloff.
  • the marker position estimation image vMKb has lens distortion like the captured image vC.
  • the image selected in the distortion amount determination process P24 (for example, image vMKb2) may be used as is without performing this lens distortion addition process P25. This is because the same amount of lens distortion is added to the original estimated marker position image vMKb.
  • a peripheral light falloff amount in several stages from small to large is added based on the marker position estimation image vMKb (or similar image vMKb2) to which the detected distortion amount has been added. generate an image. For example, as shown in FIG. 20, m images are generated as image vMKb(m) from image vMKb11. These images vMKb11 to vMKb(m) are made to have different peripheral light falloff amounts in stages.
  • the rendering engine 520 performs a difference calculation P27. This is a process of calculating the difference between each of the images vMKb(m) from the images vMKb11 and the marker extraction image vMKa.
  • the rendering engine 520 performs a peripheral light fall amount determination process P28. This is done by determining the image with the smallest difference from the marker extraction image vMKa among images vMKb(m) from image vMKb11, and calculating the amount of peripheral light falloff added to that image in the surrounding area in the captured video vC of the current frame. This is a process to determine the amount of light falloff. For example, if the image vMKb12 is the image with the smallest difference from the marker extraction image vMKa, the amount of peripheral light loss added to the image vMKb12 becomes the peripheral light amount loss for detection purposes. In the above manner, the amount of peripheral light falloff in the photographed video vC is detected.
  • the rendering engine 520 After the rendering engine 520 performs the peripheral light fall amount/distortion amount detection process P13 as shown in FIG. 19, in step S107 of FIG. 18, it determines whether the A course or the B course is set by the selection processes P17 and P18. The process is branched by
  • the rendering engine 520 proceeds to step S107 and performs mask generation processing P14, and in step S110 performs peripheral light reduction/distortion addition processing P15 on the background image vB.
  • the rendering engine 520 proceeds to step S109, performs mask generation processing P14, and performs peripheral light fall/distortion removal processing P16 on the photographed video vC in step S111.
  • the mask generation process P14 in step S108 will be explained with reference to FIG. Regarding the mask vK, as described above, the first area 111 may be set to "1" and the second area 112 may be set to "0", but in FIG. An example of processing for blending is shown. Note that FIG. 21 is an example of processing in step S108, that is, when course A is selected.
  • the mask vK can be generated based on either the marker extraction image vMKa or the marker position estimation image vMKb.
  • the rendering engine 520 selects which of the marker extraction image vMKa and the marker position estimation image vMKb to generate the mask vK based on.
  • the rendering engine 520 When selecting the marker position estimation image vMKb, the rendering engine 520 adds the amount of distortion detected in step S106 to the marker position estimation image vMKb by distortion addition processing P31. When selecting the marker extracted image vMKa, the rendering engine 520 binarizes the marker extracted image vMKa by binarization processing P32.
  • the rendering engine 520 performs a value setting process P34 on the marker position estimation image vMKb to which this distortion has been added or the binarized marker extraction image vMKa.
  • the boundary marker 60 is indicated by a broken line, but this is added to indicate that the first region 111 is an area inside the boundary marker 60, and the boundary marker 60 is added to the mask vK. Not that it will be done.
  • the rendering engine 520 performs slope addition processing P35.
  • a blend area 111a is set at the boundary between the first area 111 and the second area 112.
  • a slope is applied to the ⁇ channel so that the ⁇ channel changes from “0” to “1” in a direction away from a position in contact with the second region 112.
  • the value of the ⁇ channel is made to change from the outside to the inside as "0.1", "0.2", . . . "0.9".
  • the rendering engine 520 outputs the mask vK with the slope added in this way.
  • peripheral light fall/distortion addition process P15 is performed on the background image vB in step S110. Since course A is selected, a synthesis process P19 is performed using the photographed video vC, the background video vB to which peripheral light falloff and distortion have been added, and the mask vK generated in step S108. .
  • the process of providing the blend area 111a is performed in the same way as in FIG.
  • the mask vK is generated based on the marker position estimation image vMKb
  • the marker position estimation image vMKb may be used as it is to perform the value setting process P34 and the slope addition process P35.
  • the marker extraction image vMKa is binarized, distortion is removed, and then value setting processing P34 and slope addition processing P35 are performed. .
  • peripheral light fall/distortion removal process P16 is performed on the photographed video vC in step S111. Since course B is selected, the synthesis process P19 is performed using the photographed video vC from which peripheral light falloff and distortion have been removed, the background video vB, and the mask vK generated in step S109. .
  • step S112 the rendering engine 520 performs a combining process P19 of the photographed video vC and the background video vB.
  • FIG. 23 shows an example of the combining process P19.
  • the rendering engine 520 performs a multiplication process P41 in which the pixel value of the frame of the captured video vC is multiplied by the ⁇ value of the mask vK.
  • the ⁇ channel in the first region 111 is "1”
  • the pixel values in the captured video vC are maintained as they are.
  • the pixels in the blend area 111a are multiplied by a coefficient set in a slope from "1" to "0" from the inside to the outside according to the position of the pixel. Since the ⁇ channel in the second region 112 is "0", the pixel value in the captured video vC is set to "0".
  • the rendering engine 520 performs an ⁇ value inversion process P42 on the mask vK, and then performs a multiplication process P43 of multiplying the background image vB.
  • the slope value is set from "1" to "0" inward from the second region 112.
  • the rendering engine 520 performs addition synthesis processing P44 on the outputs of multiplication processing P41 and P43.
  • the area inside the blend area 111a is the photographed image vC
  • the second area 112 is the background image vB
  • the blend area 111a is the background image vB gradually from the inside to the outside from a value where the ratio of the photographed image vC is high.
  • the specific gravity changes to a high value, and a final output video vCF as shown in FIG. 16 is obtained.
  • FIG. 23 describes an example in which so-called ⁇ blending is performed, even when the blending region 111a is not provided in the mask vK and the ⁇ value is set to “1” in the first region 111 and “0” in the second region 112, Combining is performed in the process shown in FIG.
  • the focus may not be on the LED wall 505 to avoid problems such as moiré.
  • the background video vB and the photographed video vC to be combined do not have to match exactly in position, brightness, and color on a pixel basis.
  • step S114 the rendering engine 520 determines whether or not to end the process, and if it does not end, the process returns to step S101. In other words, the same processing is performed for the next frame.
  • the rendering engine 520 determines that the shooting has ended in step S114, and ends the process of FIG. 18.
  • FIG. 24 shows the flow of asset creation ST1, production ST2, and post-production ST3 previously explained in FIG.
  • Production ST2 is a stage in which shooting is actually performed in the studio, and this is divided into shooting preparation and shooting.
  • pre-visualization is assumed to be performed mainly at a stage prior to preparation for photographing.
  • the chronological order is not necessarily limited, the pre-visualization may be performed at a stage after the 3D model for rendering the background video vB is created in the asset creation ST1.
  • pre-visualization may be considered to be performed at the final stage of asset creation ST1, or may be considered to be performed at a stage before shooting preparation in production ST2.
  • Video confirmation is a process that allows the director and staff to confirm the captured video vC obtained by shooting, prior to shooting. To enable confirmation mainly including the color tone of a photographed image vC using a simulation image.
  • Moire alert is a process that predicts moire when a staff member is virtually operating the camera position while checking the video, and issues a warning if moire is predicted to appear. This makes it possible to avoid the occurrence of artifacts during subsequent imaging.
  • color calibration is performed along with various settings such as the LED and camera in the photography system 500.
  • a calibration LUT Look Up Table
  • the calibration LUT is, for example, a 3D-LUT. Note that instead of using a 3D-LUT, preparation for calibration may be performed using a combination of a matrix and a 1D-LUT or other video signal processing.
  • the moire alert in this case is a process of outputting a moire alert to a photographer or the like in real time in accordance with the moire determination made by the rendering engine 520.
  • the calibration LUT is a process of canceling color changes related to background video display by the LED wall 505, camera 502, etc. by applying the LUT generated by color calibration during preparation for shooting.
  • On-set camera setting is a process of acquiring camera settings set in pre-visualization from, for example, a cloud server and reflecting them on the camera 502 in the studio.
  • FIG. 25 shows the configuration of the imaging system 500 and the configuration for pre-visualization.
  • the upper part of the drawing shows a simplified configuration of the photographing system 500 described in FIG. 5 etc., and the lower part of the drawing shows the configuration used in pre-visualization (pre-visualization system 700).
  • a rendering engine 520 an LED processor 570, an LED wall 505, a camera 502, a photographed video processing section 85a, and an operation monitor 550 or an output monitor 503 are shown.
  • the rendering engine 520 includes a rendering section 520a and a marker processing section 85b. As a result, the background video vB with the boundary marker 60 attached is displayed on the LED wall 505.
  • a photographed video processing unit 85a that processes the photographed video vC.
  • the photographed video processing unit 85a is provided in the information processing device 70 that constitutes the rendering engine 520 or other equipment.
  • the final output video vCF that is output is recorded on a recording medium as a main video, or transmitted to other equipment for broadcasting or distribution.
  • a pre-visualization system 700 is configured as a system outside the studio, for example.
  • the pre-visualization system 700 includes at least an information processing device 70 functioning as a rendering engine 31 and a monitor 40.
  • the rendering engine 31 is configured by, for example, an information processing device 70 separate from the rendering engine 520.
  • the rendering engine 31 includes a rendering section 32 and a video processing section 33.
  • the rendering unit 32 has the same rendering function as the rendering unit 520a in the rendering engine 520 described above, and can generate a background video vBP based on a 3D model.
  • This rendering unit 32 can render the background video vB using at least the 3D model created in the step of asset creation ST1.
  • the same 3D model used in the production ST2 process is obtained from, for example, the asset server 530 (see FIGS. 5 and 7), and is used for rendering.
  • the rendering unit 32 can render the background video vB including the shooting area video vBC (inner frustum) using the 3D model.
  • the rendering unit 32 receives input of the camera position, shooting direction, and angle of view in order to generate the shooting area video vBC, and performs rendering at a viewpoint position for the 3D model according to the input. Therefore, it is assumed that the camera work (the position of the camera 502, the camera path such as the shooting direction, and the transition of the angle of view) during actual shooting has already been determined. By obtaining information on camera work during actual shooting, it is possible to obtain a shooting area video vBC similar to that during shooting.
  • the background video generated by the rendering unit 32 will be referred to as "background video vBP" to distinguish it from the shooting area video vBC generated by the rendering engine 520 at the time of shooting for the sake of explanation.
  • the video processing unit 33 has a function of performing various video processing on the background video vBP.
  • the video processing section 33 has functions as a marker processing section 85b, a photographed video processing section 85a, and an actual photographic imaging processing section 33a.
  • the video processing unit 33 performs marker processing using the function of the marker processing unit 85b.
  • the boundary marker 60 is added to the peripheral portion of the background video vBP when displayed on the LED wall 505.
  • the video processing unit 33 also performs actual shooting visualization processing using the function of the actual shooting visualization processing unit 33a.
  • Actual shooting visualization processing is processing for generating a simulation video vSM that imitates the camera 502 actually used for shooting.
  • a simulation video vSM is generated for the background video vBP using processing parameters that realize at least the brightness or color characteristics at the time of photographing by the camera 502 used in the photographing system 500.
  • the video processing unit 33 adjusts parameters such as RGB gain, white balance value, gamma value, and offset value to the camera 502.
  • a simulation video vSM with the same hue as the captured video vC is generated, and the simulation video vSM is displayed on the monitor 40. .
  • the monitor 40 indicates a monitor device that displays images output from the information processing device 70 as the rendering engine 31, and may be a monitor device located at a location other than the shooting studio, for example, or a monitor device located in the shooting studio. But that's fine.
  • the monitor 40 may be of any type as long as it displays the simulation video vSM at least in the pre-visualization stage.
  • a rendering unit 32 generates a background video vBP, and a video processing unit 33 performs actual shooting visualization processing to generate a simulation video vSM.
  • the staff can confirm the simulation video vSM that has the same color tone as the background video included in the captured video vC at the time of shooting. This makes it possible to check the colors prior to photographing and, if necessary, adjust the colors in the camera 502 and the camera signal processing unit 515 during the preparation stage for photographing.
  • the video processing section 33 executes a part of the photographed video processing for the simulation video vSM using the function of the photographed video processing section 85a.
  • FIG. 26 shows a processing example of the video processing section 33.
  • step S200 the video processing unit 33 acquires information on the placement position and angle of the LED wall 505 at the time of shooting.
  • the video processing unit 33 After starting the generation of the simulation video vSM, the video processing unit 33 performs the processes from steps S201 to S208 for each frame of the captured video vC.
  • step S201 the video processing unit 33 acquires marker generation information Imk regarding the current processing target frame of the simulation video vSM.
  • the video processing unit 33 acquires information on the position, shooting direction, and angle of view of the camera 502 as shooting information at the time of actual shooting for the current frame to be processed.
  • information on the position, shooting direction, and angle of view of the camera 502 corresponding to the frame of the simulation video vSM can be obtained.
  • step S203 the video processing unit 33 performs marker position estimation processing P12 using the information on the LED wall 505, the photographing information, and the marker generation information Imk (pattern shape, size), and generates a marker position estimation image vMKb.
  • step S204 the video processing unit 33 sets a threshold based on the marker generation information Imk (luminance, color), performs marker extraction processing P11 from the simulation video vSM, and generates a marker extraction image vMKa.
  • Imk luminance, color
  • step S205 the video processing unit 33 determines whether part or all of the boundary marker 60 is included in the current frame. If the current frame does not include the boundary marker 60, the process advances to step S208.
  • step S206 the video processing unit 33 proceeds to step S206 and performs peripheral light fall amount/distortion amount detection processing P13. Then, in step S207, the amount of peripheral light falloff and the amount of distortion are stored as information for the current frame. For example, it is stored in the DB 42 in FIG. 25 so that it can be referenced when processing the photographed video at the time of photographing.
  • the video processing unit 33 repeats the above processing for each frame until it is determined to be finished in step S208.
  • the DB 42 detects the amount of peripheral light falloff and the amount of distortion for each frame of the photographed video vC before photographing. Therefore, it is not necessary to execute step S106 during the photographed video processing in FIG. 18. Furthermore, depending on this, either one of steps S103 and S104 may be performed. This is because a mask can be generated from either the marker extraction image vMKa or the marker position estimation image vMKb.
  • the information processing device 70 of the embodiment is, for example, a rendering engine 520, a processor in the camera 502, or a device that inputs the shot video vC from the camera 502 during shooting, and performs shot video processing and marker processing.
  • the information processing device 70 of the embodiment is used as a device that performs video editing in post-production ST3, and performs photographed video processing.
  • the information processing device 70 of the embodiment is used as the rendering engine 31 used in the pre-visualization stage, and performs marker processing and photographed video processing.
  • the information processing device 70 as described above is configured to detect a target frame of the captured video vC for a captured video vC captured by a camera 502 of an LED wall 505 that displays an image in which a boundary marker 60 is added to a virtual video such as a background video vB.
  • the configuration includes a photographed video processing unit 85a that performs a determination process to determine the position of the boundary marker in .
  • the photographed video processing unit 85a performs a process of extracting the boundary marker 60 from the target frame of the photographed video vC based on the marker generation information Imk as the determination process. That is, in the marker extraction process P11, the photographed video processing unit 85a in the information processing device 70 such as the rendering engine 520 acquires information on the brightness and color of the boundary marker 60 from the marker generation information Imk, and accordingly identifies the boundary in the photographed video vC.
  • the marker 60 is extracted.
  • the boundary marker 60 is generated by selecting a clear brightness or color for the color or background content of the background video vB
  • the boundary marker 60 can be extracted from the photographed video vC by obtaining information on the brightness or color. be able to do it accurately.
  • the brightness and color of the boundary marker 60 may be set depending on the content of the background video vB. Therefore, it is possible to make the boundary marker 60 stand out in the background image vB.
  • the photographed video processing unit 85a performs determination processing on the photographed video vC based on the photographing information including the position information, photographing direction, and angle of view of the camera 502 at the time of photographing, and the position information of the LED wall 505.
  • Marker position estimation processing P12 is performed to estimate the position of the boundary marker 60 in the target frame. This makes it possible to accurately determine the position of the boundary marker 60 in the photographed video vC without lens distortion or the like.
  • the photographed video processing unit 85a performs a first determination process (marker extraction process P11) for extracting the boundary marker 60 from the target frame of the photographed video vC, and determines the position of the boundary marker 60 in the target frame of the photographed video vC.
  • a second determination process (marker position estimation process P12) is performed to estimate the marker position.
  • the photographed video processing unit 85a performs a process of calculating the amount of distortion of the photographed video vC using the marker extraction image vMKa and the marker position estimation image vMKb which are the results of these processes (see step S106 in FIG. 18 and FIG. 19). ). By determining the amount of distortion, it becomes possible to accurately add distortion to the background video vB, etc.
  • the photographed video processing unit 85a generates a marker extraction image vMKa and a marker position estimation image vMKb by the first determination process (marker extraction process P11) and the second determination process (marker position estimation process P12). is used to calculate the amount of light falloff at the periphery of the photographed video vC (see step S106 in FIG. 18 and FIG. 19).
  • the amount of peripheral light falloff it becomes possible to add peripheral light falloff to the extra-frame additional video vOT and to accurately remove the peripheral light falloff from the photographed video vC, resulting in a seamless composition of the extra-frame additional video vOT. becomes possible. This makes it possible to improve the quality of the final output video vCF.
  • the photographed video processing unit 85a distinguishes between a first region 111 that is inward from the boundary marker 60 in the target frame of the photographed video vC, and a second region 112 that is outside the first region 111.
  • composition processing is performed to replace the second region 112 including the boundary marker 60 in the captured video vC with the extra-frame additional video vOT, and a final output video vCF is output in which the portion protruding from the LED wall 505 also serves as an appropriate background. can.
  • such mask generation processing P14 and composition processing P19 may be performed in real time during photographing, but one or both may be performed at the stage of post-production ST3.
  • shooting information including position information, shooting direction, and angle of view of the camera 502 at the time of shooting, position information of the LED wall 505, and marker generation information Imk are stored in association with each frame of the shot video vC
  • the processing shown in FIG. 18 becomes possible during post-production ST3.
  • the background video vB is stored in association with each frame of the photographed video vC
  • the background video vB can be used as is in the processing of steps S109 and S110.
  • a mask vK may be generated in real time during shooting, stored in association with each frame of the shot video vC, and read out and used during composition processing in post-production ST3.
  • the photographed image processing unit 85a performs the combining process P19 to combine the image of the first area 111 in the photographed image vC with an extra-frame additional image to which the amount of distortion or the amount of peripheral light falloff occurring in the photographed image vC is added.
  • Synthesis with vOT may be performed. That is, this is the case where the A course is selected in the selection processes P17 and P18 in FIG.
  • an additional out-of-frame video vOT to which similar distortion and peripheral light falloff have been added is synthesized in the second region 112 with the photographed video vC in the first region 111. Therefore, the extra-frame additional video vOT is combined with the photographed video vC without any discomfort. Particularly in this case, it is possible to obtain the final output video vCF in which lens distortion of the camera 502 and the like are taken advantage of.
  • the amount of distortion can be calculated for each frame at the pre-visualization stage (see FIG. 26). This eliminates the need for step S106 in the process shown in FIG. 18 during photographing, and reduces the processing load for adding the amount of distortion to the background video vB, etc., which becomes the additional outside-frame video vOT. Therefore, it is suitable for performing the processing in FIG. 18 in real time during photographing.
  • the photographed video processing unit 85a in the synthesis process P19, combines the video of the first area 111 in the photographed video vC from which the amount of distortion or the amount of peripheral light fall has been removed, and the additional outside-frame video vOT (background video vB). etc.). That is, this is the case where the B course is selected in the selection processes P17 and P18 in FIG.
  • the extra-frame additional video vOT to which distortion and peripheral light loss have not been added is synthesized with the photographed video vC from which distortion and peripheral light loss in the first region 111 have been removed. Therefore, the extra-frame additional video vOT is combined with the photographed video vC without any discomfort. Particularly in this case, it is possible to obtain the final output video vCF in which lens distortion of the camera 502 is canceled.
  • step S106 in the process of Fig. 18 at the time of shooting becomes unnecessary, and the peripheral light falloff amount for the captured image vC can be calculated in advance (see Fig. 26).
  • the processing load for removing the amount is reduced. Therefore, it is suitable for performing the processing in FIG. 18 in real time during photographing.
  • the image of the first area 111 in the captured image vC is always synthesized with the additional outside-frame image vOT (background image vB, etc.) to which the amount of distortion or peripheral light falloff that has occurred in the captured image vC is added. It may also be something you do.
  • the image of the first area 111 in the captured image vC from which the amount of distortion or amount of peripheral light fall has been removed may be always synthesized with the additional outside-frame image vOT (background image vB, etc.).
  • the photographed video processing unit 85a gradually changes the video ratio of the outside-of-frame additional video vOT of the photographed video vC and the background video vB, etc. near the boundary between the first area 111 and the second area 112.
  • the vicinity of the boundary of the first region 111 is set as the blend region 111a, and the ⁇ value of the mask vK is changed stepwise between "0" and "1".
  • the boundary between the photographed video vC and the extra-frame additional video vOT can be made less noticeable, and the quality of the final output video vCF can be improved.
  • the background video vB rendered to be displayed on the LED wall 505 is used as the extra-frame additional video vOT.
  • the background video vB is used as it is as the extra-frame additional video vOT.
  • the video of the second area 112 may be generated separately from the background video vB and used as the extra-frame additional video vOT.
  • the information processing device 70 includes the marker processing unit 85b that performs a process of adding the boundary marker 60 to the background video vB (virtual video) displayed on the LED wall 505.
  • the boundary marker 60 is displayed on the LED wall 505. Therefore, the above-described processing by the photographed video processing section 85a becomes possible.
  • the functions of the photographed video processing unit 85a and the marker processing unit 85b may be provided by the information processing device 70 such as the rendering engine 520, or may be provided by separate information processing devices 70, respectively. .
  • the marker processing unit 85b generates a boundary marker 60 having a pattern that indicates the boundary of the display area of the LED wall 505 and can detect the amount of distortion and the amount of peripheral light fall due to photography by the camera 502, and generates the boundary marker 60 to display the background image.
  • An example of adding it to vB was given.
  • the boundary marker 60 has a boundary line 61 and a detection pattern 62. This enables the photographed video processing section 85a to detect the amount of peripheral light falloff and the amount of distortion, as well as to remove and add these.
  • the boundary marker 60 may be any marker that has at least a boundary line 61 and can detect that the photographing range has protruded outside the frame of the LED wall 505. In other words, there are examples in which the detection pattern 62 is not provided.
  • the marker processing unit 85b performs a process of adding a boundary marker 60 to a position corresponding to the peripheral edge of the LED wall 505 in the background video vB displayed on the LED wall 505.
  • the entire area of the background video vB generated by rendering is not necessarily displayed on the LED wall 505.
  • a background video vB having a wider range than the actual display area 100 may be generated. Therefore, as shown in FIG. 10B, a boundary marker 60 is added to the periphery of the actual display area 100, which is the range actually displayed by the LED wall 505.
  • the boundary marker 60 is displayed on the periphery of the LED wall 505, and the processing by the photographed video processing section 85a can be appropriately executed. Note that, for example, if the entire background image vB as shown in FIG. 10A is displayed by the LED wall 505, it is appropriate to add the boundary marker 60 to the periphery of the entire background image vB.
  • the marker processing unit 85b performs a process of recording marker generation information Imk (see step S54 in FIG. 17).
  • marker generation information Imk such as the brightness, color, pattern shape, and size of the boundary marker 60 is stored in a recording medium. This makes it possible to extract markers from the photographed video vC even at the timing after marker addition, for example at the stage of post-production ST3.
  • the information processing device 70 in FIG. 8 is an example in which the video processing unit 33 includes both a photographed video processing unit 85a, which has the function of performing photographed video processing, and a marker processing unit 85b, which has the function of performing marker processing. Not limited to. For example, an information processing device 70 that includes the marker processing section 85b but does not include the photographed video processing section 85a, or an information processing device 70 that includes the photographed video processing section 85a but does not include the marker processing section 85b is also envisioned.
  • the background video vB which is the video displayed on the LED wall 505
  • the background video vB is a virtual video obtained by rendering using a 3D model, but for example, when displaying a live-action video on the LED wall 505, boundary markers Marker processing that adds 60 and captured video processing for captured video vC are effective.
  • the program of the embodiment is a program that causes a processor such as a CPU, a DSP, or a device including these to execute the processes shown in FIGS. 17, 18, and 26 described above. That is, the program of the embodiment is a photographed image captured by a camera of a display displaying an image (for example, a virtual image such as a background image vB) including a boundary marker 60 to be displayed at the peripheral part of a display area of a display such as an LED wall 505.
  • This causes the information processing device 70 to execute processing for determining the position of the boundary marker 60 in the target frame of the photographed video vC for vC.
  • the information processing device 70 operating in production ST2 such as the above-mentioned rendering engine 520, the information processing device 70 used in post-production ST3, or the information processing device 70 used in pre-visualization, can be controlled in various ways. This can be realized by computer equipment.
  • Such a program can be recorded in advance in an HDD as a recording medium built into equipment such as a computer device, or in a ROM in a microcomputer having a CPU.
  • such programs can be used for flexible discs, CD-ROMs (Compact Disc Read Only Memory), MO (Magneto Optical) discs, DVDs (Digital Versatile Discs), Blu-ray Discs (registered trademark), magnetic It can be stored (recorded) temporarily or permanently in a removable recording medium such as a disk, semiconductor memory, or memory card.
  • a removable recording medium can be provided as so-called package software.
  • a program In addition to installing such a program into a personal computer or the like from a removable recording medium, it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • Such a program is suitable for widely providing the information processing device 70 of the embodiment.
  • a program for example, by downloading a program to a personal computer, communication device, mobile terminal device such as a smartphone or tablet, mobile phone, game device, video device, PDA (Personal Digital Assistant), etc., these devices can be used as the information processing device of the present disclosure. 70.
  • the present technology can also adopt the following configuration.
  • Photographing in which a determination process is performed to determine the position of the boundary marker in a target frame of the photographed video, with respect to a photographed video taken with a camera of the display that displays a video including a boundary marker to be displayed on a peripheral portion of the display area of the display.
  • the photographed video processing unit determines the boundary in the target frame of the photographed video based on photographing information including position information, photographing direction, and angle of view of the camera at the time of photographing, and position information of the display.
  • the information processing device according to (1) or (2) above, which performs a process of estimating the position of a marker.
  • the photographed video processing section includes: a first determination process of extracting the boundary marker from the target frame of the captured video; a second determination process for estimating the position of the boundary marker in the target frame of the captured video; Performing a process of calculating the amount of distortion of the photographed video based on the determination result of the first determination process and the determination result of the second determination process. Any one of (1) to (3) above.
  • the photographed video processing section includes: a first determination process of extracting the boundary marker from the target frame of the captured video; a second determination process for estimating the position of the boundary marker in the target frame of the captured video; Performing a process of calculating a peripheral light falloff amount of the photographed image based on the determination result of the first determination process and the determination result of the second determination process.
  • the information processing device according to any one of the above.
  • the photographed video processing section includes: A process of generating a mask that distinguishes between a first area that is inside the boundary marker and a second area that is outside the first area in the target frame of the captured video; (1) to (5) above, using the mask to perform a compositing process of composing an additional video corresponding to the second region with the video of the first region in the captured video; The information processing device according to any one of. (7)
  • the photographed video processing section includes: In the synthesis process, The information processing device according to (6), wherein the image of the first area in the captured image is synthesized with the additional image to which the amount of distortion or the amount of peripheral light falloff occurring in the captured image is added.
  • the photographed video processing section includes: In the synthesis process, The information processing device according to (6) above, wherein the image of the first area in the captured image from which the amount of distortion or the amount of peripheral light fall has been removed is synthesized with the additional image.
  • the photographed video processing section includes: In the synthesis process, The information processing device according to any one of (6) to (8) above, wherein the captured video and the additional video are combined by changing the video ratio in stages in a boundary region between the first region and the second region. . (10) The information processing apparatus according to any one of (6) to (9) above, wherein a virtual image rendered to be displayed on the display is used as the additional image.
  • the information processing device according to any one of (1) to (10), further comprising a marker processing unit that performs a process of adding the boundary marker to an image displayed on the display.
  • a marker processing unit that performs a process of adding the boundary marker to an image displayed on the display.
  • the marker processing unit generates the boundary marker having a pattern capable of detecting the amount of distortion or the amount of peripheral light fall due to photography by a camera, and adds it to the image displayed on the display. .
  • (13) The information processing device according to (11) or (12), wherein the marker processing unit performs a process of adding the boundary marker to a position corresponding to a peripheral edge of the display in an image displayed on the display.
  • the information processing device according to any one of (11) to (13), wherein the marker processing unit performs a process of recording generation information of the boundary marker.
  • the video displayed on the display is a virtual video obtained by rendering using a 3D model.
  • An information processing device comprising: a marker processing unit that performs a process of adding a boundary marker to be displayed on a peripheral portion of a display area of the display to an image to be displayed on a display to be photographed by a camera.
  • Information processing apparatus that performs processing for determining the position of the boundary marker in a target frame of the photographed video, with respect to a photographed video taken with a camera of the display that displays the video including the boundary marker to be displayed on the peripheral part of the display area of the display. Information processing method carried out by.
  • Information processing apparatus that performs processing for determining the position of the boundary marker in a target frame of the photographed video, with respect to a photographed video taken with a camera of the display that displays the video including the boundary marker to be displayed on the peripheral part of the display area of the display. A program to run.
  • 60 boundary marker 70 information processing device 71 CPU 85 Video processing section 85a Output video processing section 85b Marker processing section 111 First area 112 Second area 502 Camera 505 LED wall 520 Rendering engine vB Background image vBC Shooting area image (inner frustum) vC Captured video vCF Final output video vMK Marker image vMKa Marker extraction image vMKb Marker position estimation image vOT Additional video outside the frame vK Mask Imk Marker generation information

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)

Abstract

情報処理装置は、ディスプレイの表示領域における周縁部に表示させる境界マーカーを含む映像を表示する前記ディスプレイをカメラで撮影した撮影映像に対して、撮影映像の対象フレームにおける境界マーカーの位置を判定する判定処理を行う撮影映像処理部を備えるようにする。

Description

情報処理装置、情報処理方法、プログラム
 本技術は情報処理装置、情報処理方法、プログラムに関し、例えば映像制作の分野で用いることのできる技術に関する。
 映画等の映像コンテンツの制作のための撮影手法として、いわゆるグリーンバックの前で演者が演技を行い、後に背景映像を合成する技術が知られている。
 また近年はグリーンバック撮影に代わって、大型のディスプレイを設置したスタジオにおいて、ディスプレイに背景映像を表示させ、その前で演者が演技を行うことで、演者と背景を撮影できる撮影システムも開発され、いわゆるバーチャルプロダクション(Virtual Production)、インカメラVFX(In-Camera VFX)、またはLED(Light Emitting Diode)ウォールバーチャルプロダクション(LED Wall Virtual Production)として知られている。
 下記特許文献1には、背景映像の前で演技する演者や物体を撮影するシステムの技術が開示されている。
米国特許出願公開第2020/0145644号明細書
 大型のディスプレイに背景映像を表示させたうえで、演者及び背景映像をカメラで撮影することによれば、撮影後に背景映像を別途合成しなくてもよいことや、演者やスタッフがシーンを視覚的に理解して演技や演技良否の判断ができるなど、グリーンバック撮影に比べて利点が多い。
 ただし背景映像等が表示されている範囲はディスプレイの枠内であり有限である。カメラの位置、撮影方向、或いはズーム画角によっては、撮影している範囲がディスプレイの枠外にはみ出してしまうこともある。
 このような場合、撮影を無駄にしないためには、後にはみ出し他部分を検出して、合成処理などにより映像を修正する必要があるが、極めて手間のかかる作業となる。またこれを避けるためには、カメラマンがディスプレイの範囲を注意して撮影しなければならず、フレーミングに制限がかかる。
 そこで本開示では、ディスプレイの枠外を撮影したような場合でも、映像制作の効率を低下させないような技術を提案する。
 本技術に係る情報処理装置は、ディスプレイの表示領域における周縁部に表示させる境界マーカーを含む映像を表示する前記ディスプレイをカメラで撮影した撮影映像に対して、撮影映像の対象フレームにおける前記境界マーカーの位置を判定する判定処理を行う撮影映像処理部を備える。
 また本技術に係る情報処理装置は、カメラによる撮影対象となるディスプレイに表示させる映像に対して、前記ディスプレイの表示領域内の周縁部に表示させる境界マーカーを付加する処理を行うマーカー処理部を備える。
 例えばディスプレイに表示させる背景映像について、ディスプレイの周縁部に表示される境界マーカーを付加しておく。境界マーカーは、ディスプレイの枠の範囲を撮影映像上で正確に検出できるようにするものである。映像処理部は、撮影映像について、この境界マーカーを検出する。
本技術の実施の形態の撮影システムの説明図である。 実施の形態の撮影システムのカメラ位置に応じた背景映像の説明図である。 実施の形態の撮影システムのカメラ位置に応じた背景映像の説明図である。 実施の形態の映像コンテンツ制作工程の説明図である。 実施の形態の撮影システムのブロック図である。 実施の形態の撮影システムの背景映像生成のフローチャートである。 実施の形態の複数カメラを用いた撮影システムのブロック図である。 実施の形態の情報処理装置のブロック図である。 実施の形態のマーカー処理及び撮影映像処理の説明図である。 実施の形態で表示される背景映像の説明図である。 実施の形態の境界マーカーの説明図である。 実施の形態の境界マーカーを含む撮影映像の説明図である。 実施の形態の抽出されたマーカー画像の説明図である。 実施の形態の位置推定されたマーカー画像の説明図である。 実施の形態のマスクの説明図である。 実施の形態の最終出力映像の説明図である。 実施の形態のマーカー処理を含むレンダリングのフローチャートである。 実施の形態の撮影映像処理のフローチャートである。 実施の形態の周辺光量落ち量と歪量の算出の説明図である。 実施の形態の周辺光量落ち量と歪量の算出のための比較の説明図である。 実施の形態のマスク生成の説明図である。 実施の形態のマスクのブレンディングの説明図である。 実施の形態の合成処理の説明図である。 実施の形態のプレビジュアライゼーションの説明図である。 実施の形態のプレビジュアライゼーションの構成例のブロック図である。 実施の形態のプレビジュアライゼーションでの処理例のフローチャートである。
 以下、実施の形態を次の順序で説明する。
<1.撮影システム及びコンテンツ制作>
<2.情報処理装置の構成>
<3.マーカー処理及び撮影映像処理>
<4.処理例>
<5.プレビジュアライゼーションでの処理>
<6.まとめ及び変型例>
 なお、本開示において「映像」或いは「画像」とは静止画、動画のいずれをも含む。また「映像」とはディスプレイに表示されている状態を指すだけでなく、ディスプレイに表示されていない状態の映像データについても包括的に「映像」と表記する場合がある。「画像」も同様である。
 例えば実施の形態において、ディスプレイでの表示に至る前における背景映像、カメラによる撮影映像、スイッチャーで切り替えられる背景映像や撮影映像は、実際に表示されている映像ではなく映像データであるが、便宜上「背景映像」「撮影映像」等と表記する。
<1.撮影システム及び映像コンテンツ制作>
 本開示の技術を適用できる撮影システム及び映像コンテンツの制作について説明する。
 図1は撮影システム500を模式的に示している。この撮影システム500はバーチャルプロダクションとしての撮影を行うシステムで、図では撮影スタジオに配置される機材の一部を示している。
 撮影スタジオにおいては演者510が演技その他のパフォーマンスを行うパフォーマンスエリア501が設けられる。このパフォーマンスエリア501の少なくとも背面、さらには左右側面や上面には、大型の表示装置が配置される。表示装置のデバイス種別は限定されないが、図では大型の表示装置の一例としてLEDウォール505を用いる例を示している。
 1つのLEDウォール505は、複数のLEDパネル506を縦横に連結して配置することで、大型のパネルを形成する。ここでいうLEDウォール505のサイズは特に限定されないが、演者510の撮影を行うときに背景を表示するサイズとして必要な大きさ、或いは十分な大きさであればよい。
 パフォーマンスエリア501の上方、或いは側方などの必要な位置に、必要な数のライト580が配置され、パフォーマンスエリア501に対して照明を行う。
 パフォーマンスエリア501の付近には、例えば映画その他の映像コンテンツの撮影のためのカメラ502が配置される。カメラ502は、カメラマン512が位置を移動させることができ、また撮影方向や、画角等の操作を行うことができる。もちろんリモート操作によってカメラ502の移動や画角操作等が行われるものも考えられる。またカメラ502が自動的もしくは自律的に移動や画角変更を行うものであってもよい。このためにカメラ502が雲台や移動体に搭載される場合もある。
 カメラ502によって、パフォーマンスエリア501における演者510と、LEDウォール505に表示されている映像がまとめて撮影される。例えばLEDウォール505に背景映像vBとして風景が表示されることで、演者510が実際にその風景の場所に居て演技をしている場合と同様の映像を撮影できることになる。
 パフォーマンスエリア501の付近にはアウトプットモニタ503が配置される。このアウトプットモニタ503にはカメラ502で撮影されている映像がモニタ映像vMとしてリアルタイム表示される。これにより映像コンテンツの制作を行う監督やスタッフが、撮影されている映像を確認することができる。
 このように、撮影スタジオにおいてLEDウォール505を背景にした演者510のパフォーマンスを撮影する撮影システム500では、グリーンバック撮影に比較して各種の利点がある。
 例えば、グリーンバック撮影の場合、演者が背景やシーンの状況を想像しにくく、それが演技に影響するということがある。これに対して背景映像vBを表示させることで、演者510が演技しやすくなり、演技の質が向上する。また監督その他のスタッフにとっても、演者510の演技が、背景やシーンの状況とマッチしているか否かを判断しやすい。
 またグリーンバック撮影の場合よりも撮影後のポストプロダクションが効率化される。これは、いわゆるクロマキー合成が不要とすることができる場合や、色の補正や映り込みの合成が不要とすることができる場合があるためである。また、撮影時にクロマキー合成が必要とされた場合においても、緑や青の映像を表示するだけで済むため物理的な背景用スクリーンを追加不要とされることも効率化の一助となっている。
 グリーンバック撮影の場合、演者の身体、衣装、物にグリーンの色合いが増してしまうため、その修正が必要となる。またグリーンバック撮影の場合、ガラス、鏡、スノードームなどの周囲の光景が映り込む物が存在する場合、その映り込みの画像を生成し、合成する必要があるが、これは手間のかかる作業となっている。
 これに対し、図1の撮影システム500で撮影する場合、グリーンの色合いが増すことはないため、その補正は不要である。また背景映像vBを表示させることで、ガラス等の実際の物品への映り込みも自然に得られて撮影されているため、映り込み映像の合成も不要である。
 ここで、背景映像vBについて図2、図3で説明する。背景映像vBを、LEDウォール505に表示させて、演者510とともに撮影を行うにしても、単純に背景映像vBを表示させるのみでは、撮影された映像は背景が不自然になる。実際には立体で奥行きもある背景を平面的に背景映像vBとしているためである。
 例えばカメラ502は、パフォーマンスエリア501の演者510に対して、多様な方向から撮影することができ、またズーム操作も行うことができる。演者510も一カ所に立ち止まっているわけではない。するとカメラ502の位置、撮影方向、画角などに応じて、演者510の背景の実際の見え方は変化するはずであるが、平面映像としての背景映像vBではそのような変化が得られない。そこで背景が、視差を含めて、実際の見え方と同様になるように背景映像vBを変化させる。
 図2はカメラ502が図の左側の位置から演者510を撮影している様子を示し、また図3はカメラ502が図の右側の位置から演者510を撮影している様子を示している。各図において、背景映像vB内に撮影領域映像vBCを示している。
 なお背景映像vBのうちで撮影領域映像vBCを除いた部分は「アウターフラスタム」と呼ばれ、撮影領域映像vBCは「インナーフラスタム」と呼ばれる。
 ここで説明している背景映像vBとは、撮影領域映像vBC(インナーフラスタム)を含んで背景として表示される映像全体を指す。
 この撮影領域映像vBC(インナーフラスタム)の範囲は、LEDウォール505の表示面内で、カメラ502によって実際に撮影される範囲に相当する。そして撮影領域映像vBCは、カメラ502の位置、撮影方向、画角等に応じて、実際にそのカメラ502の位置を視点としたときに見える光景を表現するような映像となっている。
 具体的には、撮影領域映像vBCは、背景としての3D(three dimensions)モデルである3D背景データを用意し、その3D背景データに対して、リアルタイムで逐次、カメラ502の視点位置に基づいてレンダリングする。
 なお、実際には撮影領域映像vBCの範囲は、その時点でカメラ502によって撮影される範囲よりも少し広い範囲とされる。これはカメラ502のパン、チルトやズームなどにより撮影される範囲が若干変化したときに、描画遅延によってアウターフラスタムの映像が映り込んでしまうことを防止するためや、アウターフラスタムの映像からの回折光による影響を避けるためである。
 このようにリアルタイムでレンダリングされた撮影領域映像vBCの映像は、アウターフラスタムの映像と合成される。背景映像vBで用いられるアウターフラスタムの映像は、予め3D背景データに基づいてレンダリングされたものである場合や、毎フレーム或いは間欠的なフレーム毎に、リアルタイムにレンダリングされる場合があるが、そのアウターフラスタムの映像の一部に、撮影領域映像vBC(インナーフラスタム)の映像を組み込むことで、全体の背景映像vBを生成している。
 なお、アウターフラスタムの映像もインナーフラスタムと同様に毎フレームレンダリングするケースがあるが、ここでは静止した映像を例にとり、以降の説明では主にアウターフラスタムの映像は先頭フレームのみレンダリングする場合を例として説明する。
 これにより、カメラ502を前後左右に移動させたり、ズーム操作を行ったりしても、演者510とともに撮影される範囲の背景は、実際のカメラ502の移動に伴う視点位置やFOV(Field of View(視野))の変化に応じた映像として撮影されることになる。
 図2、図3に示すように、アウトプットモニタ503には、演者510と背景を含むモニタ映像vMが表示されるが、これが撮影された映像である。このモニタ映像vMにおける背景は、撮影領域映像vBCである。つまり撮影された映像に含まれる背景は、リアルタイムレンダリングされた映像となる。
 このように実施の形態の撮影システム500においては、単に背景映像vBを平面的に表示させるだけではなく、実際に風景を撮影した場合と同様の映像を撮影することができるように、撮影領域映像vBCを含む背景映像vBをリアルタイムに変化させるようにしている。
 なお、LEDウォール505に表示させた背景映像vBの全体ではなく、カメラ502によって映り込む範囲としての撮影領域映像vBCのみをリアルタイムにレンダリングすることで、システムの処理負担も軽減するような工夫を行ってもよい。
 ここで、撮影システム500で撮影を行うバーチャルプロダクションとしての映像コンテンツの制作工程を説明しておく。図4に示すように、映像コンテンツ制作工程は3つの段階に大別される。アセットクリエイションST1、プロダクションST2、ポストプロダクションST3である。
 アセットクリエイションST1は、背景映像vBを表示するための3D背景データを制作する工程である。上述のように背景映像vBは、撮影の際に3D背景データを用いてリアルタイムでレンダリングを行って生成する。そのために予め3Dモデルとしての3D背景データを制作しておく。
 3D背景データの制作手法の例として、フルCG(Full Computer Graphics)、点群データ(Point Cloud)スキャン、フォトグラメトリ(Photogrammetry)という例がある。
 フルCGは、3Dモデルをコンピュータグラフィックスで制作する手法である。3つの手法の中で最も工数や時間を要する手法となるが、非現実的な映像や、実際には撮影が困難な映像などを背景映像vBとしたい場合に用いられることが好適となる。
 点群データスキャンは、ある位置から例えばライダー(LiDAR)を用いて距離測定を行うとともに、同じ位置からカメラで360度の画像を撮影し、ライダーで測距した点の上にカメラで撮影した色データを載せることで点群データによる3Dモデルを生成する手法である。フルCGに比較して、短い時間で3Dモデル制作ができる。またフォトグラメトリより高精細の3Dモデルを制作しやすい。
 フォトグラメトリは、物体を複数視点から撮影して得た2次元画像から、視差情報を解析して寸法・形状を求める写真測量の技術である。3Dモデル制作を短時間で行うことができる。
 なお、フォトグラメトリによる3Dデータ生成において、ライダーで取得した点群情報を用いても良い。
 アセットクリエイションST1では、例えばこれらの手法を用いて3D背景データとなる3Dモデルを制作する。もちろん上記手法を複合的に用いてもよい。例えば点群データスキャンやフォトグラメトリで制作した3Dモデルの一部をCGで制作し、合成するなどである。
 プロダクションST2は、図1に示したような撮影スタジオにおいて撮影を行う工程である。この場合の要素技術として、リアルタイムレンダリング、背景表示、カメラトラッキング、照明コントロールなどがある。
 リアルタイムレンダリングは、図2、図3で説明したように各時点(背景映像vBの各フレーム)で撮影領域映像vBCを得るためのレンダリング処理である。これはアセットクリエイションST1で制作した3D背景データに対して、各時点のカメラ502の位置等に応じた視点でレンダリングを行うものである。
 このようにリアルタイムレンダリングを行って撮影領域映像vBCを含む各フレームの背景映像vBを生成し、LEDウォール505に表示させる。
 カメラトラッキングは、カメラ502による撮影情報を得るために行われ、カメラ502の各時点の位置情報、撮影方向、画角などをトラッキングする。これらを含む撮影情報を各フレームに対応させてレンダリングエンジンに提供することで、カメラ502の視点位置等に応じたリアルタイムレンダリングが実行できる。
 撮影情報はメタデータとして映像と紐づけられたり対応づけられたりする情報である。
 撮影情報としては各フレームタイミングでのカメラ502の位置情報、カメラの向き、画角、焦点距離、F値(絞り値)、シャッタースピード、レンズ情報などを含むことが想定される。
 照明コントロールとは、撮影システム500における照明の状態をコントロールすることで、具体的にはライト580の光量、発光色、照明方向などの制御を行う。例えば撮影するシーンの時刻設定や場所の設定などに応じた照明コントロールが行われる。
 ポストプロダクションST3は、撮影後に行われる各種処理を示している。例えば映像の補正、映像の調整、クリップ編集、映像エフェクトなどが行われる。
 映像の補正としては、色域変換や、カメラや素材間の色合わせなどが行われる場合がある。
 映像の調整として色調整、輝度調整、コントラスト調整などが行われる場合がある。
 クリップ編集として、クリップのカット、順番の調整、時間長の調整などが行われる場合がある。
 映像エフェクトとして、CG映像や特殊効果映像の合成などが行われる場合がある。
 続いてプロダクションST2で用いられる撮影システム500の構成を説明する。
 図5は、図1、図2、図3で概要を説明した撮影システム500の構成を示すブロック図である。
 図5に示す撮影システム500は、上述した、複数のLEDパネル506によるLEDウォール505、カメラ502、アウトプットモニタ503、ライト580を備える。そしてさらに撮影システム500は、図5に示すように、レンダリングエンジン520、アセットサーバ530、シンクジェネレータ540、オペレーションモニタ550、カメラトラッカー560、LEDプロセッサ570、ライティングコントローラ581、ディスプレイコントローラ590を備える。
 LEDプロセッサ570のそれぞれは、1又は複数のLEDパネル506に対応して設けられ、それぞれ対応する1又は複数のLEDパネル506の映像表示駆動を行う。
 シンクジェネレータ540は、LEDパネル506による表示映像のフレームタイミングと、カメラ502による撮像のフレームタイミングの同期をとるための同期信号を発生し、各LEDプロセッサ570、カメラ502、及びレンダリングエンジン520に供給する。
 カメラトラッカー560は、各フレームタイミングでのカメラ502による撮影情報を生成し、レンダリングエンジン520に供給する。例えばカメラトラッカー560は撮影情報の1つとして、LEDウォール505の位置或いは所定の基準位置に対する相対的なカメラ502の位置情報や、カメラ502の撮影方向を検出し、これらをレンダリングエンジン520に供給する。
 カメラトラッカー560による具体的な検出手法としては、天井にランダムに反射板を配置して、それらに対してカメラ502に組み付けられたカメラトラッカー560から照射された赤外光の反射光から位置を検出する方法がある。また検出手法としては、カメラ502の雲台やカメラ502の本体に搭載されたジャイロ情報や、カメラ502の撮影映像の画像認識によりカメラ502の自己位置推定する方法もある。
 またカメラ502からレンダリングエンジン520に対しては、撮影情報として画角、焦点距離、F値、シャッタースピード、レンズ情報などが供給される場合もある。
 アセットサーバ530は、アセットクリエイションST1で制作された3Dモデル、即ち3D背景データを記録媒体に格納し、必要に応じて3Dモデルを読み出すことができるサーバである。即ち3D背景データのDB(data Base)として機能する。
 レンダリングエンジン520は、LEDウォール505に表示させる背景映像vBを生成する処理を行う。このためレンダリングエンジン520は、アセットサーバ530から必要な3D背景データを読み出す。そしてレンダリングエンジン520は、3D背景データをあらかじめ指定された空間座標から眺めた形でレンダリングしたものとして背景映像vBで用いるアウターフラスタムの映像を生成する。
 またレンダリングエンジン520は、カメラトラッカー560やカメラ502から供給された撮影情報を用いて3D背景データに対する視点位置等を特定して撮影領域映像vBC(インナーフラスタム)のレンダリングを行う。
 さらにレンダリングエンジン520は、アウターフラスタムに対し、カメラ502の動きに応じて動的に変化する撮影領域映像vBCを合成して1フレームの映像データとしての背景映像vBを生成する。そしてレンダリングエンジン520は、生成した1フレームの映像データをディスプレイコントローラ590に送信する。
 ディスプレイコントローラ590は、1フレームの映像データを、各LEDパネル506で表示させる映像部分に分割した分割映像信号nDを生成し、各LEDパネル506に対して分割映像信号nDの伝送を行う。このときディスプレイコントローラ590は、表示部間の発色などの個体差/製造誤差などに応じたキャリブレーションを行っても良い。
 なお、ディスプレイコントローラ590を設けず、これらの処理をレンダリングエンジン520が行うようにしてもよい。つまりレンダリングエンジン520が分割映像信号nDを生成し、キャリブレーションを行い、各LEDパネル506に対して分割映像信号nDの伝送を行うようにしてもよい。
 各LEDプロセッサ570が、それぞれ受信した分割映像信号nDに基づいてLEDパネル506を駆動することで、LEDウォール505において全体の背景映像vBが表示される。その背景映像vBには、その時点のカメラ502の位置等に応じてレンダリングされた撮影領域映像vBCが含まれている。
 カメラ502は、このようにLEDウォール505に表示された背景映像vBを含めて演者510のパフォーマンスを撮影することができる。カメラ502の撮影によって得られた映像は、カメラ502の内部又は図示しない外部の記録装置において記録媒体に記録されるほか、リアルタイムでアウトプットモニタ503に供給され、モニタ映像vMとして表示される。
 オペレーションモニタ550では、レンダリングエンジン520の制御のためのオペレーション画像vOPが表示される。エンジニア511はオペレーション画像vOPを見ながら背景映像vBのレンダリングに関する必要な設定や操作を行うことができる。
 ライティングコントローラ581は、ライト580の発光強度、発光色、照射方向などを制御する。ライティングコントローラ581は、例えばレンダリングエンジン520とは非同期でライト580の制御を行うものとしてもよいし、或いは撮影情報やレンダリング処理と同期して制御を行うようにしてもよい。そのためレンダリングエンジン520或いは図示しないマスターコントローラ等からの指示によりライティングコントローラ581が発光制御を行うようにしてもよい。またレンダリングエンジン520からライト580の制御を行うようにしてもよい。
 このような構成の撮影システム500におけるレンダリングエンジン520の処理例を図6に示す。
 レンダリングエンジン520は、ステップS10でアセットサーバ530から、今回使用する3D背景データを読み出し、内部のワークエリアに展開する。
 この段階でアウターフラスタムとして用いる映像を生成する場合もある。
 その後レンダリングエンジン520は、ステップS20で、読み出した3D背景データに基づく背景映像vBの表示終了と判定するまで、ステップS30からステップS60の処理を繰り返す。
 ステップS30でレンダリングエンジン520は、カメラトラッカー560やカメラ502からの撮影情報を取得する。これにより、現フレームで反映させるカメラ502の位置や状態を確認する。
 ステップS40でレンダリングエンジン520は、撮影情報に基づいてレンダリングを行う。即ち現在のフレームに反映させるカメラ502の位置、撮影方向、或いは画角等に基づいて3D背景データに対する視点位置を特定してレンダリングを行う。このとき、焦点距離、F値、シャッタースピード、レンズ情報などを反映した映像処理を行うこともできる。このレンダリングによって撮影領域映像vBC(インナーフラスタム)としての映像データを得ることができる。アウターフラスタムについては、ステップS10で予め固定的な映像として生成する他、ステップS40でフレーム毎に生成することもある。
 ステップS50でレンダリングエンジン520は、全体の背景映像であるアウターフラスタムと、カメラ502の視点位置を反映した映像、即ち撮影領域映像vBCを合成する処理を行う。例えばある特定の基準視点でレンダリングした背景全体の映像に対して、カメラ502の視点を反映して生成した映像を合成する処理である。これにより、LEDウォール505で表示される1フレームの背景映像vB、つまり撮影領域映像vBCを含む背景映像vBが生成される。
 ステップS60の処理は、レンダリングエンジン520又はディスプレイコントローラ590で行う。ステップS60でレンダリングエンジン520又はディスプレイコントローラ590は、1フレームの背景映像vBについて、個別のLEDパネル506に表示される映像に分割した分割映像信号nDを生成する。キャリブレーションを行う場合もある。そして各分割映像信号nDを各LEDプロセッサ570に送信する。
 以上の処理により、各フレームタイミングで、カメラ502で撮像される撮影領域映像vBCを含む背景映像vBがLEDウォール505に表示されることになる。
 ところで図5では1台のカメラ502のみを示したが、複数台のカメラ502で撮影を行うこともできる。図7は複数のカメラ502a,502bを使用する場合の構成例を示している。カメラ502a,502bは、それぞれ独立してパフォーマンスエリア501における撮影を行うことができるようにされる。また各カメラ502a,502b及び各LEDプロセッサ570は、シンクジェネレータ540により同期が維持される。
 カメラ502a,502bに対応して、アウトプットモニタ503a,503bが設けられ、それぞれ対応するカメラ502a,502bによって撮影された映像を、モニタ映像vMa,vMbとして表示するように構成される。
 またカメラ502a,502bに対応して、カメラトラッカー560a,560bが設けられ、それぞれ対応するカメラ502a,502bの位置や撮影方向を検出する。カメラ502a及びカメラトラッカー560aからの撮影情報や、カメラ502b及びカメラトラッカー560bからの撮影情報は、レンダリングエンジン520に送信される。
 レンダリングエンジン520は、カメラ502a側、或いはカメラ502b側のいずれか一方又は両方の撮影情報を用いて、各フレームの背景映像vBを得るためのレンダリングを行うことができる。
 なお図7では2台のカメラ502a、502bを用いる例を示したが、3台以上のカメラ502を用いて撮影を行うことも可能である。
 但し、複数のカメラ502を用い、それぞれの撮影情報を用いて、それぞれのカメラ502に対応した撮影領域映像vBC(インナーフラスタム)のレンダリングを行い、表示させると、それぞれの撮影領域映像vBCが互いに干渉するという事情がある。例えば図7のように2台のカメラ502a、502bを用いる例では、カメラ502aに対応する撮影領域映像vBCを示しているが、カメラ502bの映像を用いる場合、カメラ502bに対応する撮影領域映像vBCも必要になる。その場合に単純に各カメラ502a、502bに対応するそれぞれの撮影領域映像vBCを表示させると、それらが互いに干渉する。このため撮影領域映像vBCの表示に関する工夫が必要とされる。
<2.情報処理装置の構成>
 次に、アセットクリエイションST1、プロダクションST2、ポストプロダクションST3で用いることができる情報処理装置70の構成例を図8で説明する。
 情報処理装置70は、コンピュータ機器など、情報処理、特に映像処理が可能な機器である。この情報処理装置70としては、具体的には、パーソナルコンピュータ、ワークステーション、スマートフォンやタブレット等の携帯端末装置、ビデオ編集装置等が想定される。また情報処理装置70は、クラウドコンピューティングにおけるサーバ装置や演算装置として構成されるコンピュータ装置であってもよい。
 本実施の形態の場合、具体的には情報処理装置70は、アセットクリエイションST1において3Dモデルを制作する3Dモデル制作装置として機能できる。
 また情報処理装置70は、プロダクションST2で用いる撮影システム500を構成するレンダリングエンジン520やアセットサーバ530としても機能できる。
 また情報処理装置70は、ポストプロダクションST3における各種映像処理を行う映像編集装置としても機能できる。
 さらに情報処理装置70は、図25等で後述するプレビジュアライゼーションにおけるシミュレーション映像vSMの生成を行う情報処理装置(レンダリングエンジン31)としても機能できる。
 図8に示す情報処理装置70のCPU71は、ROM72や例えばEEP-ROM(Electrically Erasable Programmable Read-Only Memory)などの不揮発性メモリ部74に記憶されているプログラム、または記憶部79からRAM73にロードされたプログラムに従って各種の処理を実行する。RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなども適宜記憶される。
 映像処理部85は各種の映像処理を行うプロセッサとして構成される。例えば3Dモデル生成処理、レンダリング、DB処理、色・輝度調整処理を含む映像処理、映像編集処理、映像解析・検出処理などのいずれか、或いは複数の処理を行うことができるプロセッサとされる。
 特に図8では映像処理部85における処理機能として撮影映像処理部85a、マーカー処理部85bを示している。
 この撮影映像処理部85a、マーカー処理部85bは、例えばレンダリングエンジン520としての情報処理装置70において設けられる例がある。
 マーカー処理部85bは、レンダリングした背景映像vBに対して後述する境界マーカー60(図9等参照)を付加する処理を行う機能である。これによりLEDウォール505に表示される背景映像vBには境界マーカー60の画像が含まれる。
 撮影映像処理部85aは、LEDウォール505に表示された、境界マーカー60を含む背景映像vBを撮影した撮影映像vCの対象フレームにおける境界マーカー60の位置を判定する判定処理を行う機能である。対象フレームとは、或る時点で撮影映像処理の処理対象としているフレームを指す。例えば動画としての撮影映像vCを構成する各フレームは、順次、対象フレームとされる。
 なお、撮影映像vCの対象フレームにおける位置(例えば境界マーカー60の位置)とは、そのフレームの画像における位置のことであり、時間的に異なるフレームについての位置を含まない。
 撮影映像処理部85a、マーカー処理部85bの機能による映像処理部85の処理についての詳細は後述する。
 なお、情報処理装置70における映像処理部85としては、撮影映像処理部85aを有してマーカー処理部85bを有しない例や、マーカー処理部85bを有して撮影映像処理部85aを有しない例も想定される。
 この映像処理部85は例えば、CPU71とは別体のCPU、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、AI(artificial intelligence)プロセッサ等により実現できる。
 なお映像処理部85はCPU71内の機能として設けられてもよい。
 CPU71、ROM72、RAM73、不揮発性メモリ部74、映像処理部85は、バス83を介して相互に接続されている。このバス83にはまた、入出力インタフェース75も接続されている。
 入出力インタフェース75には、操作子や操作デバイスよりなる入力部76が接続される。例えば入力部76としては、キーボード、マウス、キー、トラックボール、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。
 入力部76によりユーザの操作が検知され、入力された操作に応じた信号はCPU71によって解釈される。
 入力部76としてはマイクロフォンも想定される。ユーザの発する音声を操作情報として入力することもできる。
 また入出力インタフェース75には、LCD(Liquid Crystal Display)或いは有機EL(electro-luminescence)パネルなどよりなる表示部77や、スピーカなどよりなる音声出力部78が一体又は別体として接続される。
 表示部77は各種表示を行う表示部であり、例えば情報処理装置70の筐体に設けられるディスプレイデバイスや、情報処理装置70に接続される別体のディスプレイデバイス等により構成される。
 表示部77は、CPU71の指示に基づいて表示画面上に各種の画像、操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
 入出力インタフェース75には、HDD(Hard Disk Drive)や固体メモリなどより構成される記憶部79や通信部80が接続される場合もある。
 記憶部79は、各種のデータやプログラムを記憶することができる。記憶部79においてDBを構成することもできる。
 例えば情報処理装置70がアセットサーバ530や後述のレンダリングエンジン31として機能する場合、記憶部79を利用して3D背景データ群を格納するDBを構築できる。
 通信部80は、インターネット等の伝送路を介しての通信処理や、外部のDB、編集装置、情報処理装置等の各種機器との有線/無線通信、バス通信などによる通信を行う。
 例えば情報処理装置70がレンダリングエンジン520や後述のレンダリングエンジン31として機能する場合、通信部80によりアセットサーバ530としてのDBにアクセスしたり、カメラ502やカメラトラッカー560からの撮影情報を受信したりすることができる。
 またポストプロダクションST3に用いる情報処理装置70の場合も、通信部80によりアセットサーバ530としてのDBにアクセスすることなども可能である。
 入出力インタフェース75にはまた、必要に応じてドライブ81が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体82が適宜装着される。
 ドライブ81により、リムーバブル記録媒体82からは映像データや、各種のコンピュータプログラムなどを読み出すことができる。読み出されたデータは記憶部79に記憶されたり、データに含まれる映像や音声が表示部77や音声出力部78で出力されたりする。またリムーバブル記録媒体82から読み出されたコンピュータプログラム等は必要に応じて記憶部79にインストールされる。
 この情報処理装置70では、例えば本実施の形態の処理のためのソフトウェアを、通信部80によるネットワーク通信やリムーバブル記録媒体82を介してインストールすることができる。或いは当該ソフトウェアは予めROM72や記憶部79等に記憶されていてもよい。
<3.マーカー処理及び撮影映像処理>
 実施の形態のマーカー処理及び撮影映像処理について説明する。
 図9はバーチャルプロダクションの過程におけるマーカー処理と撮影映像処理について示している。
 例えば図8の映像処理部85におけるマーカー処理部85bの機能により、図9のマーカー生成処理P2、マーカー付加処理P3が行われる。
 マーカー生成処理P2、マーカー付加処理P3は、バーチャルプロダクションにおける撮影時、つまりLEDウォール505に背景映像vBを表示させる際に、例えばレンダリングエンジン520内の処理として実行される。
 また図8の映像処理部85における撮影映像処理部85aの機能により撮影映像処理(P11からP19)が行われる。
 撮影映像処理(P11からP19)は、同じく撮影時にリアルタイムで、例えば撮影映像vCを入力したレンダリングエンジン520内、或いは他の装置で行われてもよいし、ポストプロダクションST3の段階で行われてもよい。
 ここでは一例として、撮影時にリアルタイムで、レンダリングエンジン520によりマーカー生成処理と撮影映像処理が行われるとして説明していく。
 例えばレンダリングエンジン520としての情報処理装置70の映像処理部85は、図9のレンダリングP1として背景映像vBを生成する。
 図10Aに背景映像vBの例を示している。なお、レンダリングエンジン520は図10Aのような背景映像vBを生成するが、この例はLEDウォール505の表示領域より広い範囲の映像としている。例えば破線で示す実表示領域100の範囲が、実際にLEDウォール505で表示される映像である。レンダリングエンジン520は、LEDウォール505の表示範囲と同等の範囲の背景映像vBを生成してもよいが、図10Aのように、より広い範囲の背景映像vBを生成しておくことで、後の撮影映像処理において、この背景映像vBを合成に利用できる。
 また背景映像vBは撮影領域映像vBC(インナーフラスタム)も含んでいる。
 レンダリングエンジン520の映像処理部85は、マーカー処理部85bの機能により、図9に示すマーカー生成処理P2を行う。
 マーカー生成処理P2では、レンダリングされた背景映像vB及びその実表示領域100の情報を入力してマーカー画像vMKを生成する。
 図11A、図11Bにマーカー画像vMKの例を示している。
 図11Aのマーカー画像vMKの例は、境界マーカー60としてのパターンが周縁部を囲うようにした例である。
 図11Bのマーカー画像vMKの例は、境界マーカー60としてのパターンが左右及び上の周縁部に配置される例である。
 この境界マーカー60は、LEDウォール505を撮影しているカメラ502の撮影範囲が、LEDウォール505からはみ出してしまうことを検出できるようにするものである。このため、図11Aのように周縁部を全周にわたって境界マーカー60が形成されるとよい。但し図1のような撮影システム500のパフォーマンスエリア501には、背景映像vBの内容とつながる実光景のセットが設けられている場合もあり、その場合は、カメラ502の撮影範囲がLEDウォール505の下方にはみ出しても問題ない。そのような場合は、図11Bのような境界マーカー60でもよい。
 この図11A、図11Bのような境界マーカー60は、境界ライン61と検出パターン62を有するものとされる。
 境界ライン61は、LEDウォール505の縁部を明示するための例えば枠状に形成されるラインである。
 検出パターン62は、カメラ502のレンズによって生じる周辺光量落ち量と空間的な歪み量を判定するために設けられる縦横の格子状パターンである。なおパターン形状は一例であり、これに限られない。
 このような境界マーカー60のパターン形状自体はシステム内にあらかじめ保持しておけばよい。
 そして図9に示すマーカー生成処理P2では、レンダリングエンジン520は、境界マーカー60の輝度、色や、サイズを設定してマーカー画像vMKを生成する。
 境界マーカー60の輝度や色は、背景映像vBの輝度や色を参照して、背景映像vB内で目立つように設定する。例えば背景映像vBが明るい光景を示しているのであれば、境界マーカー60の輝度を低くし、背景映像vBが暗い光景を示しているのであれば、境界マーカー60の輝度を高くする。また色も背景映像vBの色に応じて設定する。
 さらに、レンダリングエンジン520は、実表示領域100の範囲における周縁部に境界マーカー60が表示されるように、境界マーカー60のサイズを設定する。なお実表示領域100のラインは説明のために加えたもので、背景映像vBに、実際にこのような実表示領域100を示すラインが含まれるわけではない。
 次にレンダリングエンジン520の映像処理部85は、マーカー処理部85bの機能により、マーカー付加処理P3を行う。
 レンダリングエンジン520はマーカー付加処理P3として、レンダリングされた背景映像vBにマーカー画像vMKを合成して境界マーカー60を付加する処理を行う。
 即ち元の背景映像vBにおいて境界マーカー60に該当する位置の画素値を境界マーカー60の画素値に置き換える。
 図10Bに境界マーカー60を付加した背景映像vBを示している。図10Aの背景映像vBにおける実表示領域100の範囲での周縁部となる位置に境界マーカー60が付加された状態となる。
 このような境界マーカー60が付加された背景映像vBがLEDウォール505において表示される。従って図9のようにLEDウォール505では、周縁部に境界マーカー60が表示される。
 カメラ502によってこのようなLEDウォール505の背景映像vBと、演者510の撮影が行われる。なおカメラ502で撮影される背景映像vBは、撮影領域映像vBCの範囲である。図9では、撮影領域映像vBCはLEDウォール505内にあり、カメラ502の撮影範囲がLEDウォール505からはみ出していない状態である。さらに図の例では撮影領域映像vBCは、境界マーカー60にも重なっていない。
 撮影領域映像vBCはカメラ502の撮影範囲に略一致しているため、カメラ502の撮影範囲がLEDウォール505からはみ出す場合は、撮影領域映像vBCの一部がLEDウォール505からはみ出す状態となる。
 続いて、カメラ502による撮影映像vCに対する撮影映像処理について説明する。
 例えばレンダリングエンジン520は、カメラ502による撮影映像vCを入力し、撮影映像vCの各フレームに対して撮影映像処理を行って、撮影による最終的な映像として最終出力映像vCFを出力するものとする。つまり撮影映像vCの各フレームをそれぞれ順次、対象フレームとして撮影映像処理を行う。
 具体的にはレンダリングエンジン520が撮影映像処理部85aの機能により、対象フレームに対して、図9におけるマーカー抽出処理P11、マーカー位置推定処理P12、周辺光量落ち量・歪量検出処理P13、マスク生成処理P14、周辺光量落ち・歪付加処理P15、周辺光量落ち・歪除去処理P16、選択処理P17,P18、合成処理P19を行う。
 なおレンダリングエンジン520の処理とするのは一例で、他のデバイスや或いはカメラ502の内部のプロセッサの処理として、以下の撮影映像処理を行ってもよい。
 図9に示すようにカメラ502によって撮影映像vCが出力される(出力処理P10)。カメラ502は、LEDウォール505に表示された背景映像vBにおける撮影領域映像vBCと、演者510等の実景を同時に撮影する。その際にカメラ502の位置、撮影方向、画角によっては、撮影映像vCにLEDウォール505外が含まれることもある。この場合、LEDウォール505の枠外の光景とLEDウォール505の周縁部に表示されている境界マーカー60も一緒に撮影される。
 或いはカメラ502の撮影範囲がLEDウォール505の枠外に至らなくとも、境界マーカー60の部分を含めて撮影することもある。
 図12に撮影映像vCの一例を示している。これは、カメラ502による撮影範囲が、LEDウォール505の上方、左方、右方にはみ出してしまった場合である。例えばカメラ502をLEDウォール505の幅を超えるほど広角とし、かつ撮影方向を上方にしすぎたような場合、この図12のような撮影映像vCが得られる。
 撮影映像vCには、背景映像vBにおける撮影領域映像vBCと、演者510に加えて、境界マーカー60と、さらにLEDウォール505の周囲の光景(図では黒塗りとしている)が含まれる。
 例えばこのような撮影映像vCの対象フレームに対して、レンダリングエンジン520は図9のマーカー抽出処理P11を行う。
 マーカー抽出のためにレンダリングエンジン520はマーカー生成処理P2の際の情報(マーカー生成情報Imk)を参照する。即ち境界マーカー60の輝度や色の情報を取得する。マーカー生成情報Imkは、マーカー生成処理P2の際に設定した境界マーカー60の輝度、色、パターン形状、サイズなどの情報である。
 レンダリングエンジン520は、このマーカー生成情報Imkに基づいて輝度及び色のスレッショルドレベルを設定し、撮影映像vCの各画素値を比較して、撮影映像vCから境界マーカー60を取り出す。例えば図12の撮影映像vCから、図13のようなマーカー抽出画像vMKaを生成する。
 またレンダリングエンジン520は図9に示すマーカー位置推定処理P12を行う。これは、計算上で、撮影映像vC内の対象フレームのどの位置に境界マーカー60が表示されるかを推定する処理である。
 今回の撮影映像vCの対象フレームについての、LEDウォール505とカメラ502の相対的な位置関係や画角、イメージセンサのサイズがわかれば、撮影映像vC内での境界マーカー60の位置が計算できる。
 LEDウォール505の配置位置や角度の情報は、予めシステム内で既知であり、例えばレンダリングエンジン520はLEDウォール505の情報として記憶しておくことができる。カメラ502のイメージセンサのサイズも既知であり、あらかじめ計算のために設定されている。カメラ502の位置、撮影方向、ズーム画角は、撮影情報としてカメラトラッカー560(図5参照)から入力される。
 従ってレンダリングエンジン520は、撮影映像vCの各フレームについて、カメラトラッカー560からの撮影情報を取得することで、撮影映像vC内のどの位置に境界マーカー60が表示されるかをリアルタイムの計算により推定できる。
 そしてレンダリングエンジン520は、例えば図14のように、推定された境界マーカー60を示すマーカー位置推定画像vMKbを生成する。
 ここで、図14のマーカー位置推定画像vMKbにおける境界マーカー60の位置は、レンズ歪の影響のない場合の理想的な位置である。一方、図13のマーカー抽出画像vMKaにおける境界マーカー60の位置は、カメラ502のレンズ歪の影響を受けた位置となっている。
 このマーカー抽出画像vMKaと、マーカー位置推定画像vMKbを用いることで、レンズによる歪量や、周辺光量落ち量を検出できる。
 レンダリングエンジン520は、周辺光量落ち量・歪量検出処理P13を行う。
 この処理では、レンダリングエンジン520は、マーカー抽出画像vMKaとマーカー位置推定画像vMKbを用いて周辺光量落ち量と歪み量を算出する。算出処理としては、例えば周辺光量落ち量はマーカー位置推定画像vMKbに周辺光量落ち量を異なる量で加えた画像を複数枚用意し、マーカー抽出画像vMKaとマーカー位置推定画像vMKbの差分を取り各画素の差分の絶対値の総和の値を最も小さくする周辺光量落ち量を選択する。歪量についても同様の手法を用いることができる。詳しくは後述するが、 この処理により、撮影映像vCにおける周辺光量落ち量と歪み量が求められる。
 レンダリングエンジン520は、マスク生成処理P14を行う。
 レンダリングエンジン520は、マーカー抽出画像vMKa、又はマーカー位置推定画像vMKbに歪量を付加した画像を用いて、図15のマスクvKを生成する。マスクvKは合成処理P19において撮影映像vCを使用する第1領域111(斜線部)と、CG映像(例えば背景映像vB)を合成する第2領域112を示す情報である。第1領域111は、撮影映像vCの対象フレームで、境界マーカー60よりも内側となる領域である。第2領域112は、境界マーカー60を含んで、第1領域111より外側となる領域である。
 なおこのマスクvKは、第1領域111の各画素に相当する値を全て「1」、第2領域112の各画素に相当する値を全て「0」とする。
 或いはマスクvKは、第1領域111内に第2領域112との境界領域(後述のブレンド領域111a)を設けて、徐々に「1」から「0」に遷移する値としたαチャンネル画像を生成してもよい。詳細は後述する。
 レンダリングエンジン520は、周辺光量落ち・歪付加処理P15又は周辺光量落ち・歪除去処理P16を行う。
 周辺光量落ち・歪付加処理P15は、周辺光量落ち量・歪量検出処理P13で求められた周辺光量落ち量と歪量を用いて、背景映像vBにカメラ502の撮影映像vCと同様の周辺光量落ち量、歪量を付加する処理である。
 周辺光量落ち・歪除去処理P16は、周辺光量落ち量・歪量検出処理P13で求められた周辺光量落ち量と歪量を用いて、その逆特性を撮影映像vCに施し、撮影映像vCから周辺光量落ち及び歪みを取り除く処理である。
 これらのいずれかの処理を行うかは選択処理P17,P18によって決まる。
 選択処理P17は、撮影映像vCをそのまま出力する場合(説明上「Aコース」とする)と、撮影映像vCについて周辺光量落ち・歪除去処理P16を行って出力する場合(説明上「Bコース」とする)を選択する。
 選択処理P18は、背景映像vBについて周辺光量落ち・歪付加処理P15を行って出力する場合(Aコース)と、背景映像vBをそのまま出力する場合(Bコース)を選択する。
 選択処理P17,P18でAコースが選択される場合は、撮影映像vCと、周辺光量落ち量、歪量が付加された背景映像vBについて合成処理P19が行われる。この場合はカメラ502による歪みや光量落ちを生かした映像同士が合成されるものとなる。
 選択処理P17,P18でBコースが選択される場合は、周辺光量落ち及び歪みを除去した撮影映像vCと、背景映像vBについて合成処理P19が行われる。この場合はカメラ502による歪みや光量落ちのない映像同士が合成されるものとなる。
 Aコース、Bコースは制作者の制作意図により適切な方が選択されればよい。
 レンダリングエンジン520は、合成処理P19では、Aコース又はBコースで選択された撮影映像vCと背景映像vBについての合成が、マスクvKを用いて行われ、図16のような最終出力映像vCFが生成される。
 この最終出力映像vCFは、破線BDより内側として示す、マスクvKの第1領域111に相当する撮影映像vCに対して、破線BDより外側で、第2領域112に相当する背景映像vBの部分が枠外付加映像vOTとして付加された映像となる。つまり撮影映像vCにおける境界マーカー60を含む境界マーカー60から外方の面内領域に、背景映像vBとして生成されたCG映像の一部を、枠外付加映像vOTとして付加するものである。
 以上のような撮影映像処理を例えばレンダリングエンジン520が行うことによって、撮影範囲がLEDウォール505からはみ出したとしても、そのはみ出した領域に、背景映像vBを足すことで、はみ出しが生じなかったようにすることができる。
 なお、以上の撮影映像処理(P11からP19)は、レンダリングエンジン520、或いはカメラ502、或いは他のデバイスとして、情報処理装置70の構成を有する機器が撮影時にリアルタイムで実行する。
 或いは以上の撮影映像処理(P11からP19)は、ポストプロダクションST3において、映像編集装置となる情報処理装置70において実行されてもよい。
 さらには、撮影映像処理(P11からP19)の一部は撮影時にリアルタイムに行い、一部はポストプロダクションST3で実行するようにしてもよい。
 例えばマーカー抽出処理P11、マーカー位置推定処理P12が撮影時に行われ、他はポストプロダクションST3で実行されてもよい。また例えばマーカー抽出処理P11から選択処理P17,P18までが撮影時に行われ、合成処理P19がポストプロダクションST3において実行されてもよい。他の例も考えられる。
 撮影映像処理(P11からP19)の一部又は全部をポストプロダクションST3で行う場合は、ポストプロダクションST3において必要となる情報が記憶されていればよい。
 例えば撮影映像処理(P11からP19)の全てをポストプロダクションST3で行う場合は、撮影映像vC、背景映像vB、マーカー生成情報Imk、撮影情報(フレーム毎のカメラ502の位置、撮影方向、画角)、LEDウォール505の配置情報が記憶され、ポストプロダクションST3を行う情報処理装置70が取得できればよい。
 また、例えば合成処理P19のみをポストプロダクションST3で実行する場合は、Aコース又はBコースの撮影映像vC及び背景映像vBと、マスクvKを、ポストプロダクションST3を行う情報処理装置70が取得できればよい。
 また図9の例では枠外付加映像vOTの元として背景映像vBを使用する例を示したが、枠外付加映像vOTとなるCG映像を背景映像vBとは別途に生成してもよい。
 また図10では背景映像vBが実表示領域100より外側も含んで生成される例を挙げた。この場合、LEDウォール505からはみ出した撮影範囲に背景映像vBを用いることができるが、さらに大きくはみ出した場合、或いは背景映像vBが実表示領域100のみの映像である場合は、背景映像vBとは別途に枠外付加映像vOTとなるCG映像を生成することが考えられる。
<4.処理例>
 図9のようなマーカー処理及び撮影映像処理を含む情報処理装置70の処理例を説明する。ここでは例えば撮影時にレンダリングエンジン520がリアルタイムでマーカー処理及び撮影映像処理を行うことを想定して説明する。
 図17は、図6で説明したレンダリングの際の処理に、マーカー処理を加えた例である。ステップS10からステップS50は図6と同様であるため、重複説明は避ける。
 ステップS50までの処理で、撮影領域映像vBC(インナーフラスタム)を含む背景映像vBのフレームが生成される。
 この背景映像vBに対してレンダリングエンジン520は、ステップS51からステップS55のマーカー処理を行う。なお図9のマーカー処理との対応を示すために「P2」「P3」を付している。
 ステップS51でレンダリングエンジン520は、背景映像vBの特徴量を算出する。特徴量とは輝度や色やエッジなどである。
 ステップS52でレンダリングエンジン520は、背景映像vBの特徴量に応じて背景と容易に識別できるような境界マーカー60の輝度や色を設定し、ステップS53で設定に応じた境界マーカー60を有するマーカー画像vMKを生成する。
 例えば背景映像vBが明るい光景を示しているのであれば、境界マーカー60の輝度を低くし、背景映像vBが暗い光景を示しているのであれば、境界マーカー60の輝度を高くする。
 また例えば、青い背景の場合は、輝度は同等で目立つ色にする。こうすることで暗めのシーンに明るい境界マーカー60を使うことによるフレアを防ぐことができる。
 また例えば背景映像vBにエッジとして縦線が多い場合は、境界マーカー60を横線成分が多いパターンとする。
 境界マーカー60については、輝度や色やエッジの特徴を組み合わせて生成してもよい。
 また特徴量に応じた境界マーカー60は、例えば右半分は明るく左半分が暗いような不均一であってもいい。つまり境界マーカー60が表示される部分の背景の特徴に応じて変化するようにしてもよい。
 ステップS54でレンダリングエンジン520は、今回のフレームの境界マーカー60についてマーカー生成情報Imkを記憶媒体に記憶する。つまり後の時点で今回のフレームに関連してマーカー生成情報Imkが読み出せるようにする。
 ステップS55でレンダリングエンジン520は、背景映像vBに対して境界マーカー60を付加する処理を行う。
 そしてステップS60でレンダリングエンジン520は、図10Bのような境界マーカー60を含む背景映像vBを出力し、LEDウォール505で表示させる。
 図18は撮影映像処理の例を示している。図9の撮影映像処理との対応を示すために「P11」から「P19」を付している。
 レンダリングエンジン520は、例えば撮影に先立ってステップS100でLEDウォール505の情報を取得する。即ちマーカー位置推定処理P12のためのLEDウォール505の配置位置や角度の情報である。
 撮影開始後は、レンダリングエンジン520は撮影映像vCのフレーム毎にステップS101からS113の処理を行う。
 ステップS101でレンダリングエンジン520は、現在の処理対象のフレームについてのマーカー生成情報Imkを取得する。
 ステップS102でレンダリングエンジン520は、現在の処理対象のフレームについての撮影情報、特にはカメラトラッカー560によるカメラ502の位置、撮影方向、画角の情報を取得する。
 ステップS103でレンダリングエンジン520は、LEDウォール505の情報と、撮影情報と、マーカー生成情報Imk(パターン形状、サイズ)を用いてマーカー位置推定処理P12を行い、マーカー位置推定画像vMKbを生成する。
 またステップS104でレンダリングエンジン520は、マーカー生成情報Imk(輝度、色)に基づいて閾値を設定し、撮影映像vCからのマーカー抽出処理P11を行ってマーカー抽出画像vMKaを生成する。
 なおステップS103,S104の順序は逆でもよい。
 またリアルタイムでの処理負担の削減のためには、ステップS103は、ステップS105からステップS106に進む際にのみ実行されてもよい。
 ステップS105でレンダリングエンジン520は、今回のフレームについて境界マーカー60の一部又は全部が撮影されたか否かを判定する。
 ステップS104の処理により、今回のフレームに境界マーカー60の一部又は全部が映り込んでいるか否かを判定できる。
 今回のフレームに境界マーカー60が映り込んでいなければ、境界マーカー60に応じた撮影映像処理を実行する必要はない。そのためレンダリングエンジン520はステップS105からステップS113に進み、撮影映像vCのフレームを、そのまま撮影による最終出力映像vCFとして出力する。例えば撮影による出力映像の1フレームとして記憶媒体に記憶させたり、外部機器に送信したりする。
 一方、今回のフレームに境界マーカー60が映り込んでいる場合は、撮影映像処理により、境界マーカー60を含む外方の映像の差し替えのための合成処理P19が必要になる。そこでレンダリングエンジン520はステップS105からステップS106に進み、周辺光量落ち量・歪量検出処理P13を行う。
 図19に周辺光量落ち量・歪量検出処理P13の具体例を示している。
 レンダリングエンジン520は、マーカー抽出画像vMKaとマーカー位置推定画像vMKbを用いて周辺光量落ち量と歪み量を算出する。
 まずレンダリングエンジン520は、マーカー抽出画像vMKaに対して2値化処理P21を行う。マーカー抽出画像vMKaは撮影映像vCから境界マーカー60を抽出した画像であるため2値の状態ではない。これを2値化し、周辺光量落ち分を取り除く。
 またレンダリングエンジン520は、レンズ歪付加処理P22として、マーカー位置推定画像vMKbを元に、小から大の何段階かの量のレンズ歪みを付加した画像を生成する。例えば図20に示すように画像vMKb1から画像vMKb(n)としてn個の画像を生成する。これらの画像vMKb1から画像vMKb(n)はそれぞれ歪量が段階的に異なるようにされている。
 次にレンダリングエンジン520は、差分計算P23を行う。これは画像vMKb1から画像vMKb(n)のそれぞれと、2値化したマーカー抽出画像vMKaとの差分を計算する処理である。
 そしてレンダリングエンジン520は、歪量決定処理P24を行う。これは画像vMKb1から画像vMKb(n)のうちで、2値化したマーカー抽出画像vMKaとの差分が最も小さかった画像を判定し、その画像に加えた歪量を、今回のフレームの撮影映像vCにおける歪量として決定する処理である。例えば画像vMKb2が、2値化したマーカー抽出画像vMKaとの差分が最も小さかった画像であった場合、画像vMKb2に付加した歪量が、検出目的の歪量となる。
 以上で撮影映像vCにおける歪量が検出される。
 次にレンダリングエンジン520は、周辺光量落ち量の検出のため、マーカー位置推定画像vMKbに対してレンズ歪付加処理P25を行う。つまりマーカー位置推定画像vMKbが撮影映像vCと同様にレンズ歪がある状態とする。
 なお、このレンズ歪付加処理P25を行わなくとも、歪量決定処理P24で選択された画像(例えば画像vMKb2)をそのまま用いてもよい。元のマーカー位置推定画像vMKbに同じレンズ歪量が加えられた画像であるからである。
 周辺光量落ち付加処理P26では、検出された歪量が加えられたマーカー位置推定画像vMKb(或いは同様の画像vMKb2)を元にして、小から大の何段階かの量の周辺光量落ち量を付加した画像を生成する。例えば図20に示すように画像vMKb11から画像vMKb(m)としてm個の画像を生成する。これらの画像vMKb11から画像vMKb(m)はそれぞれ周辺光量落ち量が段階的に異なるようにされている。
 次にレンダリングエンジン520は、差分計算P27を行う。これは画像vMKb11から画像vMKb(m)のそれぞれと、マーカー抽出画像vMKaとの差分を計算する処理である。
 そしてレンダリングエンジン520は、周辺光量落ち量決定処理P28を行う。これは画像vMKb11から画像vMKb(m)のうちで、マーカー抽出画像vMKaとの差分が最も小さかった画像を判定し、その画像に加えた周辺光量落ち量を、今回のフレームの撮影映像vCにおける周辺光量落ち量として決定する処理である。例えば画像vMKb12が、マーカー抽出画像vMKaとの差分が最も小さかった画像であった場合、画像vMKb12に付加した周辺光量落ち量が、検出目的の周辺光量落ち量となる。以上で撮影映像vCにおける周辺光量落ち量が検出される。
 レンダリングエンジン520は、この図19のように周辺光量落ち量・歪量検出処理P13を行ったら、図18のステップS107で、選択処理P17,P18によってAコース、Bコースのいずれが設定されているかにより処理を分岐する。
 Aコースの場合は、レンダリングエンジン520はステップS107に進み、マスク生成処理P14を行い、またステップS110で背景映像vBに対して周辺光量落ち・歪付加処理P15を行う。
 Bコースの場合は、レンダリングエンジン520はステップS109に進み、マスク生成処理P14を行い、またステップS111で撮影映像vCに対して周辺光量落ち・歪除去処理P16を行う。
 ステップS108のマスク生成処理P14について図21で説明する。
 マスクvKについては、上述のように第1領域111は「1」、第2領域112は「0」とするものでもよいが、図21では、第1領域111と第2領域112の境界部分でブレンドするための処理例を示している。なお、図21はステップS108、つまりAコースが選択されているときの処理例である。
 マスクvKは、マーカー抽出画像vMKa又はマーカー位置推定画像vMKbのいずれかに基づいて生成できる。
 図21の選択処理P33として、レンダリングエンジン520はマーカー抽出画像vMKaとマーカー位置推定画像vMKbのどちらを元にマスクvKを生成するかを選択する。
 マーカー位置推定画像vMKbを選択する場合は、レンダリングエンジン520は、歪付加処理P31により、マーカー位置推定画像vMKbにステップS106で検出した歪量を付加する。
 マーカー抽出画像vMKaを選択する場合は、レンダリングエンジン520は、2値化処理P32により、マーカー抽出画像vMKaを2値化する。
 この歪が付加されたマーカー位置推定画像vMKb又は2値化されたマーカー抽出画像vMKaに対して、レンダリングエンジン520は、値設定処理P34を行う。
 値設定処理P34では、図22Aに示すように内側の第1領域111をαチャンネル=1、外側の第2領域112をチャンネル=0とするマスクvKを生成する。
 なお図22Aでは破線で境界マーカー60を示しているが、これは第1領域111が境界マーカー60よりも内側の領域であることを示すために付したもので、マスクvKに境界マーカー60が付加されるわけではない。
 次にレンダリングエンジン520はスロープ付加処理P35を行う。
 図22Bに示す様に第1領域111における第2領域112との境界部分にブレンド領域111aを設定する。このブレンド領域111aには、第2領域112に接する位置から離れる方向に向かってαチャンネルが「0」から「1」の間で変化していくようにαチャンネルにスロープをつける。
 例えばαチャンネルの値が外側から内側に向かって「0.1」「0.2」・・・「0.9」と変化していくようにする。
 レンダリングエンジン520は、このようにスロープを付加した状態でマスクvKを出力する。
 以上のようにステップS108でマスク生成処理P14を行ったら、ステップS110で背景映像vBに対して周辺光量落ち・歪付加処理P15を行う。
 Aコースが選択されている場合であるので、撮影映像vCと、周辺光量落ち・歪が付加された背景映像vBと、ステップS108で生成されたマスクvKとにより合成処理P19が行われることになる。
 なお、Bコースが選択されており、ステップS107からステップS109に進んだ場合のマスク生成処理P14でも図21と同様にブレンド領域111aを設ける処理を行う。但しこの場合は、マーカー位置推定画像vMKbを元にマスクvKを生成する場合は、マーカー位置推定画像vMKbに歪みを付加する必要はない。マーカー位置推定画像vMKbをそのまま用いて値設定処理P34、スロープ付加処理P35を行えば良い。
 またマーカー抽出画像vMKaを元にマスクvKを生成する場合は、マーカー抽出画像vMKaを2値化し、さらに歪を除去する処理を行ってから、値設定処理P34、スロープ付加処理P35を行うことになる。
 以上のようにステップS109でマスク生成処理P14を行ったら、ステップS111で撮影映像vCに対して周辺光量落ち・歪除去処理P16を行う。
 Bコースが選択されている場合であるので、周辺光量落ち・歪が除去された撮影映像vCと、背景映像vBと、ステップS109で生成されたマスクvKとにより合成処理P19が行われることになる。
 レンダリングエンジン520は、ステップS112で撮影映像vCと背景映像vBの合成処理P19を行う。図23に合成処理P19の例を示している。
 合成処理P19では、レンダリングエンジン520は、撮影映像vCのフレームの画素値に対してマスクvKのα値を乗算する乗算処理P41を行う。上述のように第1領域111はαチャンネル=「1」であるので、撮影映像vC内の画素値がそのまま維持される。但しブレンド領域111aの画素は、その画素の位置に応じて内側から外側に「1」から「0」にスロープ状に設定された係数が乗算される。第2領域112はαチャンネル=「0」であるので、撮影映像vC内の画素値は「0」とされる。
 またレンダリングエンジン520は、マスクvKに対してα値反転処理P42を行った上で、背景映像vBに対して乗算する乗算処理P43を行う。
 α値反転処理P42により、第1領域111はαチャンネル=「0」、第2領域112はαチャンネル=「1」となる。ブレンド領域111aでは、第2領域112から内方に向かって「1」から「0」に至るスロープの値とされる。
 そして乗算処理P43において、第2領域112はαチャンネル=「1」であるので、背景映像vB内の画素値がそのまま維持される。第1領域111はαチャンネル=「0」であるので、背景映像vB内の画素値は「0」とされる。但しブレンド領域111aの画素は、その画素の位置に応じて外側から内側に「1」から「0」にスロープ状に設定された係数が乗算される。
 レンダリングエンジン520は、乗算処理P41,P43の出力に対して加算合成処理P44を行う。
 これにより第1領域111においてブレンド領域111aより内側は撮影映像vC、第2領域112は背景映像vB、ブレンド領域111aは内側から外側に向かって撮影映像vCの比重が高い値から徐々に背景映像vBの比重が高い値に変化するようになり、図16のような最終出力映像vCFが得られることになる。
 なお図23ではいわゆるαブレンドを行う例で述べたが、マスクvKにブレンド領域111aを設けず、α値を第1領域111は「1」、第2領域112は「0」とした場合でも、図23の処理で合成が行われる。
 バーチャルプロダクションの場合、モアレ等の問題が発生しないようLEDウォール505に焦点を合わせないことがある。その場合、合成する背景映像vBと撮影映像vCで、厳密に画素単位で位置、輝度、色が合っていなくても良い。
 以上で1フレームについての処理を終える。ステップS114でレンダリングエンジン520は、処理を終了するか否かを判定し、終了しなければステップS101に戻る。つまり引き続き次のフレームに対応して同様の処理を行う。
 レンダリングエンジン520は、例えば撮影終了の時点で、ステップS114で終了と判定し、図18の処理を終える。
<5.プレビジュアライゼーションでの処理>
 ところで以上の撮影映像処理では、マーカー抽出処理P11、マーカー位置推定処理P12、周辺光量落ち量・歪量検出処理P13、マスク生成処理P14等を行うが、これらの一部を撮影前に行っておいてもよい。これにより撮影時のリアルタムでの撮影映像処理の負担を下げることができる。
 そこで撮影前のプレビジュアライゼーションについて説明する。
 映像制作過程におけるプレビジュアライゼーションの位置づけを図24に示す。
 図24には先に図4で説明したアセットクリエイションST1、プロダクションST2、ポストプロダクションST3という流れを示している。
 プロダクションST2は、実際にスタジオで撮影を行う段階であるが、これは撮影準備と撮影に分けられる。
 これに対してプレビジュアライゼーションとは、主に撮影準備よりも前の段階で行われることが想定される。なお、必ずしも時系列的な順序は限定されないが、プレビジュアライゼーションは、アセットクリエイションST1において背景映像vBをレンダリングするための3Dモデルが制作された後の段階で行われればよい。
 その意味で、プレビジュアライゼーションは、アセットクリエイションST1の最終段階で行われるととらえてもよいし、プロダクションST2における撮影準備の前の段階で行われるととらえてもよい。
 プレビジュアライゼーションでは、映像確認、モアレアラートという処理が行われる。映像確認とは、撮影に先立って、撮影により得られる撮影映像vCを監督やスタッフが確認できるようにする処理である。主に撮影映像vCの色合いを含む確認をシミュレーション映像により可能とする。
 モアレアラートは、例えば映像確認をしながらスタッフが仮想的にカメラ位置を操作している際に、モアレ予測を行い、モアレが出ると予測される場合に、その警告を発する処理である。これにより、その後の撮影の際のアーティファクト発生を回避できるようにする。
 撮影準備の段階では、撮影システム500におけるLEDやカメラ等各種の設定とともに、色キャリブレーションが行われる。具体的にはLEDウォール505をカメラ502で撮影したときに生ずる色変化をキャンセルするキャリブレーションLUT(Look Up Table)を生成する。キャリブレーションLUTは例えば3D-LUTとされる。
 なお3D-LUTの代わりに、マトリックスと1D-LUTの組み合わせや他の映像信号処理で行うキャリブレーションのための準備を行ってもよい。
 撮影の段階では、モアレアラート、キャリブレーションLUT、on-setカメラ設定が行われる。
 この場合のモアレアラートとは、レンダリングエンジン520によるモアレ判定に応じてリアルタイムにカメラマン等にモアレアラートを出力する処理である。
 キャリブレーションLUTとは、撮影準備の際の色キャリブレーションで生成したLUTを適用してLEDウォール505やカメラ502等による背景映像表示に関する色変化をキャンセルする処理である。
on-setカメラ設定とは、プレビジュアライゼーションで設定したカメラ設定を例えばクラウドサーバ等から取得し、スタジオのカメラ502に反映させる処理である。
 図25は、撮影システム500の構成と、プレビジュアライゼーションのための構成とを並記している。図面上方は、図5等で説明した撮影システム500の構成を簡略化して示しており、図面下方は、プレビジュアライゼーションで使用する構成(プレビジュアライゼーションシステム700)を示している。
 図25において撮影システム500に関しては、レンダリングエンジン520、LEDプロセッサ570、LEDウォール505、カメラ502、撮影映像処理部85a、オペレーションモニタ550又はアウトプットモニタ503を示している。
 レンダリングエンジン520はレンダリング部520aとマーカー処理部85bを備える。これによりLEDウォール505で境界マーカー60を付した背景映像vBが表示される。
 カメラ502に対しては、撮影映像vCに対して処理を行う撮影映像処理部85aを示している。撮影映像処理部85aはレンダリングエンジン520或いは他の機器を構成する情報処理装置70において設けられる。
 出力される最終出力映像vCFは本線映像とされて記録媒体に記録されたり、放送や配信のために他機器に送信されたりする。
 以上のような撮影システム500に対して、例えばスタジオ外のシステムとしてプレビジュアライゼーションシステム700が構成される。プレビジュアライゼーションシステム700ではレンダリングエンジン31として機能する情報処理装置70と、モニタ40を少なくとも備える。
 レンダリングエンジン31は例えばレンダリングエンジン520とは別体の情報処理装置70により構成される。
 レンダリングエンジン31はレンダリング部32と映像処理部33を備える。
 レンダリング部32は、上述のレンダリングエンジン520におけるレンダリング部520aと同様のレンダリング機能であり、3Dモデルに基づいて背景映像vBPを生成することができる。
 このレンダリング部32は、少なくともアセットクリエイションST1の工程で制作された3Dモデルを用いて背景映像vBのレンダリングを行うことができる。つまりプロダクションST2の工程で用いるものと同じ3Dモデルを例えばアセットサーバ530(図5,図7参照)から取得し、それを用いてレンダリングを行う。
 そしてレンダリング部32は、当該3Dモデルを用いて撮影領域映像vBC(インナーフラスタム)を含む背景映像vB及びのレンダリングを行うことができる。
 なおレンダリング部32には、撮影領域映像vBCを生成するために、カメラ位置、撮影方向、画角が入力され、それに応じた3Dモデルに対する視点位置でレンダリングを行う。従って、実際の撮影時のカメラワーク(カメラ502の位置、撮影方向等のカメラパスや画角の遷移)が既に決められていることを前提とする。実際の撮影時のカメラワークの情報を得ることで、撮影時と同様の撮影領域映像vBCを得ることができる。
 このレンダリング部32で生成する背景映像を、撮影時にレンダリングエンジン520で生成する撮影領域映像vBCと説明上、区別する意味で、「背景映像vBP」と表記する。
 映像処理部33は、背景映像vBPに対する各種の映像処理を行う機能を示している。映像処理部33は、マーカー処理部85b、撮影映像処理部85a、及び実撮影映像化処理部33aとしての機能を有する。
 映像処理部33はマーカー処理部85bの機能によりマーカー処理を行う。つまり背景映像vBPにおいてLEDウォール505に表示された場合の周縁部となる箇所に境界マーカー60を付加する。
 また映像処理部33は、実撮影映像化処理部33aの機能により実撮影映像化処理を行う。実撮影映像化処理とは、実際に撮影に用いるカメラ502を模したシミュレーション映像vSMを生成する処理である。この実撮影映像化処理では、背景映像vBPに対して、少なくとも撮影システム500で使用するカメラ502の撮影時の輝度又は色の特性を実現する処理パラメータを用いてシミュレーション映像vSMを生成する。具体的には映像処理部33は、RGBゲインやホワイトバランス値、ガンマ値、オフセット値等のパラメータをカメラ502に合わせる。
 輝度又は色に関するパラメータを、撮影時のカメラ502と同じとすることで、撮影映像vCと同じ色合いのシミュレーション映像vSMが生成されるようにし、そのシミュレーション映像vSMがモニタ40に表示されるようにする。
 モニタ40は、レンダリングエンジン31としての情報処理装置70から出力される映像を表示するモニタ装置を示しており、例えば撮影スタジオとは別の場所にあるモニタ装置でもよいし、撮影スタジオにあるモニタ装置でもよい。モニタ40は、少なくともプレビジュアライゼーションの段階でシミュレーション映像vSMを表示させるものであればどのような形態でもよい。
 レンダリングエンジン31においてレンダリング部32で背景映像vBPを生成し、映像処理部33で実撮影映像化処理を行ってシミュレーション映像vSMを生成する。これをモニタ40に表示させることで、スタッフは、撮影時の撮影映像vCに含まれる背景の映像と同じ色合いとされたシミュレーション映像vSMを確認することができる。これにより、撮影に先立って、色の確認を行い、必要に応じて撮影準備段階でのカメラ502やカメラ信号処理部515での色の調整などを行うことができるようになる。
 ここで映像処理部33は、撮影映像処理部85aの機能により、シミュレーション映像vSMを対象として撮影映像処理の一部を実行する。
 例えば図26に映像処理部33の処理例を示す。
 映像処理部ステップS200で映像処理部33は、撮影時のLEDウォール505の配置位置や角度の情報を取得する。
 シミュレーション映像vSMの生成開始後は、映像処理部33は撮影映像vCのフレーム毎にステップS201からS208の処理を行う。
 ステップS201で映像処理部33は、シミュレーション映像vSMの現在の処理対象のフレームについてのマーカー生成情報Imkを取得する。
 ステップS202で映像処理部33は、現在の処理対象のフレームについての実際の撮影時の撮影情報としてカメラ502の位置、撮影方向、画角の情報を取得する。カメラワークが予め決められている場合、シミュレーション映像vSMのフレームに対応するカメラ502の位置、撮影方向、画角の情報を取得できる。
 ステップS203で映像処理部33は、LEDウォール505の情報と、撮影情報と、マーカー生成情報Imk(パターン形状、サイズ)を用いてマーカー位置推定処理P12を行い、マーカー位置推定画像vMKbを生成する。
 またステップS204で映像処理部33は、マーカー生成情報Imk(輝度、色)に基づいて閾値を設定し、シミュレーション映像vSMからのマーカー抽出処理P11を行ってマーカー抽出画像vMKaを生成する。
 ステップS205で映像処理部33は、今回のフレームについて境界マーカー60の一部又は全部が含まれているか否かを判定する。
 今回のフレームに境界マーカー60が含まれていなければ、ステップS208に進む。
 一方、今回のフレームに境界マーカー60が含まれていれば、映像処理部33はステップS206に進み、周辺光量落ち量・歪量検出処理P13を行う。
 そしてステップS207で、周辺光量落ち量と歪量を、今回のフレームの情報として記憶する。例えば図25のDB42において記憶させ、撮影時における撮影映像処理の際に参照できるようにする。
 映像処理部33は、以上の処理を、ステップS208で終了と判定するまでフレーム毎に繰り返す。
 この処理により、撮影前の段階で、DB42は、撮影映像vCのフレーム毎に、周辺光量落ち量と歪量が検出されていることになる。
 従って図18の撮影映像処理の際に、ステップS106を実行しなくてもよい。さらには、それによって、ステップS103,S104はいずれか一方を行えばよい。マーカー抽出画像vMKa又はマーカー位置推定画像vMKbのいずれかから、マスク生成が可能なためである。
 なお、プレビジュアライゼーションの段階でマスクvKの生成までを行っておき、撮影時の撮影映像処理では、フレーム毎にマスクvKを読み出して合成処理P19を行うようにすることもできる。
<6.まとめ及び変型例>
 以上の実施の形態によれば次のような効果が得られる。
 実施の形態の情報処理装置70は、例えばレンダリングエンジン520、カメラ502内のプロセッサ、或いは撮影時にカメラ502からの撮影映像vCを入力する装置などとされて撮影映像処理やマーカー処理を行う。或いは実施の形態の情報処理装置70は、ポストプロダクションST3において映像編集を行う機器とされて撮影映像処理を行う。さらに実施の形態の情報処理装置70は、プレビジュアライゼーションの段階で用いるレンダリングエンジン31とされてマーカー処理や撮影映像処理を行う。
 これらのような情報処理装置70は、背景映像vB等の仮想映像に境界マーカー60を付した映像を表示するLEDウォール505をカメラ502で撮影した撮影映像vCに対して、撮影映像vCの対象フレームにおける前記境界マーカーの位置を判定する判定処理を行う撮影映像処理部85aを備える構成となる。
 撮影映像vCにおいて境界マーカー60を検出することで、カメラ502の撮影範囲がLEDウォール505の表示範囲を越えてはみ出したような場合も、そのはみ出した位置や量を正確に検出して対応処理ができるようになる。例えばはみ出し部分の映像の補填なども正確に実行でき、撮影を無駄にしないようにできる。
 またこれにより撮影時にカメラマン512は撮影範囲がLEDウォール505の範囲に収まるように無理に意識しなくてもよくなり、フレーミングの自由度が拡大する。
 実施の形態では、撮影映像処理部85aは、判定処理として、マーカー生成情報Imkに基づいて、撮影映像vCの対象フレームから境界マーカー60を抽出する処理を行うものとした。即ちレンダリングエンジン520等の情報処理装置70における撮影映像処理部85aはマーカー抽出処理P11において、マーカー生成情報Imkにより境界マーカー60の輝度や色の情報を取得し、それに応じて撮影映像vC内で境界マーカー60の抽出を行う。
 背景映像vBの色や背景内容に対して明確な輝度や色が選択されて境界マーカー60が生成される場合、その輝度や色の情報を得ることで、撮影映像vCからの境界マーカー60の抽出を正確に行うことができるようになる。
 またこれは換言すれば、境界マーカー60を、背景映像vBの内容に応じて輝度や色を設定してもよいことになる。従って背景映像vB内で境界マーカー60を目立たせることを可能とすることに繋がる。
 実施の形態では、撮影映像処理部85aは、判定処理として、撮影時のカメラ502の位置情報、撮影方向、画角を含む撮影情報と、LEDウォール505の位置情報に基づいて、撮影映像vCの対象フレームにおける境界マーカー60の位置を推定するマーカー位置推定処理P12を行うものとした。
 これによりレンズ歪等が無い状態での撮影映像vC内の境界マーカー60の位置を正確に判定できる。
 実施の形態では、撮影映像処理部85aは、撮影映像vCの対象フレームから境界マーカー60を抽出する第1の判定処理(マーカー抽出処理P11)と、撮影映像vCの対象フレームにおける境界マーカー60の位置を推定する第2の判定処理(マーカー位置推定処理P12)を行う。そして撮影映像処理部85aは、これらの結果であるマーカー抽出画像vMKaと、マーカー位置推定画像vMKbを用いて、撮影映像vCの歪量を算出する処理を行う(図18のステップS106,図19参照)。
 歪量を求めることで、枠外付加映像vOTとなる背景映像vB等への歪付加や、撮影映像vCに対する歪除去を正確に行うことが可能になり、違和感のない枠外付加映像vOTの合成が可能になる。これにより最終出力映像vCFの品質を向上させることができる。
 また実施の形態では、撮影映像処理部85aは、第1の判定処理(マーカー抽出処理P11)と、第2の判定処理(マーカー位置推定処理P12)によるマーカー抽出画像vMKaと、マーカー位置推定画像vMKbを用いて、撮影映像vCの周辺光量落ち量を算出する処理を行う(図18のステップS106,図19参照)。
 周辺光量落ち量を求めることで、枠外付加映像vOTへの周辺光量落ちの付加や、撮影映像vCに対する周辺光量落ちの除去を正確に行うことが可能になり、違和感のない枠外付加映像vOTの合成が可能になる。これにより最終出力映像vCFの品質を向上させることができる。
 実施の形態では、撮影映像処理部85aは、撮影映像vCの対象フレームにおける境界マーカー60より内方となる第1領域111と、第1領域111より外方となる第2領域112とを区別するマスクvKを生成する処理と、マスクvKを用いて、撮影映像vCにおける第1領域111の映像に対して、第2領域112に対応する映像とされた枠外付加映像vOTを合成する合成処理を行うものとした。即ち撮影映像処理部85aはマスク生成処理P14で生成したマスクvKを用いて合成処理P19を行う(図18のステップS107,S111,図21,図23参照)。
 これにより撮影映像vCにおける境界マーカー60を含む第2領域112を枠外付加映像vOTに差し替えるように合成処理を行い、LEDウォール505からはみ出した部分も適切な背景となっている最終出力映像vCFを出力できる。
 なお上述のように、このようなマスク生成処理P14や合成処理P19は、撮影時にリアルタイムで行ってもよいが、一方又は両方をポストプロダクションST3の段階で行ってもよい。
 例えば撮影映像vCの各フレームに関連づけて、撮影時のカメラ502の位置情報、撮影方向、画角を含む撮影情報と、LEDウォール505の位置情報と、マーカー生成情報Imkを記憶しておけば、ポストプロダクションST3の際に図18の処理が可能になる。
 また撮影映像vCの各フレームに関連づけて、背景映像vBを記憶しておけば、ステップS109,S110の処理において背景映像vBをそのまま利用できる。
 撮影時にはリアルタイムでマスクvKを生成し、これを撮影映像vCの各フレームに関連づけて記憶しておいて、ポストプロダクションST3での合成処理の際にマスクvKを読み出して使用してもよい。
 実施の形態の例では、撮影映像処理部85aは、合成処理P19で、撮影映像vCにおける第1領域111の映像と、撮影映像vCに生じた歪量又は周辺光量落ち量を付加した枠外付加映像vOTとの合成を行う場合がある。つまり図9の選択処理P17,P18でAコースの選択が行われた場合である。
 これにより第1領域111の撮影映像vCに対して、第2領域112に、同様の歪や周辺光量落ちが加えられた枠外付加映像vOTが合成される。従って枠外付加映像vOTが撮影映像vCに対して違和感なく合成される。特にこの場合は、カメラ502のレンズ歪等が生かされた状態の最終出力映像vCFを得ることができる。
 なお、プレビジュアライゼーションの段階で、各フレームについて歪量を算出しておくことができる(図26参照)。これにより撮影時の図18の処理としてはステップS106が不要となり、枠外付加映像vOTとなる背景映像vB等に対する歪量の付加のための処理負担が軽減される。従って図18の処理を撮影時にリアルタイムで行う場合に好適となる。
 また実施の形態の例では、撮影映像処理部85aは、合成処理P19で、歪量又は周辺光量落ち量を除去した撮影映像vCにおける第1領域111の映像と、枠外付加映像vOT(背景映像vB等)との合成を行う場合がある。つまり図9の選択処理P17,P18でBコースの選択が行われた場合である。
 これにより第1領域111の歪や周辺光量落ちが除去された撮影映像vCに対して、歪や周辺光量落ちが加えられていない枠外付加映像vOTが合成される。従って枠外付加映像vOTが撮影映像vCに対して違和感なく合成される。特にこの場合は、カメラ502のレンズ歪がキャンセルされた状態の最終出力映像vCFを得ることができる。
 なお、プレビジュアライゼーションの段階で、各フレームについて周辺光量落ち量を算出しておくことで(図26参照)、撮影時の図18の処理においてステップS106が不要となり、撮影映像vCについて周辺光量落ち量を除去するための処理負担が軽減される。従って図18の処理を撮影時にリアルタイムで行う場合に好適となる。
 またAコースとBコースの選択が行われるものとしたが、選択処理P17,P18を行わないでAコースのみ、又はBコースのみとする処理も考えられる。
 つまり合成処理P19では、常に、撮影映像vCにおける第1領域111の映像と、撮影映像vCに生じた歪量又は周辺光量落ち量を付加した枠外付加映像vOT(背景映像vB等)との合成を行うものとしてもよい。
 或いは合成処理P19では、常に、歪量又は周辺光量落ち量を除去した撮影映像vCにおける第1領域111の映像と、枠外付加映像vOT(背景映像vB等)との合成を行うものとしてもよい。
 実施の形態では、撮影映像処理部85aは、合成処理P19では、第1領域111と第2領域112の境界近辺で、撮影映像vCと背景映像vB等による枠外付加映像vOTの映像比率を段階的に変化させて合成する例を述べた。
 図22,図23で説明したように、第1領域111の境界近辺をブレンド領域111aとし、マスクvKのα値を「0」から「1」の間で段階的に変化させるようにした。これにより撮影映像vCと枠外付加映像vOTの境界が目立たなくすることができ最終出力映像vCFの品質を向上させることができる。
 実施の形態では、枠外付加映像vOTとして、LEDウォール505に表示させるためにレンダリングした背景映像vBを用いる例を挙げた。
 例えば背景映像vBをそのまま枠外付加映像vOTとして用いる。これにより枠外付加映像vOTを別途制作する必要はない。またこのため撮影時のリアルタイムでの合成処理にも適している。
 但し、背景映像vBとは別に第2領域112の映像を生成して枠外付加映像vOTとしてもよい。
 実施の形態では、情報処理装置70は、LEDウォール505に表示させる背景映像vB(仮想映像)に対して、境界マーカー60を付加する処理を行うマーカー処理部85bを備える例を挙げた。
 これによりLEDウォール505に境界マーカー60の表示が行われる。従って上述の撮影映像処理部85aの処理が可能となる。
 なお撮影映像処理部85aとマーカー処理部85bとしての機能は、例えばレンダリングエンジン520等の情報処理装置70が両方を備えてもよいが、それぞれ別体の情報処理装置70が備えるようにしてもよい。
 実施の形態では、マーカー処理部85bは、LEDウォール505の表示領域の境界を示すとともにカメラ502の撮影による歪量、周辺光量落ち量を検出可能なパターンを有する境界マーカー60を生成して背景映像vBに付加する例を挙げた。
 例えば境界マーカー60は、境界ライン61と検出パターン62を有するようにする。これにより撮影映像処理部85aにおける周辺光量落ち量や歪み量の検出処理や、これらの除去、付加の処理が可能になる。
 なお、境界マーカー60としては、少なくとも境界ライン61を有するものとし、撮影範囲がLEDウォール505の枠外へはみ出したことを検出できるものであればよい。つまり検出パターン62を設けない例もある。
 実施の形態では、マーカー処理部85bは、LEDウォール505に表示させる背景映像vBにおける、LEDウォール505の周縁部に相当する位置に境界マーカー60を付加する処理を行うものとした。
 レンダリングにより生成した背景映像vBの全領域がLEDウォール505に表示されるとは限らない。図10Aのように実表示領域100より広い範囲の背景映像vBが生成されることもある。そこで、図10BのようにLEDウォール505で実際に表示される範囲である実表示領域100の周縁部に境界マーカー60を付加する。これにより図9に示すように、LEDウォール505の周縁部に境界マーカー60の表示が行われ、撮影映像処理部85aの処理が適切に実行できる。
 なお例えば図10Aのような背景映像vBの全体がLEDウォール505で表示されるなら、その背景映像vBの全体における周縁部に境界マーカー60を付加するようにすることが適切である。
 実施の形態では、マーカー処理部85bは、マーカー生成情報Imkを記録させる処理を行うものとした(図17のステップS54参照)。
 例えば境界マーカー60の輝度、色、パターン形状、サイズなどのマーカー生成情報Imkを記録媒体に記憶させる。これによりマーカー付加後のタイミング、例えばポストプロダクションST3の段階でも、撮影映像vCからマーカー抽出を行うことが可能になる。
 なお図8の情報処理装置70は、映像処理部33として撮影映像処理を行う機能である撮影映像処理部85aと、マーカー処理を行う機能であるマーカー処理部85bを共に備える例としたが、これに限らない。例えばマーカー処理部85bを備えて撮影映像処理部85aを備えない情報処理装置70や、撮影映像処理部85aを備えてマーカー処理部85bを備えない情報処理装置70も想定される。
 また実施の形態ではLEDウォール505に表示させる映像である背景映像vBは、3Dモデルを用いたレンダリングにより得た仮想映像としたが、例えば実写映像をLEDウォール505に表示させる場合にも、境界マーカー60を付加するマーカー処理や、撮影映像vCに対する撮影映像処理は有効である。
 実施の形態のプログラムは、上述の図17,図18,図26のような処理を、例えばCPU、DSP等のプロセッサ、或いはこれらを含むデバイスに実行させるプログラムである。
 即ち実施の形態のプログラムは、LEDウォール505等のディスプレイの表示領域における周縁部に表示させる境界マーカー60を含む映像(例えば背景映像vB等の仮想映像)を表示するディスプレイをカメラで撮影した撮影映像vCに対して、撮影映像vCの対象フレームにおける境界マーカー60の位置を判定する処理を情報処理装置70に実行させるプログラムである。
 このようなプログラムにより、上述したレンダリングエンジン520等のプロダクションST2で動作する情報処理装置70や、ポストプロダクションST3で用いられる情報処理装置70、或いはプレビジュアライゼーションで用いられる情報処理装置70を、各種のコンピュータ装置により実現できる。
 このようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。また、このようなプログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 またこのようなプログラムによれば、実施の形態の情報処理装置70の広範な提供に適している。例えばパーソナルコンピュータ、通信機器、スマートフォンやタブレット等の携帯端末装置、携帯電話機、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、これらの装置を本開示の情報処理装置70として機能させることができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 なお本技術は以下のような構成も採ることができる。
 (1)
 ディスプレイの表示領域における周縁部に表示させる境界マーカーを含む映像を表示する前記ディスプレイをカメラで撮影した撮影映像に対して、撮影映像の対象フレームにおける前記境界マーカーの位置を判定する判定処理を行う撮影映像処理部を備えた
 情報処理装置。
 (2)
 前記撮影映像処理部は、前記判定処理として、前記境界マーカーの生成情報に基づいて、前記撮影映像の対象フレームから前記境界マーカーを抽出する処理を行う
 上記(1)に記載の情報処理装置。
 (3)
 前記撮影映像処理部は、前記判定処理として、撮影時の前記カメラの位置情報、撮影方向、画角を含む撮影情報と、前記ディスプレイの位置情報に基づいて、前記撮影映像の対象フレームにおける前記境界マーカーの位置を推定する処理を行う
 上記(1)又は(2)に記載の情報処理装置。
 (4)
 前記撮影映像処理部は、
 前記撮影映像の対象フレームから前記境界マーカーを抽出する第1の判定処理と、
 前記撮影映像の対象フレームにおける前記境界マーカーの位置を推定する第2の判定処理と、
 前記第1の判定処理の判定結果と、前記第2の判定処理の判定結果とに基づいて、前記撮影映像の歪量を算出する処理と、を行う
 上記(1)から(3)のいずれかに記載の情報処理装置。
 (5)
 前記撮影映像処理部は、
 前記撮影映像の対象フレームから前記境界マーカーを抽出する第1の判定処理と、
 前記撮影映像の対象フレームにおける前記境界マーカーの位置を推定する第2の判定処理と、
 前記第1の判定処理の判定結果と、前記第2の判定処理の判定結果とに基づいて、前記撮影映像の周辺光量落ち量を算出する処理と、を行う
 上記(1)から(4)のいずれかに記載の情報処理装置。
 (6)
 前記撮影映像処理部は、
 前記撮影映像の対象フレームにおける前記境界マーカーより内方となる第1領域と、前記第1領域より外方となる第2領域とを区別するマスクを生成する処理と、
 前記マスクを用いて、前記撮影映像における前記第1領域の映像に対して、前記第2領域に対応する映像とされた付加映像を合成する合成処理と、を行う
 上記(1)から(5)のいずれかに記載の情報処理装置。
 (7)
 前記撮影映像処理部は、
 前記合成処理では、
 前記撮影映像における前記第1領域の映像と、前記撮影映像に生じた歪量又は周辺光量落ち量を付加した前記付加映像との合成を行う
 上記(6)に記載の情報処理装置。
 (8)
 前記撮影映像処理部は、
 前記合成処理では、
 歪量又は周辺光量落ち量を除去した前記撮影映像における前記第1領域の映像と、前記付加映像との合成を行う
 上記(6)に記載の情報処理装置。
 (9)
 前記撮影映像処理部は、
 前記合成処理では、
 前記第1領域と前記第2領域の境界領域で、前記撮影映像と前記付加映像の映像比率を段階的に変化させて合成する
 上記(6)から(8)のいずれかに記載の情報処理装置。
 (10)
 前記付加映像として、前記ディスプレイに表示させるためにレンダリングした仮想映像を用いる
 上記(6)から(9)のいずれかに記載の情報処理装置。
 (11)
 前記ディスプレイに表示させる映像に対して、前記境界マーカーを付加する処理を行うマーカー処理部を備えた
 上記(1)から(10)のいずれかに記載の情報処理装置。
 (12)
 前記マーカー処理部は、カメラの撮影による歪量又は周辺光量落ち量を検出可能なパターンを有する前記境界マーカーを生成して前記ディスプレイに表示させる映像に付加する
 上記(11)に記載の情報処理装置。
 (13)
 前記マーカー処理部は、前記ディスプレイに表示させる映像における、前記ディスプレイの周縁部に相当する位置に前記境界マーカーを付加する処理を行う
 上記(11)又は(12)に記載の情報処理装置。
 (14)
 前記マーカー処理部は、前記境界マーカーの生成情報を記録させる処理を行う
 上記(11)から(13)のいずれかに記載の情報処理装置。
 (15)
 前記ディスプレイに表示させる映像は、3Dモデルを用いたレンダリングにより得た仮想映像である
 上記(1)から(14)のいずれかに記載の情報処理装置。
 (16)
 カメラによる撮影対象となるディスプレイに表示させる映像に対して、前記ディスプレイの表示領域内の周縁部に表示させる境界マーカーを付加する処理を行うマーカー処理部を備えた
 情報処理装置。
 (17)
 ディスプレイの表示領域における周縁部に表示させる境界マーカーを含む映像を表示する前記ディスプレイをカメラで撮影した撮影映像に対して、撮影映像の対象フレームにおける前記境界マーカーの位置を判定する処理を
 情報処理装置が行う情報処理方法。
 (18)
 ディスプレイの表示領域における周縁部に表示させる境界マーカーを含む映像を表示する前記ディスプレイをカメラで撮影した撮影映像に対して、撮影映像の対象フレームにおける前記境界マーカーの位置を判定する処理を
 情報処理装置に実行させるプログラム。
60 境界マーカー
70 情報処理装置、
71 CPU
85 映像処理部
85a 出力映像処理部
85b マーカー処理部
111 第1領域
112 第2領域
502 カメラ
505 LEDウォール
520 レンダリングエンジン
vB 背景映像
vBC 撮影領域映像(インナーフラスタム)
vC 撮影映像
vCF 最終出力映像
vMK マーカー画像
vMKa マーカー抽出画像
vMKb マーカー位置推定画像
vOT 枠外付加映像
vK マスク
Imk マーカー生成情報

Claims (18)

  1.  ディスプレイの表示領域における周縁部に表示させる境界マーカーを含む映像を表示する前記ディスプレイをカメラで撮影した撮影映像に対して、撮影映像の対象フレームにおける前記境界マーカーの位置を判定する判定処理を行う撮影映像処理部を備えた
     情報処理装置。
  2.  前記撮影映像処理部は、前記判定処理として、前記境界マーカーの生成情報に基づいて、前記撮影映像の対象フレームから前記境界マーカーを抽出する処理を行う
     請求項1に記載の情報処理装置。
  3.  前記撮影映像処理部は、前記判定処理として、撮影時の前記カメラの位置情報、撮影方向、画角を含む撮影情報と、前記ディスプレイの位置情報に基づいて、前記撮影映像の対象フレームにおける前記境界マーカーの位置を推定する処理を行う
     請求項1に記載の情報処理装置。
  4.  前記撮影映像処理部は、
     前記撮影映像の対象フレームから前記境界マーカーを抽出する第1の判定処理と、
     前記撮影映像の対象フレームにおける前記境界マーカーの位置を推定する第2の判定処理と、
     前記第1の判定処理の判定結果と、前記第2の判定処理の判定結果とに基づいて、前記撮影映像の歪量を算出する処理と、を行う
     請求項1に記載の情報処理装置。
  5.  前記撮影映像処理部は、
     前記撮影映像の対象フレームから前記境界マーカーを抽出する第1の判定処理と、
     前記撮影映像の対象フレームにおける前記境界マーカーの位置を推定する第2の判定処理と、
     前記第1の判定処理の判定結果と、前記第2の判定処理の判定結果とに基づいて、前記撮影映像の周辺光量落ち量を算出する処理と、を行う
     請求項1に記載の情報処理装置。
  6.  前記撮影映像処理部は、
     前記撮影映像の対象フレームにおける前記境界マーカーより内方となる第1領域と、前記第1領域より外方となる第2領域とを区別するマスクを生成する処理と、
     前記マスクを用いて、前記撮影映像における前記第1領域の映像に対して、前記第2領域に対応する映像とされた付加映像を合成する合成処理と、を行う
     請求項1に記載の情報処理装置。
  7.  前記撮影映像処理部は、
     前記合成処理では、
     前記撮影映像における前記第1領域の映像と、前記撮影映像に生じた歪量又は周辺光量落ち量を付加した前記付加映像との合成を行う
     請求項6に記載の情報処理装置。
  8.  前記撮影映像処理部は、
     前記合成処理では、
     歪量又は周辺光量落ち量を除去した前記撮影映像における前記第1領域の映像と、前記付加映像との合成を行う
     請求項6に記載の情報処理装置。
  9.  前記撮影映像処理部は、
     前記合成処理では、
     前記第1領域と前記第2領域の境界領域で、前記撮影映像と前記付加映像の映像比率を段階的に変化させて合成する
     請求項6に記載の情報処理装置。
  10.  前記付加映像として、前記ディスプレイに表示させるためにレンダリングした仮想映像を用いる
     請求項6に記載の情報処理装置。
  11.  前記ディスプレイに表示させる映像に対して、前記境界マーカーを付加する処理を行うマーカー処理部を備えた
     請求項1に記載の情報処理装置。
  12.  前記マーカー処理部は、カメラの撮影による歪量又は周辺光量落ち量を検出可能なパターンを有する前記境界マーカーを生成して前記ディスプレイに表示させる映像に付加する
     請求項11に記載の情報処理装置。
  13.  前記マーカー処理部は、前記ディスプレイに表示させる映像における、前記ディスプレイの周縁部に相当する位置に前記境界マーカーを付加する処理を行う
     請求項11に記載の情報処理装置。
  14.  前記マーカー処理部は、前記境界マーカーの生成情報を記録させる処理を行う
     請求項11に記載の情報処理装置。
  15.  前記ディスプレイに表示させる映像は、3Dモデルを用いたレンダリングにより得た仮想映像である
     請求項1に記載の情報処理装置。
  16.  カメラによる撮影対象となるディスプレイに表示させる映像に対して、前記ディスプレイの表示領域内の周縁部に表示させる境界マーカーを付加する処理を行うマーカー処理部を備えた
     情報処理装置。
  17.  ディスプレイの表示領域における周縁部に表示させる境界マーカーを含む映像を表示する前記ディスプレイをカメラで撮影した撮影映像に対して、撮影映像の対象フレームにおける前記境界マーカーの位置を判定する処理を
     情報処理装置が行う情報処理方法。
  18.  ディスプレイの表示領域における周縁部に表示させる境界マーカーを含む映像を表示する前記ディスプレイをカメラで撮影した撮影映像に対して、撮影映像の対象フレームにおける前記境界マーカーの位置を判定する処理を
     情報処理装置に実行させるプログラム。
PCT/JP2023/029689 2022-09-02 2023-08-17 情報処理装置、情報処理方法、プログラム WO2024048295A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022139862A JP2024035420A (ja) 2022-09-02 2022-09-02 情報処理装置、情報処理方法、プログラム
JP2022-139862 2022-09-02

Publications (1)

Publication Number Publication Date
WO2024048295A1 true WO2024048295A1 (ja) 2024-03-07

Family

ID=90099402

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/029689 WO2024048295A1 (ja) 2022-09-02 2023-08-17 情報処理装置、情報処理方法、プログラム

Country Status (2)

Country Link
JP (1) JP2024035420A (ja)
WO (1) WO2024048295A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200145644A1 (en) * 2018-11-06 2020-05-07 Lucasfilm Entertainment Company Ltd. LLC Immersive content production system with multiple targets
US20210342971A1 (en) * 2020-04-29 2021-11-04 Lucasfilm Entertainment Company Ltd. Photogrammetric alignment for immersive content production

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200145644A1 (en) * 2018-11-06 2020-05-07 Lucasfilm Entertainment Company Ltd. LLC Immersive content production system with multiple targets
US20210342971A1 (en) * 2020-04-29 2021-11-04 Lucasfilm Entertainment Company Ltd. Photogrammetric alignment for immersive content production

Also Published As

Publication number Publication date
JP2024035420A (ja) 2024-03-14

Similar Documents

Publication Publication Date Title
JP5108093B2 (ja) 撮像装置及び撮像方法
EP2884337B1 (en) Realistic scene illumination reproduction
JP4220470B2 (ja) 映画におけるデジタルイメージング用のリアリティベースのライト環境
US10356377B2 (en) Control and display system with synchronous direct view video array and incident key lighting
US11488348B1 (en) Computing virtual screen imagery based on a stage environment, camera position, and/or camera settings
JP5672796B2 (ja) 画像処理装置、画像処理方法
JP2012147379A (ja) 撮像装置及び撮像装置の制御方法
US20240029342A1 (en) Method and data processing system for synthesizing images
JP5804856B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2004088247A (ja) 画像処理装置、カメラキャリブレーション処理装置、および方法、並びにコンピュータ・プログラム
US11615755B1 (en) Increasing resolution and luminance of a display
WO2024048295A1 (ja) 情報処理装置、情報処理方法、プログラム
JP2016015017A (ja) 撮像装置、投光装置、および画像処理方法、ビームライト制御方法、並びにプログラム
WO2023007817A1 (ja) 情報処理装置、映像処理方法、プログラム
WO2023238646A1 (ja) 情報処理装置、情報処理方法、プログラム、情報処理システム
WO2023223759A1 (ja) 情報処理装置、情報処理方法、撮影システム
WO2023176269A1 (ja) 情報処理装置、情報処理方法、プログラム
WO2023047643A1 (ja) 情報処理装置、映像処理方法、プログラム
JP6770442B2 (ja) 画像処理装置及びそのプログラム
WO2023047645A1 (ja) 情報処理装置、映像処理方法、プログラム
WO2023223758A1 (ja) スイッチャー装置、制御方法、撮影システム
WO2024004584A1 (ja) 情報処理装置、情報処理方法、プログラム
KR20050015737A (ko) 조명제어에 의한 사실적 영상합성 방법
WO2024075525A1 (ja) 情報処理装置およびプログラム
WO2023095742A1 (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23860059

Country of ref document: EP

Kind code of ref document: A1