JP2024004671A - Moving image recording system, moving image recording method, and program - Google Patents

Moving image recording system, moving image recording method, and program Download PDF

Info

Publication number
JP2024004671A
JP2024004671A JP2022104401A JP2022104401A JP2024004671A JP 2024004671 A JP2024004671 A JP 2024004671A JP 2022104401 A JP2022104401 A JP 2022104401A JP 2022104401 A JP2022104401 A JP 2022104401A JP 2024004671 A JP2024004671 A JP 2024004671A
Authority
JP
Japan
Prior art keywords
video
imaging
imaging device
virtual
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022104401A
Other languages
Japanese (ja)
Inventor
章 五島
Akira Goshima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2022104401A priority Critical patent/JP2024004671A/en
Publication of JP2024004671A publication Critical patent/JP2024004671A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a natural moving image including a plurality of subjects located in different spaces.
SOLUTION: A moving image recording system comprises: an imaging control unit 41 which causes a first imaging apparatus in a first real space and a second imaging apparatus in a second real space to operate in parallel mutually in terms of time under a common imaging condition; and a moving image composition unit 43 which generates a composite moving image by composing a first moving image captured by the first imaging apparatus and a second moving image captured by the second imaging apparatus.
SELECTED DRAWING: Figure 4
COPYRIGHT: (C)2024,JPO&INPIT

Description

本開示は、動画を収録する技術に関する。 The present disclosure relates to a technique for recording moving images.

個別に収録された複数の動画を合成する技術が従来から提案されている。例えば特許文献1には、相異なるカメラにより複数の動画を撮像し、複数の動画の各々から抽出されたユーザの動画を所定の背景動画に合成する技術が開示されている。 BACKGROUND ART Techniques for compositing multiple videos recorded individually have been proposed in the past. For example, Patent Document 1 discloses a technique in which a plurality of moving images are captured using different cameras and a user's moving image extracted from each of the plurality of moving images is combined with a predetermined background moving image.

特許第6627861号公報Patent No. 6627861

しかし、特許文献1の技術において、複数のカメラの各々は個別の撮像条件によりユーザを撮像する。したがって、撮像方向または撮像倍率等の撮像条件がユーザ毎に相違する不自然な合成動画が生成されるという課題がある。以上の事情を考慮して、本開示のひとつの態様は、相異なる空間に所在する複数の被写体を含む自然な動画を生成することを目的とする。 However, in the technique disclosed in Patent Document 1, each of the plurality of cameras images the user under individual imaging conditions. Therefore, there is a problem in that an unnatural composite video is generated in which the imaging conditions such as the imaging direction or imaging magnification are different for each user. In consideration of the above circumstances, one aspect of the present disclosure aims to generate a natural moving image that includes a plurality of subjects located in different spaces.

以上の課題を解決するために、本開示のひとつの態様に係る動画収録システムは、第1現実空間内の第1撮像装置と第2現実空間内の第2撮像装置とを共通の撮像条件のもとで時間的に相互に並列に動作させる撮像制御部と、前記第1撮像装置が撮像した第1動画と前記第2撮像装置が撮像した第2動画との合成により合成動画を生成する動画合成部とを具備する。 In order to solve the above problems, a video recording system according to one aspect of the present disclosure connects a first imaging device in a first real space and a second imaging device in a second real space under common imaging conditions. an imaging control unit that operates temporally in parallel with each other; and a video that generates a composite video by combining a first video captured by the first imaging device and a second video captured by the second imaging device. and a synthesis section.

本開示のひとつの態様に係る動画収録方法は、第1現実空間内の第1撮像装置と第2現実空間内の第2撮像装置とを共通の撮像条件のもとで時間的に相互に並列に動作させることと、前記第1撮像装置が撮像した第1動画と前記第2撮像装置が撮像した第2動画との合成により合成動画を生成することとを含む。 A video recording method according to one aspect of the present disclosure is such that a first imaging device in a first real space and a second imaging device in a second real space are temporally parallel to each other under a common imaging condition. and generating a composite video by combining a first video captured by the first imaging device and a second video captured by the second imaging device.

本開示のひとつの態様に係るプログラムは、第1現実空間内の第1撮像装置と第2現実空間内の第2撮像装置とを共通の撮像条件のもとで時間的に相互に並列に動作させる撮像制御部、および、前記第1撮像装置が撮像した第1動画と前記第2撮像装置が撮像した第2動画との合成により合成動画を生成する動画合成部、としてコンピュータシステムを機能させる。 A program according to one aspect of the present disclosure operates a first imaging device in a first real space and a second imaging device in a second real space temporally in parallel with each other under a common imaging condition. and a video synthesis unit that generates a composite video by combining a first video captured by the first imaging device and a second video captured by the second imaging device.

第1実施形態に係る動画収録システムの構成を例示するブロック図である。FIG. 1 is a block diagram illustrating the configuration of a video recording system according to a first embodiment. 収録システムの構成を例示するブロック図である。FIG. 1 is a block diagram illustrating the configuration of a recording system. 制御システムの構成を例示するブロック図である。FIG. 1 is a block diagram illustrating the configuration of a control system. 制御システムの機能的な構成を例示するブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of a control system. 合成動画の生成に関する説明図であるIt is an explanatory diagram regarding generation of a composite video. 仮想空間の説明図であるIt is an explanatory diagram of virtual space. 動画収録処理のフローチャートである。It is a flowchart of video recording processing. 動画収録処理のフローチャートである。It is a flowchart of video recording processing. 撮像条件と合成動画との関係の説明図である。FIG. 3 is an explanatory diagram of the relationship between imaging conditions and a composite moving image. 第2実施形態における合成動画の生成の説明図である。FIG. 7 is an explanatory diagram of generation of a composite video in the second embodiment. 第2実施形態における動画収録処理の部分的なフローチャートである。It is a partial flowchart of the moving image recording process in 2nd Embodiment. 第3実施形態における動画収録システムの構成を例示するブロック図である。FIG. 3 is a block diagram illustrating the configuration of a video recording system in a third embodiment. 第3実施形態における再生制御処理のフローチャートである。It is a flowchart of reproduction control processing in a 3rd embodiment. 第4実施形態における動画収録システムの構成を例示するブロック図である。FIG. 3 is a block diagram illustrating the configuration of a video recording system in a fourth embodiment. 第4実施形態における制御システムの機能的な構成を例示するブロック図である。FIG. 3 is a block diagram illustrating the functional configuration of a control system in a fourth embodiment. 第4実施形態における動画収録処理の部分的なフローチャートである。It is a partial flowchart of the video recording process in 4th Embodiment. 第5実施形態における動画収録システムの構成を例示するブロック図である。FIG. 3 is a block diagram illustrating the configuration of a video recording system in a fifth embodiment. 第5実施形態における制御システムの機能的な構成を例示するブロック図である。FIG. 3 is a block diagram illustrating the functional configuration of a control system in a fifth embodiment. 第5実施形態における合成動画の生成の説明図である。FIG. 7 is an explanatory diagram of generation of a composite video in the fifth embodiment. 第5実施形態における動画収録処理のフローチャートである。It is a flowchart of video recording processing in a 5th embodiment. 変形例における動画収録システムの構成を例示するブロック図である。FIG. 3 is a block diagram illustrating the configuration of a video recording system in a modified example. 変形例における動画合成処理Scの部分的なフローチャートであるIt is a partial flowchart of video composition processing Sc in a modified example.

図面を参照しながら本開示の実施の形態を説明する。以下に記載する実施の形態は、技術的に好適な種々の限定を含む。本開示の範囲は、以下に例示する形態には限定されない。 Embodiments of the present disclosure will be described with reference to the drawings. The embodiments described below include various technically suitable limitations. The scope of the present disclosure is not limited to the forms illustrated below.

[第1実施形態]
図1は、第1実施形態における動画収録システム100の構成を例示するブロック図である。動画収録システム100は、例えばインターネット等の通信網を介して端末装置200に配信されるコンテンツ(以下「配信コンテンツ」という)Cを収録するためのコンピュータシステムである。配信コンテンツCは、端末装置200の利用者による視聴のために端末装置200に配信される情報である。例えば、配信コンテンツCは、例えば複数の対戦者がビデオゲームにより対戦する競技イベント(esports)の動画および音声で構成される。配信コンテンツCは、例えばスマートフォン、タブレット端末またはパーソナルコンピュータ等の端末装置200に配信される。なお、図1においては便宜的に1個の端末装置200のみが図示されているが、実際には複数の端末装置200に対して配信コンテンツCが配信される。
[First embodiment]
FIG. 1 is a block diagram illustrating the configuration of a video recording system 100 in the first embodiment. The video recording system 100 is a computer system for recording content (hereinafter referred to as "distributed content") C distributed to the terminal device 200 via a communication network such as the Internet. Distribution content C is information distributed to the terminal device 200 for viewing by the user of the terminal device 200. For example, the distributed content C is composed of videos and audio of a competitive event (esports) in which a plurality of competitors compete in a video game. Distribution content C is distributed to a terminal device 200 such as a smartphone, a tablet terminal, or a personal computer. Although only one terminal device 200 is illustrated in FIG. 1 for convenience, the distribution content C is actually distributed to a plurality of terminal devices 200.

動画収録システム100は、収録システム20-1と収録システム20-2と制御システム30とを具備する。収録システム20-1および収録システム20-2の各々は、通信網を介して制御システム30と通信する。 The video recording system 100 includes a recording system 20-1, a recording system 20-2, and a control system 30. Each of recording system 20-1 and recording system 20-2 communicates with control system 30 via a communication network.

収録システム20-1は収録スタジオR1内に設置される。収録システム20-2は収録スタジオR2内に設置される。収録スタジオR1および収録スタジオR2は、相異なる現実の空間である。収録スタジオR1と収録スタジオR2とは、例えば遠隔地に位置する。なお、収録スタジオR1は「第1現実空間」の一例であり、収録スタジオR2は「第2現実空間」の一例である。 The recording system 20-1 is installed in the recording studio R1. The recording system 20-2 is installed in the recording studio R2. Recording studio R1 and recording studio R2 are different real spaces. The recording studio R1 and the recording studio R2 are located in remote locations, for example. Note that the recording studio R1 is an example of a "first real space" and the recording studio R2 is an example of a "second real space."

収録スタジオR1には、収録対象となる被写体Q1が存在する。被写体Q1は、例えば配信コンテンツCの出演者Q11および演出用の設備Q12を含む。同様に、収録スタジオR2には、収録対象となる被写体Q2が存在する。被写体Q2は、例えば配信コンテンツCの出演者Q21および演出用の設備Q22を含む。出演者Q11および出演者Q21は、例えば競技イベントの出場者または解説者である。収録スタジオR1における被写体Q1の背景はグリーンバックで構成される。同様に、収録スタジオR2内における被写体Q2の背景はグリーンバックで構成される。なお、被写体Q1は「第1被写体」の一例であり、被写体Q2は「第2被写体」の一例である。 In the recording studio R1, there is a subject Q1 to be recorded. The subject Q1 includes, for example, the performer Q11 of the distributed content C and the production equipment Q12. Similarly, there is a subject Q2 to be recorded in the recording studio R2. The subject Q2 includes, for example, the performer Q21 of the distributed content C and the production equipment Q22. Performer Q11 and performer Q21 are, for example, contestants or commentators of a competitive event. The background of the subject Q1 in the recording studio R1 is composed of a green screen. Similarly, the background of the subject Q2 in the recording studio R2 is composed of a green screen. Note that the subject Q1 is an example of a "first subject," and the subject Q2 is an example of a "second subject."

図2は、収録システム20-1および収録システム20-2のブロック図である。以下においては、収録システム20-1および収録システム20-2を「収録システム20-n」(n=1,2)と総称することで両者の構成を一括的に説明する。図2に例示される通り、収録システム20-nは、撮像装置21-nと収音装置22-nと通信装置23-nとを具備する。なお、収音装置22-nおよび通信装置23-nの一方または双方は、撮像装置21-nに搭載されてもよい。撮像装置21-1は「第1撮像装置」の一例であり、撮像装置21-2は「第2撮像装置」の一例である。 FIG. 2 is a block diagram of the recording system 20-1 and the recording system 20-2. In the following, the recording system 20-1 and recording system 20-2 will be collectively referred to as "recording system 20-n" (n=1, 2), and the configurations of both systems will be collectively explained. As illustrated in FIG. 2, the recording system 20-n includes an imaging device 21-n, a sound pickup device 22-n, and a communication device 23-n. Note that one or both of the sound collection device 22-n and the communication device 23-n may be installed in the imaging device 21-n. The imaging device 21-1 is an example of a "first imaging device," and the imaging device 21-2 is an example of a "second imaging device."

撮像装置21-nは、収録スタジオRn内の動画Vnを撮像するカメラである。すなわち、撮像装置21-1は収録スタジオR1内における撮像により動画V1を収録し、撮像装置21-2は収録スタジオR2内における撮像により動画V2を収録する。各撮像装置21-nは、例えば、撮影レンズ等の光学系と、光学系からの入射光を受光する撮像素子と、撮像素子による受光量に応じて動画Vnのデータを生成する処理回路とを具備する。なお、動画Vnを表すデータの形式は任意である。動画V1は「第1動画」の一例であり、動画V2は「第2動画」の一例である。 The imaging device 21-n is a camera that images a video Vn in the recording studio Rn. That is, the imaging device 21-1 records the moving image V1 by imaging within the recording studio R1, and the imaging device 21-2 records the moving image V2 by imaging within the recording studio R2. Each imaging device 21-n includes, for example, an optical system such as a photographic lens, an imaging element that receives incident light from the optical system, and a processing circuit that generates data of a moving image Vn according to the amount of light received by the imaging element. Be equipped. Note that the format of data representing the video Vn is arbitrary. The video V1 is an example of a "first video," and the video V2 is an example of a "second video."

撮像装置21-nは、動画Vnを撮像する条件(以下「撮像条件」という)を変更可能なPTZ(Panoramac-Tilt-Zoom)カメラである。撮像条件は、撮像装置21-nが撮像する範囲を規定する条件である。例えば、撮像方向および撮像倍率が撮像条件として例示される。撮像方向は、撮影レンズの光軸の方向であり、例えば水平方向(パン)および垂直方向(チルト)に変化する。撮像倍率は、例えば焦点距離に応じた倍率(ズーム)である。 The imaging device 21-n is a PTZ (Panorama-Tilt-Zoom) camera that can change the conditions for imaging the video Vn (hereinafter referred to as "imaging conditions"). The imaging conditions are conditions that define the range to be imaged by the imaging device 21-n. For example, an imaging direction and an imaging magnification are exemplified as imaging conditions. The imaging direction is the direction of the optical axis of the photographic lens, and changes, for example, in the horizontal direction (panning) and vertical direction (tilting). The imaging magnification is, for example, a magnification (zoom) depending on the focal length.

撮像装置21-nの撮像条件は、制御システム30から送信される制御データDに応じて制御される。制御データDは、撮像装置21-nに撮像条件を指示するデータである。撮像装置21-1と撮像装置21-2とは同機種であり、動作特性等の仕様は両者間で共通する。したがって、撮像装置21-1と撮像装置21-2とは、制御データDに対して同様に動作する。 The imaging conditions of the imaging device 21-n are controlled according to control data D transmitted from the control system 30. Control data D is data that instructs imaging conditions to the imaging device 21-n. The imaging device 21-1 and the imaging device 21-2 are of the same model, and specifications such as operating characteristics are common between them. Therefore, the imaging device 21-1 and the imaging device 21-2 operate in the same manner with respect to the control data D.

また、撮像装置21-nは、制御データDに応じた撮像装置21-nの動作の結果を表す動作データHnを生成する。動作データHnは、制御データDに応じて制御された撮像装置21-nにおける実際の撮像条件を表すデータである。撮像条件は制御データDにより指示されるから、基本的には、制御データDにより指示される撮像条件と動作データHnが表す撮像条件とは一致する。しかし、実際には、撮像装置21-nの特性誤差等の事情に起因して、制御データDにより指示される撮像条件と動作データHnが表す撮像条件とが一致しない場合がある。以上の通り、制御データDは撮像条件を指示するデータであるのに対し、動作データHnは、撮像装置21-nの撮像条件を制御データDに応じて実際に制御した結果を表すデータである。なお、制御データDと動作データHnとの間でデータの形式は相違してよい。動作データH1は「第1動作データ」の一例である。 Further, the imaging device 21-n generates operation data Hn representing the result of the operation of the imaging device 21-n according to the control data D. The operation data Hn is data representing actual imaging conditions in the imaging device 21-n, which is controlled according to the control data D. Since the imaging conditions are instructed by the control data D, basically the imaging conditions instructed by the control data D and the imaging conditions represented by the operation data Hn match. However, in reality, due to circumstances such as characteristic errors of the imaging device 21-n, the imaging conditions instructed by the control data D and the imaging conditions represented by the operational data Hn may not match. As described above, the control data D is data that instructs the imaging conditions, whereas the operation data Hn is data that represents the result of actually controlling the imaging conditions of the imaging device 21-n in accordance with the control data D. . Note that the data formats may be different between the control data D and the operation data Hn. The operation data H1 is an example of "first operation data."

収音装置22-nは、収録スタジオRn内の音声Anを収録するマイクロホンである。音声Anは、例えば収録スタジオRn内の出演者Qn1が発音する音声である。具体的には、音声Anの波形を表すデータが収音装置22-nにより生成される。なお、音声Anを表すデータの形式は任意である。 The sound collection device 22-n is a microphone that records audio An within the recording studio Rn. The sound An is, for example, the sound produced by the performer Qn1 in the recording studio Rn. Specifically, data representing the waveform of the sound An is generated by the sound collection device 22-n. Note that the format of the data representing the voice An is arbitrary.

通信装置23-nは、例えばインターネット等の通信網(図示略)を介して制御システム30と通信する。通信装置23-nと制御システム30との間の通信の経路は、有線区間または無線区間で構成される。具体的には、通信装置23-nは、制御データDを制御システム30から受信する。また、通信装置23-nは、素材データMnと動作データHnとを制御システム30に送信する。素材データMnは、撮像装置21-nが撮像した動画Vnと収音装置22-nが収音した音声Anとを表すデータである。以上の説明から理解される通り、収録スタジオR1内の動画V1および音声A1(素材データM1)と収録スタジオR2内の動画V2および音声A2(素材データM2)とが制御システム30に提供される。 The communication device 23-n communicates with the control system 30 via a communication network (not shown) such as the Internet, for example. The communication path between the communication device 23-n and the control system 30 includes a wired section or a wireless section. Specifically, the communication device 23-n receives control data D from the control system 30. Furthermore, the communication device 23-n transmits material data Mn and operation data Hn to the control system 30. The material data Mn is data representing a moving image Vn captured by the imaging device 21-n and an audio An captured by the sound capturing device 22-n. As understood from the above description, the control system 30 is provided with the moving image V1 and audio A1 (material data M1) in the recording studio R1 and the moving image V2 and audio A2 (material data M2) in the recording studio R2.

収録スタジオR1と収録スタジオR2との間では、形状および寸法が実質的に共通する。図1の基準面αは、収録スタジオR1および収録スタジオR2の各々を左右に区分する仮想的な鉛直面である。撮像装置21-1は、収録スタジオR1内の基準面α上に設置される。同様に、撮像装置21-2は、収録スタジオR2内の基準面α上に設置される。収録スタジオR1に対する撮像装置21-1の位置(平面的な位置および高さ)は、収録スタジオR2に対する撮像装置21-2の位置と共通する。また、撮像装置21-1の初期的な撮像条件と撮像装置21-2の初期的な撮像条件とは共通する。すなわち、撮像方向および撮像倍率は、撮像装置21-1と撮像装置21-2との間で共通の初期値に設定される。 The recording studio R1 and the recording studio R2 have substantially the same shape and dimensions. The reference plane α in FIG. 1 is a virtual vertical plane that divides each of the recording studio R1 and the recording studio R2 into left and right sides. The imaging device 21-1 is installed on the reference plane α in the recording studio R1. Similarly, the imaging device 21-2 is installed on the reference plane α in the recording studio R2. The position (planar position and height) of the imaging device 21-1 relative to the recording studio R1 is the same as the position of the imaging device 21-2 relative to the recording studio R2. Further, the initial imaging conditions of the imaging device 21-1 and the initial imaging conditions of the imaging device 21-2 are common. That is, the imaging direction and imaging magnification are set to common initial values between the imaging device 21-1 and the imaging device 21-2.

収録スタジオR1内の被写体Q1は、収録スタジオR1のうち基準面αの左側の空間内に位置する。他方、収録スタジオR2内の被写体Q2は、収録スタジオR2のうち基準面αの右側の空間内に位置する。以上の説明から理解される通り、収録スタジオR1における撮像装置21-1に対する被写体Q1の位置(例えば方向および距離)と、収録スタジオR2における撮像装置21-2に対する被写体Q2の位置とは相違する。 The subject Q1 in the recording studio R1 is located in the space on the left side of the reference plane α in the recording studio R1. On the other hand, the subject Q2 in the recording studio R2 is located in the space on the right side of the reference plane α in the recording studio R2. As understood from the above description, the position (for example, direction and distance) of the subject Q1 with respect to the imaging device 21-1 in the recording studio R1 is different from the position of the subject Q2 with respect to the imaging device 21-2 in the recording studio R2.

図3は、制御システム30の構成を例示するブロック図である。制御システム30は、収録システム20-1および収録システム20-2の制御と配信コンテンツCの生成とを実行するコンピュータシステムである。制御システム30は、例えばスマートフォン、タブレット端末またはパーソナルコンピュータ等の情報装置で実現される。なお、制御システム30は、以上に例示した汎用の情報装置により実現されるほか、各収録システム-nの制御に専用される制御機器、または配信コンテンツCの編集に専用される編集機器等の専用機器により実現されてもよい。制御システム30は、制御装置31と記憶装置32と通信装置33と操作装置34と再生装置35とを具備する。なお、制御システム30は、単体の装置として実現されるほか、相互に別体で構成された複数の装置でも実現される。 FIG. 3 is a block diagram illustrating the configuration of the control system 30. The control system 30 is a computer system that controls the recording system 20-1 and the recording system 20-2 and generates distribution content C. The control system 30 is realized by, for example, an information device such as a smartphone, a tablet terminal, or a personal computer. The control system 30 is realized by the general-purpose information devices exemplified above, as well as dedicated control equipment such as control equipment dedicated to controlling each recording system-n, or editing equipment dedicated to editing the distributed content C. It may also be realized by a device. The control system 30 includes a control device 31, a storage device 32, a communication device 33, an operating device 34, and a playback device 35. Note that the control system 30 is realized not only as a single device but also as a plurality of devices configured separately from each other.

制御装置31は、制御システム30の各要素を制御する単数または複数のプロセッサである。具体的には、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、SPU(Sound Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)等の1種類以上のプロセッサにより、制御装置31が構成される。 The control device 31 is one or more processors that control each element of the control system 30. Specifically, for example, a CPU (Central Processing Unit), GPU (Graphics Processing Unit), SPU (Sound Processing Unit), DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array), or ASIC (Application Specific Integrated Circuit) The control device 31 is configured by one or more types of processors such as the following.

通信装置33は、通信網を介して端末装置200および各収録システム20-nの各々と通信する。例えば、通信装置33は、端末装置200に対して配信コンテンツCを送信し、収録システム20-1および収録システム20-2に対して制御データDを送信する。また、通信装置33は、各収録システム20-nが送信する素材データMnおよび動作データHnを受信する。 The communication device 33 communicates with the terminal device 200 and each recording system 20-n via a communication network. For example, the communication device 33 transmits distribution content C to the terminal device 200, and transmits control data D to the recording system 20-1 and the recording system 20-2. The communication device 33 also receives material data Mn and operation data Hn transmitted from each recording system 20-n.

記憶装置32は、制御装置31が実行するプログラムと、制御装置31が使用する各種のデータとを記憶する単数または複数のメモリである。例えば半導体記録媒体および磁気記録媒体等の公知の記録媒体、または複数種の記録媒体の組合せが、記憶装置32として利用される。なお、例えば、制御システム30に対して着脱される可搬型の記録媒体、または、制御装置31が通信網を介してアクセス可能な記録媒体(例えばクラウドストレージ)が、記憶装置32として利用されてもよい。 The storage device 32 is one or more memories that store programs executed by the control device 31 and various data used by the control device 31. For example, a known recording medium such as a semiconductor recording medium and a magnetic recording medium, or a combination of multiple types of recording media is used as the storage device 32. Note that, for example, a portable recording medium that can be attached to and detached from the control system 30 or a recording medium that can be accessed by the control device 31 via a communication network (for example, cloud storage) may be used as the storage device 32. good.

操作装置34は、制作者による指示を受付ける入力機器である。制作者は、配信コンテンツCを制作する利用者である。例えば、制作者が操作するジョイスティック等の操作子、または、制作者による接触を検知するタッチパネルが、操作装置34として利用される。なお、制御システム30とは別体の操作装置34が、制御システム30に対して有線または無線により接続されてもよい。 The operating device 34 is an input device that accepts instructions from the creator. The producer is a user who produces distribution content C. For example, an operator such as a joystick operated by the creator, or a touch panel that detects a touch by the creator is used as the operating device 34. Note that an operating device 34 separate from the control system 30 may be connected to the control system 30 by wire or wirelessly.

再生装置35は、制御装置31による制御のもとで配信コンテンツCを再生する。具体的には、再生装置35は、表示装置と放音装置とを具備する。表示装置は、配信コンテンツCの動画を表示する。例えば液晶表示パネルまたは有機EL(Electroluminescence)パネル等の各種の表示パネルが、表示装置として利用される。放音装置は、配信コンテンツCの音声を放射する。例えばスピーカまたはヘッドホンが、放音装置として利用される。なお、制御システム30とは別体の再生装置35が、制御システム30に対して有線または無線により接続されてもよい。 The playback device 35 plays back the distributed content C under the control of the control device 31. Specifically, the playback device 35 includes a display device and a sound emitting device. The display device displays the moving image of the distribution content C. For example, various display panels such as a liquid crystal display panel or an organic EL (Electroluminescence) panel are used as display devices. The sound emitting device emits the audio of the distributed content C. For example, speakers or headphones are used as the sound emitting device. Note that a playback device 35 that is separate from the control system 30 may be connected to the control system 30 by wire or wirelessly.

図4は、制御システム30の機能的な構成を例示するブロック図である。制御装置31は、記憶装置32に記憶されたプログラムを実行することで、配信コンテンツCを収録するための複数の機能(撮像制御部41、動画生成部42、動画合成部43および再生制御部44)を実現する。なお、相互に別体で構成された複数の装置により制御装置31の機能が実現されもよい。制御装置31の機能の一部または全部が専用の電子回路で実現されてもよい。 FIG. 4 is a block diagram illustrating the functional configuration of the control system 30. The control device 31 executes a program stored in the storage device 32 to perform a plurality of functions (imaging control section 41, video generation section 42, video composition section 43, and playback control section 44) for recording the distribution content C. ). Note that the functions of the control device 31 may be realized by a plurality of devices configured separately from each other. Part or all of the functions of the control device 31 may be realized by a dedicated electronic circuit.

撮像制御部41は、収録システム20-1および収録システム20-2を制御する。撮像制御部41は、操作装置34に対する制作者からの操作に応じて収録システム20-1および収録システム20-2を制御する。制作者は、再生装置35が再生する配信コンテンツCを視聴しながら操作装置34を操作することで、撮像装置21-1および撮像装置21-2の撮像条件を指示する。撮像制御部41は、制作者が指示した撮像条件を指定する制御データDを生成する。前述の通り、制御データDは、撮像方向および撮像倍率を指定するデータである。例えば、制御データDは、現時点の数値に対する変化量(相対値)、または所定値を基準とした絶対値として、撮像方向および撮像倍率を指定する。 The imaging control unit 41 controls the recording system 20-1 and the recording system 20-2. The imaging control unit 41 controls the recording system 20-1 and the recording system 20-2 according to the producer's operation on the operating device 34. The producer instructs the imaging conditions of the imaging device 21-1 and the imaging device 21-2 by operating the operating device 34 while viewing the distributed content C reproduced by the reproduction device 35. The imaging control unit 41 generates control data D specifying imaging conditions instructed by the producer. As described above, the control data D is data that specifies the imaging direction and imaging magnification. For example, the control data D specifies the imaging direction and imaging magnification as a change amount (relative value) with respect to the current numerical value or as an absolute value based on a predetermined value.

撮像制御部41は、収録システム20-1および収録システム20-2に対して制御データDを通信装置33により送信する。すなわち、撮像装置21-1と撮像装置21-2とに対して共通の制御データDが供給される。前述の通り、撮像装置21-1と撮像装置21-2とは同機種であり、動作特性等の仕様は両者間で共通する。したがって、撮像制御部41による制御データDの供給により、撮像装置21-1と撮像装置21-2とは共通の撮像条件に制御される。 The imaging control unit 41 transmits control data D to the recording system 20-1 and the recording system 20-2 through the communication device 33. That is, common control data D is supplied to the imaging device 21-1 and the imaging device 21-2. As described above, the imaging device 21-1 and the imaging device 21-2 are of the same model, and specifications such as operating characteristics are common between them. Therefore, by supplying the control data D by the imaging control unit 41, the imaging device 21-1 and the imaging device 21-2 are controlled to have a common imaging condition.

撮像制御部41は、収録システム20-1および収録システム20-2に対して時間的に並列に制御データDを送信する。すなわち、撮像装置21-1と撮像装置21-2とに対して制御データDが時間的に並列に供給される。したがって、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とは、制御データDに応じて時間的に並列に変化する。 The imaging control unit 41 transmits control data D to the recording system 20-1 and the recording system 20-2 in parallel in time. That is, the control data D is supplied temporally in parallel to the imaging device 21-1 and the imaging device 21-2. Therefore, the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 change temporally in parallel according to the control data D.

以上の説明から理解される通り、撮像制御部41は、撮像装置21-1と撮像装置21-2とを、共通の撮像条件のもとで、時間的に相互に並列に動作させる。例えば、撮像装置21-1の撮像方向が特定の角度だけ変化する場合、撮像装置21-1の撮像方向の変化に並行して、撮像装置21-2の撮像方向は同じ角度だけ変化する。また、撮像装置21-1の撮像倍率が所定の倍率に変化する場合、撮像装置21-1の撮像倍率の変化に並行して、撮像装置21-2の撮像倍率は同じ倍率に変化する。すなわち、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが相互に連動して共通の条件に変化する。 As understood from the above description, the imaging control unit 41 causes the imaging device 21-1 and the imaging device 21-2 to operate temporally in parallel with each other under a common imaging condition. For example, when the imaging direction of the imaging device 21-1 changes by a specific angle, the imaging direction of the imaging device 21-2 changes by the same angle in parallel with the change in the imaging direction of the imaging device 21-1. Furthermore, when the imaging magnification of the imaging device 21-1 changes to a predetermined magnification, the imaging magnification of the imaging device 21-2 changes to the same magnification in parallel with the change in the imaging magnification of the imaging device 21-1. That is, the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 change to a common condition in conjunction with each other.

図4の動画生成部42および動画合成部43は、配信コンテンツCを構成する動画(以下「合成動画」という)Vを生成する。図5は、第1実施形態における合成動画Vの生成の説明図である。図5に例示される通り、合成動画Vは、動画V1と動画V2と仮想動画Vxとの合成により生成される。仮想動画Vxは、仮想空間Rxの動画である。 The video generation unit 42 and the video composition unit 43 in FIG. 4 generate a video (hereinafter referred to as "synthesized video") V that constitutes the distribution content C. FIG. 5 is an explanatory diagram of generation of the composite video V in the first embodiment. As illustrated in FIG. 5, the composite video V is generated by combining the video V1, the video V2, and the virtual video Vx. The virtual video Vx is a video in the virtual space Rx.

図6は、仮想空間Rxの説明図である。仮想空間Rxは、複数のオブジェクト(以下「仮想オブジェクト」という)Obが配置された仮想的なスタジオである。各仮想オブジェクトObは、例えば演出または装飾のために仮想空間Rx内に配置された仮想的な表示要素である。 FIG. 6 is an explanatory diagram of the virtual space Rx. The virtual space Rx is a virtual studio in which a plurality of objects (hereinafter referred to as "virtual objects") Ob are arranged. Each virtual object Ob is a virtual display element arranged in the virtual space Rx for, for example, presentation or decoration.

仮想空間Rx内には、仮想的な撮像装置(以下「仮想撮像装置」という)50が設置される。仮想撮像装置50は、仮想空間Rxを撮像する仮想カメラである。撮像装置21-1および撮像装置21-2と同様に、仮想撮像装置50の撮像条件は可変である。仮想撮像装置50の撮像条件は、仮想撮像装置50が仮想空間Rx内において撮像する範囲を規定する条件である。例えば、撮像方向および撮像倍率が撮像条件として例示される。 A virtual imaging device (hereinafter referred to as "virtual imaging device") 50 is installed in the virtual space Rx. The virtual imaging device 50 is a virtual camera that images the virtual space Rx. Similar to the imaging device 21-1 and the imaging device 21-2, the imaging conditions of the virtual imaging device 50 are variable. The imaging conditions of the virtual imaging device 50 are conditions that define the range that the virtual imaging device 50 images within the virtual space Rx. For example, an imaging direction and an imaging magnification are exemplified as imaging conditions.

図4の動画生成部42は、仮想動画Vxを生成する。仮想動画Vxは、仮想空間Rxを仮想撮像装置50により撮像した動画である。具体的には、動画生成部42は、仮想撮像装置50の撮像条件により規定される範囲内の画像を表す仮想動画Vxを生成する。したがって、図5に例示される通り、仮想空間Rxに設置された仮想オブジェクトObが、仮想動画Vxに被写体として含まれる。仮想動画Vxの生成には、例えば3Dレンダリング等の各種の画像処理が利用される。なお、仮想動画Vxを表すデータの形式は任意である。 The moving image generation unit 42 in FIG. 4 generates a virtual moving image Vx. The virtual video Vx is a video captured by the virtual imaging device 50 in the virtual space Rx. Specifically, the video generation unit 42 generates a virtual video Vx representing an image within a range defined by the imaging conditions of the virtual imaging device 50. Therefore, as illustrated in FIG. 5, the virtual object Ob installed in the virtual space Rx is included as a subject in the virtual video Vx. Various types of image processing, such as 3D rendering, are used to generate the virtual video Vx. Note that the format of data representing the virtual video Vx is arbitrary.

第1実施形態の動画生成部42は、仮想撮像装置50の撮像条件を、撮像装置21-1の撮像条件に応じて制御する。具体的には、動画生成部42は、通信装置33が撮像装置21-1から受信した動作データH1に応じて仮想撮像装置50の撮像条件を制御する。すなわち、動作データH1は、仮想撮像装置50の撮像条件を指示するデータとして利用される。前述の通り、動作データH1は、制御データDに応じて制御された撮像装置21-1の実際の撮像条件を表すデータである。動画生成部42は、仮想撮像装置50の撮像条件を、動作データH1が表す撮像装置21-1の撮像条件に一致させる。 The moving image generation unit 42 of the first embodiment controls the imaging conditions of the virtual imaging device 50 according to the imaging conditions of the imaging device 21-1. Specifically, the moving image generation unit 42 controls the imaging conditions of the virtual imaging device 50 according to the operation data H1 that the communication device 33 receives from the imaging device 21-1. That is, the operation data H1 is used as data instructing the imaging conditions of the virtual imaging device 50. As described above, the operation data H1 is data representing the actual imaging conditions of the imaging device 21-1 controlled according to the control data D. The moving image generation unit 42 matches the imaging conditions of the virtual imaging device 50 with the imaging conditions of the imaging device 21-1 represented by the operation data H1.

例えば、撮像装置21-1の撮像方向が特定の角度だけ変化した場合、撮像装置21-1の撮像方向の変化に並行して、仮想撮像装置50の撮像方向は、仮想空間Rx内において同じ角度だけ変化する。また、撮像装置21-1の撮像倍率が所定の倍率に変化した場合、撮像装置21-1の撮像倍率の変化に並行して、仮想撮像装置50の撮像倍率は同じ倍率に変化する。以上の説明から理解される通り、撮像装置21-1と撮像装置21-2と仮想撮像装置50とは、時間的に相互に並列に、共通の撮像条件のもとで動作する。すなわち、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件と仮想撮像装置50の撮像条件とが、相互に連動して共通の条件に設定される。 For example, when the imaging direction of the imaging device 21-1 changes by a specific angle, in parallel with the change in the imaging direction of the imaging device 21-1, the imaging direction of the virtual imaging device 50 changes at the same angle within the virtual space Rx. only changes. Further, when the imaging magnification of the imaging device 21-1 changes to a predetermined magnification, the imaging magnification of the virtual imaging device 50 changes to the same magnification in parallel with the change in the imaging magnification of the imaging device 21-1. As understood from the above description, the imaging device 21-1, the imaging device 21-2, and the virtual imaging device 50 operate temporally in parallel with each other under common imaging conditions. That is, the imaging conditions of the imaging device 21-1, the imaging conditions of the imaging device 21-2, and the imaging conditions of the virtual imaging device 50 are set to a common condition in conjunction with each other.

動画合成部43は、図5の例示の通り、撮像装置21-1が撮像した動画V1と撮像装置21-2が撮像した動画V2と動画生成部42が生成した仮想動画Vxとの合成により、配信コンテンツCの合成動画Vを生成する。具体的には、動画合成部43は、動画V1から抽出した被写体Q1と、動画V2から抽出した被写体Q2と、仮想動画Vxとの合成により、合成動画Vを生成する。 As illustrated in FIG. 5, the video composition unit 43 combines the video V1 captured by the imaging device 21-1, the video V2 captured by the imaging device 21-2, and the virtual video Vx generated by the video generation unit 42, thereby A composite video V of distribution content C is generated. Specifically, the video composition unit 43 generates a composite video V by combining the subject Q1 extracted from the video V1, the subject Q2 extracted from the video V2, and the virtual video Vx.

図4の再生制御部44は、合成動画Vを含む配信コンテンツCを端末装置200に配信する。再生制御部44は、素材データM1が表す音声A1と素材データM2が表す音声A2とを所定の混合比により混合することで合成音声Aを生成する。再生制御部44は、合成動画Vと合成音声Aとで構成される配信コンテンツCを端末装置200に配信する。配信コンテンツCのデータの形式は任意である。また、再生制御部44は、配信コンテンツCを再生装置35に再生させる。なお、端末装置200に対する配信コンテンツCの配信は、動画配信サーバを経由してもよい。例えば、制御システム30から送信された配信コンテンツCが動画配信サーバに保持され、動画配信サーバから端末装置200に対して配信コンテンツCが配信されてもよい。また、配信コンテンツCは、端末装置200に配信されるほか、記憶装置32等の記録媒体に記録されてもよい。すなわち、端末装置20に対する配信は省略されてよい。 The playback control unit 44 in FIG. 4 distributes the distribution content C including the composite video V to the terminal device 200. The reproduction control unit 44 generates the synthesized speech A by mixing the speech A1 represented by the material data M1 and the speech A2 represented by the material data M2 at a predetermined mixing ratio. The playback control unit 44 distributes distribution content C composed of a synthesized video V and a synthesized audio A to the terminal device 200. The data format of the distributed content C is arbitrary. Furthermore, the reproduction control unit 44 causes the reproduction device 35 to reproduce the distributed content C. Note that the distribution content C may be distributed to the terminal device 200 via a video distribution server. For example, the distribution content C transmitted from the control system 30 may be held in a video distribution server, and the distribution content C may be distributed from the video distribution server to the terminal device 200. In addition to being distributed to the terminal device 200, the distribution content C may be recorded on a recording medium such as the storage device 32. That is, distribution to the terminal device 20 may be omitted.

図7および図8は、制御システム30が実行する処理(以下「動画収録処理」という)のフローチャートである。例えば操作装置34に対する制作者からの指示を契機として動画収録処理が開始される。動画収録処理は、「動画収録方法」の一例である。 7 and 8 are flowcharts of the process (hereinafter referred to as "video recording process") executed by the control system 30. For example, the video recording process is started in response to an instruction from the producer to the operating device 34. The video recording process is an example of a "video recording method."

図7に例示される通り、動画収録処理が開始されると、制御装置31(撮像制御部41)は、撮像制御処理Sa(Sa1~Sa3)を実行する。具体的には、制御装置31は、撮像条件の変更の指示を制作者から受付けたか否かを判定する(Sa1)。撮像条件の変更の指示を受付けた場合(Sa1:YES)、制御装置31は、制作者から指示された撮像条件を指定する制御データDを生成する(Sa2)。制御装置31は、収録システム20-1および収録システム20-2に対して通信装置33から制御データDを送信する(Sa3)。他方、撮像条件の変更の指示を受付けない場合(Sa1:NO)、制御データDの生成(Sa2)および送信(Sa3)は実行されない。 As illustrated in FIG. 7, when the video recording process is started, the control device 31 (imaging control unit 41) executes the imaging control process Sa (Sa1 to Sa3). Specifically, the control device 31 determines whether an instruction to change the imaging conditions has been received from the producer (Sa1). If an instruction to change the imaging conditions is accepted (Sa1: YES), the control device 31 generates control data D specifying the imaging conditions instructed by the producer (Sa2). The control device 31 transmits control data D from the communication device 33 to the recording system 20-1 and the recording system 20-2 (Sa3). On the other hand, if the instruction to change the imaging conditions is not accepted (Sa1: NO), the generation (Sa2) and transmission (Sa3) of the control data D are not executed.

撮像制御処理Saを実行すると、制御装置31(動画生成部42)は、動画生成処理Sb(Sb1~Sb3)を実行する。具体的には、制御装置31は、撮像装置21-1から送信される動作データH1を通信装置33が受信したか否かを判定する(Sb1)。動作データH1を受信した場合(Sb1:YES)、制御装置31は、仮想撮像装置50の撮像条件を動作データH1に応じて制御する(Sb2)。すなわち、仮想撮像装置50の撮像条件が撮像装置21-1の実際の撮像条件に制御される。動作データH1を受信しない場合(Sb1:NO)、仮想撮像装置50の撮像条件は変更されない。以上の処理を実行すると、制御装置31は、仮想動画Vxを生成する(Sb3)。 After executing the imaging control process Sa, the control device 31 (video generation unit 42) executes the movie generation process Sb (Sb1 to Sb3). Specifically, the control device 31 determines whether the communication device 33 has received the operation data H1 transmitted from the imaging device 21-1 (Sb1). When the operation data H1 is received (Sb1: YES), the control device 31 controls the imaging conditions of the virtual imaging device 50 according to the operation data H1 (Sb2). That is, the imaging conditions of the virtual imaging device 50 are controlled to the actual imaging conditions of the imaging device 21-1. If the operation data H1 is not received (Sb1: NO), the imaging conditions of the virtual imaging device 50 are not changed. When the above processing is executed, the control device 31 generates the virtual video Vx (Sb3).

動画生成処理Sbを実行すると、制御装置31(動画合成部43)は、図8に例示される通り動画合成処理Sc(Sc1~Sc5)を実行する。具体的には、制御装置31は、撮像装置21-1から送信された素材データM1を通信装置33により受信する(Sc1)。制御装置31は、素材データM1が表す動画V1から被写体Q1を抽出する(Sc2)。例えば、制御装置31は、動画V1のうちグリーンバックに対応する領域を除去することで被写体Q1を抽出する。なお、撮像装置21-1の撮像範囲に被写体Q1が含まれない場合、動画V1から被写体Q1は抽出されない。 After executing the video generation process Sb, the control device 31 (video composition unit 43) executes the video composition process Sc (Sc1 to Sc5) as illustrated in FIG. Specifically, the control device 31 receives the material data M1 transmitted from the imaging device 21-1 through the communication device 33 (Sc1). The control device 31 extracts the subject Q1 from the moving image V1 represented by the material data M1 (Sc2). For example, the control device 31 extracts the subject Q1 by removing the area corresponding to the green screen from the video V1. Note that if the subject Q1 is not included in the imaging range of the imaging device 21-1, the subject Q1 is not extracted from the video V1.

制御装置31は、撮像装置21-2から送信された素材データM2を通信装置33により受信する(Sc3)。制御装置31は、素材データM2が表す動画V2から被写体Q2を抽出する(Sc4)。例えば、制御装置31は、動画V2のうちグリーンバックに対応する領域を除去することで被写体Q2を抽出する。なお、撮像装置21-2の撮像範囲に被写体Q2が含まれない場合、動画V2から被写体Q2は抽出されない。 The control device 31 receives the material data M2 transmitted from the imaging device 21-2 through the communication device 33 (Sc3). The control device 31 extracts the subject Q2 from the moving image V2 represented by the material data M2 (Sc4). For example, the control device 31 extracts the subject Q2 by removing the area corresponding to the green screen from the video V2. Note that if the subject Q2 is not included in the imaging range of the imaging device 21-2, the subject Q2 is not extracted from the video V2.

そして、制御装置31は、被写体Q1および被写体Q2と、動画生成処理Sbにより生成された仮想動画Vxとを合成することで合成動画Vを生成する(Sc5)。被写体Q1および被写体Q2は、例えば仮想動画Vxにおける各仮想オブジェクトObの手前側に位置する。 Then, the control device 31 generates a composite video V by combining the subject Q1 and the subject Q2 with the virtual video Vx generated by the video generation process Sb (Sc5). The subject Q1 and the subject Q2 are located, for example, in front of each virtual object Ob in the virtual video Vx.

動画合成処理Scを実行すると、制御装置31(再生制御部44)は、再生制御処理Sd(Sd1~Sd5)を実行する。具体的には、制御装置31は、素材データM1が表す音声A1と素材データM2が表す音声A2との合成により合成音声Aを生成する(Sd1)。制御装置31は、合成動画Vと合成音声Aとを含む配信コンテンツCを生成する(Sd2)。制御装置31は、配信コンテンツCを通信装置33から端末装置200に送信する(Sd3)。配信コンテンツCは、動画V1および動画V2の収録に時間的に並行して端末装置200に配信(すなわちライブ配信)される。また、制御装置31は、配信コンテンツCを再生装置35に再生させる(Sd4)。制作者は、再生装置35が再生する配信コンテンツCを視聴しながら操作装置34を操作することで、撮像条件の変更を制御システム30に指示する(Sa1)。なお、端末装置200に対する配信コンテンツCの送信(Sd3)と、再生装置35による配信コンテンツCの再生(Sd4)との順序は反転されてもよい。 After executing the video composition process Sc, the control device 31 (playback control unit 44) executes playback control processes Sd (Sd1 to Sd5). Specifically, the control device 31 generates the synthesized speech A by synthesizing the speech A1 represented by the material data M1 and the speech A2 represented by the material data M2 (Sd1). The control device 31 generates distribution content C including the synthesized video V and the synthesized audio A (Sd2). The control device 31 transmits the distribution content C from the communication device 33 to the terminal device 200 (Sd3). The distribution content C is distributed (ie, live distribution) to the terminal device 200 temporally parallel to the recording of the videos V1 and V2. Further, the control device 31 causes the reproduction device 35 to reproduce the distributed content C (Sd4). The producer instructs the control system 30 to change the imaging conditions by operating the operating device 34 while viewing the distributed content C reproduced by the reproduction device 35 (Sa1). Note that the order of transmission of the distribution content C to the terminal device 200 (Sd3) and reproduction of the distribution content C by the reproduction device 35 (Sd4) may be reversed.

制御装置31は、所定の終了条件が成立したか否かを判定する(Sd5)。終了条件は、例えば、操作装置34に対する操作で制作者が処理の終了を指示したこと、または所定の時刻が到来したことである。終了条件が成立しない場合(Sd5:NO)、制御装置31は処理をステップSa1に移行する。すなわち、撮像制御処理Saと動画生成処理Sbと動画合成処理Scと再生制御処理Sdとが反復される。他方、終了条件が成立した場合(Sd5:YES)、制御装置31は動画収録処理を終了する。 The control device 31 determines whether a predetermined termination condition is satisfied (Sd5). The termination condition is, for example, that the producer instructs to terminate the process by operating the operating device 34, or that a predetermined time has arrived. If the end condition is not satisfied (Sd5: NO), the control device 31 moves the process to step Sa1. That is, the imaging control process Sa, the video generation process Sb, the video composition process Sc, and the playback control process Sd are repeated. On the other hand, if the termination condition is satisfied (Sd5: YES), the control device 31 terminates the video recording process.

図9は、撮像条件と合成動画Vとの関係の説明図である。図9の状態[1]は、撮像装置21-1および撮像装置21-2の撮像方向が第1方向θ1(左向き)に設定された状態である。状態[1]においては、仮想空間Rxのうち第1方向θ1に位置する部分を背景として、収録スタジオR1内の被写体Q1が合成動画Vの中央に位置する。状態[1]では、収録スタジオR2内の被写体Q2は合成動画Vに含まれない。 FIG. 9 is an explanatory diagram of the relationship between imaging conditions and composite moving image V. State [1] in FIG. 9 is a state in which the imaging directions of the imaging device 21-1 and the imaging device 21-2 are set to the first direction θ1 (leftward). In state [1], the subject Q1 in the recording studio R1 is located at the center of the composite video V with the portion of the virtual space Rx located in the first direction θ1 as the background. In state [1], the subject Q2 in the recording studio R2 is not included in the composite video V.

図9の状態[2]は、撮像方向を右側に向けて変化させる過程である。状態[2]においては、撮像装置21-1の撮像方向と撮像装置21-2の撮像方向と仮想撮像装置50の撮像方向とが時間的に並行して右側に変化する。したがって、収録スタジオR1内の被写体Q1と収録スタジオR2内の被写体Q2と背景の仮想空間Rxとが、合成動画Vにおいては左側に向けて移動する。すなわち、被写体Q1が左側に移動することで合成動画Vの外側に退場していく一方、被写体Q2は左側に移動することで合成動画Vの内側に登場する。 State [2] in FIG. 9 is a process of changing the imaging direction toward the right. In state [2], the imaging direction of the imaging device 21-1, the imaging direction of the imaging device 21-2, and the imaging direction of the virtual imaging device 50 change temporally in parallel to the right. Therefore, the subject Q1 in the recording studio R1, the subject Q2 in the recording studio R2, and the background virtual space Rx move toward the left in the composite video V. That is, the subject Q1 moves to the left and leaves the composite video V, while the subject Q2 moves to the left and appears inside the composite video V.

状態[2]から図9の状態[3]に遷移する。状態[3]は、撮像装置21-1および撮像装置21-2の撮像方向が第2方向θ2(右向き)に設定された状態である。状態[3]においては、仮想空間Rxのうち第2方向θ2に位置する部分を背景として、収録スタジオR2内の被写体Q2が合成動画Vの中央に位置する。状態[3]では、収録スタジオR1内の被写体Q1は合成動画Vに含まれない。 Transition occurs from state [2] to state [3] in FIG. State [3] is a state in which the imaging directions of the imaging device 21-1 and the imaging device 21-2 are set to the second direction θ2 (to the right). In state [3], the subject Q2 in the recording studio R2 is located at the center of the composite video V with the portion of the virtual space Rx located in the second direction θ2 as the background. In state [3], the subject Q1 in the recording studio R1 is not included in the composite video V.

以上に説明した通り、第1実施形態においては、撮像装置21-1による動画V1の撮像と撮像装置21-2による動画V2の撮像とが共通の撮像条件のもとで実行される。したがって、図9を参照して説明した通り、収録スタジオR1内の被写体Q1と収録スタジオR2内の被写体Q2とが恰も共通の空間(仮想空間Rx)内に所在するかのような自然な合成動画Vを生成できる。 As described above, in the first embodiment, the imaging of the video V1 by the imaging device 21-1 and the imaging of the video V2 by the imaging device 21-2 are performed under common imaging conditions. Therefore, as explained with reference to FIG. 9, a natural composite video is created in which the subject Q1 in the recording studio R1 and the subject Q2 in the recording studio R2 appear to be located in a common space (virtual space Rx). V can be generated.

第1実施形態においては、動画V1と動画V2と仮想動画Vxとの合成により合成動画Vが生成される。したがって、例えば収録スタジオR1または収録スタジオR2の外観が単調である場合でも、種々の仮想動画Vxを含む多様な合成動画Vを生成できる。すなわち、収録スタジオR1および収録スタジオR2内の外観が不問であるから、各収録スタジオRnにおける演出または装飾のための費用を削減できる。第1実施形態においては特に、動画V1から抽出された被写体Q1と動画V2から抽出された被写体Q2とが仮想動画Vxに合成されるから、被写体Q1と被写体Q2とが恰も仮想空間Rx内に存在するかのような合成動画Vを生成できる。しかも、第1実施形態においては、仮想撮像装置50の撮像条件が撮像装置21-1および撮像装置21-2の撮像条件に連動する。したがって、仮想撮像装置50の撮像条件が固定である形態と比較して、被写体Q1と被写体Q2とが恰も仮想空間内に存在するかのような自然な合成動画Vを生成できる。 In the first embodiment, a composite video V is generated by combining the video V1, the video V2, and the virtual video Vx. Therefore, even if, for example, the appearance of the recording studio R1 or the recording studio R2 is monotonous, various composite videos V including various virtual videos Vx can be generated. That is, since the appearance of the inside of recording studio R1 and recording studio R2 does not matter, the cost for presentation or decoration in each recording studio Rn can be reduced. In the first embodiment, in particular, since the subject Q1 extracted from the video V1 and the subject Q2 extracted from the video V2 are combined into the virtual video Vx, the subject Q1 and the subject Q2 exist within the virtual space Rx. It is possible to generate a composite video V that looks like Moreover, in the first embodiment, the imaging conditions of the virtual imaging device 50 are linked to the imaging conditions of the imaging devices 21-1 and 21-2. Therefore, compared to a configuration in which the imaging conditions of the virtual imaging device 50 are fixed, it is possible to generate a natural composite moving image V in which the subject Q1 and the subject Q2 appear to exist in the virtual space.

第1実施形態においては、撮像装置21-1の動作の結果を表す動作データH1に応じて仮想撮像装置50の撮像条件が制御される。したがって、仮想撮像装置50の撮像条件は、撮像装置21-1の実際の撮像条件に連動する。例えば、撮像装置21-1の特性誤差等の事情に起因して、撮像制御部41からの指示が撮像装置21-1の動作に正確に反映されない状況でも、撮像装置21-1の実際の動作に連動して仮想撮像装置50の撮像条件を制御できる。 In the first embodiment, the imaging conditions of the virtual imaging device 50 are controlled according to the operation data H1 representing the result of the operation of the imaging device 21-1. Therefore, the imaging conditions of the virtual imaging device 50 are linked to the actual imaging conditions of the imaging device 21-1. For example, even in a situation where instructions from the imaging control unit 41 are not accurately reflected in the operation of the imaging device 21-1 due to circumstances such as characteristic errors of the imaging device 21-1, the actual operation of the imaging device 21-1 The imaging conditions of the virtual imaging device 50 can be controlled in conjunction with.

[第2実施形態]
第2実施形態を説明する。なお、以下に例示する各態様において機能が第1実施形態と同様である要素については、第1実施形態の説明と同様の符号を流用して各々の詳細な説明を適宜に省略する。
[Second embodiment]
A second embodiment will be described. In addition, in each aspect illustrated below, for elements whose functions are similar to those in the first embodiment, the same reference numerals as in the description of the first embodiment are used, and detailed descriptions of each are omitted as appropriate.

第1実施形態においては、仮想空間Rxを背景とする合成動画Vを例示した。第2実施形態の合成動画Vにおいては、収録スタジオR1が被写体Q1および被写体Q2の背景として利用される。 In the first embodiment, a composite video V with the virtual space Rx as the background was illustrated. In the composite video V of the second embodiment, the recording studio R1 is used as the background of the subject Q1 and the subject Q2.

図10は、第2実施形態における合成動画Vの生成の説明図である。図10に例示される通り、動画V1は、収録スタジオR1内の被写体Q1と当該収録スタジオR1の背景Bとを含む。背景Bは、収録スタジオR1内において撮像装置21-1により撮像される被写体Q1以外の要素である。背景Bは、例えば収録スタジオR1の装飾的な壁面または収録スタジオR1内に設置された演出用の設備を含む。 FIG. 10 is an explanatory diagram of generation of a composite video V in the second embodiment. As illustrated in FIG. 10, the video V1 includes a subject Q1 in the recording studio R1 and a background B of the recording studio R1. The background B is an element other than the subject Q1 imaged by the imaging device 21-1 in the recording studio R1. The background B includes, for example, a decorative wall surface of the recording studio R1 or production equipment installed in the recording studio R1.

図10に例示される通り、第2実施形態の動画合成部43は、被写体Q1および背景Bを含む動画V1と、動画V2から抽出された被写体Q2とを合成することで、合成動画Vを生成する。すなわち、収録スタジオR1の背景Bは、被写体Q2の背景としても流用される。以上の説明から理解される通り、第2実施形態においては仮想動画Vxの生成が不要である。したがって、第1実施形態における動画生成部42は、第2実施形態において省略される。また、第1実施形態においては撮像装置21-1の動作データH1を仮想撮像装置50の制御に適用したが、第2実施形態において動作データH1は不要である。 As illustrated in FIG. 10, the video composition unit 43 of the second embodiment generates a composite video V by combining a video V1 including a subject Q1 and a background B with a subject Q2 extracted from the video V2. do. That is, the background B of the recording studio R1 is also used as the background of the subject Q2. As understood from the above description, in the second embodiment, it is not necessary to generate the virtual video Vx. Therefore, the moving image generation unit 42 in the first embodiment is omitted in the second embodiment. Further, in the first embodiment, the operation data H1 of the imaging device 21-1 is applied to control the virtual imaging device 50, but in the second embodiment, the operation data H1 is not necessary.

図11は、第2実施形態における動画収録処理の部分的なフローチャートである。第2実施形態における撮像制御処理Saは、第1実施形態と同様である。また、第1実施形態の動画生成処理Sbは省略される。 FIG. 11 is a partial flowchart of the video recording process in the second embodiment. The imaging control process Sa in the second embodiment is the same as that in the first embodiment. Furthermore, the moving image generation process Sb of the first embodiment is omitted.

撮像制御処理Saを実行すると、制御装置31(動画合成部43)は、動画合成処理Sc(Sc1~Sc5)を実行する。具体的には、制御装置31は、撮像装置21-1から送信された素材データM1を通信装置33により受信する(Sc1)。前述の通り、素材データM1が表す動画V1は、収録スタジオR1内の被写体Q1と背景Bとを含む。また、制御装置31は、撮像装置21-2から送信された素材データM2を通信装置33により受信する(Sc3)。制御装置31は、素材データM2が表す動画V2から被写体Q2を抽出する(Sc4)。制御装置31は、素材データM1の動画V1と、動画V2から抽出された被写体Q2とを合成することで、合成動画Vを生成する(Sc5)。第1実施形態における被写体Q1の抽出(Sc2)は、第2実施形態では実行されない。なお、再生制御処理Sdは第1実施形態と同様である。 When the imaging control process Sa is executed, the control device 31 (video composition unit 43) executes the video composition process Sc (Sc1 to Sc5). Specifically, the control device 31 receives the material data M1 transmitted from the imaging device 21-1 through the communication device 33 (Sc1). As described above, the moving image V1 represented by the material data M1 includes the subject Q1 and the background B in the recording studio R1. Further, the control device 31 receives the material data M2 transmitted from the imaging device 21-2 through the communication device 33 (Sc3). The control device 31 extracts the subject Q2 from the moving image V2 represented by the material data M2 (Sc4). The control device 31 generates a composite video V by combining the video V1 of the material data M1 and the subject Q2 extracted from the video V2 (Sc5). The extraction of the subject Q1 (Sc2) in the first embodiment is not performed in the second embodiment. Note that the reproduction control process Sd is the same as in the first embodiment.

第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態においては、動画V2から抽出された被写体Q2が、収録スタジオR1の背景Bと被写体Q1とを含む動画V1に合成される。したがって、被写体Q1と被写体Q2とが恰も収録スタジオR1内に存在するかのような合成動画Vを生成できる。また、第2実施形態においては、仮想撮像装置50の制御および仮想動画Vxの生成(動画生成部42)が不要であるから、第1実施形態と比較して制御装置31の処理負荷を軽減できる。 The second embodiment also achieves the same effects as the first embodiment. Furthermore, in the second embodiment, the subject Q2 extracted from the video V2 is combined with the video V1, which includes the background B of the recording studio R1 and the subject Q1. Therefore, it is possible to generate a composite moving image V that looks as if the subject Q1 and the subject Q2 exist within the recording studio R1. Further, in the second embodiment, since control of the virtual imaging device 50 and generation of the virtual video Vx (video generation unit 42) are not necessary, the processing load on the control device 31 can be reduced compared to the first embodiment. .

[第3実施形態]
図12は、第3実施形態における動画収録システム100の構成を例示するブロック図である。図12に例示される通り、第3実施形態の動画収録システム100は、第1実施形態と同様の要素に加えて再生装置61-1および再生装置61-2を具備する。再生装置61-1は、収録スタジオR1内に設置される。再生装置61-2は、収録スタジオR2内に設置される。
[Third embodiment]
FIG. 12 is a block diagram illustrating the configuration of a video recording system 100 in the third embodiment. As illustrated in FIG. 12, the video recording system 100 of the third embodiment includes a playback device 61-1 and a playback device 61-2 in addition to the same elements as the first embodiment. The playback device 61-1 is installed in the recording studio R1. The playback device 61-2 is installed in the recording studio R2.

各再生装置61-nは、制御システム30から提供される配信コンテンツCを再生する。具体的には、各再生装置61-nは、表示装置と放音装置とを具備する。表示装置は、配信コンテンツCの合成動画Vを表示する。例えば液晶表示パネルまたは有機ELパネル等の各種の表示パネルが、表示装置として利用される。 Each reproduction device 61-n reproduces distribution content C provided from the control system 30. Specifically, each playback device 61-n includes a display device and a sound emitting device. The display device displays a composite video V of the distribution content C. For example, various display panels such as liquid crystal display panels or organic EL panels are used as display devices.

放音装置は、配信コンテンツCの合成音声Aを放射する。例えばスピーカまたはヘッドホンが、放音装置として利用される。なお、収録スタジオR1内の再生装置61-1が再生する合成音声Aから、収録スタジオR1内で収録された音声A1が除去されてもよい。同様に、収録スタジオR2内の再生装置61-2が再生する合成音声Aから、収録スタジオR2内で収録された音声A2が除去されてもよい。 The sound emitting device emits synthesized speech A of distribution content C. For example, speakers or headphones are used as the sound emitting device. Note that the audio A1 recorded in the recording studio R1 may be removed from the synthesized audio A reproduced by the playback device 61-1 in the recording studio R1. Similarly, the audio A2 recorded in the recording studio R2 may be removed from the synthesized audio A reproduced by the playback device 61-2 in the recording studio R2.

図13は、第3実施形態における再生制御処理Sdのフローチャートである。なお、撮像制御処理Saと動画生成処理Sbと動画合成処理Scとについては第1実施形態と同様である。 FIG. 13 is a flowchart of the reproduction control process Sd in the third embodiment. Note that the imaging control processing Sa, the moving image generation processing Sb, and the moving image composition processing Sc are the same as those in the first embodiment.

第1実施形態と同様に、制御装置31(再生制御部44)は、配信コンテンツCの生成(Sd1,Sd2)と端末装置200に対する送信(Sd3)と再生装置35による配信コンテンツCの再生(Sd4)とを実行する。さらに、第3実施形態の制御装置31は、配信コンテンツCを通信装置33から再生装置61-1および再生装置61-2に送信する(Sd6)。各再生装置61-nは、通信装置23-nが制御システム30から受信した配信コンテンツCを再生する。再生装置61-1と再生装置61-2とにより配信コンテンツCが時間的に並列に再生される。以上の説明から理解される通り、第3実施形態の再生制御部44は、収録スタジオR1内の再生装置61-1および収録スタジオR2内の再生装置61-2に、動画合成部43が生成した合成動画Vを再生させる。なお、端末装置200に対する配信コンテンツCの送信(Sd3)と、再生装置35による配信コンテンツCの再生(Sd4)と、各再生装置61-nに対する配信コンテンツCの送信(Sd6)との順序は任意であり、図13の例示には限定されない。 Similarly to the first embodiment, the control device 31 (playback control unit 44) generates distribution content C (Sd1, Sd2), transmits it to the terminal device 200 (Sd3), and reproduces the distribution content C by the playback device 35 (Sd4). ) and execute. Furthermore, the control device 31 of the third embodiment transmits the distribution content C from the communication device 33 to the reproduction device 61-1 and the reproduction device 61-2 (Sd6). Each reproduction device 61-n reproduces the distributed content C received by the communication device 23-n from the control system 30. The distribution content C is played back temporally in parallel by the playback device 61-1 and the playback device 61-2. As can be understood from the above explanation, the playback control unit 44 of the third embodiment provides the playback device 61-1 in the recording studio R1 and the playback device 61-2 in the recording studio R2 with the video generated by the video composition unit 43. Play the composite video V. Note that the order of transmission of the distribution content C to the terminal device 200 (Sd3), reproduction of the distribution content C by the playback device 35 (Sd4), and transmission of the distribution content C to each playback device 61-n (Sd6) is arbitrary. and is not limited to the example shown in FIG.

配信コンテンツCは、収録システム20-1および収録システム20-2による収録に時間的に並行して再生装置61-1および再生装置61-2に送信される。収録スタジオR1の出演者Q11は、再生装置61-1が再生する配信コンテンツCを視聴可能である。すなわち、出演者Q11は、収録スタジオR1内の被写体Q1に対して収録スタジオR2内の被写体Q2が如何に合成されたのかを確認しながら、動作または発言することが可能である。同様に、収録スタジオR2の出演者Q21は、再生装置61-2が再生する配信コンテンツCを視聴可能である。すなわち、出演者Q21は、収録スタジオR2内の被写体Q2に対して収録スタジオR1内の被写体Q1が如何に合成されたのかを確認しながら、動作または発言することが可能である。また、出演者Q11および出演者Q21の各々は、遠隔地に所在する相手の音声Anを確認できる。なお、第2実施形態の構成は、第3実施形態にも同様に適用される。 The distribution content C is transmitted to the playback device 61-1 and the playback device 61-2 temporally in parallel with the recording by the recording system 20-1 and the recording system 20-2. The performer Q11 in the recording studio R1 can view the distributed content C played by the playback device 61-1. That is, the performer Q11 can act or speak while checking how the subject Q2 in the recording studio R2 has been combined with the subject Q1 in the recording studio R1. Similarly, the performer Q21 in the recording studio R2 can view the distributed content C played by the playback device 61-2. That is, the performer Q21 can act or speak while checking how the subject Q1 in the recording studio R1 has been combined with the subject Q2 in the recording studio R2. Furthermore, each of the performers Q11 and Q21 can check the voice An of the other party located at a remote location. Note that the configuration of the second embodiment is similarly applied to the third embodiment.

[第4実施形態]
図14は、第4実施形態における動画収録システム100の構成を例示するブロック図である。図14に例示される通り、第4実施形態の動画収録システム100は、第1実施形態と同様の要素に加えて照明装置63-1および照明装置63-2を具備する。照明装置63-1は、収録スタジオR1内に設置される。照明装置63-2は、収録スタジオR2内に設置される。なお、照明装置63-1は「第1照明装置」の一例であり、照明装置63-2は「第2照明装置」の一例である。
[Fourth embodiment]
FIG. 14 is a block diagram illustrating the configuration of a video recording system 100 in the fourth embodiment. As illustrated in FIG. 14, the video recording system 100 of the fourth embodiment includes a lighting device 63-1 and a lighting device 63-2 in addition to the same elements as the first embodiment. The lighting device 63-1 is installed in the recording studio R1. The lighting device 63-2 is installed inside the recording studio R2. Note that the lighting device 63-1 is an example of a "first lighting device" and the lighting device 63-2 is an example of a "second lighting device."

照明装置63-nは、収録スタジオRn内を照明する発光源である。照明装置63-1と照明装置63-2とは同機種であり、動作特性等の仕様は両者間で共通する。照明装置63-nによる照明の条件(以下「照明条件」という)は、可変に制御される。照明条件は、照明装置63-nが放射する照明光の強度または色温度である。すなわち、照明装置63-nは調光機能および調色機能を具備する。また、照明条件は、照明光が出射する方向(照射方向)を含んでもよい。 The lighting device 63-n is a light source that illuminates the inside of the recording studio Rn. The lighting device 63-1 and the lighting device 63-2 are of the same model, and specifications such as operating characteristics are common between them. The illumination conditions (hereinafter referred to as "illumination conditions") by the illumination device 63-n are variably controlled. The illumination condition is the intensity or color temperature of the illumination light emitted by the illumination device 63-n. That is, the lighting device 63-n has a dimming function and a color adjusting function. Further, the illumination conditions may include the direction in which illumination light is emitted (irradiation direction).

図15は、第4実施形態における制御システム30の機能的な構成を例示するブロック図である。制御装置31は、記憶装置32に記憶されたプログラムを実行することで、第1実施形態と同様の要素に加えて照明制御部45として機能する。 FIG. 15 is a block diagram illustrating the functional configuration of the control system 30 in the fourth embodiment. The control device 31 functions as a lighting control section 45 in addition to the same elements as in the first embodiment by executing a program stored in the storage device 32.

照明制御部45は、照明装置63-1および照明装置63-2を制御する。照明制御部45は、操作装置34に対する制作者からの操作に応じて照明装置63-1および照明装置63-2を制御する。制作者は、再生装置35が再生する配信コンテンツCを視聴しながら操作装置34を操作することで、照明装置63-1および照明装置63-2の照明条件を指示する。照明制御部45は、制作者が指示した照明条件(例えば強度または色温度)を指定する照明データLを生成する。照明データLは、例えばDMX(Digital Multiplex)形式のデータである。 The lighting control unit 45 controls the lighting device 63-1 and the lighting device 63-2. The lighting control unit 45 controls the lighting device 63-1 and the lighting device 63-2 in accordance with the producer's operation on the operating device 34. The producer instructs the lighting conditions of the lighting devices 63-1 and 63-2 by operating the operating device 34 while viewing the distributed content C played by the playback device 35. The lighting control unit 45 generates lighting data L specifying lighting conditions (for example, intensity or color temperature) instructed by the producer. The lighting data L is, for example, DMX (Digital Multiplex) format data.

照明制御部45は、照明装置63-1および照明装置63-2に対して通信装置33により照明データLを送信する。例えばArt-Net等の通信規格のもとで照明データLが送信される。各照明装置63-nの照明条件は、制御システム30から送信される照明データLに応じて制御される。照明装置63-1と照明装置63-2とには共通の照明データLが供給される。したがって、照明制御部45による照明データLの供給により、照明装置63-1の照明条件と照明装置63-2の照明条件とは、相互に連動して共通の条件に設定される。 The lighting control unit 45 transmits the lighting data L to the lighting device 63-1 and the lighting device 63-2 using the communication device 33. For example, the lighting data L is transmitted under a communication standard such as Art-Net. The lighting conditions of each lighting device 63-n are controlled according to lighting data L transmitted from the control system 30. Common lighting data L is supplied to the lighting device 63-1 and the lighting device 63-2. Therefore, by supplying the lighting data L by the lighting control unit 45, the lighting conditions of the lighting device 63-1 and the lighting conditions of the lighting device 63-2 are set to a common condition in conjunction with each other.

また、照明制御部45は、照明装置63-1および照明装置63-2に対して時間的に並列に照明データLを送信する。したがって、照明装置63-1の照明条件と照明装置63-2の照明条件とは、照明データLに応じて時間的に並列に変化する。以上の説明の通り、照明制御部45は、照明装置63-1と照明装置63-2とを、共通の照明条件のもとで、時間的に相互に並列に動作させる。例えば、照明装置63-1と照明装置63-2との間では、照明光の強度および色温度等の照明条件が共通する。 Further, the lighting control unit 45 transmits the lighting data L to the lighting device 63-1 and the lighting device 63-2 in parallel in time. Therefore, the illumination conditions of the illumination device 63-1 and the illumination conditions of the illumination device 63-2 change temporally in parallel according to the illumination data L. As described above, the lighting control unit 45 causes the lighting device 63-1 and the lighting device 63-2 to operate temporally in parallel with each other under a common lighting condition. For example, the illumination device 63-1 and the illumination device 63-2 have common illumination conditions such as the intensity and color temperature of illumination light.

図16は、第4実施形態における動画収録処理の部分的なフローチャートである。なお、撮像制御処理Saと動画生成処理Sbと動画合成処理Scと再生制御処理Sdとについては第1実施形態と同様である。 FIG. 16 is a partial flowchart of the video recording process in the fourth embodiment. Note that the imaging control processing Sa, the moving image generation processing Sb, the moving image composition processing Sc, and the playback control processing Sd are the same as those in the first embodiment.

撮像制御処理Saを実行すると、制御装置31(照明制御部45)は、照明制御処理Se(Se1~Se3)を実行する。具体的には、制御装置31は、照明条件の変更の指示を制作者から受付けたか否かを判定する(Se1)。照明条件の変更の指示を受付けた場合(Se1:YES)、制御装置31は、制作者から指示された照明条件を指定する照明データLを生成する(Se2)。制御装置31は、照明装置63-1および照明装置63-2に対して通信装置33から照明データLを送信する(Se3)。他方、照明条件の変更の指示を受付けない場合(Se1:NO)、照明データLの生成(Se2)および送信(Se3)は実行されない。 After executing the imaging control process Sa, the control device 31 (illumination control unit 45) executes the illumination control process Se (Se1 to Se3). Specifically, the control device 31 determines whether an instruction to change the lighting conditions has been received from the producer (Se1). When receiving an instruction to change the lighting conditions (Se1: YES), the control device 31 generates lighting data L specifying the lighting conditions instructed by the producer (Se2). The control device 31 transmits the lighting data L from the communication device 33 to the lighting device 63-1 and the lighting device 63-2 (Se3). On the other hand, if the instruction to change the lighting conditions is not accepted (Se1: NO), the generation (Se2) and transmission (Se3) of the lighting data L are not executed.

なお、以上の説明においては撮像制御処理Saの直後に照明制御処理Seを実行したが、照明制御処理Seが実行される時点は以上の例示に限定されない。例えば、動画生成処理Sb、動画合成処理Scおよび再生制御処理Sdの何れかの直後に、照明制御処理Seが実行されてもよい。撮像制御処理Saの直前に照明制御処理Seが実行されてもよい。 Note that in the above description, the illumination control process Se was executed immediately after the imaging control process Sa, but the time point at which the illumination control process Se is executed is not limited to the above example. For example, the lighting control process Se may be executed immediately after any one of the video generation process Sb, the video composition process Sc, and the playback control process Sd. The illumination control process Se may be executed immediately before the imaging control process Sa.

第4実施形態においても第1実施形態と同様の効果が実現される。また、第4実施形態においては、撮像装置21-1による動画V1の撮像と撮像装置21-2による動画V2の撮像とが共通の撮像条件のもとで実行されるほか、照明装置63-1による収録スタジオR1内の照明と照明装置63-2による収録スタジオR2内の照明とが共通の照明条件のもとで実行される。すなわち、被写体Q1に照射される照明光の強度および色温度と、被写体Q2に照射される照明光の強度および色温度とが共通化される。したがって、照明装置63-1の照明条件と照明装置63-2の照明条件とが相互に個別に制御される形態と比較して、被写体Q1と被写体Q2とが共通の空間内に所在するように視聴者に知覚される自然な合成動画Vを生成できる。 The fourth embodiment also achieves the same effects as the first embodiment. In addition, in the fourth embodiment, the imaging of the moving image V1 by the imaging device 21-1 and the imaging of the moving image V2 by the imaging device 21-2 are performed under common imaging conditions, and the lighting device 63-1 The lighting in the recording studio R1 by the lighting device 63-2 and the lighting in the recording studio R2 by the lighting device 63-2 are performed under common lighting conditions. That is, the intensity and color temperature of the illumination light irradiated to the subject Q1 and the intensity and color temperature of the illumination light irradiated to the subject Q2 are made common. Therefore, compared to a configuration in which the illumination conditions of the illumination device 63-1 and the illumination conditions of the illumination device 63-2 are controlled individually, it is possible for the subject Q1 and the subject Q2 to be located in a common space. It is possible to generate a natural composite video V that is perceived by the viewer.

なお、第2実施形態の構成は第4実施形態にも同様に適用される。第3実施形態の構成も第4実施形態に適用される。例えば、再生装置61-nおよび照明装置63-nの双方が収録スタジオRnに設置されてもよい。 Note that the configuration of the second embodiment is similarly applied to the fourth embodiment. The configuration of the third embodiment is also applied to the fourth embodiment. For example, both the playback device 61-n and the lighting device 63-n may be installed in the recording studio Rn.

[第5実施形態]
第1実施形態においては、動画V1と動画V2と仮想動画Vxとの合成により合成動画Vが生成される。第5実施形態においては、撮像装置21-1により撮像された動画V1と、制御装置31(動画生成部42)が生成した仮想動画Vxとの合成により、合成動画Vが生成される。
[Fifth embodiment]
In the first embodiment, a composite video V is generated by combining the video V1, the video V2, and the virtual video Vx. In the fifth embodiment, a composite video V is generated by combining the video V1 captured by the imaging device 21-1 and the virtual video Vx generated by the control device 31 (video generation unit 42).

図17は、第5実施形態における動画収録システム100の構成を例示するブロック図である。図17に例示される通り、第5実施形態の動画収録システム100は、収録システム20-1と制御システム30とを具備する。すなわち、第5実施形態において収録システム20-2は省略される。収録システム20-1の構成および機能は第1実施形態と同様である。また、制御システム30の構成は第1実施形態(図3)と同様である、 FIG. 17 is a block diagram illustrating the configuration of a video recording system 100 in the fifth embodiment. As illustrated in FIG. 17, the video recording system 100 of the fifth embodiment includes a recording system 20-1 and a control system 30. That is, in the fifth embodiment, the recording system 20-2 is omitted. The configuration and functions of the recording system 20-1 are similar to those in the first embodiment. Further, the configuration of the control system 30 is similar to that of the first embodiment (FIG. 3),

図18は、第5実施形態における制御システム30の機能的な構成を例示するブロック図である。第5実施形態の制御装置31は、記憶装置32に記憶されたプログラムを実行することで、第1実施形態と同様の要素(撮像制御部41,動画生成部42,動画合成部43,再生制御部44)として機能する。第5実施形態の撮像制御部41は、制御データDを送信することで撮像装置21-1の撮像条件を制御する。動画生成部42は、仮想動画Vxを生成する。 FIG. 18 is a block diagram illustrating the functional configuration of the control system 30 in the fifth embodiment. The control device 31 of the fifth embodiment executes the program stored in the storage device 32, thereby controlling the same elements as the first embodiment (imaging control unit 41, video generation unit 42, video composition unit 43, playback control 44). The imaging control unit 41 of the fifth embodiment controls the imaging conditions of the imaging device 21-1 by transmitting control data D. The moving image generation unit 42 generates a virtual moving image Vx.

図19は、第5実施形態における合成動画Vの生成の説明図である。図19に例示される通り、第5実施形態の仮想動画Vxは、第1実施形態と同様に、仮想空間Rxを仮想撮像装置50により撮像した動画である。ただし、第5実施形態の仮想空間Rxには、仮想的な出演者(以下「仮想出演者」という)Pが仮想オブジェクトObとして存在する。仮想出演者Pは、例えば現実の出演者Q11とともに競技イベントに出演する仮想的な出場者または解説者であり、仮想空間Rx内で種々の動作を実行する。仮想出演者Pは、仮想撮像装置50による撮像の被写体である。 FIG. 19 is an explanatory diagram of generation of composite video V in the fifth embodiment. As illustrated in FIG. 19, the virtual moving image Vx of the fifth embodiment is a moving image captured by the virtual imaging device 50 in the virtual space Rx, similarly to the first embodiment. However, in the virtual space Rx of the fifth embodiment, a virtual performer (hereinafter referred to as "virtual performer") P exists as a virtual object Ob. The virtual performer P is, for example, a virtual contestant or commentator who appears in a competitive event together with the real performer Q11, and performs various actions within the virtual space Rx. The virtual performer P is the subject of imaging by the virtual imaging device 50.

動画生成部42は、第1実施形態と同様に、仮想撮像装置50の撮像条件を、撮像装置21-1の撮像条件に応じて制御する。具体的には、動画生成部42は、通信装置33が撮像装置21-1から受信した動作データH1に応じて仮想撮像装置50の撮像条件を制御する。すなわち、仮想撮像装置50の撮像条件が撮像装置21-1の撮像条件に連動する。 The moving image generation unit 42 controls the imaging conditions of the virtual imaging device 50 according to the imaging conditions of the imaging device 21-1, as in the first embodiment. Specifically, the moving image generation unit 42 controls the imaging conditions of the virtual imaging device 50 according to the operation data H1 that the communication device 33 receives from the imaging device 21-1. That is, the imaging conditions of the virtual imaging device 50 are linked to the imaging conditions of the imaging device 21-1.

動画合成部43は、図19の例示の通り、撮像装置21-1が撮像した動画V1と動画生成部42が生成した仮想動画Vxとの合成により、配信コンテンツCの合成動画Vを生成する。再生制御部44は、第1実施形態と同様に、合成動画Vを含む配信コンテンツCを端末装置200に配信する。 As illustrated in FIG. 19, the video composition unit 43 generates a composite video V of the distribution content C by combining the video V1 captured by the imaging device 21-1 and the virtual video Vx generated by the video generation unit 42. The playback control unit 44 distributes the distribution content C including the composite video V to the terminal device 200, similarly to the first embodiment.

図20は、第5実施形態における動画収録処理のフローチャートである。撮像制御処理Saおよび動画生成処理Sbは第1実施形態と同様である。ただし、撮像制御処理Saにおいて、制御装置31は、収録システム20-1のみに対して制御データDを送信する。また、動画生成処理Sbにおいて、制御装置31は、仮想出演者Pを含む仮想空間Rxを仮想撮像装置50により撮像した仮想動画Vxを生成する。 FIG. 20 is a flowchart of video recording processing in the fifth embodiment. The imaging control process Sa and the moving image generation process Sb are the same as those in the first embodiment. However, in the imaging control process Sa, the control device 31 transmits the control data D only to the recording system 20-1. Furthermore, in the video generation process Sb, the control device 31 generates a virtual video Vx in which the virtual space Rx including the virtual performer P is imaged by the virtual imaging device 50.

動画合成処理Scにおいては、第1実施形態における動画V2に関する処理が省略される。具体的には、制御装置31は、収録システム20-1から送信された素材データM1を通信装置33により受信し(Sc1)、素材データM1の動画V1から被写体Q1を抽出する(Sc2)。そして、制御装置31は、図19に例示される通り、動画V1から抽出した被写体Q1と、動画生成処理Sbにより生成された仮想動画Vxとを合成することで合成動画Vを生成する(Sc5)。再生制御処理Sdは第1実施形態と同様である。 In the video composition process Sc, the process related to the video V2 in the first embodiment is omitted. Specifically, the control device 31 receives the material data M1 transmitted from the recording system 20-1 through the communication device 33 (Sc1), and extracts the subject Q1 from the video V1 of the material data M1 (Sc2). Then, as illustrated in FIG. 19, the control device 31 generates a composite video V by combining the subject Q1 extracted from the video V1 and the virtual video Vx generated by the video generation process Sb (Sc5). . The reproduction control process Sd is the same as in the first embodiment.

第5実施形態においては、撮像装置21-1による動画V1の撮像と仮想撮像装置50による仮想動画Vxの撮像とが共通の撮像条件のもとで実行される。したがって、収録スタジオR1内の被写体Q1と仮想空間Rx内の仮想出演者Pとが恰も共通の空間(仮想空間Rx)内に所在するかのような自然な合成動画Vを生成できる。 In the fifth embodiment, the imaging of the moving image V1 by the imaging device 21-1 and the imaging of the virtual moving image Vx by the virtual imaging device 50 are performed under common imaging conditions. Therefore, it is possible to generate a natural composite video V in which the subject Q1 in the recording studio R1 and the virtual performer P in the virtual space Rx appear as if they were located in a common space (virtual space Rx).

なお、第3実施形態の構成は第5実施形態にも同様に適用される。例えば、収録スタジオR1に設置された再生装置61-1により、配信コンテンツCが再生される。 Note that the configuration of the third embodiment is similarly applied to the fifth embodiment. For example, the distribution content C is played back by the playback device 61-1 installed in the recording studio R1.

第4実施形態の構成も第5実施形態に適用される。すなわち、第5実施形態において、収録スタジオR1に設置された照明装置63-1の照明条件が、照明データLに応じて制御されてよい。さらに、第5実施形態において、仮想空間Rxに設置された仮想的な照明装置の照明条件が、照明データLに応じて制御されてもよい。すなわち、制御装置31(照明制御部45)は、収録スタジオR1内の照明装置63-1と仮想空間Rx内の照明装置とを、共通の照明条件のもとで、時間的に相互に並列に動作させる。 The configuration of the fourth embodiment is also applied to the fifth embodiment. That is, in the fifth embodiment, the lighting conditions of the lighting device 63-1 installed in the recording studio R1 may be controlled according to the lighting data L. Furthermore, in the fifth embodiment, the lighting conditions of a virtual lighting device installed in the virtual space Rx may be controlled according to the lighting data L. That is, the control device 31 (lighting control unit 45) causes the lighting device 63-1 in the recording studio R1 and the lighting device in the virtual space Rx to be temporally parallel to each other under a common lighting condition. make it work.

[変形例]
以上に例示した各形態は多様に変形され得る。前述の各形態に適用され得る具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲で併合してもよい。
[Modified example]
Each form illustrated above can be modified in various ways. Specific modifications that can be applied to each of the above embodiments are illustrated below. Two or more aspects arbitrarily selected from the following examples may be combined to the extent that they do not contradict each other.

(1)前述の各形態においては、収録スタジオR1および収録スタジオR2とは別個の位置に制御システム30が設置された形態を例示したが、収録スタジオR1または収録スタジオR2に制御システム30が設置されてもよい。また、撮像装置21-1または撮像装置21-2に制御システム30が搭載されてもよい。 (1) In each of the above embodiments, the control system 30 is installed in a location separate from recording studio R1 and recording studio R2, but the control system 30 is installed in recording studio R1 or recording studio R2. You can. Further, the control system 30 may be installed in the imaging device 21-1 or the imaging device 21-2.

(2)前述の各形態においては、撮像装置21-1の動作データH1に応じて仮想撮像装置50の撮像条件を制御する形態を例示したが、動画生成部42は、撮像装置21-2の動作データH2に応じて仮想撮像装置50の撮像条件を制御してもよい。また、動画生成部42は、動作データH1および動作データH2の双方に応じて仮想撮像装置50の撮像条件を制御してもよい。例えば、動画生成部42は、動作データH1が表す撮像条件と動作データH2が表す撮像条件との平均的な条件に、仮想撮像装置50の撮像条件を設定してもよい。以上の例示の通り、仮想撮像装置50の撮像条件は、撮像装置21-1の撮像条件および撮像装置21-2の撮像条件の一方または双方に応じて制御される。なお、仮想撮像装置50の撮像条件は固定されてもよい。 (2) In each of the above embodiments, the imaging conditions of the virtual imaging device 50 are controlled according to the operation data H1 of the imaging device 21-1. The imaging conditions of the virtual imaging device 50 may be controlled according to the operation data H2. Furthermore, the moving image generation unit 42 may control the imaging conditions of the virtual imaging device 50 according to both the motion data H1 and the motion data H2. For example, the moving image generation unit 42 may set the imaging condition of the virtual imaging device 50 to the average condition of the imaging condition represented by the operational data H1 and the imaging condition represented by the operational data H2. As illustrated above, the imaging conditions of the virtual imaging device 50 are controlled according to one or both of the imaging conditions of the imaging device 21-1 and the imaging device 21-2. Note that the imaging conditions of the virtual imaging device 50 may be fixed.

(3)前述の各形態においては、撮像装置21-1の動作データH1に応じて仮想撮像装置50の撮像条件を制御する形態を例示した。前述の通り、制御データDにより指示される撮像装置21-nの撮像条件と、撮像装置21-nの動作データHnが表す撮像条件とは、基本的には一致する。したがって、動画生成部42は、仮想撮像装置50の撮像条件を制御データDに応じて制御してもよい。すなわち、動画生成部42は、仮想撮像装置50を、制御データが指定する撮像条件に制御する。以上の説明から理解される通り、仮想撮像装置50の撮像条件の制御に動作データHnを使用する構成は省略されてよい。 (3) In each of the above-described embodiments, an example is given in which the imaging conditions of the virtual imaging device 50 are controlled according to the operation data H1 of the imaging device 21-1. As described above, the imaging conditions of the imaging device 21-n instructed by the control data D and the imaging conditions represented by the operation data Hn of the imaging device 21-n basically match. Therefore, the moving image generation unit 42 may control the imaging conditions of the virtual imaging device 50 according to the control data D. That is, the moving image generation unit 42 controls the virtual imaging device 50 to the imaging conditions specified by the control data. As understood from the above description, the configuration in which the operation data Hn is used to control the imaging conditions of the virtual imaging device 50 may be omitted.

(4)第1実施形態のように収録スタジオR1内の動画V1から被写体Q1が抽出される形態においては、収録スタジオR1のうち被写体Q1が存在する範囲以外の空間は、合成動画Vの撮像にあたり不要である。したがって、図21に例示される通り、収録スタジオR1のうち基準面αに対して被写体Q1とは反対側の空間が縮小または削減された形態も想定される。同様に、収録スタジオR2のうち基準面αに対して被写体Q2とは反対側の空間は、図21に例示される通り縮小または削減されてもよい。以上の通り、各収録スタジオRnは狭小な空間でも、動画V1と動画V2との合成により、実際の収録スタジオRnよりも広い空間に被写体Q1および被写体Q2が所在すると知覚される合成動画Vを生成できる。すなわち、収録スタジオRnに必要なサイズが削減されるから、合成動画Vの収録に必要な費用を削減できる。 (4) In the form in which the subject Q1 is extracted from the video V1 in the recording studio R1 as in the first embodiment, the space other than the area where the subject Q1 exists in the recording studio R1 is used for imaging the composite video V. Not necessary. Therefore, as illustrated in FIG. 21, a configuration in which the space on the side opposite to the subject Q1 with respect to the reference plane α in the recording studio R1 is reduced or reduced is also conceivable. Similarly, the space on the opposite side of the recording studio R2 from the subject Q2 with respect to the reference plane α may be reduced or reduced as illustrated in FIG. 21. As mentioned above, even if each recording studio Rn has a narrow space, by combining videos V1 and V2, a composite video V is generated in which the subjects Q1 and Q2 are perceived to be located in a wider space than the actual recording studio Rn. can. That is, since the size required for the recording studio Rn is reduced, the cost required for recording the composite video V can be reduced.

(5)前述の各形態においては、動画Vnのうちグリーンバックに対応する領域を除去することで被写体Qnを抽出したが、動画Vnから被写体Qnを抽出する方法は、以上の例示に限定されない。例えば、動画合成部43は、公知の物体検出処理により動画Vnから被写体Qnを抽出してもよい。物体検出処理としては、例えば深層ニューラルネットワーク等の推定モデルを利用した物体検出、または背景差分法等の画像処理を利用した物体検出が例示される。以上の説明から理解される通り、収録スタジオRnの背景はグリーンバックである必要はない。 (5) In each of the above embodiments, the subject Qn is extracted by removing the area corresponding to the green screen from the video Vn, but the method of extracting the subject Qn from the video Vn is not limited to the above examples. For example, the video composition unit 43 may extract the subject Qn from the video Vn using known object detection processing. Examples of the object detection process include object detection using an estimation model such as a deep neural network, or object detection using image processing such as a background subtraction method. As understood from the above explanation, the background of the recording studio Rn does not need to be a green screen.

(6)前述の各形態においては、収録スタジオRnを現実空間として例示したが、現実空間は収録スタジオRn等の屋内空間に限定されない。例えば、屋外空間等の現実空間内に収録システム20-nが設置されてもよい。以上の説明から理解される通り、現実空間は、現実世界の実在する空間として定義され、屋内/屋外は不問である。 (6) In each of the above embodiments, the recording studio Rn is exemplified as a real space, but the real space is not limited to an indoor space such as the recording studio Rn. For example, the recording system 20-n may be installed in a real space such as an outdoor space. As understood from the above explanation, real space is defined as an existing space in the real world, and it does not matter whether it is indoors or outdoors.

(7)第3実施形態においては、再生装置61-1および再生装置61-2の双方に配信コンテンツCを再生させたが、再生制御部44は、再生装置61-1および再生装置61-2の一方のみに配信コンテンツCを再生させてもよい。以上の説明から理解される通り、第3実施形態において、再生装置61-1および再生装置61-2の一方は省略されてもよい。 (7) In the third embodiment, both the playback device 61-1 and the playback device 61-2 play the distributed content C, but the playback control unit 44 controls the playback device 61-1 and the playback device 61-2. The distributed content C may be played back only on one side. As understood from the above description, in the third embodiment, one of the playback device 61-1 and the playback device 61-2 may be omitted.

(8)前述の各形態においては、撮像装置21-1と撮像装置21-2とを相互に連動させる形態を例示したが、動画収録システム100が複数の動作モードの何れかにより動作する形態も想定される。複数の動作モードは、例えば連動モードと個別モードとを含む。 (8) In each of the above embodiments, a mode in which the imaging device 21-1 and the imaging device 21-2 are interlocked is illustrated, but a mode in which the video recording system 100 operates in any of a plurality of operation modes is also possible. is assumed. The plurality of operation modes include, for example, a linked mode and an individual mode.

連動モードにおいては、前述の各形態と同様に、制御システム30が撮像装置21-1および撮像装置21-2に対して共通の制御データDを送信することで、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが相互に連動する。 In the linked mode, similarly to each of the above embodiments, the control system 30 transmits common control data D to the imaging device 21-1 and the imaging device 21-2, thereby adjusting the imaging conditions of the imaging device 21-1. and the imaging conditions of the imaging device 21-2 are linked to each other.

個別モードにおいては、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが個別に制御される。例えば、個別モードにおいて、制作者は、操作装置34を操作することで、撮像装置21-1および撮像装置21-2の何れかを選択して撮像条件の変更を指示できる。例えば、撮像装置21-1の撮像条件の変更が制作者により指示された場合、撮像制御部41は、変更後の撮像条件を指定する制御データDを収録システム20-1に送信する。他方、撮像装置21-2の撮像条件の変更が制作者により指示された場合、撮像制御部41は、変更後の撮像条件を指定する制御データDを収録システム20-2に送信する。 In the individual mode, the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 are individually controlled. For example, in the individual mode, the producer can select either the imaging device 21-1 or the imaging device 21-2 and instruct a change in imaging conditions by operating the operating device 34. For example, when the producer instructs to change the imaging conditions of the imaging device 21-1, the imaging control unit 41 transmits control data D specifying the changed imaging conditions to the recording system 20-1. On the other hand, when the producer instructs to change the imaging conditions of the imaging device 21-2, the imaging control unit 41 transmits control data D specifying the changed imaging conditions to the recording system 20-2.

すなわち、撮像制御部41は、撮像装置21-1および撮像装置21-2に双方に共通の制御データDを送信する動作(連動モード)と、撮像装置21-1および撮像装置21-2の各々に個別の制御データDを送信する動作(個別モード)とを選択的に実行する。以上の形態によれば、撮像装置21-1と撮像装置21-2とが常に連動する形態と比較して、撮像装置21-1および撮像装置21-2の動作を相違させた多様な配信コンテンツCを生成できる。 That is, the imaging control unit 41 performs an operation of transmitting control data D common to both the imaging device 21-1 and the imaging device 21-2 (linked mode), and an operation of transmitting the control data D common to both the imaging device 21-1 and the imaging device 21-2, and The operation of transmitting individual control data D (individual mode) is selectively executed. According to the above embodiment, compared to the embodiment in which the imaging device 21-1 and the imaging device 21-2 are always linked, various distributed contents are provided in which the operations of the imaging device 21-1 and the imaging device 21-2 are different. Can generate C.

(9)前述の各形態においては、撮像装置21-1と撮像装置21-2とが同機種である構成を想定した。以上の構成においては、撮像装置21-1と撮像装置21-2とに対して共通の制御データDを送信することで、撮像装置21-1と撮像装置21-2とを共通の撮像条件のもとで動作させることが可能である。ただし、撮像装置21-1と撮像装置21-2とは別機種でもよい。撮像装置21-1と撮像装置21-2とが別機種である形態においては、撮像制御部41は、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが共通するように、撮像装置21-1および撮像装置21-2の各々に対して個別の制御データDを送信する。以上の説明から理解される通り、撮像制御部41は、撮像装置21-1と撮像装置21-2とを共通の撮像条件のもとで動作させる要素として包括的に表現され、撮像装置21-1と撮像装置21-2との機種の異同、および制御データDの個別/共通は、本開示において不問である。 (9) In each of the above embodiments, a configuration is assumed in which the imaging device 21-1 and the imaging device 21-2 are of the same model. In the above configuration, by transmitting the common control data D to the imaging device 21-1 and the imaging device 21-2, the imaging device 21-1 and the imaging device 21-2 can be controlled under a common imaging condition. It is possible to operate under However, the imaging device 21-1 and the imaging device 21-2 may be different models. In a configuration in which the imaging device 21-1 and the imaging device 21-2 are different models, the imaging control unit 41 sets the imaging condition of the imaging device 21-1 and the imaging condition of the imaging device 21-2 to be common. , transmits individual control data D to each of the imaging device 21-1 and the imaging device 21-2. As understood from the above description, the imaging control unit 41 is comprehensively expressed as an element that causes the imaging device 21-1 and the imaging device 21-2 to operate under common imaging conditions, and is In the present disclosure, it does not matter whether the models of the imaging device 1 and the imaging device 21-2 are different or whether the control data D is individual or common.

第4実施形態における照明装置63-1および照明装置63-2についても同様である。例えば、照明装置63-1および照明装置63-2が相異なる機種である形態においては、制御システム30から個別の照明データLを各々に送信することで、照明装置63-1と照明装置63-2とを共通の照明条件もとで動作させてもよい。 The same applies to the lighting device 63-1 and the lighting device 63-2 in the fourth embodiment. For example, in a configuration where the lighting device 63-1 and the lighting device 63-2 are different models, the control system 30 can transmit individual lighting data L to each of the lighting device 63-1 and the lighting device 63-2. 2 may be operated under common lighting conditions.

(10)収録スタジオR1には、撮像装置21-2に連動する撮像装置21-1のほかに、撮像装置21-2とは独立に撮像条件が設定される1以上の撮像装置が設置されてもよい。同様に、収録スタジオR2には、撮像装置21-1に連動する撮像装置21-2のほかに、撮像装置21-1とは独立に撮像条件が設定される1以上の撮像装置が設置されてもよい。 (10) In addition to the imaging device 21-1 that is linked to the imaging device 21-2, the recording studio R1 is equipped with one or more imaging devices whose imaging conditions are set independently of the imaging device 21-2. Good too. Similarly, in addition to the imaging device 21-2 linked to the imaging device 21-1, the recording studio R2 is equipped with one or more imaging devices whose imaging conditions are set independently of the imaging device 21-1. Good too.

(11)前述の各形態においては、動画V1と動画V2と仮想動画Vxとの合成により合成動画Vを生成したが、さらに他の画像が合成されてもよい。例えば、出演者Q11および出演者Q21がプレイするゲームの画面が、合成動画Vに合成されてもよい。また、収録スタジオRn内に設置された撮像装置21-n以外の撮像装置により撮像された動画が、合成動画Vに合成されてもよい。また、前述の各形態においては、音声A1と音声A2との合成により合成音声Aを生成したが、さらに他の音声が合成されてもよい。例えば、出演者Q11および出演者Q21がプレイするゲームの音声が、合成音声Aに合成されてもよい。 (11) In each of the above embodiments, the composite video V is generated by combining the video V1, the video V2, and the virtual video Vx, but other images may also be combined. For example, screens of games played by performer Q11 and performer Q21 may be combined into composite video V. Further, a moving image captured by an image capturing device other than the image capturing device 21-n installed in the recording studio Rn may be combined into the composite moving image V. Further, in each of the above embodiments, the synthesized speech A is generated by synthesizing the speech A1 and the speech A2, but other speech may also be synthesized. For example, the voices of a game played by performer Q11 and performer Q21 may be synthesized into synthesized voice A.

(12)収録スタジオR1と収録スタジオR2との間で照明光の強度または色温度等の照明条件が相違する状況が想定される。以上の状況においては、例えば、動画V1および動画V2の一方または双方に対する画像処理により、動画V1と動画V2との間で光学的パラメータを相互に近似または一致させてもよい。各動画Vnの光学的パラメータは、例えば露出値またはホワイトバランス等の光学的なパラメータである。例えば、動画合成部43は、動画V1および動画V2の一方の光学的パラメータを補正することで、他方の光学的パラメータに一致させる。また、動画合成部43は、動画V1および動画V2の各々の光学的パラメータを、両者間の平均値に補正してもよい。動画合成部43は、光学的パラメータの補正後の動画V1および動画V2を合成することで合成動画Vを生成する。以上の構成によれば、合成動画Vにおける被写体Q1と被写体Q2との視覚的な相違が低減される。したがって、被写体Q1と被写体Q2とが恰も共通の空間内に所在するかのような自然な合成動画Vを生成できるという前述の効果は特に顕著である。 (12) A situation is assumed in which the lighting conditions such as the intensity or color temperature of the illumination light are different between the recording studio R1 and the recording studio R2. In the above situation, for example, the optical parameters of the moving image V1 and the moving image V2 may be made to approximate or match each other by performing image processing on one or both of the moving images V1 and the moving images V2. The optical parameters of each moving image Vn are, for example, optical parameters such as exposure value or white balance. For example, the video composition unit 43 corrects the optical parameters of one of the videos V1 and V2 to match the optical parameters of the other video. Further, the video composition unit 43 may correct the optical parameters of each of the video V1 and the video V2 to an average value between the two. The video composition unit 43 generates a composite video V by combining the video V1 and the video V2 after the optical parameters have been corrected. According to the above configuration, the visual difference between the subject Q1 and the subject Q2 in the composite video V is reduced. Therefore, the above-mentioned effect of being able to generate a natural composite moving image V as if the subject Q1 and the subject Q2 are located in a common space is particularly remarkable.

(13)撮像装置21-1の撮像条件と撮像装置21-2の撮像条件との誤差に起因して、動画V1と動画V2との間で撮像範囲が相違する状況が想定される。以上の状況において、動画合成部43は、動画V1および動画V2の各々から特定の領域を抽出する画像処理により、動画V1と動画V2との間で撮像範囲を一致させてもよい。 (13) Due to an error between the imaging conditions of the imaging device 21-1 and the imaging condition of the imaging device 21-2, a situation is assumed in which the imaging ranges are different between the video V1 and the video V2. In the above situation, the video composition unit 43 may match the imaging ranges of the video V1 and the video V2 by image processing that extracts a specific area from each of the videos V1 and V2.

図22は、本変形例における動画合成処理Scの部分的なフローチャートである。図22に例示される処理が、動画合成処理Scにおける合成動画Vの合成(Sc5)前における適切な時点で実行される。 FIG. 22 is a partial flowchart of the moving image synthesis process Sc in this modification. The process illustrated in FIG. 22 is executed at an appropriate time before the synthesis (Sc5) of the composite video V in the video composition process Sc.

制御装置31(動画合成部43)は、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが一致するか否かを判定する(Sc11)。例えば、制御装置31は、動作データH1と動作データH2とが一致するか否かに応じて、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが一致するか否かを判定する。撮像条件が一致するか否かの判定には、例えば動作データH1と動作データH2との類似度が利用される。類似度は、例えば、撮像装置21-1の撮像方向と撮像装置21-2の撮像方向とがなす角度、または、撮像装置21-1の撮像倍率と撮像装置21-2の撮像倍率との差異に応じた指標値である。 The control device 31 (video composition unit 43) determines whether the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 match (Sc11). For example, the control device 31 determines whether the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 match, depending on whether the operation data H1 and the operation data H2 match. judge. For example, the degree of similarity between the motion data H1 and the motion data H2 is used to determine whether the imaging conditions match. The degree of similarity is, for example, the angle formed between the imaging direction of the imaging device 21-1 and the imaging direction of the imaging device 21-2, or the difference between the imaging magnification of the imaging device 21-1 and the imaging magnification of the imaging device 21-2. It is an index value according to.

例えば、動作データH1と動作データH2との類似度が閾値を上回る場合、動画合成部43は、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが一致すると判定する。他方、動作データH1と動作データH2との類似度が所定の閾値を下回る場合、動画合成部43は、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが相違すると判定する。なお、制作者が配信コンテンツCを視聴しながら操作装置34を操作することで、動画V1と動画V2との間で撮像範囲が整合するか否かを、制御システム30に指示してもよい。制御装置31は、操作装置34に対する制作者からの指示に応じて、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが一致するか否かを判定する。 For example, if the degree of similarity between the motion data H1 and the motion data H2 exceeds a threshold, the video synthesis unit 43 determines that the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 match. On the other hand, if the degree of similarity between the motion data H1 and the motion data H2 is less than a predetermined threshold, the video synthesis unit 43 determines that the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 are different. . Note that the producer may instruct the control system 30 whether or not the imaging ranges of the video V1 and the video V2 match by operating the operating device 34 while viewing the distributed content C. The control device 31 determines whether the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 match in response to instructions from the producer to the operating device 34.

撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが相違する場合(Sc11:NO)、制御装置31は、目標の撮像範囲に対応する領域を動画V1から抽出し、当該撮像範囲に対応する領域を動画V2から抽出する(Sc12)。他方、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが一致する場合(Sc11:YES)、動画V1および動画V2の部分的な抽出(Sc12)は実行されない。以上の処理を経た動画V1および動画V2が、合成動画Vの生成(Sc5)に適用される。以上の形態によれば、撮像範囲が動画V1と動画V2との間で整合した自然な合成動画Vを生成できる。 If the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 are different (Sc11: NO), the control device 31 extracts a region corresponding to the target imaging range from the video V1, and A region corresponding to the range is extracted from the video V2 (Sc12). On the other hand, when the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 match (Sc11: YES), partial extraction of the video V1 and video V2 (Sc12) is not executed. The video V1 and video V2 that have undergone the above processing are applied to generate a composite video V (Sc5). According to the above embodiment, it is possible to generate a natural composite video V in which the imaging range matches the video V1 and the video V2.

(14)制御システム30と収録システム20-1との間の通信遅延と、制御システム30と収録システム20-2との間の通信遅延とが相違する場合、制御システム30が取得する動画V1と動画V2とが時間的に相互に同期しない可能性がある。例えば、動画V1および動画V2の一方が他方に対して遅延する状況が想定される。以上の状況において、動画合成部43は、動画V1と動画V2とを時間的に相互に同期させてもよい。例えば、撮像装置21-nは、動画Vnの各時点にタイムコードを付加する。動画合成部43は、動画V1および動画V2の各々のタイムコードを参照することで、動画V1と動画V2とを相互に同期させる。同期後の動画V1および動画V2が、合成動画Vの生成(Sc5)に適用される。以上の形態によれば、動画V1と動画V2との時間的なズレが低減された自然な合成動画Vを生成できる。 (14) If the communication delay between the control system 30 and the recording system 20-1 is different from the communication delay between the control system 30 and the recording system 20-2, the video V1 acquired by the control system 30 and There is a possibility that the video V2 and the video V2 are not temporally synchronized with each other. For example, a situation is assumed in which one of the moving images V1 and V2 is delayed relative to the other. In the above situation, the video composition unit 43 may temporally synchronize the video V1 and the video V2 with each other. For example, the imaging device 21-n adds a time code to each point in time of the video Vn. The video synthesis unit 43 mutually synchronizes the video V1 and the video V2 by referring to the time codes of the videos V1 and V2. The synchronized video V1 and video V2 are applied to generate a composite video V (Sc5). According to the above embodiment, it is possible to generate a natural composite video V in which the time difference between the video V1 and the video V2 is reduced.

(15)前述の各形態においては、撮像方向および撮像倍率を撮像条件として例示したが、撮像制御部41による制御の対象となる撮像条件は以上の例示に限定されない。例えば、焦点位置(フォーカス)、絞り値(アイリス)、露光時間(シャッタースピード)、露出値またはホワイトバランス等、撮像範囲自体には影響しない条件も「撮像条件」には包含される。 (15) In each of the above-described embodiments, the imaging direction and the imaging magnification are exemplified as imaging conditions, but the imaging conditions to be controlled by the imaging control unit 41 are not limited to the above examples. For example, "imaging conditions" include conditions that do not affect the imaging range itself, such as focal position (focus), aperture value (iris), exposure time (shutter speed), exposure value, or white balance.

(16)前述の各形態においては撮像装置21-1および撮像装置21-2を例示したが、撮像装置21-nの個数は3個以上でもよい。例えば、動画収録システム100がN個(Nは2以上の自然数)の撮像装置21-n(n=1~N)を具備する構成を想定すると、撮像制御部41は、N個の撮像装置21-nを共通の撮像条件のもとで相互に並列に動作させる。動画合成部43は、各撮像装置21-nが撮像した動画Vnの合成により合成動画Vを生成する。N個の撮像装置21-nから選択された1個の撮像装置21-n1(n1=1~N)が本開示における「第1撮像装置」の一例であり、他の撮像装置21-n2(n2=1~N,n2≠n1)が本開示における「第2撮像装置」の一例である。 (16) In each of the above embodiments, the imaging device 21-1 and the imaging device 21-2 are illustrated, but the number of imaging devices 21-n may be three or more. For example, assuming a configuration in which the video recording system 100 includes N imaging devices 21-n (N is a natural number of 2 or more) (n=1 to N), the imaging control unit 41 controls the N imaging devices 21-n (n=1 to N). -n are operated in parallel with each other under common imaging conditions. The video composition unit 43 generates a composite video V by combining videos Vn captured by each imaging device 21-n. One imaging device 21-n1 (n1=1 to N) selected from the N imaging devices 21-n is an example of a "first imaging device" in the present disclosure, and the other imaging devices 21-n2 ( n2=1 to N, n2≠n1) is an example of the "second imaging device" in the present disclosure.

(17)前述の各形態に係る制御システム30の機能は、前述の通り、制御装置31を構成する単数または複数のプロセッサと、記憶装置32に記憶されたプログラムとの協働により実現される。以上に例示したプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網を介してプログラムを配信する構成では、当該配信装置においてプログラムを記憶する記録媒体が、前述の非一過性の記録媒体に相当する。 (17) As described above, the functions of the control system 30 according to each of the above embodiments are realized by cooperation between one or more processors that constitute the control device 31 and the program stored in the storage device 32. The programs exemplified above may be provided in a form stored in a computer-readable recording medium and installed on a computer. The recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disk) such as a CD-ROM is a good example, but any known recording medium such as a semiconductor recording medium or a magnetic recording medium is used. Also included are recording media in the form of. Note that the non-transitory recording medium includes any recording medium except for transitory, propagating signals, and does not exclude volatile recording media. Furthermore, in a configuration in which a distribution device distributes a program via a communication network, a recording medium that stores a program in the distribution device corresponds to the above-mentioned non-transitory recording medium.

(18)前述の各形態における動画収録システム100は、本開示における「動画収録システム」の一例である。ただし、収録システム20-1および収録システム20-2を要件としない制御システム30を、本開示の「動画収録システム」と解釈してもよい。 (18) The video recording system 100 in each of the above embodiments is an example of a "video recording system" in the present disclosure. However, the control system 30 that does not require the recording system 20-1 and the recording system 20-2 may be interpreted as the "video recording system" of the present disclosure.

(19)本開示における「第n」(nは自然数)という記載は、各要素を表記上において区別するための形式的または便宜的な標識(ラベル)としてのみ使用され、如何なる実質的な意味も持たない。したがって、「第n」という表記を根拠として、各要素の位置または処理の順序等が限定的に解釈される余地はない。 (19) In the present disclosure, the term “nth” (n is a natural number) is used only as a formal or convenient label to distinguish each element in the notation, and has no substantive meaning. do not have. Therefore, there is no room for the position of each element or the order of processing to be interpreted in a limited manner based on the notation "nth".

[付記]
以上の記載から、例えば以下のように本開示の好適な態様が把握される。なお、各態様の理解を容易にするために、以下では、図面の符号を便宜的に括弧書で併記するが、本開示を図示の態様に限定する趣旨ではない。
[Additional notes]
From the above description, preferred aspects of the present disclosure can be understood, for example, as follows. Note that in order to facilitate understanding of each aspect, the reference numerals in the drawings will be conveniently written in parentheses below, but this is not intended to limit the present disclosure to the illustrated aspects.

[付記1]
本開示のひとつの態様(付記1)に係る動画収録システム(100)は、第1現実空間(R1)内の第1撮像装置(21-1)と第2現実空間(R2)内の第2撮像装置(21-2)とを共通の撮像条件のもとで時間的に相互に並列に動作させる撮像制御部(41)と、前記第1撮像装置(21-1)が撮像した第1動画(V1)と前記第2撮像装置(21-2)が撮像した第2動画(V2)との合成により合成動画(V)を生成する動画合成部(43)とを具備する。以上の態様によれば、第1撮像装置(21-1)による第1動画(V1)の撮像と第2撮像装置(21-2)による第2動画(V2)の撮像とが共通の撮像条件のもとで実行される。したがって、第1現実空間(R1)内の第1被写体(Q1)と第2現実空間(R2)内の第2被写体(Q2)とが恰も共通の空間内に所在するかのような自然な合成動画(V)を生成できる。
[Additional note 1]
A video recording system (100) according to one aspect (Appendix 1) of the present disclosure includes a first imaging device (21-1) in a first real space (R1) and a second imaging device (21-1) in a second real space (R2). an imaging control unit (41) that causes the imaging device (21-2) to operate temporally in parallel with each other under a common imaging condition; and a first moving image captured by the first imaging device (21-1). (V1) and a second moving image (V2) captured by the second imaging device (21-2) to generate a composite moving image (V). According to the above aspect, the imaging of the first video (V1) by the first imaging device (21-1) and the imaging of the second video (V2) by the second imaging device (21-2) are under a common imaging condition. is executed under Therefore, the first subject (Q1) in the first real space (R1) and the second subject (Q2) in the second real space (R2) are naturally synthesized as if they were located in a common space. Video (V) can be generated.

「(第1/第2)動画」は、複数の映像の時系列により構成される動的な画像である。なお、第1現実空間(R1)内で収録された第1音声が第1動画(V1)に付随してもよいし、第2現実空間(R2)内で収録された第2音声が第2動画(V2)に付随してもよい。「(第1/第2)現実空間」とは、現実世界に実在する空間であり、仮想空間(Rx)と対比される概念である。 The “(first/second) moving image” is a dynamic image composed of a plurality of time-series videos. Note that the first audio recorded in the first real space (R1) may accompany the first video (V1), and the second audio recorded in the second real space (R2) may accompany the second video (V1). It may accompany the video (V2). The "(first/second) real space" is a space that exists in the real world, and is a concept contrasted with a virtual space (Rx).

第1撮像装置(21-1)による第1動画(V1)の撮像と第2撮像装置(21-2)による第2動画(V2)の撮像とについて「時間的に相互に並列」とは、第1撮像装置(21-1)が第1動画(V1)を撮像する期間と第2撮像装置(21-2)が第2動画(V2)を撮像する期間とが時間軸上で相互に重複することを意味する。なお、第1撮像装置(21-1)による撮像動作と第2撮像装置(21-2)による撮像動作とは、時間的に完全に同期する必要は必ずしもなく、例えば合成動画(V)の視聴者により知覚されない範囲で時間差が存在してもよい。 Regarding the imaging of the first moving image (V1) by the first imaging device (21-1) and the imaging of the second moving image (V2) by the second imaging device (21-2), “parallel to each other in time” means: The period in which the first imaging device (21-1) images the first video (V1) and the period in which the second imaging device (21-2) images the second video (V2) overlap each other on the time axis. It means to do. Note that the imaging operation by the first imaging device (21-1) and the imaging operation by the second imaging device (21-2) do not necessarily need to be completely synchronized in time; for example, when viewing a composite video (V), A time difference may exist within a range that is not perceivable by the person.

「撮像条件」は、(第1/第2)撮像装置(21-n)による動画の撮像に関する条件である。具体的には、撮像方向または撮像倍率等、撮像範囲を規定する条件が「撮像条件」として例示される。撮像方向は、例えば水平方向(パン)または垂直方向(チルト)である。撮像倍率は、例えば焦点距離に応じた倍率(ズーム)である。ただし、例えば焦点位置(フォーカス)、絞り値(アイリス)、露光時間(シャッタースピード)、露出値またはホワイトバランス等、撮像範囲自体には影響しない条件も「撮像条件」には包含される。「撮像条件」は、例えば撮像制御部(41)による制御の対象となる動作条件とも表現される。 The "imaging condition" is a condition regarding imaging of a moving image by the (first/second) imaging device (21-n). Specifically, conditions that define the imaging range, such as the imaging direction or imaging magnification, are exemplified as "imaging conditions." The imaging direction is, for example, a horizontal direction (pan) or a vertical direction (tilt). The imaging magnification is, for example, a magnification (zoom) depending on the focal length. However, "imaging conditions" also include conditions that do not affect the imaging range itself, such as, for example, focal position (focus), aperture value (iris), exposure time (shutter speed), exposure value, or white balance. The "imaging conditions" are also expressed as, for example, operating conditions that are subject to control by the imaging control unit (41).

「共通の撮像条件のもとで動作させる」とは、第1撮像装置(21-1)の撮像条件と第2撮像装置(21-2)の撮像条件とが完全に一致する場合のほか、第1撮像装置(21-1)の撮像条件と第2撮像装置(21-2)の撮像条件とが実質的に一致する場合も含む。「撮像条件が実質的に一致する場合」とは、例えば、撮像条件の相違が視聴者に知覚されない程度に第1撮像装置(21-1)と第2撮像装置(21-2)との間で撮像条件が近似する場合、または、第1撮像装置(21-1)の撮像条件と第2撮像装置(21-2)の撮像条件との差異が、両者間の特性の相違(例えば製造誤差等の事情に起因した相違)を原因とする程度の微小な差異である場合である。 "Operating under common imaging conditions" refers to cases where the imaging conditions of the first imaging device (21-1) and the imaging conditions of the second imaging device (21-2) completely match; This also includes a case where the imaging conditions of the first imaging device (21-1) and the imaging conditions of the second imaging device (21-2) substantially match. "When the imaging conditions substantially match" means, for example, that the difference in imaging conditions between the first imaging device (21-1) and the second imaging device (21-2) is not perceptible to the viewer. If the imaging conditions are similar, or if the difference between the imaging conditions of the first imaging device (21-1) and the imaging conditions of the second imaging device (21-2) is due to a difference in characteristics between the two (for example, manufacturing error) This is a case where the difference is so small that it is caused by a difference caused by circumstances such as

例えば、第1撮像装置(21-1)と第2撮像装置(21-2)とが同機種である場合を想定すると、撮像条件を指示する共通の制御データ(D)を第1撮像装置(21-1)および第2撮像装置(21-2)の双方に送信する結果として、第1撮像装置(21-1)と第2撮像装置(21-2)とは共通の撮像条件のもとで動作する。また、第1撮像装置(21-1)と第2撮像装置(21-2)とが別機種である場合を想定すると、両機種間の撮像動作の相違が解消されるように第1撮像装置(21-1)と第2撮像装置(21-2)とに別個の制御データ(D)を送信する結果として、第1撮像装置(21-1)と第2撮像装置(21-2)とは共通の撮像条件のもとで動作する。 For example, assuming that the first imaging device (21-1) and the second imaging device (21-2) are of the same model, the common control data (D) instructing the imaging conditions is transferred to the first imaging device (21-2). 21-1) and the second imaging device (21-2), the first imaging device (21-1) and the second imaging device (21-2) are under the same imaging condition. It works. Further, assuming that the first imaging device (21-1) and the second imaging device (21-2) are different models, the first imaging device (21-1) and the second imaging device (21-2), the first imaging device (21-1) and the second imaging device (21-2) operate under common imaging conditions.

第1動画(V1)と第2動画(V2)との合成は、例えば、第1動画(V1)の少なくとも一部と第2動画(V2)の少なくとも一部との混合により合成動画(V)を生成する画像処理である。例えば、第1動画(V1)内の第1被写体(Q1)と第2動画(V2)内の第2被写体(Q2)とが併存するように第1動画(V1)と第2動画(V2)とが合成される。ただし、第1撮像装置(21-1)による撮像範囲内に第1被写体(Q1)が存在し、かつ、第2撮像装置(21-2)による撮像範囲内には第2被写体(Q2)が存在しない場合には、合成動画(V)には第1被写体(Q1)のみが存在する。また、第1撮像装置(21-1)による撮像範囲が第1被写体(Q1)から離間し、かつ、第2撮像装置(21-2)による撮像範囲が第2被写体(Q2)に接近する場合を想定すると、表示対象が第1被写体(Q1)から第2被写体(Q2)に遷移する合成動画(V)が生成される。 The first video (V1) and the second video (V2) can be synthesized, for example, by mixing at least a portion of the first video (V1) and at least a portion of the second video (V2) to create a composite video (V). This is image processing that generates . For example, the first video (V1) and the second video (V2) are arranged so that the first subject (Q1) in the first video (V1) and the second subject (Q2) in the second video (V2) coexist. are synthesized. However, the first subject (Q1) exists within the imaging range of the first imaging device (21-1), and the second subject (Q2) exists within the imaging range of the second imaging device (21-2). If it does not exist, only the first subject (Q1) exists in the composite video (V). Also, when the imaging range by the first imaging device (21-1) is separated from the first subject (Q1) and the imaging range by the second imaging device (21-2) approaches the second subject (Q2). Assuming that, a composite video (V) in which the display target changes from the first subject (Q1) to the second subject (Q2) is generated.

動画収録システム(100)による合成動画(V)の生成には、3個以上の撮像装置(21-n)が利用されてもよい。すなわち、動画合成部(43)は、相異なる撮像装置(21-n)により撮像された3個以上の動画の合成により合成動画(V)を生成してもよい。「第1動画(V1)」は、複数の動画から選択されたひとつの動画であり、「第2動画(V2)」は、複数の動画のうち第1動画(V1)以外のひとつの動画である。すなわち、合成動画(V)は、第1動画(V1)および第2動画(V2)のみの合成により生成されてもよいし、第1動画(V1)および第2動画(V2)と他の1以上の動画との合成により生成されてもよい。 Three or more imaging devices (21-n) may be used to generate the composite video (V) by the video recording system (100). That is, the video composition unit (43) may generate a composite video (V) by combining three or more videos captured by different imaging devices (21-n). The "first video (V1)" is one video selected from multiple videos, and the "second video (V2)" is one video selected from multiple videos other than the first video (V1). be. That is, the composite video (V) may be generated by combining only the first video (V1) and the second video (V2), or may be generated by combining the first video (V1), the second video (V2), and another one. It may be generated by combining with the above video.

[付記2]
付記1の具体例(付記2)に係る動画収録システム(100)は、仮想空間(Rx)を仮想撮像装置(50)により撮像した仮想動画(Vx)を生成する動画生成部(42)、をさらに具備し、前記動画合成部(43)は、前記第1動画(V1)と前記第2動画(V2)と前記仮想動画(Vx)との合成により前記合成動画(V)を生成する。以上の態様によれば、第1動画(V1)と第2動画(V2)と仮想動画(Vx)との合成により合成動画(V)が生成される。したがって、例えば第1現実空間(R1)または第2現実空間(R2)の外観が単調である場合でも、種々の仮想動画(Vx)を含む多様な合成動画(V)を生成できる。
[Additional note 2]
The video recording system (100) according to the specific example of Appendix 1 (Appendix 2) includes a video generation unit (42) that generates a virtual video (Vx) obtained by capturing a virtual space (Rx) with a virtual imaging device (50). Furthermore, the video composition unit (43) generates the composite video (V) by combining the first video (V1), the second video (V2), and the virtual video (Vx). According to the above aspect, the composite video (V) is generated by combining the first video (V1), the second video (V2), and the virtual video (Vx). Therefore, for example, even if the first real space (R1) or the second real space (R2) has a monotonous appearance, various composite videos (V) including various virtual videos (Vx) can be generated.

「仮想空間(Rx)」は、画像処理等の各種の情報処理により設定される仮想的な空間であり、現実空間と対比される概念である。「仮想撮像装置(50)」は、仮想空間(Rx)内に設置された仮想的な撮像装置である。仮想撮像装置(50)の撮像条件は固定/可変の何れでもよい。 "Virtual space (Rx)" is a virtual space set by various information processing such as image processing, and is a concept contrasted with real space. The "virtual imaging device (50)" is a virtual imaging device installed in the virtual space (Rx). The imaging conditions of the virtual imaging device (50) may be fixed or variable.

[付記3]
付記2の具体例(付記3)において、前記動画合成部(43)は、前記第1動画(V1)から第1被写体(Q1)を抽出し、前記第2動画(V2)から第2被写体(Q2)を抽出し、前記第1被写体(Q1)と前記第2被写体(Q2)と前記仮想動画(Vx)との合成により前記合成動画(V)を生成する。以上の態様によれば、第1被写体(Q1)と第2被写体(Q2)とが恰も仮想空間(Rx)内に存在するかのような合成動画(V)を生成できる。
[Additional note 3]
In the specific example of Appendix 2 (Appendix 3), the video composition unit (43) extracts a first subject (Q1) from the first video (V1), and extracts a second subject (Q1) from the second video (V2). Q2), and generates the composite video (V) by combining the first subject (Q1), the second subject (Q2), and the virtual video (Vx). According to the above aspect, it is possible to generate a composite moving image (V) in which the first subject (Q1) and the second subject (Q2) appear to exist in the virtual space (Rx).

「(第1/第2)被写体」は、撮像装置により撮像された1個以上の物体である。例えば人物または動物等の生物のほか、演出用の設備等の各種の物体が「被写体」には含まれ得る。第1動画(V1)から複数の第1被写体(Q1)が抽出されてもよいし、第2動画(V2)から複数の第2被写体(Q2)が抽出されてもよい。 “(First/Second) Subject” is one or more objects imaged by the imaging device. For example, in addition to living things such as people and animals, the "subject" may include various objects such as production equipment. A plurality of first subjects (Q1) may be extracted from the first moving image (V1), and a plurality of second subjects (Q2) may be extracted from the second moving image (V2).

「被写体を抽出」する方法は任意である。例えば、第1現実空間(R1)内の第1撮像装置(21-1)が特定色の背景(例えばグリーンバック)のもとで第1被写体(Q1)を撮像する場合を想定すると、第1動画(V1)のうち特定色の領域を除外することで第1被写体(Q1)が抽出される。また、特定の物体を検出する物体検出処理を第1動画(V1)に対して実行することで、当該第1動画(V1)から第1被写体(Q1)が抽出されてもよい。なお、以上の説明では第1撮像装置(21-1)に着目したが、第2撮像装置(21-2)についても同様である。 The method of "extracting the subject" is arbitrary. For example, assuming that the first imaging device (21-1) in the first real space (R1) images the first subject (Q1) under a background of a specific color (for example, a green screen), the first The first subject (Q1) is extracted by excluding a specific color area from the video (V1). Alternatively, the first subject (Q1) may be extracted from the first video (V1) by performing object detection processing for detecting a specific object on the first video (V1). Although the above explanation focused on the first imaging device (21-1), the same applies to the second imaging device (21-2).

[付記4]
付記2または付記3の具体例(付記4)において、前記動画生成部(42)は、前記仮想撮像装置(50)の撮像条件を、前記共通の撮像条件に応じて制御する。以上の態様によれば、仮想撮像装置(50)の撮像条件が、第1撮像装置(21-1)および第2撮像装置(21-2)の撮像条件に連動する。したがって、第1被写体(Q1)と第2被写体(Q2)とが恰も仮想空間(Rx)内に存在するかのような自然な合成動画(V)を生成できる。
[Additional note 4]
In the specific example of Appendix 2 or Appendix 3 (Appendix 4), the moving image generation unit (42) controls the imaging conditions of the virtual imaging device (50) according to the common imaging conditions. According to the above aspect, the imaging conditions of the virtual imaging device (50) are linked to the imaging conditions of the first imaging device (21-1) and the second imaging device (21-2). Therefore, it is possible to generate a natural composite video (V) in which the first subject (Q1) and the second subject (Q2) appear to exist in the virtual space (Rx).

「仮想撮像装置(50)の撮像条件(仮想撮像条件)を、第1撮像装置(21-1)および第2撮像装置(21-2)の撮像条件(現実撮像条件)に応じて制御する」とは、現実撮像条件の変化に連動して仮想撮像条件が変化する状態を意味する。以上の形態の典型例は、第1撮像装置(21-1)および第2撮像装置(21-2)の一方または双方の撮像条件と共通の撮像条件により仮想撮像装置(50)を制御する構成であるが、第1撮像装置(21-1)または第2撮像装置(21-2)の撮像条件と仮想撮像装置(50)の撮像条件との異同は不問である。 "Control the imaging conditions (virtual imaging conditions) of the virtual imaging device (50) according to the imaging conditions (real imaging conditions) of the first imaging device (21-1) and the second imaging device (21-2)" means a state in which virtual imaging conditions change in conjunction with changes in real imaging conditions. A typical example of the above configuration is a configuration in which the virtual imaging device (50) is controlled based on imaging conditions common to the imaging conditions of one or both of the first imaging device (21-1) and the second imaging device (21-2). However, it does not matter whether the imaging conditions of the first imaging device (21-1) or the second imaging device (21-2) are different from the imaging conditions of the virtual imaging device (50).

[付記5]
付記4の具体例(付記5)において、前記動画生成部(42)は、前記撮像制御部(41)の制御による前記第1撮像装置(21-1)の動作の結果を表す第1動作データ(H1)を当該第1撮像装置(21-1)から取得し、前記仮想撮像装置(50)の撮像条件を、前記第1動作データ(H1)に応じて制御する。以上の態様によれば、第1撮像装置(21-1)の動作の結果を表す第1動作データ(H1)に応じて仮想撮像装置(50)の撮像条件が制御される。したがって、仮想撮像装置(50)の撮像条件を、第1撮像装置(21-1)の実際の動作に連動させることが可能である。例えば、第1撮像装置(21-1)の特性誤差等の事情に起因して、撮像制御部(41)からの指示が第1撮像装置(21-1)の動作に正確に反映されない状況でも、第1撮像装置(21-1)の実際の動作に連動して仮想撮像装置(50)の撮像条件を制御できる。
[Additional note 5]
In the specific example of Appendix 4 (Appendix 5), the video generation unit (42) generates first operation data representing the result of the operation of the first imaging device (21-1) under the control of the imaging control unit (41). (H1) is acquired from the first imaging device (21-1), and the imaging conditions of the virtual imaging device (50) are controlled according to the first operation data (H1). According to the above aspect, the imaging conditions of the virtual imaging device (50) are controlled according to the first operation data (H1) representing the result of the operation of the first imaging device (21-1). Therefore, it is possible to link the imaging conditions of the virtual imaging device (50) with the actual operation of the first imaging device (21-1). For example, even in a situation where instructions from the imaging control unit (41) are not accurately reflected in the operation of the first imaging device (21-1) due to circumstances such as characteristic errors of the first imaging device (21-1). , the imaging conditions of the virtual imaging device (50) can be controlled in conjunction with the actual operation of the first imaging device (21-1).

「(第1)動作データ」は、撮像装置の動作の結果を表す任意の形式のデータである。例えば、撮像装置の実際の撮像方向または撮像倍率等の数値が、動作データにより指定される。動作データが指定する数値は、制御の前後における相対的な数値(変化量)でもよいし、所定値を基準とした絶対的な数値でもよい。撮像方向は、変更前の方向と変更後の方向との相対的な角度(変化量)により指定されてもよいし、所定の正面方向を基準とした絶対的な方向により指定されてもよい。また、撮像倍率は、変更前の倍率と変更後の倍率との差分(変化量)により指定されてもよいし、所定値を基準とした絶対的な数値により指定されてもよい。 “(First) operation data” is data in any format that represents the result of the operation of the imaging device. For example, numerical values such as the actual imaging direction or imaging magnification of the imaging device are specified by the operation data. The numerical value specified by the operation data may be a relative numerical value (amount of change) before and after control, or may be an absolute numerical value based on a predetermined value. The imaging direction may be specified by a relative angle (amount of change) between the direction before change and the direction after change, or may be specified by an absolute direction with respect to a predetermined front direction. Further, the imaging magnification may be specified by the difference (amount of change) between the magnification before change and the magnification after change, or may be specified by an absolute numerical value based on a predetermined value.

「仮想撮像装置(50)の撮像条件を第1動作データ(H1)に応じて制御する」とは、仮想撮像装置(50)の撮像条件に、少なくとも第1動作データ(H1)が反映されることを意味し、第1動作データ(H1)以外の要素が仮想撮像装置(50)の撮像条件に反映されてもよい。例えば、撮像制御部(41)が、第2撮像装置(21-2)の動作の結果を表す第2動作データ(H2)を当該第2撮像装置(21-2)から取得する形態において、動画生成部(42)は、第1動作データ(H1)および第2動作データ(H2)の双方に応じて仮想撮像条件を制御してもよいし、第1動作データ(H1)および第2動作データ(H2)の一方を選択的に仮想撮像条件に反映させてもよい。 "Controlling the imaging conditions of the virtual imaging device (50) according to the first operating data (H1)" means that at least the first operating data (H1) is reflected in the imaging conditions of the virtual imaging device (50). This means that elements other than the first operation data (H1) may be reflected in the imaging conditions of the virtual imaging device (50). For example, in a configuration in which the imaging control unit (41) acquires second operation data (H2) representing the result of the operation of the second imaging device (21-2) from the second imaging device (21-2), The generation unit (42) may control the virtual imaging conditions according to both the first motion data (H1) and the second motion data (H2), or may control the virtual imaging conditions according to both the first motion data (H1) and the second motion data. One of (H2) may be selectively reflected in the virtual imaging conditions.

[付記6]
付記1から付記5の何れかの具体例(付記6)において、前記第1動画(V1)は、背景(B)と第1被写体(Q1)とを含み、前記動画合成部(43)は、前記第2動画(V2)から第2被写体(Q2)を抽出し、前記第2被写体(Q2)を前記第1動画(V1)に合成することで前記合成動画(V)を生成する。以上の態様によれば、第2動画(V2)から抽出された第2被写体(Q2)が、背景(B)と第1被写体(Q1)とを含む第1動画(V1)に合成される。したがって、第1被写体(Q1)と第2被写体(Q2)とが恰も第1現実空間(R1)内に存在するかのような合成動画(V)を生成できる。
[Additional note 6]
In the specific example of any one of Appendixes 1 to 5 (Appendix 6), the first video (V1) includes a background (B) and a first subject (Q1), and the video composition unit (43) The composite video (V) is generated by extracting a second subject (Q2) from the second video (V2) and compositing the second subject (Q2) with the first video (V1). According to the above aspect, the second subject (Q2) extracted from the second moving image (V2) is combined with the first moving image (V1) including the background (B) and the first subject (Q1). Therefore, it is possible to generate a composite moving image (V) in which the first subject (Q1) and the second subject (Q2) appear to exist in the first real space (R1).

[付記7]
付記1から付記6の何れかの具体例(付記7)に係る動画収録システム(100)は、前記第1現実空間(R1)内の第1再生装置(61-1)に、前記動画合成部(43)が生成した前記合成動画(V)を再生させる再生制御部(44)をさらに具備する。以上の態様によれば、第1現実空間(R1)内の第1再生装置(61-1)により合成動画(V)が再生される。したがって、第1現実空間(R1)内の利用者は、当該第1現実空間(R1)内の被写体に対して第2現実空間(R2)内の被写体が如何に合成されたのかを確認可能である。
[Additional note 7]
The video recording system (100) according to any of the specific examples (Appendix 7) of Appendixes 1 to 6 includes the video composition unit in the first playback device (61-1) in the first real space (R1). (43) further includes a playback control unit (44) that plays back the synthesized video (V) generated. According to the above aspect, the composite moving image (V) is played back by the first playback device (61-1) in the first real space (R1). Therefore, the user in the first real space (R1) can check how the object in the second real space (R2) has been combined with the object in the first real space (R1). be.

「(第1)再生装置」は、合成動画(V)を再生するための映像機器である。例えば合成動画(V)を表示する表示装置、または合成動画(V)に含まれる音声を放音する放音装置(例えばスピーカシステム)が「再生装置」として例示される。 The "(first) playback device" is a video device for playing back the composite video (V). For example, a display device that displays the composite video (V) or a sound emitting device (for example, a speaker system) that emits audio included in the composite video (V) is exemplified as a “playback device”.

なお、以上の態様においては第1現実空間(R1)内の第1再生装置(61-1)に便宜的に着目したが、合成動画(V)を再生するのは第1現実空間(R1)内の第1再生装置(61-1)のみには限定されない。例えば、第1再生装置(61-1)に合成動画(V)を再生させる動作に加えて、第2現実空間(R2)内の第2再生装置(61-2)に合成動画(V)を再生させてもよい。以上の形態によれば、第2現実空間(R2)内の利用者は、当該第2現実空間(R2)内の被写体に対して第1現実空間(R1)内の被写体が如何に合成されたのかを確認可能である。以上の例示から理解される通り、相異なる複数(2以上の任意の個数)の現実空間に着目すると、複数の現実空間のうち少なくともひとつの現実空間内の再生装置に合成動画(V)を再生させる形態が想定される。 In addition, in the above embodiment, the first playback device (61-1) in the first real space (R1) is focused for convenience, but the synthesized video (V) is played back in the first real space (R1). It is not limited to only the first playback device (61-1) within. For example, in addition to the operation of playing the composite video (V) on the first playback device (61-1), the composite video (V) is played on the second playback device (61-2) in the second real space (R2). It may be played back. According to the above configuration, the user in the second real space (R2) can understand how the object in the first real space (R1) is synthesized with the object in the second real space (R2). It is possible to check whether As can be understood from the above examples, when focusing on a plurality of different real spaces (an arbitrary number of 2 or more), a composite video (V) is played back on a playback device in at least one real space among the plurality of real spaces. It is assumed that the

[付記8]
付記1から付記7の何れかの具体例(付記8)に係る動画収録システム(100)は、前記第1現実空間(R1)内の第1照明装置(63-1)と前記第2現実空間(R2)内の第2照明装置(63-2)とを共通の照明条件のもとで動作させる照明制御部(45)をさらに具備する。以上の態様によれば、第1撮像装置(21-1)による第1動画(V1)の撮像と第2撮像装置(21-2)による第2動画(V2)の撮像とが共通の撮像条件のもとで実行されるほか、第1照明装置(63-1)による第1現実空間(R1)内の照明動作と第2照明装置(63-2)による第2現実空間(R2)内の照明動作とが共通の照明条件のもとで実行される。すなわち、第1現実空間(R1)と第2現実空間(R2)との間で照明条件が共通化される。したがって、第1現実空間(R1)内の被写体と第2現実空間(R2)内の被写体とが共通の空間内に所在するように視聴者に認識され得る自然な合成動画(V)を生成できる。
[Additional note 8]
The video recording system (100) according to the specific example of any one of appendices 1 to 7 (appendix 8) includes a first lighting device (63-1) in the first real space (R1) and a second real space. It further includes a lighting control unit (45) that operates the second lighting device (63-2) in (R2) under common lighting conditions. According to the above aspect, the imaging of the first video (V1) by the first imaging device (21-1) and the imaging of the second video (V2) by the second imaging device (21-2) are under a common imaging condition. In addition, the lighting operation in the first real space (R1) by the first lighting device (63-1) and the lighting operation in the second real space (R2) by the second lighting device (63-2) are performed. The lighting operations are performed under common lighting conditions. That is, the lighting conditions are made common between the first real space (R1) and the second real space (R2). Therefore, it is possible to generate a natural composite video (V) in which the object in the first real space (R1) and the object in the second real space (R2) can be recognized by the viewer as if they were located in a common space. .

「照明条件」は、(第1/第2)照明装置による照明動作に関する条件である。具体的には、照明光の強度、色温度(分光特性)または照射方向が「照明条件」として例示される。 “Lighting conditions” are conditions regarding lighting operations by the (first/second) lighting devices. Specifically, the intensity, color temperature (spectral characteristics), or irradiation direction of illumination light is exemplified as the "illumination condition."

「共通の照明条件のもとで動作させる」とは、第1照明装置(63-1)の照明条件と第2照明装置(63-2)の照明条件とが完全に一致する場合のほか、第1照明装置(63-1)の照明条件と第2照明装置(63-2)の照明条件とが実質的に一致する場合も含む。「照明条件が実質的に一致する場合」とは、例えば、照明条件の相違が視聴者に知覚されない程度に第1照明装置(63-1)と第2照明装置(63-2)との間で照明条件が近似する場合、または、第1照明装置(63-1)の照明条件と第2照明装置(63-2)の照明条件との差異が、両者間の特性の相違(例えば製造誤差等の事情に起因した相違)を原因とする程度の微小な差異である場合である。 "Operate under common lighting conditions" refers to cases where the lighting conditions of the first lighting device (63-1) and the lighting conditions of the second lighting device (63-2) completely match; This also includes a case where the illumination conditions of the first illumination device (63-1) and the illumination conditions of the second illumination device (63-2) substantially match. "When the lighting conditions substantially match" means, for example, that the difference in lighting conditions between the first lighting device (63-1) and the second lighting device (63-2) is not perceptible to the viewer. If the illumination conditions are similar, or the difference between the illumination conditions of the first illumination device (63-1) and the illumination conditions of the second illumination device (63-2) is due to a difference in characteristics between the two (for example, manufacturing error). This is a case where the difference is so small that it is caused by (differences due to circumstances such as).

例えば、第1照明装置(63-1)と第2照明装置(63-2)とが同機種である場合を想定すると、照明条件を指示する共通の照明データ(L)を第1照明装置(63-1)および第2照明装置(63-2)の双方に送信する結果として、第1照明装置(63-1)と第2照明装置(63-2)とは共通の照明条件のもとで動作する。また、第1照明装置(63-1)と第2照明装置(63-2)とが別機種である場合を想定すると、両機種間の照明動作の相違が解消されるように第1照明装置(63-1)と第2照明装置(63-2)とに別個の照明データ(L)を送信する結果として、第1照明装置(63-1)と第2照明装置(63-2)とは共通の照明条件のもとで動作する。 For example, assuming that the first lighting device (63-1) and the second lighting device (63-2) are of the same model, the common lighting data (L) that indicates the lighting conditions is transferred to the first lighting device (63-2). 63-1) and the second lighting device (63-2), the first lighting device (63-1) and the second lighting device (63-2) are under the same lighting condition. It works. Further, assuming that the first lighting device (63-1) and the second lighting device (63-2) are different models, the first lighting device As a result of transmitting separate lighting data (L) to the first lighting device (63-1) and the second lighting device (63-2), the first lighting device (63-1) and the second lighting device (63-2) operate under common lighting conditions.

なお、第1照明装置(63-1)の照明条件と第2照明装置(63-2)の照明条件とが共通する場合でも、他の照明光または太陽光の条件等により、第1現実空間(R1)内の照明条件と第2現実空間(R2)内の照明条件とが相違する場合はあり得る。 Note that even if the lighting conditions of the first lighting device (63-1) and the lighting conditions of the second lighting device (63-2) are the same, the first real space may There may be cases where the illumination conditions in (R1) and the illumination conditions in the second real space (R2) are different.

[付記9]
本開示のひとつの態様(付記9)に係る動画収録方法は、第1現実空間(R1)内の第1撮像装置(21-1)と第2現実空間(R2)内の第2撮像装置(21-2)とを共通の撮像条件のもとで時間的に相互に並列に動作させることと、前記第1撮像装置(21-1)が撮像した第1動画(V1)と前記第2撮像装置(21-2)が撮像した第2動画(V2)との合成により合成動画(V)を生成することとを含む。
[Additional note 9]
A video recording method according to one aspect (Appendix 9) of the present disclosure includes a first imaging device (21-1) in a first real space (R1) and a second imaging device (21-1) in a second real space (R2). 21-2) are operated temporally in parallel with each other under a common imaging condition, and the first moving image (V1) captured by the first imaging device (21-1) and the second imaging This includes generating a composite video (V) by combining it with the second video (V2) captured by the device (21-2).

[付記10]
本開示のひとつの態様(付記10)に係るプログラムは、第1現実空間(R1)内の第1撮像装置(21-1)と第2現実空間(R2)内の第2撮像装置(21-2)とを共通の撮像条件のもとで時間的に相互に並列に動作させる撮像制御部(41)、および、前記第1撮像装置(21-1)が撮像した第1動画(V1)と前記第2撮像装置(21-2)が撮像した第2動画(V2)との合成により合成動画(V)を生成する動画合成部(43)、としてコンピュータシステムを機能させる。
[Additional note 10]
A program according to one aspect (Appendix 10) of the present disclosure includes a first imaging device (21-1) in a first real space (R1) and a second imaging device (21-1) in a second real space (R2). 2) and a first moving image (V1) captured by the first imaging device (21-1); The computer system is made to function as a video composition unit (43) that generates a composite video (V) by combining it with the second video (V2) captured by the second imaging device (21-2).

[付記11]
本開示のひとつの態様(付記11)に係る動画収録システム(100)は、現実空間(R1)内の撮像装置(21-1)の撮像条件を制御する撮像制御部(41)と、仮想空間(Rx)を仮想撮像装置(50)により撮像した仮想動画(Vx)を生成する動画生成部(42)と、前記第1撮像装置(21-1)が撮像した動画(V1)と動画生成部(42)が生成した仮想動画(Vx)との合成により合成動画(V)を生成する動画合成部(43)とを具備し、前記動画生成部(42)は、前記仮想撮像装置(50)の撮像条件を、前記撮像装置(21-1)の撮像条件に応じて制御する。以上の態様によれば、撮像装置(21-1)の撮像条件と仮想撮像装置(50)の撮像条件とが相互に連動する。したがって、現実空間(R1)内の被写体(Q1)と仮想空間(Rx)内の被写体(P)とが恰も共通の空間内に所在するかのような自然な合成動画(V)を生成できる。なお、以上に例示した付記11には、前述の付記1ないし付記10から選択された1以上の態様が任意に適用される。
[Additional note 11]
A video recording system (100) according to one aspect (Appendix 11) of the present disclosure includes an imaging control unit (41) that controls imaging conditions of an imaging device (21-1) in a real space (R1), and a virtual space. a video generation unit (42) that generates a virtual video (Vx) captured by the virtual imaging device (50); a video (V1) captured by the first imaging device (21-1); and a video generation unit (42) includes a video synthesis unit (43) that generates a composite video (V) by combining with the virtual video (Vx) generated by the virtual imaging device (50), and the video generation unit (42) The imaging conditions of the imaging device (21-1) are controlled according to the imaging conditions of the imaging device (21-1). According to the above aspect, the imaging conditions of the imaging device (21-1) and the imaging conditions of the virtual imaging device (50) are linked to each other. Therefore, it is possible to generate a natural composite video (V) in which the subject (Q1) in the real space (R1) and the subject (P) in the virtual space (Rx) appear as if they were located in a common space. Note that one or more aspects selected from the above-mentioned Supplementary Notes 1 to 10 may be arbitrarily applied to Supplementary Note 11 illustrated above.

100…動画収録システム、200…端末装置、20-1,20-2,20-n…収録システム、21-1,21-2,21-n…撮像装置、22-1,22-2,22-n…収音装置、23-1,23-2,23-n…通信装置、30…制御システム、31…制御装置、32…記憶装置、33…通信装置、34…操作装置、35…再生装置、41…撮像制御部、42…動画生成部、43…動画合成部、44…再生制御部、45…照明制御部、50…仮想撮像装置、61-1,61-2,61-n…再生装置、63-1,63-2,63-n…照明装置。 100... Video recording system, 200... Terminal device, 20-1, 20-2, 20-n... Recording system, 21-1, 21-2, 21-n... Imaging device, 22-1, 22-2, 22 -n...Sound collection device, 23-1, 23-2, 23-n...Communication device, 30...Control system, 31...Control device, 32...Storage device, 33...Communication device, 34...Operation device, 35...Reproduction Apparatus, 41... Imaging control unit, 42... Moving image generation unit, 43... Moving image synthesis unit, 44... Playback control unit, 45... Lighting control unit, 50... Virtual imaging device, 61-1, 61-2, 61-n... Reproduction device, 63-1, 63-2, 63-n... lighting device.

Claims (10)

第1現実空間内の第1撮像装置と第2現実空間内の第2撮像装置とを共通の撮像条件のもとで時間的に相互に並列に動作させる撮像制御部と、
前記第1撮像装置が撮像した第1動画と前記第2撮像装置が撮像した第2動画との合成により合成動画を生成する動画合成部と
を具備する動画収録システム。
an imaging control unit that causes a first imaging device in a first real space and a second imaging device in a second real space to operate temporally in parallel with each other under a common imaging condition;
A video recording system comprising: a video composition unit that generates a composite video by combining a first video captured by the first imaging device and a second video captured by the second imaging device.
仮想空間を仮想撮像装置により撮像した仮想動画を生成する動画生成部、をさらに具備し、
前記動画合成部は、前記第1動画と前記第2動画と前記仮想動画との合成により前記合成動画を生成する
請求項1の動画収録システム。
further comprising a video generation unit that generates a virtual video obtained by capturing an image of the virtual space with a virtual imaging device,
The video recording system according to claim 1, wherein the video composition unit generates the composite video by combining the first video, the second video, and the virtual video.
前記動画合成部は、
前記第1動画から第1被写体を抽出し、
前記第2動画から第2被写体を抽出し、
前記第1被写体と前記第2被写体と前記仮想動画との合成により前記合成動画を生成する
請求項2の動画収録システム。
The video compositing unit is
extracting a first subject from the first video;
extracting a second subject from the second video;
The video recording system according to claim 2, wherein the composite video is generated by combining the first subject, the second subject, and the virtual video.
前記動画生成部は、前記仮想撮像装置の撮像条件を、前記共通の撮像条件に応じて制御する
請求項2または請求項3の動画収録システム。
The video recording system according to claim 2 or 3, wherein the video generation unit controls imaging conditions of the virtual imaging device according to the common imaging conditions.
前記動画生成部は、
前記撮像制御部の制御による前記第1撮像装置の動作の結果を表す第1動作データを当該第1撮像装置から取得し、
前記仮想撮像装置の撮像条件を、前記第1動作データに応じて制御する
請求項4の動画収録システム。
The video generation unit includes:
acquiring first operation data representing a result of the operation of the first imaging device under control of the imaging control unit from the first imaging device;
The video recording system according to claim 4, wherein imaging conditions of the virtual imaging device are controlled according to the first operation data.
前記第1動画は、背景と第1被写体とを含み、
前記動画合成部は、
前記第2動画から第2被写体を抽出し、
前記第2被写体を前記第1動画に合成することで前記合成動画を生成する
請求項1の動画収録システム。
The first video includes a background and a first subject,
The video compositing unit is
extracting a second subject from the second video;
The video recording system according to claim 1, wherein the composite video is generated by combining the second subject with the first video.
前記第1現実空間内の第1再生装置に、前記動画合成部が生成した前記合成動画を再生させる再生制御部
をさらに具備する請求項1の動画収録システム。
The video recording system according to claim 1, further comprising: a playback control unit that causes a first playback device in the first real space to play back the composite video generated by the video composition unit.
前記第1現実空間内の第1照明装置と前記第2現実空間内の第2照明装置とを共通の照明条件のもとで動作させる照明制御部
をさらに具備する請求項1の動画収録システム。
The video recording system according to claim 1, further comprising: a lighting control unit that operates a first lighting device in the first real space and a second lighting device in the second real space under a common lighting condition.
第1現実空間内の第1撮像装置と第2現実空間内の第2撮像装置とを共通の撮像条件のもとで時間的に相互に並列に動作させることと、
前記第1撮像装置が撮像した第1動画と前記第2撮像装置が撮像した第2動画との合成により合成動画を生成することと
を含むコンピュータシステムにより実現される動画収録方法。
Operating a first imaging device in a first real space and a second imaging device in a second real space temporally in parallel with each other under a common imaging condition;
A video recording method realized by a computer system, comprising: generating a composite video by combining a first video captured by the first imaging device and a second video captured by the second imaging device.
第1現実空間内の第1撮像装置と第2現実空間内の第2撮像装置とを共通の撮像条件のもとで時間的に相互に並列に動作させる撮像制御部、および、
前記第1撮像装置が撮像した第1動画と前記第2撮像装置が撮像した第2動画との合成により合成動画を生成する動画合成部、
としてコンピュータシステムを機能させるプログラム。
an imaging control unit that causes a first imaging device in a first real space and a second imaging device in a second real space to operate temporally in parallel with each other under a common imaging condition;
a video synthesis unit that generates a composite video by combining a first video captured by the first imaging device and a second video captured by the second imaging device;
A program that makes a computer system function as a computer.
JP2022104401A 2022-06-29 2022-06-29 Moving image recording system, moving image recording method, and program Pending JP2024004671A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022104401A JP2024004671A (en) 2022-06-29 2022-06-29 Moving image recording system, moving image recording method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022104401A JP2024004671A (en) 2022-06-29 2022-06-29 Moving image recording system, moving image recording method, and program

Publications (1)

Publication Number Publication Date
JP2024004671A true JP2024004671A (en) 2024-01-17

Family

ID=89540079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022104401A Pending JP2024004671A (en) 2022-06-29 2022-06-29 Moving image recording system, moving image recording method, and program

Country Status (1)

Country Link
JP (1) JP2024004671A (en)

Similar Documents

Publication Publication Date Title
US9849399B2 (en) Background imagery for enhanced pepper's ghost illusion
CN210021183U (en) Immersive interactive panoramic holographic theater and performance system
CN105794202B (en) Depth for video and line holographic projections is bonded to
KR101304111B1 (en) A dancing karaoke system
US10859852B2 (en) Real-time video processing for pyramid holographic projections
JP2003533235A (en) Virtual production device and method
US20110304735A1 (en) Method for Producing a Live Interactive Visual Immersion Entertainment Show
CN110013678A (en) Immersion interacts panorama holography theater performance system, method and application
CN207460313U (en) Mixed reality studio system
CN105938541B (en) System and method for enhancing live performances with digital content
WO2015151766A1 (en) Projection photographing system, karaoke device, and simulation device
US20160266543A1 (en) Three-dimensional image source for enhanced pepper's ghost illusion
KR101392406B1 (en) Method and Apparatus for Chromakey compositing of Subject Image and Background Image
JP2022058501A (en) Hall display system and event execution method using the same
US20200371420A1 (en) Entertainment presentation systems and method
JP2024004671A (en) Moving image recording system, moving image recording method, and program
TWI706292B (en) Virtual Theater Broadcasting System
JP2008236708A (en) Medium production apparatus for virtual film studio
JP2024051665A (en) Video synthesis system, video synthesis method, and program
KR101486959B1 (en) Karaoke System to improve the immersion.
US20240075402A1 (en) System and method for peppers ghost filming and display
KR101743874B1 (en) System and Method for Creating Video Contents Using Collaboration of Performing Objects
TWI263156B (en) Automatic program production system and method thereof
JP6403649B2 (en) Aerial image rendering device and control method thereof
JP2023130363A (en) Display system for hall and method for executing event using the same