JP2024004671A - Moving image recording system, moving image recording method, and program - Google Patents
Moving image recording system, moving image recording method, and program Download PDFInfo
- Publication number
- JP2024004671A JP2024004671A JP2022104401A JP2022104401A JP2024004671A JP 2024004671 A JP2024004671 A JP 2024004671A JP 2022104401 A JP2022104401 A JP 2022104401A JP 2022104401 A JP2022104401 A JP 2022104401A JP 2024004671 A JP2024004671 A JP 2024004671A
- Authority
- JP
- Japan
- Prior art keywords
- video
- imaging
- imaging device
- virtual
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 64
- 238000003384 imaging method Methods 0.000 claims abstract description 599
- 239000002131 composite material Substances 0.000 claims abstract description 94
- 239000000203 mixture Substances 0.000 claims abstract description 38
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 238000003786 synthesis reaction Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 description 54
- 238000009826 distribution Methods 0.000 description 42
- 238000005286 illumination Methods 0.000 description 42
- 238000004891 communication Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 29
- 238000012545 processing Methods 0.000 description 29
- 230000008859 change Effects 0.000 description 28
- 239000000463 material Substances 0.000 description 20
- 230000003287 optical effect Effects 0.000 description 12
- 239000000284 extract Substances 0.000 description 11
- 238000003860 storage Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000002860 competitive effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000002156 mixing Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000005034 decoration Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Studio Circuits (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本開示は、動画を収録する技術に関する。 The present disclosure relates to a technique for recording moving images.
個別に収録された複数の動画を合成する技術が従来から提案されている。例えば特許文献1には、相異なるカメラにより複数の動画を撮像し、複数の動画の各々から抽出されたユーザの動画を所定の背景動画に合成する技術が開示されている。
BACKGROUND ART Techniques for compositing multiple videos recorded individually have been proposed in the past. For example,
しかし、特許文献1の技術において、複数のカメラの各々は個別の撮像条件によりユーザを撮像する。したがって、撮像方向または撮像倍率等の撮像条件がユーザ毎に相違する不自然な合成動画が生成されるという課題がある。以上の事情を考慮して、本開示のひとつの態様は、相異なる空間に所在する複数の被写体を含む自然な動画を生成することを目的とする。
However, in the technique disclosed in
以上の課題を解決するために、本開示のひとつの態様に係る動画収録システムは、第1現実空間内の第1撮像装置と第2現実空間内の第2撮像装置とを共通の撮像条件のもとで時間的に相互に並列に動作させる撮像制御部と、前記第1撮像装置が撮像した第1動画と前記第2撮像装置が撮像した第2動画との合成により合成動画を生成する動画合成部とを具備する。 In order to solve the above problems, a video recording system according to one aspect of the present disclosure connects a first imaging device in a first real space and a second imaging device in a second real space under common imaging conditions. an imaging control unit that operates temporally in parallel with each other; and a video that generates a composite video by combining a first video captured by the first imaging device and a second video captured by the second imaging device. and a synthesis section.
本開示のひとつの態様に係る動画収録方法は、第1現実空間内の第1撮像装置と第2現実空間内の第2撮像装置とを共通の撮像条件のもとで時間的に相互に並列に動作させることと、前記第1撮像装置が撮像した第1動画と前記第2撮像装置が撮像した第2動画との合成により合成動画を生成することとを含む。 A video recording method according to one aspect of the present disclosure is such that a first imaging device in a first real space and a second imaging device in a second real space are temporally parallel to each other under a common imaging condition. and generating a composite video by combining a first video captured by the first imaging device and a second video captured by the second imaging device.
本開示のひとつの態様に係るプログラムは、第1現実空間内の第1撮像装置と第2現実空間内の第2撮像装置とを共通の撮像条件のもとで時間的に相互に並列に動作させる撮像制御部、および、前記第1撮像装置が撮像した第1動画と前記第2撮像装置が撮像した第2動画との合成により合成動画を生成する動画合成部、としてコンピュータシステムを機能させる。 A program according to one aspect of the present disclosure operates a first imaging device in a first real space and a second imaging device in a second real space temporally in parallel with each other under a common imaging condition. and a video synthesis unit that generates a composite video by combining a first video captured by the first imaging device and a second video captured by the second imaging device.
図面を参照しながら本開示の実施の形態を説明する。以下に記載する実施の形態は、技術的に好適な種々の限定を含む。本開示の範囲は、以下に例示する形態には限定されない。 Embodiments of the present disclosure will be described with reference to the drawings. The embodiments described below include various technically suitable limitations. The scope of the present disclosure is not limited to the forms illustrated below.
[第1実施形態]
図1は、第1実施形態における動画収録システム100の構成を例示するブロック図である。動画収録システム100は、例えばインターネット等の通信網を介して端末装置200に配信されるコンテンツ(以下「配信コンテンツ」という)Cを収録するためのコンピュータシステムである。配信コンテンツCは、端末装置200の利用者による視聴のために端末装置200に配信される情報である。例えば、配信コンテンツCは、例えば複数の対戦者がビデオゲームにより対戦する競技イベント(esports)の動画および音声で構成される。配信コンテンツCは、例えばスマートフォン、タブレット端末またはパーソナルコンピュータ等の端末装置200に配信される。なお、図1においては便宜的に1個の端末装置200のみが図示されているが、実際には複数の端末装置200に対して配信コンテンツCが配信される。
[First embodiment]
FIG. 1 is a block diagram illustrating the configuration of a
動画収録システム100は、収録システム20-1と収録システム20-2と制御システム30とを具備する。収録システム20-1および収録システム20-2の各々は、通信網を介して制御システム30と通信する。
The
収録システム20-1は収録スタジオR1内に設置される。収録システム20-2は収録スタジオR2内に設置される。収録スタジオR1および収録スタジオR2は、相異なる現実の空間である。収録スタジオR1と収録スタジオR2とは、例えば遠隔地に位置する。なお、収録スタジオR1は「第1現実空間」の一例であり、収録スタジオR2は「第2現実空間」の一例である。 The recording system 20-1 is installed in the recording studio R1. The recording system 20-2 is installed in the recording studio R2. Recording studio R1 and recording studio R2 are different real spaces. The recording studio R1 and the recording studio R2 are located in remote locations, for example. Note that the recording studio R1 is an example of a "first real space" and the recording studio R2 is an example of a "second real space."
収録スタジオR1には、収録対象となる被写体Q1が存在する。被写体Q1は、例えば配信コンテンツCの出演者Q11および演出用の設備Q12を含む。同様に、収録スタジオR2には、収録対象となる被写体Q2が存在する。被写体Q2は、例えば配信コンテンツCの出演者Q21および演出用の設備Q22を含む。出演者Q11および出演者Q21は、例えば競技イベントの出場者または解説者である。収録スタジオR1における被写体Q1の背景はグリーンバックで構成される。同様に、収録スタジオR2内における被写体Q2の背景はグリーンバックで構成される。なお、被写体Q1は「第1被写体」の一例であり、被写体Q2は「第2被写体」の一例である。 In the recording studio R1, there is a subject Q1 to be recorded. The subject Q1 includes, for example, the performer Q11 of the distributed content C and the production equipment Q12. Similarly, there is a subject Q2 to be recorded in the recording studio R2. The subject Q2 includes, for example, the performer Q21 of the distributed content C and the production equipment Q22. Performer Q11 and performer Q21 are, for example, contestants or commentators of a competitive event. The background of the subject Q1 in the recording studio R1 is composed of a green screen. Similarly, the background of the subject Q2 in the recording studio R2 is composed of a green screen. Note that the subject Q1 is an example of a "first subject," and the subject Q2 is an example of a "second subject."
図2は、収録システム20-1および収録システム20-2のブロック図である。以下においては、収録システム20-1および収録システム20-2を「収録システム20-n」(n=1,2)と総称することで両者の構成を一括的に説明する。図2に例示される通り、収録システム20-nは、撮像装置21-nと収音装置22-nと通信装置23-nとを具備する。なお、収音装置22-nおよび通信装置23-nの一方または双方は、撮像装置21-nに搭載されてもよい。撮像装置21-1は「第1撮像装置」の一例であり、撮像装置21-2は「第2撮像装置」の一例である。 FIG. 2 is a block diagram of the recording system 20-1 and the recording system 20-2. In the following, the recording system 20-1 and recording system 20-2 will be collectively referred to as "recording system 20-n" (n=1, 2), and the configurations of both systems will be collectively explained. As illustrated in FIG. 2, the recording system 20-n includes an imaging device 21-n, a sound pickup device 22-n, and a communication device 23-n. Note that one or both of the sound collection device 22-n and the communication device 23-n may be installed in the imaging device 21-n. The imaging device 21-1 is an example of a "first imaging device," and the imaging device 21-2 is an example of a "second imaging device."
撮像装置21-nは、収録スタジオRn内の動画Vnを撮像するカメラである。すなわち、撮像装置21-1は収録スタジオR1内における撮像により動画V1を収録し、撮像装置21-2は収録スタジオR2内における撮像により動画V2を収録する。各撮像装置21-nは、例えば、撮影レンズ等の光学系と、光学系からの入射光を受光する撮像素子と、撮像素子による受光量に応じて動画Vnのデータを生成する処理回路とを具備する。なお、動画Vnを表すデータの形式は任意である。動画V1は「第1動画」の一例であり、動画V2は「第2動画」の一例である。 The imaging device 21-n is a camera that images a video Vn in the recording studio Rn. That is, the imaging device 21-1 records the moving image V1 by imaging within the recording studio R1, and the imaging device 21-2 records the moving image V2 by imaging within the recording studio R2. Each imaging device 21-n includes, for example, an optical system such as a photographic lens, an imaging element that receives incident light from the optical system, and a processing circuit that generates data of a moving image Vn according to the amount of light received by the imaging element. Be equipped. Note that the format of data representing the video Vn is arbitrary. The video V1 is an example of a "first video," and the video V2 is an example of a "second video."
撮像装置21-nは、動画Vnを撮像する条件(以下「撮像条件」という)を変更可能なPTZ(Panoramac-Tilt-Zoom)カメラである。撮像条件は、撮像装置21-nが撮像する範囲を規定する条件である。例えば、撮像方向および撮像倍率が撮像条件として例示される。撮像方向は、撮影レンズの光軸の方向であり、例えば水平方向(パン)および垂直方向(チルト)に変化する。撮像倍率は、例えば焦点距離に応じた倍率(ズーム)である。 The imaging device 21-n is a PTZ (Panorama-Tilt-Zoom) camera that can change the conditions for imaging the video Vn (hereinafter referred to as "imaging conditions"). The imaging conditions are conditions that define the range to be imaged by the imaging device 21-n. For example, an imaging direction and an imaging magnification are exemplified as imaging conditions. The imaging direction is the direction of the optical axis of the photographic lens, and changes, for example, in the horizontal direction (panning) and vertical direction (tilting). The imaging magnification is, for example, a magnification (zoom) depending on the focal length.
撮像装置21-nの撮像条件は、制御システム30から送信される制御データDに応じて制御される。制御データDは、撮像装置21-nに撮像条件を指示するデータである。撮像装置21-1と撮像装置21-2とは同機種であり、動作特性等の仕様は両者間で共通する。したがって、撮像装置21-1と撮像装置21-2とは、制御データDに対して同様に動作する。
The imaging conditions of the imaging device 21-n are controlled according to control data D transmitted from the
また、撮像装置21-nは、制御データDに応じた撮像装置21-nの動作の結果を表す動作データHnを生成する。動作データHnは、制御データDに応じて制御された撮像装置21-nにおける実際の撮像条件を表すデータである。撮像条件は制御データDにより指示されるから、基本的には、制御データDにより指示される撮像条件と動作データHnが表す撮像条件とは一致する。しかし、実際には、撮像装置21-nの特性誤差等の事情に起因して、制御データDにより指示される撮像条件と動作データHnが表す撮像条件とが一致しない場合がある。以上の通り、制御データDは撮像条件を指示するデータであるのに対し、動作データHnは、撮像装置21-nの撮像条件を制御データDに応じて実際に制御した結果を表すデータである。なお、制御データDと動作データHnとの間でデータの形式は相違してよい。動作データH1は「第1動作データ」の一例である。 Further, the imaging device 21-n generates operation data Hn representing the result of the operation of the imaging device 21-n according to the control data D. The operation data Hn is data representing actual imaging conditions in the imaging device 21-n, which is controlled according to the control data D. Since the imaging conditions are instructed by the control data D, basically the imaging conditions instructed by the control data D and the imaging conditions represented by the operation data Hn match. However, in reality, due to circumstances such as characteristic errors of the imaging device 21-n, the imaging conditions instructed by the control data D and the imaging conditions represented by the operational data Hn may not match. As described above, the control data D is data that instructs the imaging conditions, whereas the operation data Hn is data that represents the result of actually controlling the imaging conditions of the imaging device 21-n in accordance with the control data D. . Note that the data formats may be different between the control data D and the operation data Hn. The operation data H1 is an example of "first operation data."
収音装置22-nは、収録スタジオRn内の音声Anを収録するマイクロホンである。音声Anは、例えば収録スタジオRn内の出演者Qn1が発音する音声である。具体的には、音声Anの波形を表すデータが収音装置22-nにより生成される。なお、音声Anを表すデータの形式は任意である。 The sound collection device 22-n is a microphone that records audio An within the recording studio Rn. The sound An is, for example, the sound produced by the performer Qn1 in the recording studio Rn. Specifically, data representing the waveform of the sound An is generated by the sound collection device 22-n. Note that the format of the data representing the voice An is arbitrary.
通信装置23-nは、例えばインターネット等の通信網(図示略)を介して制御システム30と通信する。通信装置23-nと制御システム30との間の通信の経路は、有線区間または無線区間で構成される。具体的には、通信装置23-nは、制御データDを制御システム30から受信する。また、通信装置23-nは、素材データMnと動作データHnとを制御システム30に送信する。素材データMnは、撮像装置21-nが撮像した動画Vnと収音装置22-nが収音した音声Anとを表すデータである。以上の説明から理解される通り、収録スタジオR1内の動画V1および音声A1(素材データM1)と収録スタジオR2内の動画V2および音声A2(素材データM2)とが制御システム30に提供される。
The communication device 23-n communicates with the
収録スタジオR1と収録スタジオR2との間では、形状および寸法が実質的に共通する。図1の基準面αは、収録スタジオR1および収録スタジオR2の各々を左右に区分する仮想的な鉛直面である。撮像装置21-1は、収録スタジオR1内の基準面α上に設置される。同様に、撮像装置21-2は、収録スタジオR2内の基準面α上に設置される。収録スタジオR1に対する撮像装置21-1の位置(平面的な位置および高さ)は、収録スタジオR2に対する撮像装置21-2の位置と共通する。また、撮像装置21-1の初期的な撮像条件と撮像装置21-2の初期的な撮像条件とは共通する。すなわち、撮像方向および撮像倍率は、撮像装置21-1と撮像装置21-2との間で共通の初期値に設定される。 The recording studio R1 and the recording studio R2 have substantially the same shape and dimensions. The reference plane α in FIG. 1 is a virtual vertical plane that divides each of the recording studio R1 and the recording studio R2 into left and right sides. The imaging device 21-1 is installed on the reference plane α in the recording studio R1. Similarly, the imaging device 21-2 is installed on the reference plane α in the recording studio R2. The position (planar position and height) of the imaging device 21-1 relative to the recording studio R1 is the same as the position of the imaging device 21-2 relative to the recording studio R2. Further, the initial imaging conditions of the imaging device 21-1 and the initial imaging conditions of the imaging device 21-2 are common. That is, the imaging direction and imaging magnification are set to common initial values between the imaging device 21-1 and the imaging device 21-2.
収録スタジオR1内の被写体Q1は、収録スタジオR1のうち基準面αの左側の空間内に位置する。他方、収録スタジオR2内の被写体Q2は、収録スタジオR2のうち基準面αの右側の空間内に位置する。以上の説明から理解される通り、収録スタジオR1における撮像装置21-1に対する被写体Q1の位置(例えば方向および距離)と、収録スタジオR2における撮像装置21-2に対する被写体Q2の位置とは相違する。 The subject Q1 in the recording studio R1 is located in the space on the left side of the reference plane α in the recording studio R1. On the other hand, the subject Q2 in the recording studio R2 is located in the space on the right side of the reference plane α in the recording studio R2. As understood from the above description, the position (for example, direction and distance) of the subject Q1 with respect to the imaging device 21-1 in the recording studio R1 is different from the position of the subject Q2 with respect to the imaging device 21-2 in the recording studio R2.
図3は、制御システム30の構成を例示するブロック図である。制御システム30は、収録システム20-1および収録システム20-2の制御と配信コンテンツCの生成とを実行するコンピュータシステムである。制御システム30は、例えばスマートフォン、タブレット端末またはパーソナルコンピュータ等の情報装置で実現される。なお、制御システム30は、以上に例示した汎用の情報装置により実現されるほか、各収録システム-nの制御に専用される制御機器、または配信コンテンツCの編集に専用される編集機器等の専用機器により実現されてもよい。制御システム30は、制御装置31と記憶装置32と通信装置33と操作装置34と再生装置35とを具備する。なお、制御システム30は、単体の装置として実現されるほか、相互に別体で構成された複数の装置でも実現される。
FIG. 3 is a block diagram illustrating the configuration of the
制御装置31は、制御システム30の各要素を制御する単数または複数のプロセッサである。具体的には、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、SPU(Sound Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)等の1種類以上のプロセッサにより、制御装置31が構成される。
The
通信装置33は、通信網を介して端末装置200および各収録システム20-nの各々と通信する。例えば、通信装置33は、端末装置200に対して配信コンテンツCを送信し、収録システム20-1および収録システム20-2に対して制御データDを送信する。また、通信装置33は、各収録システム20-nが送信する素材データMnおよび動作データHnを受信する。
The communication device 33 communicates with the
記憶装置32は、制御装置31が実行するプログラムと、制御装置31が使用する各種のデータとを記憶する単数または複数のメモリである。例えば半導体記録媒体および磁気記録媒体等の公知の記録媒体、または複数種の記録媒体の組合せが、記憶装置32として利用される。なお、例えば、制御システム30に対して着脱される可搬型の記録媒体、または、制御装置31が通信網を介してアクセス可能な記録媒体(例えばクラウドストレージ)が、記憶装置32として利用されてもよい。
The
操作装置34は、制作者による指示を受付ける入力機器である。制作者は、配信コンテンツCを制作する利用者である。例えば、制作者が操作するジョイスティック等の操作子、または、制作者による接触を検知するタッチパネルが、操作装置34として利用される。なお、制御システム30とは別体の操作装置34が、制御システム30に対して有線または無線により接続されてもよい。
The operating
再生装置35は、制御装置31による制御のもとで配信コンテンツCを再生する。具体的には、再生装置35は、表示装置と放音装置とを具備する。表示装置は、配信コンテンツCの動画を表示する。例えば液晶表示パネルまたは有機EL(Electroluminescence)パネル等の各種の表示パネルが、表示装置として利用される。放音装置は、配信コンテンツCの音声を放射する。例えばスピーカまたはヘッドホンが、放音装置として利用される。なお、制御システム30とは別体の再生装置35が、制御システム30に対して有線または無線により接続されてもよい。
The
図4は、制御システム30の機能的な構成を例示するブロック図である。制御装置31は、記憶装置32に記憶されたプログラムを実行することで、配信コンテンツCを収録するための複数の機能(撮像制御部41、動画生成部42、動画合成部43および再生制御部44)を実現する。なお、相互に別体で構成された複数の装置により制御装置31の機能が実現されもよい。制御装置31の機能の一部または全部が専用の電子回路で実現されてもよい。
FIG. 4 is a block diagram illustrating the functional configuration of the
撮像制御部41は、収録システム20-1および収録システム20-2を制御する。撮像制御部41は、操作装置34に対する制作者からの操作に応じて収録システム20-1および収録システム20-2を制御する。制作者は、再生装置35が再生する配信コンテンツCを視聴しながら操作装置34を操作することで、撮像装置21-1および撮像装置21-2の撮像条件を指示する。撮像制御部41は、制作者が指示した撮像条件を指定する制御データDを生成する。前述の通り、制御データDは、撮像方向および撮像倍率を指定するデータである。例えば、制御データDは、現時点の数値に対する変化量(相対値)、または所定値を基準とした絶対値として、撮像方向および撮像倍率を指定する。
The
撮像制御部41は、収録システム20-1および収録システム20-2に対して制御データDを通信装置33により送信する。すなわち、撮像装置21-1と撮像装置21-2とに対して共通の制御データDが供給される。前述の通り、撮像装置21-1と撮像装置21-2とは同機種であり、動作特性等の仕様は両者間で共通する。したがって、撮像制御部41による制御データDの供給により、撮像装置21-1と撮像装置21-2とは共通の撮像条件に制御される。
The
撮像制御部41は、収録システム20-1および収録システム20-2に対して時間的に並列に制御データDを送信する。すなわち、撮像装置21-1と撮像装置21-2とに対して制御データDが時間的に並列に供給される。したがって、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とは、制御データDに応じて時間的に並列に変化する。
The
以上の説明から理解される通り、撮像制御部41は、撮像装置21-1と撮像装置21-2とを、共通の撮像条件のもとで、時間的に相互に並列に動作させる。例えば、撮像装置21-1の撮像方向が特定の角度だけ変化する場合、撮像装置21-1の撮像方向の変化に並行して、撮像装置21-2の撮像方向は同じ角度だけ変化する。また、撮像装置21-1の撮像倍率が所定の倍率に変化する場合、撮像装置21-1の撮像倍率の変化に並行して、撮像装置21-2の撮像倍率は同じ倍率に変化する。すなわち、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが相互に連動して共通の条件に変化する。
As understood from the above description, the
図4の動画生成部42および動画合成部43は、配信コンテンツCを構成する動画(以下「合成動画」という)Vを生成する。図5は、第1実施形態における合成動画Vの生成の説明図である。図5に例示される通り、合成動画Vは、動画V1と動画V2と仮想動画Vxとの合成により生成される。仮想動画Vxは、仮想空間Rxの動画である。
The
図6は、仮想空間Rxの説明図である。仮想空間Rxは、複数のオブジェクト(以下「仮想オブジェクト」という)Obが配置された仮想的なスタジオである。各仮想オブジェクトObは、例えば演出または装飾のために仮想空間Rx内に配置された仮想的な表示要素である。 FIG. 6 is an explanatory diagram of the virtual space Rx. The virtual space Rx is a virtual studio in which a plurality of objects (hereinafter referred to as "virtual objects") Ob are arranged. Each virtual object Ob is a virtual display element arranged in the virtual space Rx for, for example, presentation or decoration.
仮想空間Rx内には、仮想的な撮像装置(以下「仮想撮像装置」という)50が設置される。仮想撮像装置50は、仮想空間Rxを撮像する仮想カメラである。撮像装置21-1および撮像装置21-2と同様に、仮想撮像装置50の撮像条件は可変である。仮想撮像装置50の撮像条件は、仮想撮像装置50が仮想空間Rx内において撮像する範囲を規定する条件である。例えば、撮像方向および撮像倍率が撮像条件として例示される。
A virtual imaging device (hereinafter referred to as "virtual imaging device") 50 is installed in the virtual space Rx. The
図4の動画生成部42は、仮想動画Vxを生成する。仮想動画Vxは、仮想空間Rxを仮想撮像装置50により撮像した動画である。具体的には、動画生成部42は、仮想撮像装置50の撮像条件により規定される範囲内の画像を表す仮想動画Vxを生成する。したがって、図5に例示される通り、仮想空間Rxに設置された仮想オブジェクトObが、仮想動画Vxに被写体として含まれる。仮想動画Vxの生成には、例えば3Dレンダリング等の各種の画像処理が利用される。なお、仮想動画Vxを表すデータの形式は任意である。
The moving
第1実施形態の動画生成部42は、仮想撮像装置50の撮像条件を、撮像装置21-1の撮像条件に応じて制御する。具体的には、動画生成部42は、通信装置33が撮像装置21-1から受信した動作データH1に応じて仮想撮像装置50の撮像条件を制御する。すなわち、動作データH1は、仮想撮像装置50の撮像条件を指示するデータとして利用される。前述の通り、動作データH1は、制御データDに応じて制御された撮像装置21-1の実際の撮像条件を表すデータである。動画生成部42は、仮想撮像装置50の撮像条件を、動作データH1が表す撮像装置21-1の撮像条件に一致させる。
The moving
例えば、撮像装置21-1の撮像方向が特定の角度だけ変化した場合、撮像装置21-1の撮像方向の変化に並行して、仮想撮像装置50の撮像方向は、仮想空間Rx内において同じ角度だけ変化する。また、撮像装置21-1の撮像倍率が所定の倍率に変化した場合、撮像装置21-1の撮像倍率の変化に並行して、仮想撮像装置50の撮像倍率は同じ倍率に変化する。以上の説明から理解される通り、撮像装置21-1と撮像装置21-2と仮想撮像装置50とは、時間的に相互に並列に、共通の撮像条件のもとで動作する。すなわち、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件と仮想撮像装置50の撮像条件とが、相互に連動して共通の条件に設定される。
For example, when the imaging direction of the imaging device 21-1 changes by a specific angle, in parallel with the change in the imaging direction of the imaging device 21-1, the imaging direction of the
動画合成部43は、図5の例示の通り、撮像装置21-1が撮像した動画V1と撮像装置21-2が撮像した動画V2と動画生成部42が生成した仮想動画Vxとの合成により、配信コンテンツCの合成動画Vを生成する。具体的には、動画合成部43は、動画V1から抽出した被写体Q1と、動画V2から抽出した被写体Q2と、仮想動画Vxとの合成により、合成動画Vを生成する。
As illustrated in FIG. 5, the
図4の再生制御部44は、合成動画Vを含む配信コンテンツCを端末装置200に配信する。再生制御部44は、素材データM1が表す音声A1と素材データM2が表す音声A2とを所定の混合比により混合することで合成音声Aを生成する。再生制御部44は、合成動画Vと合成音声Aとで構成される配信コンテンツCを端末装置200に配信する。配信コンテンツCのデータの形式は任意である。また、再生制御部44は、配信コンテンツCを再生装置35に再生させる。なお、端末装置200に対する配信コンテンツCの配信は、動画配信サーバを経由してもよい。例えば、制御システム30から送信された配信コンテンツCが動画配信サーバに保持され、動画配信サーバから端末装置200に対して配信コンテンツCが配信されてもよい。また、配信コンテンツCは、端末装置200に配信されるほか、記憶装置32等の記録媒体に記録されてもよい。すなわち、端末装置20に対する配信は省略されてよい。
The
図7および図8は、制御システム30が実行する処理(以下「動画収録処理」という)のフローチャートである。例えば操作装置34に対する制作者からの指示を契機として動画収録処理が開始される。動画収録処理は、「動画収録方法」の一例である。
7 and 8 are flowcharts of the process (hereinafter referred to as "video recording process") executed by the
図7に例示される通り、動画収録処理が開始されると、制御装置31(撮像制御部41)は、撮像制御処理Sa(Sa1~Sa3)を実行する。具体的には、制御装置31は、撮像条件の変更の指示を制作者から受付けたか否かを判定する(Sa1)。撮像条件の変更の指示を受付けた場合(Sa1:YES)、制御装置31は、制作者から指示された撮像条件を指定する制御データDを生成する(Sa2)。制御装置31は、収録システム20-1および収録システム20-2に対して通信装置33から制御データDを送信する(Sa3)。他方、撮像条件の変更の指示を受付けない場合(Sa1:NO)、制御データDの生成(Sa2)および送信(Sa3)は実行されない。
As illustrated in FIG. 7, when the video recording process is started, the control device 31 (imaging control unit 41) executes the imaging control process Sa (Sa1 to Sa3). Specifically, the
撮像制御処理Saを実行すると、制御装置31(動画生成部42)は、動画生成処理Sb(Sb1~Sb3)を実行する。具体的には、制御装置31は、撮像装置21-1から送信される動作データH1を通信装置33が受信したか否かを判定する(Sb1)。動作データH1を受信した場合(Sb1:YES)、制御装置31は、仮想撮像装置50の撮像条件を動作データH1に応じて制御する(Sb2)。すなわち、仮想撮像装置50の撮像条件が撮像装置21-1の実際の撮像条件に制御される。動作データH1を受信しない場合(Sb1:NO)、仮想撮像装置50の撮像条件は変更されない。以上の処理を実行すると、制御装置31は、仮想動画Vxを生成する(Sb3)。
After executing the imaging control process Sa, the control device 31 (video generation unit 42) executes the movie generation process Sb (Sb1 to Sb3). Specifically, the
動画生成処理Sbを実行すると、制御装置31(動画合成部43)は、図8に例示される通り動画合成処理Sc(Sc1~Sc5)を実行する。具体的には、制御装置31は、撮像装置21-1から送信された素材データM1を通信装置33により受信する(Sc1)。制御装置31は、素材データM1が表す動画V1から被写体Q1を抽出する(Sc2)。例えば、制御装置31は、動画V1のうちグリーンバックに対応する領域を除去することで被写体Q1を抽出する。なお、撮像装置21-1の撮像範囲に被写体Q1が含まれない場合、動画V1から被写体Q1は抽出されない。
After executing the video generation process Sb, the control device 31 (video composition unit 43) executes the video composition process Sc (Sc1 to Sc5) as illustrated in FIG. Specifically, the
制御装置31は、撮像装置21-2から送信された素材データM2を通信装置33により受信する(Sc3)。制御装置31は、素材データM2が表す動画V2から被写体Q2を抽出する(Sc4)。例えば、制御装置31は、動画V2のうちグリーンバックに対応する領域を除去することで被写体Q2を抽出する。なお、撮像装置21-2の撮像範囲に被写体Q2が含まれない場合、動画V2から被写体Q2は抽出されない。
The
そして、制御装置31は、被写体Q1および被写体Q2と、動画生成処理Sbにより生成された仮想動画Vxとを合成することで合成動画Vを生成する(Sc5)。被写体Q1および被写体Q2は、例えば仮想動画Vxにおける各仮想オブジェクトObの手前側に位置する。
Then, the
動画合成処理Scを実行すると、制御装置31(再生制御部44)は、再生制御処理Sd(Sd1~Sd5)を実行する。具体的には、制御装置31は、素材データM1が表す音声A1と素材データM2が表す音声A2との合成により合成音声Aを生成する(Sd1)。制御装置31は、合成動画Vと合成音声Aとを含む配信コンテンツCを生成する(Sd2)。制御装置31は、配信コンテンツCを通信装置33から端末装置200に送信する(Sd3)。配信コンテンツCは、動画V1および動画V2の収録に時間的に並行して端末装置200に配信(すなわちライブ配信)される。また、制御装置31は、配信コンテンツCを再生装置35に再生させる(Sd4)。制作者は、再生装置35が再生する配信コンテンツCを視聴しながら操作装置34を操作することで、撮像条件の変更を制御システム30に指示する(Sa1)。なお、端末装置200に対する配信コンテンツCの送信(Sd3)と、再生装置35による配信コンテンツCの再生(Sd4)との順序は反転されてもよい。
After executing the video composition process Sc, the control device 31 (playback control unit 44) executes playback control processes Sd (Sd1 to Sd5). Specifically, the
制御装置31は、所定の終了条件が成立したか否かを判定する(Sd5)。終了条件は、例えば、操作装置34に対する操作で制作者が処理の終了を指示したこと、または所定の時刻が到来したことである。終了条件が成立しない場合(Sd5:NO)、制御装置31は処理をステップSa1に移行する。すなわち、撮像制御処理Saと動画生成処理Sbと動画合成処理Scと再生制御処理Sdとが反復される。他方、終了条件が成立した場合(Sd5:YES)、制御装置31は動画収録処理を終了する。
The
図9は、撮像条件と合成動画Vとの関係の説明図である。図9の状態[1]は、撮像装置21-1および撮像装置21-2の撮像方向が第1方向θ1(左向き)に設定された状態である。状態[1]においては、仮想空間Rxのうち第1方向θ1に位置する部分を背景として、収録スタジオR1内の被写体Q1が合成動画Vの中央に位置する。状態[1]では、収録スタジオR2内の被写体Q2は合成動画Vに含まれない。 FIG. 9 is an explanatory diagram of the relationship between imaging conditions and composite moving image V. State [1] in FIG. 9 is a state in which the imaging directions of the imaging device 21-1 and the imaging device 21-2 are set to the first direction θ1 (leftward). In state [1], the subject Q1 in the recording studio R1 is located at the center of the composite video V with the portion of the virtual space Rx located in the first direction θ1 as the background. In state [1], the subject Q2 in the recording studio R2 is not included in the composite video V.
図9の状態[2]は、撮像方向を右側に向けて変化させる過程である。状態[2]においては、撮像装置21-1の撮像方向と撮像装置21-2の撮像方向と仮想撮像装置50の撮像方向とが時間的に並行して右側に変化する。したがって、収録スタジオR1内の被写体Q1と収録スタジオR2内の被写体Q2と背景の仮想空間Rxとが、合成動画Vにおいては左側に向けて移動する。すなわち、被写体Q1が左側に移動することで合成動画Vの外側に退場していく一方、被写体Q2は左側に移動することで合成動画Vの内側に登場する。
State [2] in FIG. 9 is a process of changing the imaging direction toward the right. In state [2], the imaging direction of the imaging device 21-1, the imaging direction of the imaging device 21-2, and the imaging direction of the
状態[2]から図9の状態[3]に遷移する。状態[3]は、撮像装置21-1および撮像装置21-2の撮像方向が第2方向θ2(右向き)に設定された状態である。状態[3]においては、仮想空間Rxのうち第2方向θ2に位置する部分を背景として、収録スタジオR2内の被写体Q2が合成動画Vの中央に位置する。状態[3]では、収録スタジオR1内の被写体Q1は合成動画Vに含まれない。 Transition occurs from state [2] to state [3] in FIG. State [3] is a state in which the imaging directions of the imaging device 21-1 and the imaging device 21-2 are set to the second direction θ2 (to the right). In state [3], the subject Q2 in the recording studio R2 is located at the center of the composite video V with the portion of the virtual space Rx located in the second direction θ2 as the background. In state [3], the subject Q1 in the recording studio R1 is not included in the composite video V.
以上に説明した通り、第1実施形態においては、撮像装置21-1による動画V1の撮像と撮像装置21-2による動画V2の撮像とが共通の撮像条件のもとで実行される。したがって、図9を参照して説明した通り、収録スタジオR1内の被写体Q1と収録スタジオR2内の被写体Q2とが恰も共通の空間(仮想空間Rx)内に所在するかのような自然な合成動画Vを生成できる。 As described above, in the first embodiment, the imaging of the video V1 by the imaging device 21-1 and the imaging of the video V2 by the imaging device 21-2 are performed under common imaging conditions. Therefore, as explained with reference to FIG. 9, a natural composite video is created in which the subject Q1 in the recording studio R1 and the subject Q2 in the recording studio R2 appear to be located in a common space (virtual space Rx). V can be generated.
第1実施形態においては、動画V1と動画V2と仮想動画Vxとの合成により合成動画Vが生成される。したがって、例えば収録スタジオR1または収録スタジオR2の外観が単調である場合でも、種々の仮想動画Vxを含む多様な合成動画Vを生成できる。すなわち、収録スタジオR1および収録スタジオR2内の外観が不問であるから、各収録スタジオRnにおける演出または装飾のための費用を削減できる。第1実施形態においては特に、動画V1から抽出された被写体Q1と動画V2から抽出された被写体Q2とが仮想動画Vxに合成されるから、被写体Q1と被写体Q2とが恰も仮想空間Rx内に存在するかのような合成動画Vを生成できる。しかも、第1実施形態においては、仮想撮像装置50の撮像条件が撮像装置21-1および撮像装置21-2の撮像条件に連動する。したがって、仮想撮像装置50の撮像条件が固定である形態と比較して、被写体Q1と被写体Q2とが恰も仮想空間内に存在するかのような自然な合成動画Vを生成できる。
In the first embodiment, a composite video V is generated by combining the video V1, the video V2, and the virtual video Vx. Therefore, even if, for example, the appearance of the recording studio R1 or the recording studio R2 is monotonous, various composite videos V including various virtual videos Vx can be generated. That is, since the appearance of the inside of recording studio R1 and recording studio R2 does not matter, the cost for presentation or decoration in each recording studio Rn can be reduced. In the first embodiment, in particular, since the subject Q1 extracted from the video V1 and the subject Q2 extracted from the video V2 are combined into the virtual video Vx, the subject Q1 and the subject Q2 exist within the virtual space Rx. It is possible to generate a composite video V that looks like Moreover, in the first embodiment, the imaging conditions of the
第1実施形態においては、撮像装置21-1の動作の結果を表す動作データH1に応じて仮想撮像装置50の撮像条件が制御される。したがって、仮想撮像装置50の撮像条件は、撮像装置21-1の実際の撮像条件に連動する。例えば、撮像装置21-1の特性誤差等の事情に起因して、撮像制御部41からの指示が撮像装置21-1の動作に正確に反映されない状況でも、撮像装置21-1の実際の動作に連動して仮想撮像装置50の撮像条件を制御できる。
In the first embodiment, the imaging conditions of the
[第2実施形態]
第2実施形態を説明する。なお、以下に例示する各態様において機能が第1実施形態と同様である要素については、第1実施形態の説明と同様の符号を流用して各々の詳細な説明を適宜に省略する。
[Second embodiment]
A second embodiment will be described. In addition, in each aspect illustrated below, for elements whose functions are similar to those in the first embodiment, the same reference numerals as in the description of the first embodiment are used, and detailed descriptions of each are omitted as appropriate.
第1実施形態においては、仮想空間Rxを背景とする合成動画Vを例示した。第2実施形態の合成動画Vにおいては、収録スタジオR1が被写体Q1および被写体Q2の背景として利用される。 In the first embodiment, a composite video V with the virtual space Rx as the background was illustrated. In the composite video V of the second embodiment, the recording studio R1 is used as the background of the subject Q1 and the subject Q2.
図10は、第2実施形態における合成動画Vの生成の説明図である。図10に例示される通り、動画V1は、収録スタジオR1内の被写体Q1と当該収録スタジオR1の背景Bとを含む。背景Bは、収録スタジオR1内において撮像装置21-1により撮像される被写体Q1以外の要素である。背景Bは、例えば収録スタジオR1の装飾的な壁面または収録スタジオR1内に設置された演出用の設備を含む。 FIG. 10 is an explanatory diagram of generation of a composite video V in the second embodiment. As illustrated in FIG. 10, the video V1 includes a subject Q1 in the recording studio R1 and a background B of the recording studio R1. The background B is an element other than the subject Q1 imaged by the imaging device 21-1 in the recording studio R1. The background B includes, for example, a decorative wall surface of the recording studio R1 or production equipment installed in the recording studio R1.
図10に例示される通り、第2実施形態の動画合成部43は、被写体Q1および背景Bを含む動画V1と、動画V2から抽出された被写体Q2とを合成することで、合成動画Vを生成する。すなわち、収録スタジオR1の背景Bは、被写体Q2の背景としても流用される。以上の説明から理解される通り、第2実施形態においては仮想動画Vxの生成が不要である。したがって、第1実施形態における動画生成部42は、第2実施形態において省略される。また、第1実施形態においては撮像装置21-1の動作データH1を仮想撮像装置50の制御に適用したが、第2実施形態において動作データH1は不要である。
As illustrated in FIG. 10, the
図11は、第2実施形態における動画収録処理の部分的なフローチャートである。第2実施形態における撮像制御処理Saは、第1実施形態と同様である。また、第1実施形態の動画生成処理Sbは省略される。 FIG. 11 is a partial flowchart of the video recording process in the second embodiment. The imaging control process Sa in the second embodiment is the same as that in the first embodiment. Furthermore, the moving image generation process Sb of the first embodiment is omitted.
撮像制御処理Saを実行すると、制御装置31(動画合成部43)は、動画合成処理Sc(Sc1~Sc5)を実行する。具体的には、制御装置31は、撮像装置21-1から送信された素材データM1を通信装置33により受信する(Sc1)。前述の通り、素材データM1が表す動画V1は、収録スタジオR1内の被写体Q1と背景Bとを含む。また、制御装置31は、撮像装置21-2から送信された素材データM2を通信装置33により受信する(Sc3)。制御装置31は、素材データM2が表す動画V2から被写体Q2を抽出する(Sc4)。制御装置31は、素材データM1の動画V1と、動画V2から抽出された被写体Q2とを合成することで、合成動画Vを生成する(Sc5)。第1実施形態における被写体Q1の抽出(Sc2)は、第2実施形態では実行されない。なお、再生制御処理Sdは第1実施形態と同様である。
When the imaging control process Sa is executed, the control device 31 (video composition unit 43) executes the video composition process Sc (Sc1 to Sc5). Specifically, the
第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態においては、動画V2から抽出された被写体Q2が、収録スタジオR1の背景Bと被写体Q1とを含む動画V1に合成される。したがって、被写体Q1と被写体Q2とが恰も収録スタジオR1内に存在するかのような合成動画Vを生成できる。また、第2実施形態においては、仮想撮像装置50の制御および仮想動画Vxの生成(動画生成部42)が不要であるから、第1実施形態と比較して制御装置31の処理負荷を軽減できる。
The second embodiment also achieves the same effects as the first embodiment. Furthermore, in the second embodiment, the subject Q2 extracted from the video V2 is combined with the video V1, which includes the background B of the recording studio R1 and the subject Q1. Therefore, it is possible to generate a composite moving image V that looks as if the subject Q1 and the subject Q2 exist within the recording studio R1. Further, in the second embodiment, since control of the
[第3実施形態]
図12は、第3実施形態における動画収録システム100の構成を例示するブロック図である。図12に例示される通り、第3実施形態の動画収録システム100は、第1実施形態と同様の要素に加えて再生装置61-1および再生装置61-2を具備する。再生装置61-1は、収録スタジオR1内に設置される。再生装置61-2は、収録スタジオR2内に設置される。
[Third embodiment]
FIG. 12 is a block diagram illustrating the configuration of a
各再生装置61-nは、制御システム30から提供される配信コンテンツCを再生する。具体的には、各再生装置61-nは、表示装置と放音装置とを具備する。表示装置は、配信コンテンツCの合成動画Vを表示する。例えば液晶表示パネルまたは有機ELパネル等の各種の表示パネルが、表示装置として利用される。
Each reproduction device 61-n reproduces distribution content C provided from the
放音装置は、配信コンテンツCの合成音声Aを放射する。例えばスピーカまたはヘッドホンが、放音装置として利用される。なお、収録スタジオR1内の再生装置61-1が再生する合成音声Aから、収録スタジオR1内で収録された音声A1が除去されてもよい。同様に、収録スタジオR2内の再生装置61-2が再生する合成音声Aから、収録スタジオR2内で収録された音声A2が除去されてもよい。 The sound emitting device emits synthesized speech A of distribution content C. For example, speakers or headphones are used as the sound emitting device. Note that the audio A1 recorded in the recording studio R1 may be removed from the synthesized audio A reproduced by the playback device 61-1 in the recording studio R1. Similarly, the audio A2 recorded in the recording studio R2 may be removed from the synthesized audio A reproduced by the playback device 61-2 in the recording studio R2.
図13は、第3実施形態における再生制御処理Sdのフローチャートである。なお、撮像制御処理Saと動画生成処理Sbと動画合成処理Scとについては第1実施形態と同様である。 FIG. 13 is a flowchart of the reproduction control process Sd in the third embodiment. Note that the imaging control processing Sa, the moving image generation processing Sb, and the moving image composition processing Sc are the same as those in the first embodiment.
第1実施形態と同様に、制御装置31(再生制御部44)は、配信コンテンツCの生成(Sd1,Sd2)と端末装置200に対する送信(Sd3)と再生装置35による配信コンテンツCの再生(Sd4)とを実行する。さらに、第3実施形態の制御装置31は、配信コンテンツCを通信装置33から再生装置61-1および再生装置61-2に送信する(Sd6)。各再生装置61-nは、通信装置23-nが制御システム30から受信した配信コンテンツCを再生する。再生装置61-1と再生装置61-2とにより配信コンテンツCが時間的に並列に再生される。以上の説明から理解される通り、第3実施形態の再生制御部44は、収録スタジオR1内の再生装置61-1および収録スタジオR2内の再生装置61-2に、動画合成部43が生成した合成動画Vを再生させる。なお、端末装置200に対する配信コンテンツCの送信(Sd3)と、再生装置35による配信コンテンツCの再生(Sd4)と、各再生装置61-nに対する配信コンテンツCの送信(Sd6)との順序は任意であり、図13の例示には限定されない。
Similarly to the first embodiment, the control device 31 (playback control unit 44) generates distribution content C (Sd1, Sd2), transmits it to the terminal device 200 (Sd3), and reproduces the distribution content C by the playback device 35 (Sd4). ) and execute. Furthermore, the
配信コンテンツCは、収録システム20-1および収録システム20-2による収録に時間的に並行して再生装置61-1および再生装置61-2に送信される。収録スタジオR1の出演者Q11は、再生装置61-1が再生する配信コンテンツCを視聴可能である。すなわち、出演者Q11は、収録スタジオR1内の被写体Q1に対して収録スタジオR2内の被写体Q2が如何に合成されたのかを確認しながら、動作または発言することが可能である。同様に、収録スタジオR2の出演者Q21は、再生装置61-2が再生する配信コンテンツCを視聴可能である。すなわち、出演者Q21は、収録スタジオR2内の被写体Q2に対して収録スタジオR1内の被写体Q1が如何に合成されたのかを確認しながら、動作または発言することが可能である。また、出演者Q11および出演者Q21の各々は、遠隔地に所在する相手の音声Anを確認できる。なお、第2実施形態の構成は、第3実施形態にも同様に適用される。 The distribution content C is transmitted to the playback device 61-1 and the playback device 61-2 temporally in parallel with the recording by the recording system 20-1 and the recording system 20-2. The performer Q11 in the recording studio R1 can view the distributed content C played by the playback device 61-1. That is, the performer Q11 can act or speak while checking how the subject Q2 in the recording studio R2 has been combined with the subject Q1 in the recording studio R1. Similarly, the performer Q21 in the recording studio R2 can view the distributed content C played by the playback device 61-2. That is, the performer Q21 can act or speak while checking how the subject Q1 in the recording studio R1 has been combined with the subject Q2 in the recording studio R2. Furthermore, each of the performers Q11 and Q21 can check the voice An of the other party located at a remote location. Note that the configuration of the second embodiment is similarly applied to the third embodiment.
[第4実施形態]
図14は、第4実施形態における動画収録システム100の構成を例示するブロック図である。図14に例示される通り、第4実施形態の動画収録システム100は、第1実施形態と同様の要素に加えて照明装置63-1および照明装置63-2を具備する。照明装置63-1は、収録スタジオR1内に設置される。照明装置63-2は、収録スタジオR2内に設置される。なお、照明装置63-1は「第1照明装置」の一例であり、照明装置63-2は「第2照明装置」の一例である。
[Fourth embodiment]
FIG. 14 is a block diagram illustrating the configuration of a
照明装置63-nは、収録スタジオRn内を照明する発光源である。照明装置63-1と照明装置63-2とは同機種であり、動作特性等の仕様は両者間で共通する。照明装置63-nによる照明の条件(以下「照明条件」という)は、可変に制御される。照明条件は、照明装置63-nが放射する照明光の強度または色温度である。すなわち、照明装置63-nは調光機能および調色機能を具備する。また、照明条件は、照明光が出射する方向(照射方向)を含んでもよい。 The lighting device 63-n is a light source that illuminates the inside of the recording studio Rn. The lighting device 63-1 and the lighting device 63-2 are of the same model, and specifications such as operating characteristics are common between them. The illumination conditions (hereinafter referred to as "illumination conditions") by the illumination device 63-n are variably controlled. The illumination condition is the intensity or color temperature of the illumination light emitted by the illumination device 63-n. That is, the lighting device 63-n has a dimming function and a color adjusting function. Further, the illumination conditions may include the direction in which illumination light is emitted (irradiation direction).
図15は、第4実施形態における制御システム30の機能的な構成を例示するブロック図である。制御装置31は、記憶装置32に記憶されたプログラムを実行することで、第1実施形態と同様の要素に加えて照明制御部45として機能する。
FIG. 15 is a block diagram illustrating the functional configuration of the
照明制御部45は、照明装置63-1および照明装置63-2を制御する。照明制御部45は、操作装置34に対する制作者からの操作に応じて照明装置63-1および照明装置63-2を制御する。制作者は、再生装置35が再生する配信コンテンツCを視聴しながら操作装置34を操作することで、照明装置63-1および照明装置63-2の照明条件を指示する。照明制御部45は、制作者が指示した照明条件(例えば強度または色温度)を指定する照明データLを生成する。照明データLは、例えばDMX(Digital Multiplex)形式のデータである。
The
照明制御部45は、照明装置63-1および照明装置63-2に対して通信装置33により照明データLを送信する。例えばArt-Net等の通信規格のもとで照明データLが送信される。各照明装置63-nの照明条件は、制御システム30から送信される照明データLに応じて制御される。照明装置63-1と照明装置63-2とには共通の照明データLが供給される。したがって、照明制御部45による照明データLの供給により、照明装置63-1の照明条件と照明装置63-2の照明条件とは、相互に連動して共通の条件に設定される。
The
また、照明制御部45は、照明装置63-1および照明装置63-2に対して時間的に並列に照明データLを送信する。したがって、照明装置63-1の照明条件と照明装置63-2の照明条件とは、照明データLに応じて時間的に並列に変化する。以上の説明の通り、照明制御部45は、照明装置63-1と照明装置63-2とを、共通の照明条件のもとで、時間的に相互に並列に動作させる。例えば、照明装置63-1と照明装置63-2との間では、照明光の強度および色温度等の照明条件が共通する。
Further, the
図16は、第4実施形態における動画収録処理の部分的なフローチャートである。なお、撮像制御処理Saと動画生成処理Sbと動画合成処理Scと再生制御処理Sdとについては第1実施形態と同様である。 FIG. 16 is a partial flowchart of the video recording process in the fourth embodiment. Note that the imaging control processing Sa, the moving image generation processing Sb, the moving image composition processing Sc, and the playback control processing Sd are the same as those in the first embodiment.
撮像制御処理Saを実行すると、制御装置31(照明制御部45)は、照明制御処理Se(Se1~Se3)を実行する。具体的には、制御装置31は、照明条件の変更の指示を制作者から受付けたか否かを判定する(Se1)。照明条件の変更の指示を受付けた場合(Se1:YES)、制御装置31は、制作者から指示された照明条件を指定する照明データLを生成する(Se2)。制御装置31は、照明装置63-1および照明装置63-2に対して通信装置33から照明データLを送信する(Se3)。他方、照明条件の変更の指示を受付けない場合(Se1:NO)、照明データLの生成(Se2)および送信(Se3)は実行されない。
After executing the imaging control process Sa, the control device 31 (illumination control unit 45) executes the illumination control process Se (Se1 to Se3). Specifically, the
なお、以上の説明においては撮像制御処理Saの直後に照明制御処理Seを実行したが、照明制御処理Seが実行される時点は以上の例示に限定されない。例えば、動画生成処理Sb、動画合成処理Scおよび再生制御処理Sdの何れかの直後に、照明制御処理Seが実行されてもよい。撮像制御処理Saの直前に照明制御処理Seが実行されてもよい。 Note that in the above description, the illumination control process Se was executed immediately after the imaging control process Sa, but the time point at which the illumination control process Se is executed is not limited to the above example. For example, the lighting control process Se may be executed immediately after any one of the video generation process Sb, the video composition process Sc, and the playback control process Sd. The illumination control process Se may be executed immediately before the imaging control process Sa.
第4実施形態においても第1実施形態と同様の効果が実現される。また、第4実施形態においては、撮像装置21-1による動画V1の撮像と撮像装置21-2による動画V2の撮像とが共通の撮像条件のもとで実行されるほか、照明装置63-1による収録スタジオR1内の照明と照明装置63-2による収録スタジオR2内の照明とが共通の照明条件のもとで実行される。すなわち、被写体Q1に照射される照明光の強度および色温度と、被写体Q2に照射される照明光の強度および色温度とが共通化される。したがって、照明装置63-1の照明条件と照明装置63-2の照明条件とが相互に個別に制御される形態と比較して、被写体Q1と被写体Q2とが共通の空間内に所在するように視聴者に知覚される自然な合成動画Vを生成できる。 The fourth embodiment also achieves the same effects as the first embodiment. In addition, in the fourth embodiment, the imaging of the moving image V1 by the imaging device 21-1 and the imaging of the moving image V2 by the imaging device 21-2 are performed under common imaging conditions, and the lighting device 63-1 The lighting in the recording studio R1 by the lighting device 63-2 and the lighting in the recording studio R2 by the lighting device 63-2 are performed under common lighting conditions. That is, the intensity and color temperature of the illumination light irradiated to the subject Q1 and the intensity and color temperature of the illumination light irradiated to the subject Q2 are made common. Therefore, compared to a configuration in which the illumination conditions of the illumination device 63-1 and the illumination conditions of the illumination device 63-2 are controlled individually, it is possible for the subject Q1 and the subject Q2 to be located in a common space. It is possible to generate a natural composite video V that is perceived by the viewer.
なお、第2実施形態の構成は第4実施形態にも同様に適用される。第3実施形態の構成も第4実施形態に適用される。例えば、再生装置61-nおよび照明装置63-nの双方が収録スタジオRnに設置されてもよい。 Note that the configuration of the second embodiment is similarly applied to the fourth embodiment. The configuration of the third embodiment is also applied to the fourth embodiment. For example, both the playback device 61-n and the lighting device 63-n may be installed in the recording studio Rn.
[第5実施形態]
第1実施形態においては、動画V1と動画V2と仮想動画Vxとの合成により合成動画Vが生成される。第5実施形態においては、撮像装置21-1により撮像された動画V1と、制御装置31(動画生成部42)が生成した仮想動画Vxとの合成により、合成動画Vが生成される。
[Fifth embodiment]
In the first embodiment, a composite video V is generated by combining the video V1, the video V2, and the virtual video Vx. In the fifth embodiment, a composite video V is generated by combining the video V1 captured by the imaging device 21-1 and the virtual video Vx generated by the control device 31 (video generation unit 42).
図17は、第5実施形態における動画収録システム100の構成を例示するブロック図である。図17に例示される通り、第5実施形態の動画収録システム100は、収録システム20-1と制御システム30とを具備する。すなわち、第5実施形態において収録システム20-2は省略される。収録システム20-1の構成および機能は第1実施形態と同様である。また、制御システム30の構成は第1実施形態(図3)と同様である、
FIG. 17 is a block diagram illustrating the configuration of a
図18は、第5実施形態における制御システム30の機能的な構成を例示するブロック図である。第5実施形態の制御装置31は、記憶装置32に記憶されたプログラムを実行することで、第1実施形態と同様の要素(撮像制御部41,動画生成部42,動画合成部43,再生制御部44)として機能する。第5実施形態の撮像制御部41は、制御データDを送信することで撮像装置21-1の撮像条件を制御する。動画生成部42は、仮想動画Vxを生成する。
FIG. 18 is a block diagram illustrating the functional configuration of the
図19は、第5実施形態における合成動画Vの生成の説明図である。図19に例示される通り、第5実施形態の仮想動画Vxは、第1実施形態と同様に、仮想空間Rxを仮想撮像装置50により撮像した動画である。ただし、第5実施形態の仮想空間Rxには、仮想的な出演者(以下「仮想出演者」という)Pが仮想オブジェクトObとして存在する。仮想出演者Pは、例えば現実の出演者Q11とともに競技イベントに出演する仮想的な出場者または解説者であり、仮想空間Rx内で種々の動作を実行する。仮想出演者Pは、仮想撮像装置50による撮像の被写体である。
FIG. 19 is an explanatory diagram of generation of composite video V in the fifth embodiment. As illustrated in FIG. 19, the virtual moving image Vx of the fifth embodiment is a moving image captured by the
動画生成部42は、第1実施形態と同様に、仮想撮像装置50の撮像条件を、撮像装置21-1の撮像条件に応じて制御する。具体的には、動画生成部42は、通信装置33が撮像装置21-1から受信した動作データH1に応じて仮想撮像装置50の撮像条件を制御する。すなわち、仮想撮像装置50の撮像条件が撮像装置21-1の撮像条件に連動する。
The moving
動画合成部43は、図19の例示の通り、撮像装置21-1が撮像した動画V1と動画生成部42が生成した仮想動画Vxとの合成により、配信コンテンツCの合成動画Vを生成する。再生制御部44は、第1実施形態と同様に、合成動画Vを含む配信コンテンツCを端末装置200に配信する。
As illustrated in FIG. 19, the
図20は、第5実施形態における動画収録処理のフローチャートである。撮像制御処理Saおよび動画生成処理Sbは第1実施形態と同様である。ただし、撮像制御処理Saにおいて、制御装置31は、収録システム20-1のみに対して制御データDを送信する。また、動画生成処理Sbにおいて、制御装置31は、仮想出演者Pを含む仮想空間Rxを仮想撮像装置50により撮像した仮想動画Vxを生成する。
FIG. 20 is a flowchart of video recording processing in the fifth embodiment. The imaging control process Sa and the moving image generation process Sb are the same as those in the first embodiment. However, in the imaging control process Sa, the
動画合成処理Scにおいては、第1実施形態における動画V2に関する処理が省略される。具体的には、制御装置31は、収録システム20-1から送信された素材データM1を通信装置33により受信し(Sc1)、素材データM1の動画V1から被写体Q1を抽出する(Sc2)。そして、制御装置31は、図19に例示される通り、動画V1から抽出した被写体Q1と、動画生成処理Sbにより生成された仮想動画Vxとを合成することで合成動画Vを生成する(Sc5)。再生制御処理Sdは第1実施形態と同様である。
In the video composition process Sc, the process related to the video V2 in the first embodiment is omitted. Specifically, the
第5実施形態においては、撮像装置21-1による動画V1の撮像と仮想撮像装置50による仮想動画Vxの撮像とが共通の撮像条件のもとで実行される。したがって、収録スタジオR1内の被写体Q1と仮想空間Rx内の仮想出演者Pとが恰も共通の空間(仮想空間Rx)内に所在するかのような自然な合成動画Vを生成できる。
In the fifth embodiment, the imaging of the moving image V1 by the imaging device 21-1 and the imaging of the virtual moving image Vx by the
なお、第3実施形態の構成は第5実施形態にも同様に適用される。例えば、収録スタジオR1に設置された再生装置61-1により、配信コンテンツCが再生される。 Note that the configuration of the third embodiment is similarly applied to the fifth embodiment. For example, the distribution content C is played back by the playback device 61-1 installed in the recording studio R1.
第4実施形態の構成も第5実施形態に適用される。すなわち、第5実施形態において、収録スタジオR1に設置された照明装置63-1の照明条件が、照明データLに応じて制御されてよい。さらに、第5実施形態において、仮想空間Rxに設置された仮想的な照明装置の照明条件が、照明データLに応じて制御されてもよい。すなわち、制御装置31(照明制御部45)は、収録スタジオR1内の照明装置63-1と仮想空間Rx内の照明装置とを、共通の照明条件のもとで、時間的に相互に並列に動作させる。 The configuration of the fourth embodiment is also applied to the fifth embodiment. That is, in the fifth embodiment, the lighting conditions of the lighting device 63-1 installed in the recording studio R1 may be controlled according to the lighting data L. Furthermore, in the fifth embodiment, the lighting conditions of a virtual lighting device installed in the virtual space Rx may be controlled according to the lighting data L. That is, the control device 31 (lighting control unit 45) causes the lighting device 63-1 in the recording studio R1 and the lighting device in the virtual space Rx to be temporally parallel to each other under a common lighting condition. make it work.
[変形例]
以上に例示した各形態は多様に変形され得る。前述の各形態に適用され得る具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲で併合してもよい。
[Modified example]
Each form illustrated above can be modified in various ways. Specific modifications that can be applied to each of the above embodiments are illustrated below. Two or more aspects arbitrarily selected from the following examples may be combined to the extent that they do not contradict each other.
(1)前述の各形態においては、収録スタジオR1および収録スタジオR2とは別個の位置に制御システム30が設置された形態を例示したが、収録スタジオR1または収録スタジオR2に制御システム30が設置されてもよい。また、撮像装置21-1または撮像装置21-2に制御システム30が搭載されてもよい。
(1) In each of the above embodiments, the
(2)前述の各形態においては、撮像装置21-1の動作データH1に応じて仮想撮像装置50の撮像条件を制御する形態を例示したが、動画生成部42は、撮像装置21-2の動作データH2に応じて仮想撮像装置50の撮像条件を制御してもよい。また、動画生成部42は、動作データH1および動作データH2の双方に応じて仮想撮像装置50の撮像条件を制御してもよい。例えば、動画生成部42は、動作データH1が表す撮像条件と動作データH2が表す撮像条件との平均的な条件に、仮想撮像装置50の撮像条件を設定してもよい。以上の例示の通り、仮想撮像装置50の撮像条件は、撮像装置21-1の撮像条件および撮像装置21-2の撮像条件の一方または双方に応じて制御される。なお、仮想撮像装置50の撮像条件は固定されてもよい。
(2) In each of the above embodiments, the imaging conditions of the
(3)前述の各形態においては、撮像装置21-1の動作データH1に応じて仮想撮像装置50の撮像条件を制御する形態を例示した。前述の通り、制御データDにより指示される撮像装置21-nの撮像条件と、撮像装置21-nの動作データHnが表す撮像条件とは、基本的には一致する。したがって、動画生成部42は、仮想撮像装置50の撮像条件を制御データDに応じて制御してもよい。すなわち、動画生成部42は、仮想撮像装置50を、制御データが指定する撮像条件に制御する。以上の説明から理解される通り、仮想撮像装置50の撮像条件の制御に動作データHnを使用する構成は省略されてよい。
(3) In each of the above-described embodiments, an example is given in which the imaging conditions of the
(4)第1実施形態のように収録スタジオR1内の動画V1から被写体Q1が抽出される形態においては、収録スタジオR1のうち被写体Q1が存在する範囲以外の空間は、合成動画Vの撮像にあたり不要である。したがって、図21に例示される通り、収録スタジオR1のうち基準面αに対して被写体Q1とは反対側の空間が縮小または削減された形態も想定される。同様に、収録スタジオR2のうち基準面αに対して被写体Q2とは反対側の空間は、図21に例示される通り縮小または削減されてもよい。以上の通り、各収録スタジオRnは狭小な空間でも、動画V1と動画V2との合成により、実際の収録スタジオRnよりも広い空間に被写体Q1および被写体Q2が所在すると知覚される合成動画Vを生成できる。すなわち、収録スタジオRnに必要なサイズが削減されるから、合成動画Vの収録に必要な費用を削減できる。 (4) In the form in which the subject Q1 is extracted from the video V1 in the recording studio R1 as in the first embodiment, the space other than the area where the subject Q1 exists in the recording studio R1 is used for imaging the composite video V. Not necessary. Therefore, as illustrated in FIG. 21, a configuration in which the space on the side opposite to the subject Q1 with respect to the reference plane α in the recording studio R1 is reduced or reduced is also conceivable. Similarly, the space on the opposite side of the recording studio R2 from the subject Q2 with respect to the reference plane α may be reduced or reduced as illustrated in FIG. 21. As mentioned above, even if each recording studio Rn has a narrow space, by combining videos V1 and V2, a composite video V is generated in which the subjects Q1 and Q2 are perceived to be located in a wider space than the actual recording studio Rn. can. That is, since the size required for the recording studio Rn is reduced, the cost required for recording the composite video V can be reduced.
(5)前述の各形態においては、動画Vnのうちグリーンバックに対応する領域を除去することで被写体Qnを抽出したが、動画Vnから被写体Qnを抽出する方法は、以上の例示に限定されない。例えば、動画合成部43は、公知の物体検出処理により動画Vnから被写体Qnを抽出してもよい。物体検出処理としては、例えば深層ニューラルネットワーク等の推定モデルを利用した物体検出、または背景差分法等の画像処理を利用した物体検出が例示される。以上の説明から理解される通り、収録スタジオRnの背景はグリーンバックである必要はない。
(5) In each of the above embodiments, the subject Qn is extracted by removing the area corresponding to the green screen from the video Vn, but the method of extracting the subject Qn from the video Vn is not limited to the above examples. For example, the
(6)前述の各形態においては、収録スタジオRnを現実空間として例示したが、現実空間は収録スタジオRn等の屋内空間に限定されない。例えば、屋外空間等の現実空間内に収録システム20-nが設置されてもよい。以上の説明から理解される通り、現実空間は、現実世界の実在する空間として定義され、屋内/屋外は不問である。 (6) In each of the above embodiments, the recording studio Rn is exemplified as a real space, but the real space is not limited to an indoor space such as the recording studio Rn. For example, the recording system 20-n may be installed in a real space such as an outdoor space. As understood from the above explanation, real space is defined as an existing space in the real world, and it does not matter whether it is indoors or outdoors.
(7)第3実施形態においては、再生装置61-1および再生装置61-2の双方に配信コンテンツCを再生させたが、再生制御部44は、再生装置61-1および再生装置61-2の一方のみに配信コンテンツCを再生させてもよい。以上の説明から理解される通り、第3実施形態において、再生装置61-1および再生装置61-2の一方は省略されてもよい。
(7) In the third embodiment, both the playback device 61-1 and the playback device 61-2 play the distributed content C, but the
(8)前述の各形態においては、撮像装置21-1と撮像装置21-2とを相互に連動させる形態を例示したが、動画収録システム100が複数の動作モードの何れかにより動作する形態も想定される。複数の動作モードは、例えば連動モードと個別モードとを含む。
(8) In each of the above embodiments, a mode in which the imaging device 21-1 and the imaging device 21-2 are interlocked is illustrated, but a mode in which the
連動モードにおいては、前述の各形態と同様に、制御システム30が撮像装置21-1および撮像装置21-2に対して共通の制御データDを送信することで、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが相互に連動する。
In the linked mode, similarly to each of the above embodiments, the
個別モードにおいては、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが個別に制御される。例えば、個別モードにおいて、制作者は、操作装置34を操作することで、撮像装置21-1および撮像装置21-2の何れかを選択して撮像条件の変更を指示できる。例えば、撮像装置21-1の撮像条件の変更が制作者により指示された場合、撮像制御部41は、変更後の撮像条件を指定する制御データDを収録システム20-1に送信する。他方、撮像装置21-2の撮像条件の変更が制作者により指示された場合、撮像制御部41は、変更後の撮像条件を指定する制御データDを収録システム20-2に送信する。
In the individual mode, the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 are individually controlled. For example, in the individual mode, the producer can select either the imaging device 21-1 or the imaging device 21-2 and instruct a change in imaging conditions by operating the operating
すなわち、撮像制御部41は、撮像装置21-1および撮像装置21-2に双方に共通の制御データDを送信する動作(連動モード)と、撮像装置21-1および撮像装置21-2の各々に個別の制御データDを送信する動作(個別モード)とを選択的に実行する。以上の形態によれば、撮像装置21-1と撮像装置21-2とが常に連動する形態と比較して、撮像装置21-1および撮像装置21-2の動作を相違させた多様な配信コンテンツCを生成できる。
That is, the
(9)前述の各形態においては、撮像装置21-1と撮像装置21-2とが同機種である構成を想定した。以上の構成においては、撮像装置21-1と撮像装置21-2とに対して共通の制御データDを送信することで、撮像装置21-1と撮像装置21-2とを共通の撮像条件のもとで動作させることが可能である。ただし、撮像装置21-1と撮像装置21-2とは別機種でもよい。撮像装置21-1と撮像装置21-2とが別機種である形態においては、撮像制御部41は、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが共通するように、撮像装置21-1および撮像装置21-2の各々に対して個別の制御データDを送信する。以上の説明から理解される通り、撮像制御部41は、撮像装置21-1と撮像装置21-2とを共通の撮像条件のもとで動作させる要素として包括的に表現され、撮像装置21-1と撮像装置21-2との機種の異同、および制御データDの個別/共通は、本開示において不問である。
(9) In each of the above embodiments, a configuration is assumed in which the imaging device 21-1 and the imaging device 21-2 are of the same model. In the above configuration, by transmitting the common control data D to the imaging device 21-1 and the imaging device 21-2, the imaging device 21-1 and the imaging device 21-2 can be controlled under a common imaging condition. It is possible to operate under However, the imaging device 21-1 and the imaging device 21-2 may be different models. In a configuration in which the imaging device 21-1 and the imaging device 21-2 are different models, the
第4実施形態における照明装置63-1および照明装置63-2についても同様である。例えば、照明装置63-1および照明装置63-2が相異なる機種である形態においては、制御システム30から個別の照明データLを各々に送信することで、照明装置63-1と照明装置63-2とを共通の照明条件もとで動作させてもよい。
The same applies to the lighting device 63-1 and the lighting device 63-2 in the fourth embodiment. For example, in a configuration where the lighting device 63-1 and the lighting device 63-2 are different models, the
(10)収録スタジオR1には、撮像装置21-2に連動する撮像装置21-1のほかに、撮像装置21-2とは独立に撮像条件が設定される1以上の撮像装置が設置されてもよい。同様に、収録スタジオR2には、撮像装置21-1に連動する撮像装置21-2のほかに、撮像装置21-1とは独立に撮像条件が設定される1以上の撮像装置が設置されてもよい。 (10) In addition to the imaging device 21-1 that is linked to the imaging device 21-2, the recording studio R1 is equipped with one or more imaging devices whose imaging conditions are set independently of the imaging device 21-2. Good too. Similarly, in addition to the imaging device 21-2 linked to the imaging device 21-1, the recording studio R2 is equipped with one or more imaging devices whose imaging conditions are set independently of the imaging device 21-1. Good too.
(11)前述の各形態においては、動画V1と動画V2と仮想動画Vxとの合成により合成動画Vを生成したが、さらに他の画像が合成されてもよい。例えば、出演者Q11および出演者Q21がプレイするゲームの画面が、合成動画Vに合成されてもよい。また、収録スタジオRn内に設置された撮像装置21-n以外の撮像装置により撮像された動画が、合成動画Vに合成されてもよい。また、前述の各形態においては、音声A1と音声A2との合成により合成音声Aを生成したが、さらに他の音声が合成されてもよい。例えば、出演者Q11および出演者Q21がプレイするゲームの音声が、合成音声Aに合成されてもよい。 (11) In each of the above embodiments, the composite video V is generated by combining the video V1, the video V2, and the virtual video Vx, but other images may also be combined. For example, screens of games played by performer Q11 and performer Q21 may be combined into composite video V. Further, a moving image captured by an image capturing device other than the image capturing device 21-n installed in the recording studio Rn may be combined into the composite moving image V. Further, in each of the above embodiments, the synthesized speech A is generated by synthesizing the speech A1 and the speech A2, but other speech may also be synthesized. For example, the voices of a game played by performer Q11 and performer Q21 may be synthesized into synthesized voice A.
(12)収録スタジオR1と収録スタジオR2との間で照明光の強度または色温度等の照明条件が相違する状況が想定される。以上の状況においては、例えば、動画V1および動画V2の一方または双方に対する画像処理により、動画V1と動画V2との間で光学的パラメータを相互に近似または一致させてもよい。各動画Vnの光学的パラメータは、例えば露出値またはホワイトバランス等の光学的なパラメータである。例えば、動画合成部43は、動画V1および動画V2の一方の光学的パラメータを補正することで、他方の光学的パラメータに一致させる。また、動画合成部43は、動画V1および動画V2の各々の光学的パラメータを、両者間の平均値に補正してもよい。動画合成部43は、光学的パラメータの補正後の動画V1および動画V2を合成することで合成動画Vを生成する。以上の構成によれば、合成動画Vにおける被写体Q1と被写体Q2との視覚的な相違が低減される。したがって、被写体Q1と被写体Q2とが恰も共通の空間内に所在するかのような自然な合成動画Vを生成できるという前述の効果は特に顕著である。
(12) A situation is assumed in which the lighting conditions such as the intensity or color temperature of the illumination light are different between the recording studio R1 and the recording studio R2. In the above situation, for example, the optical parameters of the moving image V1 and the moving image V2 may be made to approximate or match each other by performing image processing on one or both of the moving images V1 and the moving images V2. The optical parameters of each moving image Vn are, for example, optical parameters such as exposure value or white balance. For example, the
(13)撮像装置21-1の撮像条件と撮像装置21-2の撮像条件との誤差に起因して、動画V1と動画V2との間で撮像範囲が相違する状況が想定される。以上の状況において、動画合成部43は、動画V1および動画V2の各々から特定の領域を抽出する画像処理により、動画V1と動画V2との間で撮像範囲を一致させてもよい。
(13) Due to an error between the imaging conditions of the imaging device 21-1 and the imaging condition of the imaging device 21-2, a situation is assumed in which the imaging ranges are different between the video V1 and the video V2. In the above situation, the
図22は、本変形例における動画合成処理Scの部分的なフローチャートである。図22に例示される処理が、動画合成処理Scにおける合成動画Vの合成(Sc5)前における適切な時点で実行される。 FIG. 22 is a partial flowchart of the moving image synthesis process Sc in this modification. The process illustrated in FIG. 22 is executed at an appropriate time before the synthesis (Sc5) of the composite video V in the video composition process Sc.
制御装置31(動画合成部43)は、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが一致するか否かを判定する(Sc11)。例えば、制御装置31は、動作データH1と動作データH2とが一致するか否かに応じて、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが一致するか否かを判定する。撮像条件が一致するか否かの判定には、例えば動作データH1と動作データH2との類似度が利用される。類似度は、例えば、撮像装置21-1の撮像方向と撮像装置21-2の撮像方向とがなす角度、または、撮像装置21-1の撮像倍率と撮像装置21-2の撮像倍率との差異に応じた指標値である。
The control device 31 (video composition unit 43) determines whether the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 match (Sc11). For example, the
例えば、動作データH1と動作データH2との類似度が閾値を上回る場合、動画合成部43は、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが一致すると判定する。他方、動作データH1と動作データH2との類似度が所定の閾値を下回る場合、動画合成部43は、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが相違すると判定する。なお、制作者が配信コンテンツCを視聴しながら操作装置34を操作することで、動画V1と動画V2との間で撮像範囲が整合するか否かを、制御システム30に指示してもよい。制御装置31は、操作装置34に対する制作者からの指示に応じて、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが一致するか否かを判定する。
For example, if the degree of similarity between the motion data H1 and the motion data H2 exceeds a threshold, the
撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが相違する場合(Sc11:NO)、制御装置31は、目標の撮像範囲に対応する領域を動画V1から抽出し、当該撮像範囲に対応する領域を動画V2から抽出する(Sc12)。他方、撮像装置21-1の撮像条件と撮像装置21-2の撮像条件とが一致する場合(Sc11:YES)、動画V1および動画V2の部分的な抽出(Sc12)は実行されない。以上の処理を経た動画V1および動画V2が、合成動画Vの生成(Sc5)に適用される。以上の形態によれば、撮像範囲が動画V1と動画V2との間で整合した自然な合成動画Vを生成できる。
If the imaging conditions of the imaging device 21-1 and the imaging conditions of the imaging device 21-2 are different (Sc11: NO), the
(14)制御システム30と収録システム20-1との間の通信遅延と、制御システム30と収録システム20-2との間の通信遅延とが相違する場合、制御システム30が取得する動画V1と動画V2とが時間的に相互に同期しない可能性がある。例えば、動画V1および動画V2の一方が他方に対して遅延する状況が想定される。以上の状況において、動画合成部43は、動画V1と動画V2とを時間的に相互に同期させてもよい。例えば、撮像装置21-nは、動画Vnの各時点にタイムコードを付加する。動画合成部43は、動画V1および動画V2の各々のタイムコードを参照することで、動画V1と動画V2とを相互に同期させる。同期後の動画V1および動画V2が、合成動画Vの生成(Sc5)に適用される。以上の形態によれば、動画V1と動画V2との時間的なズレが低減された自然な合成動画Vを生成できる。
(14) If the communication delay between the
(15)前述の各形態においては、撮像方向および撮像倍率を撮像条件として例示したが、撮像制御部41による制御の対象となる撮像条件は以上の例示に限定されない。例えば、焦点位置(フォーカス)、絞り値(アイリス)、露光時間(シャッタースピード)、露出値またはホワイトバランス等、撮像範囲自体には影響しない条件も「撮像条件」には包含される。
(15) In each of the above-described embodiments, the imaging direction and the imaging magnification are exemplified as imaging conditions, but the imaging conditions to be controlled by the
(16)前述の各形態においては撮像装置21-1および撮像装置21-2を例示したが、撮像装置21-nの個数は3個以上でもよい。例えば、動画収録システム100がN個(Nは2以上の自然数)の撮像装置21-n(n=1~N)を具備する構成を想定すると、撮像制御部41は、N個の撮像装置21-nを共通の撮像条件のもとで相互に並列に動作させる。動画合成部43は、各撮像装置21-nが撮像した動画Vnの合成により合成動画Vを生成する。N個の撮像装置21-nから選択された1個の撮像装置21-n1(n1=1~N)が本開示における「第1撮像装置」の一例であり、他の撮像装置21-n2(n2=1~N,n2≠n1)が本開示における「第2撮像装置」の一例である。
(16) In each of the above embodiments, the imaging device 21-1 and the imaging device 21-2 are illustrated, but the number of imaging devices 21-n may be three or more. For example, assuming a configuration in which the
(17)前述の各形態に係る制御システム30の機能は、前述の通り、制御装置31を構成する単数または複数のプロセッサと、記憶装置32に記憶されたプログラムとの協働により実現される。以上に例示したプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網を介してプログラムを配信する構成では、当該配信装置においてプログラムを記憶する記録媒体が、前述の非一過性の記録媒体に相当する。
(17) As described above, the functions of the
(18)前述の各形態における動画収録システム100は、本開示における「動画収録システム」の一例である。ただし、収録システム20-1および収録システム20-2を要件としない制御システム30を、本開示の「動画収録システム」と解釈してもよい。
(18) The
(19)本開示における「第n」(nは自然数)という記載は、各要素を表記上において区別するための形式的または便宜的な標識(ラベル)としてのみ使用され、如何なる実質的な意味も持たない。したがって、「第n」という表記を根拠として、各要素の位置または処理の順序等が限定的に解釈される余地はない。 (19) In the present disclosure, the term “nth” (n is a natural number) is used only as a formal or convenient label to distinguish each element in the notation, and has no substantive meaning. do not have. Therefore, there is no room for the position of each element or the order of processing to be interpreted in a limited manner based on the notation "nth".
[付記]
以上の記載から、例えば以下のように本開示の好適な態様が把握される。なお、各態様の理解を容易にするために、以下では、図面の符号を便宜的に括弧書で併記するが、本開示を図示の態様に限定する趣旨ではない。
[Additional notes]
From the above description, preferred aspects of the present disclosure can be understood, for example, as follows. Note that in order to facilitate understanding of each aspect, the reference numerals in the drawings will be conveniently written in parentheses below, but this is not intended to limit the present disclosure to the illustrated aspects.
[付記1]
本開示のひとつの態様(付記1)に係る動画収録システム(100)は、第1現実空間(R1)内の第1撮像装置(21-1)と第2現実空間(R2)内の第2撮像装置(21-2)とを共通の撮像条件のもとで時間的に相互に並列に動作させる撮像制御部(41)と、前記第1撮像装置(21-1)が撮像した第1動画(V1)と前記第2撮像装置(21-2)が撮像した第2動画(V2)との合成により合成動画(V)を生成する動画合成部(43)とを具備する。以上の態様によれば、第1撮像装置(21-1)による第1動画(V1)の撮像と第2撮像装置(21-2)による第2動画(V2)の撮像とが共通の撮像条件のもとで実行される。したがって、第1現実空間(R1)内の第1被写体(Q1)と第2現実空間(R2)内の第2被写体(Q2)とが恰も共通の空間内に所在するかのような自然な合成動画(V)を生成できる。
[Additional note 1]
A video recording system (100) according to one aspect (Appendix 1) of the present disclosure includes a first imaging device (21-1) in a first real space (R1) and a second imaging device (21-1) in a second real space (R2). an imaging control unit (41) that causes the imaging device (21-2) to operate temporally in parallel with each other under a common imaging condition; and a first moving image captured by the first imaging device (21-1). (V1) and a second moving image (V2) captured by the second imaging device (21-2) to generate a composite moving image (V). According to the above aspect, the imaging of the first video (V1) by the first imaging device (21-1) and the imaging of the second video (V2) by the second imaging device (21-2) are under a common imaging condition. is executed under Therefore, the first subject (Q1) in the first real space (R1) and the second subject (Q2) in the second real space (R2) are naturally synthesized as if they were located in a common space. Video (V) can be generated.
「(第1/第2)動画」は、複数の映像の時系列により構成される動的な画像である。なお、第1現実空間(R1)内で収録された第1音声が第1動画(V1)に付随してもよいし、第2現実空間(R2)内で収録された第2音声が第2動画(V2)に付随してもよい。「(第1/第2)現実空間」とは、現実世界に実在する空間であり、仮想空間(Rx)と対比される概念である。 The “(first/second) moving image” is a dynamic image composed of a plurality of time-series videos. Note that the first audio recorded in the first real space (R1) may accompany the first video (V1), and the second audio recorded in the second real space (R2) may accompany the second video (V1). It may accompany the video (V2). The "(first/second) real space" is a space that exists in the real world, and is a concept contrasted with a virtual space (Rx).
第1撮像装置(21-1)による第1動画(V1)の撮像と第2撮像装置(21-2)による第2動画(V2)の撮像とについて「時間的に相互に並列」とは、第1撮像装置(21-1)が第1動画(V1)を撮像する期間と第2撮像装置(21-2)が第2動画(V2)を撮像する期間とが時間軸上で相互に重複することを意味する。なお、第1撮像装置(21-1)による撮像動作と第2撮像装置(21-2)による撮像動作とは、時間的に完全に同期する必要は必ずしもなく、例えば合成動画(V)の視聴者により知覚されない範囲で時間差が存在してもよい。 Regarding the imaging of the first moving image (V1) by the first imaging device (21-1) and the imaging of the second moving image (V2) by the second imaging device (21-2), “parallel to each other in time” means: The period in which the first imaging device (21-1) images the first video (V1) and the period in which the second imaging device (21-2) images the second video (V2) overlap each other on the time axis. It means to do. Note that the imaging operation by the first imaging device (21-1) and the imaging operation by the second imaging device (21-2) do not necessarily need to be completely synchronized in time; for example, when viewing a composite video (V), A time difference may exist within a range that is not perceivable by the person.
「撮像条件」は、(第1/第2)撮像装置(21-n)による動画の撮像に関する条件である。具体的には、撮像方向または撮像倍率等、撮像範囲を規定する条件が「撮像条件」として例示される。撮像方向は、例えば水平方向(パン)または垂直方向(チルト)である。撮像倍率は、例えば焦点距離に応じた倍率(ズーム)である。ただし、例えば焦点位置(フォーカス)、絞り値(アイリス)、露光時間(シャッタースピード)、露出値またはホワイトバランス等、撮像範囲自体には影響しない条件も「撮像条件」には包含される。「撮像条件」は、例えば撮像制御部(41)による制御の対象となる動作条件とも表現される。 The "imaging condition" is a condition regarding imaging of a moving image by the (first/second) imaging device (21-n). Specifically, conditions that define the imaging range, such as the imaging direction or imaging magnification, are exemplified as "imaging conditions." The imaging direction is, for example, a horizontal direction (pan) or a vertical direction (tilt). The imaging magnification is, for example, a magnification (zoom) depending on the focal length. However, "imaging conditions" also include conditions that do not affect the imaging range itself, such as, for example, focal position (focus), aperture value (iris), exposure time (shutter speed), exposure value, or white balance. The "imaging conditions" are also expressed as, for example, operating conditions that are subject to control by the imaging control unit (41).
「共通の撮像条件のもとで動作させる」とは、第1撮像装置(21-1)の撮像条件と第2撮像装置(21-2)の撮像条件とが完全に一致する場合のほか、第1撮像装置(21-1)の撮像条件と第2撮像装置(21-2)の撮像条件とが実質的に一致する場合も含む。「撮像条件が実質的に一致する場合」とは、例えば、撮像条件の相違が視聴者に知覚されない程度に第1撮像装置(21-1)と第2撮像装置(21-2)との間で撮像条件が近似する場合、または、第1撮像装置(21-1)の撮像条件と第2撮像装置(21-2)の撮像条件との差異が、両者間の特性の相違(例えば製造誤差等の事情に起因した相違)を原因とする程度の微小な差異である場合である。 "Operating under common imaging conditions" refers to cases where the imaging conditions of the first imaging device (21-1) and the imaging conditions of the second imaging device (21-2) completely match; This also includes a case where the imaging conditions of the first imaging device (21-1) and the imaging conditions of the second imaging device (21-2) substantially match. "When the imaging conditions substantially match" means, for example, that the difference in imaging conditions between the first imaging device (21-1) and the second imaging device (21-2) is not perceptible to the viewer. If the imaging conditions are similar, or if the difference between the imaging conditions of the first imaging device (21-1) and the imaging conditions of the second imaging device (21-2) is due to a difference in characteristics between the two (for example, manufacturing error) This is a case where the difference is so small that it is caused by a difference caused by circumstances such as
例えば、第1撮像装置(21-1)と第2撮像装置(21-2)とが同機種である場合を想定すると、撮像条件を指示する共通の制御データ(D)を第1撮像装置(21-1)および第2撮像装置(21-2)の双方に送信する結果として、第1撮像装置(21-1)と第2撮像装置(21-2)とは共通の撮像条件のもとで動作する。また、第1撮像装置(21-1)と第2撮像装置(21-2)とが別機種である場合を想定すると、両機種間の撮像動作の相違が解消されるように第1撮像装置(21-1)と第2撮像装置(21-2)とに別個の制御データ(D)を送信する結果として、第1撮像装置(21-1)と第2撮像装置(21-2)とは共通の撮像条件のもとで動作する。 For example, assuming that the first imaging device (21-1) and the second imaging device (21-2) are of the same model, the common control data (D) instructing the imaging conditions is transferred to the first imaging device (21-2). 21-1) and the second imaging device (21-2), the first imaging device (21-1) and the second imaging device (21-2) are under the same imaging condition. It works. Further, assuming that the first imaging device (21-1) and the second imaging device (21-2) are different models, the first imaging device (21-1) and the second imaging device (21-2), the first imaging device (21-1) and the second imaging device (21-2) operate under common imaging conditions.
第1動画(V1)と第2動画(V2)との合成は、例えば、第1動画(V1)の少なくとも一部と第2動画(V2)の少なくとも一部との混合により合成動画(V)を生成する画像処理である。例えば、第1動画(V1)内の第1被写体(Q1)と第2動画(V2)内の第2被写体(Q2)とが併存するように第1動画(V1)と第2動画(V2)とが合成される。ただし、第1撮像装置(21-1)による撮像範囲内に第1被写体(Q1)が存在し、かつ、第2撮像装置(21-2)による撮像範囲内には第2被写体(Q2)が存在しない場合には、合成動画(V)には第1被写体(Q1)のみが存在する。また、第1撮像装置(21-1)による撮像範囲が第1被写体(Q1)から離間し、かつ、第2撮像装置(21-2)による撮像範囲が第2被写体(Q2)に接近する場合を想定すると、表示対象が第1被写体(Q1)から第2被写体(Q2)に遷移する合成動画(V)が生成される。 The first video (V1) and the second video (V2) can be synthesized, for example, by mixing at least a portion of the first video (V1) and at least a portion of the second video (V2) to create a composite video (V). This is image processing that generates . For example, the first video (V1) and the second video (V2) are arranged so that the first subject (Q1) in the first video (V1) and the second subject (Q2) in the second video (V2) coexist. are synthesized. However, the first subject (Q1) exists within the imaging range of the first imaging device (21-1), and the second subject (Q2) exists within the imaging range of the second imaging device (21-2). If it does not exist, only the first subject (Q1) exists in the composite video (V). Also, when the imaging range by the first imaging device (21-1) is separated from the first subject (Q1) and the imaging range by the second imaging device (21-2) approaches the second subject (Q2). Assuming that, a composite video (V) in which the display target changes from the first subject (Q1) to the second subject (Q2) is generated.
動画収録システム(100)による合成動画(V)の生成には、3個以上の撮像装置(21-n)が利用されてもよい。すなわち、動画合成部(43)は、相異なる撮像装置(21-n)により撮像された3個以上の動画の合成により合成動画(V)を生成してもよい。「第1動画(V1)」は、複数の動画から選択されたひとつの動画であり、「第2動画(V2)」は、複数の動画のうち第1動画(V1)以外のひとつの動画である。すなわち、合成動画(V)は、第1動画(V1)および第2動画(V2)のみの合成により生成されてもよいし、第1動画(V1)および第2動画(V2)と他の1以上の動画との合成により生成されてもよい。 Three or more imaging devices (21-n) may be used to generate the composite video (V) by the video recording system (100). That is, the video composition unit (43) may generate a composite video (V) by combining three or more videos captured by different imaging devices (21-n). The "first video (V1)" is one video selected from multiple videos, and the "second video (V2)" is one video selected from multiple videos other than the first video (V1). be. That is, the composite video (V) may be generated by combining only the first video (V1) and the second video (V2), or may be generated by combining the first video (V1), the second video (V2), and another one. It may be generated by combining with the above video.
[付記2]
付記1の具体例(付記2)に係る動画収録システム(100)は、仮想空間(Rx)を仮想撮像装置(50)により撮像した仮想動画(Vx)を生成する動画生成部(42)、をさらに具備し、前記動画合成部(43)は、前記第1動画(V1)と前記第2動画(V2)と前記仮想動画(Vx)との合成により前記合成動画(V)を生成する。以上の態様によれば、第1動画(V1)と第2動画(V2)と仮想動画(Vx)との合成により合成動画(V)が生成される。したがって、例えば第1現実空間(R1)または第2現実空間(R2)の外観が単調である場合でも、種々の仮想動画(Vx)を含む多様な合成動画(V)を生成できる。
[Additional note 2]
The video recording system (100) according to the specific example of Appendix 1 (Appendix 2) includes a video generation unit (42) that generates a virtual video (Vx) obtained by capturing a virtual space (Rx) with a virtual imaging device (50). Furthermore, the video composition unit (43) generates the composite video (V) by combining the first video (V1), the second video (V2), and the virtual video (Vx). According to the above aspect, the composite video (V) is generated by combining the first video (V1), the second video (V2), and the virtual video (Vx). Therefore, for example, even if the first real space (R1) or the second real space (R2) has a monotonous appearance, various composite videos (V) including various virtual videos (Vx) can be generated.
「仮想空間(Rx)」は、画像処理等の各種の情報処理により設定される仮想的な空間であり、現実空間と対比される概念である。「仮想撮像装置(50)」は、仮想空間(Rx)内に設置された仮想的な撮像装置である。仮想撮像装置(50)の撮像条件は固定/可変の何れでもよい。 "Virtual space (Rx)" is a virtual space set by various information processing such as image processing, and is a concept contrasted with real space. The "virtual imaging device (50)" is a virtual imaging device installed in the virtual space (Rx). The imaging conditions of the virtual imaging device (50) may be fixed or variable.
[付記3]
付記2の具体例(付記3)において、前記動画合成部(43)は、前記第1動画(V1)から第1被写体(Q1)を抽出し、前記第2動画(V2)から第2被写体(Q2)を抽出し、前記第1被写体(Q1)と前記第2被写体(Q2)と前記仮想動画(Vx)との合成により前記合成動画(V)を生成する。以上の態様によれば、第1被写体(Q1)と第2被写体(Q2)とが恰も仮想空間(Rx)内に存在するかのような合成動画(V)を生成できる。
[Additional note 3]
In the specific example of Appendix 2 (Appendix 3), the video composition unit (43) extracts a first subject (Q1) from the first video (V1), and extracts a second subject (Q1) from the second video (V2). Q2), and generates the composite video (V) by combining the first subject (Q1), the second subject (Q2), and the virtual video (Vx). According to the above aspect, it is possible to generate a composite moving image (V) in which the first subject (Q1) and the second subject (Q2) appear to exist in the virtual space (Rx).
「(第1/第2)被写体」は、撮像装置により撮像された1個以上の物体である。例えば人物または動物等の生物のほか、演出用の設備等の各種の物体が「被写体」には含まれ得る。第1動画(V1)から複数の第1被写体(Q1)が抽出されてもよいし、第2動画(V2)から複数の第2被写体(Q2)が抽出されてもよい。 “(First/Second) Subject” is one or more objects imaged by the imaging device. For example, in addition to living things such as people and animals, the "subject" may include various objects such as production equipment. A plurality of first subjects (Q1) may be extracted from the first moving image (V1), and a plurality of second subjects (Q2) may be extracted from the second moving image (V2).
「被写体を抽出」する方法は任意である。例えば、第1現実空間(R1)内の第1撮像装置(21-1)が特定色の背景(例えばグリーンバック)のもとで第1被写体(Q1)を撮像する場合を想定すると、第1動画(V1)のうち特定色の領域を除外することで第1被写体(Q1)が抽出される。また、特定の物体を検出する物体検出処理を第1動画(V1)に対して実行することで、当該第1動画(V1)から第1被写体(Q1)が抽出されてもよい。なお、以上の説明では第1撮像装置(21-1)に着目したが、第2撮像装置(21-2)についても同様である。 The method of "extracting the subject" is arbitrary. For example, assuming that the first imaging device (21-1) in the first real space (R1) images the first subject (Q1) under a background of a specific color (for example, a green screen), the first The first subject (Q1) is extracted by excluding a specific color area from the video (V1). Alternatively, the first subject (Q1) may be extracted from the first video (V1) by performing object detection processing for detecting a specific object on the first video (V1). Although the above explanation focused on the first imaging device (21-1), the same applies to the second imaging device (21-2).
[付記4]
付記2または付記3の具体例(付記4)において、前記動画生成部(42)は、前記仮想撮像装置(50)の撮像条件を、前記共通の撮像条件に応じて制御する。以上の態様によれば、仮想撮像装置(50)の撮像条件が、第1撮像装置(21-1)および第2撮像装置(21-2)の撮像条件に連動する。したがって、第1被写体(Q1)と第2被写体(Q2)とが恰も仮想空間(Rx)内に存在するかのような自然な合成動画(V)を生成できる。
[Additional note 4]
In the specific example of Appendix 2 or Appendix 3 (Appendix 4), the moving image generation unit (42) controls the imaging conditions of the virtual imaging device (50) according to the common imaging conditions. According to the above aspect, the imaging conditions of the virtual imaging device (50) are linked to the imaging conditions of the first imaging device (21-1) and the second imaging device (21-2). Therefore, it is possible to generate a natural composite video (V) in which the first subject (Q1) and the second subject (Q2) appear to exist in the virtual space (Rx).
「仮想撮像装置(50)の撮像条件(仮想撮像条件)を、第1撮像装置(21-1)および第2撮像装置(21-2)の撮像条件(現実撮像条件)に応じて制御する」とは、現実撮像条件の変化に連動して仮想撮像条件が変化する状態を意味する。以上の形態の典型例は、第1撮像装置(21-1)および第2撮像装置(21-2)の一方または双方の撮像条件と共通の撮像条件により仮想撮像装置(50)を制御する構成であるが、第1撮像装置(21-1)または第2撮像装置(21-2)の撮像条件と仮想撮像装置(50)の撮像条件との異同は不問である。 "Control the imaging conditions (virtual imaging conditions) of the virtual imaging device (50) according to the imaging conditions (real imaging conditions) of the first imaging device (21-1) and the second imaging device (21-2)" means a state in which virtual imaging conditions change in conjunction with changes in real imaging conditions. A typical example of the above configuration is a configuration in which the virtual imaging device (50) is controlled based on imaging conditions common to the imaging conditions of one or both of the first imaging device (21-1) and the second imaging device (21-2). However, it does not matter whether the imaging conditions of the first imaging device (21-1) or the second imaging device (21-2) are different from the imaging conditions of the virtual imaging device (50).
[付記5]
付記4の具体例(付記5)において、前記動画生成部(42)は、前記撮像制御部(41)の制御による前記第1撮像装置(21-1)の動作の結果を表す第1動作データ(H1)を当該第1撮像装置(21-1)から取得し、前記仮想撮像装置(50)の撮像条件を、前記第1動作データ(H1)に応じて制御する。以上の態様によれば、第1撮像装置(21-1)の動作の結果を表す第1動作データ(H1)に応じて仮想撮像装置(50)の撮像条件が制御される。したがって、仮想撮像装置(50)の撮像条件を、第1撮像装置(21-1)の実際の動作に連動させることが可能である。例えば、第1撮像装置(21-1)の特性誤差等の事情に起因して、撮像制御部(41)からの指示が第1撮像装置(21-1)の動作に正確に反映されない状況でも、第1撮像装置(21-1)の実際の動作に連動して仮想撮像装置(50)の撮像条件を制御できる。
[Additional note 5]
In the specific example of Appendix 4 (Appendix 5), the video generation unit (42) generates first operation data representing the result of the operation of the first imaging device (21-1) under the control of the imaging control unit (41). (H1) is acquired from the first imaging device (21-1), and the imaging conditions of the virtual imaging device (50) are controlled according to the first operation data (H1). According to the above aspect, the imaging conditions of the virtual imaging device (50) are controlled according to the first operation data (H1) representing the result of the operation of the first imaging device (21-1). Therefore, it is possible to link the imaging conditions of the virtual imaging device (50) with the actual operation of the first imaging device (21-1). For example, even in a situation where instructions from the imaging control unit (41) are not accurately reflected in the operation of the first imaging device (21-1) due to circumstances such as characteristic errors of the first imaging device (21-1). , the imaging conditions of the virtual imaging device (50) can be controlled in conjunction with the actual operation of the first imaging device (21-1).
「(第1)動作データ」は、撮像装置の動作の結果を表す任意の形式のデータである。例えば、撮像装置の実際の撮像方向または撮像倍率等の数値が、動作データにより指定される。動作データが指定する数値は、制御の前後における相対的な数値(変化量)でもよいし、所定値を基準とした絶対的な数値でもよい。撮像方向は、変更前の方向と変更後の方向との相対的な角度(変化量)により指定されてもよいし、所定の正面方向を基準とした絶対的な方向により指定されてもよい。また、撮像倍率は、変更前の倍率と変更後の倍率との差分(変化量)により指定されてもよいし、所定値を基準とした絶対的な数値により指定されてもよい。 “(First) operation data” is data in any format that represents the result of the operation of the imaging device. For example, numerical values such as the actual imaging direction or imaging magnification of the imaging device are specified by the operation data. The numerical value specified by the operation data may be a relative numerical value (amount of change) before and after control, or may be an absolute numerical value based on a predetermined value. The imaging direction may be specified by a relative angle (amount of change) between the direction before change and the direction after change, or may be specified by an absolute direction with respect to a predetermined front direction. Further, the imaging magnification may be specified by the difference (amount of change) between the magnification before change and the magnification after change, or may be specified by an absolute numerical value based on a predetermined value.
「仮想撮像装置(50)の撮像条件を第1動作データ(H1)に応じて制御する」とは、仮想撮像装置(50)の撮像条件に、少なくとも第1動作データ(H1)が反映されることを意味し、第1動作データ(H1)以外の要素が仮想撮像装置(50)の撮像条件に反映されてもよい。例えば、撮像制御部(41)が、第2撮像装置(21-2)の動作の結果を表す第2動作データ(H2)を当該第2撮像装置(21-2)から取得する形態において、動画生成部(42)は、第1動作データ(H1)および第2動作データ(H2)の双方に応じて仮想撮像条件を制御してもよいし、第1動作データ(H1)および第2動作データ(H2)の一方を選択的に仮想撮像条件に反映させてもよい。 "Controlling the imaging conditions of the virtual imaging device (50) according to the first operating data (H1)" means that at least the first operating data (H1) is reflected in the imaging conditions of the virtual imaging device (50). This means that elements other than the first operation data (H1) may be reflected in the imaging conditions of the virtual imaging device (50). For example, in a configuration in which the imaging control unit (41) acquires second operation data (H2) representing the result of the operation of the second imaging device (21-2) from the second imaging device (21-2), The generation unit (42) may control the virtual imaging conditions according to both the first motion data (H1) and the second motion data (H2), or may control the virtual imaging conditions according to both the first motion data (H1) and the second motion data. One of (H2) may be selectively reflected in the virtual imaging conditions.
[付記6]
付記1から付記5の何れかの具体例(付記6)において、前記第1動画(V1)は、背景(B)と第1被写体(Q1)とを含み、前記動画合成部(43)は、前記第2動画(V2)から第2被写体(Q2)を抽出し、前記第2被写体(Q2)を前記第1動画(V1)に合成することで前記合成動画(V)を生成する。以上の態様によれば、第2動画(V2)から抽出された第2被写体(Q2)が、背景(B)と第1被写体(Q1)とを含む第1動画(V1)に合成される。したがって、第1被写体(Q1)と第2被写体(Q2)とが恰も第1現実空間(R1)内に存在するかのような合成動画(V)を生成できる。
[Additional note 6]
In the specific example of any one of
[付記7]
付記1から付記6の何れかの具体例(付記7)に係る動画収録システム(100)は、前記第1現実空間(R1)内の第1再生装置(61-1)に、前記動画合成部(43)が生成した前記合成動画(V)を再生させる再生制御部(44)をさらに具備する。以上の態様によれば、第1現実空間(R1)内の第1再生装置(61-1)により合成動画(V)が再生される。したがって、第1現実空間(R1)内の利用者は、当該第1現実空間(R1)内の被写体に対して第2現実空間(R2)内の被写体が如何に合成されたのかを確認可能である。
[Additional note 7]
The video recording system (100) according to any of the specific examples (Appendix 7) of
「(第1)再生装置」は、合成動画(V)を再生するための映像機器である。例えば合成動画(V)を表示する表示装置、または合成動画(V)に含まれる音声を放音する放音装置(例えばスピーカシステム)が「再生装置」として例示される。 The "(first) playback device" is a video device for playing back the composite video (V). For example, a display device that displays the composite video (V) or a sound emitting device (for example, a speaker system) that emits audio included in the composite video (V) is exemplified as a “playback device”.
なお、以上の態様においては第1現実空間(R1)内の第1再生装置(61-1)に便宜的に着目したが、合成動画(V)を再生するのは第1現実空間(R1)内の第1再生装置(61-1)のみには限定されない。例えば、第1再生装置(61-1)に合成動画(V)を再生させる動作に加えて、第2現実空間(R2)内の第2再生装置(61-2)に合成動画(V)を再生させてもよい。以上の形態によれば、第2現実空間(R2)内の利用者は、当該第2現実空間(R2)内の被写体に対して第1現実空間(R1)内の被写体が如何に合成されたのかを確認可能である。以上の例示から理解される通り、相異なる複数(2以上の任意の個数)の現実空間に着目すると、複数の現実空間のうち少なくともひとつの現実空間内の再生装置に合成動画(V)を再生させる形態が想定される。 In addition, in the above embodiment, the first playback device (61-1) in the first real space (R1) is focused for convenience, but the synthesized video (V) is played back in the first real space (R1). It is not limited to only the first playback device (61-1) within. For example, in addition to the operation of playing the composite video (V) on the first playback device (61-1), the composite video (V) is played on the second playback device (61-2) in the second real space (R2). It may be played back. According to the above configuration, the user in the second real space (R2) can understand how the object in the first real space (R1) is synthesized with the object in the second real space (R2). It is possible to check whether As can be understood from the above examples, when focusing on a plurality of different real spaces (an arbitrary number of 2 or more), a composite video (V) is played back on a playback device in at least one real space among the plurality of real spaces. It is assumed that the
[付記8]
付記1から付記7の何れかの具体例(付記8)に係る動画収録システム(100)は、前記第1現実空間(R1)内の第1照明装置(63-1)と前記第2現実空間(R2)内の第2照明装置(63-2)とを共通の照明条件のもとで動作させる照明制御部(45)をさらに具備する。以上の態様によれば、第1撮像装置(21-1)による第1動画(V1)の撮像と第2撮像装置(21-2)による第2動画(V2)の撮像とが共通の撮像条件のもとで実行されるほか、第1照明装置(63-1)による第1現実空間(R1)内の照明動作と第2照明装置(63-2)による第2現実空間(R2)内の照明動作とが共通の照明条件のもとで実行される。すなわち、第1現実空間(R1)と第2現実空間(R2)との間で照明条件が共通化される。したがって、第1現実空間(R1)内の被写体と第2現実空間(R2)内の被写体とが共通の空間内に所在するように視聴者に認識され得る自然な合成動画(V)を生成できる。
[Additional note 8]
The video recording system (100) according to the specific example of any one of
「照明条件」は、(第1/第2)照明装置による照明動作に関する条件である。具体的には、照明光の強度、色温度(分光特性)または照射方向が「照明条件」として例示される。 “Lighting conditions” are conditions regarding lighting operations by the (first/second) lighting devices. Specifically, the intensity, color temperature (spectral characteristics), or irradiation direction of illumination light is exemplified as the "illumination condition."
「共通の照明条件のもとで動作させる」とは、第1照明装置(63-1)の照明条件と第2照明装置(63-2)の照明条件とが完全に一致する場合のほか、第1照明装置(63-1)の照明条件と第2照明装置(63-2)の照明条件とが実質的に一致する場合も含む。「照明条件が実質的に一致する場合」とは、例えば、照明条件の相違が視聴者に知覚されない程度に第1照明装置(63-1)と第2照明装置(63-2)との間で照明条件が近似する場合、または、第1照明装置(63-1)の照明条件と第2照明装置(63-2)の照明条件との差異が、両者間の特性の相違(例えば製造誤差等の事情に起因した相違)を原因とする程度の微小な差異である場合である。 "Operate under common lighting conditions" refers to cases where the lighting conditions of the first lighting device (63-1) and the lighting conditions of the second lighting device (63-2) completely match; This also includes a case where the illumination conditions of the first illumination device (63-1) and the illumination conditions of the second illumination device (63-2) substantially match. "When the lighting conditions substantially match" means, for example, that the difference in lighting conditions between the first lighting device (63-1) and the second lighting device (63-2) is not perceptible to the viewer. If the illumination conditions are similar, or the difference between the illumination conditions of the first illumination device (63-1) and the illumination conditions of the second illumination device (63-2) is due to a difference in characteristics between the two (for example, manufacturing error). This is a case where the difference is so small that it is caused by (differences due to circumstances such as).
例えば、第1照明装置(63-1)と第2照明装置(63-2)とが同機種である場合を想定すると、照明条件を指示する共通の照明データ(L)を第1照明装置(63-1)および第2照明装置(63-2)の双方に送信する結果として、第1照明装置(63-1)と第2照明装置(63-2)とは共通の照明条件のもとで動作する。また、第1照明装置(63-1)と第2照明装置(63-2)とが別機種である場合を想定すると、両機種間の照明動作の相違が解消されるように第1照明装置(63-1)と第2照明装置(63-2)とに別個の照明データ(L)を送信する結果として、第1照明装置(63-1)と第2照明装置(63-2)とは共通の照明条件のもとで動作する。 For example, assuming that the first lighting device (63-1) and the second lighting device (63-2) are of the same model, the common lighting data (L) that indicates the lighting conditions is transferred to the first lighting device (63-2). 63-1) and the second lighting device (63-2), the first lighting device (63-1) and the second lighting device (63-2) are under the same lighting condition. It works. Further, assuming that the first lighting device (63-1) and the second lighting device (63-2) are different models, the first lighting device As a result of transmitting separate lighting data (L) to the first lighting device (63-1) and the second lighting device (63-2), the first lighting device (63-1) and the second lighting device (63-2) operate under common lighting conditions.
なお、第1照明装置(63-1)の照明条件と第2照明装置(63-2)の照明条件とが共通する場合でも、他の照明光または太陽光の条件等により、第1現実空間(R1)内の照明条件と第2現実空間(R2)内の照明条件とが相違する場合はあり得る。 Note that even if the lighting conditions of the first lighting device (63-1) and the lighting conditions of the second lighting device (63-2) are the same, the first real space may There may be cases where the illumination conditions in (R1) and the illumination conditions in the second real space (R2) are different.
[付記9]
本開示のひとつの態様(付記9)に係る動画収録方法は、第1現実空間(R1)内の第1撮像装置(21-1)と第2現実空間(R2)内の第2撮像装置(21-2)とを共通の撮像条件のもとで時間的に相互に並列に動作させることと、前記第1撮像装置(21-1)が撮像した第1動画(V1)と前記第2撮像装置(21-2)が撮像した第2動画(V2)との合成により合成動画(V)を生成することとを含む。
[Additional note 9]
A video recording method according to one aspect (Appendix 9) of the present disclosure includes a first imaging device (21-1) in a first real space (R1) and a second imaging device (21-1) in a second real space (R2). 21-2) are operated temporally in parallel with each other under a common imaging condition, and the first moving image (V1) captured by the first imaging device (21-1) and the second imaging This includes generating a composite video (V) by combining it with the second video (V2) captured by the device (21-2).
[付記10]
本開示のひとつの態様(付記10)に係るプログラムは、第1現実空間(R1)内の第1撮像装置(21-1)と第2現実空間(R2)内の第2撮像装置(21-2)とを共通の撮像条件のもとで時間的に相互に並列に動作させる撮像制御部(41)、および、前記第1撮像装置(21-1)が撮像した第1動画(V1)と前記第2撮像装置(21-2)が撮像した第2動画(V2)との合成により合成動画(V)を生成する動画合成部(43)、としてコンピュータシステムを機能させる。
[Additional note 10]
A program according to one aspect (Appendix 10) of the present disclosure includes a first imaging device (21-1) in a first real space (R1) and a second imaging device (21-1) in a second real space (R2). 2) and a first moving image (V1) captured by the first imaging device (21-1); The computer system is made to function as a video composition unit (43) that generates a composite video (V) by combining it with the second video (V2) captured by the second imaging device (21-2).
[付記11]
本開示のひとつの態様(付記11)に係る動画収録システム(100)は、現実空間(R1)内の撮像装置(21-1)の撮像条件を制御する撮像制御部(41)と、仮想空間(Rx)を仮想撮像装置(50)により撮像した仮想動画(Vx)を生成する動画生成部(42)と、前記第1撮像装置(21-1)が撮像した動画(V1)と動画生成部(42)が生成した仮想動画(Vx)との合成により合成動画(V)を生成する動画合成部(43)とを具備し、前記動画生成部(42)は、前記仮想撮像装置(50)の撮像条件を、前記撮像装置(21-1)の撮像条件に応じて制御する。以上の態様によれば、撮像装置(21-1)の撮像条件と仮想撮像装置(50)の撮像条件とが相互に連動する。したがって、現実空間(R1)内の被写体(Q1)と仮想空間(Rx)内の被写体(P)とが恰も共通の空間内に所在するかのような自然な合成動画(V)を生成できる。なお、以上に例示した付記11には、前述の付記1ないし付記10から選択された1以上の態様が任意に適用される。
[Additional note 11]
A video recording system (100) according to one aspect (Appendix 11) of the present disclosure includes an imaging control unit (41) that controls imaging conditions of an imaging device (21-1) in a real space (R1), and a virtual space. a video generation unit (42) that generates a virtual video (Vx) captured by the virtual imaging device (50); a video (V1) captured by the first imaging device (21-1); and a video generation unit (42) includes a video synthesis unit (43) that generates a composite video (V) by combining with the virtual video (Vx) generated by the virtual imaging device (50), and the video generation unit (42) The imaging conditions of the imaging device (21-1) are controlled according to the imaging conditions of the imaging device (21-1). According to the above aspect, the imaging conditions of the imaging device (21-1) and the imaging conditions of the virtual imaging device (50) are linked to each other. Therefore, it is possible to generate a natural composite video (V) in which the subject (Q1) in the real space (R1) and the subject (P) in the virtual space (Rx) appear as if they were located in a common space. Note that one or more aspects selected from the above-mentioned
100…動画収録システム、200…端末装置、20-1,20-2,20-n…収録システム、21-1,21-2,21-n…撮像装置、22-1,22-2,22-n…収音装置、23-1,23-2,23-n…通信装置、30…制御システム、31…制御装置、32…記憶装置、33…通信装置、34…操作装置、35…再生装置、41…撮像制御部、42…動画生成部、43…動画合成部、44…再生制御部、45…照明制御部、50…仮想撮像装置、61-1,61-2,61-n…再生装置、63-1,63-2,63-n…照明装置。 100... Video recording system, 200... Terminal device, 20-1, 20-2, 20-n... Recording system, 21-1, 21-2, 21-n... Imaging device, 22-1, 22-2, 22 -n...Sound collection device, 23-1, 23-2, 23-n...Communication device, 30...Control system, 31...Control device, 32...Storage device, 33...Communication device, 34...Operation device, 35...Reproduction Apparatus, 41... Imaging control unit, 42... Moving image generation unit, 43... Moving image synthesis unit, 44... Playback control unit, 45... Lighting control unit, 50... Virtual imaging device, 61-1, 61-2, 61-n... Reproduction device, 63-1, 63-2, 63-n... lighting device.
Claims (10)
前記第1撮像装置が撮像した第1動画と前記第2撮像装置が撮像した第2動画との合成により合成動画を生成する動画合成部と
を具備する動画収録システム。 an imaging control unit that causes a first imaging device in a first real space and a second imaging device in a second real space to operate temporally in parallel with each other under a common imaging condition;
A video recording system comprising: a video composition unit that generates a composite video by combining a first video captured by the first imaging device and a second video captured by the second imaging device.
前記動画合成部は、前記第1動画と前記第2動画と前記仮想動画との合成により前記合成動画を生成する
請求項1の動画収録システム。 further comprising a video generation unit that generates a virtual video obtained by capturing an image of the virtual space with a virtual imaging device,
The video recording system according to claim 1, wherein the video composition unit generates the composite video by combining the first video, the second video, and the virtual video.
前記第1動画から第1被写体を抽出し、
前記第2動画から第2被写体を抽出し、
前記第1被写体と前記第2被写体と前記仮想動画との合成により前記合成動画を生成する
請求項2の動画収録システム。 The video compositing unit is
extracting a first subject from the first video;
extracting a second subject from the second video;
The video recording system according to claim 2, wherein the composite video is generated by combining the first subject, the second subject, and the virtual video.
請求項2または請求項3の動画収録システム。 The video recording system according to claim 2 or 3, wherein the video generation unit controls imaging conditions of the virtual imaging device according to the common imaging conditions.
前記撮像制御部の制御による前記第1撮像装置の動作の結果を表す第1動作データを当該第1撮像装置から取得し、
前記仮想撮像装置の撮像条件を、前記第1動作データに応じて制御する
請求項4の動画収録システム。 The video generation unit includes:
acquiring first operation data representing a result of the operation of the first imaging device under control of the imaging control unit from the first imaging device;
The video recording system according to claim 4, wherein imaging conditions of the virtual imaging device are controlled according to the first operation data.
前記動画合成部は、
前記第2動画から第2被写体を抽出し、
前記第2被写体を前記第1動画に合成することで前記合成動画を生成する
請求項1の動画収録システム。 The first video includes a background and a first subject,
The video compositing unit is
extracting a second subject from the second video;
The video recording system according to claim 1, wherein the composite video is generated by combining the second subject with the first video.
をさらに具備する請求項1の動画収録システム。 The video recording system according to claim 1, further comprising: a playback control unit that causes a first playback device in the first real space to play back the composite video generated by the video composition unit.
をさらに具備する請求項1の動画収録システム。 The video recording system according to claim 1, further comprising: a lighting control unit that operates a first lighting device in the first real space and a second lighting device in the second real space under a common lighting condition.
前記第1撮像装置が撮像した第1動画と前記第2撮像装置が撮像した第2動画との合成により合成動画を生成することと
を含むコンピュータシステムにより実現される動画収録方法。 Operating a first imaging device in a first real space and a second imaging device in a second real space temporally in parallel with each other under a common imaging condition;
A video recording method realized by a computer system, comprising: generating a composite video by combining a first video captured by the first imaging device and a second video captured by the second imaging device.
前記第1撮像装置が撮像した第1動画と前記第2撮像装置が撮像した第2動画との合成により合成動画を生成する動画合成部、
としてコンピュータシステムを機能させるプログラム。 an imaging control unit that causes a first imaging device in a first real space and a second imaging device in a second real space to operate temporally in parallel with each other under a common imaging condition;
a video synthesis unit that generates a composite video by combining a first video captured by the first imaging device and a second video captured by the second imaging device;
A program that makes a computer system function as a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022104401A JP2024004671A (en) | 2022-06-29 | 2022-06-29 | Moving image recording system, moving image recording method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022104401A JP2024004671A (en) | 2022-06-29 | 2022-06-29 | Moving image recording system, moving image recording method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024004671A true JP2024004671A (en) | 2024-01-17 |
Family
ID=89540079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022104401A Pending JP2024004671A (en) | 2022-06-29 | 2022-06-29 | Moving image recording system, moving image recording method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024004671A (en) |
-
2022
- 2022-06-29 JP JP2022104401A patent/JP2024004671A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9849399B2 (en) | Background imagery for enhanced pepper's ghost illusion | |
CN210021183U (en) | Immersive interactive panoramic holographic theater and performance system | |
CN105794202B (en) | Depth for video and line holographic projections is bonded to | |
KR101304111B1 (en) | A dancing karaoke system | |
US10859852B2 (en) | Real-time video processing for pyramid holographic projections | |
JP2003533235A (en) | Virtual production device and method | |
US20110304735A1 (en) | Method for Producing a Live Interactive Visual Immersion Entertainment Show | |
CN110013678A (en) | Immersion interacts panorama holography theater performance system, method and application | |
CN207460313U (en) | Mixed reality studio system | |
CN105938541B (en) | System and method for enhancing live performances with digital content | |
WO2015151766A1 (en) | Projection photographing system, karaoke device, and simulation device | |
US20160266543A1 (en) | Three-dimensional image source for enhanced pepper's ghost illusion | |
KR101392406B1 (en) | Method and Apparatus for Chromakey compositing of Subject Image and Background Image | |
JP2022058501A (en) | Hall display system and event execution method using the same | |
US20200371420A1 (en) | Entertainment presentation systems and method | |
JP2024004671A (en) | Moving image recording system, moving image recording method, and program | |
TWI706292B (en) | Virtual Theater Broadcasting System | |
JP2008236708A (en) | Medium production apparatus for virtual film studio | |
JP2024051665A (en) | Video synthesis system, video synthesis method, and program | |
KR101486959B1 (en) | Karaoke System to improve the immersion. | |
US20240075402A1 (en) | System and method for peppers ghost filming and display | |
KR101743874B1 (en) | System and Method for Creating Video Contents Using Collaboration of Performing Objects | |
TWI263156B (en) | Automatic program production system and method thereof | |
JP6403649B2 (en) | Aerial image rendering device and control method thereof | |
JP2023130363A (en) | Display system for hall and method for executing event using the same |