JP2023094758A - 動画作成システム、動画作成装置、及び動画作成用プログラム - Google Patents

動画作成システム、動画作成装置、及び動画作成用プログラム Download PDF

Info

Publication number
JP2023094758A
JP2023094758A JP2021210260A JP2021210260A JP2023094758A JP 2023094758 A JP2023094758 A JP 2023094758A JP 2021210260 A JP2021210260 A JP 2021210260A JP 2021210260 A JP2021210260 A JP 2021210260A JP 2023094758 A JP2023094758 A JP 2023094758A
Authority
JP
Japan
Prior art keywords
character
virtual space
unit
moving image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021210260A
Other languages
English (en)
Other versions
JP7167388B1 (ja
Inventor
正啓 榊原
Masahiro Sakakibara
将司 菰下
Masashi Komoshita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Redefine Arts
Redefine Arts Co Ltd
Original Assignee
Redefine Arts
Redefine Arts Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Redefine Arts, Redefine Arts Co Ltd filed Critical Redefine Arts
Priority to JP2021210260A priority Critical patent/JP7167388B1/ja
Application granted granted Critical
Publication of JP7167388B1 publication Critical patent/JP7167388B1/ja
Priority to PCT/JP2022/047566 priority patent/WO2023120691A1/ja
Publication of JP2023094758A publication Critical patent/JP2023094758A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Figure 2023094758000001
【課題】仮想空間におけるキャラクターの撮影動画を作成する際に視聴者を飽きさせない動画を簡便に作成する。
【解決手段】仮想空間の表示データ及びキャラクターの表示データが保存された記憶部11と、キャラクターの動作を入力する動作入力端末22と、キャラクターの表示データを読み出し動作入力端末への入力に応じて仮想空間で当該キャラクターを動作させるキャラクター動作制御部124と、全景位置及びキャラクター捕捉位置を設定する撮影位置設定部125と、全景位置又はキャラクター捕捉位置を撮影位置とする入力を受け付ける撮影位置選択部13と、受け付けられた撮影位置で仮想空間を撮影することにより得られる画像データを生成する仮想空間撮影部126と、仮想空間撮影部により得られる画像のデータを記録して動画のデータを作成する動画作成部128とを備える動画作成システム1。
【選択図】図2

Description

本発明は、仮想空間において動作するキャラクターを撮影した動画を作成する技術に関する。
自らがダンスしたり歌唱したりしている様子を撮影して動画を作成し、インターネット上に設けられた動画投稿サイトやソーシャルネットワーキングサービスの個人ページにその動画を投稿することが広く行われている。こうした動画を作成する際には、動画作成者が自宅の一角に設けた撮影スタジオで画像を撮影することが一般的である。
しかし、自宅に設けることが可能な撮影スタジオの広さや内装のバリエーションには限りがある。ユーチューバーと呼ばれるような動画の投稿を職業とする者は、動画を作成する毎にその動画に合わせた撮影スタジオを確保する場合もあるが、それには時間とコストがかかる。
このような問題を解決することが可能な技術として、近年、コンピュータグラフィックス(CG)が用いられている。CGを用いると、任意の撮影スタジオの内部空間を模した仮想空間を設定することができる。また、その仮想空間に任意のキャラクターを登場させることもできる。
例えば、特許文献1には、テレビ局のスタジオを模した仮想空間にCGキャラクターを登場させ、そのCGキャラクターを該仮想空間内に配置した仮想カメラで撮影して動画(製作動画)を作成する動画像作成方法が記載されている。この動画像作成方法は、製作動画を撮影するためのカメラに加え、CGキャラクターの配置や動作を確認するためのカメラを配置し、それぞれのカメラで捉えた画像をプレビュー画面で切り替え表示しながら編集し、最終的に製作動画を完成することを特徴としている。具体的な一例として、テレビスタジオを模した仮想空間に二人のCGキャラクターを配置し、該仮想空間の略正面に位置するカメラで二人のCGキャラクターを撮影した画像によって製作動画を構成することが記載されている。
特開2001-202531号公報
上記の例では製作動画の撮影には1台のカメラのみを用いるため、最終的に得られる動画は単一の画角でCGキャラクターを捉えた単調なものになってしまい、視聴者が見ているうちに飽きてしまう。製作動画撮影用のカメラを複数台用いれば、画角が異なる複数の画像を取得することができる。しかし、最終的に1つの動画を作成するためには、複数のカメラのそれぞれで仮想空間を並行して撮影することにより得られた多数の動画を確認して所望の部分を選択し、さらにそれらを組み合わせる作業が必要であり、時間と手間がかかる。
本発明が解決しようとする課題は、仮想空間において動作するキャラクターを撮影した動画を作成する際に、視聴者を飽きさせない動画を簡便に作成することができる技術を提供することである。
上記課題を解決するために成された本発明は、仮想空間において動作するキャラクターの動画を作成するシステムであって、
仮想空間の表示データ及びキャラクターの表示データが保存された記憶部と、
前記キャラクターの動作を入力する動作入力端末と、
前記記憶部から前記キャラクターの表示データを読み出し、前記動作入力端末における入力に応じて前記仮想空間で当該キャラクターを動作させるキャラクター動作制御部と、
前記仮想空間の全景を捉える全景位置、及び前記仮想空間におけるキャラクターを予め決められた画角で捉えるキャラクター捕捉位置を設定する撮影位置設定部と、
前記全景位置又は前記キャラクター捕捉位置を撮影位置として選択する入力を受け付ける撮影位置選択部と、
前記撮影位置選択部により受け付けられた撮影位置において仮想カメラで前記仮想空間を撮影することにより得られる画像のデータを生成する仮想空間撮影部と、
前記仮想空間撮影部により得られる画像のデータを順次記録して動画のデータを作成する動画作成部と
を備えることを特徴とする。
上記仮想空間は、実在する空間を模したものであってもよく、実在しない空間であってもよい。また、上記キャラクターは、実際に存在する俳優やアイドルなどの有名人を模したものであってもよく、実在しないものであってもよい。さらには、人間に限らず動物やロボット、あるいは様々なものを擬人化したものであってもよい。
また、上記動作入力端末には、例えば、モーションキャプチャーや、キャラクターの動作とボタンの関係が予め規定されたコントローラなどを用いることができる。
さらに、上記画像や動画のデータは、画像ファイル形式や動画ファイル形式のみには限定されない。例えば、仮想空間の表示データ、仮想空間におけるキャラクターの位置情報及び姿勢情報のデータ、及び当該時点で選択されている撮影位置の情報など、画像や動画を再構成するために必要なパラメータを相互に対応づけたものであってもよい。
本発明に係る動画作成システムでは、例えば、動画作成者であるディレクターが、予め用意された脚本やシナリオに基づいて、映画、ドラマ、コマーシャル動画などの様々な動画を作成することができる。その際には、例えば、実在の俳優を模したキャラクターの動作を当該俳優自らが入力することにより仮想空間で動作させる。キャラクターが動作を開始すると、ディレクターは、当該キャラクターの動作を最も効果的に捉える全景位置又はキャラクター捕捉位置を選択する入力を行う。仮想空間撮影部は、入力された位置で仮想空間を撮影することにより得られる画像のデータを生成し、これを受けて、動画作成部は、その画像データを順次記録した画像のデータを作成する。本発明では、撮影中に、適宜のタイミングで、監督が撮影位置を選択する入力を行うのみで、仮想空間で動作するキャラクターを異なる画角で捉えた画像で構成される動画を簡便に作成することができる。
上記課題を解決するために成された本発明の別の態様は、仮想空間において動作するキャラクターの動作を入力する動作入力端末と接続可能に構成された、該キャラクターの動画を作成する装置であって、
仮想空間の表示データ及びキャラクターの表示データが保存された記憶部と、
前記記憶部から前記キャラクターの表示データを読み出し、前記動作入力端末における入力に応じて前記仮想空間で当該キャラクターを動作させるキャラクター動作制御部と、
前記仮想空間の全景を捉える全景位置、及び前記仮想空間におけるキャラクターを予め決められた画角で捉えるキャラクター捕捉位置を設定する撮影位置設定部と、
前記全景位置又は前記キャラクター捕捉位置を撮影位置として選択する入力を受け付ける撮影位置選択部と、
前記撮影位置選択部により受け付けられた撮影位置において仮想カメラで前記仮想空間を撮影することにより得られる画像のデータを生成する仮想空間撮影部と、
前記仮想空間撮影部により得られる画像のデータを順次記録して動画のデータを作成する動画作成部と
を備えることを特徴とする。
上記課題を解決するために成された本発明のさらに別の態様は、仮想空間において動作するキャラクターの動画を作成するために用いられる動画作成用プログラムであって、該仮想空間において動作するキャラクターの動作を入力する動作入力端末と接続可能に構成され、該仮想空間の表示データ及びキャラクターの表示データが保存された記憶部を備えたコンピュータを、
前記記憶部から前記キャラクターの表示データを読み出し、前記動作入力端末における入力に応じて前記仮想空間で当該キャラクターを動作させるキャラクター動作制御部と、
前記仮想空間の全景を捉える全景位置、及び前記仮想空間におけるキャラクターを予め決められた画角で捉えるキャラクター捕捉位置を設定する撮影位置設定部と、
前記全景位置又は前記キャラクター捕捉位置を撮影位置として選択する入力を受け付ける撮影位置選択部と、
前記撮影位置選択部により受け付けられた撮影位置において仮想カメラで前記仮想空間を撮影することにより得られる画像のデータを生成する仮想空間撮影部と、
前記仮想空間撮影部により得られる画像のデータを順次記録して動画のデータを作成する動画作成部と
として動作させることを特徴とする。
本発明に係る動画作成システム、動画作成装置、又は動画作成用プログラムでは、さらに、
前記全景位置において前記仮想カメラで前記仮想空間を撮影した画像と、前記キャラクター捕捉位置において前記仮想カメラで前記仮想空間を撮影した画像とを表示する撮影画像表示部
を備えることが好ましい。
上記撮影画像表示部を備えた態様の動画作成システム、動画作成装置、又は動画作成用プログラムでは、動画作成者が、実際に仮想空間を捉えた画像を確認しつつ、撮影位置を選択することができる。
本発明に係る動画作成システム、動画作成装置、又は動画作成用プログラムでは、さらに、
前記キャラクターの視点で前記仮想空間を捉えた画像を表示するキャラクター視点表示部
を備えることが好ましい。
上記キャラクター視点表示部を備えた態様の動画作成システム、動画作成装置、又は動画作成用プログラムでは、キャラクターを動作させようとする者がキャラクター視点表示部を用いることにより、仮想空間の内部に没入して、よりリアリティのある動作を入力することができる。そのようなキャラクター視点表示部には、VRゴーグルを好適に用いることができる。
本発明に係る動画作成システム、動画作成装置、又は動画作成用プログラムを用いることにより、視聴者を飽きさせない動画を簡便に作成することができる。
本発明に係る動画作成システムの一実施例の全体構成図。 本実施例の動画作成システムを構成するディレクター装置と演者装置の要部構成図。 本実施例においてディレクター装置の表示部に表示される画面の例。 本実施例におけるシーンと仮想カメラの配置の一例。 本実施例において作成される動画の構成を説明する図。
本発明に係る動画作成システム、動画作成装置、及び動画作成用プログラムの実施例について、以下、図面を参照して説明する。本実施例の演劇型ロールプレイ記録動画作成システムは、実在する空間を模した仮想空間において、実在する俳優を模したキャラクターを動作させることにより映画を撮影するために用いられる。
本実施例の動画作成システム1は、図1及び図2に示すように、大別して、ディレクター装置10(本発明における動画作成装置に相当)と、複数の演者装置20で構成される。ディレクター装置10と演者装置20はネットワークを介して相互に接続されている。図1には5台の演者装置20を示し、図2には1台の演者装置20のみを示しているが、演者装置20の数は適宜に変更可能である。
図2に、ディレクター装置10と演者装置20の要部構成を示す。ディレクター装置10は、本実施例のように映画を製作する場合、例えば、映画監督やカメラマンによって用いられる。以下の説明では、ディレクター装置10を使用して動画を作成する者を「ディレクター」と呼ぶ。
ディレクター装置10は、記憶部11を備えている。記憶部11内には、映画、ドラマ、コマーシャル動画などで使用可能である1乃至複数のシーンの名称と、各シーンの表示データとが対応付けられたものが保存されたシーン表示データ記憶部111、1乃至複数のキャラクターの名称と、各キャラクターの表示データと対応付けられたもが保存されたキャラクター表示データ記憶部112、バックグラウンドミュージック等の音楽データや、効果音などのデータが保存された音声データ記憶部113、動画に挿入するために使用する画像や動画のデータが保存された挿入画像データ記憶部114、各シーンにおける仮想空間の撮影位置及び各キャラクターの撮影位置に関する情報が保存された撮影位置記憶部115、仮想カメラ(後記)により撮影される画面が保存される撮影画面記憶部116、及び作成した動画が保存される動画記憶部117が設けられている。その他、記憶部11には、動画作成の分野においてエフェクトと呼ばれる各種の映像効果の情報が保存されている。
シーン表示データ記憶部111に保存されるシーン表示データには、同一の空間に関する複数の表示データが含まれうる。例えば、日中の寺院と夜間の寺院の表示データや、教師や生徒(演者が演じるキャラクター以外の存在。いわゆるモブキャラ。)がいる学校の教室と生徒がいない学校の教室、街中の風景であって人のいない風景と雑踏の風景(モブキャラを含む風景)などが含まれうる。モブキャラの有無については、モブキャラを含む仮想空間の表示データとモブキャラを含まない仮想空間の表示データをそれぞれ独立した表示データとして保存しておいてもよく、モブキャラを含まない仮想空間の表示データと、モブキャラのみの表示データを保存しておき、後者の使用が選択された場合に両者を重畳表示するようにしてもよい。また、モブキャラの表示データは、静止画像であってもよく、予め決められた動き(例えば、教室内で生徒が談笑する様子や、多数の人が横断歩道を歩行する様子など)を持たせたものでもよい。また、本実施例におけるモブキャラには、人や動物に限らず、例えば、天空を一定の速度で移動する太陽、星、月なども含まれうる。
また、ディレクター装置10は、機能ブロックとして、キャラクター設定部121、端末決定部122、シーン設定部123、キャラクター表示制御部124、撮影位置設定部125、仮想空間撮影部126、撮影画面切替部127、及び動画作成部128を有している。ディレクター装置10の実体は、一般的なパーソナルコンピュータであり、予めインストールされた動画作成用プログラム12をプロセッサで実行することにより具現化される。ディレクター装置10には、キーボードやマウスなどを含む入力部13と、液晶ディスプレイなどで構成される表示部14が接続されている。あるいは、ディレクター装置10がタッチパネル式のものである場合には、入力部13と表示部14を兼ねたディスプレイを備える。
演者装置20は、映画に登場するキャラクターの動作を演じる俳優などの演者が使用する端末である。演者装置20は、VRゴーグル21(本発明におけるキャラクター視点表示部に相当)と、モーションセンサ22(本発明における動作入力端末に相当)を備えている。モーションセンサ22には、演者が所定の位置に装着する複数のセンサ221(センサ群)と、該複数のセンサ221の動きを検出する動作検出部222が含まれる。複数の演者装置20には、それぞれの演者装置20を識別する識別番号が付されている。
次に、本実施例の動画作成システムにおいて映画を撮影する際の流れを説明する。シーン表示データ記憶部111に保存される各シーンの表示データ、キャラクター表示データ記憶部112に保存されるキャラクターの表示データ、音声データ記憶部113に保存される音楽や効果音のデータ、及び挿入画像データ記憶部114に保存される挿入用の画像や動画のデータについては、動画の製作に必要なものを予め作成して保存しておく。
まず、ディレクターは、自らが使用する端末からディレクター装置10にログインし、映画の製作開始を指示する所定の入力操作を行う。
映画の製作開始が指示されると、キャラクター設定部121は、キャラクター表示データ記憶部112に保存されている、キャラクターの名称のリストを表示部14に表示する。ディレクターが表示されたリストの中から、これから撮影する映画に登場させるキャラクターを選択すると、キャラクター設定部121は、キャラクター表示データ記憶部112から、選択されたキャラクターの情報を読み出す。ここで、ディレクターが選択するキャラクターには、プレイヤーキャラクター(演者が動作を演じるキャラクター)と、ノンプレイヤーキャラクター(ディレクター等が動作を制御するキャラクター)の2種類が含まれうる。ノンプレイヤーキャラクターは、例えば、撮影しようとする動画の一部のみに登場する脇役である。
ディレクターは、また、音声データ記憶部113に保存されている音楽や効果音のデータの中から動画の製作に必要なものを選択し、挿入画像データ記憶部114に保存されている挿入用の画像及び動画のデータの中から動画の製作に使用するものを選択する。
次に、端末決定部122は、キャラクター設定部121が読み出したプレイヤーキャラクターのリストと、ディレクター装置10に接続されている演者装置20のリストを表示部14の画面に表示する。ディレクターが、表示部14に表示されたプレイヤーキャラクターのそれぞれに演者装置20を対応付ける操作を行うと、端末決定部122は、各演者装置20にプレイヤーキャラクターを対応づけた情報を記憶部11に保存する。
ディレクター装置10により上記の各操作が行われると、ディレクター装置10から各演者装置20に対して、当該演者装置20に対応付けられたプレイヤーキャラクターの情報が送信される。演者装置20に送られる情報には、少なくともプレイヤーキャラクターの名称が含まれる。また、当該プレイヤーキャラクターに関する脚本が予め用意されている場合には、その脚本の情報も含まれうる。
その後、ディレクターが所定の入力操作により撮影の開始を指示すると、表示部14には、図3に示すようなディレクター画面40が表示される。
ディレクター画面40は、撮影画面表示部41、仮想カメラ画像表示部42、シーン俯瞰図表示部43、音声選択部44、シーン選択部45、エフェクト選択部46、及び画角調整部47を有している。
撮影画面表示部41には、後記の操作によりディレクターが選択した撮影位置で取得した仮想空間の画像が表示される。仮想カメラ画像表示部42には、撮影中の仮想空間内に配置される複数の仮想カメラの各々によって取得される画面と、イメージショットがそれぞれ表示される。イメージショットとは、例えば撮影中の映画に差し込まれる動画(例えば、オープニング動画、エンディング動画、回想シーンの動画など)や、各シーンで重要な役割を果たすアイテム等の画像である。上記の通り、これらの動画や画像については、予めディレクター等が作成したものが挿入画像データ記憶部114に保存されている。
仮想カメラが配置される位置には、仮想空間の全景を捉える位置(全景位置)、各キャラクター(プレイヤーキャラクター及びノンプレイヤーキャラクター)を個別にアップで捉える(キャラクター捕捉位置)位置が含まれる。図4に示すように、キャラクター捕捉位置は、対象のキャラクターを仮想カメラ6により所定の画角で捉える位置であり、キャラクターの移動に伴ってキャラクター捕捉位置も変化する。図4にはキャラクターごとに1つの仮想カメラのみを示しているが、例えば映画の主役となるキャラクターや、各シーンで重要な役割を果たすキャラクターについては、当該キャラクターを異なる画角で捉える複数の仮想カメラを設けてもよい。なお、撮影開始前や撮影中に、ディレクターが画角調整部47を通じて対象の仮想カメラを選択して画角を変更する操作を行うことにより、当該カメラの画角(仮想空間を捉える画角、及び各キャラクターを捉える画角)を適宜に変更することができる。
本実施例では、仮想カメラ画像表示部42に、全景位置から広角レンズで仮想空間の全景を捉えた画像を表示する全景画像表示部421、該全景位置から標準レンズで予め決められた画角で仮想空間(例えば、当該シーンにおける中心位置を含む空間や、当該シーンにおいて各キャラクターが主に位置する空間。図3の例ではソファー。)を捉えた画像を表示する標準画像表示部422、キャラクター捕捉位置から各キャラクター(プレイヤーキャラクター及びノンプレイヤーキャラクター)を捉えた画像を表示するキャラクター画像表示部423~427(プレイヤーキャラクターa, b, c, dの画像を表示するキャラクター画像表示部423~426、ノンプレイヤーキャラクターAの画像を表示するキャラクター画像表示部427)及びイメージショットを表示するイメージショット表示部428、429(挿入用の画像428と挿入用の動画429)が表示される。なお、キャラクター画像表示部423~427の数は当該シーンに登場するプレイヤーキャラクターとノンプレイヤーキャラクターの数、及び各キャラクターのキャラクター捕捉位置の数によって適宜に変更される。また、イメージショット表示部428、429についても同様に、当該シーンで必要となる画像や動画の数に応じて適宜に変更可能である。
シーン俯瞰図表示部43には、展開中のシーンの仮想空間における各キャラクターの位置を示す平面図が表示される。音声選択部44には、音声データ記憶部113に予め保存された音楽(バックグラウンドミュージック等)や効果音の一覧が表示される。シーン選択部45には、シーン表示データ記憶部111に保存されているシーンの一覧が表示される。エフェクト選択部46には、各種の映像効果の一覧が表示される。映像効果は、動画作成の分野においてエフェクトと呼ばれるものであり、当該分野で従来知られている様々な種類のものを用いることができる。
画角調整部47には、ディレクターが選択した仮想カメラの名称(プレイヤーキャラクターaの第1カメラなど)、当該仮想カメラの現在の画角、及び該画角を変更するための操作ボタン)が表示される。画角調整部47には、プルダウンメニューが設けられており、これを操作することにより画角調整部47において画角を調整する対象の仮想カメラを選択することができる。
本実施例では、操作ボタンとして、仮想カメラの位置を左右(典型的には水平)方向に移動させる水平移動部471、上下(典型的には鉛直)方向に移動させる鉛直移動部472、及び拡大率を変更する拡大率偏向部473が表示される。仮想カメラの画角の変更は、画角調整部47内のカーソルをマウスで操作することにより行ってもよく、キーボードの上下左右のキーや、テンキーと、仮想カメラの移動及び拡大/縮小を対応づけておき、それらのキーを押すことにより行ってもよい。また、本実施例の画角調整部47に代えて、仮想空間における仮想カメラの三次元位置及び拡大率を数値入力することにより仮想カメラの画角を調整するものとしてもよい。
各プレイヤーキャラクターを動作させる俳優等の演者は、撮影中、VRゴーグル21を装着し、身体の予め決められた複数の位置にそれぞれセンサ221を装着する。撮影中、ディレクター装置10のキャラクター表示制御部124から、当該VRゴーグル21を含む演者装置20に対応付けられたプレイヤーキャラクターの視点で仮想空間を見た画像のデータが演者装置20に送信され、その画像がVRゴーグル21に表示される。各演者は、VRゴーグル21を通じて仮想空間を確認することで、より没入感のある演技を行うことができる。
また、ディレクター(又はその補助者)は、キーボードやマウス等の入力部13を通じて、ノンプレイヤーキャラクターの動作を制御する。ノンプレイヤーキャラクターの動作は、予めキーボードの所定のボタンやマウスの操作と対応付けられている。本実施例ではノンプレイヤーキャラクターの動作を入力するために入力部13を用いるが、入力部13とは別に、ノンプレイヤーキャラクターの動作を入力するための第2入力部を設けてもよい。第2入力部には、例えば演者装置20が有するモーションセンサ22と同様のものを用いることができる。
撮影中、演者が身体を動かすと、動作検出部222は、演者の身体に装着された複数のセンサ221のそれぞれの動きを検出し、各センサの移動情報をディレクター装置10に送信する。ディレクター装置10では、受信した情報に基づいて、キャラクター表示制御部124が仮想空間内のプレイヤーキャラクターを動作させる。また、キャラクター表示制御部124は、動作させた後のプレイヤーキャラクターの位置や視線の方向に基づいて、当該プレイヤーキャラクターの視野の情報を更新して演者装置20に送信する。さらに、入力部13を通じた所定の入力操作を受けて、キャラクター表示制御部124は、仮想区間内のノンプレイヤーキャラクターを動作させる。
ディレクターがシーン選択部45に表示されているシーン一覧から、これから撮影しようとするシーン(例えばシーン1)を選択すると、シーン設定部123は、対応するシーンの表示データをシーン表示データ記憶部111から読み出す。各シーンには、当該シーンにおける初期撮影画像の情報(例えば全景画像)が対応付けられており、撮影位置設定部125によって当該位置が全景位置として設定される。さらに、仮想空間撮影部126は、全景位置から広角レンズを有する仮想カメラで仮想空間を撮影した全景画像のデータと、該全景位置から標準レンズで仮想空間を撮影した標準画像のデータを取得する。全景位置で取得された2つの画像(全景画像と標準画像)のデータはディレクター装置10の撮影画面記憶部116に保存される。また、全景画像は全景画像表示部421に表示され、標準画像は標準画像表示部422に表示される。
各演者が演者装置20に対する所定の入力操作により演技(プレイヤーキャラクターの動作)の開始を指示すると、キャラクター表示制御部124が、キャラクター表示データ記憶部112から当該プレイヤーキャラクターの表示データを読み出し、現在のシーンにおいて予め決められた位置にそのプレイヤーキャラクターを表示する。その後、演者が演技を開始すると、当該演者の身体に取り付けられたセンサの動きを動作検出部222が検出して動作データをディレクター装置10に送信し、その動作データに基づいてキャラクター表示制御部124が仮想空間内で当該キャラクターを動作させる。また、ディレクター又はその補助者が入力部13を通じて所定の入力操作によりノンプレイヤーキャラクターの登場を指示すると、キャラクター表示制御部124が、キャラクター表示データ記憶部112から当該ノンプレイヤーキャラクターの表示データを読み出し、現在のシーンにそのノンプレイヤーキャラクターを登場させる。
また、仮想空間に各キャラクターを表示すると同時に、撮影位置設定部125は、各キャラクターを予め決められた画角で捉えるキャラクター捕捉位置を設定する。撮影開始後、撮影位置設定部125は、プレイヤーキャラクターやノンキャラクターの移動に合わせてキャラクター捕捉位置も移動させる。仮想空間撮影部126は、各キャラクターのキャラクター捕捉位置で対象のキャラクターを撮影した画像データを取得する。各キャラクターを撮影した画像のデータは撮影画面記憶部116に保存され、また、キャラクター画像表示部423~427に表示される。
撮影開始時点では、ディレクター装置10の表示部14の撮影画面表示部41に初期設定画像(本実施例では全景画像)が表示される。動画作成部128は、撮影開始と同時に、撮影画面表示部41に表示される画像データを順次、動画記憶部117に保存する。また、各撮影位置に配置された仮想カメラにより所定の時間間隔で撮影される画像も順次、参照画像として撮影画面記憶部116に保存していく。
ディレクターは、各シーンに設定されている内容に沿って、各演者に当該演者が演じるキャラクターの動作を促す。ディレクターと各演者が同じ場所にいる場合には、ディレクターが撮影開始や撮影終了の音声を発することにより演者に撮影開始や撮影終了を伝達する。ディレクターと各演者が別の場所にいる場合には、ディレクターによる所定の入力操作に応じて、各演者が装着するVRゴーグル21に表示する画面に撮影開始前のカウントダウン及び撮影終了を重畳表示する等の構成を採ればよい。あるいは、ディレクターが装着したマイクを通じて撮影開始や撮影終了の音声を発し、演者が装着したイヤホンなどでその指示を聞き取るようにしてもよい。
ディレクターは、シナリオの進行に沿って、入力部13を通じて、仮想カメラ画像表示部42の中からいずれかのキャラクター(プレイヤーキャラクター又はノンプレイヤーキャラクター)のキャラクター画像表示部(423~427のいずれか)を選択する。すると、撮影画面切替部127は、ディレクター装置10の表示部14の撮影画面表示部41に、選択された画像を表示する。このように、ディレクターによって仮想カメラ画像表示部42の中のいずれかが選択されると、撮影画面切替部127は撮影画面表示部41の表示を、ディレクターにより選択されたものに切り替える。例えば、図5に示すように、開始時にはシーン全体を捉える全景画像を表示しておき(図5(a))、撮影の進行に合わせて、各時点で注目すべきキャラクターをアップで捉えた撮影画面(図5(b)、(c))に切り替える。
上記のようにディレクターが撮影画面を切り替えると、動画作成部128は、切り替え後の撮影画面(選択された位置の仮想カメラにより取得される画像)のデータを動画記憶部117に保存していく。また、ディレクターは、撮影画面の切り替えとともに、必要に応じて画角調整部47を通じて撮影画面の画角を適宜変更する。画角調整部47では、撮影画面表示部41に表示している画像を取得中の仮想カメラとそれ以外の仮想カメラの画角のいずれも調整することができる。画角調整部47において選択中の仮想カメラが、撮影画面表示部41に表示している画像を取得中のものである場合には、画角調整部47において変更した仮想カメラの画角が即時に撮影画面表示部41の画像に反映される。
ディレクターは、撮影中の適宜のタイミングでノンプレイヤーキャラクターを仮想空間に登場させ、プレイヤーキャラクターと共演させる。また、ディレクターは、音声選択部44で適宜の音声データを選択して音声データ(バックグラウンドミュージックや効果音)を動画に付与したり、エフェクト選択部46で適宜のエフェクトを選択することにより動画に映像効果を付与したりする。さらに、ディレクターは、イメージショット表示部428、429に表示されている画像や動画を選択することにより、適宜それらを動画に挿入する。これらの音声データ、エフェクト、及び挿入画像及び挿入動画は、それらが選択されたタイミングで順次、動画記憶部117に保存される。
ディレクターが、動画の撮影を終えたことを通知する所定の入力操作を行うと、動画作成部128は、一連の撮影中に順次、動画記憶部117に保存された画像のデータを用いて動画を作成し、動画の作成を完了したことを示す画面を表示部14に表示する。
なお、動画作成部128は、これらのデータを画像ファイルや動画ファイルとして保存してもよく、それ以外の形式で保存してもよい。例えば、各仮想カメラにより取得した画像のデータを、各時点の仮想空間でのプレイヤーキャラクターやノンプレイヤーキャラクターの位置情報及び姿勢情報と、当該時点で選択されている仮想カメラの情報を対応づけたファイル(このような形式のデータファイルを、以下では「パラメータデータファイル」と呼ぶ。)とし、そのパラメータデータファイルを所定の時間間隔で撮影画面記憶部116や動画記憶部117に保存してもよい。つまり、プレイ記録動画のデータは、各時点での画像を構成するために必要な情報を含んだ適宜のファイル形式で保存すればよい。画像データや動画データをパラメータデータファイル形式とすることにより、画像データ形式や動画ファイル形式に比べてデータ容量を小さく抑えることができる。
本実施例では、上記のようにリアルタイムで動画を作成し、作成した動画をディレクターが即時に確認することができる。また、本実施例の動画作成システム1では、動画記憶部117に順次、撮影画面(選択された位置の仮想カメラにより取得される画像)のデータが保存されるだけでなく、各位置に配置された仮想カメラにより撮影される画像も順次、参照画像として撮影画面記憶部116に保存される。そのため、ディレクターは、必要に応じて、これらの参照画像を用いて動画を適宜に編集することができる。また、動画の編集時に、音声データ記憶部113に保存されている音声を追加したり、挿入画像データ記憶部114に保存されている挿入画像や挿入動画を追加したり、あるいはエフェクトを追加したりすることもできる。
動画ファイルがパラメータデータファイル形式で作成されている場合には、そのファイルに含まれるパラメータを変更するのみで、簡便に適宜の対象(キャラクター等)の位置や姿勢などを変更したり、仮想カメラを変更(別の仮想カメラへの切替えや、画角の変更など)したりすることもできる。
従来、仮想空間におけるキャラクターの動作を撮影する動画作成装置では、1台の仮想カメラのみを用いていたため、最終的に得られる動画は単一の画角でキャラクターを捉えた単調なものになってしまい、視聴者が見ているうちに飽きてしまっていた。製作動画撮影用の仮想カメラを複数台用いれば、画角が異なる複数の画像を取得することができる。しかし、最終的に1つの動画を作成するためには、複数の仮想カメラのそれぞれで仮想空間を並行して撮影することにより得られた多数の動画を確認して所望の部分を選択し、さらにそれらを組み合わせる作業が必要であり、時間と手間がかかる。
一方、本実施例の動画作成システム1では、ディレクターは、予め設定された脚本に沿って俳優を演技させることにより仮想空間でプレイヤーキャラクターを動作させつつ、各時点で当該キャラクターの動作を最も効果的に捉える位置(全景位置やキャラクター捕捉位置)を選択するのみで、当該位置に配置した仮想カメラで取得した画像を順次記録した動画を簡便に作成することができる。
上記実施例は一例であって、本発明の趣旨に沿って適宜に変更することができる。上記実施例では、動画作成システム1により映画を撮影する場合を説明したが、撮影する動画の種類は任意であり、コマーシャル動画やアニメーションを作成することもできる。また、上記仮想空間は、実在する空間を模したものであってもよく、実在しない空間であってもよい。さらに、上記キャラクターは、実際に存在する俳優やアイドルなどの有名人を模したものであってもよく、実在しないものであってもよい。さらに、上記プレイヤーキャラクターやノンプレイヤーキャラクターは、人間に限らず動物やロボット、あるいは様々なものを擬人化したものであってもよい。
例えば、仮想空間として、実在する学校、病院、ホテルなどの施設を設定し、当該施設の関係者をプレイヤーキャラクターに設定して該関係者自身に演者装置20を使用させ、また、学校の生徒、病院の患者、ホテルの宿泊客などをノンプレイヤーキャラクターに設定することにより、当該施設において火災や地震などが発生した場合を想定した避難訓練を実施させることができる。その場合には、演者には予め脚本やシナリオを伝えることなく、ディレクターが適宜のタイミングで効果音や仮想空間内での突発的なイベント(可燃ガスの爆発、延焼空間の拡がり)を発生させることにより、当該関係者に臨場感や緊迫感のある避難訓練をさせることができる。そして避難訓練において注目すべき行動をとった者が演じるプレイヤーキャラクターを捉えた画像を撮影動画として選択することにより、避難訓練時に留意すべき事項の確認を行ったり、教育用の動画として用いたりすることができる。
上記実施例では演者装置20に、VRゴーグル21とモーションセンサ22を備えたものを用いたが、他のものを用いることもできる。例えば、VRゴーグル21とモーションセンサ22に代えて、モーションセンサの機能を兼ね備えたVRゴーグルを用いてもよい。また、VRゴーグル21は、プレイヤーキャラクターの視点で仮想空間を表示する機能に加え、演者の表情を検知し、それを仮想空間内のプレイヤーキャラクターの表情に反映する機能を有するものとしてもよい。あるいは、VRゴーグル21に代えて、上記実施例におけるVRゴーグル21と同様にプレイヤーキャラクターの視点で仮想空間を捉えた画像を表示するモニタを用いることができる。また、例えば、モーションセンサ22に代えて、プレイヤーキャラクターの動作とボタンの関係が予め規定されたコントローラなどを用いることができる。なお、一人の演者のみが自らのダンスなどによってプレイヤーキャラクターを動作させるような動画を撮影する場合、必ずしも演者が仮想空間の様子を確認する必要はないため、VRゴーグル21等の表示部を備えなくてもよい。
また、上記実施例の演者装置20に、演者に装着させるマイクを追加し、演者がマイクを通じて発した音声を音声データとして記録しておき、撮影画像のデータと音声データを組み合わせた動画を作成してもよい。あるいは、予め演者の音声を録音したデータを音声データ記憶部113に保存しておき、撮影中にその音声を選択することにより動画に演者の音声を重ねたり、動画撮影後に動画を編集する際にその音声を重ねたりしてもよい。
上記実施例では、シーン表示データ記憶部111に保存されているシーンの中からディレクターが撮影しようとするシーンを選択し、キャラクター表示データ記憶部112に保存されているキャラクターの中からディレクターが動画に登場させるキャラクターを選択し、挿入画像データ記憶部114に保存されている挿入用の画像や動画のデータの中からディレクターが使用する画像や動画を選択する構成としたが、別の態様を採ることもできる。例えば、撮影しようとする動画のリストを作成しておき、それぞれの動画と、該動画の撮影に使用するシーン、該動画に登場させるキャラクター、及び該動画に挿入する画像や動画のデータを対応づけたものを1つのパッケージとして保存しておき、ディレクターが1つのパッケージを選択するのみで、シーン、キャラクター、及び挿入画像及び動画を一括して選択するように構成することもできる。
上記実施例のディレクター装置10を構成する記憶部や機能ブロックについて、それらの一部又は全部の機能を、ディレクター装置10及び演者装置20と接続可能である別のコンピュータ(例えばクラウドサーバ)に設けてもよい。例えば、上記実施例のディレクター装置10の機能をクラウドサーバに設けた場合には、ディレクター装置10及び演者装置20からの入力に応じてクラウドサーバの各機能のブロックを動作させ、また、作成後の画像ファイルや動画ファイルをクラウドサーバの記憶部からディレクター装置10にダウンロードするように構成することができる。
1…動画作成システム
10…ディレクター装置
11…記憶部
111…シーン表示データ記憶部
112…キャラクター表示データ記憶部
113…音声データ記憶部
114…挿入画像データ記憶部
115…撮影位置記憶部
116…撮影画面記憶部
117…動画記憶部
12…動画作成用プログラム
121…撮影動画決定部
122…端末決定部
123…シーン設定部
124…キャラクター表示制御部
125…撮影位置設定部
126…仮想空間撮影部
127…撮影画面切替部
128…動画作成部
13…入力部
14…表示部
20…演者装置
21…VRゴーグル
22…モーションセンサ
221…センサ
222…動作検出部
40…ディレクター画面
41…撮影画面表示部
42…仮想カメラ画像表示部
421…全景画像表示部
422…標準画像表示部
423~427…キャラクター画像表示部
428、429…イメージショット表示部
43…シーン俯瞰図表示部
44…音楽選択部
45…シーン選択部
46…画像効果選択部
47…脚本表示部
6…仮想カメラ
撮影中、演者が身体を動かすと、動作検出部222は、演者の身体に装着された複数のセンサ221のそれぞれの動きを検出し、各センサの移動情報をディレクター装置10に送信する。ディレクター装置10では、受信した情報に基づいて、キャラクター表示制御部124が仮想空間内のプレイヤーキャラクターを動作させる。また、キャラクター表示制御部124は、動作させた後のプレイヤーキャラクターの位置や視線の方向に基づいて、当該プレイヤーキャラクターの視野の情報を更新して演者装置20に送信する。さらに、入力部13を通じた所定の入力操作を受けて、キャラクター表示制御部124は、仮想空間内のノンプレイヤーキャラクターを動作させる。

Claims (6)

  1. 仮想空間において動作するキャラクターの動画を作成するシステムであって、
    仮想空間の表示データ及びキャラクターの表示データが保存された記憶部と、
    前記キャラクターの動作を入力する動作入力端末と、
    前記記憶部から前記キャラクターの表示データを読み出し、前記動作入力端末における入力に応じて前記仮想空間で当該キャラクターを動作させるキャラクター動作制御部と、
    前記仮想空間の全景を捉える全景位置、及び前記仮想空間におけるキャラクターを予め決められた画角で捉えるキャラクター捕捉位置を設定する撮影位置設定部と、
    前記全景位置又は前記キャラクター捕捉位置を撮影位置として選択する入力を受け付ける撮影位置選択部と、
    前記撮影位置選択部により受け付けられた撮影位置において仮想カメラで前記仮想空間を撮影することにより得られる画像のデータを生成する仮想空間撮影部と、
    前記仮想空間撮影部により得られる画像のデータを順次記録して動画のデータを作成する動画作成部と
    を備えることを特徴とする動画作成システム。
  2. さらに、
    前記全景位置において前記仮想カメラで前記仮想空間を撮影した画像と、前記キャラクター捕捉位置において前記カメラで前記仮想空間を撮影した画像とを表示する撮影画像表示部
    を備えることを特徴とする請求項1に記載の動画作成システム。
  3. さらに、
    前記キャラクターの視点で前記仮想空間を捉えた画像を表示するキャラクター視点表示部
    を備えることを特徴とする請求項1又は2に記載の動画作成システム。
  4. さらに、
    前記全景位置及び/又は前記キャラクター捕捉位置において仮想カメラにより対象を捉える際の画角を調整する画角調整部
    を備えることを特徴とする請求項1から3のいずれかに記載の動画作成システム。
  5. 仮想空間において動作するキャラクターの動作を入力する動作入力端末と接続可能に構成された、該キャラクターの動画を作成する装置であって、
    仮想空間の表示データ及びキャラクターの表示データが保存された記憶部と、
    前記記憶部から前記キャラクターの表示データを読み出し、前記動作入力端末における入力に応じて前記仮想空間で当該キャラクターを動作させるキャラクター動作制御部と、
    前記仮想空間の全景を捉える全景位置、及び前記仮想空間におけるキャラクターを予め決められた画角で捉えるキャラクター捕捉位置を設定する撮影位置設定部と、
    前記全景位置又は前記キャラクター捕捉位置を撮影位置として選択する入力を受け付ける撮影位置選択部と、
    前記撮影位置選択部により受け付けられた撮影位置において仮想カメラで前記仮想空間を撮影することにより得られる画像のデータを生成する仮想空間撮影部と、
    前記仮想空間撮影部により得られる画像のデータを順次記録して動画のデータを作成する動画作成部と
    を備えることを特徴とする動画作成装置。
  6. 仮想空間において動作するキャラクターの動画を作成するために用いられる動画作成用プログラムであって、該仮想空間において動作するキャラクターの動作を入力する動作入力端末と接続可能に構成され、該仮想空間の表示データ及びキャラクターの表示データが保存された記憶部を備えたコンピュータを、
    前記記憶部から前記キャラクターの表示データを読み出し、前記動作入力端末における入力に応じて前記仮想空間で当該キャラクターを動作させるキャラクター動作制御部と、
    前記仮想空間の全景を捉える全景位置、及び前記仮想空間におけるキャラクターを予め決められた画角で捉えるキャラクター捕捉位置を設定する撮影位置設定部と、
    前記全景位置又は前記キャラクター捕捉位置を撮影位置として選択する入力を受け付ける撮影位置選択部と、
    前記撮影位置選択部により受け付けられた撮影位置において仮想カメラで前記仮想空間を撮影することにより得られる画像のデータを生成する仮想空間撮影部と、
    前記仮想空間撮影部により得られる画像のデータを順次記録して動画のデータを作成する動画作成部と
    として動作させることを特徴とする動画作成用プログラム。
JP2021210260A 2021-12-24 2021-12-24 動画作成システム、動画作成装置、及び動画作成用プログラム Active JP7167388B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021210260A JP7167388B1 (ja) 2021-12-24 2021-12-24 動画作成システム、動画作成装置、及び動画作成用プログラム
PCT/JP2022/047566 WO2023120691A1 (ja) 2021-12-24 2022-12-23 動画作成システム、動画作成装置、及び動画作成用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021210260A JP7167388B1 (ja) 2021-12-24 2021-12-24 動画作成システム、動画作成装置、及び動画作成用プログラム

Publications (2)

Publication Number Publication Date
JP7167388B1 JP7167388B1 (ja) 2022-11-09
JP2023094758A true JP2023094758A (ja) 2023-07-06

Family

ID=83977426

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021210260A Active JP7167388B1 (ja) 2021-12-24 2021-12-24 動画作成システム、動画作成装置、及び動画作成用プログラム

Country Status (2)

Country Link
JP (1) JP7167388B1 (ja)
WO (1) WO2023120691A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049937A (ja) * 2000-08-04 2002-02-15 Atr Ningen Joho Tsushin Kenkyusho:Kk 自律キャラクタ再現装置、仮想空間表示装置およびコンピュータ読み取り可能な記録媒体
JP2005092459A (ja) * 2003-09-16 2005-04-07 Japan Science & Technology Agency 3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体
JP2007313001A (ja) * 2006-05-25 2007-12-06 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
JP2016025876A (ja) * 2008-04-24 2016-02-12 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 動画表示にリアルタイムに参加するためのシステム及び方法並びにゲームシステム
JP2018074294A (ja) * 2016-10-26 2018-05-10 学校法人幾徳学園 情報処理システムおよび情報処理方法
JP2019219702A (ja) * 2018-06-15 2019-12-26 株式会社エクシヴィ 仮想空間における仮想カメラの制御方法
JP2020108043A (ja) * 2018-12-28 2020-07-09 グリー株式会社 動画配信システム、動画配信方法、動画配信プログラム、情報処理端末及び動画視聴プログラム
JP7018617B1 (ja) * 2020-12-11 2022-02-14 正啓 榊原 プレイ記録動画作成システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049937A (ja) * 2000-08-04 2002-02-15 Atr Ningen Joho Tsushin Kenkyusho:Kk 自律キャラクタ再現装置、仮想空間表示装置およびコンピュータ読み取り可能な記録媒体
JP2005092459A (ja) * 2003-09-16 2005-04-07 Japan Science & Technology Agency 3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体
JP2007313001A (ja) * 2006-05-25 2007-12-06 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
JP2016025876A (ja) * 2008-04-24 2016-02-12 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 動画表示にリアルタイムに参加するためのシステム及び方法並びにゲームシステム
JP2018074294A (ja) * 2016-10-26 2018-05-10 学校法人幾徳学園 情報処理システムおよび情報処理方法
JP2019219702A (ja) * 2018-06-15 2019-12-26 株式会社エクシヴィ 仮想空間における仮想カメラの制御方法
JP2020108043A (ja) * 2018-12-28 2020-07-09 グリー株式会社 動画配信システム、動画配信方法、動画配信プログラム、情報処理端末及び動画視聴プログラム
JP7018617B1 (ja) * 2020-12-11 2022-02-14 正啓 榊原 プレイ記録動画作成システム

Also Published As

Publication number Publication date
WO2023120691A1 (ja) 2023-06-29
JP7167388B1 (ja) 2022-11-09

Similar Documents

Publication Publication Date Title
Tricart Virtual reality filmmaking: Techniques & best practices for VR filmmakers
US20070122786A1 (en) Video karaoke system
KR102028139B1 (ko) 증강현실 기반의 영상 표시방법
JP6739611B1 (ja) 授業システム、視聴端末、情報処理方法及びプログラム
JP4981370B2 (ja) 動画生成システム、及び動画生成方法
WO2015151766A1 (ja) 投影撮影システム、カラオケ装置及びシミュレーション装置
Sparacino Scenographies of the past and museums of the future: from the wunderkammer to body-driven interactive narrative spaces
US20240203058A1 (en) System and method for performance in a virtual reality environment
KR102200239B1 (ko) 실시간 cg 영상 방송 서비스 시스템
JP6752349B1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP7167388B1 (ja) 動画作成システム、動画作成装置、及び動画作成用プログラム
JP2009059014A (ja) 合成画像出力装置および合成画像出力処理プログラム
JP2020194030A (ja) カラオケシステム
Kurland History of VR
KR20050047483A (ko) 화상처리장치
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
US20240114181A1 (en) Information processing device, information processing method, and program
WO2023130715A1 (zh) 一种数据处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品
Bakk VR as a narcissistic medium
Tricart VR as a Storytelling Tool
JP2008236708A (ja) バーチャル撮影スタジオの媒体制作装置
KR101743874B1 (ko) 복수의 공연객체들의 협업을 이용한 동영상 컨텐츠 생성 시스템 및 방법
Preston The Man in the Backseat: A Reflection on the Projection Design Process of Hookman
Dionysus Storytelling in a Frameless Screen: Producing Cinematic Virtual and Augmented Reality Experiences
KR20240067161A (ko) 촬영영상을 기반으로 생성된 아바타를 이용한 메타버스 공연 참여방법 및 이를 적용한 메타버스 공연시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220112

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220112

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20220121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220920

R150 Certificate of patent or registration of utility model

Ref document number: 7167388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150