JP7257986B2 - コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法 - Google Patents

コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法 Download PDF

Info

Publication number
JP7257986B2
JP7257986B2 JP2020060174A JP2020060174A JP7257986B2 JP 7257986 B2 JP7257986 B2 JP 7257986B2 JP 2020060174 A JP2020060174 A JP 2020060174A JP 2020060174 A JP2020060174 A JP 2020060174A JP 7257986 B2 JP7257986 B2 JP 7257986B2
Authority
JP
Japan
Prior art keywords
virtual
trigger
display control
control data
virtual character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020060174A
Other languages
English (en)
Other versions
JP2021009681A (ja
JP2021009681A5 (ja
Inventor
量生 川上
尚 小嶋
寛明 齊藤
俊博 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2020060174A priority Critical patent/JP7257986B2/ja
Publication of JP2021009681A publication Critical patent/JP2021009681A/ja
Publication of JP2021009681A5 publication Critical patent/JP2021009681A5/ja
Priority to JP2023060546A priority patent/JP2023100616A/ja
Application granted granted Critical
Publication of JP7257986B2 publication Critical patent/JP7257986B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示は、仮想キャラクタが配置された仮想空間をコンテンツとして配信するコンテン
ツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法に関する。また、コンテン
ツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法に関する。
特許文献1には、仮想キャラクタが配置された仮想空間をディスプレイに表示させるコ
ンテンツ配信サーバが開示されている。仮想キャラクタはユーザが動作させるものであり
、通常は、ユーザの動作が仮想キャラクタの動作に忠実に反映されるような表示が行われ
る。そのようにすることで、仮想空間に対する没入感が得られるためである。
特許第6469279号公報
しかしながら、ディスプレイの大きさは有限であるため、ユーザの動作を仮想キャラク
タの動作に忠実に反映させようとすると、仮想キャラクタが見づらくなることがある。
本開示はこのような事情に鑑み、仮想空間に配置される仮想キャラクタをより見やすく
表示させることができるコンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配
信プログラム、ならびに、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテ
ンツ表示方法を提供することを目的とする。
本開示の一態様によれば、複数の参加者のそれぞれに対応する複数の仮想キャラクタの
それぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャ
ラクタ配置取得部と、第1トリガを検知するトリガ検知部と、複数の仮想キャラクタが配
置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配
信する表示制御データ配信部と、を備え、前記表示制御データ配信部は、前記第1トリガ
が検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮
想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データ
を生成し、前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのう
ち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変
更された前記表示制御データを生成する、コンテンツ配信装置が提供される。
前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第
1参加者の端末から送信されたものであり、前記表示制御データ配信部は、前記第1トリ
ガが検知されたことに応答して、前記第1トリガが検知される前と比べて、前記第1仮想
キャラクタが強調表示されるよう、前記仮想空間における前記第1仮想キャラクタの配置
が変更された前記表示制御データであって、前記第2仮想キャラクタから見た前記仮想空
間の少なくとも一部を表示させるための前記表示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
仮想キャラクタが所定位置に近づくよう、前記仮想空間における前記第1仮想キャラクタ
の配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の
少なくとも一部を表示させるための前記表示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
仮想キャラクタが所定位置を向くよう、前記仮想空間における前記第1仮想キャラクタの
配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の少
なくとも一部を表示させるための前記表示制御データを生成するのが望ましい。
前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第
1参加者の端末から送信されたものであり、前記所定位置は、前記第2仮想キャラクタの
位置であるのが望ましい。
前記所定位置は、前記複数の仮想キャラクタのいずれとも異なる位置であるのが望まし
い。
前記所定位置は、前記複数の仮想キャラクタのうち、前記第1トリガと関連付けられて
いない第3仮想キャラクタの位置であるのが望ましい。
前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第
1参加者の端末から送信されたものであり、前記表示制御データは、前記第2仮想キャラ
クタから見た前記仮想空間の少なくとも一部を表示させるための第1表示制御データと、
前記第1トリガに関連付けられていない第3仮想キャラクタから見た前記仮想空間の少な
くとも一部を表示させるための第2表示制御データと、を含み、前記表示制御データ配信
部は、前記第1トリガが検知されたことに応答して、前記第1トリガが検知される前と比
べて、前記第1仮想キャラクタが強調表示されるよう、前記第1仮想キャラクタの配置が
変更された前記第1表示制御データを生成し、前記第1トリガが検知されるまでも、前記
第1トリガが検知された後も、前記仮想空間における前記複数の仮想キャラクタの配置を
、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記第2表
示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
仮想キャラクタおよび前記第1トリガに関連付けられた第2仮想キャラクタが互いに向き
合うよう、前記仮想空間における前記第1仮想キャラクタおよび前記第2仮想キャラクタ
の配置が変更された前記表示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
トリガに関連付けられていない第3仮想キャラクタが前記第1仮想キャラクタを向くよう
、前記仮想空間における前記第3仮想キャラクタの配置が変更された前記表示制御データ
を生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
仮想キャラクタが発話する際には前記第3仮想キャラクタが前記第1仮想キャラクタを向
くよう、前記第1トリガに関連付けられた第2仮想キャラクタが発話する際には前記第3
仮想キャラクタが前記第2仮想キャラクタを向くよう、前記仮想空間における前記第3仮
想キャラクタの配置が変更された前記表示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
トリガに関連付けられていない第3仮想キャラクタおよび第4仮想キャラクタの前記仮想
空間における位置を、前記仮想キャラクタ配置取得部によって取得された前記第3仮想キ
ャラクタおよび前記第4仮想キャラクタの相対的な位置関係を考慮して変更された前記表
示制御データを生成するのが望ましい。
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
仮想キャラクタの表示態様が変更された前記表示制御データを生成するのが望ましい。
前記第1トリガは、前記第1トリガと関連付けられた第2仮想キャラクタと、前記第1
仮想キャラとの会話開始に対応するのが望ましい。
前記トリガ検知部は、前記第1トリガが検知された後に第2トリガを検知し、前記表示
制御データ配信部は、前記第2トリガが検知されたことに応答して、配置が変更されてい
た前記第1仮想キャラクタの前記仮想空間における配置を、前記仮想キャラクタ配置取得
部によって取得された配置に従った配置に戻した前記表示制御データを生成するのが望ま
しい。
前記第2トリガは、前記第1トリガと関連付けられた第2仮想キャラクタと、前記第1
仮想キャラとの会話開始に対応するのが望ましい。
本開示の別の態様によれば、コンピュータを、複数の参加者のそれぞれに対応する複数
の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応し
て取得する仮想キャラクタ配置取得部と、第1トリガを検知するトリガ検知部と、複数の
仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御
データを生成して配信する表示制御データ配信部と、として機能させ、前記表示制御デー
タ配信部は、前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想
キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配
置とする前記表示制御データを生成し、前記第1トリガが検知されたことに応答して、前
記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前
記仮想空間における配置が変更された前記表示制御データを生成する、コンテンツ配信プ
ログラムが提供される。
本開示の別の態様によれば、仮想キャラクタ配置取得部が、複数の参加者のそれぞれに
対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の
動作に対応して取得するステップと、トリガ検知部が、第1トリガを検知するステップと
、表示制御データ配信部が、複数の仮想キャラクタが配置された前記仮想空間の少なくと
も一部を表示させるための表示制御データを生成して配信するステップと、を備え、前記
表示制御データ配信部は、前記第1トリガが検知されるまでは、前記仮想空間における前
記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配
置に従った配置とする前記表示制御データを生成し、前記第1トリガが検知されたことに
応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キ
ャラクタの前記仮想空間における配置が変更された前記表示制御データを生成する、コン
テンツ配信方法が提供される。
本開示の別の態様によれば、参加者の動作に応じて、前記参加者に対応する第1仮想キ
ャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信する仮想キ
ャラクタ制御部と、前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ配
信サーバに送信するトリガ生成部と、前記コンテンツ配信サーバから配信される表示制御
データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前
記仮想空間の少なくとも一部を表示させる表示制御部と、を備え、前記表示制御部は、前
記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置を、前
記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置とする
前記表示制御データを受信し、前記第1トリガの送信後は、前記複数の仮想キャラクタの
うち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間における配置が
変更された前記表示制御データを受信する、コンテンツ表示装置が提供される。
本開示の別の態様によれば、コンピュータを、参加者の動作に応じて、前記参加者に対
応する第1仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバ
に送信する仮想キャラクタ制御部と、前記参加者の指示に応じて、第1トリガを生成して
前記コンテンツ配信サーバに送信するトリガ生成部と、前記コンテンツ配信サーバから配
信される表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラク
タが配置された前記仮想空間の少なくとも一部を表示させる表示制御部と、として機能さ
せ、前記表示制御部は、前記第1トリガの送信前は、前記仮想空間における前記複数の仮
想キャラクタの配置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の
動作に対応した配置とする前記表示制御データを受信し、前記第1トリガの送信後は、前
記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前
記仮想空間における配置が変更された前記表示制御データを受信する、コンテンツ表示プ
ログラムが提供される。
仮想キャラクタ制御部が、参加者の動作に応じて、前記参加者に対応する第1仮想キャ
ラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信するステップ
と、トリガ生成部が、前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ
配信サーバに送信するステップと、表示制御部が、前記コンテンツ配信サーバから配信さ
れる表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが
配置された前記仮想空間の少なくとも一部を表示させるステップと、を備え、前記表示制
御部は、前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの
配置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した
配置とする前記表示制御データを受信し、前記第1トリガの送信後は、前記複数の仮想キ
ャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間にお
ける配置が変更された前記表示制御データを受信する、コンテンツ表示方法が提供される
仮想空間に配置される仮想キャラクタを見やすくできる。
一実施形態に係るコンテンツ配信システムの概略構成を示すブロック図。 参加者端末1aの概略構成を示すブロック図。 視聴者端末2の概略構成を示すブロック図。 コンテンツ配信サーバ3の概略構成を示すブロック図。 会話開始前のコンテンツ配信システムの処理動作の一例を示すシーケンス図。 アバターA~Dが仮想空間に配置された状態を模式的に示す図。 参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す図。 参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。 視聴者端末2のディスプレイ23に表示されるコンテンツを模式的に示す図。 会話開始後のコンテンツ配信システムの処理動作の一例を示すシーケンス図。 参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す図。 参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。 視聴者端末2のディスプレイ23に表示されるコンテンツを模式的に示す図。 図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。 図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。 図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。 図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。 会話終了後のコンテンツ配信システムの処理動作の一例を示すシーケンス図。
以下、本開示の実施形態について図面を参照して説明する。なお、以下に説明する実施
形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また
、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない
図1は、一実施形態に係るコンテンツ配信システムの概略構成を示すブロック図である
。コンテンツ配信システムは、参加者端末1a~1d、視聴者端末2およびコンテンツ配
信サーバ3などから構成され、これらはWAN(World Area Network)などのネットワー
クを介して通信可能に接続される。なお、便宜上、4つの参加者端末1a~1dおよび1
つの視聴者端末2を描いているが、これらの数に何ら制限はない。
このコンテンツ配信システムは、参加者端末1a~1dのユーザのそれぞれに対応する
アバター(仮想キャラクタ)が所定の仮想空間内で活動する様子(以下「コンテンツ」と
いう)を、参加者端末1a~1dや視聴者端末2でリアルタイムに視聴できるようにする
ものである。
[参加者端末1a~1dの構成]
参加者端末1a~1dはアバターを仮想空間内で活動させるユーザ(以下「参加者」と
いう)が用いるものである。なお、以下では、自身に対応するアバターを仮想空間内で活
動させることを「参加する」ともいう。そして、参加者端末1a~1dを用いる参加者を
それぞれ参加者A~Dと呼び、参加者A~Dに対応するアバターをそれぞれアバターA~
Dと呼ぶ。参加者端末1a~1dの構成は共通するため、代表して参加者端末1aについ
て説明する。
図2は、参加者端末1aの概略構成を示すブロック図である。参加者端末1aは、通信
部11、操作部12、動作入力部13、記憶部14、ディスプレイ15および制御部16
などを有する。
通信部11は、有線通信または無線通信を行うためのNIC(Network Interface Card
controller)を有する通信インターフェースであり、ネットワークを介してコンテンツ
配信サーバ3と通信を行う。操作部12は参加者が種々の指示を行うための入力インター
フェースである。動作入力部13はアバターを仮想空間内で活動させるための動作を参加
者から受け付ける入力インターフェースである。記憶部14は、RAM(Random Access
Memory)やROM(Read Only Memory)などから構成され、各種制御処理を実行するため
のプログラムや種々のデータなどを非一時的あるいは一時的に記憶する。ディスプレイ1
5にはコンテンツなどが表示される。
制御部16は、アバター制御部161、トリガ生成部162および表示制御部163な
どを有する。これら各部の少なくとも一部は、ハードウェアによって実装されてもよいし
、参加者端末1aの処理回路(プロセッサ)が記憶部14に記憶された所定のプログラム
を実行することによって実現されてもよい。
アバター制御部161は、参加者Aによる動作入力部13に対する動作に応じて、アバ
ターを仮想空間内で活動させるためのデータを生成する。ここでの活動とは、移動などの
動作や会話などである。このデータは通信部11からコンテンツ配信サーバ3に送信され
る。なお、このデータは通信部11から他の参加者端末1b~1dあるいは視聴者端末2
に送信されてもよい。
トリガ生成部162は、ユーザによる操作部12に対する所定操作あるいは動作入力部
13に対する所定動作に応じて、トリガを生成する。このトリガは通信部11からコンテ
ンツ配信サーバ3に送信される。なお、このトリガは通信部11から他の参加者端末1b
~1dあるいは視聴者端末2に送信されてもよい。本実施形態では、トリガの例として、
他ユーザに対応するアバターとの会話開始に対応する会話開始トリガと、開始された会話
の終了に対応する会話終了トリガについて述べる。後述するように、トリガに応じて仮想
空間内に配置されたアバターの配置が変更される。
表示制御部163は、コンテンツ配信サーバ3から送信される表示制御データ(後述)
を受信し、この表示制御データに基づいてディスプレイ15にコンテンツを表示させる。
一例として、参加者端末1aはスマートフォン(あるいはタブレット端末)であってよ
い。スマートフォンは、タッチパネルディスプレイや、マイクを有する。タッチパネルデ
ィスプレイは、例えば液晶ディスプレイと透過性のタッチパッドとが重ね合わせて配置さ
れたものであり、液晶ディスプレイがディスプレイ15として機能し、タッチパッドが操
作部12および動作入力部13として機能する。
そして、タッチパッドに対する参加者の操作に応じて、仮想空間内のアバターが活動す
る。例えば、参加者がタッチパッド上で右方向にスワイプすることで、アバターが仮想空
間内で右方向に移動する。また、マイクが動作入力部13として機能し、マイクに対する
参加者の発話に応じて仮想空間内のアバターが活動してもよい。例えば、マイクに対する
ユーザの発言が仮想空間におけるアバターの発言に反映されてもよい。その他、スマート
フォンに設けられた加速度センサ等の各種センサやボタンが操作部12および/または動
作入力部13として機能してもよい。
別の例として、参加者端末1aの操作部12は、操作ボタン、キーボード、ポインティ
ングデバイスなどから構成されるVR(Virtual Reality)用のスティック型コントロー
ラであってもよい。動作入力部13は参加者の動きを検出するモーションセンサであって
もよい。検出された参加者の動き(モーションデータ)に応じて、仮想空間内のアバター
が動作する。例えば、参加者が右を向くと、仮想空間内でアバターが右を向く。さらに、
ディスプレイ15はHMD(Head Mount Display)であってもよい。
以上述べたように、参加者端末1aは、スマートフォンのように1つの装置から構成さ
れてもよいし、VR用コントローラ、モーションセンサおよびHMDのように複数の装置
から構成されてもよい。
[視聴者端末2の構成]
視聴者端末2は、コンテンツに参加することなく、コンテンツを視聴するユーザ(以下
「視聴者」という)が用いるものである。
図3は、視聴者端末2の概略構成を示すブロック図である。視聴者端末2は、参加者端
末1aにおける動作入力部13、アバター制御部161およびトリガ生成部162を省略
したものとなっている。コンテンツの視聴のみであれば、このような簡易な構成の視聴者
端末2で足りる。もちろん、コンテンツに参加することなく、参加者端末1aを用いてコ
ンテンツを視聴できてよい。
[コンテンツ配信サーバ3の構成]
図4は、コンテンツ配信サーバ3の概略構成を示すブロック図である。コンテンツ配信
サーバ3は、通信部31、記憶部32および制御部33などを有する。なお、コンテンツ
配信サーバ3は1つの装置から構成されてもよいし、複数の装置から構成されてもよい。
通信部31は、有線通信または無線通信を行うためのNICを備える通信インターフェ
ースであり、ネットワークを介して参加者端末1a~1dおよび視聴者端末2と通信を行
う。記憶部32は、RAMやROMなどから構成され、各種制御処理を実行するためのプ
ログラムや種々のデータなどを非一時的あるいは一時的に記憶する。
制御部33は、アバター配置取得部331、トリガ検知部332、および、表示制御デ
ータ配信部333などを有する。これらの少なくとも一部は、ハードウェアで実装されて
もよいし、コンテンツ配信サーバ3の処理回路(プロセッサ)が記憶部32に記憶された
所定のプログラムを実行することによって実現されてもよい。
アバター配置取得部331は、各参加者に対応する各アバターの仮想空間における配置
を、参加者端末1a~1dのアバター制御部161から取得する。例えば、参加者端末1
aの動作入力部13に対する参加者Aの動作に対応して、アバターAの仮想空間における
配置を取得する。取得した配置が一時的に記憶部32に記憶されてもよい。なお、本明細
書における配置とは、仮想空間におけるアバターの位置およびアバターの向きの両方でも
よいし、少なくとも一方でもよい。
トリガ検知部332は参加者端末1a~1dのトリガ生成部162によってトリガが生
成されたことを検知する。ここで、会話開始トリガには会話に参加するアバター(以下「
会話アバター」という)が関連付けられている。言い換えると、会話開始トリガに関連付
けられているのが会話アバターであり、関連付けられていないアバターは会話に参加しな
い(以下「非会話アバター」という)。トリガ検知部322は会話開始トリガに関連付け
られている会話アバターの特定も行う。なお、会話アバターは、通常は会話開始トリガを
生成した参加者端末を用いる参加者に対応するアバターを含む複数のアバターであるが、
1つのアバターのみであってもよい。
表示制御データ配信部333は、アバター配置取得部331によって取得された各アバ
ターの配置およびトリガ検知部332によって検知されたトリガに基づき、表示制御デー
タを生成して参加者端末1a~1dおよび視聴者端末2に配信する。具体的には、表示制
御データ配信部333は、アバター制御部333aと、表示制御データ生成部333bと
を有する。
アバター制御部333aは各アバターの仮想空間における配置を制御し、各アバターの
仮想空間における配置を示すアバター配置情報を生成する。アバター制御部333aは各
アバターの表示態様を制御し、アバター配置情報はアバターの表示態様を含んでいてもよ
い。このアバター配置情報は、参加者端末1a~1dのディスプレイ15や視聴者端末2
のディスプレイ23にコンテンツを表示させるため、すなわち、表示制御データの生成の
ために用いられる。
具体的には、会話開始トリガが検知されるまでは、アバター制御部333aはアバター
配置取得部331が取得した配置に従ってアバターを仮想空間に配置して、アバター配置
情報を生成する。会話開始トリガが検知されるまでのアバターの配置は、参加者端末1a
~1dの動作入力部13に対するユーザ動作が忠実に反映されたものといえる。
また、会話開始トリガが検知されたことに応答して、アバター制御部333aは少なく
とも一部のアバター(例えば、少なくも一部の会話アバター)の仮想空間における配置を
変更して、アバター配置情報を更新する。変更後の配置はアバター配置取得部331が取
得した配置とは必ずしも一致しない。すなわち、会話開始トリガが検知された後のアバタ
ーの配置は、参加者端末1a~1dの動作入力部13に対する参加者の動作が忠実に反映
されたものにはなっていない。
なお、配置の変更とは、仮想空間における位置の変更でもよいし、仮想空間におけるア
バターの向きの変更でもよいし、その両方でもよい。変更の例としては、会話アバターが
強調表示されるような変更、会話アバターが所定位置に近づくような変更、会話アバター
が所定位置を向くような変更である。また、仮想空間の一部のみがディスプレイ15,2
3に表示されない場合に、全ての会話アバターが表示されるよう会話アバターの位置を変
更するものでもよい。あるいは、会話アバターの表示態様を変更(通常は6頭身だが、会
話アバターのみ8頭身にするなど)してもよい。詳細については後述する。
なお、変更前のアバターの配置(アバター配置取得部331によって取得された配置)
が失われないよう、アバター制御部333aは当該変更前のアバターの配置を記憶部32
に記憶しておくのが望ましい。
そして、会話開始トリガの後に会話終了トリガが検知されたことに応答して、アバター
制御部333aは配置が変更されていたアバターの配置を、アバター配置取得部331が
取得した配置に戻して、アバター配置情報を更新する。これにより、会話終了トリガが検
知された後のアバターの配置は、参加者端末1a~1dの動作入力部13に対する参加者
の動作が忠実に反映されたものに戻る。このとき、アバター制御部333aは、記憶部3
2に記憶しておいたアバターの配置を利用してもよい。
表示制御データ生成部333bは、アバター制御部333aが生成・更新したアバター
配置情報を用い、参加者端末1a~1dのディスプレイ15および視聴者端末2のディス
プレイ23にコンテンツを表示させるための表示制御データを生成する。表示制御データ
は通信部31から参加者端末1a~1dおよび視聴者端末2に配信される。
なお、ディスプレイ15,23に表示される画像のレンダリングは、参加者端末1a~
1dの表示制御部163および視聴者端末2の表示制御部251が行ってもよいし、コン
テンツ配信サーバ3の表示制御データ生成部333bが行ってもよい。
参加者端末1a~1dがレンダリングを行う場合、アバター配置情報に基づく仮想空間
における各アバターの配置や表示態様を示すデータが表示制御データとして配信される。
そして、表示制御データに基づき、参加者端末1a~1dの表示制御部163が仮想空間
に各アバターが配置されたコンテンツの画像を生成して、ディスプレイ15に表示させる
。視聴者端末2がレンダリングを行う場合も同様である。
一方、コンテンツ配信サーバ3の表示制御データ生成部333bがレンダリングを行う
場合、表示制御データ生成部333bは、アバター配置情報に基づいて、仮想空間に各ア
バターが配置されたコンテンツの画像に対応するデータ(画像データ)を生成する。そし
て、生成された画像データが表示制御データとして配信される。そして、この表示制御デ
ータに基づいて、表示制御部163,251がディスプレイ15,23にコンテンツの画
像を表示させる。
以上述べたように、レンダリングは、参加者端末1a~1dおよび視聴者端末2が行っ
てもよいし、コンテンツ配信サーバ3が行ってもよいが、タイムラグが生じないようにす
るためには前者の方が望ましい。
ここで、参加者端末1a~1dおよび視聴者端末2に表示されるコンテンツは、参加者
端末1a~1dおよび視聴者端末2に共通でもよいが、互いに異なるのが望ましい。具体
的には、参加者端末1aにはアバターAを視点とする仮想空間がコンテンツとして表示さ
れる。参加者端末1b~1dも同様である。また、視聴者端末2には、仮想空間における
任意の位置(例えば仮想空間を俯瞰できる位置)に設定された仮想カメラを視点とする仮
想空間がコンテンツとして表示される。
また、視点が切替可能であってもよい。例えば参加者端末1aには、初期設定としてア
バターAから見た仮想空間が表示されるが、操作部12に対する所定の操作に応答して、
他のアバターから見た仮想空間や、仮想カメラから見た仮想空間が表示されてもよい。ま
た、視聴者端末2には、初期設定として仮想カメラから見た仮想空間が表示されるが、操
作部22に対する所定の操作に応答して、特定のアバターから見た仮想空間が表示されて
もよい。また、仮想空間において、設置位置が異なる、あるいは、ズームが異なる複数の
仮想カメラが設定され、いずれの仮想カメラから見た仮想空間を表示するかを切り替え可
能であってもよい。さらに、仮想空間の全体が表示されてもよいし、その一部分のみが表
示されてもよい。
[会話開始前のコンテンツ配信システムの処理動作]
図5は、会話開始前のコンテンツ配信システムの処理動作の一例を示すシーケンス図で
ある。なお、以下では参加者端末1aのみを記載するが、他の参加者端末1b~1dも同
様である。
参加者Aが参加者端末1aにおける動作入力部13に対して所定の動作を行うと、アバ
ター制御部161は仮想空間内でアバターAを動作させるためのデータを生成し、これを
コンテンツ配信サーバ3に送信する(ステップS1)。ここでのアバターAの動作とは、
仮想空間におけるアバターAの配置であり、具体的には仮想空間内でアバターAを移動さ
せたり、アバターAが特定の方向を向くようにしたりすることである。
そして、コンテンツ配信サーバ3は上記データを受信する。このデータに基づいて、ア
バター配置取得部331はアバターAの仮想空間における配置(位置および/または向き
)を取得する(ステップS11)。この配置は参加者Aの動作入力部13に対する動作が
そのまま反映されている。
続いて、取得された配置に基づいて、アバター制御部333aはアバターAの仮想空間
における配置を設定し、アバター配置情報を生成する(ステップS12)。やはり、この
配置も参加者Aの動作入力部13に対する動作がそのまま反映されたものである。
次に、生成されたアバター配置情報に基づいて、表示制御データ生成部333bは表示
制御データを生成する。そして、表示制御データは参加者端末1aに配信される(ステッ
プS13)。また、他の参加者端末1b~1dおよび視聴者端末2にも表示制御データが
配信される。
コンテンツ配信サーバ3からの表示制御データの配信に対応して、参加者端末1aの表
示制御部165は表示制御データを受信する。この表示制御データは各参加者A~Dの動
作に対応してアバターA~Dが仮想空間に配置されたものとなっている。このような表示
制御データに基づいて、表示制御部163はディスプレイ15にコンテンツ(アバターが
配置された仮想空間)を表示させる(ステップS2)。他の参加者端末1b~1dおよび
視聴者端末2も同様にコンテンツを表示させる。以上の処理が、いずれかの参加者端末1
a~1dからアバターを動作させるためのデータが送信される度に繰り返される。
図6は、アバターA~Dが仮想空間に配置された状態を模式的に示す図である。図示の
ように、左側から順にアバターA~Dが配置されているものとする。
図7Aは、参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す
図であり、図6と対応している。図7Aに示すように、図6のアバターAから見た仮想空
間が参加者端末1aのディスプレイ15に表示される。参加者端末1aがスマートフォン
である場合、通常のディスプレイ15は縦長であるため、横方向に圧縮されて見えるが、
図6におけるアバターA~Dの位置や向きを忠実に再現したものとなっている。
図7Bは、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す
図であり、図6と対応している。図7Bに示すように、図6のアバターDから見た仮想空
間が参加者端末1bのディスプレイ15に表示される。
図7Cは、視聴者端末2のディスプレイ23に表示されるコンテンツを模式的に示す図
であり、図6と対応している。図7Cでは、仮想空間を手前側上方から見る位置に仮想カ
メラが配置され、仮想空間の全体が仮想カメラの視界に入っていることを想定している。
そして、この仮想カメラから見た仮想空間が視聴者端末2のディスプレイ23に表示され
る。
なお、参加者端末1a~1dおよび視聴者端末2でレンダリングを行う場合、表示制御
データはアバターA~Dの仮想空間における配置を示せばよいので、参加者端末1a~1
dおよび視聴者端末2に送信される表示制御データは共通とすることができる。そして、
参加者端末1a~1dおよび視聴者端末2のそれぞれが表示制御データを処理し、アバタ
ーA~Dおよび仮想カメラから見た仮想空間を表示する画像を生成する。
一方、参加者端末1a~1dおよび視聴者端末2でレンダリングを行う場合、図7A~
図7Cに示す画像に対応する画像データが表示制御データとして送信される。そのため、
参加者端末1a~1dおよび視聴者端末2に送信される表示制御データは互いに異なる。
[会話開始後のコンテンツ配信システムの処理動作]
図8は、会話開始後のコンテンツ配信システムの処理動作の一例を示すシーケンス図で
あり、図5に引き続いて行われるものである。
参加者Aが参加者端末1aに対して会話開始の指示を行うと、トリガ生成部162は会
話開始トリガを生成し、これをコンテンツ配信サーバ3に送信する(ステップS21)。
なお、会話開始トリガに関連付けられたアバターすなわち会話アバターを特定するための
情報もコンテンツ配信サーバ3に送信される。会話開始の指示は操作部12および/また
は動作入力部13に対して行われる。
参加者端末1aがスマートフォンである場合、会話開始の指示は、例えばマイクへの発
話、タッチパネルディスプレイに表示された文字入力欄に対する特定の文字や単語(例え
ば「!」や「おはよう」等)の入力、ボタンの押下、タッチパネルディスプレイに表示さ
れた所定アイコンのタッチ、スマートフォンを縦向きから横向きに回転させたこと(加速
度センサで検知される)である。
また、参加者Aは会話アバターを特定してもよい。一例として、タッチパネルディスプ
レイに表示されているアバターの中から任意のアバターをタップすることで、会話アバタ
ーを指定してもよい。あるいは、仮想空間に配置されているアバターの一覧から任意のア
バターを選択してもよい。また、独り言のような場合には、会話アバターを特定しなくて
もよい(この場合、会話アバターはアバターAのみとなる)。
また、参加者端末1aがVR用のコントローラを含む場合、会話開始の指示はコントロ
ーラに設けられた所定のボタンの押下であってよい。そして、コントローラの動きに連動
して仮想空間内に表示されるポインタによって、会話アバターを特定してもよい。
会話開始トリガが送信されると、コンテンツ配信サーバ3のトリガ検知部332は会話
開始トリガを検知する(ステップS31)。また、トリガ検知部332は当該会話開始ト
リガに関連付けられた会話アバターを特定する(ステップS32)。なお、会話アバター
は必ずしも参加者Aが特定する必要はなく、会話の文脈に応じてトリガ検知部332が自
動的に特定してもよい。
会話開始トリガの検知に応答して、アバター制御部333aは少なくとも一部のアバタ
ーの仮想空間における配置を変更して、アバター配置情報を更新する(ステップS33)
。このような配置の変更を行う結果、仮想空間におけるアバターの配置は、各参加者の動
作入力部13に対する動作から外れたものとなる。
なお、ここで更新されるアバター配置情報は参加者端末1a~1dおよび視聴者端末2
ごとに異なり得る。すなわち、参加者端末1a~1dおよび視聴者端末2のそれぞれ用に
(言い換えると、各アバター用および仮想カメラ用に)アバター配置情報が生成される。
次に、生成されたアバター配置情報に基づいて、表示制御データ生成部333bは表示
制御データを生成する。そして、表示制御データは参加者端末1aに配信される(ステッ
プS34)。また、他の参加者端末1b~1dおよび視聴者端末2にも表示制御データが
配信される。アバター配置情報が参加者端末1a~1dおよび視聴者端末2ごとに異なる
場合、参加者端末1a~1dおよび視聴者端末2でレンダリングを行う場合であっても、
表示制御情報は参加者端末1a~1dおよび視聴者端末2ごとに異なる。
コンテンツ配信サーバ3からの表示制御データの配信に対応して、参加者端末1aの表
示制御部165は表示制御データを受信する。この表示制御データは、図5のステップS
2で受信される表示制御データと比較すると、仮想空間における会話アバターの配置が変
更されたものとなっている。このような表示制御データに基づいて、表示制御部163は
ディスプレイ15にコンテンツ(アバターが配置された仮想空間)を表示させる(ステッ
プS22)。他の参加者端末1b~1dおよび視聴者端末も同様にコンテンツを表示させ
る。
なお、会話開始トリガが検知された後も、コンテンツ配信サーバ3のアバター配置取得
部331は、各参加者端末1a~1dのアバター制御部161からアバターの仮想空間に
おける配置を取得し、アバターの配置に反映させたり、必要に応じて記憶部32に記憶し
ておく。
図9Aは、参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す
図である。また、図9Bは、参加者端末1dのディスプレイ15に表示されるコンテンツ
を模式的に示す図である。図9Cは、視聴者端末2のディスプレイ23に表示されるコン
テンツを模式的に示す図である。図9A~図9Cは、それぞれ図7A~図7Cと対応して
いる。図6の状態でアバターA,Cを会話アバターとする会話開始トリガが検知されたこ
とを想定しており、図9Aは会話アバターの視点、図9Bは非会話アバターの視点、図9
Cは仮想カメラの視点となっている。
図9Aに示すように、会話アバターAの会話相手である会話アバターCがディスプレイ
15の中央付近に表示される。より詳しくは、図6の状態から会話アバターCが移動して
いない(参加者CがアバターCを移動させるための動作を行っていない)場合であっても
、会話開始トリガに応答して、会話アバターCがディスプレイ15の中央付近に表示され
る。これは、図8のステップS33において、参加者端末1a用に会話アバターCが会話
アバターAに近づくよう変更されたことを意味する。また、会話アバターCが図6より大
きく表示されてもよい。
このようにすることで、仮に会話相手の会話アバターCが自身(会話アバターA)から
離れている場合であっても、また、ディスプレイ15が小さい場合であっても、会話アバ
ターCが強調されて見やすく表示できる。
また、会話アバターCが会話アバターAを向くように(ディスプレイ15において正面
を向くように)するのが望ましい。より詳しくは、図6の状態で会話アバターCが会話ア
バターAを向いていない場合であっても、会話開始トリガに応答して、会話アバターCが
会話アバターAを向く。会話アバターA,Cが互いに向かい合うのが自然なためである。
さらに、非会話アバターB,Dが会話アバターAまたは会話アバターCを向くようにす
るのが望ましい。より詳しくは、図6の状態で非会話アバターB,Dが会話アバターAま
たは会話アバターCを向いていない場合であっても、会話開始トリガに応答して、非会話
アバターB,Dが会話アバターAまたは会話アバターCを向く。非会話アバターB,Dも
会話アバターAまたは会話アバターCに着目するのが自然であるためである。また、非会
話アバターB,Dは、会話アバターAが発話するタイミングでは会話アバターAを向き(
ディスプレイ15において正面を向き)、会話アバターCが発話するタイミングでは会話
アバターCを向くようにしてもよい。
また、非会話アバターB,Dの配置位置は図6と同じであってもよいし異なっていても
よい。異なる場合でも、図6の配置位置、より具体的には非会話アバターB,Dの相対的
な位置関係を考慮したものであるのが望ましい。例えば、図6では非会話アバターBより
右側に非会話アバターDがいるため、図9Aにおいても、そのような位置関係を維持すべ
く、非会話アバターBより右側に非会話アバターDが配置されるのがよい。いずれにせよ
、会話アバターCに比べて重要度は低いので、非会話アバターB,Dは不自然にならない
ように適宜表示すればよい。
さらに、アバターの発言を吹き出し内に表示してもよい。他の図では図示していないが
、同様である。
なお、参加者Aの操作に応じて、ディスプレイ15に表示されるコンテンツを図7Aと
図9Aとで切替可能であってもよい。
図9Bに示すように、非会話アバターDに対応する参加者端末1dのディスプレイ15
に表示されるコンテンツは図7Aと同じであってもよい。このようなコンテンツは、会話
開始トリガが検知された後も、参加者端末1d用には、図8のステップS33における変
更を行わず、引き続きアバター配置取得部331によって取得された配置に基づいてアバ
ター制御部333aがアバター配置情報を生成すればよい。
図9Cに示すように、仮想カメラからの視点において、会話アバターA,Cがディスプ
レイ23の中央付近に表示される。これは、図8のステップS33において、視聴者端末
2用に(仮想カメラ用に)会話アバターA,Cが仮想カメラの位置に近づくよう変更され
たことを意味する。
このようにすることで、仮に会話アバターA,Cが互いに離れている場合であっても、
また、ディスプレイ23が小さい場合であっても、会話アバターA,Cが強調されて、見
やすく表示できる。
また、会話アバターA,Cは仮想カメラの位置を向く(ディスプレイ23において正面
を向く)ようにするのが望ましい。さらに、会話アバターでないアバターB,Dが会話ア
バターA,Cを向くようにするのが望ましい。また、非会話アバターB,Dは、会話アバ
ターAが発話するタイミングでは会話アバターAを向き、会話アバターCが発話するタイ
ミングでは会話アバターCを向くようにしてもよい。
さらに、図9Aと同様に、非会話アバターB,Dの配置位置は図6と同じであってもよ
いし異なっていてもよい。
なお、視聴者ユーザの操作に応じて、ディスプレイ23に表示されるコンテンツを図7
Cと図9Cとで切替可能であってもよい。
図10は、図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコ
ンテンツを模式的に示す図である。図9Bと異なり、会話アバターA,Cが非会話アバタ
ーDの位置を向いている(ディスプレイ15において正面を向いている)。このような表
示によれば、非会話アバターDに対応する参加者Dにとっても、自らを向いているアバタ
ーA,Cが会話アバターであることが分かりやすい。
図11は、図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコ
ンテンツを模式的に示す図である。図10と異なり、会話アバターA,Cが互いに向き合
っている。向き合って会話するような表示が自然であるためである。なお、図9Cにおい
ても同様に、会話アバターA,Cが互いに向き合うようにしてもよい。
図12は、図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示
されるコンテンツを模式的に示す図である。図10および図11と異なり、会話アバター
Aは非会話アバターDと会話アバターCの間の位置を向き、会話アバターCは非会話アバ
ターDと会話アバターAの間の位置を向くようにしてもよい。非会話アバターDに対応す
る参加者DにとってもアバターA,Cが会話アバターであることが分かりやすく、かつ、
会話アバターA、Cが向き合っているようにも見え、自然である。なお、図9Cにおいて
も同様に、会話アバターAが仮想カメラと会話アバターCの間の位置を向き、会話アバタ
ーCが仮想カメラと会話アバターAの間の位置を向くようにしてもよい。
図13は、図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示
されるコンテンツを模式的に示す図である。図9Aと同様、会話アバターA,Cがディス
プレイ15の中央付近に表示されてもよい。このときの会話アバターA,Cの向きは、図
10~図12のいずれかと同様であってよい。
なお、会話アバターと非会話アバターの配置に関し、予め複数のテンプレートを定めて
記憶部32に記憶しておいてもよい。そして、アバター制御部333aは、会話開始トリ
ガが検知されると、会話アバターや非会話アバターの数などに応じて定まるルールに基づ
いて適切なテンプレートを選択する。そして、アバター制御部333aは選択したテンプ
レートに各アバターを当て嵌めることによって、仮想空間に各アバターを配置してもよい
[会話終了後のコンテンツ配信システムの処理動作]
図14は、会話終了後のコンテンツ配信システムの処理動作の一例を示すシーケンス図
であり、図8に引き続いて行われるものである。
参加者Aが参加者端末1aに対して会話終了の指示を行うと、トリガ生成部162は会
話終了トリガを生成し、これをコンテンツ配信サーバ3に送信する(ステップS41)。
会話終了の指示は操作部12および/または動作入力部13に対して行われる。また、会
話終了の指示は、会話開始の指示と同様であってよい。
例えば、参加者端末1aがスマートフォンである場合、会話終了の指示は、例えばマイ
クへの発話、タッチパネルディスプレイに表示された文字入力欄に対する特定の文字や単
語の入力、ボタンの押下、タッチパネルディスプレイに表示された所定アイコンのタッチ
、スマートフォンを横向きから縦向きに回転させたこと(加速度センサで検知される)で
ある。
また、参加者端末1aがVR用のコントローラを含む場合、会話終了の指示はコントロ
ーラに設けられた所定のボタンの押下であってよい。
会話終了トリガが送信されると、コンテンツ配信サーバ3のトリガ検知部332は会話
終了トリガを検知する(ステップS51)。
会話終了トリガの検知に応答して、アバター制御部333aは図8のステップS33で
変更されていたアバターの配置を元に戻す(ステップS52)。具体的には、アバター制
御部333aは、アバター配置取得部331によって取得されたアバターの配置に基づい
てアバターAの仮想空間における配置を設定して、アバター配置情報を更新する。これに
より、仮想空間における各アバターの配置は参加者の動作入力部13に対する動作がその
まま反映されたものに戻るものである。
次に、アバター配置情報に基づいて、表示制御データ生成部333bは表示制御データ
を生成し、参加者端末1aに配信する(ステップS53)。また、他の参加者端末1b~
1dおよび視聴者端末2にも表示制御データが配信される。
コンテンツ配信サーバ3からの表示制御データの配信に対応して、参加者端末1aは表
示制御データを受信する。この表示制御データに基づいて、表示制御部163はディスプ
レイ15にコンテンツ(アバターが配置された仮想空間)を表示させる(ステップS42
)。他の参加者端末1b~1dおよび視聴者端末も同様にコンテンツを表示させる。
以上により、会話開始トリガの検知後は図9A~図9Cのような表示だったものが、会
話終了トリガの検知により、図7A~図7Cのような表示に戻る。
このように、本実施形態では、会話トリガの開始に応じて仮想空間におけるアバターの
配置を変更する。これにより、仮想空間に配置されるアバターを見やすく表示できる。
以上、本開示の好ましい実施形態について説明したが、本開示は係る特定の実施形態に
限定されるものではなく、本開示には、特許請求の範囲に記載された発明とその均等の範
囲が含まれる。また、上記実施形態及び変形例で説明した装置の構成は、技術的な矛盾が
生じない限り、適宜組み合わせ可能である。
1a~1d 参加者端末
11 通信部
12 操作部
13 操作入力部
14 記憶部
15 ディスプレイ
16 制御部
17 アバター制御部
18 トリガ生成部
19 表示制御部
2 視聴者端末
21 通信部
22 操作部
23 ディスプレイ
24 記憶部
25 制御部
26 表示制御部
3 コンテンツ配信サーバ
31 通信部
32 記憶部
33 制御部
331 アバター配置取得部
332 トリガ検知部
333 表示制御データ配信部
333a アバター制御部
333b 表示制御データ生成部

Claims (18)

  1. 複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
    第1トリガを検知し、その後に第2トリガを検知するトリガ検知部と、
    複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、を備え、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置位置を、前記仮想キャラクタ配置取得部によって取得された配置位置に従った配置位置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置位置が変更された前記表示制御データを生成し、
    前記第2トリガが検知されたことに応答して、配置位置が変更されていた前記第1仮想キャラクタの前記仮想空間における配置位置を、前記仮想キャラクタ配置取得部によって取得された、前記第1仮想キャラクタに対応する参加者の動作に対応した配置位置に従った配置位置に戻した前記表示制御データを生成する、コンテンツ配信装置。
  2. 前記第1トリガは、前記第1トリガと関連付けられた第2仮想キャラクタと、前記第1仮想キャラクタとの会話開始に対応し、
    前記第2トリガは、前記第2仮想キャラクタと前記第1仮想キャラクタとの会話終了に対応する、請求項1に記載のコンテンツ配信装置。
  3. 前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタが所定位置に近づくよう、前記仮想空間における前記第1仮想キャラクタの配置位置が変更された前記表示制御データを生成する、請求項1または2に記載のコンテンツ配信装置。
  4. 前記表示制御データ配信部は、前記所定位置から見た前記仮想空間の少なくとも一部を表示させるための前記表示制御データを生成する、請求項3に記載のコンテンツ配信装置。
  5. 前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第1参加者の端末から送信されたものであり、
    前記所定位置は、前記第2仮想キャラクタの位置である、請求項3または4に記載のコンテンツ配信装置。
  6. 前記所定位置は、前記複数の仮想キャラクタのいずれとも異なる位置である、請求項3または4に記載のコンテンツ配信装置。
  7. 前記所定位置は、前記複数の仮想キャラクタのうち、前記第1トリガと関連付けられていない第3仮想キャラクタの位置である、請求項3または4に記載のコンテンツ配信装置。
  8. 前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1トリガに関連付けられていない第3仮想キャラクタおよび第4仮想キャラクタの前記仮想空間における配置位置を、前記仮想キャラクタ配置取得部によって取得された前記第3仮想キャラクタおよび前記第4仮想キャラクタの相対的な位置関係を考慮して変更された前記表示制御データを生成する、請求項1乃至7のいずれかに記載のコンテンツ配信装置。
  9. 前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタの表示態様が変更された前記表示制御データを生成する、請求項1乃至8のいずれかに記載のコンテンツ配信装置。
  10. コンピュータを、
    複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
    第1トリガを検知し、その後に第2トリガを検知するトリガ検知部と、
    複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、として機能させ、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置位置を、前記仮想キャラクタ配置取得部によって取得された配置位置に従った配置位置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置位置が変更された前記表示制御データを生成し、
    前記第2トリガが検知されたことに応答して、配置位置が変更されていた前記第1仮想キャラクタの前記仮想空間における配置位置を、前記仮想キャラクタ配置取得部によって取得された、前記第1仮想キャラクタに対応する参加者の動作に対応した配置位置に従った配置位置に戻した前記表示制御データを生成する、コンテンツ配信プログラム。
  11. 仮想キャラクタ配置取得部が、複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得するステップと、
    トリガ検知部が、第1トリガを検知し、その後に第2トリガを検知するステップと、
    表示制御データ配信部が、複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信するステップと、を備え、
    前記表示制御データ配信部は、
    前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置位置を、前記仮想キャラクタ配置取得部によって取得された配置位置に従った配置位置とする前記表示制御データを生成し、
    前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置位置が変更された前記表示制御データを生成し、
    前記第2トリガが検知されたことに応答して、配置位置が変更されていた前記第1仮想キャラクタの前記仮想空間における配置位置を、前記仮想キャラクタ配置取得部によって取得された、前記第1仮想キャラクタに対応する参加者の動作に対応した配置位置に従った配置位置に戻した前記表示制御データを生成する、コンテンツ配信方法。
  12. 参加者の動作に応じて、前記参加者に対応する第1仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信する仮想キャラクタ制御部と、
    前記参加者の指示に応じて、第1トリガおよび第2トリガを生成して前記コンテンツ配信サーバに送信するトリガ生成部と、
    前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させる表示制御部と、を備え、
    前記表示制御部は、
    前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置位置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置位置とする前記表示制御データを受信し、
    前記第1トリガを送信したことに応答して、前記第1仮想キャラクタおよび/または前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間における配置位置が変更された前記表示制御データを受信し、
    前記第1トリガの送信後に前記第2トリガを送信したことに応答して、配置位置が変更されていた前記第1仮想キャラクタおよび/または前記第2仮想キャラクタの前記仮想空間における配置位置を、前記第2仮想キャラクタに対応する参加者の動作に対応した配置位置に従った配置位置に戻した前記表示制御データを受信する、コンテンツ表示装置。
  13. コンピュータを、
    参加者の動作に応じて、前記参加者に対応する第1仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信する仮想キャラクタ制御部と、
    前記参加者の指示に応じて、第1トリガおよび第2トリガを生成して前記コンテンツ配信サーバに送信するトリガ生成部と、
    前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させる表示制御部と、として機能させ、
    前記表示制御部は、
    前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置位置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置位置とする前記表示制御データを受信し、
    前記第1トリガを送信したことに応答して、前記第1仮想キャラクタおよび/または前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間における配置位置が変更された前記表示制御データを受信し、
    前記第1トリガの送信後に前記第2トリガを送信したことに応答して、配置位置が変更されていた前記第1仮想キャラクタおよび/または前記第2仮想キャラクタの前記仮想空間における配置位置を、前記第2仮想キャラクタに対応する参加者の動作に対応した配置位置に従った配置位置に戻した前記表示制御データを受信する、コンテンツ表示プログラム。
  14. 仮想キャラクタ制御部が、参加者の動作に応じて、前記参加者に対応する第1仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信するステップと、
    トリガ生成部が、前記参加者の指示に応じて、第1トリガおよび第2トリガを生成して前記コンテンツ配信サーバに送信するステップと、
    表示制御部が、前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるステップと、を備え、
    前記表示制御部は、
    前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置位置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置位置とする前記表示制御データを受信し、
    前記第1トリガを送信したことに応答して、前記第1仮想キャラクタおよび/または前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間における配置位置が変更された前記表示制御データを受信し、
    前記第1トリガの送信後に前記第2トリガを送信したことに応答して、配置位置が変更されていた前記第1仮想キャラクタおよび/または前記第2仮想キャラクタの前記仮想空間における配置位置を、前記第2仮想キャラクタに対応する参加者の動作に対応した配置位置に従った配置位置に戻した前記表示制御データを受信する、コンテンツ表示方法。
  15. 請求項1乃至9のいずれかに記載のコンテンツ配信装置と、請求項12に記載の複数のコンテンツ表示装置と、を備えるシステム。
  16. 前記コンテンツ配信装置が前記表示制御データを前記コンテンツ表示装置に配信することにより、前記コンテンツ表示装置の表示部には、
    前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置位置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置位置とする前記仮想空間の少なくとも一部が表示され、
    前記第1トリガを送信したことに応答して、前記第1仮想キャラクタおよび/または前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間における配置位置が変更された前記仮想空間の少なくとも一部が表示され、
    前記第1トリガの送信後に前記第2トリガを送信したことに応答して、配置位置が変更されていた前記第1仮想キャラクタおよび/または前記第2仮想キャラクタの前記仮想空間における配置位置を、前記第2仮想キャラクタに対応する参加者の動作に対応した配置位置に従った配置位置に戻した前記仮想空間の少なくとも一部が表示される、請求項15に記載のシステム。
  17. 請求項12に記載の複数のコンテンツ表示装置を備えるシステム。
  18. 請求項12に記載の複数のコンテンツ表示装置と、
    複数のコンテンツ視聴装置と、を備え、
    前記複数のコンテンツ視聴装置のそれぞれは、前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させる手段を有する、システム。

JP2020060174A 2020-03-30 2020-03-30 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法 Active JP7257986B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020060174A JP7257986B2 (ja) 2020-03-30 2020-03-30 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法
JP2023060546A JP2023100616A (ja) 2020-03-30 2023-04-04 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020060174A JP7257986B2 (ja) 2020-03-30 2020-03-30 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019121972A Division JP6684952B1 (ja) 2019-06-28 2019-06-28 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023060546A Division JP2023100616A (ja) 2020-03-30 2023-04-04 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法

Publications (3)

Publication Number Publication Date
JP2021009681A JP2021009681A (ja) 2021-01-28
JP2021009681A5 JP2021009681A5 (ja) 2022-05-19
JP7257986B2 true JP7257986B2 (ja) 2023-04-14

Family

ID=74198664

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020060174A Active JP7257986B2 (ja) 2020-03-30 2020-03-30 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法
JP2023060546A Pending JP2023100616A (ja) 2020-03-30 2023-04-04 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023060546A Pending JP2023100616A (ja) 2020-03-30 2023-04-04 コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法

Country Status (1)

Country Link
JP (2) JP7257986B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388665B2 (ja) * 2022-02-08 2023-11-29 グリー株式会社 情報処理システム、情報処理方法、情報処理プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000231644A (ja) 1999-02-08 2000-08-22 Nippon Telegr & Teleph Corp <Ntt> 仮想空間における発話者特定方法及びそのプログラムを記録した記録媒体
JP2003150978A (ja) 2001-11-09 2003-05-23 Sony Corp 三次元仮想空間表示方法、プログラム及びそのプログラムを格納した記録媒体
US20120131478A1 (en) 2010-10-18 2012-05-24 Scene 53 Inc. Method of controlling avatars
JP2012120782A (ja) 2010-12-10 2012-06-28 Konami Digital Entertainment Co Ltd ゲーム装置及びゲーム制御プログラム
JP2016034087A (ja) 2014-07-31 2016-03-10 Front Row Holdings株式会社 映像表示システム
JP2016152521A (ja) 2015-02-18 2016-08-22 株式会社 ディー・エヌ・エー ビデオチャットを提供するサーバ、プログラム及び方法
JP2018082760A (ja) 2016-11-21 2018-05-31 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6772195B1 (en) * 1999-10-29 2004-08-03 Electronic Arts, Inc. Chat clusters for a virtual world application

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000231644A (ja) 1999-02-08 2000-08-22 Nippon Telegr & Teleph Corp <Ntt> 仮想空間における発話者特定方法及びそのプログラムを記録した記録媒体
JP2003150978A (ja) 2001-11-09 2003-05-23 Sony Corp 三次元仮想空間表示方法、プログラム及びそのプログラムを格納した記録媒体
US20120131478A1 (en) 2010-10-18 2012-05-24 Scene 53 Inc. Method of controlling avatars
JP2012120782A (ja) 2010-12-10 2012-06-28 Konami Digital Entertainment Co Ltd ゲーム装置及びゲーム制御プログラム
JP2016034087A (ja) 2014-07-31 2016-03-10 Front Row Holdings株式会社 映像表示システム
JP2016152521A (ja) 2015-02-18 2016-08-22 株式会社 ディー・エヌ・エー ビデオチャットを提供するサーバ、プログラム及び方法
JP2018082760A (ja) 2016-11-21 2018-05-31 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム

Also Published As

Publication number Publication date
JP2021009681A (ja) 2021-01-28
JP2023100616A (ja) 2023-07-19

Similar Documents

Publication Publication Date Title
JP6684952B1 (ja) コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法
EP3540571B1 (en) Method and device for editing virtual scene, and non-transitory computer-readable storage medium
WO2015188614A1 (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
CN110427110B (zh) 一种直播方法、装置以及直播服务器
CN112533017B (zh) 直播方法、装置、终端及存储介质
CN110300274B (zh) 视频文件的录制方法、装置及存储介质
CN109275013B (zh) 虚拟物品展示的方法、装置、设备及存储介质
CN110721467B (zh) 显示控制方法、电子设备及计算机可读存储介质
US20210042980A1 (en) Method and electronic device for displaying animation
CN112007362B (zh) 虚拟世界中的显示控制方法、装置、存储介质及设备
CN111541928A (zh) 直播显示方法、装置、设备及存储介质
CN108579075B (zh) 操作请求响应方法、装置、存储介质及***
JP2023100616A (ja) コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法
CN111126958B (zh) 日程创建方法、装置、设备及存储介质
CN112825048B (zh) 消息提醒方法、装置、电子设备及存储介质
US11386612B2 (en) Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation
CN112023403B (zh) 基于图文信息的对战过程展示方法及装置
CN112870697A (zh) 基于虚拟关系养成程序的交互方法、装置、设备及介质
CN114546188B (zh) 基于互动界面的互动方法、装置、设备及可读存储介质
CN114826799B (zh) 信息获取方法、装置、终端及存储介质
CN114698409A (zh) 视频会议实现方法、装置、***以及存储介质
CN114826800B (zh) 信息获取方法、装置、终端及存储介质
KR102178924B1 (ko) Vr을 이용한 시연 제공 방법 및 장치
CN116893764A (zh) 终端装置、终端装置的动作方法及非暂时性计算机可读取介质
JP2024044908A (ja) 方法、プログラム、及び端末装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R150 Certificate of patent or registration of utility model

Ref document number: 7257986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150