JP2018074294A - 情報処理システムおよび情報処理方法 - Google Patents

情報処理システムおよび情報処理方法 Download PDF

Info

Publication number
JP2018074294A
JP2018074294A JP2016209910A JP2016209910A JP2018074294A JP 2018074294 A JP2018074294 A JP 2018074294A JP 2016209910 A JP2016209910 A JP 2016209910A JP 2016209910 A JP2016209910 A JP 2016209910A JP 2018074294 A JP2018074294 A JP 2018074294A
Authority
JP
Japan
Prior art keywords
viewpoint
moving image
video
information processing
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016209910A
Other languages
English (en)
Other versions
JP2018074294A5 (ja
JP6853013B2 (ja
Inventor
暁彦 白井
Akihiko Shirai
暁彦 白井
久貴 鈴木
Hisataka Suzuki
久貴 鈴木
裕太 山口
Yuta Yamaguchi
裕太 山口
一造 米澤
Ichizo Yonezawa
一造 米澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ikutoku Gakuen School Corp
Fujitsu Social Science Labs Ltd
Original Assignee
Ikutoku Gakuen School Corp
Fujitsu Social Science Labs Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ikutoku Gakuen School Corp, Fujitsu Social Science Labs Ltd filed Critical Ikutoku Gakuen School Corp
Priority to JP2016209910A priority Critical patent/JP6853013B2/ja
Publication of JP2018074294A publication Critical patent/JP2018074294A/ja
Publication of JP2018074294A5 publication Critical patent/JP2018074294A5/ja
Priority to JP2021039030A priority patent/JP7135141B2/ja
Application granted granted Critical
Publication of JP6853013B2 publication Critical patent/JP6853013B2/ja
Priority to JP2022138117A priority patent/JP7368886B2/ja
Priority to JP2023173869A priority patent/JP2023181217A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】CGで描画された3次元空間内における事象の、2次元映像デバイスを用いたリアルタイムおよび非同期の双方向参加が可能な技術を提供する。【解決手段】情報処理システムは、撮影対象を多視点で撮影した多視点3次元動画データを生成する動画データ生成手段と、多視点3次元動画データに対して視点の設定を受け付ける手段と、受け付けた視点から撮影対象をみたときの動画を生成する手段と、生成された動画を視聴者装置に提供する手段と、視聴者装置から動画に対する反応を受け付ける手段と、設定された視点と、多視点3次元動画データ中の時刻と、反応とを記録する手段と、を備える。【選択図】図1

Description

本発明は、情報処理システムおよび情報処理方法に関する。
近年、ICT(Information and Communication Technology:情報通信技術)の発展に伴い、CG(Computer Graphics)で描画された仮想的な3次元空間を用いた様々なコン
テンツが提案されている。このようなコンテンツとして、VR(Virtual Reality)コン
テンツやゲームコンテンツ、eスポーツ(electronic sports)コンテンツ等が例示される。
上記コンテンツを利用する利用者(以下、ユーザとも称す)は、例えば、HMD(Head-Mount Display)等の3次元映像を視聴可能なデバイスを装着することで、CGで描画された仮想的な3次元空間をユーザ視点で立体視することが可能になる。さらに、ユーザの頭部や腕部といった身体の動きや位置等を検知するセンサ等が装着される場合には、例えば、ユーザの動作に応じて3次元空間内の移動、3次元空間内に配置されたオブジェクトへの働きかけといった行動が可能になる。3次元空間内に配置されたオブジェクトには、例えば、上記コンテンツを利用する他のユーザが操作可能なオブジェクト(例えば、キャラクタやアバター)が含まれる。
ゲーム、eスポーツ等のコンテンツでは、例えば、他のユーザの操作するオブジェクトとの間で、自身の行動によって生じたイベントに対する応答や会話、競争や対戦等が可能になる。コンテンツに参加するユーザ間では、それぞれの視点で、上記行動によって生じたイベントによる3次元空間内の衝突や物理的な相互作用を、コンテンツの定める所定のルールに従って楽しむことができる。
なお、本明細書で説明する技術に関連する技術が記載されている先行技術文献としては、以下の特許文献が存在している。
特開2011−150402号公報 特開2001−300131号公報 特開平11−123280号公報
コンテンツの形態として、会議場やオフィス、学校、ショッピングモールといった3次元空間をCGで描画し、上記3次元空間内に複数のユーザがリアルタイムで参加するリモート会議やVRオフィス、e−ラーニング、e−コマース等が想定される。
上記の形態では、例えば、描画された3次元空間のユーザ間のやり取りを発言者等としてリアルタイムに参加するだけでなく、事後や聴者として映像で視聴する利用者向けの配信や、その視聴環境・視聴形態、メディア変換の需要は想定される。
事後や聴者として配信された3次元空間の映像を視聴する場合には、例えば、HMD等の3次元映像を視聴するための専用デバイスの購入や3次元映像受信のための視聴環境整備に係る負担が想定される。また、上記形態では、例えば、会議に発言者として参加する
ユーザ間のやり取りを、事後あるいはリアルタイムに視聴する視聴者の反応や視点を考慮した映像の配信が望まれる。
本発明は、CGで描画された3次元空間内における事象の、2次元映像デバイスを用いたリアルタイムおよび非同期の双方向参加が可能な技術の提供を目的とする。
開示の技術の一側面は、情報処理システムによって例示される。この情報処理システムは、撮影対象を多視点で撮影した多視点3次元動画データを生成する動画データ生成手段と、多視点3次元動画データに対して視点の設定を受け付ける手段と、受け付けた視点から撮影対象をみたときの動画を生成する手段と、生成された動画を視聴者装置に提供する手段と、視聴者装置から動画に対する反応を受け付ける手段と、設定された視点と、多視点3次元動画データ中の時刻と、反応とを記録する手段と、を備える。
開示の技術の一側面によれば、CGで描画された3次元空間内における事象の、2次元映像デバイスを用いたリアルタイムおよび非同期の双方向参加が可能な技術が提供できる。
情報処理システムの一例を示す構成図である。 コンピュータのハードウェア構成の一例を示す構成図である。 3DCG空間内のオブジェクトについて保存されるデータ構成の一例を示す図である。 シーンマネージャのイベントに係る事象の記録処理を例示するフローチャートである。 シーンマネージャのバーチャルカメラの設定処理を例示するフローチャートである。 バーチャルカメラのカメラ方向の設定を説明する説明図である。 実空間の会議場を撮影するカメラを備える情報処理システムの一例を示す構成図である。 クロマキー合成を用いる際の、実空間における被写体の撮影を説明する図である。 クロマキー合成を用いる際の、実空間における被写体の撮影を説明する図である。 合成映像の一例を示す図である。 2D映像デバイスに表示された合成映像の一例を示す図である。 HMDを装着した被写体がリモート会議に参加する形態の説明図である。 HMDを装着しない被写体がリモート会議に参加する形態の説明図である。 HMDを装着しない被写体が事後に再生されるリモート会議に参加する形態の説明図である。 実空間を撮影するカメラを備える場合の、シーンマネージャのイベントに係る事象の記録処理を例示するフローチャートである。
以下、図面を参照して、一実施形態に係る情報処理システムについて説明する。以下の実施形態の構成は例示であり、本情報処理システムは、以下の実施形態の構成には限定されない。
<実施形態>
〔1.システム構成〕
図1は、本実施形態に係る情報処理システムの一例を示す構成図である。先ず、図1に示す情報処理システム10の概要を説明する。図1の形態においては、例えば、CGで作成された3次元空間(以下、「3DCG空間」とも称す)内に会議場が設けられ、リモート会議等のコンテンツが提供される。ここで、「リモート会議」とは、ネットワークに接続する複数の会議参加者が3DCG空間内の会議場を共有し、リアルタイムで行う会議をいう。ネットワークに接続する複数の会議参加者は、3DCG空間で操作可能なオブジェクト(アバター等)を介し、会議における発言や対話、他者への働きかけや移動等の行動を行う。会議進行の様子は、会議参加者の備えるHMD等に、それぞれのアバター視点から見た3DCGの動画映像として提供される。
但し、情報処理システム10が提供するコンテンツは、3DCG空間で仮想的に形成されたVRオフィス、ゲーム、e−ラーニング等であってもよい。コンテンツは、3DCG空間内において、ユーザの行動や移動等で生じたイベントによる衝突や物理的な相互作用を、コンテンツの定める所定のルールに従って提供可能であればよい。
以下においては、情報処理システム10の提供するコンテンツは、3DCG空間に設けられた会議場を使用するリモート会議として説明する。また、CGで作成された3次元空間の動画映像を「立体映像」とも称する。
3DCG空間内には、例えば、机、椅子、白板、壁、床、窓、扉、天井といったリモート会議の会議場を構成する様々な構成物のオブジェクトが配置される。同様にして、リモート会議に参加する複数の会議参加者についてのアバターが3DCG空間内に配置される。アバターは、会議参加者が操作可能なオブジェクトである。3DCG空間内に配置されるオブジェクトは、例えば、描画要素であるポリゴン(polygon)の集合体である。オブ
ジェクトを構成する各ポリゴンは共通の座標軸を有する。3DCG空間内のワールド座標系における、オブジェクトの形状、配置位置、向き等は、上記座標軸上の3次元座標(X,Y,Z)により表される。
会議参加者は、例えば、HMD等の立体映像を視認可能するデバイス(以下、3D映像デバイスとも称す)、身体の動きや位置を検知するセンサデバイス、マイクやヘッドフォン等の音響デバイスを備え、リモート会議に参加する。進行中のリモート会議の様子は、会議参加者に対し、それぞれのアバター視点を介した立体映像としてリアルタイムに提供される。会議参加者は、会議進行に伴うプロセスの立体映像をアバター視点で視聴すると共に、立体映像を視聴しながらアバターを操作し、会議場の移動や他の会議参加者への対話や働きかけ(行動)を行う。リモート会議内での発言は、例えば、マイクやヘッドフォン等の音響デバイスを介して行われる。会議進行に伴うプロセスで生じた各会議参加者の行動に対応したイベント(例えば、会話や提案、離席等の行動)は、視聴中の立体映像に反映される。
本実施形態に係る情報処理システム10は、リモート会議が進行する3DCG空間を、任意の視点位置から見た立体映像として中継する機能を備える。リモート会議が進行する3DCG空間内の視点位置は、例えば、仮想的なカメラであるバーチャルカメラによって指定される。バーチャルカメラは、リモート会議が進行する3DCG空間内の任意の位置に移動可能である。バーチャルカメラは、会議場内に配置されたオブジェクトやアバター、および、会議進行に伴うプロセスで発生したイベント等の事象を、任意の視点位置から見た立体映像として中継する。リモート会議が進行する3DCG空間を中継する中継者が存在する場合には、バーチャルカメラの視点位置は中継者の操作に従って設定される。
本実施形態に係る情報処理システム10は、バーチャルカメラの中継する立体映像を2次元映像に変換する機能を備える。変換後の2次元映像は、例えば、リモート会議の様子
を視聴する視聴者にリアルタイム、あるいは、事後に配信される。視聴者は、例えば、スマートフォン、携帯電話、タブレットPC(Personal Computer)等の2次元映像が視聴
可能なデバイス(以下、2D映像デバイスとも称す)を介して、リモート会議の配信映像を視聴する。
本実施形態に係る情報処理システム10は、2次元映像を視聴する視聴者からのメッセージ(文字、音声、動作等のリアクション信号)を受け付ける機能を備える。情報処理システム10は、例えば、受け付けたメッセージに基づいて、リモート会議が進行する3DCG空間内の、バーチャルカメラの視点位置を移動させる。情報処理システム10は、例えば、受け付けたメッセージを中継者に通知し、通知を受けた中継者の操作に従ってバーチャルカメラの視点位置を移動させる。リモート会議が進行中の場合には、バーチャルカメラの中継する立体映像は視点位置の移動に従って更新され、視聴者から受け付けた視点位置が視聴中の2次元映像に反映される。
本実施形態に係る情報処理システム10は、リモート会議が進行する3DCG空間の事象、バーチャルカメラ情報(視点位置、焦点距離、回転、ズームパラメータ等)を記録する機能を有する。3DCG空間の事象は、会議進行に伴うプロセスで発生した、各会議参加者の行動に伴うイベントに応じて3DCG空間内を移動する各オブジェクトの座標を含む。3DCG空間の事象には、会議参加者の音声データが含まれる。例えば、記録された音声データ等に基づいてリモート会議の議事録等が作成される。情報処理システム10は、記録された上記情報に基づいてバーチャルカメラの視点位置による立体映像を生成し、生成された立体映像に基づく2次元映像を、事後の視聴者に配信する。事後の視聴においても視聴者からのメッセージが受け付けられ、事後の視聴者による視点位置が視聴中の2次元映像に反映される。
次に、図1に示す情報処理システム10の構成を説明する。
図1に示す情報処理システム10は、シーンマネージャSMと、バーチャルカメラVCと、カメラプロセッサCと、レンダラRと、配信サーバCHとを主に備える。上記の各構成は、LAN(Local Area Network)等のネットワークを介して接続する。ネットワークには、バーチャルカメラVC、カメラプロセッサC、レンダラRのそれぞれが複数に接続し得る。図1においては、バーチャルカメラVC1、VC2、VC3、カメラプロセッサC1、C2、C3、レンダラR1、R2、R3が例示される。なお、以下の説明においては、複数のバーチャルカメラVC1、VC2、VC3を総称してバーチャルカメラVCという。カメラプロセッサC、レンダラRについても同様である。
また、シーンマネージャSMと配信サーバCHとは、外部ネットワークに接続する。外部ネットワークは、インターネットといった公衆ネットワーク、携帯電話網、有線無線LAN(Local Area Network)を含む。外部ネットワークには、2次元映像を視聴する視聴者(Viewer)の2D映像デバイスが複数に接続する。なお、情報処理システム10は、シーンマネージャSMと、配信サーバCHとを複数に備えるとしてもよい。また、情報処理システム10は、バーチャルカメラVCと、カメラプロセッサCと、レンダラRとが有する機能を一体化して備えるとしてもよい。
図1において、A1は、バーチャルカメラVC1の視点位置を操作する配信者U1が視聴中の立体映像を表す。配信者U1が視聴中の立体映像A1には、バーチャルカメラVC1の視点位置から見たリモート会議の会議参加者(P1、P2、P3)のアバターが含まれる。なお、アバターの視点位置の立体映像には、バーチャルカメラVC1の視点位置を操作する配信者U1は描画されない。
立体映像A1内のバーチャルカメラVC2、VC3は、3DCG空間内にオブジェクト
として配置されたバーチャルカメラVCである。バーチャルカメラVC2は、例えば、会議参加者P2の動きを追従する。バーチャルカメラVC3は、例えば、会議参加者P3の動きを追従する。
配信者U1は、自身が操作するバーチャルカメラVC1の立体映像を視聴するHMD1を装着する。配信者U1が装着するHMD1には、ヘッドフォン、インカムといった音響デバイスが含まれる。また、配信者U1は、例えば、3DCG空間内におけるバーチャルカメラVC1の視点位置を指定するためのコントローラCNを備える。コントローラCNは、3DCG空間を立体視するための2つの視点位置を操作するユーザ入力デバイスである。コントローラCNには、バーチャルカメラVC1の回転角度を検知するセンサ(加速度センサ、ジャイロセンサ、地磁気センサ、画像センサ等)が含まれる。なお、バーチャルカメラVC1、VC2、VC3で中継中の立体映像を切替える機能を有するとしてもよい。また、バーチャルカメラVC1の視点位置を操作する配信者は、複数に存在するとしてもよい。
シーンマネージャSMは、リモート会議といった3DCG空間の立体映像を作成するアプリケーションプログラムが動作するプラットフォームである。プラットフォームは、例えば、サーバ、WS(WorkStation)等の情報処理装置によって構成されたコンピュータ
システムである。
シーンマネージャSMは、アプリケーションプログラムの実行により、3DCG空間の映像を作成し、リモート会議参加者にアバター視点を介した立体映像をリアルタイムで提供する。同様に、シーンマネージャSMは、アプリケーションプログラムの実行により、バーチャルカメラVCの視点位置から見た3DCG空間の立体映像を作成し、レンダラRに送信する。シーンマネージャSMは、バーチャルカメラVC1の視点位置を操作する配信者U1に対して、バーチャルカメラVC1、VC2、VC3のそれぞれの視点位置から見た3DCG空間の立体映像を出力する。配信者U1は、HMD等を介してバーチャルカメラVC1、VC2、VC3の視点位置から見た3DCG空間の立体映像を視聴する。なお、HMD等に表示される立体映像は、配信者U1の操作入力を受け付けるコントローラCNを介して切替えられる。
シーンマネージャSMは、3DCD空間の会議室を構成する構造物やアバター等のオブジェクトのデータをタイムコードに対応付けて保存・管理する。ここで、「タイムコード」とは、3DCG空間内における絶対的な時間を表現するカウンタである。リモート会議の進行に伴うプロセスで発生したイベントに係る全ての事象は、タイムコードにより保存・管理される。
シーンマネージャSMは、外部ネットワークに接続されたスマートフォン等の2D映像デバイスから送信されたメッセージを受信する。メッセージには、事後あるいはリアルタイムに配信された2次元映像の視聴者からの、文字、音声、動作等のリアクション信号等が含まれる。シーンマネージャSMは、受け付けたメッセージに基づいて、リモート会議が進行する3DCG空間内の、バーチャルカメラVCの視点位置を移動させる。あるいは、シーンマネージャSMは、3DCG空間内の、バーチャルカメラVC1の視点位置を操作する配信者U1に対して、受け付けたメッセージに基づく視点位置を通知する。配信者は、例えば、HMDに表示された視点位置の移動の通知(文字やマーカ等)、あるいは、音声通知等を介してシーンマネージャSMからの指示を受け付け、バーチャルカメラVC1の視点位置を移動させる。なお、シーンマネージャSMが受信したメッセージは、タイムコードに対応付けられて保存される。
コンピュータプログラムの実行によってシーンマネージャSMが提供する機能は、「撮
影対象を多視点で撮影した多視点3次元動画データを生成する動画データ生成手段」の一例である。同様にして、コンピュータプログラムの実行によってシーンマネージャSMが提供する機能は、「視聴者装置から動画に対する反応を受け付ける手段の」一例である。同様にして、コンピュータプログラムの実行によってシーンマネージャSMが提供する機能は、「設定された視点と、多視点3次元動画データ中の時刻と、反応を記録する手段」の一例である。
バーチャルカメラVCは、リモート会議が進行する3DCG空間の立体映像を中継するための視点位置を指定する仮想的なデバイスである。バーチャルカメラVCは、3DCG空間を立体映像として中継するために、2つの視点位置、2つの視点位置から決定される輻輳点をカメラ情報として有する。配信者U1の操作が介在しないバーチャルカメラVCでは、3DCG空間内における配置位置はシーンマネージャSMによって決定される。バーチャルカメラVCは、例えば、3DCG空間内に会議参加者が視覚可能なオブジェクトとして描画されてもよく、会議参加者に視認されないようにしてもよい。また、バーチャルカメラVCのオブジェクトは、立体映像A1内のバーチャルカメラVC2、VC3のように、配信者U1の視聴する立体映像内に限定して描画し、視聴者には見せないようにしてもよい。バーチャルカメラVCの焦点距離やズームパラメータ、回転、視点位置等のバーチャルカメラ情報(以下、単に「カメラ情報」とも称す)はシーンマネージャSM、あるいは、バーチャルカメラVCを操作する配信者U1により制御される。バーチャルカメラVCは、「多視点3次元動画データに対して視点の設定を受け付ける手段」の一例である。
カメラプロセッサCは、バーチャルカメラVCのカメラ情報をタイムコードに対応付けて記録し、保存するコンピュータである。カメラプロセッサCは、バーチャルカメラVCのカメラ情報に基づいて、シーンマネージャSMと連携し、リモート会議が進行する3DCG空間内の立体映像を生成する。カメラプロセッサCは、バーチャルカメラVCのカメラ情報、バーチャルカメラVCの視点位置から見た3DCG空間内の立体映像をレンダラRに出力する。
レンダラRは、バーチャルカメラVCによって視点位置が指定された3DCG空間の立体映像を2次元映像(ビデオ)に変換する、所謂レンダリング処理を行うコンピュータである。レンダリング処理では、3DCG空間内のオブジェクトの2次元平面へのアフィン変換等の座標変換、照明処理等の描画処理が行われ、3DCG空間に配置されたポリゴン単位のデータが、バーチャルカメラVCの視点位置から見たピクセル単位のデータに変換される。レンダラRは、変換後のピクセル単位のデータに基づいて描画されたフレーム単位の2次元画像から2次元映像を作成し、作成した2次元映像を配信サーバCHに出力する。カメラプロセッサCとレンダラRは、「受け付けた視点から撮影対象をみたときの動画を生成する手段」の一例である。
配信サーバCHは、レンダラRから出力された2次元映像(ビデオ)を、外部ネットワークに接続されたスマートフォン等の2D映像デバイスに配信するコンピュータである。配信サーバCHは、上記2D映像デバイスを介して事後、あるいは、リアルタイムで視聴中の視聴者からの要求に従って、複数のレンダラR1、R2、R3等から出力された2次元映像の配信切り替えを行う。配信サーバCHは、「生成された動画を視聴者装置に提供する手段」の一例である。
〔2.装置構成〕
図2は、コンピュータのハードウェア構成の一例を示す構成図である。図1に示すシーンマネージャSM、カメラプロセッサC、レンダラR、配信サーバCHは、図2に示すコンピュータ100を用いて実現される。図2に例示のコンピュータ100は、接続バス1
06によって相互に接続されたCPU(Central Processing Unit)101、主記憶装置
102、補助記憶装置103、通信IF(Interface)104、入出力IF105を備え
る。CPU101はプロセッサとも呼ばれる。ただし、CPU101は、単一のプロセッサに限定される訳ではなく、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のCPU101がマルチコア構成であってもよい。また、上記構成要素はそれぞれ複数に設けられてもよいし、一部の構成要素を設けないようにしてもよい。
CPU101は、コンピュータ100全体の制御を行う中央処理演算装置である。CPU101は、補助記憶装置103に記憶されたプログラムを主記憶装置102の作業領域に実行可能に展開し、プログラムの実行を通じて周辺機器の制御を行うことで所定の目的に合致した機能を提供する。主記憶装置102は、CPU101がプログラムやデータをキャッシュしたり、作業領域を展開したりする記憶媒体である。主記憶装置102は、例えば、フラッシュメモリ、RAM(Random Access Memory)やROM(Read Only Memory)を含む。
補助記憶装置103は、OS(Operating System)、CPU101により実行される各種プログラムや、動作の設定情報などを記憶する記憶媒体である。補助記憶装置103は、例えば、HDD(Hard-disk Drive)やSSD(Solid State Drive)、EPROM(Erasable Programmable ROM)、フラッシュメモリ、USB(Universal Serial Bus)メモ
リ等である。補助記憶装置103には、CD(Compact Disc)ドライブ装置、DVD(Digital Versatile Disc)ドライブ装置、BD(Blu-ray(登録商標) Disc)ドライブ装置等が含まれる。記録媒体としては、例えば、不揮発性半導体メモリ(フラッシュメモリ)を含むシリコンディスク、ハードディスク、CD、DVD、BD、USB(Universal Serial Bus)メモリ、SD(Secure Digital)メモリカード等がある。
通信IF104は、コンピュータ100に接続するネットワーク、外部ネットワークとのインターフェースである。通信IF104には、所定の規格に基づいて通信を行う無線通信モジュールが含まれる。入出力IF105は、コンピュータ100に接続する他の装置との間でデータの入出力を行うインターフェースである。
CPU101のプログラムの実行により、図1に示すシーンマネージャSM、カメラプロセッサC、レンダラR、配信サーバCHの処理が提供される。但し、上記それぞれの処理の少なくとも一部が、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)等によって提供
されてもよい。同様にして、上記それぞれの処理の少なくとも一部が、FPGA(Field-Programmable Gate Array)、数値演算プロセッサ、ベクトルプロセッサ、画像処理プロ
セッサ等の専用LSI(large scale integration)、その他のデジタル回路であっても
よい。また、シーンマネージャSM、カメラプロセッサC、レンダラR、配信サーバCHの少なくとも一部にアナログ回路を含むとしてもよい。
〔3.データ構成〕
図3は、シーンマネージャSMにおいて記録・保存される3DCG空間内のオブジェクトについてのデータ構成の一例を示す図である。図3に示すように、シーンマネージャSMにおいて記録・保存される3DCG空間内のオブジェクトについてのデータは、タイムコード毎のレコードとして記録される。上記レコードは、「TC」、「Object」、「Pos(x,y,z)」、「Rot(p,y,r)」、「FOV(f)」、「Scale(s)」、「Option{Trigger,Target,…}」といったフィールドを有する。
「TC」フィールドには、3DCG空間内における絶対的な時間を表現するカウンタの
カウンタ値が格納される。カウンタ値は、例えば、0.1msといった周期で計測される。なお、「TC」フィールドには、計測されたカウンタ値から算出された時刻情報が格納されるとしてもよい。図3においては、“h:mm:ss”といった時暦、分歴、秒歴の形式の時刻情報が例示される。
「Object」フィールドには、3DCG空間内に配置されるオブジェクトを一意に識別する識別情報が格納される。また、「Object」フィールドに格納されるデータ例としては、バーチャルカメラVCを一意に識別する識別情報が挙げられる。図3においては、リモート会議の参加者の操作可能なアバター(P1,P2)が例示される。同様に、配信者U1が操作するバーチャルカメラVC1(HID1、HID2)、アバターを追従するバーチャルカメラVC2(CAM1)が例示される。バーチャルカメラVC1は、3DCG空間を立体視するための2つの視点位置(HID1、HID2)を有する。バーチャルカメラVC1の視点位置(HID1、HID2)は、配信者U1の備えるユーザ入力デバイスを介して操作される。
「Pos(x,y,z)」フィールドには、「Object」フィールドに格納されたオブジェクトの3DCG空間の座標が格納される。「Object」フィールドに格納されたオブジェクトが、会議参加者のアバターの場合には、そのオブジェクトを構成する複数のポリゴンの重心座標が格納される。「Object」フィールドに格納されたオブジェクトが、バーチャルカメラVCの場合には、視点位置の座標が格納される。配信者U1が操作するバーチャルカメラVC1の場合には、HID1、HID2のそれぞれについての視点位置の座標が格納される。
「Rot(p,y,r)」フィールドには、「Object」フィールドに格納されたオブジェクトの移動に伴う、ローカル座標の回転を表すパラメータ座標が格納される。バーチャルカメラVCの場合には、視点位置のピッチ軸、ヨー軸、ロール軸についての回転方向を表すパラメータ座標が格納される。配信者U1が操作するバーチャルカメラVC1の場合には、HID1、HID2のそれぞれについての上記座標が格納される。
「FOV(f)」フィールドには、バーチャルカメラVCのカメラ情報として画角を表すパラメータが格納される。「Scale(s)」フィールドには、「Object」フィールドに格納されたオブジェクトの3DCG空間の移動に伴う拡大/縮小のパラメータが格納される。「Option{Trigger,Target,…}」フィールドには、例えば、3DCG空間におけるオブジェクトに質感を与えるためのパラメータ、動作等を示すパラメータが格納される。バーチャルカメラVCの場合には、例えば、ズーム対象標や、配信者U1が操作するバーチャルカメラVC1の起動・停止等の情報が格納される。
〔4.処理フロー〕
以下、図4、5に示すフローチャートを参照し、情報処理システム10におけるシーンマネージャSMの処理を主に説明する。なお、図1に示すシーンマネージャSM、カメラプロセッサC、レンダラR、配信サーバCHは、CPU101が補助記憶装置103に記憶されている各種プログラムや各種データを主記憶装置102に読み出して実行することで、図4に示す処理を行う。なお、図5で後述するバーチャルカメラVC1の設定処理についても同様である。
図4は、シーンマネージャSMのイベントに係る事象の記録処理を示すフローチャートである。シーンマネージャSMは、情報処理システム10を介して提供するリモート会議の進行に伴うプロセスで発生した会議参加者(アバター)間のやり取り、バーチャルカメラVCのカメラ情報をタイムコードTCに対応付けて記録する。シーンマネージャSMは
、例えば、図3を用いて説明したデータ構成により、3DCG空間内に配置されるオブジェクト、バーチャルカメラVCのカメラ情報を補助記憶装置103に記録する。同様にして、シーンマネージャSMは、配信サーバCHから配信された2D映像の視聴者からのメッセージをタイムコードTCに対応付けて記録する。シーンマネージャSMでは、アプリケーションプログラムの実行により作成された、3DCG空間の映像は、リモート会議参加者にアバター視点を介した立体映像としてリアルタイムに提供される。
図4のフローチャートにおいて、処理の開始は、リモート会議といったコンテンツを提供するアプリケーションプログラムの実行のときが例示される。シーンマネージャSMは、3DCG空間内における絶対的な時間を表現するカウンタであるタイムコードTCを初期化(リセット)する(S1)。シーンマネージャSMは、例えば、会議場を構成する様々なオブジェクトを3DCG空間内のワールド座標系に配置する。そして、シーンマネージャSMは、会議参加者のログインを受け付けるまで待機する(S2)。但し、リモート会議に参加する会議参加者の人数や役職等が事前に通知されている場合には、予め会議参加者に割当てられたアバターを3DCG空間内に配置するとしてもよい。なお、上記オブジェクトは、例えば、シーンマネージャSMが参照する補助記憶装置103に予め登録される。図4の、待機状態(S2)においては、シーンマネージャSMは、S3からS7の処理で例示される複数のイベント待ちの状態にある。
シーンマネージャSMは、3DCG空間を用いて提供されるリモート会議の会議参加者(プレーヤー)のログイン、ログアウトを受け付ける(S3)。シーンマネージャSMは、会議参加者のログイン、ログアウトを受け付けた場合には(S3、受け付け)、受け付けた会議参加者のログイン、ログアウトをタイムコードTCに対応付けられたキー記録として記録する(S8)。キー記録には、例えば、会議参加者を一意に識別する識別情報、会議参加者に対応付けられた3D空間内のアバターの識別情報等が含まれる。
シーンマネージャSMは、ログインを受け付けた会議参加者に、アバター視点から見たリモート会議が行われる3DCG空間の立体映像を提供する。ログインした会議参加者は、例えば、HMD等を介して立体映像を視聴しながらアバターを操作し、会議場の移動や他の会議参加者への対話や働きかけを行う。3DCG空間で生じた会議参加者の行動によるイベントは、視聴中の立体映像に反映される。
シーンマネージャSMは、リモート会議が進行する3DCG空間を中継する複数の配信者Unのログイン、ログアウトを受け付ける(S4)。シーンマネージャSMは、配信者Unのログイン、ログアウトを受け付けた場合には(S4、受け付け)、受け付けた配信者Unのログイン、ログアウトをタイムコードTCに対応付けられたキー記録として記録する(S8)。キー記録には、例えば、配信者Unを一意に識別する識別情報、配信者Unが操作するバーチャルカメラVCnの識別情報が含まれる。なお、3DCG空間内における、配信者Unが操作するバーチャルカメラVCnの初期の配置位置は、シーンマネージャSMにより決定される。
配信者Unは、バーチャルカメラVCnの視点位置(HID1、HID2)を操作し、リモート会議が進行する3DCG空間を中継する。バーチャルカメラVCnの視点位置(HID1、HID2)は、3DCG空間内の任意の位置に設定される。シーンマネージャSMは、ログインを受け付けた配信者Unに、バーチャルカメラVCnの視点位置から見た3DCG空間の立体映像を出力する。配信者Unは、HMD等に表示された立体映像を視聴しながらバーチャルカメラVCnの視点位置を操作し、リモート会議が進行する3DCG空間を中継する。バーチャルカメラVCnの操作を介して中継された立体映像には、例えば、リモート会議の進行に伴うイベントに応じた3DCG空間内の移動、特定のアバターへのズームアップ等が反映される。
シーンマネージャSMは、会議参加者によるアバターへの操作入力を受け付ける(S5)。シーンマネージャSMは、受け付けた操作入力により、リモート会議が進行する3DCG空間に配置されたオブジェクト移動、回転、拡大・縮小が生じた場合には(S5、Yes)、タイムコードTCに対応付けて上記オブジェクト移動、回転、拡大・縮小を表すパラメータをキー記録として記録する(S9)。シーンマネージャSMは、例えば、図3に示すデータ構成を用いて対象オブジェクトについての各種パラメータを記録する。
シーンマネージャSMは、配信者UnによるバーチャルカメラVCnへの操作入力を受け付ける(S6)。シーンマネージャSMは、配信者UnによるバーチャルカメラVCnへの操作入力を受け付けた場合には(S6、Yes)、バーチャルカメラVCnのカメラ情報をタイムコードTCに対応付けてキー記録として記録する(S10)。シーンマネージャSMは、例えば、図3に示すデータ構成を用いて操作対象のバーチャルカメラVCnについてのカメラ情報を記録する。
シーンマネージャSMは、配信サーバCHから配信された2D映像の視聴者からのメッセージ(視聴者反応)を受け付ける(S7)。視聴者から受け付けたメッセージには、文字、音声、動作等のリアクション信号が含まれる。シーンマネージャSMは、配信サーバCHから配信された2D映像の視聴者からのメッセージを受け付けた場合には(S7、Yes)、受け付けたメッセージをタイムコードTCに対応付けて視聴者反応として記録する(S11)。
コンテンツの提供者(サービス事業者)は、例えば、シーンマネージャSMに記録されたメッセージに含まれる、配信された2D映像についての評価や要望等を提供するコンテンツやサービス内容に反映する。
次に、図5に示すフローチャートを参照し、シーンマネージャSMのバーチャルカメラVC1の設定処理を説明する。図5は、シーンマネージャSMのバーチャルカメラVC1の設定処理を示すフローチャートである。なお、図5に示すフローチャートの処理の開始およびS1の処理は、図4に示す処理と同様である。
シーンマネージャSMは、コントローラCNを介し、配信者Unの操作するバーチャルカメラVCnの操作入力を受け付ける(S21)。操作入力には、バーチャルカメラVCnのカメラ情報、例えば、3DCG空間内の視点位置(HID1、HID2の各座標)、ズームイン・ズームアウト(拡大・縮小)、カメラの向き(回転取得センサ)、画角、映像取得開始(HIDトリガーON/OFF)等を表すパラメータが含まれる。シーンマネージャSMは、受け付けたバーチャルカメラVCnのカメラ情報を取得し、主記憶装置102の所定の領域に一時的に記憶する。シーンマネージャSMの処理は、S22の処理に移行する。
シーンマネージャSMは、操作入力に映像取得開始を表すパラメータ(HIDトリガーON)が含まれている場合には(S22、Yes)、S23の処理に移行する。シーンマネージャSMは、操作入力に映像取得開始を表すパラメータ(HIDトリガーON)が含まれていない場合には(S22、No)、S21の処理に戻る。
シーンマネージャSMは、リモート会議が提供される3DCG空間内を任意の視点で中継するバーチャルカメラVCnが既に配置されているかを判定する(S23)。シーンマネージャSMは、上記のバーチャルカメラVCnが既に配置されている場合には(S23,Yes)、S26の処理に移行する。シーンマネージャSMは、上記のバーチャルカメラVCnが未だ配置されていない場合には(S23,No)、S24の処理に移行する。
S24の処理では、シーンマネージャSMは、図6を用いて後述するカメラ方向設定アルゴリズムに従って、バーチャルカメラVCnの視点位置(HID1、HID2)を設定する。シーンマネージャSMは、S24の処理で設定された視点位置(HID1、HID2)に、3DCG空間内を任意の視点で中継するバーチャルカメラVCnを配置する(S25)。3DCG空間におけるバーチャルカメラVCnの配置位置は、2つの視点位置(HID1、HID2)の中間点により表される。シーンマネージャSMの処理は、S27の処理に移行する。
S26の処理では、シーンマネージャSMは、バーチャルカメラVCnの位置、角度等を更新する。シーンマネージャSMは、S21の処理で受け付けたHID1、HID2の各座標からバーチャルカメラVCnの位置を更新し、カメラの向きからカメラの回転角度を更新する。シーンマネージャSMの処理は、S27の処理に移行する。
S27の処理では、シーンマネージャSMは、S25、S26の処理で設定されたバーチャルカメラVCnのカメラ情報等を補助記憶装置103に記録する。上記カメラ情報は、例えば、図3を用いて説明したデータ構成により記録される。シーンマネージャSMの処理は、S28の処理に移行する。
S28の処理では、シーンマネージャSMは、タイムコードTCのカウント値が記録可能時間に到達したかを判定する。ここで、記録可能時間とは、予め定められた設定時間であり、例えば、補助記憶装置103等のメモリ容量等から求めることができる。シーンマネージャSMは、タイムコードTCのカウント値が記録可能時間に到達している場合には(S28,Yes)、図5に示す処理を終了する。また、シーンマネージャSMは、タイムコードTCのカウント値が記録可能時間に到達していない場合には(S28,No)、S21の処理に移行し、図5に示す処理を継続する。
次に、図6を参照し、カメラ方向設定アルゴリズムを説明する。図6は、バーチャルカメラVCnのカメラ方向の設定を説明する説明図である。図6においては、バーチャルカメラVCnの視点方向の、右方向への回転(時計回り)を上面視した上面図が例示される。図6に示すバーチャルカメラVCnの状態は、(1)→(2)→(3)の順で変化する。なお、(1)に示す状態は、初期状態を表す。
図6において、HID1、HID2は、3DCG空間内におけるバーチャルカメラVCnの視点位置を表し、HID1とHID2の中間点P1が、バーチャルカメラVCnの配置位置を表す。上記視点位置、配置位置は、ワールド座標系で表される。HID1、HID2の視点位置は、バーチャルカメラVCnを操作する配信者Unによって設定される。なお、HID1とHID2との間の距離は、バーチャルカメラVCnの画角(FOV)、または、焦点処理(f)に対応付けられる。バーチャルカメラVCnの画角(FOV)は、例えば、配信者Unの操作入力、或いは、シーンマネージャSMの制御によって、HID1とHID2との間の距離を広げることで、バーチャルカメラVCnの画角(FOV)の広角化が可能になる。
中間点P1に配置されたバーチャルカメラVCnの、3DCG空間内の注視点は「VD」で表され、中間点P1から注視点VDに向かう矢印が3DCG空間内におけるバーチャルカメラVCnの視軸方向を表す。「VD1」はHID1による視軸方向を表し、「VD2」はHID2による視軸方向を表す。なお、図6に示すP2、P3は、配信者Unの左右の視点を表す。
図6に示すカメラ方向設定アルゴリズムにおいては、HID1の視軸方向の単位ベクト
ルを定数倍(h)した終点座標VP1と、HID2の視軸方向の単位ベクトルを定数倍(h)した終点座標VP2との中間点を用いて、カメラ方向が移動するバーチャルカメラVCnの注視点VDを設定する。
図6(1)に示すように、初期状態においては、終点座標VP1、VP2、注視点VDの座標は、バーチャルカメラVCnの視軸に直交する同一平面上に存在する。図6(1)の状態で、配信者Unの操作入力よってバーチャルカメラVCnの回転角度のセンサ値が入力される。シーンマネージャSMは、例えば、HID1の視軸の方向を維持した状態で、HID2の視軸を入力された回転角度に沿って右方向に回転させる(図6(2))。
図6(2)に示すように、シーンマネージャSMは、例えば、HID1の終点座標VP1と、回転移動したHID2の終点座標VP2との中間点にバーチャルカメラVCnの注視点VDを設定する。3DCG空間におけるバーチャルカメラVCnの視軸方向は、HID1とHID2との中間点P1と、回転移動後の上記注視点VDとを結ぶ直線方向となる。
シーンマネージャSMは、図6(2)に示す状態から、HID2の視軸を入力された回転角度に沿って右方向に回転させると共に、HID1の視軸を右方向に回転させる(図6(3))。このときの、HID1の視軸の右方向への回転移動量は、図6(2)に示すHID2の視軸の回転移動量に相当する。
図6(3)に示すように、シーンマネージャSMは、回転移動後のHID1の終点座標VP1と、HID2の終点座標VP2との中間点にバーチャルカメラVCnの注視点VDを設定する。3DCG空間におけるバーチャルカメラVCnの視軸方向は、HID1とHID2との中間点P1と、回転移動によって更新された注視点VDとを結ぶ直線方向になる。
シーンマネージャSMは、入力された回転角度のセンサ値が反映されるまで、上述した処理を連続して実行し、バーチャルカメラVCnの注視点VDと視軸方向を回転させる。シーンマネージャSMにおいては、図6を用いて説明したカメラ方向設定アルゴリズムを実行することで、バーチャルカメラVCnのより自然な回転操作を立体映像に反映する。
以上、説明したように、情報処理システム10は、リモート会議が進行する3DCG空間の任意の位置にバーチャルカメラを設定できる。情報処理システム10は、バーチャルカメラを介し、リモート会議が進行するプロセスで発生した会議参加者間のやり取り等の事象を、任意の視点位置から見た立体映像として中継できる。情報処理システム10は、中継された立体映像を2次元映像に変換できる。情報処理システム10は、リモート会議の様子を視聴する視聴者の有する、スマートフォン等の2D映像デバイスにリアルタイムに配信できる。
情報処理システム10においては、3次元映像で視聴するための専用デバイスや通信回線の帯域拡張といった環境整備を視聴者に負担させることなく、3DCG空間で進行中のリモート会議の様子がリアルタイムに視聴できる。
情報処理システム10は、2次元映像を視聴する視聴者からのメッセージ(文字、音声、動作等のリアクション信号)を受け付けることができる。情報処理システム10は、例えば、受け付けたメッセージに基づいて、リモート会議が進行する3DCG空間内のバーチャルカメラの中継する視点位置を移動できる。視点位置が更新されたバーチャルカメラの中継する立体映像は、2次元映像に変換されて視聴者に配信される。情報処理システム10は、配信中の2次元映像に視聴者の意図を反映できる。情報処理システム10におい
ては、視聴者の反応や視点を考慮した2次元映像が配信できる。
情報処理システム10は、リモート会議が進行する3DCG空間のオブジェクトの状態、バーチャルカメラの状態を示す情報を、タイムコードに関連付けて記録・保存することができる。情報処理システム10は、タイムコードに関連付けて記録・保存された情報に基づいて、リモート会議の立体映像を再現することができる。情報処理システム10は、再現されたリモート会議の2次元映像を、事後に視聴する視聴者の2D映像デバイスに配信できる。情報処理システム10は、事後に配信する2次元映像についても視聴者からのメッセージを受け付けることができる。情報処理システム10においては、事後においても視聴者の反応や視点を考慮した2次元映像が配信できる。
本実施形態に係る情報処理システム10によれば、CGで描画された3次元空間内における事象の、2次元映像デバイスを用いたリアルタイムおよび非同期の双方向参加が可能な技術が提供できる。
〔変形例〕
実施形態においては、情報処理システム10の提供するコンテンツは、3DCG空間を用いたコンテンツとして説明した。情報処理システム10は、例えば、実際の会議場をCCD(Charge-Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を備えるカメラで撮影し、撮影された会議場にアバター等のオブジェクトを配置する形態としてもよい。実際の会議場を用いることで、リモート会議における臨場感や没入感の向上が期待できる。
図7は、実空間の会議場A2を撮影するカメラRCを備える情報処理システムの一例を示す構成図である。カメラRCは、外部ネットワークに接続し、リモート会議の会議場となる実空間の映像を取得する。実空間の会議場の映像を撮影するカメラRCは、複数に存在し得る。
実空間の会議場の映像を撮影するカメラRCは、会議場に対して固定されているものとする。シーンマネージャSMは、例えば、カメラRCの位置、傾き、画角等のカメラ情報を用いて撮像された映像の動画フレームを解析し、会議場を撮影するカメラの視軸を推定する。そして、シーンマネージャSMは、固定されたカメラの視軸に基づいて、3DCGで描画されたアバター等のオブジェクトを配置するワールド座標系を特定する。シーンマネージャSMは、ワールド座標系に3DCGで作成されたオブジェクトを配置するための基準となるマーカ等を設定する。そして、シーンマネージャSMは、マーカ位置に3DCGで作成されたアバター等のオブジェクトを配置し、実施形態で説明したリモート会議のコンテンツを提供するとすればよい。なお、実空間を撮影するカメラRCが固定でない場合には、実空間内に撮影位置の推定基準となるマーカ(実マーカ)を設置すればよい。
リモート会議の会議参加者には、例えば、実空間で撮影中の会議場と3DCGで作成されたアバター等が合成された3次元空間が、アバター視点から見た立体映像として提供される。実空間から撮影された会議場においても、会議参加者は自身のアバターを操作し、会議における発言や対話、他者への働きかけや会議場内の移動等の行動が可能になる。
リモート会議の様子を中継する配信者Unは、実施形態と同様にしてバーチャルカメラVCnを操作し、合成された3次元空間の任意の視点位置から見た立体映像を中継することができる。
なお、情報処理システム10は、会議参加者や配信者といった被写体を撮影し、撮影された被写体の実空間における映像を3DCG空間に合成するとしてもよい。実空間における被写体の映像と3DCG空間の映像との合成として、クロマキー(Chroma key)合成が
例示される。図8、図9は、クロマキー合成を用いる際の、実空間における被写体の撮影を説明する図である。
図8、図9において、背景20はグリーンバック、あるいは、ブルーバックといった所定色の背景である。クロマキー合成においては、所定色の背景20が撮影された領域に、3DCGの映像が合成される。被写体21の映像は、背景20で指定される所定色の実空間を背景として、カメラ22によって撮影される。カメラ22は、例えば、カメラの配置位置、傾き、画角といったカメラ情報と共に被写体21の実空間における映像を撮影する。被写体21の位置は、センサ23によって特定される。なお、カメラ22は、例えば、撮影対象になる空間の奥行きを取得可能な奥行きカメラであってもよい。
図9に示すように、被写体21は、自身の頭部の動きを検知可能なHMD25や腕部の動きを検知するモーションセンサ24を備えるとしてもよい。被写体21が、情報処理システム10の提供する立体映像の配信者の場合には、実施形態で説明したように、合成された3DCG空間を任意の視点位置から中継するバーチャルカメラVCの操作デバイスを備える。HMD25、モーションセンサ24を介して検知された被写体21の動きは、合成される3DCG空間内の動作や行動に反映される。
図10は、合成映像の一例を示す図である。図10においては、図9に示す所定色の背景20に対する映像内の部分領域に対して、3DCG空間の映像26を合成した状態が例示される。情報処理システム10においては、被写体21が会議参加者の場合には、被写体21と3DCG空間で作成された映像26とを合成した立体映像がリモート会議の会議参加者に提供される。
図11は、2D映像デバイスに表示された合成映像の一例を示す図である。図11においては、2D映像デバイス27に表示された画面内には、HMD等を装着した被写体21と3DCG空間の映像26とが合成された状態で表示される。なお、図11の2D映像デバイス27は、HMD等を装着した被写体21と3DCG空間の映像26とが合成された立体映像を、裸眼で視聴可能なデバイスであってもよい。被写体21が、情報処理システム10の提供する立体映像の配信者の場合には、例えば、合成された3DCG空間で進行中の事象を任意の視点位置から中継すると共に、事象の解説や事象に至る背景を音声にて視聴者に通知できる。
次に、カメラで撮影された被写体がリモート会議に参加する形態について説明する。図12は、HMDを装着した被写体がリモート会議に参加する形態の説明図である。図12において、「C11」は、図8、図9で説明した被写体Uaを撮影するカメラを表す。また、「R11」は、被写体Uaの装着するHMDにリアルタイムに表示される映像を表し、「R12」は、外部ネットワークに接続する視聴者に配信される映像を表す。「R13」は、カメラC11で撮影された被写体Uaが合成されたリモート会議のリアルタイム映像を表す。被写体Uaは、HMDに表示される映像を視聴しながらリモートに参加する。HMDには、例えば、HMDを介して検知された被写体Uaの頭部の動きに対応する視点位置の映像が表示される。
図8、図9を用いて説明したように、被写体Uaは、グリーンバック等のクロマキー合成が可能な背景を設置し、RGB映像を撮影可能なカメラC11、あるいは、撮影された映像領域から背景の切り出しが可能な奥行きカメラC11で自身を撮影する。カメラC11は、少なくともカメラ位置(Pos(x,y,z))、回転(Rot(p,y,r))を含むカメラ情報をタイムコードTCに対応付けて記録すると共に、上記カメラ情報と被写体Uaの映像をシーンマネージャSMに出力する。
シーンマネージャSMは、カメラC11の映像と3DCGのオブジェクトとをタイムコードTCを合致させて合成する。シーンマネージャSMによって合成されたカメラC11の映像と3DCG空間のオブジェクトは、映像R13に示すように、被写体Uaを含むクロマキー合成されたリアルタイム映像が生成される。映像R13の生成処理は、例えば、グリーンバック等で撮影されたフレーム毎のRGB画像の色空間を回転し、HSB(Hue
、Saturation、Brightness)空間に変換する。そして、上記生成処理においては、変換された画像に対する背景除去処理、および、カメラC11の視軸方向から視た3DCG映像との合成処理がリアルタイムで行われる。生成された映像R13は、配信サーバCHを介し、外部ネットワークに接続する視聴者の2D映像デバイスに2次元映像として配信される。
図13は、HMDを装着しない被写体がリモート会議に参加する形態の説明図である。被写体がHMDを装着しない形態においても、図12と同様の処理が行われる。但し、被写体Uaは、リアルタイムで進行するリモート会議の立体映像を裸眼で視聴可能な表示デバイスに表示された映像、あるいは、情報処理システム10によって変換された2D映像を視聴しながら参加すればよい。シーンマネージャSMは、例えば、補助記憶装置103に、カメラC11の映像と3DCG空間のオブジェクトを合成したリモート会議のデータを、オフライン動画ファイル(SV)として保存するとしてもよい。なお、シーンマネージャSMは、図12の形態についても同様にして、上記リモート会議のデータを補助記憶装置103に保存できる。
図13に示す形態は、例えば、事後に再生されるリモート会議の映像についても適用が可能である。図14は、HMDを装着しない被写体が事後に再生されるリモート会議に参加する形態の説明図である。図14においては、補助記憶装置103等にオフライン動画ファイル(SV)として保存された映像が、被写体Uaの視聴可能な映像として再生される。但し、再生される事後の映像は、他の資料映像やシーンを記録した動画やシーケンスといった互換を有する動画映像であってもよい。
図14において、情報処理システム10のシーンマネージャSMは、補助記憶装置103に保存されたオフライン動画ファイル(SV)を読み出して再生する。再生されたオフライン動画ファイル(SV)は、被写体Uaが視聴可能な表示デバイスに映像R11として表示される。ここで、映像R11は、被写体Uaが視聴可能な形態であれば、立体映像であってもよく、2D映像であってもよい。
図14の被写体Uaは、グリーンバック等のクロマキー合成が可能な背景を設置し、RGB映像を撮影可能なカメラC11、あるいは、撮影された映像領域から背景の切り出しが可能な奥行きカメラC11で自身を撮影する。カメラC11は、少なくともカメラ位置(Pos(x,y,z))、回転(Rot(p,y,r))を含むカメラ情報をタイムコードTCに対応付けて記録すると共に、上記カメラ情報と被写体Uaの映像をシーンマネージャSMに出力する。シーンマネージャSMは、カメラC11の映像と3DCGのオブジェクトとをタイムコードTCを合致させて合成し、被写体Uaがクロマキー合成された映像R13に示す映像を生成する。なお、映像R13の生成処理については、図13を用いて説明した。
オフライン動画ファイル(SV)を用いて生成された映像R13は、配信サーバCHを介し、外部ネットワークに接続する視聴者の2D映像デバイスに2次元映像として配信される。視聴者には、オフライン動画ファイル(SV)を用いて再生された立体映像内に、事後の参加者としてリモート会議に参加する被写体Uaを含む2次元映像が配信される。シーンマネージャSMは、再生されたオフライン動画ファイル(SV)に対して被写体Uaが合成された映像データを補助記憶装置103に保存できる。
図14に示す形態では、例えば、被写体Uaの身振りや手振り等のアクションを含む演技が、再生されたオフライン動画ファイル(SV)に対して反映される。被写体Uaの演技によっては、例えば、過去に進行されたリモート会議内に被写体Uaが存在しているかのような映像を合成し、タイムコードTCに対応付けて記録することが可能になる。
この結果、図14に示す形態の情報処理システム10においては、リアルタイムで会議に参加できなかった人物が、HMDの装着無しに会議に参加し、発言を記録するといったデータの共有化が可能になる。
補助記憶装置103に保存されたオフライン動画ファイル(SV)は、再帰的に使用できるため、複数の会議参加者がタイムコード上において前後して参加する「時間を超えた会議」が可能になる。
図15は、実空間における被写体を撮影するカメラを備える場合の、イベントに係る事象の記録処理を示すフローチャートである。情報処理システム10が実空間における被写体を撮影するカメラを備える場合には、例えば、シーンマネージャSMは、図4に示すS1の処理の実行前に、図15に示すS31からS33の処理を実行するとすればよい。
図15のS31の処理では、シーンマネージャSMは、実空間における被写体を撮影するカメラ(実カメラ)の存在を判定する。シーンマネージャSMは、実カメラが存在する場合には(S31,有)、S33の処理に移行する。一方、シーンマネージャSMは、実カメラが存在しない場合には(S31,無)、S32の処理に移行する。S32の処理では、シーンマネージャSMは、実施形態で説明した3DCG空間のコンテンツ映像を生成する。また、S33の処理では、シーンマネージャSMは、変形例で説明した実カメラで撮影された被写体の映像と3DCG空間のオブジェクトとの座標系を合致させて合成されたコンテンツ映像(合成映像)を生成する。図15に示す処理を実行するシーンマネージャSMにおいては、S32あるいはS33の処理で生成された映像コンテンツのオブジェクトを対象として、図4に示すイベントに係る事象の記録処理が行われる。
なお、図15のS31に示す処理は、例えば、コンテンツ提供者、あるいは、配信者の操作入力であってもよい。例えば、S32の処理で生成されるコンテンツとS33の処理で生成されるコンテンツのそれぞれが提供可能な場合に、シーンマネージャSMは、操作入力に従って生成するコンテンツの選択が可能になる。
他の変形例として、情報処理システム10は、視聴者からのメッセージを収集して解析し、配信者の視点を評価するとしてもよい。評価の高い配信者には、配信希望者が相対的に集まるため、例えば、配信映像に含まれる広告等の広告効果が期待できる。また、情報処理システム10においては、視聴者からのメッセージを収集して解析することで、視聴者の興味の傾向を把握することが可能になる。また、情報処理システム10の提供する、事後における映像配信のサービス形態として、視聴者を配信者に採用することも可能である。配信映像に対する、視聴者の視点から見た演出・編集が可能になる。
10 情報処理システム
20 背景
21 被写体
22 カメラ
23 センサ
24 モーションセンサ
25 HMD
26 映像
27 2D映像デバイス
100 コンピュータ
101 CPU
102 主記憶装置
103 補助記憶装置
104 入出力IF
105 通信IF
106 接続バス
C、C1、C2、C3 カメラプロセッサ
C11 カメラ
VC、VC1、VC2、VC3 バーチャルカメラ(仮想カメラ)
P1、P2 アバター
R、R1、R2、R3 レンダラ
RC カメラ(実カメラ)
SM シーンマネージャ
SV オフライン動画ファイル

Claims (6)

  1. 撮影対象を多視点で撮影した多視点3次元動画データを生成する動画データ生成手段と、
    前記多視点3次元動画データに対して視点の設定を受け付ける手段と、
    前記受け付けた視点から前記撮影対象をみたときの動画を生成する手段と、
    前記生成された動画を視聴者装置に提供する手段と、
    前記視聴者装置から前記動画に対する反応を受け付ける手段と、
    前記設定された視点と、前記多視点3次元動画データ中の時刻と、前記反応とを記録する手段と、
    を備える情報処理システム。
  2. 前記多視点3次元動画データに対して視点の設定を受け付ける手段は、
    前記視聴者から受け付けた反応に基づいて、前記多視点3次元動画データに対する視点を設定する、請求項1に記載の情報処理システム。
  3. 撮像装置をさらに備え、
    前記動画データ生成手段は、前記撮像装置で撮影された撮影対象を含む多視点3次元動画データを生成する、請求項1または2に記載の情報処理システム。
  4. 相互に接続するコンピュータが、
    撮影対象を多視点で撮影した多視点3次元動画データを生成するステップと、
    前記多視点3次元動画データに対して受け付けた視点から前記撮影対象を見たときの動画を生成するステップと、
    前記生成された動画を視聴者装置に提供するステップと、
    前記視聴者装置から前記動画に対する反応を受け付けるステップと、
    前記設定された視点と、前記視点が設定された時刻と、前記反応とを記録するステップと、
    を実行する情報処理方法。
  5. 前記設定された視点と前記視点が設定された時刻とにおいて前記生成された動画を視聴者に視聴させるステップを有し、
    視聴する状態における視聴者およびその反応を記録し保存する撮影手段によって前記生成された動画と他の動画との間で、少なくとも座標系、色調、視点方向を合わせた合成処理を実行する、請求項4に記載の情報処理方法。
  6. 前記設定された視点と、前記視点が設定された時刻と前記生成された動画を保存する手段を有し、
    視聴する状態における視聴者およびその反応を記録し保存する撮影手段によって前記生成された動画と、前記保存された動画もしくは互換を有する他の動画との間で、少なくとも座標系、色調、視点方向を合わせた合成処理を実行する、請求項4に記載の情報処理方法。
JP2016209910A 2016-10-26 2016-10-26 情報処理システム、情報処理方法、および情報処理プログラム Active JP6853013B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016209910A JP6853013B2 (ja) 2016-10-26 2016-10-26 情報処理システム、情報処理方法、および情報処理プログラム
JP2021039030A JP7135141B2 (ja) 2016-10-26 2021-03-11 情報処理システム、情報処理方法、および情報処理プログラム
JP2022138117A JP7368886B2 (ja) 2016-10-26 2022-08-31 情報処理システム、情報処理方法、および情報処理プログラム
JP2023173869A JP2023181217A (ja) 2016-10-26 2023-10-05 情報処理システム、情報処理方法、および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016209910A JP6853013B2 (ja) 2016-10-26 2016-10-26 情報処理システム、情報処理方法、および情報処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021039030A Division JP7135141B2 (ja) 2016-10-26 2021-03-11 情報処理システム、情報処理方法、および情報処理プログラム

Publications (3)

Publication Number Publication Date
JP2018074294A true JP2018074294A (ja) 2018-05-10
JP2018074294A5 JP2018074294A5 (ja) 2019-12-12
JP6853013B2 JP6853013B2 (ja) 2021-03-31

Family

ID=62111658

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2016209910A Active JP6853013B2 (ja) 2016-10-26 2016-10-26 情報処理システム、情報処理方法、および情報処理プログラム
JP2021039030A Active JP7135141B2 (ja) 2016-10-26 2021-03-11 情報処理システム、情報処理方法、および情報処理プログラム
JP2022138117A Active JP7368886B2 (ja) 2016-10-26 2022-08-31 情報処理システム、情報処理方法、および情報処理プログラム
JP2023173869A Pending JP2023181217A (ja) 2016-10-26 2023-10-05 情報処理システム、情報処理方法、および情報処理プログラム

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2021039030A Active JP7135141B2 (ja) 2016-10-26 2021-03-11 情報処理システム、情報処理方法、および情報処理プログラム
JP2022138117A Active JP7368886B2 (ja) 2016-10-26 2022-08-31 情報処理システム、情報処理方法、および情報処理プログラム
JP2023173869A Pending JP2023181217A (ja) 2016-10-26 2023-10-05 情報処理システム、情報処理方法、および情報処理プログラム

Country Status (1)

Country Link
JP (4) JP6853013B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019215782A (ja) * 2018-06-14 2019-12-19 株式会社バーチャルキャスト データ差し替え装置、端末、およびデータ差し替えプログラム
JP2019220147A (ja) * 2019-03-28 2019-12-26 株式会社バーチャルキャスト データ差し替え装置、端末、およびデータ差し替えプログラム
JP2020108074A (ja) * 2018-12-28 2020-07-09 株式会社バンダイナムコエンターテインメント サーバシステム、プログラムおよび動画配信システム
JP2020123981A (ja) * 2020-04-24 2020-08-13 株式会社バーチャルキャスト コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路
JP2021057701A (ja) * 2019-09-27 2021-04-08 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置、及び方法
JP2022067190A (ja) * 2020-10-20 2022-05-06 株式会社タカラトミー 情報処理システム及び情報処理方法
JP7138317B1 (ja) 2022-02-21 2022-09-16 株式会社4Colors 動画生成システム、動画生成プログラム、及び、動画生成方法
JP7167388B1 (ja) 2021-12-24 2022-11-09 正啓 榊原 動画作成システム、動画作成装置、及び動画作成用プログラム
EP4140552A1 (en) 2021-08-30 2023-03-01 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
JP7312337B1 (ja) * 2023-03-29 2023-07-20 株式会社バーチャルキャスト 会議システム、制御装置、制御方法、プログラム、および記録媒体
JP7460922B2 (ja) 2022-03-10 2024-04-03 株式会社カプコン 情報処理システムおよびプログラム
WO2024084580A1 (ja) * 2022-10-18 2024-04-25 日本電信電話株式会社 体性感覚制御装置、方法およびプログラム
WO2024100703A1 (ja) * 2022-11-07 2024-05-16 マクセル株式会社 映像表示装置、映像表示システム及び映像表示装置の制御方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116055670B (zh) * 2023-01-17 2023-08-29 深圳图为技术有限公司 基于网络会议的协同校审三维模型的方法和网络会议***

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143505A (ja) * 2001-11-06 2003-05-16 Sony Corp 表示画像制御処理装置、動画像情報送受信システム、および表示画像制御処理方法、動画像情報送受信方法、並びにコンピュータ・プログラム
JP2006013978A (ja) * 2004-06-28 2006-01-12 Sharp Corp テレビ放送送信機、テレビ放送受信機、ブロードキャスト番組参加システム、及び方法
JP2013251787A (ja) * 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
WO2014132987A1 (ja) * 2013-02-27 2014-09-04 ブラザー工業株式会社 情報処理装置及び情報処理方法
WO2015038976A1 (en) * 2013-09-13 2015-03-19 3D-4U, Inc. Video production sharing apparatus and method
JP2016082328A (ja) * 2014-10-14 2016-05-16 日本放送協会 画像合成装置及びそのプログラム
JP2016123069A (ja) * 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 映像配信方法、映像受信方法、サーバ及び端末装置
JP2016526957A (ja) * 2013-06-07 2016-09-08 株式会社ソニー・インタラクティブエンタテインメント 三次元ゲームプレイの共有

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2534617B2 (ja) * 1993-07-23 1996-09-18 株式会社エイ・ティ・アール通信システム研究所 人物像の実時間認識合成方法
JP2004062751A (ja) * 2002-07-31 2004-02-26 Daikin Ind Ltd データ伝送システム、データ送信装置および方法、データ受信装置および方法、並びにプログラム
JP2006067405A (ja) 2004-08-30 2006-03-09 Sharp Corp テレビ放送送信機、テレビ放送受信機、ブロードキャスト番組参加システム、及び方法
JP6319952B2 (ja) * 2013-05-31 2018-05-09 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US10775878B2 (en) * 2015-04-10 2020-09-15 Sony Interactive Entertainment Inc. Control of personal space content presented via head mounted display

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143505A (ja) * 2001-11-06 2003-05-16 Sony Corp 表示画像制御処理装置、動画像情報送受信システム、および表示画像制御処理方法、動画像情報送受信方法、並びにコンピュータ・プログラム
JP2006013978A (ja) * 2004-06-28 2006-01-12 Sharp Corp テレビ放送送信機、テレビ放送受信機、ブロードキャスト番組参加システム、及び方法
JP2013251787A (ja) * 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
WO2014132987A1 (ja) * 2013-02-27 2014-09-04 ブラザー工業株式会社 情報処理装置及び情報処理方法
JP2016526957A (ja) * 2013-06-07 2016-09-08 株式会社ソニー・インタラクティブエンタテインメント 三次元ゲームプレイの共有
WO2015038976A1 (en) * 2013-09-13 2015-03-19 3D-4U, Inc. Video production sharing apparatus and method
JP2016082328A (ja) * 2014-10-14 2016-05-16 日本放送協会 画像合成装置及びそのプログラム
JP2016123069A (ja) * 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 映像配信方法、映像受信方法、サーバ及び端末装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
加藤博一 他: "拡張現実感技術を用いたビデオ会議システムとその評価", 映像情報メディア学会技術報告, vol. 25, no. 48, JPN6020042713, pages 29 - 34, ISSN: 0004382908 *
小林稔,石橋聡: "「場」の通信を目指す仮想共有環境 高臨場感ディスプレイを用いた没入型コミュニケーションシステム", 画像ラボ, vol. 第13巻,第12号, JPN6020042711, December 2002 (2002-12-01), pages 29 - 33, ISSN: 0004382907 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019215782A (ja) * 2018-06-14 2019-12-19 株式会社バーチャルキャスト データ差し替え装置、端末、およびデータ差し替えプログラム
US11531401B2 (en) 2018-06-14 2022-12-20 Dwango Co., Ltd. Data replacement apparatus, computing device, and program for user and avatar coordination
WO2019240276A1 (ja) * 2018-06-14 2019-12-19 株式会社ドワンゴ データ差し替え装置、端末、およびデータ差し替えプログラム
US11209911B2 (en) 2018-06-14 2021-12-28 Dwango Co., Ltd. Data replacement apparatus and program for head mounted display
CN111448536A (zh) * 2018-06-14 2020-07-24 多玩国株式会社 数据替换装置、终端及数据替换程序
JP2020108074A (ja) * 2018-12-28 2020-07-09 株式会社バンダイナムコエンターテインメント サーバシステム、プログラムおよび動画配信システム
JP7361468B2 (ja) 2018-12-28 2023-10-16 株式会社バンダイナムコエンターテインメント サーバシステム、制御方法およびプログラム
JP7111645B2 (ja) 2019-03-28 2022-08-02 株式会社バーチャルキャスト 制御プログラム
JP2019220147A (ja) * 2019-03-28 2019-12-26 株式会社バーチャルキャスト データ差し替え装置、端末、およびデータ差し替えプログラム
JP2021057701A (ja) * 2019-09-27 2021-04-08 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置、及び方法
US11930228B2 (en) 2019-09-27 2024-03-12 Gree, Inc. Computer program, server device, terminal device and method
JP7360112B2 (ja) 2019-09-27 2023-10-12 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置、及び方法
JP2020123981A (ja) * 2020-04-24 2020-08-13 株式会社バーチャルキャスト コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム、コンテンツ配信用サーバ、および伝送路
JP7102457B2 (ja) 2020-04-24 2022-07-19 株式会社バーチャルキャスト コンテンツ配信システム、コンテンツ配信方法、およびコンピュータプログラム
JP2022067190A (ja) * 2020-10-20 2022-05-06 株式会社タカラトミー 情報処理システム及び情報処理方法
JP7261207B2 (ja) 2020-10-20 2023-04-19 株式会社タカラトミー 情報処理システム及び情報処理方法
EP4140552A1 (en) 2021-08-30 2023-03-01 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
JP7167388B1 (ja) 2021-12-24 2022-11-09 正啓 榊原 動画作成システム、動画作成装置、及び動画作成用プログラム
JP2023094758A (ja) * 2021-12-24 2023-07-06 正啓 榊原 動画作成システム、動画作成装置、及び動画作成用プログラム
WO2023120691A1 (ja) * 2021-12-24 2023-06-29 正啓 榊原 動画作成システム、動画作成装置、及び動画作成用プログラム
JP2023121409A (ja) * 2022-02-21 2023-08-31 株式会社4Colors 動画生成システム、動画生成プログラム、及び、動画生成方法
JP7138317B1 (ja) 2022-02-21 2022-09-16 株式会社4Colors 動画生成システム、動画生成プログラム、及び、動画生成方法
JP7460922B2 (ja) 2022-03-10 2024-04-03 株式会社カプコン 情報処理システムおよびプログラム
WO2024084580A1 (ja) * 2022-10-18 2024-04-25 日本電信電話株式会社 体性感覚制御装置、方法およびプログラム
WO2024100703A1 (ja) * 2022-11-07 2024-05-16 マクセル株式会社 映像表示装置、映像表示システム及び映像表示装置の制御方法
JP7312337B1 (ja) * 2023-03-29 2023-07-20 株式会社バーチャルキャスト 会議システム、制御装置、制御方法、プログラム、および記録媒体

Also Published As

Publication number Publication date
JP7368886B2 (ja) 2023-10-25
JP2021101557A (ja) 2021-07-08
JP2023181217A (ja) 2023-12-21
JP7135141B2 (ja) 2022-09-12
JP2022177053A (ja) 2022-11-30
JP6853013B2 (ja) 2021-03-31

Similar Documents

Publication Publication Date Title
JP7135141B2 (ja) 情報処理システム、情報処理方法、および情報処理プログラム
EP3954111A1 (en) Multiuser asymmetric immersive teleconferencing
JP2005122742A (ja) リアルタイムレンダリング方法
WO2018214746A1 (zh) 一种视频会议实现方法、装置、***及计算机存储介质
KR20150105058A (ko) 온라인을 이용한 혼합현실형 가상 공연 시스템
KR101739220B1 (ko) 게임 플레이 상황에 대한 특수 영상 생성 시스템
JPWO2019123509A1 (ja) 端末装置、システム、プログラム及び方法
CN110730340B (zh) 基于镜头变换的虚拟观众席展示方法、***及存储介质
JP7202935B2 (ja) 注目度算出装置、注目度算出方法、および注目度算出プログラム
EP3665656B1 (en) Three-dimensional video processing
KR20190031220A (ko) Vr 콘텐츠 제공 시스템 및 방법
JP2020187706A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP6454883B1 (ja) コンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラム
JP6091850B2 (ja) テレコミュニケーション装置及びテレコミュニケーション方法
KR102261242B1 (ko) 360도 3차원 영상 재생시스템
JP4330494B2 (ja) ブロードキャスト番組参加システム、及び方法
EP2355500A1 (en) Method and system for conducting a video conference with a consistent viewing angle
CN114625468A (zh) 增强现实画面的展示方法、装置、计算机设备及存储介质
CN108270978B (zh) 一种图像处理方法和装置
JP2020102236A (ja) コンテンツ配信システム、受信装置及びプログラム
JP2020102053A (ja) コンテンツ配信システム、受信装置及びプログラム
Van Broeck et al. Real-time 3D video communication in 3D virtual worlds: Technical realization of a new communication concept
JP2023184358A (ja) 画像処理システム、画像処理システムの制御方法、及びプログラム
KR20220058096A (ko) 포인트 클라우드를 이용한 게임 리플레이 시스템
JP2023065073A (ja) 画像生成システム及び画像生成方法

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20161124

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191007

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191025

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191007

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210311

R150 Certificate of patent or registration of utility model

Ref document number: 6853013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531