JP2007079799A - 仮想空間表示装置および仮想空間表示方法 - Google Patents

仮想空間表示装置および仮想空間表示方法 Download PDF

Info

Publication number
JP2007079799A
JP2007079799A JP2005265413A JP2005265413A JP2007079799A JP 2007079799 A JP2007079799 A JP 2007079799A JP 2005265413 A JP2005265413 A JP 2005265413A JP 2005265413 A JP2005265413 A JP 2005265413A JP 2007079799 A JP2007079799 A JP 2007079799A
Authority
JP
Japan
Prior art keywords
virtual space
user
image
projector
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005265413A
Other languages
English (en)
Inventor
Yoichiro Serita
陽一郎 芹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2005265413A priority Critical patent/JP2007079799A/ja
Publication of JP2007079799A publication Critical patent/JP2007079799A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】 現実世界と仮想世界を関連づけ、相互作用をもたせることで、ネットワークを利用した新たなコミュニケーションの形態を実現する。
【解決手段】 端末のディスプレイ120Aには、仮想空間内に設けられた擬似的なプロジェクタ140Aと、仮想空間内を探索するユーザAのキャラクタ160AとユーザBのキャラクタ160Bが表示される。仮想空間にはユーザAの送信エリア150Aが設けられ、送信エリア150A内にいずれかのユーザのキャラクタが入ると、そのユーザにより撮影された実写映像がユーザAのプロジェクタ140Aに映し出される。送信エリア150A内に複数のユーザのキャラクタが存在する場合、その複数のユーザのそれぞれによって撮影された実写画像がプロジェクタ140A内に統合されるときの大きさが、各ユーザのキャラクタの状態量や実写画像内の動き量に応じて相対的に調整される。
【選択図】 図7

Description

この発明は、仮想空間内に3次元オブジェクトを表示する仮想空間表示装置および仮想空間表示方法に関する。
ネットワークに接続された複数のユーザ端末が仮想空間を共有し、この仮想空間内でユーザがキャラクタを操作して仮想世界を探索したり、ユーザのキャラクタ同士が仮想世界で遭遇することにより、ユーザ間でチャットのようなコミュニケーションをとることのできるシステムが利用されている。そのようなシステムでは、仮想空間内に3次元オブジェクトを描画するために3次元コンピュータグラフィックスの技術が利用されている。
一方、複数の遠隔地間をネットワークで結んでテレビ会議などを行うことのできる遠隔コミュニケーションシステムや、遠隔地の様子を監視カメラなどで撮影し、ネットワークを介して映像を送信する遠隔監視システムなどがある。
今後、ブロードバンドのネットワークを前提として、仮想世界および現実世界でのコミュニケーションシステムの利用がより一層促進することが予想されている。このような状況下、本出願人は、現実世界と仮想世界を関連づけ、相互作用をもたせることで、ネットワークを利用した新たなコミュニケーションの形態を実現する可能性を認識するに至った。
本発明はこうした状況に鑑みてなされたものであり、その目的は、現実世界と仮想世界に関連性をもたせて仮想空間を表示することのできる仮想空間表示装置および仮想空間表示方法を提供することにある。
上記課題を解決するために、本発明のある態様の仮想空間表示装置は、ネットワークに接続された複数のユーザの端末が仮想空間を共有するシステムにおいて、各ユーザが前記仮想空間内で操作する移動オブジェクトが前記仮想空間内の所定のエリア内に存在するかどうかを判定する判定部と、前記判定部により、前記所定のエリア内に前記移動オブジェクトが存在すると判定されたユーザの端末から、そのユーザによって撮影された実写画像のデータを前記ネットワークを介して取得する実写画像取得部と、前記所定のエリアに対応づけて前記仮想空間内に設けられた疑似的なプロジェクタ内に前記実写画像を統合する画像統合部とを含む。
ここで、「疑似的なプロジェクタ内に実写画像を統合する」とは、プロジェクタ内に表示すべき実写画像が1つ以上ある場合に、1つ以上の実写画像をプロジェクタ内に統合することであるが、特別な場合として、表示すべき実写画像が1つしか存在しない場合も含める趣旨である。また、実写画像をプロジェクタ内に統合することは、1つ以上の表示すべき実写画像をすべてプロジェクタ内に表示する場合だけでなく、少なくとも一部の実写画像をサムネイル画像やアイコン画像のようにして表示したり、非表示状態にすることも含める趣旨である。
「所定のエリア」は、仮想空間内に明示的に設定されてもよいが、疑似的なプロジェクタの近傍などの所定の位置にあるものとして扱われてもよい。
前記画像統合部は、前記所定のエリア内に前記移動オブジェクトが存在すると判定されたユーザが複数存在する場合に、その複数のユーザのそれぞれによって撮影された実写画像を前記疑似的なプロジェクタ内に統合する際の強調度合いを、前記複数のユーザが仮想空間内で操作する移動オブジェクトの状態量に応じて相対的に調整してもよい。
「実写画像の強調度合い」は、解像度、フレームレート、画質、彩度、明度などにより調整されてもよい。また、「移動オブジェクトの状態量」には、移動量、移動速度、キャラクタの姿勢や視線方向などがある。
本発明の別の態様は、仮想空間表示方法である。この方法は、複数のユーザの端末がネットワーク上に形成された仮想空間を共有するシステムにおいて、各ユーザが前記仮想空間内で操作する移動オブジェクトが前記仮想空間内の所定のエリア内に存在するかどうかを判定し、前記所定のエリア内に前記移動オブジェクトが存在すると判定されたユーザによって撮影された実写画像を前記仮想空間内に設けられた疑似的なプロジェクタ内に表示する。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、現実世界と仮想世界に関連性をもたせて仮想空間を表示することができる。
図1は、実施の形態に係る仮想空間表示システムの構成図である。仮想空間表示システムは、仮想空間管理サーバ200と複数の端末(ここでは、2つの端末100A、100Bを例示する)がネットワーク300に接続されて構成される。
仮想空間管理サーバ200は、仮想空間内の3次元オブジェクトを管理し、各端末100A、100Bに3次元オブジェクトのデータを提供する。各端末100A、100Bは、仮想空間を共有し、仮想空間内の3次元オブジェクトを各ディスプレイ120A、120Bに表示する。
各端末100A、100Bには、ビデオカメラ110A、110Bが有線または無線で接続されており、撮影された実写画像が取り込まれる。各端末100A、100Bに取り込まれた実写画像は、仮想空間管理サーバ200に送信され、仮想空間内で映像オブジェクトとして共有される。仮想空間管理サーバ200は、複数の端末100A、100Bから送られた実写画像を適宜統合した上で、各端末100A、100Bに統合された実写画像を送信する。各端末100A、100Bは、統合された実写画像を仮想空間の仮想画像と合成して、各ディスプレイ120A、120Bに表示する。
仮想空間内には、実写画像が表示される擬似的なプロジェクタが仮想オブジェクトとして存在し、この疑似プロジェクタに各端末100A、100Bのビデオカメラ110A、100Bで撮影された実写画像が統合されて表示される。
各端末100A、100BのユーザA、Bは、仮想空間において、キャラクタなどの移動オブジェクトを操作し、仮想空間内を探索する。各端末100A、100Bにおいて撮影される実写画像は、ユーザ自身の姿やユーザが撮影した現実空間の物体などである。実写映像が仮想空間内の疑似プロジェクタに表示されることで、仮想空間と現実空間の間に接点が生まれる。これにより、疑似プロジェクタを仮想空間内の共有場として、ユーザ間のさまざまなコミュニケーションが可能となる。
仮想空間でユーザが操作するキャラクタと、疑似プロジェクタに表示されるユーザが撮影した実写画像の間には相互作用がある。たとえば、仮想空間内でユーザのキャラクタが疑似プロジェクタに近づいたり、ユーザのキャラクタの動き量が大きい場合などに、疑似プロジェクタにそのユーザが撮影した実写画像が大きく表示される。
また、疑似プロジェクタに複数のユーザの実写画像が統合されて表示される場合、各ユーザの実写画像の相対的な大きさは、各ユーザのキャラクタと疑似プロジェクタの間の距離や、各ユーザのキャラクタの動き量などによって、変化する。さらに、各ユーザのキャラクタ同士が仮想空間内で接近するなどの相互作用があると、疑似プロジェクタ内で各ユーザの実写画像の大きさや表示位置が相対的に変化する。
このように仮想空間内でユーザがキャラクタを操作することが疑似プロジェクタ内の実写画像の表示形態に影響を与える。また、逆に、現実世界で起きた事象が、疑似プロジェクタ内の実写映像の表示形態に影響を及ぼすこともある。たとえば、ユーザが手を振るなど、動きがあった場合に、疑似プロジェクタ内のそのユーザの実写画像が、他のユーザの実写画像よりも大きく表示される。
以下の説明では、各端末100A、100Bを総称するときは、端末100と表記し、それぞれに接続されているビデオカメラ110A、110B、ディスプレイ120A、120Bについても総称するときは、ビデオカメラ110、ディスプレイ120と表記する。
図2は、端末100の構成図である。実写画像処理部10は、ビデオカメラ110により撮影された実写画像を仮想空間内で共有するために、通信部50を介して仮想空間管理サーバ200に送信する。仮想空間管理サーバ200は、複数の端末100から受け取った実写画像を仮想空間内に設けられた疑似プロジェクタに表示するために1つの画像に統合する。実写画像処理部10は、通信部50を介して統合実写画像を仮想空間管理サーバ200から受け取り、仮想空間の仮想画像と合成させるために描画処理部40に与える。
描画処理部40は、仮想空間管理サーバ200から通信部50を介して3次元オブジェクトのデータを受け取り、仮想空間内の3次元オブジェクトの描画処理を行い、仮想画像をディスプレイ120に表示する。また、描画処理部40は、実写画像処理部10から統合実写画像を受け取り、仮想空間内の疑似プロジェクタに映し出す形で仮想世界の仮想画像と合成し、ディスプレイ120に表示する。
操作部30は、仮想空間内のユーザのキャラクタに対する操作を受け付け、描画処理部40に操作内容を与える。描画処理部40は操作内容にしたがってキャラクタを描画する。たとえば、ユーザがコントローラなどを操作して、キャラクタを仮想空間内で移動させる指示を与えると、操作部30は、キャラクタの移動方向と移動量を描画処理部40に与え、描画処理部40は、キャラクタを仮想空間内で移動させて描画する。
図3は、端末100の実写画像処理部10の詳細な構成を説明する図である。実写画像入力部12は、ビデオカメラ110により撮影された実写画像の入力を受け付け、パラメータ抽出部14と画像変換部16に与える。
パラメータ抽出部14は、後述の仮想空間管理サーバ200のアップロード部212から通信部50を介して画像内の物体の動きなどの特徴パラメータを抽出するプログラムを受け取り、その特徴抽出プログラムを用いて、実写画像入力部12から供給された実写画像から指定された特徴パラメータを抽出する。
抽出された特徴パラメータの値は、当該端末100のビデオカメラ110で撮影された実写画像に固有の絶対的な量であるから、「絶対パラメータ」と呼ぶ。パラメータ抽出部14は、絶対パラメータを仮想空間管理サーバ200のパラメータ統合部216に通信部50を介して送信する。
画像変換部16は、仮想空間管理サーバ200のアップロード部212から通信部50を介して実写画像を変換するプログラムとその変換処理に必要な変換パラメータを受け取る。この変換パラメータの値は、当該端末100の実写画像と他の端末の実写画像との関係で相対的に決められる量であるから、「相対パラメータ」と呼ぶ。画像変換部16は、相対パラメータにもとづいて実写画像入力部12から与えられた実写画像を変換し、変換処理後の実写画像データを仮想空間管理サーバ200の画像統合部218に通信部50を介して送信する。
統合画像取得部18は、仮想空間管理サーバ200の画像統合部218から複数の端末の実写画像が相対パラメータの割合で統合された画像のデータを通信部50を介して受け取り、描画処理部40に与える。
図4は、仮想空間管理サーバ200の構成図である。仮想空間管理サーバ200は、仮想オブジェクト記憶部260に仮想空間内の3次元オブジェクトのデータを格納し、仮想空間を管理する。
仮想空間処理部250は、端末100が仮想空間を表示する際に必要なオブジェクトのデータを仮想オブジェクト記憶部260から読み出し、通信部270を介して端末100に送信する。また、仮想空間処理部250は、端末100からユーザのキャラクタの姿勢や動作に関するデータを受け取り、キャラクタを表示するために必要なデータを仮想オブジェクト記憶部260から読み出し、端末100に与える。
仮想空間内では、各端末100の実写画像が絶えず仮想空間内の疑似プロジェクタに表示されるのではなく、ユーザのキャラクタが仮想空間内の特定のエリアに入った場合にのみ、そのユーザの端末100の実写画像が仮想空間管理サーバ200に送信されて、疑似プロジェクタに表示されて共有される。この実写画像の送信が行われるエリアを「送信エリア」と呼ぶ。送信エリアは、ユーザ毎に指定することができる。
疑似プロジェクタは、ユーザ間で共有されてもよく、ユーザ毎に個別の疑似プロジェクタが設けられ、ユーザの送信エリアと1対1に対応づけられてもよい。
送信エリア記憶部240には、ユーザ毎に指定された送信エリアの位置情報と、送信エリアに対応づけられた疑似プロジェクタの位置情報とが記憶される。
送信エリア判定部230は、仮想空間処理部250から各ユーザのキャラクタの現在位置情報を受け取り、あるユーザのキャラクタが、いずれかのユーザの送信エリア内に存在するかどうかを判定し、送信エリア内にユーザのキャラクタが存在する場合、そのユーザの端末100から実写画像を取得する指示を実写画像処理部210に与える。
実写画像処理部210は、通信部270を介して、送信エリア内にキャラクタを移動させたユーザの端末100に対して、実写画像の送信要求を発行し、端末100から実写画像を受信する。複数のユーザのキャラクタが同一送信エリア内に存在する場合は、複数のユーザの端末100から取得した実写画像を統合する処理を行い、統合実写画像のデータを通信部270を介して各端末100に送信する。
図5は、仮想空間管理サーバ200の実写画像処理部210の詳細な構成を説明する図である。
プログラム記憶部214には、端末100の実写画像の動きなどの特徴を示すパラメータを抽出するための特徴抽出プログラム、および実写画像を統合する際の相対的な割合にもとづいて画像を変換するための画像変換プログラムが記憶される。アップロード部212は、端末100のパラメータ抽出部14に特徴抽出プログラムを、画像変換部16に画像変換プログラムを通信部270を介して送信する。
アップロード部212は、特徴抽出プログラムで使用される特徴パラメータに関する情報と、画像変換プログラムで使用される変換パラメータに関する情報をパラメータ統合部216に与える。
パラメータ統合部216は、通信部270を介して端末100のパラメータ抽出部14から実写映像の絶対的な特徴パラメータを受け取る。パラメータ統合部216は、複数の端末100から受け取った実写映像の絶対的な特徴パラメータを相対評価し、画像変換プログラムで使用される変換パラメータを端末100毎に求め、各端末100の画像変換部16に与える。
たとえば、特徴抽出プログラムにより、各端末100の実写映像内の動き量が絶対的な特徴パラメータとして抽出された場合、パラメータ統合部216は、複数の端末100間でその絶対的な特徴パラメータを相対評価し、各端末100の実写画像を統合する際の解像度を相対的に決定し、元の解像度との比によって各端末100の実写画像の縮小率を求める。パラメータ統合部216は、求めた縮小率を相対的な変換パラメータとして各端末100の画像変換部16に与える。
また、パラメータ統合部216は、仮想空間内の各ユーザのキャラクタの状態量によって、各端末100の実写画像を統合する際の相対的な割合を決めてもよい。たとえば、キャラクタの移動量や移動速度が大きいほど、そのユーザの実写画像は相対的に強調して表示されるように変換パラメータを決める。
画像統合部218は、通信部270を介して、相対的な変換パラメータにもとづいて変換された実写画像を各端末100の画像変換部16から受け取り、各端末100の変換後の実写画像を統合した画像データを生成し、端末100の統合画像取得部18に与える。なお、画像統合部218は、疑似プロジェクタに表示すべき実写画像が1つ存在しない場合は、疑似プロジェクタの大きさに合わせて変換された実写画像を統合画像データとして端末100の統合画像取得部18に与える。
図6は、以上の構成の端末100と仮想空間管理サーバ200による実写映像の統合表示手順を説明するフローチャートである。図7は、端末100のディスプレイ120の表示画面例を示す。図7を参照しながら、実写画像の統合表示処理手順を説明する。
ここでは、ユーザAの送信エリアにユーザAとユーザBのキャラクタが入ってきた場合に、ユーザAの端末100Aのディスプレイ120Aに、ユーザAの実写画像とユーザBの実写画像が統合されて表示される例に沿って統合表示処理手順を説明する。以下、仮想空間管理サーバ200を単にサーバ200と呼び、ユーザAの端末100Aを第1端末100A、ユーザBの端末100Bを第2端末100Bと呼ぶ。
サーバ200は、ユーザAの送信エリアにユーザAもしくはユーザBのキャラクタが存在するか否かを判定する(S10)。
図7は、第1端末100Aのディスプレイ120Aに表示される仮想空間を示す。仮想空間の地表面130には、オブジェクト132、134が描画されており、ユーザAのキャラクタ160A、ユーザBのキャラクタ160Bは、この仮想空間内を移動する。地表面130にはユーザAの送信エリア150Aが設けられており、この送信エリア150A内にユーザAまたはユーザBのキャラクタ160A、160Bが入ると、そのユーザのビデオカメラ110で撮影された実写映像がユーザAのプロジェクタ140Aに映し出される。
今、送信エリア150A内に、ユーザAのキャラクタ160AとユーザBのキャラクタ160Bが入ってきたとする。
サーバ200は、特徴抽出プログラムを第1端末100Aと、第2端末100Bに送信する(S12A、S12B)。第1端末100Aおよび第2端末100Bのパラメータ抽出部14は、それぞれのビデオカメラ110A、110Bで撮影された実写画像から絶対パラメータPA、PBを抽出し(S14A、S14B)、サーバ200に送信する(S16A、S16B)。なお、一度送信した特徴抽出プログラムは、プログラムが変更されたり、第1端末100Aまたは第2端末100Bからの要求が新たに生じない限り、再送しない方式をとってもよい。
一例として、特徴抽出プログラムは、実写画像の動きベクトルを抽出するプログラムであり、絶対パラメータPA、PBは、動きベクトルの平均動き量である。また、このような実写画像から抽出される特徴パラメータ以外に、仮想空間内のキャラクタの状態量も絶対パラメータとして仮想空間管理サーバ200に送信される。たとえば、キャラクタ160Aあるいはキャラクタ160Bが疑似プロジェクタに対して接近している程度や、キャラクタ160Aあるいはキャラクタ160Bの移動量や移動速度、視線方向や姿勢などの状態量がある。
サーバ200のパラメータ統合部216は、ユーザAの実写画像の絶対パラメータPAと、ユーザBの実写画像の絶対パラメータPBを相対評価して統合し(S18)、ユーザAの実写画像およびユーザBの実写画像をそれぞれ相対割合に応じて変換するための画像変換パラメータを相対パラメータQA、QBとして求める(S20)。
各ユーザの実写画像の絶対的パラメータにもとづいて、実写画像を変換する際の相対的なパラメータを求める方法にはいくつかのバリエーションがある。実写画像から抽出される特徴パラメータを相対評価して、変換パラメータを求める方法では、たとえば、平均動き量の大きい実写画像に対しては、解像度を高くし、平均動き量の小さい実写画像に対しては、解像度を低くするなどといった解像度の相対的な比率を決める。それによって、ユーザAの実写画像の縮小率とユーザBの実写画像の縮小率がそれぞれ相対パラメータQA、QBとして求められる。
また、キャラクタの状態量を加味して、実写画像を疑似プロジェクタ内に統合表示する際の強調度合いを決め、実写画像を変換する際の相対パラメータを求めてもよい。たとえば、キャラクタの動作が激しい場合や、キャラクタが疑似プロジェクタに近づいた場合に、そのキャラクタに対応するユーザの実写画像を相対的に拡大したり、そのユーザの実写画像を相対的に画質を高めたり、フレームレートを上げるように相対パラメータを設定する。また、キャラクタの姿勢やキャラクタの視線方向が疑似プロジェクトに対向しているなどによりユーザが疑似プロジェクトに関心を持っていることが推認される場合に、そのユーザの実写画像の強調度合いを高めるように相対パラメータを設定してもよい。
サーバ200は、第1端末100Aには、画像変換プログラムを送信する(S22A)とともに、相対パラメータQAを送信し(S24A)、第2端末100Bには、画像変換プログラムを送信する(S22B)とともに、相対パラメータQBを送信する(S24B)。なお、一度送信した画像変換プログラムは、プログラムが変更されたり、第1端末100Aまたは第2端末100Bからの要求が新たに生じない限り、再送しない方式をとってもよい。
第1端末100Aおよび第2端末100Bの画像変換部16は、それぞれ相対パラメータQA、QBにもとづいてユーザA、Bの実写画像を変換し(S26A、S26B)、変換画像IA、IBをサーバ200に送信する(S28A、S28B)。
たとえば、ユーザAの実写画像がユーザBの実写画像よりも強調される場合は、ユーザAの実写画像は解像度やフレームレートが相対的に高くなるように変換されてサーバ200に送信され、ユーザBの実写画像は解像度やフレームレートが相対的に低くなるように変換されてサーバ200に送信される。
サーバ200の画像統合部218は、ユーザAの変換画像IAとユーザBの変換画像IBを統合し(S30)、統合画像ICをユーザAの端末100Aに送信する(S32)。第1端末100Aの統合画像取得部18は統合画像ICを受け取り、描画処理部40は、統合画像ICを疑似プロジェクタ140Aに表示することで、実写映像を仮想空間内に合成する(S34)。
図7に示すように、疑似プロジェクタ140Aには、ユーザAの実写画像142Aと、ユーザBの実写画像142Bとが相対的に決められた割合で統合されて表示される。この例では、ユーザAの実写画像142Aの解像度は、ユーザBの実写画像142Bの解像度よりも相対的に大きい。これは、ユーザAが手を振っているため、ユーザAの実写画像の平均動き量がユーザBの実写画像の平均動き量よりも相対的に大きくなったからである。
疑似プロジェクタ内の実写画像の強調表示の方法には、いろいろなバリエーションがある。強調される実写画像は動画であるが、強調されない実写画像はあるフレームで静止して静止画の状態になったり、強調されない実写画像は完全に非表示状態になってもよい。
以上述べた実写画像の統合表示手順によれば、サーバ200が複数の端末100の実写画像を統合する際、実写画像を撮影した端末100において前もって実写画像の解像度やフレームレートなどが変換され、サーバ200は、変換後の実写画像を受け取って統合処理を行うことができる。
たとえば、あるユーザの実写映像は他のユーザの実写画像よりも相対的に小さく表示したり、フレームレートを下げて表示すれば十分である場合に、元の実写画像をそのまま送信するとネットワーク帯域を圧迫する。しかし、本実施の形態によれば、前もって端末100において解像度やフレームレートが変換された実写画像をサーバ200に送るため、データ量を大幅に減らすことができ、サーバ200に接続可能な端末100の数を増やすことができる。また、サーバ200において、実写画像を統合するために変換処理をする必要がないため、サーバ200に負荷が集中することを避けることができる。このようにして、端末接続数と処理能力の両面において、システム全体のスケーラビリティを高めることができる。
また、複数の端末100の実写画像を統合する際の相対的な割合を求める際に必要な実写画像の特徴パラメータを取得するために、サーバ200側から特徴抽出プログラムを送信することにしたため、サーバ200は、統合のために必要なパラメータを適宜取得することができ、実写映像の統合処理に柔軟性をもたせることができる。
また、各端末100は、実写画像の特徴パラメータを絶対量で求めてサーバ200に送信し、サーバ200が各端末100から得た絶対的な特徴パラメータを相対評価し、複数の実写画像を統合する際の相対的な割合を決めて実写画像を統合するため、端末100側では実写画像の統合処理が不要である。
本実施の形態では、仮想空間内に送信エリアを設け、ユーザのキャラクタがその送信エリアに入った場合に、ユーザのビデオカメラで撮影された実写画像が疑似プロジェクタに送信されるように構成されている。この送信エリアと疑似プロジェクタの対応関係を用いることで、疑似プロジェクタを仮想空間内で実世界と関係をもつ共有場として利用したさまざまなコミュニケーションが可能となる。以下、送信エリアと疑似プロジェクタを利用した各種のコミュニケーションを説明する。
図8(a)は、図7の例に相当する送信エリアの設定例である。プロジェクタA(符号140A)に対応づけて送信エリアA(符号150A)が設定される。ユーザAのディスプレイ120Aには、仮想空間内のプロジェクタAと送信エリアAが表示されているとする。このとき、送信エリア内にいずれかのユーザのキャラクタが入ると、そのユーザの実写画像がプロジェクタAに表示される。同図の例では、ユーザAの送信エリアAにユーザAのキャラクタ160AとユーザBのキャラクタ160Bが存在し、プロジェクタAにユーザAの実写画像とユーザBの実写画像が表示される。
これにより、ユーザAは、プロジェクタAを介してユーザBと実写画像を通じてコミュニケーションをとることができる。また、ユーザAが仮想空間内のプライベートなエリアに送信エリアAを設定しておけば、送信エリアに侵入したユーザの実写画像をプロジェクタAに映し出すことができ、監視カメラのような機能をもたせることもできる。
図8(b)は、1対1のパーソナルコミュニケーションを実現するための送信エリアの設定例である。送信エリアA(符号150A)は、プロジェクタB(符号140B)のすぐ前に設定され、送信エリアB(符号150B)は、プロジェクタA(符号140A)のすぐ前に設定される。
ユーザAのキャラクタ160AがプロジェクタAの前にある送信エリアBに入り、ユーザBのキャラクタ160BがプロジェクタBの前にある送信エリアAに入ったとする。ユーザAのディスプレイ120Aには、ユーザAのキャラクタ160AとプロジェクタAが表示されており、ユーザBのディスプレイ120Bには、ユーザBのキャラクタ160BとプロジェクタBが表示されている。
このとき、ユーザAの実写画像は、送信エリアBに対応づけられたプロジェクタBに表示され、ユーザBの実写画像は、送信エリアAに対応づけられたプロジェクタAに表示される。ユーザAはディスプレイ120AにおいてプロジェクタAに映し出されたユーザBの実写画像を見ることができ、一方、ユーザBはディスプレイ120BにおいてプロジェクタBに映し出されたユーザAの実写画像を見ることができる。これにより、遠隔テレビ会議のような1対1のパーソナルコミュニケーションが可能となる。
図9は、1対多のグループコミュニケーションを実現するための送信エリアの設定例である。プロジェクタX(符号140X)のすぐ前には、送信エリアA、B、C(符号150A、150B、150C)が重なり合わされて設定される。一方、プロジェクタA(符号140A)、プロジェクタB(符号140B)、プロジェクタC(符号140C)のすぐ前には、送信エリアX(符号150X)が設定される。
ユーザA〜Cのキャラクタ160A〜160Cが、それぞれプロジェクタ140A〜140Cの前の送信エリアXに入り、ユーザXのキャラクタ160XがプロジェクタXの前の重なり合った送信エリアA〜Cに入ったとする。ユーザXのディスプレイ120Xには、ユーザXのキャラクタ160XとプロジェクタXが表示されており、ユーザA〜Cのディスプレイ120A〜120Cには、それぞれユーザA〜Cのキャラクタ160A〜CとプロジェクタA〜Cが表示されている。
このとき、ユーザA〜Cの実写画像は、プロジェクタXに統合されて表示される。一方、ユーザXのキャラクタ160Xが送信エリアA〜C内にあるため、ユーザXの実写画像は、プロジェクタA〜Cにそれぞれ表示される。
プロジェクタXに、ユーザA〜Cの実写画像が統合されて表示される際、ユーザA〜Cの実写画像の大きさは、ユーザA〜Cの実写画像内の動きやユーザA〜Cのキャラクタ160A〜Cの動作などにより、相対的に調整される。
これにより、ユーザXと、3人のユーザA〜Cの間で1対多のグループコミュニケーションが可能となる。
図10は、図9の例において、送信エリアA〜Cの全体がぴったり重なり合うのではなく、部分的に重なりをもつ場合を示す。この場合、ユーザXのキャラクタ160Xが、一部が重なり合った送信エリアA〜Cのどの位置にあるかによって、ユーザXの実写画像がいずれのプロジェクタA〜Cに表示されるかが異なる。
たとえば、ユーザXのキャラクタ160Xが、送信エリア150Aおよび送信エリア150Bのいずれとも重なりのない送信エリア150C内に位置する場合、ユーザXの実写画像はプロジェクタ140Cのみに表示される。
ユーザXのキャラクタ160Xが、送信エリア150Aと送信エリア150Cが重なった位置で、かつ、送信エリア150Bとは重なりのない位置に存在する場合、ユーザXの実写画像はプロジェクタ140Aとプロジェクタ140Cのみに表示される。
ユーザXのキャラクタ160Xが、送信エリア150A〜Cが重なり合った位置に存在する場合、ユーザXの実写画像はプロジェクタ140A〜Cに表示される。
このように、ユーザXのキャラクタ160Xが互いに一部が重なり合った送信エリア150A〜C内を移動することで、コミュニケーションの相手を選択することができる。また、いずれの送信エリア150A〜Cからも出ることで、いずれのユーザともコミュニケーションを終了することができる。
図11は、ユーザが仮想空間内に複数の興味エリアを送信エリアとして設定する例を示す。ユーザAは、プロジェクタA(符号140A)に関連づけて複数の送信エリアA1〜A3(符号150A1〜150A3)を設定する。これらの送信エリアA1〜A3は、ユーザAが仮想空間内で関心をもつエリアである。ユーザAのキャラクタ160Aは、仮想空間内のある地点にしか存在できないが、複数の送信エリアA1〜A3を興味エリアとして設定することで、それらのエリア内にユーザのキャラクタ(同図の符号160B、160C)が移動してきたとき、そのユーザの実写画像をプロジェクタAに表示し、興味エリア内にいるユーザとコミュニケーションをとることができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上記の説明では、仮想空間内に送信エリアを設定したが、送信エリアを明示的に設定することなく、疑似プロジェクタが設置された領域の近傍、あるいは疑似プロジェクタをユーザのキャラクタの位置から視認することができる領域、たとえば疑似プロジェクトの前方領域を送信エリアとみなして、上記の実写画像の統合表示手順を実行するようにしてもよい。これにより、ユーザは疑似プロジェクタを仮想空間内に設置するだけで、その疑似プロジェクタを視認できる位置にキャラクタを移動させた他のユーザの実写画像を疑似プロジェクタに映し出して見ることができる。
また、上記の説明では、送信エリアにユーザのキャラクタが入った場合に、そのユーザの実写画像が疑似プロジェクタに映し出されたが、ユーザのプライバシーを保護する観点から、ユーザが送信エリアを設定できる領域を仮想空間内で制限したり、送信エリアにユーザのキャラクタが入った場合に、そのユーザに実写画像が送信されることを警告するメッセージを表示したり、実写画像の送信を拒否する権限がユーザに付与されるように構成してもよい。
また、図2の端末100の構成の変形例を図12に示す。実写画像処理部10の前段に実写画像前処理部20を設けた点が図2の端末100の構成と異なり、それ以外は同じである。実写画像前処理部20は、ビデオカメラ110からの映像に何らかの前処理を加え、実写画像処理部10に入力として与える。ここで、実写画像前処理部20による前処理は必須ではなく、実写画像前処理部20をバイパスするか、もしくは実写画像前処理部20が前処理を実行しないようにして、ビデオカメラ110により撮影された実写画像がそのまま実写画像処理部10に入力されることも可能に構成してもよく、前処理の有無を手動もしくは自動で切り替えるように構成してもよい。
実写画像前処理部20は、主にユーザのプライバシーを保護するために、実写画像に対して前処理を施す。たとえば、肌色の部分を検出してぼかしたり、個人情報が特定されるおそれがあるオブジェクトにぼかしを入れるなどのフィルタリング処理を行う。また、実写画像前処理部20は、エッジフィルタなど、端末100側でユーザの好みのフィルタ処理を実写画像に施し、実写画像をエッジ画像に置き換え、実写画像処理部10に入力として与えてもよい。
その他のユーザのプライバシー保護の方法として、次のようなものがある。
(a)送信エリアに近づいた際、あるいは実際に送信エリアに入る前に、ユーザに警告メッセージを発する。
(b)事前に送信を許可あるいは拒否する送信エリアのリストを送信側の端末100で設定可能にする。
(c)送信側の端末100において、ビデオカメラにより撮影された実写画像を事前に録画済みの動画もしくは静止画に差し替える。
(d)送信側の端末100において、実写画像送信前に、プライバシーレベルに応じた劣化フィルタ処理を行う。たとえば、解像度を落としたり、ノイズを入れる。あるいは、各端末100の設定に応じて、仮想空間管理サーバ200がプライバシーレベルに応じた劣化フィルタ処理を行う。
(e)送信エリアを仮想空間内に明示的に表示する。たとえば、色を変えるなどにより、ユーザが送信エリアを視認しやすいようにする。
(f)送信エリアの中心からの距離に応じて、送信画像にノイズを加えるなどのフィルタ処理を入れるようにする。たとえば、送信エリアからの距離が短くなるほど、ノイズが大きくなるようにする。また、送信側ユーザのディスプレイ120に、画像送信時には、送信されている画像がオーバーレイされてサムネイル表示されるようにする。これにより、ユーザは自分の画像が送信されていることを認識することができる。
上記の実施の形態では、仮想空間管理サーバ200と複数の端末100がネットワーク300で接続されたシステムにおいて仮想空間を共有し、各端末100の実写画像を統合表示する仮想空間表示システムを説明したが、仮想空間表示システムは、このようなサーバ−クライアント型の通信システムだけでなく、ピアツーピア型の通信システムにおいても実現することができる。その場合、各端末100が仮想空間管理サーバ200の実写画像の統合処理に係る構成を有し、他の端末100から受け取った実写画像を統合し、ディスプレイ120に表示する。また、上記の実施の形態では、画像変換部16の構成を端末100側にもたせたが、これを仮想空間管理サーバ200側にもたせてシステムを構成してもよい。
図13を参照して、このようなピアツーピア型の通信システムにおける実写映像の統合表示手順を説明する。図13は、図6において、サーバ200の機能構成を第1端末100Aにもたせた場合の処理の流れを示しており、図6と共通する処理には同符号を付して、適宜説明を省略する。
第1端末100Aは、ユーザAの送信エリアにユーザAもしくはユーザBのキャラクタが存在するか否かを判定する(S10)。今、送信エリア150A内に、ユーザAのキャラクタ160AとユーザBのキャラクタ160Bが入ってきたとする。
第1端末100A内に設けられたアップロード部212は、特徴抽出プログラムを第2端末100Bに送信する(S12)。第2端末100Bのパラメータ抽出部14は、ビデオカメラ110Bで撮影された実写画像から絶対パラメータPBを抽出し(S14B)、第1端末100Aに送信する(S16)。第1端末100Aのパラメータ抽出部14も、ビデオカメラ110Aで撮影された実写画像から絶対パラメータPAを抽出する(S14A)。
第1端末100A内に設けられたパラメータ統合部216は、ユーザAの実写画像の絶対パラメータPAと、ユーザBの実写画像の絶対パラメータPBを相対評価して統合し(S18)、ユーザAの実写画像およびユーザBの実写画像をそれぞれ相対割合に応じて変換するための画像変換パラメータを相対パラメータQA、QBとして求める(S20)。
第1端末100Aは、第2端末100Bに画像変換プログラムを送信する(S22)とともに、相対パラメータQBを送信する(S24)。
第2端末100Bの画像変換部16は、相対パラメータQBにもとづいてユーザBの実写画像を変換し(S26B)、変換画像IBを第1端末100Aに送信する(S28)。第1端末100Aの画像変換部16も、相対パラメータQAにもとづいてユーザAの実写画像を変換する(S26A)。
第1端末100A内に設けられた画像統合部218は、ユーザAの変換画像IAとユーザBの変換画像IBを統合して統合画像ICを生成し(S30)、描画処理部40は、統合画像ICを疑似プロジェクタ140Aに表示することで、実写映像を仮想空間内に合成する(S34)。
実施の形態に係る仮想空間表示システムの構成図である。 図1の端末の構成図である。 図2の実写画像処理部の詳細な構成を説明する図である。 図1の仮想空間管理サーバの構成図である。 図4の実写画像処理部の詳細な構成を説明する図である。 図1の端末と仮想空間管理サーバによる実写映像の統合表示手順を説明するフローチャートである。 図1の端末のディスプレイの表示画面例を示す図である。 パーソナルコミュニケーションを実現するための送信エリアの設定例である。 グループコミュニケーションを実現するための送信エリアの設定例である。 グループコミュニケーションを実現するための送信エリアの別の設定例である。 ユーザが仮想空間内に複数の興味エリアを送信エリアとして設定する例を示す図である。 図1の端末の構成の変形例を説明する図である。 ピアツーピア型の通信システムにおける実写映像の統合表示手順を説明するフローチャートである。
符号の説明
10 実写画像処理部、 12 実写画像入力部、 14 パラメータ抽出部、 16 画像変換部、 18 統合画像取得部、 20 実写画像前処理部、 30 操作部、 40 描画処理部、 50 通信部、 100 端末、 110 ビデオカメラ、 120 ディスプレイ、 140 プロジェクタ、 150 送信エリア、 160 キャラクタ、 200 仮想空間管理サーバ、 210 実写画像処理部、 212 アップロード部、 214 プログラム記憶部、 216 パラメータ統合部、 218 画像統合部、 220 画像記憶部、 230 送信エリア判定部、 240 送信エリア記憶部、 250 仮想空間処理部、 260 仮想オブジェクト記憶部、 270 通信部、 300 ネットワーク。

Claims (9)

  1. ネットワークに接続された複数のユーザの端末が仮想空間を共有するシステムにおいて、各ユーザが前記仮想空間内で操作する移動オブジェクトが前記仮想空間内の所定のエリア内に存在するかどうかを判定する判定部と、
    前記判定部により、前記所定のエリア内に前記移動オブジェクトが存在すると判定されたユーザの端末から、そのユーザによって撮影された実写画像のデータを前記ネットワークを介して取得する実写画像取得部と、
    前記所定のエリアに対応づけて前記仮想空間内に設けられた疑似的なプロジェクタ内に前記実写画像を統合する画像統合部とを含むことを特徴とする仮想空間表示装置。
  2. 前記画像統合部は、前記所定のエリア内に前記移動オブジェクトが存在すると判定されたユーザが複数存在する場合に、その複数のユーザのそれぞれによって撮影された実写画像を前記疑似的なプロジェクタ内に統合する際の強調度合いを、前記複数のユーザが仮想空間内で操作する移動オブジェクトの状態量に応じて相対的に調整することを特徴とする請求項1に記載の仮想空間表示装置。
  3. 前記画像統合部は、前記複数のユーザが仮想空間内で操作する移動オブジェクトの状態量に応じて、前記複数のユーザのそれぞれによって撮影された実写画像を前記疑似的なプロジェクタ内に統合する際の相対的な大きさを調整することを特徴とする請求項2に記載の仮想空間表示装置。
  4. 前記画像統合部は、前記複数のユーザが仮想空間内で操作する移動オブジェクトの状態量に応じて、前記複数のユーザのそれぞれによって撮影された実写画像を前記疑似的なプロジェクタ内に統合する際のフレームレートを相対的に調整することを特徴とする請求項2に記載の仮想空間表示装置。
  5. 前記実写画像取得部は、前記擬似的なプロジェクタ内に統合する際に必要な変換処理が前記端末において事前に施された前記実写画像のデータを前記ネットワークを介して前記端末から取得し、
    前記画像統合部は、前記変換処理が事前に施された前記実写画像をもとに前記実写画像を前記擬似的なプロジェクタ内に統合することを特徴とする請求項1から4のいずれかに記載の仮想空間表示装置。
  6. 前記仮想空間内に、前記所定のエリアおよびその所定のエリアに対応づけられた前記擬似的なプロジェクタがユーザ毎に個別に設けられ、
    前記画像統合部は、各ユーザの前記所定のエリア内に前記移動オブジェクトが存在すると判定されたユーザによって撮影された実写画像を、その所定のエリアに対応づけられた前記各ユーザの前記擬似的なプロジェクタ内に統合することを特徴とする請求項1から5のいずれかに記載の仮想空間表示装置。
  7. 前記画像統合部は、ユーザ毎に設けられた前記所定のエリアが重複する場合、その重複部分に前記移動オブジェクトが存在すると判定されたユーザによって撮影された実写画像を、その重複部分に対応するすべての前記擬似的なプロジェクタ内に統合することを特徴とする請求項6に記載の仮想空間表示装置。
  8. 複数のユーザの端末がネットワーク上に形成された仮想空間を共有するシステムにおいて、各ユーザが前記仮想空間内で操作する移動オブジェクトが前記仮想空間内の所定のエリア内に存在するかどうかを判定し、前記所定のエリア内に前記移動オブジェクトが存在すると判定されたユーザによって撮影された実写画像を前記仮想空間内に設けられた疑似的なプロジェクタ内に表示することを特徴とする仮想空間表示方法。
  9. ネットワークに接続された複数のユーザの端末が仮想空間を共有するシステムにおいて、各ユーザが前記仮想空間内で操作する移動オブジェクトが前記仮想空間内の所定のエリア内に存在するかどうかを判定するステップと、
    前記所定のエリア内に前記移動オブジェクトが存在すると判定されたユーザの端末から、そのユーザによって撮影された実写画像のデータを前記ネットワークを介して取得するステップと、
    前記所定のエリアに対応づけて前記仮想空間内に設けられた疑似的なプロジェクタ内に前記実写画像を表示するステップとをコンピュータに実行させることを特徴とするプログラム。
JP2005265413A 2005-09-13 2005-09-13 仮想空間表示装置および仮想空間表示方法 Pending JP2007079799A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005265413A JP2007079799A (ja) 2005-09-13 2005-09-13 仮想空間表示装置および仮想空間表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005265413A JP2007079799A (ja) 2005-09-13 2005-09-13 仮想空間表示装置および仮想空間表示方法

Publications (1)

Publication Number Publication Date
JP2007079799A true JP2007079799A (ja) 2007-03-29

Family

ID=37940059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005265413A Pending JP2007079799A (ja) 2005-09-13 2005-09-13 仮想空間表示装置および仮想空間表示方法

Country Status (1)

Country Link
JP (1) JP2007079799A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009072274A (ja) * 2007-09-19 2009-04-09 Nec Corp 映像配信システム、サーバシステム、クライアントシステム、映像配信方法、及びプログラム
JP2018026034A (ja) * 2016-08-12 2018-02-15 株式会社バンダイナムコエンターテインメント シミュレーションシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009072274A (ja) * 2007-09-19 2009-04-09 Nec Corp 映像配信システム、サーバシステム、クライアントシステム、映像配信方法、及びプログラム
JP2018026034A (ja) * 2016-08-12 2018-02-15 株式会社バンダイナムコエンターテインメント シミュレーションシステム

Similar Documents

Publication Publication Date Title
JP7135141B2 (ja) 情報処理システム、情報処理方法、および情報処理プログラム
CN102385747B (zh) 用于生成全景图像的处理装置及方法
US9473741B2 (en) Teleconference system and teleconference terminal
JP7146662B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JPWO2018030206A1 (ja) カメラワーク生成方法及び映像処理装置
JP7179515B2 (ja) 装置、制御方法、及びプログラム
US20090257730A1 (en) Video server, video client device and video processing method thereof
KR101598069B1 (ko) 비디오에서의 시선 정렬 시스템 및 방법
KR102069930B1 (ko) 이머전 통신 클라이언트, 서버 및 컨텐츠 뷰를 획득하는 방법
WO2011145539A1 (en) Multiple-site drawn-image sharing apparatus, multiple-site drawn-image sharing system, method executed by multiple-site drawn-image sharing apparatus, program, and recording medium
CN109788359B (zh) 一种视频数据处理方法和相关装置
JP4461739B2 (ja) 撮像装置
KR101784266B1 (ko) 3d 깊이 카메라를 이용한 다자간 영상 대화 시스템 및 방법
CN114651448A (zh) 信息处理***、信息处理方法和程序
JP2016213674A (ja) 表示制御システム、表示制御装置、表示制御方法、及びプログラム
CN111246224A (zh) 一种视频直播方法及视频直播***
JP3610423B2 (ja) 映像表示システムおよびその臨場感向上方法
JP2007079799A (ja) 仮想空間表示装置および仮想空間表示方法
JP2005142765A (ja) 撮像装置及び方法
JP6004978B2 (ja) 被写体画像抽出装置および被写体画像抽出・合成装置
US20240015264A1 (en) System for broadcasting volumetric videoconferences in 3d animated virtual environment with audio information, and procedure for operating said device
KR20150038147A (ko) 영상 생성 방법
CN109391769A (zh) 控制设备、控制方法和存储介质
KR102404130B1 (ko) 텔레 프레젠스 영상 송신 장치, 텔레 프레젠스 영상 수신 장치 및 텔레 프레젠스 영상 제공 시스템
CN104041015A (zh) 视频监控方法及相关***、监控服务器和监控摄像机