JPH0887605A - シミュレーションシステム - Google Patents

シミュレーションシステム

Info

Publication number
JPH0887605A
JPH0887605A JP6224520A JP22452094A JPH0887605A JP H0887605 A JPH0887605 A JP H0887605A JP 6224520 A JP6224520 A JP 6224520A JP 22452094 A JP22452094 A JP 22452094A JP H0887605 A JPH0887605 A JP H0887605A
Authority
JP
Japan
Prior art keywords
character
mode
viewpoint
user terminal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6224520A
Other languages
English (en)
Other versions
JP3780536B2 (ja
Inventor
Hiroaki Kitano
宏明 北野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP22452094A priority Critical patent/JP3780536B2/ja
Publication of JPH0887605A publication Critical patent/JPH0887605A/ja
Application granted granted Critical
Publication of JP3780536B2 publication Critical patent/JP3780536B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)

Abstract

(57)【要約】 【目的】 都市空間の問題点などをシミュレーションに
より確実に見い出すことができるようにする。 【構成】 シミュレーション装置に対して複数のユーザ
端末を接続し、各ユーザ端末に3次元の仮想現実空間の
画像を提供し、表示させる。各ユーザ端末は、対応する
キャラクタを有し、各ユーザ端末の表示装置には、他の
ユーザ端末の対応するキャラクタが表示される。また、
各ユーザ端末においては、自分のキャラクタの位置と視
点に対応する画像が表示される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、例えば所定の都市空間
を設計し、その都市空間の問題点などをテストする場合
に用いて好適なシミュレーションシステムに関する。
【0002】
【従来の技術】最近、バーチャルリアリティ(仮想現実
空間)を利用した装置が開発されている。
【0003】例えば、住宅を設計する場合において、所
定の間取りや仕様を決定すると、それに対応する住宅の
画像をバーチャルリアリティで生成し、その画像を、そ
の住宅を発注した注文者に対して、ヘッドマウントディ
スプレイなどを用いて表示する装置が知られている。発
注者は、このヘッドマウントディスプレイに表示される
バーチャルリアリティから、自分があたかもその住宅に
おいて実際に生活しているような感覚で、その住宅を体
験し、テストすることができる。これにより、単に設計
図面上から住宅を見る場合に比べて、住宅の不便な点な
どを容易に発見することができる。
【0004】同様に、住宅ではなく、都市空間をバーチ
ャルリアリティとして提供する装置も知られている。
【0005】
【発明が解決しようとする課題】しかしながら、従来の
このような装置は、複数のユーザが同時にバーチャルリ
アリティを体験(テスト)することができず、従って、
複数の人間が所定の空間を同時に利用することによる問
題点などを発見することができない課題があった。
【0006】本発明はこのような状況に鑑みてなされた
ものであり、複数の利用者が所定の空間を同時に利用す
る場合における問題点などをテストすることを可能にす
るものである。
【0007】
【課題を解決するための手段】本発明のシミュレーショ
ンシステムは、3次元の仮想現実空間を形成する画像デ
ータを記憶する記憶手段(例えば図1のデータベース
2)と、記憶手段に記憶されている仮想現実空間の画像
データを供給する供給手段(例えば図1のシミュレーシ
ョン装置1)と、供給手段より仮想現実空間の画像デー
タを受信し、表示する、供給手段に接続された複数の受
信手段(例えば図1のユーザ端末3−1乃至3−N)と
を備えるシミュレーションシステムにおいて、受信手段
は、仮想現実空間上において対応するキャラクタ(例え
ば図4のキャラクタC,D)を有し、キャラクタの位置
と視点を入力し、供給手段は、キャラクタの位置と視点
に対応する画像データを記憶手段から読み出して、受信
手段に供給し、受信手段は、供給手段から、キャラクタ
の位置と視点に対応する仮想現実空間の画像データの提
供を受けて画像を生成、表示するとともに、供給手段
は、受信手段から供給されたキャラクタの位置と視点の
データを、他の受信手段に供給し、受信手段は、供給手
段から供給される、自分以外の受信手段のキャラクタの
位置と視点に対応して、自分以外のキャラクタの画像を
生成、表示することを特徴とする。
【0008】受信手段と供給手段の少なくとも一方は、
自分のキャラクタを表示せず、自分以外のキャラクタを
表示するキャラクタモードと、自分以外のキャラクタと
自分のキャラクタの両方を表示する俯瞰モードとを切り
換える俯瞰モード切換手段(例えば図2の俯瞰モード切
換釦29e、図3の俯瞰モード切換釦49e)を設ける
ことができる。
【0009】受信手段と供給手段の少なくとも一方に
は、俯瞰モード時における俯瞰視点を入力する俯瞰視点
入力手段(例えば図2の俯瞰視点入力装置29f、図3
の俯瞰視点入力装置49f)をさらに設けることができ
る。
【0010】供給手段には、合成モード時において、所
定の範囲の複数のキャラクタに対応する音声信号を合成
して、受信手段に供給させるようにすることができる。
この場合、供給手段には、複数のキャラクタに対応する
音声信号を合成する合成モードと、特定のキャラクタに
対応する音声信号を授受する独立モードとを選択する選
択手段(例えば図2の合成モード切換釦29g)を設け
ることができる。
【0011】
【作用】上記構成のシミュレーションシステムにおいて
は、複数のユーザ端末3−1乃至3−Nのキャラクタ
と、シミュレーション装置1のキャラクタのうち、所定
の範囲のものが、各ユーザ端末3−1乃至3−Nまたは
シミュレーション装置1に、データベース2より読み出
した仮想現実空間に重畳して表示される。従って、ユー
ザ端末3−1乃至3−Nとシミュレーション装置1は、
それぞれ複数のキャラクタが同時に所定の仮想現実空間
を利用する場合における各種の問題点を把握することが
可能となる。
【0012】
【実施例】図1は、本発明のシミュレーションシステム
の構成例を表している。この実施例においては、複数の
(N台の)ユーザ端末3−1乃至3−Nが、例えば光フ
ァイバを利用した広帯域通信網を介してシミュレーショ
ン装置1に接続されている。シミュレーション装置1は
データベース2を有し、このデータベース2には、仮想
現実空間を形成する画像データが記憶されている。
【0013】ユーザ端末3−1乃至3−Nは、仮想現実
空間上において、対応するキャラクタを有し、そのキャ
ラクタの位置と視点に対応するデータをシミュレーショ
ン装置1に供給すると、シミュレーション装置1は、こ
のキャラクタの位置と視点に対応する画像データをデー
タベース2より読み出し、ユーザ端末3−1乃至3−N
に供給するようになされている。
【0014】図2は、シミュレーション装置1の構成例
を示している。同図に示すように、シミュレーション装
置1はCPU21を備え、このCPU21は、ROM2
2に記憶されているプログラムに従って各種の処理を実
行するようになされている。RAM23には、CPU2
1が各種の処理を実行する上において必要なデータ、プ
ログラム等が適宜記憶されるようになされている。通信
装置24は、ユーザ端末3(3−1乃至3−N)に対し
て所定のデータを授受するようになされている。
【0015】表示装置25は、CRT、LCDなどを備
え、シミュレーション装置1が提供する仮想現実空間の
画像をモニタすることができるように、インタフェース
28に接続されている。このインタフェース28にはま
た、マイク26とスピーカ27が接続されており、所定
の音声信号をユーザ端末3に供給したり、ユーザ端末3
からの音声信号をモニタすることができるようになされ
ている。
【0016】また、シミュレーション装置1は入力装置
29を備え、インタフェース28を介して、各種の入力
を行うことができるようになされている。この入力装置
29は、キーボード29a、マウス29b、視点入力装
置29c、移動入力装置29d、俯瞰モード切換釦29
e、俯瞰視点入力装置29f、合成モード切換釦29
g、地域指定装置29hを有している。
【0017】キーボード29aは、所定の文字や記号な
どを入力するとき操作されるようになされている。マウ
ス29bは、所定の位置を指定するとき操作されるよう
になされている。視点入力装置29cは、シミュレーシ
ョン装置1の対応するキャラクタの視点を入力するとき
操作される。これにより、キャラクタの視点を上下左右
の方向に移動させたり、所定の画像をズームすることが
できるようになされている。また、移動入力装置29d
は、キャラクタを前後左右の方向に、所定の速度で移動
させるための入力を行うことができるようになされてい
る。
【0018】俯瞰モード切換釦29eは、表示装置25
に仮想現実空間の画像を表示させるモードを、キャラク
タモードまたは俯瞰モードに切り換えるとき操作され
る。キャラクタモードにおいては、対応するキャラクタ
の視点からの画像が表示され、俯瞰モードにおいては、
対応するキャラクタを含む仮想現実空間の画像を俯瞰視
点から見た画像が表示される。俯瞰視点入力装置29f
は、俯瞰モード時において、表示装置25に表示する画
像の俯瞰視点を入力するとき操作される。
【0019】また、合成モード切換釦29gは、合成モ
ードと単独モードを切り換えるとき操作される。単独モ
ード時においては、所定のユーザ端末3またはシミュレ
ーション装置1と、それらにより指定された他のユーザ
端末3との間における音声信号のみが相互に授受され
る。これに対して、合成モード時においては、所定の仮
想現実空間内に位置するキャラクタに対応するユーザ端
末3より入力される音声信号を、全て合成して、それら
のユーザ端末3に対して伝送される。
【0020】図3は、ユーザ端末3(3−1乃至3−
N)の構成例を示している。ユーザ端末3はCPU41
を備え、このCPU41は、ROM42に記憶されてい
るプログラムに従って各種の処理を実行するようになさ
れている。RAM43には、CPU41が各種の処理を
実行する上において必要なデータやプログラム等が適宜
記憶されるようになされている。通信装置44は、シミ
ュレーション装置1に対してデータを授受するようにな
されている。
【0021】表示装置45は、CRT、LCDなどを備
え、CG(コンピュータグラフィック)の3次元画像
や、通常のビデオカメラなどにより撮影された3次元の
画像を表示することができるようになされている。マイ
ク46は、音声信号を、シミュレーション装置1や他の
ユーザ端末に出力するとき利用される。また、スピーカ
47は、シミュレーション装置1や他のユーザ端末より
音声信号が伝送されてきたとき、これを出力する。入力
装置49は、各種の入力を行うとき操作されるようにな
されている。
【0022】このユーザ端末3の入力装置49における
キーボード49a乃至俯瞰視点入力装置49fは、図2
に示したシミュレーション装置1の入力装置29におけ
るキーボード29a乃至俯瞰視点入力装置29fと対応
するものである。
【0023】インタフェース48は、表示装置45、マ
イク46、スピーカ47、および入力装置49に対する
データのインタフェースを構成している。
【0024】図4は、図1に示したシミュレーション装
置1により提供される仮想現実空間を模式的に表してい
る。同図に示すように、この仮想現実空間は、町を構成
しており、キャラクタC(例えばユーザ端末3−1のキ
ャラクタ)や、キャラクタD(例えばユーザ端末3−2
のキャラクタ)が、この町(仮想現実空間)を移動する
ことができるようになされている。
【0025】キャラクタCは、仮想現実空間における位
置と視点から、例えば図5に示すような画像を見ること
になる。即ち、キャラクタモード時、ユーザ端末3−1
の表示装置25には、図5に示すような画像がシミュレ
ーション装置1から提供され、表示される。そして、そ
のキャラクタCの視点と位置を、視点入力装置49cと
移動入力装置49dを操作することで変更すると、それ
に対応して、シミュレーション装置1から供給される仮
想現実空間を形成する3次元画像が変化される。
【0026】同様に、キャラクタDが対応するユーザ端
末3−2の表示装置には、キャラクタモード時、図6に
示すような画像がシミュレーション装置1から提供さ
れ、表示される。そして、その表示画像も、キャラクタ
Dの視点と位置を移動させることで変化される。
【0027】図4に示す状態において、キャラクタCは
キャラクタDの方向を見ている。従って、図5に示すよ
うに、ユーザ端末3−1の表示装置25に表示される画
像(仮想現実空間)には、キャラクタDが表示されてい
る。
【0028】同様に、図4において、キャラクタDはキ
ャラクタCの方向を見ている。このため、図6に示すよ
うに、ユーザ端末3−2の表示装置25に表示される画
像(仮想現実空間)には、キャラクタCが表示される。
【0029】これに対して、例えばユーザ端末3−2に
おいて俯瞰モードを指定すると、図4に示すように、自
分のキャラクタCを含む俯瞰的画像が表示される。
【0030】次に、図7乃至図10のフローチャートを
参照して、ユーザ端末3とシミュレーション装置1の動
作について説明する。
【0031】図7は、ユーザ端末3の処理例を表してい
る。最初にステップS1において、ユーザ端末3の俯瞰
モード切換ボタン49eを操作して、俯瞰モードまたは
キャラクタモードのいずれかを設定する。次にステップ
S2において、位置または視点を変更するか否かを判定
する。キャラクタモード時においては、キャラクタの仮
想現実空間内における位置を、移動入力装置49dを操
作することで入力する。またキャラクタの視点を、視点
入力装置49cを操作することで入力する。俯瞰モード
時においては、その位置は、移動入力装置49dを操作
することで入力され、俯瞰視点は、俯瞰視点入力装置4
9fを操作することで入力される。
【0032】位置または視点を変更したとき、ステップ
S3に進み、位置または視点に対応するデータをシミュ
レーション装置1に出力する処理が実行される。即ち、
CPU41は、視点入力装置49c、移動入力装置49
d、俯瞰視点入力装置49fなどの操作に対応するデー
タを、通信装置44を介してシミュレーション装置1へ
出力する。
【0033】シミュレーション装置1においては、図8
を参照して後述するように、この位置と視点のデータを
受信したとき、ステップS22において、この位置と視
点に対応する画像データをデータベース2より読み出
し、ユーザ端末3に出力する。
【0034】そこで、ユーザ端末3においては、ステッ
プS4において、シミュレーション装置1が出力した描
画情報を受信し、それに対応して、仮想現実空間を形成
する、例えば都市計画画像を生成する。
【0035】即ち、CPU41は、シミュレーション装
置1より、描画情報を通信装置44を介して受信したと
き、この描画情報を一旦RAM43に記憶させる。そし
て、この描画情報に対応して3次元の仮想現実空間を形
成する画像を生成し、インタフェース48を介して表示
装置45に表示させる。これにより、表示装置45に
は、例えば計画した都市の3次元画像が表示される。
【0036】ステップS3とステップS4の処理は、位
置または視点が変更された場合においてのみ実行され
る。位置または視点を変更する必要がない場合、既に表
示装置45に表示されている画像を変化させる必要がな
い。従って、この場合においては、ステップS3とステ
ップS4の処理はスキップされる。
【0037】次にステップS5に進み、現在のモードが
俯瞰モードであるか否かが判定される。俯瞰モードであ
る場合においては、ステップS6に進み、自分のキャラ
クタの画像を、視点入力装置49cと移動入力装置49
dを操作することで、入力した視点と位置に対応して生
成する。そして、自分のキャラクタの画像を表示装置4
5に出力し、表示させる。
【0038】現在のモードが俯瞰モードではない場合、
即ち、キャラクタモードである場合、自分のキャラクタ
の位置と視点に対応する画像が表示装置45に表示され
るため、自分のキャラクタの画像は、自分の表示装置4
5に表示させる必要はない。そこで、この場合において
は、ステップS6の処理はスキップされる。
【0039】次にステップS7に進み、他のユーザ端末
3またはシミュレーション装置1のキャラクタの位置と
視点のデータを受信する。そしてステップS8におい
て、ステップS7で受信した位置と視点のデータから、
そのキャラクタの位置または視点が変更されたか否かを
判定し、変更された場合においては、ステップS9に進
み、その新たな位置または視点におけるキャラクタの画
像を生成し、これを表示装置45に出力し、表示させ
る。
【0040】これに対して、ステップS8において、他
のキャラクタの位置または視点が変更されていないと判
定された場合においては、ステップS9の処理はスキッ
プされる。即ち、そのキャラクタの画像は変更されな
い。
【0041】次にステップS10に進み、モード(俯瞰
モードまたはキャラクタモード)を変更するか否かを判
定し、変更しない場合においては、ステップS2に戻
り、それ以降の処理を繰り返し実行する。
【0042】これに対して、モードを変更する場合にお
いては、ステップS1に戻り、新たなモードを設定し、
ステップS2に進み、それ以降の処理を繰り返す。
【0043】以上のようにして、例えばユーザ端末3−
2において、キャラクタモードを指定した場合、自分の
キャラクタの位置と視点に対応して、例えば図6に示す
ような画像が表示装置45に表示される。
【0044】これに対して、俯瞰モードを設定した場合
においては、その位置と俯瞰視点に対応して、図4に示
すような画像が表示装置45に表示される。
【0045】図8は、ユーザ端末3が、図7のフローチ
ャートに示すような処理を実行した場合におけるシミュ
レーション装置1の処理例を表している。最初にステッ
プS21において、ユーザ端末3より、対応するキャラ
クタの位置または視点を変更するデータを受信するまで
待機し、受信したとき、ステップS22に進み、受信し
た位置または視点データに対応する描画情報をデータベ
ース2より読み出し、その位置または視点データを出力
したユーザ端末3に出力する。このステップS22で出
力したデータが、ユーザ端末3において、図7のステッ
プS4において受信され、処理されることになる。
【0046】次にステップS23に進み、ステップS2
1で受信した位置または視点データを、関連する他のユ
ーザ端末にも出力する。このステップS23で出力した
データが、ユーザ端末3において、図7のステップS7
において受信される。
【0047】尚、ここにおいて、他のユーザ端末が関連
するか否かは、そのユーザ端末の位置と視点から判断さ
れる。即ち、例えばユーザ端末3−1のキャラクタCの
位置または視点が変更された場合、このキャラクタCを
表示装置に表示しているユーザ端末であって、ユーザ端
末3−1以外のユーザ端末が、ここにおける関連する他
のユーザ端末となる。
【0048】ステップS23の処理の後、ステップS2
1に戻り、同様の処理が繰り返し実行される。
【0049】尚、図8には、ユーザ端末3の操作に対応
するシミュレーション装置1の処理を説明したが、シミ
ュレーション装置1は、ユーザ端末3が有する機能を同
様に有しており、図7を参照して説明したユーザ端末3
の処理は、シミュレーション装置1においても同様に行
うことができるようになされている。
【0050】以上のようにして、各ユーザ端末3の表示
装置45と、シミュレーション装置1の表示装置25に
は、仮想現実空間における都市の画像が所定の数のキャ
ラクタの画像とともに、表示される。
【0051】次に図9のフローチャートを参照して、ユ
ーザ端末3における他のユーザ端末3またはシミュレー
ション装置1との音声信号による会話処理について説明
する。
【0052】最初にステップS31において、現在のモ
ードが合成モードであるか否かが判定され、合成モード
ではない場合(独立モードである場合)、ステップS3
2に進み、相手画像を指定する処理が実行される。即
ち、ユーザ端末3は、例えばマウス49bを操作して、
対応するカーソル(図示せず)を、会話を行う相手とし
て指定したいキャラクタ上に配置し、クリックすること
で、キャラクタの指定を行う。
【0053】次にステップS33に進み、指定された相
手を特定するためのデータをシミュレーション装置1に
出力する処理を実行する。即ち、ユーザ端末3のCPU
41は、指定されたキャラクタに対応するデータをシミ
ュレーション装置1に出力する。
【0054】シミュレーション装置1は、図10のフロ
ーチャートを参照して後述するように、ユーザ端末3よ
り、この相手を指定するデータを受信したとき、ステッ
プS54において、これを、指定されたユーザ端末に出
力する。指定データを受信した他のユーザ端末は、これ
に応答するとき、図9のステップS43でOK信号を出
力する。シミュレーション装置1は、このOK信号を受
信したとき、図10のステップS57で、指定したユー
ザ端末と指定されたユーザ端末の通信網を接続する処理
を実行する。
【0055】そこで、ユーザ端末3においては、図9の
ステップS34において、OK信号の受信を確認した
後、ステップS35において、指定した相手と音声信号
による双方向の会話を実行する。
【0056】このとき、所定のユーザ端末3のマイク4
6より入力した音声信号は、インタフェース48、通信
装置44を介してシミュレーション装置1に出力され
る。シミュレーション装置1は、上述したように、音声
信号による通信網の接続を行っているため、この音声信
号は、指定されたキャラクタが対応するユーザ端末3に
出力される。そして、そのユーザ端末3のスピーカ47
より出力される。
【0057】同様に、指定されたユーザ端末3のマイク
46より入力した音声信号が、キャラクタを指定したユ
ーザ端末のスピーカ47に出力される。これにより、双
方向の音声信号による会話が行われる。
【0058】この会話は、ステップS36において、ユ
ーザ端末3のキーボード49aの所定のキーを操作する
などして終了が指令されるか、ステップS37におい
て、モードが合成モードに変更されたと判定されるまで
繰り返し実行される。
【0059】ステップS36において、会話の終了が指
令されたと判定された場合においては、ステップS38
に進み、終了信号を出力する処理が実行される。
【0060】シミュレーション装置1は、この終了信号
を受信したとき、図10のステップS58でこれを検出
し、通信網の接続を解除する処理を実行する。
【0061】一方、ステップS31において、モードが
合成モードであると判定された場合においては、ステッ
プS39に進み、所定の仮想現実空間内における空間
(地域)内に位置する不特定のキャラクタに対応するユ
ーザ端末またはシミュレーション装置との会話が実行さ
れる。
【0062】即ち、図10を参照して後述するように、
合成モード時においては、ステップS62において、所
定の地域内に位置する複数のキャラクタ間において、相
互に会話を行うことができるようになされる。従って、
ユーザ端末3においては、この合成モードが終了された
とステップS40において判定されるまで、所定の地域
内の不特定のキャラクタに対応するユーザ端末またはシ
ミュレーション装置との会話を行うことが可能となる。
【0063】単独モードにおける会話を行っている最中
に、ステップS37において、合成モードに変更された
と判定された場合においては、ステップS37からステ
ップS39に進み、それ以降の処理が同様に実行され
る。
【0064】図10は、シミュレーション装置1におけ
る会話処理の例を表している。最初にステップS51に
おいて、合成モードまたは独立モードの設定処理が行わ
れる。この設定は、シミュレーション装置1の合成モー
ド切換釦29gを操作することで行われる。次にステッ
プS52において、設定されたモードが合成モードであ
るか否かが判定され、合成モードではない(独立モード
である)と判定された場合においては、ステップS53
に進み、ユーザ端末3より所定のキャラクタを指定する
指定データが受信されたか否かが判定される。指定デー
タが受信されたと判定された場合、ステップS54に進
み、指定データを、指定されたキャラクタが対応するユ
ーザ端末3に出力する。
【0065】次にステップS55に進み、指定データを
供給したユーザ端末からOK信号が受信されたか否かを
判定する。OK信号が受信されていない場合、ステップ
S56に進み、モードを独立モードから合成モードに変
更するか否かを判定し、変更しない場合においては、ス
テップS53に戻り、それ以降の処理を繰り返す。
【0066】ステップS55において、OK信号を受信
したと判定した場合、ステップS55からステップS5
7に進み、キャラクタを指定したユーザ端末と、OK信
号を出力したユーザ端末とを、音声信号による会話が可
能なように通信網を接続する処理を実行する。
【0067】次にステップS58に進み、会話終了信号
が受信されたか否かが判定され、受信されない場合、ス
テップS59に進み、独立モードが変更されたか否かが
判定され、変更されない場合、ステップS57に戻る。
これにより、キャラクタを指定したユーザ端末またはシ
ミュレーション装置と、指定されたキャラクタのユーザ
端末またはシミュレーション装置との間で、双方向の音
声信号による会話が継続される。
【0068】ユーザ端末3が、図9のステップS38に
おいて終了信号を出力し、シミュレーション装置1にお
いて、図10のステップS58でこれを受信したとき、
ステップS53に戻り、それ以降の処理を繰り返す。ま
た、ステップS59において、独立モードから合成モー
ドに変更するか否かを判定し、変更する場合、ステップ
S51に戻り、合成モード切換ボタン29gを操作し
て、所定のモードを設定する処理を実行する。
【0069】ステップS51において、合成モード切換
ボタン29gを操作することで、合成モードを設定した
場合、ステップS52からステップS60に進み、合成
モードを設定する地域を指定するか否かが判定される。
合成モードを設定する地域を指定する場合、ステップS
61に進み、地域指定処理が実行される。
【0070】即ち、合成モードを適用する地域を設定す
る場合、入力装置29の地域指定装置29hを操作し
て、合成モードを適用する地域として所定の地域が指定
される。
【0071】例えば、仮想現実空間を形成する都市空間
において、その所定のブロックのビルや住居において停
電が発生したことを想定し、その場合における各キャラ
クタの動きを把握したいような場合、そのブロック内に
おいて合成モードを設定することができる。あるいはま
た、仮想現実空間を形成する所定の位置に、道路を形成
し、その道路を走行する車輌による騒音の及ぼす影響を
調べるような場合において、その道路から所定の範囲内
の地域を指定することができる。
【0072】ステップS60において、特に地域を指定
する必要がないと判定された場合、ステップS61の地
域指定処理はスキップされる。この場合においては、全
ての地域(仮想現実空間を形成する全ての空間)に合成
モードが設定されることになる。
【0073】次にステップS62に進み、指定された地
域、あるいは全ての空間に位置するキャラクタに対応す
るユーザ端末3の音声信号による通信網を相互に接続
し、ステップS63において、それらによる音声信号に
よる会話を行わせる。この処理は、ステップS64にお
いて、合成モードから独立モードへモードを変更すると
判定されるまで繰り返し実行される。
【0074】この合成モード時においては、合成モード
が設定されている地域内においては、その地域に位置す
るキャラクタの対応するユーザ端末が発生する音声信号
が全て合成されて、他のユーザ端末に供給される。これ
に対して、独立モードにおいては、キャラクタを指定し
たユーザ端末と、指定されたキャラクタに対応するユー
ザ端末との間においてのみ会話が行われる。
【0075】しかしながら、このような会話は、現実の
空間においては有り得ないことである。即ち、現実の空
間においては、常に周囲のキャラクタからの音声信号が
入力されている。換言すれば、このような意図しない周
囲のキャラクタからの音声信号が入力されている状態
が、より自然に近い状態である。従って、より自然に近
い状態を実現するには、この合成モードが設定される。
【0076】但し、所定の地域内に位置するキャラクタ
が発生する音声信号を、全て同一レベルで合成し、各ユ
ーザ端末に供給するようにすると、各ユーザ端末におい
て、音声信号を実質的に聞き取ることが困難になる。そ
こで、各ユーザ端末に対しては、その対応するキャラク
タを中心として、そのキャラクタから遠い位置に位置す
るキャラクタが出力する音声信号は、その距離が遠いほ
ど大きく減衰するようにして合成する。このようにする
ことで、より現実空間に近い臨場感を発生させることが
できる。
【0077】この仮想現実空間において提供される画像
は、基本的にコンピュータグラフィックスにより生成さ
れた精度の高い画像である。従って、これをあらゆる角
度から見ることで、現実の空間における都市空間と殆ど
同様の体験を、各ユーザ端末に体験させることができ
る。
【0078】この仮想現実空間には、多数のビルや住
居、川などが適宜配置される。そして、複数のユーザ端
末に対応するキャラクタを移動させる処理を実行させる
ことによって、その都市空間における問題点を把握する
ことが可能となる。
【0079】
【発明の効果】以上の如く、本発明のシミュレーション
システムによれば、自分自身のキャラクタの位置と視点
に対応する仮想現実空間の画像に重畳して、自分以外の
キャラクタの位置と視点に対応して、自分以外のキャラ
クタを表示するようにしたので、より現実空間に近い状
態で、仮想現実空間を体験させることが可能となり、し
かも複数のキャラクタに対して、同時にその仮想現実空
間を体験させることができるようにしたので、仮想現実
空間における問題点などを実際にテストし、判断するこ
とが可能となる。
【図面の簡単な説明】
【図1】本発明のシミュレーションシステムの構成例を
示すブロック図である。
【図2】図1のシミュレーション装置1の構成例を示す
ブロック図である。
【図3】図1のユーザ端末3の構成例を示すブロック図
である。
【図4】図1のシミュレーションシステムにより形成さ
れる仮想現実空間を説明する図である。
【図5】図4のキャラクタCからの視野を説明する図で
ある。
【図6】図4のキャラクタDからの視野を説明する図で
ある。
【図7】図1のユーザ端末3の処理を説明するフローチ
ャートである。
【図8】図1のシミュレーション装置1の処理を説明す
るフローチャートである。
【図9】図1のユーザ端末3の会話処理を説明するフロ
ーチャートである。
【図10】図1のシミュレーション装置1の会話処理を
説明するフローチャートである。
【符号の説明】
1 シミュレーション装置 2 データベース 3,3−1乃至3−N ユーザ端末 21 CPU 22 ROM 23 RAM 24 通信装置 25 表示装置 26 マイク 27 スピーカ 28 インタフェース 29 入力装置 29a キーボード 29b マウス 29c 視点入力装置 29d 移動入力装置 29e 俯瞰モード切換釦 29f 俯瞰視点入力装置 29g 合成モード切換釦 29h 地域指定装置 41 CPU 42 ROM 43 RAM 44 通信装置 45 表示装置 46 マイク 47 スピーカ 48 インタフェース 49 入力装置 49a キーボード 49b マウス 49c 視点入力装置 49d 移動入力装置 49e 俯瞰モード切換釦 49f 俯瞰視点入力装置

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 3次元の仮想現実空間を形成する画像デ
    ータを記憶する記憶手段と、 前記記憶手段に記憶されている仮想現実空間の画像デー
    タを供給する供給手段と、 前記供給手段より前記仮想現実空間の画像データを受信
    し、表示する、前記供給手段に接続された複数の受信手
    段とを備えるシミュレーションシステムにおいて、 前記受信手段は、前記仮想現実空間上において対応する
    キャラクタを有し、前記キャラクタの位置と視点を入力
    し、 前記供給手段は、前記キャラクタの位置と視点に対応す
    る画像データを前記記憶手段から読み出して、前記受信
    手段に供給し、 前記受信手段は、前記供給手段から、前記キャラクタの
    位置と視点に対応する前記仮想現実空間の画像データの
    提供を受けて画像を生成、表示するとともに、 前記供給手段は、前記受信手段から供給された前記キャ
    ラクタの位置と視点のデータを、他の前記受信手段に供
    給し、 前記受信手段は、前記供給手段から供給される、自分以
    外の前記受信手段のキャラクタの位置と視点に対応し
    て、自分以外のキャラクタの画像を生成、表示すること
    を特徴とするシミュレーションシステム。
  2. 【請求項2】 前記受信手段と供給手段の少なくとも一
    方は、自分のキャラクタを表示せず、自分以外のキャラ
    クタを表示するキャラクタモードと、自分以外のキャラ
    クタと自分のキャラクタの両方を表示する俯瞰モードと
    を切り換える俯瞰モード切換手段を有することを特徴と
    する請求項1に記載のシミュレーションシステム。
  3. 【請求項3】 前記受信手段と供給手段の少なくとも一
    方は、前記俯瞰モード時における俯瞰視点を入力する俯
    瞰視点入力手段を備えることを特徴とする請求項2に記
    載のシミュレーションシステム。
  4. 【請求項4】 前記供給手段は、合成モード時におい
    て、所定の範囲の複数の前記キャラクタに対応する音声
    信号を合成して、前記受信手段に供給することを特徴と
    する請求項1,2または3に記載のシミュレーションシ
    ステム。
  5. 【請求項5】 前記供給手段は、複数の前記キャラクタ
    に対応する音声信号を合成する前記合成モードと、特定
    のキャラクタに対応する音声信号を授受する独立モード
    とを選択する選択手段を備えることを特徴とする請求項
    4に記載のシミュレーションシステム。
JP22452094A 1994-09-20 1994-09-20 シミュレーションシステム、仮想空間提供装置及び方法、並びにユーザ端末装置及び仮想空間画像生成方法 Expired - Fee Related JP3780536B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22452094A JP3780536B2 (ja) 1994-09-20 1994-09-20 シミュレーションシステム、仮想空間提供装置及び方法、並びにユーザ端末装置及び仮想空間画像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22452094A JP3780536B2 (ja) 1994-09-20 1994-09-20 シミュレーションシステム、仮想空間提供装置及び方法、並びにユーザ端末装置及び仮想空間画像生成方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005350248A Division JP3815509B2 (ja) 2005-12-05 2005-12-05 シミュレーションシステム、仮想空間提供装置および方法、並びにユーザ端末装置および仮想空間画像生成方法

Publications (2)

Publication Number Publication Date
JPH0887605A true JPH0887605A (ja) 1996-04-02
JP3780536B2 JP3780536B2 (ja) 2006-05-31

Family

ID=16815091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22452094A Expired - Fee Related JP3780536B2 (ja) 1994-09-20 1994-09-20 シミュレーションシステム、仮想空間提供装置及び方法、並びにユーザ端末装置及び仮想空間画像生成方法

Country Status (1)

Country Link
JP (1) JP3780536B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311883A (ja) * 1996-05-24 1997-12-02 Fujitsu Ltd 機械装置の設計/製造工程支援装置
WO1998000812A1 (fr) * 1996-06-28 1998-01-08 Gakkohojin Ritsumeikan Appareil et procede de formation d'un espace serveur
US7945856B2 (en) 1995-11-13 2011-05-17 Worlds.Com, Inc. System and method for enabling users to interact in a virtual space
JP2019040328A (ja) * 2017-08-24 2019-03-14 株式会社フォトロン 情報配信装置及び情報配信システム
JP2021036378A (ja) * 2019-08-30 2021-03-04 株式会社コロプラ プログラム、方法、および情報処理端末
JP2022028694A (ja) * 2019-08-30 2022-02-16 株式会社コロプラ プログラム、方法、および情報端末装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05113941A (ja) * 1991-10-22 1993-05-07 Sony Corp 送受信装置
JPH05134600A (ja) * 1991-11-14 1993-05-28 Hitachi Ltd ビジユアル地図システム及びビジユアル地図の表示方法
JPH05153260A (ja) * 1991-11-29 1993-06-18 Toshiba Corp 電子会議システム
JPH06149275A (ja) * 1992-10-30 1994-05-27 Sega Enterp Ltd 三次元仮想空間情報を考慮した三次元仮想音像形成装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05113941A (ja) * 1991-10-22 1993-05-07 Sony Corp 送受信装置
JPH05134600A (ja) * 1991-11-14 1993-05-28 Hitachi Ltd ビジユアル地図システム及びビジユアル地図の表示方法
JPH05153260A (ja) * 1991-11-29 1993-06-18 Toshiba Corp 電子会議システム
JPH06149275A (ja) * 1992-10-30 1994-05-27 Sega Enterp Ltd 三次元仮想空間情報を考慮した三次元仮想音像形成装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7945856B2 (en) 1995-11-13 2011-05-17 Worlds.Com, Inc. System and method for enabling users to interact in a virtual space
US8082501B2 (en) 1995-11-13 2011-12-20 Worlds.Com, Inc. System and method for enabling users to interact in a virtual space
US8145998B2 (en) 1995-11-13 2012-03-27 Worlds Inc. System and method for enabling users to interact in a virtual space
JPH09311883A (ja) * 1996-05-24 1997-12-02 Fujitsu Ltd 機械装置の設計/製造工程支援装置
WO1998000812A1 (fr) * 1996-06-28 1998-01-08 Gakkohojin Ritsumeikan Appareil et procede de formation d'un espace serveur
JP2019040328A (ja) * 2017-08-24 2019-03-14 株式会社フォトロン 情報配信装置及び情報配信システム
JP2021036378A (ja) * 2019-08-30 2021-03-04 株式会社コロプラ プログラム、方法、および情報処理端末
JP2022028694A (ja) * 2019-08-30 2022-02-16 株式会社コロプラ プログラム、方法、および情報端末装置

Also Published As

Publication number Publication date
JP3780536B2 (ja) 2006-05-31

Similar Documents

Publication Publication Date Title
JP4152432B2 (ja) 仮想現実回路網
KR101918262B1 (ko) 혼합 현실 서비스 제공 방법 및 시스템
CN108227921A (zh) 一种基于沉浸式虚拟现实设备的数字曾侯乙编钟交互***
WO2006132276A1 (ja) ユーザ音声合成装置、仮想空間共有システム、コンピュータの制御方法及び情報記憶媒体
JP6400879B2 (ja) 画像表示装置及び画像表示システム
JP2002366021A (ja) バーチャル現場訓練装置
JP3815509B2 (ja) シミュレーションシステム、仮想空間提供装置および方法、並びにユーザ端末装置および仮想空間画像生成方法
JPH0887605A (ja) シミュレーションシステム
JPH05113941A (ja) 送受信装置
JP2022139693A (ja) 情報処理サーバ、および、仮想空間提供システム
JPH0970030A (ja) 仮想会議システムの画像表示方法並びに仮想会議用端末装置
JP2002305758A (ja) 臨場感通信装置及び臨場感通信システム
WO2021220494A1 (ja) 通信端末装置、通信方法、およびソフトウェアプログラム
JP3296471B2 (ja) 音場制御方法および装置
JP2913624B1 (ja) 災害体験模擬装置
KR100238072B1 (ko) 화상회의시스템을 위한 가상공간 구현장치
JP2002245294A (ja) 仮想空間を利用したモデル住宅システム
JPH0424914B2 (ja)
JP7053074B1 (ja) 鑑賞システム、鑑賞装置及びプログラム
WO2024034396A1 (ja) 情報処理装置、情報処理方法、プログラム
JPH0934868A (ja) 分散協同学習支援方法及びシステム
JP2003101989A (ja) 仮想鑑賞方法、鑑賞サーバ装置、端末、プログラム
JP4000600B2 (ja) 音響発生方法及び装置
JPH09233445A (ja) 通信制御装置
JPH07271286A (ja) プラント模擬装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060227

LAPS Cancellation because of no payment of annual fees