JPH0887605A - シミュレーションシステム - Google Patents
シミュレーションシステムInfo
- Publication number
- JPH0887605A JPH0887605A JP6224520A JP22452094A JPH0887605A JP H0887605 A JPH0887605 A JP H0887605A JP 6224520 A JP6224520 A JP 6224520A JP 22452094 A JP22452094 A JP 22452094A JP H0887605 A JPH0887605 A JP H0887605A
- Authority
- JP
- Japan
- Prior art keywords
- character
- mode
- viewpoint
- user terminal
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- Computer And Data Communications (AREA)
Abstract
より確実に見い出すことができるようにする。 【構成】 シミュレーション装置に対して複数のユーザ
端末を接続し、各ユーザ端末に3次元の仮想現実空間の
画像を提供し、表示させる。各ユーザ端末は、対応する
キャラクタを有し、各ユーザ端末の表示装置には、他の
ユーザ端末の対応するキャラクタが表示される。また、
各ユーザ端末においては、自分のキャラクタの位置と視
点に対応する画像が表示される。
Description
を設計し、その都市空間の問題点などをテストする場合
に用いて好適なシミュレーションシステムに関する。
空間)を利用した装置が開発されている。
定の間取りや仕様を決定すると、それに対応する住宅の
画像をバーチャルリアリティで生成し、その画像を、そ
の住宅を発注した注文者に対して、ヘッドマウントディ
スプレイなどを用いて表示する装置が知られている。発
注者は、このヘッドマウントディスプレイに表示される
バーチャルリアリティから、自分があたかもその住宅に
おいて実際に生活しているような感覚で、その住宅を体
験し、テストすることができる。これにより、単に設計
図面上から住宅を見る場合に比べて、住宅の不便な点な
どを容易に発見することができる。
ャルリアリティとして提供する装置も知られている。
このような装置は、複数のユーザが同時にバーチャルリ
アリティを体験(テスト)することができず、従って、
複数の人間が所定の空間を同時に利用することによる問
題点などを発見することができない課題があった。
ものであり、複数の利用者が所定の空間を同時に利用す
る場合における問題点などをテストすることを可能にす
るものである。
ンシステムは、3次元の仮想現実空間を形成する画像デ
ータを記憶する記憶手段(例えば図1のデータベース
2)と、記憶手段に記憶されている仮想現実空間の画像
データを供給する供給手段(例えば図1のシミュレーシ
ョン装置1)と、供給手段より仮想現実空間の画像デー
タを受信し、表示する、供給手段に接続された複数の受
信手段(例えば図1のユーザ端末3−1乃至3−N)と
を備えるシミュレーションシステムにおいて、受信手段
は、仮想現実空間上において対応するキャラクタ(例え
ば図4のキャラクタC,D)を有し、キャラクタの位置
と視点を入力し、供給手段は、キャラクタの位置と視点
に対応する画像データを記憶手段から読み出して、受信
手段に供給し、受信手段は、供給手段から、キャラクタ
の位置と視点に対応する仮想現実空間の画像データの提
供を受けて画像を生成、表示するとともに、供給手段
は、受信手段から供給されたキャラクタの位置と視点の
データを、他の受信手段に供給し、受信手段は、供給手
段から供給される、自分以外の受信手段のキャラクタの
位置と視点に対応して、自分以外のキャラクタの画像を
生成、表示することを特徴とする。
自分のキャラクタを表示せず、自分以外のキャラクタを
表示するキャラクタモードと、自分以外のキャラクタと
自分のキャラクタの両方を表示する俯瞰モードとを切り
換える俯瞰モード切換手段(例えば図2の俯瞰モード切
換釦29e、図3の俯瞰モード切換釦49e)を設ける
ことができる。
は、俯瞰モード時における俯瞰視点を入力する俯瞰視点
入力手段(例えば図2の俯瞰視点入力装置29f、図3
の俯瞰視点入力装置49f)をさらに設けることができ
る。
定の範囲の複数のキャラクタに対応する音声信号を合成
して、受信手段に供給させるようにすることができる。
この場合、供給手段には、複数のキャラクタに対応する
音声信号を合成する合成モードと、特定のキャラクタに
対応する音声信号を授受する独立モードとを選択する選
択手段(例えば図2の合成モード切換釦29g)を設け
ることができる。
は、複数のユーザ端末3−1乃至3−Nのキャラクタ
と、シミュレーション装置1のキャラクタのうち、所定
の範囲のものが、各ユーザ端末3−1乃至3−Nまたは
シミュレーション装置1に、データベース2より読み出
した仮想現実空間に重畳して表示される。従って、ユー
ザ端末3−1乃至3−Nとシミュレーション装置1は、
それぞれ複数のキャラクタが同時に所定の仮想現実空間
を利用する場合における各種の問題点を把握することが
可能となる。
の構成例を表している。この実施例においては、複数の
(N台の)ユーザ端末3−1乃至3−Nが、例えば光フ
ァイバを利用した広帯域通信網を介してシミュレーショ
ン装置1に接続されている。シミュレーション装置1は
データベース2を有し、このデータベース2には、仮想
現実空間を形成する画像データが記憶されている。
空間上において、対応するキャラクタを有し、そのキャ
ラクタの位置と視点に対応するデータをシミュレーショ
ン装置1に供給すると、シミュレーション装置1は、こ
のキャラクタの位置と視点に対応する画像データをデー
タベース2より読み出し、ユーザ端末3−1乃至3−N
に供給するようになされている。
を示している。同図に示すように、シミュレーション装
置1はCPU21を備え、このCPU21は、ROM2
2に記憶されているプログラムに従って各種の処理を実
行するようになされている。RAM23には、CPU2
1が各種の処理を実行する上において必要なデータ、プ
ログラム等が適宜記憶されるようになされている。通信
装置24は、ユーザ端末3(3−1乃至3−N)に対し
て所定のデータを授受するようになされている。
え、シミュレーション装置1が提供する仮想現実空間の
画像をモニタすることができるように、インタフェース
28に接続されている。このインタフェース28にはま
た、マイク26とスピーカ27が接続されており、所定
の音声信号をユーザ端末3に供給したり、ユーザ端末3
からの音声信号をモニタすることができるようになされ
ている。
29を備え、インタフェース28を介して、各種の入力
を行うことができるようになされている。この入力装置
29は、キーボード29a、マウス29b、視点入力装
置29c、移動入力装置29d、俯瞰モード切換釦29
e、俯瞰視点入力装置29f、合成モード切換釦29
g、地域指定装置29hを有している。
どを入力するとき操作されるようになされている。マウ
ス29bは、所定の位置を指定するとき操作されるよう
になされている。視点入力装置29cは、シミュレーシ
ョン装置1の対応するキャラクタの視点を入力するとき
操作される。これにより、キャラクタの視点を上下左右
の方向に移動させたり、所定の画像をズームすることが
できるようになされている。また、移動入力装置29d
は、キャラクタを前後左右の方向に、所定の速度で移動
させるための入力を行うことができるようになされてい
る。
に仮想現実空間の画像を表示させるモードを、キャラク
タモードまたは俯瞰モードに切り換えるとき操作され
る。キャラクタモードにおいては、対応するキャラクタ
の視点からの画像が表示され、俯瞰モードにおいては、
対応するキャラクタを含む仮想現実空間の画像を俯瞰視
点から見た画像が表示される。俯瞰視点入力装置29f
は、俯瞰モード時において、表示装置25に表示する画
像の俯瞰視点を入力するとき操作される。
ードと単独モードを切り換えるとき操作される。単独モ
ード時においては、所定のユーザ端末3またはシミュレ
ーション装置1と、それらにより指定された他のユーザ
端末3との間における音声信号のみが相互に授受され
る。これに対して、合成モード時においては、所定の仮
想現実空間内に位置するキャラクタに対応するユーザ端
末3より入力される音声信号を、全て合成して、それら
のユーザ端末3に対して伝送される。
N)の構成例を示している。ユーザ端末3はCPU41
を備え、このCPU41は、ROM42に記憶されてい
るプログラムに従って各種の処理を実行するようになさ
れている。RAM43には、CPU41が各種の処理を
実行する上において必要なデータやプログラム等が適宜
記憶されるようになされている。通信装置44は、シミ
ュレーション装置1に対してデータを授受するようにな
されている。
え、CG(コンピュータグラフィック)の3次元画像
や、通常のビデオカメラなどにより撮影された3次元の
画像を表示することができるようになされている。マイ
ク46は、音声信号を、シミュレーション装置1や他の
ユーザ端末に出力するとき利用される。また、スピーカ
47は、シミュレーション装置1や他のユーザ端末より
音声信号が伝送されてきたとき、これを出力する。入力
装置49は、各種の入力を行うとき操作されるようにな
されている。
キーボード49a乃至俯瞰視点入力装置49fは、図2
に示したシミュレーション装置1の入力装置29におけ
るキーボード29a乃至俯瞰視点入力装置29fと対応
するものである。
イク46、スピーカ47、および入力装置49に対する
データのインタフェースを構成している。
置1により提供される仮想現実空間を模式的に表してい
る。同図に示すように、この仮想現実空間は、町を構成
しており、キャラクタC(例えばユーザ端末3−1のキ
ャラクタ)や、キャラクタD(例えばユーザ端末3−2
のキャラクタ)が、この町(仮想現実空間)を移動する
ことができるようになされている。
置と視点から、例えば図5に示すような画像を見ること
になる。即ち、キャラクタモード時、ユーザ端末3−1
の表示装置25には、図5に示すような画像がシミュレ
ーション装置1から提供され、表示される。そして、そ
のキャラクタCの視点と位置を、視点入力装置49cと
移動入力装置49dを操作することで変更すると、それ
に対応して、シミュレーション装置1から供給される仮
想現実空間を形成する3次元画像が変化される。
末3−2の表示装置には、キャラクタモード時、図6に
示すような画像がシミュレーション装置1から提供さ
れ、表示される。そして、その表示画像も、キャラクタ
Dの視点と位置を移動させることで変化される。
キャラクタDの方向を見ている。従って、図5に示すよ
うに、ユーザ端末3−1の表示装置25に表示される画
像(仮想現実空間)には、キャラクタDが表示されてい
る。
ャラクタCの方向を見ている。このため、図6に示すよ
うに、ユーザ端末3−2の表示装置25に表示される画
像(仮想現実空間)には、キャラクタCが表示される。
おいて俯瞰モードを指定すると、図4に示すように、自
分のキャラクタCを含む俯瞰的画像が表示される。
参照して、ユーザ端末3とシミュレーション装置1の動
作について説明する。
る。最初にステップS1において、ユーザ端末3の俯瞰
モード切換ボタン49eを操作して、俯瞰モードまたは
キャラクタモードのいずれかを設定する。次にステップ
S2において、位置または視点を変更するか否かを判定
する。キャラクタモード時においては、キャラクタの仮
想現実空間内における位置を、移動入力装置49dを操
作することで入力する。またキャラクタの視点を、視点
入力装置49cを操作することで入力する。俯瞰モード
時においては、その位置は、移動入力装置49dを操作
することで入力され、俯瞰視点は、俯瞰視点入力装置4
9fを操作することで入力される。
S3に進み、位置または視点に対応するデータをシミュ
レーション装置1に出力する処理が実行される。即ち、
CPU41は、視点入力装置49c、移動入力装置49
d、俯瞰視点入力装置49fなどの操作に対応するデー
タを、通信装置44を介してシミュレーション装置1へ
出力する。
を参照して後述するように、この位置と視点のデータを
受信したとき、ステップS22において、この位置と視
点に対応する画像データをデータベース2より読み出
し、ユーザ端末3に出力する。
プS4において、シミュレーション装置1が出力した描
画情報を受信し、それに対応して、仮想現実空間を形成
する、例えば都市計画画像を生成する。
置1より、描画情報を通信装置44を介して受信したと
き、この描画情報を一旦RAM43に記憶させる。そし
て、この描画情報に対応して3次元の仮想現実空間を形
成する画像を生成し、インタフェース48を介して表示
装置45に表示させる。これにより、表示装置45に
は、例えば計画した都市の3次元画像が表示される。
置または視点が変更された場合においてのみ実行され
る。位置または視点を変更する必要がない場合、既に表
示装置45に表示されている画像を変化させる必要がな
い。従って、この場合においては、ステップS3とステ
ップS4の処理はスキップされる。
俯瞰モードであるか否かが判定される。俯瞰モードであ
る場合においては、ステップS6に進み、自分のキャラ
クタの画像を、視点入力装置49cと移動入力装置49
dを操作することで、入力した視点と位置に対応して生
成する。そして、自分のキャラクタの画像を表示装置4
5に出力し、表示させる。
即ち、キャラクタモードである場合、自分のキャラクタ
の位置と視点に対応する画像が表示装置45に表示され
るため、自分のキャラクタの画像は、自分の表示装置4
5に表示させる必要はない。そこで、この場合において
は、ステップS6の処理はスキップされる。
3またはシミュレーション装置1のキャラクタの位置と
視点のデータを受信する。そしてステップS8におい
て、ステップS7で受信した位置と視点のデータから、
そのキャラクタの位置または視点が変更されたか否かを
判定し、変更された場合においては、ステップS9に進
み、その新たな位置または視点におけるキャラクタの画
像を生成し、これを表示装置45に出力し、表示させ
る。
のキャラクタの位置または視点が変更されていないと判
定された場合においては、ステップS9の処理はスキッ
プされる。即ち、そのキャラクタの画像は変更されな
い。
モードまたはキャラクタモード)を変更するか否かを判
定し、変更しない場合においては、ステップS2に戻
り、それ以降の処理を繰り返し実行する。
いては、ステップS1に戻り、新たなモードを設定し、
ステップS2に進み、それ以降の処理を繰り返す。
2において、キャラクタモードを指定した場合、自分の
キャラクタの位置と視点に対応して、例えば図6に示す
ような画像が表示装置45に表示される。
においては、その位置と俯瞰視点に対応して、図4に示
すような画像が表示装置45に表示される。
ャートに示すような処理を実行した場合におけるシミュ
レーション装置1の処理例を表している。最初にステッ
プS21において、ユーザ端末3より、対応するキャラ
クタの位置または視点を変更するデータを受信するまで
待機し、受信したとき、ステップS22に進み、受信し
た位置または視点データに対応する描画情報をデータベ
ース2より読み出し、その位置または視点データを出力
したユーザ端末3に出力する。このステップS22で出
力したデータが、ユーザ端末3において、図7のステッ
プS4において受信され、処理されることになる。
1で受信した位置または視点データを、関連する他のユ
ーザ端末にも出力する。このステップS23で出力した
データが、ユーザ端末3において、図7のステップS7
において受信される。
するか否かは、そのユーザ端末の位置と視点から判断さ
れる。即ち、例えばユーザ端末3−1のキャラクタCの
位置または視点が変更された場合、このキャラクタCを
表示装置に表示しているユーザ端末であって、ユーザ端
末3−1以外のユーザ端末が、ここにおける関連する他
のユーザ端末となる。
1に戻り、同様の処理が繰り返し実行される。
するシミュレーション装置1の処理を説明したが、シミ
ュレーション装置1は、ユーザ端末3が有する機能を同
様に有しており、図7を参照して説明したユーザ端末3
の処理は、シミュレーション装置1においても同様に行
うことができるようになされている。
装置45と、シミュレーション装置1の表示装置25に
は、仮想現実空間における都市の画像が所定の数のキャ
ラクタの画像とともに、表示される。
ーザ端末3における他のユーザ端末3またはシミュレー
ション装置1との音声信号による会話処理について説明
する。
ードが合成モードであるか否かが判定され、合成モード
ではない場合(独立モードである場合)、ステップS3
2に進み、相手画像を指定する処理が実行される。即
ち、ユーザ端末3は、例えばマウス49bを操作して、
対応するカーソル(図示せず)を、会話を行う相手とし
て指定したいキャラクタ上に配置し、クリックすること
で、キャラクタの指定を行う。
手を特定するためのデータをシミュレーション装置1に
出力する処理を実行する。即ち、ユーザ端末3のCPU
41は、指定されたキャラクタに対応するデータをシミ
ュレーション装置1に出力する。
ーチャートを参照して後述するように、ユーザ端末3よ
り、この相手を指定するデータを受信したとき、ステッ
プS54において、これを、指定されたユーザ端末に出
力する。指定データを受信した他のユーザ端末は、これ
に応答するとき、図9のステップS43でOK信号を出
力する。シミュレーション装置1は、このOK信号を受
信したとき、図10のステップS57で、指定したユー
ザ端末と指定されたユーザ端末の通信網を接続する処理
を実行する。
ステップS34において、OK信号の受信を確認した
後、ステップS35において、指定した相手と音声信号
による双方向の会話を実行する。
6より入力した音声信号は、インタフェース48、通信
装置44を介してシミュレーション装置1に出力され
る。シミュレーション装置1は、上述したように、音声
信号による通信網の接続を行っているため、この音声信
号は、指定されたキャラクタが対応するユーザ端末3に
出力される。そして、そのユーザ端末3のスピーカ47
より出力される。
46より入力した音声信号が、キャラクタを指定したユ
ーザ端末のスピーカ47に出力される。これにより、双
方向の音声信号による会話が行われる。
ーザ端末3のキーボード49aの所定のキーを操作する
などして終了が指令されるか、ステップS37におい
て、モードが合成モードに変更されたと判定されるまで
繰り返し実行される。
令されたと判定された場合においては、ステップS38
に進み、終了信号を出力する処理が実行される。
を受信したとき、図10のステップS58でこれを検出
し、通信網の接続を解除する処理を実行する。
合成モードであると判定された場合においては、ステッ
プS39に進み、所定の仮想現実空間内における空間
(地域)内に位置する不特定のキャラクタに対応するユ
ーザ端末またはシミュレーション装置との会話が実行さ
れる。
合成モード時においては、ステップS62において、所
定の地域内に位置する複数のキャラクタ間において、相
互に会話を行うことができるようになされる。従って、
ユーザ端末3においては、この合成モードが終了された
とステップS40において判定されるまで、所定の地域
内の不特定のキャラクタに対応するユーザ端末またはシ
ミュレーション装置との会話を行うことが可能となる。
に、ステップS37において、合成モードに変更された
と判定された場合においては、ステップS37からステ
ップS39に進み、それ以降の処理が同様に実行され
る。
る会話処理の例を表している。最初にステップS51に
おいて、合成モードまたは独立モードの設定処理が行わ
れる。この設定は、シミュレーション装置1の合成モー
ド切換釦29gを操作することで行われる。次にステッ
プS52において、設定されたモードが合成モードであ
るか否かが判定され、合成モードではない(独立モード
である)と判定された場合においては、ステップS53
に進み、ユーザ端末3より所定のキャラクタを指定する
指定データが受信されたか否かが判定される。指定デー
タが受信されたと判定された場合、ステップS54に進
み、指定データを、指定されたキャラクタが対応するユ
ーザ端末3に出力する。
供給したユーザ端末からOK信号が受信されたか否かを
判定する。OK信号が受信されていない場合、ステップ
S56に進み、モードを独立モードから合成モードに変
更するか否かを判定し、変更しない場合においては、ス
テップS53に戻り、それ以降の処理を繰り返す。
したと判定した場合、ステップS55からステップS5
7に進み、キャラクタを指定したユーザ端末と、OK信
号を出力したユーザ端末とを、音声信号による会話が可
能なように通信網を接続する処理を実行する。
が受信されたか否かが判定され、受信されない場合、ス
テップS59に進み、独立モードが変更されたか否かが
判定され、変更されない場合、ステップS57に戻る。
これにより、キャラクタを指定したユーザ端末またはシ
ミュレーション装置と、指定されたキャラクタのユーザ
端末またはシミュレーション装置との間で、双方向の音
声信号による会話が継続される。
おいて終了信号を出力し、シミュレーション装置1にお
いて、図10のステップS58でこれを受信したとき、
ステップS53に戻り、それ以降の処理を繰り返す。ま
た、ステップS59において、独立モードから合成モー
ドに変更するか否かを判定し、変更する場合、ステップ
S51に戻り、合成モード切換ボタン29gを操作し
て、所定のモードを設定する処理を実行する。
ボタン29gを操作することで、合成モードを設定した
場合、ステップS52からステップS60に進み、合成
モードを設定する地域を指定するか否かが判定される。
合成モードを設定する地域を指定する場合、ステップS
61に進み、地域指定処理が実行される。
る場合、入力装置29の地域指定装置29hを操作し
て、合成モードを適用する地域として所定の地域が指定
される。
において、その所定のブロックのビルや住居において停
電が発生したことを想定し、その場合における各キャラ
クタの動きを把握したいような場合、そのブロック内に
おいて合成モードを設定することができる。あるいはま
た、仮想現実空間を形成する所定の位置に、道路を形成
し、その道路を走行する車輌による騒音の及ぼす影響を
調べるような場合において、その道路から所定の範囲内
の地域を指定することができる。
する必要がないと判定された場合、ステップS61の地
域指定処理はスキップされる。この場合においては、全
ての地域(仮想現実空間を形成する全ての空間)に合成
モードが設定されることになる。
域、あるいは全ての空間に位置するキャラクタに対応す
るユーザ端末3の音声信号による通信網を相互に接続
し、ステップS63において、それらによる音声信号に
よる会話を行わせる。この処理は、ステップS64にお
いて、合成モードから独立モードへモードを変更すると
判定されるまで繰り返し実行される。
が設定されている地域内においては、その地域に位置す
るキャラクタの対応するユーザ端末が発生する音声信号
が全て合成されて、他のユーザ端末に供給される。これ
に対して、独立モードにおいては、キャラクタを指定し
たユーザ端末と、指定されたキャラクタに対応するユー
ザ端末との間においてのみ会話が行われる。
空間においては有り得ないことである。即ち、現実の空
間においては、常に周囲のキャラクタからの音声信号が
入力されている。換言すれば、このような意図しない周
囲のキャラクタからの音声信号が入力されている状態
が、より自然に近い状態である。従って、より自然に近
い状態を実現するには、この合成モードが設定される。
が発生する音声信号を、全て同一レベルで合成し、各ユ
ーザ端末に供給するようにすると、各ユーザ端末におい
て、音声信号を実質的に聞き取ることが困難になる。そ
こで、各ユーザ端末に対しては、その対応するキャラク
タを中心として、そのキャラクタから遠い位置に位置す
るキャラクタが出力する音声信号は、その距離が遠いほ
ど大きく減衰するようにして合成する。このようにする
ことで、より現実空間に近い臨場感を発生させることが
できる。
は、基本的にコンピュータグラフィックスにより生成さ
れた精度の高い画像である。従って、これをあらゆる角
度から見ることで、現実の空間における都市空間と殆ど
同様の体験を、各ユーザ端末に体験させることができ
る。
居、川などが適宜配置される。そして、複数のユーザ端
末に対応するキャラクタを移動させる処理を実行させる
ことによって、その都市空間における問題点を把握する
ことが可能となる。
システムによれば、自分自身のキャラクタの位置と視点
に対応する仮想現実空間の画像に重畳して、自分以外の
キャラクタの位置と視点に対応して、自分以外のキャラ
クタを表示するようにしたので、より現実空間に近い状
態で、仮想現実空間を体験させることが可能となり、し
かも複数のキャラクタに対して、同時にその仮想現実空
間を体験させることができるようにしたので、仮想現実
空間における問題点などを実際にテストし、判断するこ
とが可能となる。
示すブロック図である。
ブロック図である。
である。
れる仮想現実空間を説明する図である。
ある。
ある。
ャートである。
るフローチャートである。
ーチャートである。
説明するフローチャートである。
Claims (5)
- 【請求項1】 3次元の仮想現実空間を形成する画像デ
ータを記憶する記憶手段と、 前記記憶手段に記憶されている仮想現実空間の画像デー
タを供給する供給手段と、 前記供給手段より前記仮想現実空間の画像データを受信
し、表示する、前記供給手段に接続された複数の受信手
段とを備えるシミュレーションシステムにおいて、 前記受信手段は、前記仮想現実空間上において対応する
キャラクタを有し、前記キャラクタの位置と視点を入力
し、 前記供給手段は、前記キャラクタの位置と視点に対応す
る画像データを前記記憶手段から読み出して、前記受信
手段に供給し、 前記受信手段は、前記供給手段から、前記キャラクタの
位置と視点に対応する前記仮想現実空間の画像データの
提供を受けて画像を生成、表示するとともに、 前記供給手段は、前記受信手段から供給された前記キャ
ラクタの位置と視点のデータを、他の前記受信手段に供
給し、 前記受信手段は、前記供給手段から供給される、自分以
外の前記受信手段のキャラクタの位置と視点に対応し
て、自分以外のキャラクタの画像を生成、表示すること
を特徴とするシミュレーションシステム。 - 【請求項2】 前記受信手段と供給手段の少なくとも一
方は、自分のキャラクタを表示せず、自分以外のキャラ
クタを表示するキャラクタモードと、自分以外のキャラ
クタと自分のキャラクタの両方を表示する俯瞰モードと
を切り換える俯瞰モード切換手段を有することを特徴と
する請求項1に記載のシミュレーションシステム。 - 【請求項3】 前記受信手段と供給手段の少なくとも一
方は、前記俯瞰モード時における俯瞰視点を入力する俯
瞰視点入力手段を備えることを特徴とする請求項2に記
載のシミュレーションシステム。 - 【請求項4】 前記供給手段は、合成モード時におい
て、所定の範囲の複数の前記キャラクタに対応する音声
信号を合成して、前記受信手段に供給することを特徴と
する請求項1,2または3に記載のシミュレーションシ
ステム。 - 【請求項5】 前記供給手段は、複数の前記キャラクタ
に対応する音声信号を合成する前記合成モードと、特定
のキャラクタに対応する音声信号を授受する独立モード
とを選択する選択手段を備えることを特徴とする請求項
4に記載のシミュレーションシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22452094A JP3780536B2 (ja) | 1994-09-20 | 1994-09-20 | シミュレーションシステム、仮想空間提供装置及び方法、並びにユーザ端末装置及び仮想空間画像生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22452094A JP3780536B2 (ja) | 1994-09-20 | 1994-09-20 | シミュレーションシステム、仮想空間提供装置及び方法、並びにユーザ端末装置及び仮想空間画像生成方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005350248A Division JP3815509B2 (ja) | 2005-12-05 | 2005-12-05 | シミュレーションシステム、仮想空間提供装置および方法、並びにユーザ端末装置および仮想空間画像生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0887605A true JPH0887605A (ja) | 1996-04-02 |
JP3780536B2 JP3780536B2 (ja) | 2006-05-31 |
Family
ID=16815091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP22452094A Expired - Fee Related JP3780536B2 (ja) | 1994-09-20 | 1994-09-20 | シミュレーションシステム、仮想空間提供装置及び方法、並びにユーザ端末装置及び仮想空間画像生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3780536B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09311883A (ja) * | 1996-05-24 | 1997-12-02 | Fujitsu Ltd | 機械装置の設計/製造工程支援装置 |
WO1998000812A1 (fr) * | 1996-06-28 | 1998-01-08 | Gakkohojin Ritsumeikan | Appareil et procede de formation d'un espace serveur |
US7945856B2 (en) | 1995-11-13 | 2011-05-17 | Worlds.Com, Inc. | System and method for enabling users to interact in a virtual space |
JP2019040328A (ja) * | 2017-08-24 | 2019-03-14 | 株式会社フォトロン | 情報配信装置及び情報配信システム |
JP2021036378A (ja) * | 2019-08-30 | 2021-03-04 | 株式会社コロプラ | プログラム、方法、および情報処理端末 |
JP2022028694A (ja) * | 2019-08-30 | 2022-02-16 | 株式会社コロプラ | プログラム、方法、および情報端末装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05113941A (ja) * | 1991-10-22 | 1993-05-07 | Sony Corp | 送受信装置 |
JPH05134600A (ja) * | 1991-11-14 | 1993-05-28 | Hitachi Ltd | ビジユアル地図システム及びビジユアル地図の表示方法 |
JPH05153260A (ja) * | 1991-11-29 | 1993-06-18 | Toshiba Corp | 電子会議システム |
JPH06149275A (ja) * | 1992-10-30 | 1994-05-27 | Sega Enterp Ltd | 三次元仮想空間情報を考慮した三次元仮想音像形成装置 |
-
1994
- 1994-09-20 JP JP22452094A patent/JP3780536B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05113941A (ja) * | 1991-10-22 | 1993-05-07 | Sony Corp | 送受信装置 |
JPH05134600A (ja) * | 1991-11-14 | 1993-05-28 | Hitachi Ltd | ビジユアル地図システム及びビジユアル地図の表示方法 |
JPH05153260A (ja) * | 1991-11-29 | 1993-06-18 | Toshiba Corp | 電子会議システム |
JPH06149275A (ja) * | 1992-10-30 | 1994-05-27 | Sega Enterp Ltd | 三次元仮想空間情報を考慮した三次元仮想音像形成装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7945856B2 (en) | 1995-11-13 | 2011-05-17 | Worlds.Com, Inc. | System and method for enabling users to interact in a virtual space |
US8082501B2 (en) | 1995-11-13 | 2011-12-20 | Worlds.Com, Inc. | System and method for enabling users to interact in a virtual space |
US8145998B2 (en) | 1995-11-13 | 2012-03-27 | Worlds Inc. | System and method for enabling users to interact in a virtual space |
JPH09311883A (ja) * | 1996-05-24 | 1997-12-02 | Fujitsu Ltd | 機械装置の設計/製造工程支援装置 |
WO1998000812A1 (fr) * | 1996-06-28 | 1998-01-08 | Gakkohojin Ritsumeikan | Appareil et procede de formation d'un espace serveur |
JP2019040328A (ja) * | 2017-08-24 | 2019-03-14 | 株式会社フォトロン | 情報配信装置及び情報配信システム |
JP2021036378A (ja) * | 2019-08-30 | 2021-03-04 | 株式会社コロプラ | プログラム、方法、および情報処理端末 |
JP2022028694A (ja) * | 2019-08-30 | 2022-02-16 | 株式会社コロプラ | プログラム、方法、および情報端末装置 |
Also Published As
Publication number | Publication date |
---|---|
JP3780536B2 (ja) | 2006-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4152432B2 (ja) | 仮想現実回路網 | |
KR101918262B1 (ko) | 혼합 현실 서비스 제공 방법 및 시스템 | |
CN108227921A (zh) | 一种基于沉浸式虚拟现实设备的数字曾侯乙编钟交互*** | |
WO2006132276A1 (ja) | ユーザ音声合成装置、仮想空間共有システム、コンピュータの制御方法及び情報記憶媒体 | |
JP6400879B2 (ja) | 画像表示装置及び画像表示システム | |
JP2002366021A (ja) | バーチャル現場訓練装置 | |
JP3815509B2 (ja) | シミュレーションシステム、仮想空間提供装置および方法、並びにユーザ端末装置および仮想空間画像生成方法 | |
JPH0887605A (ja) | シミュレーションシステム | |
JPH05113941A (ja) | 送受信装置 | |
JP2022139693A (ja) | 情報処理サーバ、および、仮想空間提供システム | |
JPH0970030A (ja) | 仮想会議システムの画像表示方法並びに仮想会議用端末装置 | |
JP2002305758A (ja) | 臨場感通信装置及び臨場感通信システム | |
WO2021220494A1 (ja) | 通信端末装置、通信方法、およびソフトウェアプログラム | |
JP3296471B2 (ja) | 音場制御方法および装置 | |
JP2913624B1 (ja) | 災害体験模擬装置 | |
KR100238072B1 (ko) | 화상회의시스템을 위한 가상공간 구현장치 | |
JP2002245294A (ja) | 仮想空間を利用したモデル住宅システム | |
JPH0424914B2 (ja) | ||
JP7053074B1 (ja) | 鑑賞システム、鑑賞装置及びプログラム | |
WO2024034396A1 (ja) | 情報処理装置、情報処理方法、プログラム | |
JPH0934868A (ja) | 分散協同学習支援方法及びシステム | |
JP2003101989A (ja) | 仮想鑑賞方法、鑑賞サーバ装置、端末、プログラム | |
JP4000600B2 (ja) | 音響発生方法及び装置 | |
JPH09233445A (ja) | 通信制御装置 | |
JPH07271286A (ja) | プラント模擬装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051004 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060227 |
|
LAPS | Cancellation because of no payment of annual fees |