JP2000348217A - 仮想画像生成装置及びその方法 - Google Patents

仮想画像生成装置及びその方法

Info

Publication number
JP2000348217A
JP2000348217A JP2000132702A JP2000132702A JP2000348217A JP 2000348217 A JP2000348217 A JP 2000348217A JP 2000132702 A JP2000132702 A JP 2000132702A JP 2000132702 A JP2000132702 A JP 2000132702A JP 2000348217 A JP2000348217 A JP 2000348217A
Authority
JP
Japan
Prior art keywords
subject
virtual image
viewpoint
obstacle
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000132702A
Other languages
English (en)
Other versions
JP3769747B2 (ja
Inventor
Kenji Yamamoto
健二 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Enterprises Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Enterprises Ltd filed Critical Sega Enterprises Ltd
Priority to JP2000132702A priority Critical patent/JP3769747B2/ja
Publication of JP2000348217A publication Critical patent/JP2000348217A/ja
Application granted granted Critical
Publication of JP3769747B2 publication Critical patent/JP3769747B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6653Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

(57)【要約】 【目的】 仮想空間における重なり判定を正確にし、好
適な透過処理を行う。 【構成】 ゲーム画像等の仮想画像生成技術に関し、障
害物等に関する形状データを記憶する形状データ記憶手
段109と、被写体の位置データを特定する位置データ
特定手段101と、形状データと位置データとに基づい
て、視点と被写体との間に物体が重なって視点から観察
されるか否かを判定する重なり判定手段108,101
と、重なり状態であると判定したときに物体に所定の透
過処理(メッシュ処理、半透明処理等)した仮想画像を
生成する画像生成手段110,112と、を備えて構成
される。重なり判定を視点からオブジェクトに向かうベ
クトルと障害物からオブジェクトに向かうベクトルとを
用いて正確に行い、メッシュ処理等の透過処理により、
物体に隠された被写体を好適に表示できる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はゲーム装置、シミュ
レータ等に用いる仮想画像の生成技術に係り、特に仮想
的に生成した3次元空間(以下「仮想空間」という。)
に存在する物体を、所定の視点に対応する2次元平面に
投影(透視投影)した際に得られる画像(以下「仮想画
像」という。)の生成技術に関する。
【0002】
【従来の技術】近年、3次元空間を移動する移動体(オ
ブジェクト)の間で対戦を行うことが可能な仮想画像生
成装置を搭載したゲーム装置やシミュレータが開発され
ている。これら仮想画像生成装置は、一般に、予め記憶
したプログラムを実行するコンピュータ装置を内蔵した
仮想画像生成装置本体と、画面上に表示するオブジェク
トの仮想画像内での移動を指令する操作信号をコンピュ
ータ装置に供給する入力装置と、コンピュータ装置によ
り生成されたプログラム展開に対応する仮想画像を表示
するディスプレイと、そのプログラム展開に伴う音響を
発生する音響装置とを備えている。
【0003】上記のような構成のゲーム装置の例とし
て、操作者自らが操作するオブジェクト(ロボット、人
間等)と対戦相手である敵のオブジェクトとが、仮想空
間内に設定された地形(以下「仮想地形」という。)を
利用して対戦するストーリーをテーマとしたものがあ
る。このゲーム装置の操作者に操作される各オブジェク
トは、互いに仮想地形の一部として設けられた障害物等
の陰に隠れながら、相手の隙を見て弾を撃つ等の攻撃を
加える。
【0004】これら仮想空間内の動きを3次元表示する
ためには、所定の視点から仮想空間を観察した際に認識
される画像を用いる。そのため、仮想空間の座標系を所
定の視点から透視し、視点の前面の2次元平面に投影す
る透視投影のための座標変換を行う。多くの場合、操作
者に自己の操作するオブジェクトを認識させるために、
仮想画像の視点からの視線は自己のオブジェクトに向け
られる。自己の操作するオブジェクトは被写体としてデ
ィスプレイのほぼ中央に表示されるようになる。
【0005】
【発明が解決しようとする課題】しかしながら、仮想画
像の視点は自己のオブジェクトと一定の位置関係を有し
ながら移動するため、時として自己のオブジェクトを観
察する視線の間に障害物が入り込む場合がある。かかる
場合、自己のオブジェクトは障害物に隠されるので、自
己のオブジェクトの動きが認識できなくなり操作が行え
なくなるという問題があった。自己のオブジェクトが操
作できなければ、ゲーム展開における緊張感が減殺さ
れ、ゲームの面白さを損なってしまう。
【0006】このようなケースを図6を参照して説明す
る。被写体R’を当該仮想画像の視点となる仮想的なカ
メラC’が観察すると、同図(A)に示すように、視線
を障害物Oが遮ってしまう位置関係となる場合が生ず
る。視線が遮られると、生成された仮想画像は同図
(B)のように、被写体Rが障害物Oに隠されて表示さ
れるものとなる。このため、操作対象たる被写体R’を
どのように操作すればよいのか、操作者は判断できなく
なるのである。
【0007】かかる事態を回避するためには、(1)障
害物を表示しない、(2)障害物を最初からワイヤーフ
レームで表示する、等の方法が考えられる。
【0008】しかし、(1)このような方法を採ると、
自己のオブジェクトの認識はできても障害物が認識でき
なくなるため、新たな問題が生ずる。(2)のような方
法を採ると、障害物の認識は一応可能であるが、被写体
Rが障害物Oに隠されていない場合でも、障害物がワイ
ヤーフレームによって表示されるため、ゲーム等の雰囲
気を損ねるおそれがある。
【0009】このような問題を解決するために、本願発
明は、上記(1)及び(2)の手段をとることなく、し
かも、ゲーム等の雰囲気を損なわない仮想画像生成装置
を提供することを目的とする。本願発明の第2の目的
は、仮想空間において被写体が物体に重なって表示され
得るか否かを正確に判定し、さらに被写体及び物体をと
も好適に認識し得る透過処理をする仮想画像生成装置及
びその方法を提供することにある。
【0010】
【課題を解決するための手段】このような目的を達成す
るために、この出願に係わる発明は、仮想的に設定した
仮想空間(例えば、ワールド座標系で示される空間)内
において仮想空間に存在する被写体(操作者の操作する
ロボット、飛行機等のオブジェクト)を所定の視点(仮
想空間の上下関係から見て被写体の斜め上方等)から観
察した際に得られる仮想画像(ゲーム画像、シミュレー
ション画像等)を生成する仮想画像生成方法であって、
仮想空間に存在する物体(仮想的な地形、障害物、地面
の凹凸等)に関する形状データ(ポリゴンデータ、形状
の位置を特定するデータ、面データ等)と被写体の位置
データ(座標データ等)とに基づいて、所定の条件が成
立するか否かを判定し、例えば、視点と被写体との間に
物体が視点から重なって観察されるか否かを判定し、被
写体と物体とが所定の重なり状態であると判定したとき
には物体に所定の透過処理(メッシュ処理、半透明処
理、物体をワイヤーフレームによって構成する等)した
仮想画像を生成し、被写体と物体とが所定の重なり状態
以外の状態であると判定したときには物体の透過を行わ
ない非透過処理(通常のテクスチャデータの貼り付け処
理等)した仮想画像を生成する。
【0011】すなわち、請求項1記載の発明は、仮想的
に設定した仮想空間内において当該仮想空間に存在す
る、後述の被写体や物体等の図形を所定の視点から観察
した際に得られる仮想画像を透過させて、又は透過させ
ることなく生成する仮想画像生成装置であって、前記透
過処理がされていない画像を、所定の条件が成立した以
降、透過させる画像とし、この所定の条件の終了以降
は、透過処理がされている画像を透過処理がされていな
い画像とする画像生成手段を備えることを特徴とする。
【0012】そして、請求項2記載の発明は、前記仮想
空間に存在する物体に関する形状データを記憶する形状
データ記憶手段と、前記被写体の位置データを特定する
位置データ特定手段と、前記形状データ記憶手段が記憶
する前記形状データと前記位置データ特定手段が特定し
た前記被写体の位置データとに基づいて、前記視点と前
記被写体との間に前記物体が前記視点から重なって観察
されるか否かを判定する重なり判定手段と、前記重なり
判定手段が前記被写体と前記物体とが所定の重なり状態
であると判定したときには前記物体に所定の透過処理し
た仮想画像を生成し、前記被写体と前記物体とが前記所
定の重なり状態以外の状態であると判定したときには前
記物体の透過を行わない非透過処理した仮想画像を生成
する画像生成手段と、を備えることを特徴とする。
【0013】請求項3記載の発明は、前記視点が前記被
写体を観察する方向に向いた第1のベクトルと、前記物
体が被写体に向いた第2のベクトルとが前記重なり判定
手段によってそれぞれ求められるとともに、この第1の
ベクトルと第2のベクトルが成す角度を求め、この角度
が所定の基準角に対して所定の関係にあるときに前記重
なり状態にあると判定し、一方、所定の関係にないとき
には重なり状態以外の状態であると判定することを特徴
とする。好適には、この第1のベクトルと第2のベクト
ルが成す角度と所定の基準角とを比較し、この角度が前
記基準角より小さい場合に前記重なり状態であると判定
し、前記角度が前記基準角より大きい場合に前記重なり
状態以外の状態であると判定する。
【0014】前記角度としては、例えば、各ベクトルを
所定の座標平面に投射した際の角度が選定される。前記
基準角は、例えば、両ベクトルがほぼぼ同一の方向を向
いていると判定しうる程度の大きさに選定される。
【0015】請求項4に記載の発明は、請求項2に記載
の仮想画像生成装置において、重なり判定手段は、被写
体に予め設定された第1基点(被写体の下端、又は幾何
学的な重心、又はその他の外形上の点等)についての所
定の地点(ワールド座標系のXZ平面等)からの変位
(Y軸方向の変位、すなわち「高さ」等)と物体に予め
設定された第2基点(物体最上端或いは幾何学的中心)
についての地点からの変位(物体の「高さ」等)とを比
較し、第1基点についての変位が第2基点についての変
位より小さい場合に重なり状態であると判定し、第1基
点についての変位が第2基点についての変位より大きい
場合に重なり状態以外の状態であると判定する。
【0016】請求項5に記載のように、請求項3に記載
した重なり判定と請求項4に記載した重なり判定とを併
用し、両判定条件を満たすとき重なり状態と判定しても
よい。
【0017】請求項6に記載の発明は、請求項2に記載
の仮想画像生成装置において、画像生成手段は、透過表
示を行う場合に所定のパターン(数ドット毎に画素を入
れ換えるパターン、ストライプ状のパターン等)にした
がって物体を表示するための画素の代わりに被写体を表
示するための画素を表示する仮想画像を生成する。
【0018】請求項7に記載の発明は、請求項5に記載
の仮想画像生成装置において、パターンは、物体を表示
するための画素と被写体を表示するための画素とを交互
に順次並べるものである。
【0019】本発明によれば、透過処理されることなく
表示されている障害物等の物体を、所定の条件が成立し
た場合、例えば、視点から被写体を観察した場合に被写
体と物体との間に物体が入り込んだ場合、物体に透過処
理を適用し、この条件の成立が終了した場合は、物体の
画像生成が非透過処理に復帰する。
【0020】通常、視点から被写体を観察した場合に被
写体の間に物体が入り込む場合には、物体に被写体が遮
られて、仮想画像の観察者に対し、被写体の映像が十分
に与えられなくなる。本発明は、被写体が物体に隠され
得るような状態を重なり状態であると判定し、その物体
に対して透過処理を施すので、障害物と被写体との映像
が十分に観察者に与えられる。その結果、観察者は障害
物の存在を認識しつつ被写体に好適な操作を与えること
ができ、ゲーム等の雰囲気が損なわれたと感ずることが
ない。
【0021】なお、複数の物体について重なり状態が判
定された場合は、重なり状態が判定された物体のそれぞ
れについて透過処理がされることになる。
【0022】特に、視点からみて被写体と視点との間に
物体が入り込むような位置関係となるとき、視点から被
写体へのベクトルと物体から被写体へのベクトルの方向
とは、ほぼ同一の方向を向くことになる。このとき、両
ベクトルが互いに成す角度は、比較的小さいものにな
る。
【0023】請求項3に記載の発明によれば、この角度
を基準角と比較するので、基準角として重なりを判定す
る程度に十分な小さい角度を設定しておけば、物体が被
写体に重なって観察されるか否かを正確に判定できる。
【0024】一方、視点が被写体の上方から被写体を観
察するような位置に設定される場合を例に採れば、被写
体の高さが物体の高さより低いときに物体が被写体を隠
す重なり状態が生じ得る。
【0025】請求項4に記載の発明によれば、被写体上
の第1基点と物体上の第2基点との各々の変位、すなわ
ち上記例でいえば「高さ」に相当するパラメータを比較
するので、被写体と物体とが重なり状態となりうる位置
関係にあるか否かを判定できる。請求項5項にあるよう
に、請求項3に記載した重なり判定と併用することが、
判定の正確さを期す上で好ましい。
【0026】請求項6に記載の発明によれば、透過処理
を所定のパターンにしたがって画素を入れ換えて表示す
るので、物体及び被写体をともに認識し得る仮想画像が
生成される。特に、請求項6に記載の発明のように、所
定のパターンを物体表示用の画素と背景表示用の画素と
を交互に表示する場合には、物体の質感を損ねることな
く被写体をも含む物体の陰に入る背景をも十分に明瞭に
表示し得る仮想画像が表示される。
【0027】
【発明の実施の形態】本発明の好適な実施の形態を図面
に基づいて説明する。 (I)構成の説明 本発明の実施の本形態に係るゲーム装置は、被写体であ
るオブジェクト(ロボット)同士が3次元空間内で対戦
するストーリー展開を有するものである。操作者は、自
己のロボットを操作して仮想空間内を自在に移動し、対
戦相手のロボットを攻撃する。仮想画像を観察する視点
(カメラ)は自己のロボットに付随して移動するものと
する。
【0028】図1に、本形態に係るゲーム装置の構成図
を示す。図1に示すように、当該ゲーム装置1000
は、基本的構成要素としてゲーム装置本体10、入力装
置11、出力装置12、TVモニタ13、及びスピーカ
14を備えている。
【0029】入力装置11は、ロボットを移動させるた
めに操作者の左右の手により操作する操作レバーを備え
る。操作レバーの操作状態に対応したコードは、操作信
号として入出力インターフェース106に伝達される。
出力装置12は、操作者に装置の動作状態を知らせるた
めの各種ランプ類を備える。TVモニタ13は、この対
戦型ゲームの画像を表示するもので、TVモニタの代わ
りに、ヘッドマウントディスプレイ(HMD:head mou
nted display )、プロジェクタ等を用いてもよい。
【0030】画像生成手段としてのゲーム装置本体10
は、カウンタ100、CPU(中央演算処理装置)10
1を有するとともに、ROM102、RAM103、サ
ウンド装置104、入出力インターフェース106、ス
クロールデータ演算装置107、コ・プロセッサ(補助
演算処理装置)108、地形デ−タROM109、ジオ
メタライザ110、形状デ−タROM111、描画装置
112、テクスチャデ−タROM113、テクスチャマ
ップRAM114、フレームバッファ115、画像合成
装置116、D/A変換器117を備えている。なお、
ゲーム装置本体10は、所定のインターバル(例えば、
テレビジョン方式の垂直同期期間に相当する1/60
秒)毎に新たな仮想画像を生成する。
【0031】位置データ特定手段、重なり判定手段とし
てのCPU101は、バスラインを介して、初期値から
カウントするカウンタ100、ゲームの進行と画像生成
を行うプログラムなどを記憶したROM102、テンポ
ラリデ−タを記憶するRAM103、サウンド装置10
4、入出力インターフェース106、スクロールデータ
演算装置107、コ・プロセッサ108、及びジオメタ
ライザ110に接続されている。
【0032】RAM103はポリゴンデータの座標変換
等を行う際に必要なデータの格納を一時的に行うもの
で、ジオメタライザに対する各種コマンドの書込み(オ
ブジェクトの表示など)、変換処理の演算時のマトリク
ス演算結果等を格納する。
【0033】入出力インターフェース106は、入力装
置11から操作信号が入力されるとCPU101に割り
込み処理の要求をし、CPU101からランプ表示用の
データが供給されるとこのデータを出力装置12に供給
する。
【0034】サウンド装置104は、電力増幅器105
を介してスピーカ14に接続されている。サウンド装置
104により出力された音声信号は、電力増幅機105
により電力増幅されスピーカ14に供給される。
【0035】ROM111は、仮想画像を生成するため
に必要な物体についての形状データ、すなわち、自己の
ロボットや対戦相手のロボット、爆弾の炸裂映像、仮想
地形を構成する障害物、背景、地形等のポリゴンデータ
を格納する。
【0036】一方、ROM109には、被写体(オブジ
ェクト)が障害物等の地形に隠されるか否かの重なり判
定、及び、被写体が他の地形形状に衝突するか否かの当
たり判定に必要な物体(建造物、障害物、地形等)につ
いての形状データを格納する。
【0037】ROM109に格納するデータ群は、RO
M111に格納された画像表示用の比較的精緻なポリゴ
ンデータ群に比べ、重なり判定等を行うに足りる粗い単
位で構成されたものである。例えば、仮想地形を構成す
る各物体やオブジェクトについて、表面の細かい凹凸情
報は無視し全体を立方体に見立てた場合に、ROM10
9は、当該立方体を表示するためのデータを立方体の各
面を特定する番号とともに格納する。
【0038】このデータに基づいて、各物体とオブジェ
クトとの当たりや重なりを判定できる他、各物体につい
ての形状、すなわち、各物体の高さ、幅、奥行き等を判
定できる。ここで、例えば地形に関するデータは地形を
定義する各面のIDを含み、このIDと各地形面の関す
るとはテーブル化されてROM111に記憶されてい
る。なお、ポリゴンデータとは、複数の頂点の集合から
なり、各物体の形状を構成する要素であるポリゴン(多
角形:主として3角形又は4角形)の各頂点を相対座標
又は絶対座標で指示したデータ群をいう。
【0039】仮想画像を生成するためには、仮想空間に
おけるオブジェクト、障害物等の各物体の相対位置を示
す座標系(ワールド座標系)を、ある特定の視点(例え
ば、カメラ等)から仮想空間を見た2次元の座標系(視
点座標系)に変換する必要がある。視点は、操作対象で
ある被写体を所定の位置(例えば、被写体の斜め上方)
から観察する位置に設定される。ゲーム展開によって視
点と被写体の位置関係が変化する場合もある。被写体の
位置を示す座標は入力装置11から操作信号としてCP
U101に供給される。
【0040】入力装置11から操作信号が入力される
と、CPU101は操作信号に対応した被写体の移動を
させるべく、次のインターバルにおける視点の座標及び
オブジェクトの座標を生成する。これら座標が定まると
CPU101が物体同士の重なり判定や当たり判定を行
う。
【0041】オブジェクトや障害物等の各物体は、各々
が複数のポリゴンデータにより構成される。各物体は、
物体を構成する多角形のうち、いずれかの頂点を原点と
して他の頂点の座標を示す座標系(ボディ座標系)で全
体形が決定され、各物体を構成するポリゴンデータが関
連づけられる。
【0042】仮想画像を観察する視点からみて、オブジ
ェクト等が障害物の陰に入った際に障害物を透過処理す
る場合には、物体同士の重なり状態の判定を行う必要が
ある。この重なり判定は本発明に係り、詳しくは後述す
る。また、オブジェクトや障害物に弾丸や光線が当たっ
た場合に炸裂映像等を表示させるためには、各物体同士
の相対位置を演算して各物体同士が衝突しているか否か
を判定する当たり判定を行う必要がある。ボディ座標系
で示された各物体の相対的な位置を得るために、仮想空
間を構成する所定の座標系(ワールド座標系)に変換す
る。各物体の相対位置が判れば物体が互いに衝突してい
るか否かが判定できる。
【0043】仮想空間の座標系における各物体の相対位
置が定まると、仮想画像を生成するために、これら仮想
空間に存在する各物体をいずれかの視点で観察(例えば
カメラで撮影)した如く、視野を構成する2次元平面に
各物体を投影する変換処理を行う。これを透視投影とい
い、透視投影のためのマトリクス演算により行う座標変
換を透視変換という。実際に表示する仮想画像を作成す
るために透視変換を実行するのがジオメタライザ110
である。
【0044】ジオメタライザ110は、形状デ−タRO
M111及び描画装置112に接続されている。ジオメ
タライザ110にはCPU101から透視変換に必要な
ポリゴンデータを指定するデータとともに透視変換に必
要なマトリクスデータが供給される。ジオメタライザ1
10は、形状デ−タROM111に格納されたポリゴン
データをCPU101から供給されたマトリクスに基づ
いて透視変換し、仮想空間における3次元の座標系から
視野座標系に変換したデ−タを得る。このとき、当たり
判定の結果、炸裂映像を表示する必要がある場合は、炸
裂映像のためのポリゴンデータを用いる。
【0045】描画装置112は変換した視野座標系の形
状デ−タにテクスチャを貼り合わせフレームバッファ1
15に出力する。このとき、CPU101による重なり
判定の結果、オブジェクト等が障害物の陰に隠れている
場合は、所定の透過処理を行う。このテクスチャの貼り
付けを行うため、描画装置112はテクスチャデ−タR
OM113及びテクスチャマップRAM114に接続さ
れるとともに、フレームバッファ115に接続されてい
る。
【0046】スクロールデ−タ演算装置107は、文字
などのスクロール画面のデ−タ(ROM102に格納)
を演算する。画像合成装置116は、演算装置107か
ら出力される文字データを前記フレームバッファ115
から供給された画像データにインポーズして画像を再合
成する。再合成された画像データはD/A変換器117
を介してTVモニタ13に出力される。 (II)動作の説明 次に、本形態に係る重なり判定について、図2のフロー
チャートを参照しながら説明する。
【0047】ステップS1において、CPU101は障
害物を表示する際に必要な初期化を行う。すなわち、入
力装置11から新たな操作信号が供給されると、CPU
101は操作信号に対して割り付けた動き方で操作者の
操作するオブジェクトを移動させた場合の移動先の座標
を演算する。オブジェクトの移動先が定まると、このオ
ブジェクトを被写体として観察する視点の新しい位置も
定まる。
【0048】CPU101は、新たな視点の座標を演算
した後、この視点から被写体を中心として仮想空間を観
察した際に透視投影する必要のある物体を選択する。こ
の選択の為に、コ・プロセッサ108は形状データRO
M109に格納された形状データを参照する。選択され
た物体は、この物体を構成する各面を特定する番号とと
もにRAM103に格納される。
【0049】表示すべき障害物等の物体が、視点から仮
想空間を観察した場合の視野に存在しない場合(ステッ
プS2:NO)CPU101は新たな視点について透視
投影するための変換マトリクスデータをジオメタライザ
110へ供給して処理を終了する。通常は複数の障害物
等の物体が視野に含まれるので(ステップS2:YE
S)、視野に含まれる障害物等の物体の各々について順
番に以下に述べる重なり判定を行う。
【0050】この重なり判定は、図13に示す右手座標
系を備えた仮想空間内で、視点(仮想カメラ)がXZ平
面に投影された点Cから、被写体であるオブジェクトが
XZ平面に投影された点Rに向けられたベクトルCRと
障害物Oから点Rに向けられたベクトルORとが互いに
成す角度θの大きさによっている(図3参照)。
【0051】図3は仮想空間をY方向から観てXZ平面
に向かって表した、平面図に相当するものである。ベク
トルORは、図7に示すように各障害物について予め与
えられている。図7の障害物Oは、図3と同方向から表
せられている。この障害物の右側面720が臨む領域2
には、XY平面に平行にベクトル72が定義されてい
る。また、左側面760が臨む領域4には、ベクトルと
72と逆方向にベクトル76が定義されている。
【0052】一方、正面740が臨む領域3には、XZ
平面に平行にベクトル74が定義されている。また、背
面700が臨む領域1にはベクトル74とは逆方向にベ
クトル70が割り付けられている。これらベクトル7
0,72,74,及び76は各面に直角に定義されてい
る。
【0053】なお、領域5にはベクトル70又は72が
割り当てられ、領域6にはベクトル72又は74、領域
7にはベクトル74又は76、領域8にはベクトル76
又は70がそれぞれ割り付けられる。これら領域毎のベ
クトルは、テーブル化されて、例えばROM11に記憶
されている。
【0054】図2のステップS3において、オブジェク
トの現在座標位置から(x,z)が読み出され、この
(x,z)が領域1乃至8のどれに属するか否かによっ
て、障害物からオブジェクトに向けられたベクトルOR
がベクトル70乃至76のいずれかに決定される。
【0055】重なり判断は、前記ベクトルORとベクト
ルCRとが成す角度の大きさに基づくために、ベクトル
の大きさは一般的には重要でないことから、これらベク
トルには、一般に所定の大きさが予め与えられている。
【0056】そして、視点の投影点Cからオブジェクト
の投影点Rに向いたベクトルCRは、投影点CがXZ平
面に成す座標値(x1,z1)と投影点RがXZ平面に
成す(x2,z2)とから演算する。
【0057】次いで、ステップS4において、視点から
被写体に向けられた視線に対応するベクトルCRとベク
トルORとが成す角度(ベクトルCRを基準としたベク
トルORが成す角度のうち、内側の小さい値のほうの角
度、以下、便宜上「内角」という。)が計算される。
【0058】ステップS5において、CPU101は予
めプログラムで設定されている基準角度と、ステップS
4で求めた内角とを比較し、ベクトルCRとベクトルO
Rとがなす内角が基準角度以内である場合には(ステッ
プS5:YES)被写体の基点の高さ(Y方向の距離)
と障害物の基点の高さとを比較する(ステップS6)。
【0059】被写体の高さが障害物の高さより低い場合
(ステップS6:YES)、すなわち、ベクトルCRと
ベクトルORとのなす内角が基準角度以下、且つ、被写
体の高さが障害物の高さより低い、という条件に合致し
た場合には、CPU101は当該障害物を指定する物体
の番号とともに、この障害物を透過処理すべき旨のコー
ドを、ジオメタライザ110を介して描画装置112へ
供給する(ステップS8)。被写体が複数の障害物の陰
に入る場合は、障害物の各々について重なり判定がされ
ることとなるので、各障害物についての重なり状態が上
記条件に合致すれば、複数の物体の番号、コードがジオ
メタライザに供給される。
【0060】ベクトルCRとベクトルORとのなす角度
が基準角度より大きいか(ステップS5:NO)、又
は、被写体の高さが障害物の高さより高い場合(ステッ
プS6:NO)には、通常の障害物の表示方法である非
透過処理をすべき旨のコードをジオメタライザ110に
供給する(ステップS7)。
【0061】例えば、図3(A)に示すように、オブジ
ェクトのXZ平面への投影点Rは、図7の領域1に属す
るので、ベクトルORとしてベクトル70が選択され
る。視点たる仮想カメラのXZ平面への投影Cから投影
点Rに向けた視線ベクトルCRは、図3(A)のように
与えられる。そして、ベクトルCRとベクトルORとが
成す内角θ1は基準値以下であり、オブジェクトR’と
障害物Oとは重なりの可能性があると判断されて(図6
参照)、ステップS6に移行する。
【0062】次いで、図8に示すように、オブジェクト
の現在座標から、オブジェクトR’が仮想地平面80に
対して成す高さ(y座標)Hを演算する。この高さHと
障害物の高さとが比較されて、オブジェクトの第1起点
(オブジェクトの下端)の高さ(H1)が障害物の第2
起点(障害物の上端)高さ(H0)よりも高い場合は、
視点C’からオブジェクト全体を観察できるものであ
り、オブジェクトと障害物との重なりの可能性が否定さ
れて、障害物Oは通常とおり透過処理されることなくそ
の画像が生成される。
【0063】一方、オブジェクトの高さ(H2)が障害
物の高さ(H0)より低い場合は、視点C’からオブジ
ェクトR’を観察できないものとして、障害物Oが透過
されるようにその画像を生成する。
【0064】また、図3(B)に示すように、オブジェ
クトのXZ平面への投影点Rは、図7の領域3に属する
ので、ベクトルORとしてベクトル74が選択される。
視点たる仮想カメラのXZ平面への投影Cから投影点R
に向けた視線ベクトルCRは、図3(B)のように与え
られる。そして、ベクトルCRとベクトルORとが成す
内角θ2は基準値を越えて、オブジェクトRと障害物O
とが重なることは無いと判定されて、ステップS2にリ
ターンする。そして、図3(B)の場合は、被写体の高
さが障害物Oの高さより低くても、重なり状態にはなら
ないのでステップS6の処理は適用されない。
【0065】この発明の形態において、ベクトル同士が
成す内角に基づいて、オブジェクトと障害物との重なり
を判定するようにしたのは、次の理由による。すなわ
ち、図3(A)のように視点から観たオブジェクトが障
害物を越えた位置にある場合は、ベクトルOR及びベク
トルCRとも障害物の背面700からオブジェクトを観
たほぼ同方向にある。この場合は、両ベクトルが成す内
角は小さい値になる傾向を採る。
【0066】これに対して、図3(B)のように、視点
から観たオブジェクトが障害物の手前の位置にある場合
は、ベクトルORは障害物の背面700から正面740
に向かった方向にあり、ベクトルCRは、障害物の正面
740から背面700に向かった方向にある。これらの
方向は互いに逆方向であるから、両ベクトルが成す内角
は図3(A)よりも大きな傾向と成る。
【0067】したがって、内角として図3(A)の状態
と図3(B)の状態を区別するのに適した基準角度を定
義し、両ベクトルが実際に成す内角とこの基準角度を比
較することにより、図3(A)と(B)とを互いに区別
することが可能と成る。基準角度としては、視点とオブ
ジェクトが成す角度や距離によっても異なるが、好適に
は、70乃至90°が選択される。
【0068】なお、ステップS6において、各物体の高
さ、すなわち仮想空間のワールド座標系におけるY座標
を基準としたのは、視点のY座標が常に障害物のY座標
より大きい(高い)からである。したがって、視点の
「高さ」を障害物の「高さ」より低く設定するゲーム装
置ならば、「高さ」の比較の代わりに各物体のX座標の
大小関係を比較してもよい。
【0069】透過処理が指定された場合(ステップS
8)、描画装置112は当該障害物にテクスチャデータ
に基づいてテクスチャを貼り付ける際に、「メッシュ」
処理を行う。複数の物体について透過処理が指定された
場合は、複数の物体について「メッシュ」処理がされ
る。なお、メッシュ処理とは、当該障害物を表示する画
素列の中から所定のパターンに従って、障害物表示のた
めの画素の代わりに、障害物の背景を表示する画素を当
てはめる処理をいう。所定のパターンは、背景と障害物
とが均等に認識できるようなパターンであって、極端に
障害物の質感を変動させないようなパターンがよい。例
えば、障害物のための画素と背景のための画素とを交互
に配置するパターンが好ましい。
【0070】上記のように本形態によれば、視点からオ
ブジェクトに向かったベクトルと、障害物からオブジェ
クトに向かったベクトルとが成す角度と、両物体の高さ
の相違という2つの条件に基づいて重なり状態の判定を
行うので、正確な重なり状態の判定が行える。もっと
も、本発明は、オブジェクトと障害物との重なり判定を
両者の座標値から行う等の他の手段によりこの重なり判
定を行うことを妨げるものではない。
【0071】また、重なり状態であると判定された場合
には、透過処理としてメッシュ状に障害物が表示される
ので、視点と被写体との間に障害物が入り込んでも、操
作者は被写体を見失わずに、しかも障害物の存在を認識
しつつ被写体の操作を持続できる。
【0072】そして、ベクトルORは予めメモリにテー
ブルとして記憶され、オブジェクトが障害物に対して成
す位置に応じてメモリから読み出されるため、重なり判
定を迅速かつ容易に行うことができる。 (III)他の実施の形態 i) 重なり判定について 上記形態では、ベクトルCRとベクトルORとのなす角
度の条件、及び、被写体の高さと障害物の高さとの間の
条件とを共に満たした場合に重なり状態であると判定し
ていたが、角度の判定のみで重なり判定を行ってもよ
い。ゲーム装置における被写体の動きは激しいために、
視点が障害物から遠方に設定された場合や障害物の高さ
が低い場合には、おおよその位置関係に基づいて透過処
理を実行しても、違和感なく操作者は操作を行えるから
である。
【0073】また、視点から障害物や被写体等の物体を
観察する場合、各物体の大きさ(すなわち、重心から外
形までの距離)に応じて、重なりが生ずるときのベクト
ルORと視線ベクトルCRとの成す角度が異なる。視点
と各物体との距離によってもこの角度は異なる。そこ
で、各物体の外形の大きさや視点−各物体間の距離に対
応させて、ステップS5の比較に用いる基準角度を変更
させてもよい。
【0074】また、図9に示すように、ベクトルOR
を、被写体の位置と障害物の位置とに基づいて演算する
ようにしても良い。このベクトルは、障害物Oの所定の
基点から被写体R’の基点に向かうベクトルとして求め
られる。基点は、例えば、被写体や障害物等の中心点と
する。中心点とは幾何学的に見て、各物体を囲む立方体
の重心に相当する点とする。なお、ゲーム装置では、各
オブジェクトや視点の動きが激しいため、厳密に各物体
の中心点を求める必要はなく、おおよその位置を中心点
の座標としてROM109等に格納しておけば十分であ
る。各物体の高さの基準点は、ベクトル演算で用いた各
物体の中心点であってもよいが、障害物については障害
物の上面の高さ、被写体たるオブジェクトについてはオ
ブジェクトの最下部の高さを基準としてもよい。
【0075】ii) 透過処理について 画像生成装置が行う透過処理として上記形態では画素を
1ドット毎に変更するメッシュ処理を行ったが、異なる
パターンで画素を入れ換えてもよい。すなわち、2ドッ
ト毎に画素を入れ換えたり、縞状に背景と障害物とを表
示したりしてもよい。また、画素を入れ換える「メッシ
ュ」処理の代わりに、障害物の表示を半透明状態にする
透過処理を行ってもよい。半透明状態にするには、障害
物を表示する画素の色情報(RGB)と背景を表示する
画素の色情報とに演算(加算、乗算等)を施して、障害
物の陰に隠れた部分が認識できるように処理する。
【0076】また、図8と同じ方向から表された図10
に示すように、視点C’の視野角がθ−1であるとした
とき、Y方向に幅を持ったオブジェクトR’が障害物O
に重なる部分はθ−2の範囲である。したがって、この
θ−2の部分のみの箇所に透過処理を与えるようにして
も良い。
【0077】前記図2に示す形態では、視点の視野内に
ある障害物について、重なり判定の処理を実行したが、
視野内以外の例えば、仮想空間内にある全ての障害物に
ついて図2に示す処理を適用するようにしても良い。こ
のことを図11を使用しながら説明する。
【0078】図11は図7と同方向に表現されており、
仮想空間内にある二つの障害物01とO2をY方向から
示した図である。図11は、二つのオブジェクトのXZ
平面への投影点R−1,R−2と、R−1に対する視点
の投影点C−1とR−2に対する視点の投影点C−2と
が次の関係にあることを示している。
【0079】 投影点C−1と投影点R−1との間のベクトルCR−
1、障害物O1と投影点R−1との間のベクトルOR−
1、投影点C−2と投影点R−2との間のベクトルCR
−2、障害物O2と投影点R−2との間のベクトルOR
−2、とが互いに成す内角は、図12に示すとおりであ
る。
【0080】図11、図12から分かるように、オブジ
ェクトの投影点がR−1にあるとき、障害物O1につい
ては透過処理が適用され、障害物O2には非透過処理が
適用される。
【0081】一方、オブジェクトの投影点がR−2にあ
るときには、障害物01及び障害物02の両方について
透過処理が成される。但し、このときの視点はC−2に
あるために、障害物O1は視点の視野内に無いことから
映像としてはTvモニタ13には表示されない。
【0082】仮想空間内にある全ての障害物について重
なり判定を適用することは、例えば、それぞれの障害物
について識別IDを与え、全てのIDについてステップ
S3からステップS8までの処理を適用すればよい。
【0083】また、それぞれの障害物について、重なり
判定が必要か否かのステータスフラグレジスタをROM
内に設けることができる。例えば、障害物の高さがオブ
ジェクトに比較して小さく、視点の位置が変わってもほ
ぼオブジェクトの全体が障害物に重ならないような場
合、このフラグに重なり判定処理を必要としない「1」
をたてる。
【0084】
【実施例】上記実施の形態に係るゲーム装置を使用した
場合の実施例について説明する。
【0085】図4は被写体と障害物との重なりが生じな
い位置関係にある場合を説明する図である。同図(B)
に示すように、本形態では、被写体Rを観察する仮想カ
メラC’は被写体R’の上側から被写体R’を中心とし
た仮想空間を観察する。同図(A)の俯瞰図に示すよう
に、カメラC’がP1の点に位置する場合には、障害物
OはカメラC’から見て被写体Rの背後に存在するた
め、視点から被写体に向いたベクトルと障害物から被写
体に向いたベクトルが成す角度は基準角より大きくな
り、重なり状態であるとは判定されない。したがって、
障害物Oについて透過処理は行われず、同図(C)のよ
うに通常の仮想画像がモニタに表示される。
【0086】ところが、同図(A)のP2の点にカメラ
C’が周り込んだ場合、カメラC’と被写体R’との間
に障害物Oが入り込み、重なり状態となる。このときの
カメラC’と被写体R’との位置関係を俯瞰した図が図
5(A)であり、この位置関係を側面から見た図が同図
(B)である。このとき両ベクトルとベクトルとの成す
角は基準角以下であり、被写体R’の高さも障害物の高
さより低い。したがって、障害物Oは透過処理され、同
図(C)に示すように障害物のテクスチャがメッシュ処
理されて、背後に隠れた被写体Rが透過した仮想画像が
モニタに表示される。
【0087】
【効果】本発明によれば、通常、透過処理されることな
く生成されている図形が、必要に応じて透過された図形
となるように画像が生成されるため、障害物を表示しな
い、障害物を最初からワイヤーフレームで表示する等の
手段をとることなく、しかも、ゲーム等の雰囲気を損な
わない仮想画像生成装置を提供することができる。
【0088】そして、被写体が物体に遮られる位置関係
を重なり状態として判定し、被写体を隠す物体に透過処
理を施すので、被写体の映像が十分に与えられ、観察者
は困難なく被写体の操作や状況の把握が行える。
【0089】特に、視点から被写体に向かうベクトルと
障害物から被写体に向かうベクトルとが成す角度に基づ
いて重なり判定を行えば、物体が被写体に重なって観察
されるか否かを正確かつ容易に判定できるので、被写体
が物体に隠される位置関係から透過処理をすることによ
り、違和感のない画像表示がされる。また、被写体と物
体の変位を比較することでも、重なり判定を行うことが
できる。
【0090】一方、透過処理を所定のパターンにしたが
って画素を入れ換えて表示すれば、物体及び被写体の色
彩、形状、質感等を損ねずに、比較的容易な処理で画像
の透過を実現できる。特に、物体表示用の画素と背景表
示用の画素とを交互に表示すれば、重なり状態において
も物体及び被写体とも十分に認識できる仮想画像を得る
ことができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係るゲーム装置の概略ブ
ロック図である。
【図2】本発明の実施の形態に係るゲーム装置の動作を
説明するフローチャートである。
【図3】重なり判定について説明する動作図である。
【図4】本発明の実施の形態に係る仮想画像の表示の実
施例(重なり状態が生じない場合)である。
【図5】本発明の実施の形態に係る仮想画像の表示の実
施例(重なり状態が生ずる場合)である。
【図6】従来例に係る重なりが生ずる場合の仮想画像の
説明図である。
【図7】障害物から被写体(オブジェクト)に向かった
ベクトルを障害物の各側面、正面及び背面に与えたこと
を示す平面図ある。
【図8】障害物と被写体との配置関係を示す側面図であ
る。
【図9】他の実施形態に係わる、図8と同様な側面図で
ある。
【図10】さらに、他の実施形態に係わる、図8と同様
な側面図である。
【図11】二つの障害物と、被写体及び視点との配置関
係を示す、他の実施形態に係わる側面図である。
【図12】図11における二つのベクトルが互いに成す
内角の状態を示す表図である。
【図13】仮想空間の右手座標系を示す斜視図である。
【符号の説明】
10 ゲーム装置本体 11、11R、11L 入力装置(操作レバー) 12 出力装置 13 表示装置 100 カウンタ 101 CPU 102 ROM 103 RAM 107 スクロールデ−タ演算装置 109 地形デ−タROM 110 ジオメタライザ 111 形状デ−タROM 112 描画装置 115 フレームバッファ 116 画像合成装置

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 仮想的に設定した仮想空間内において当
    該仮想空間に存在する図形を所定の視点から観察した際
    に得られる仮想画像を透過させて、又は透過させること
    なく生成する仮想画像生成装置であって、 前記透過処理がされていない画像を、所定の条件が成立
    した以降、透過させる画像とし、この所定の条件が終了
    した以降は、透過処理がされている画像を透過処理がさ
    れていない画像とする画像生成手段を備える画像生成装
    置。
  2. 【請求項2】 仮想的に設定した仮想空間内において当
    該仮想空間に存在する被写体を所定の視点から観察した
    際に得られる仮想画像を生成する仮想画像生成装置であ
    って、 前記仮想空間に存在する物体に関する形状データを記憶
    する形状データ記憶手段と、 前記被写体の位置データを特定する位置データ特定手段
    と、 前記形状データ記憶手段が記憶する前記形状データと前
    記位置データ特定手段が特定した前記被写体の位置デー
    タとに基づいて、前記視点と前記被写体との間に前記物
    体が前記視点から重なって観察されるか否かを判定する
    重なり判定手段と、 前記重なり判定手段が前記被写体と前記物体とが所定の
    重なり状態であると判定したときには前記物体に所定の
    透過処理した仮想画像を生成し、前記被写体と前記物体
    とが前記所定の重なり状態以外の状態であると判定した
    ときには前記物体の透過を行わない非透過処理した仮想
    画像を生成する画像生成手段と、を備える仮想画像生成
    装置。
  3. 【請求項3】 前記重なり判定手段は、前記視点が前記
    被写体を観察する方向に向いた第1のベクトルと、前記
    物体が被写体に向いた第2のベクトルと、をそれぞれ求
    めるとともに、この第1のベクトルと第2のベクトルが
    成す角度を求め、前記角度が前記基準角に対して所定の
    関係にあるときに前記重なり状態であると判定し、この
    所定の関係にないときに前記重なり状態以外の状態であ
    ると判定する請求項2記載の仮想画像生成装置。
  4. 【請求項4】 前記重なり判定手段は、前記被写体に予
    め設定された第1基点についての所定の地点からの変位
    と前記物体に予め設定された第2基点についての前記地
    点からの変位とを比較し、前記第1基点についての変位
    が前記第2基点についての変位より小さい場合に前記重
    なり状態であると判定し、前記第1基点についての変位
    が前記第2基点についての変位より大きい場合に前記重
    なり状態以外の状態であると判定する請求項2記載の仮
    想画像生成装置。
  5. 【請求項5】 前記重なり判定手段は、請求項3記載の
    角度が前記基準角に対して所定の関係にあり、かつ請求
    項5記載の第1基点についての変位が前記第2基点につ
    いての変位よりも小さい場合に、前記重なり状態である
    と判定する請求項2記載の仮想画像生成装置。
  6. 【請求項6】 前記画像生成手段は、前記透過表示を行
    う場合に所定のパターンにしたがって前記物体を表示す
    るための画素の代わりに前記被写体を表示するための画
    素を表示する仮想画像を生成する請求項2記載の仮想画
    像生成装置。
  7. 【請求項7】 前記パターンは、前記物体を表示するた
    めの画素と前記被写体を表示するための画素とを交互に
    順次並べるものである請求項6記載の仮想画像生成装
    置。
  8. 【請求項8】 仮想的に設定した仮想空間内において当
    該仮想空間に存在する被写体を所定の視点から観察した
    際に得られる仮想画像を生成する仮想画像生成方法であ
    って、 前記仮想空間に存在する物体に関する形状データと前記
    被写体の位置データとに基づいて、前記視点と前記被写
    体との間に前記物体が前記視点から重なって観察される
    か否かを判定し、前記被写体と前記物体とが所定の重な
    り状態であると判定したときには前記物体に所定の透過
    処理した仮想画像を生成し、前記被写体と前記物体とが
    前記所定の重なり状態以外の状態であると判定したとき
    には前記物体の透過を行わない非透過処理した仮想画像
    を生成することを特徴とする仮想画像生成方法。
JP2000132702A 1995-08-10 2000-05-01 仮想画像生成装置及びその方法 Expired - Lifetime JP3769747B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000132702A JP3769747B2 (ja) 1995-08-10 2000-05-01 仮想画像生成装置及びその方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP07204849A JP3141737B2 (ja) 1995-08-10 1995-08-10 仮想画像生成装置及びその方法
JP2000132702A JP3769747B2 (ja) 1995-08-10 2000-05-01 仮想画像生成装置及びその方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP07204849A Division JP3141737B2 (ja) 1995-08-10 1995-08-10 仮想画像生成装置及びその方法

Publications (2)

Publication Number Publication Date
JP2000348217A true JP2000348217A (ja) 2000-12-15
JP3769747B2 JP3769747B2 (ja) 2006-04-26

Family

ID=16497420

Family Applications (2)

Application Number Title Priority Date Filing Date
JP07204849A Expired - Lifetime JP3141737B2 (ja) 1995-08-10 1995-08-10 仮想画像生成装置及びその方法
JP2000132702A Expired - Lifetime JP3769747B2 (ja) 1995-08-10 2000-05-01 仮想画像生成装置及びその方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP07204849A Expired - Lifetime JP3141737B2 (ja) 1995-08-10 1995-08-10 仮想画像生成装置及びその方法

Country Status (9)

Country Link
US (2) USRE41414E1 (ja)
EP (1) EP0786742B1 (ja)
JP (2) JP3141737B2 (ja)
KR (1) KR100439931B1 (ja)
CN (1) CN1158632C (ja)
BR (1) BR9606580A (ja)
CA (1) CA2201755C (ja)
DE (1) DE69625455T2 (ja)
WO (1) WO1997006511A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007010596A1 (ja) * 2005-07-19 2007-01-25 Fujitsu Limited 画像判定方法、画像判定装置および画像判定方法をコンピュータに実行させるプログラムを記録した記録媒体
JP2009059111A (ja) * 2007-08-30 2009-03-19 Square Enix Holdings Co Ltd 画像生成装置及び方法、並びにプログラム及び記録媒体
JP2011524022A (ja) * 2008-05-29 2011-08-25 トムトム インターナショナル ベスローテン フエンノートシャップ デジタル地図画像上でのルート情報の表示
JP2012110550A (ja) * 2010-11-26 2012-06-14 Copcom Co Ltd ゲームプログラム及びゲーム装置
JP2016146864A (ja) * 2015-02-10 2016-08-18 株式会社カプコン ゲームプログラムおよびゲーム装置

Families Citing this family (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3141737B2 (ja) 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法
US5769718A (en) * 1996-05-15 1998-06-23 Rieder; William R. Video game apparatus and medium readable by a computer stored with video game program
JP2902352B2 (ja) * 1996-05-15 1999-06-07 コナミ株式会社 ビデオゲーム装置
ES2260830T3 (es) * 1997-02-18 2006-11-01 Sega Corporation Dispositivo y metodo para el procesamiento de imagenes.
JP3183632B2 (ja) 1997-06-13 2001-07-09 株式会社ナムコ 情報記憶媒体及び画像生成装置
JP3145059B2 (ja) 1997-06-13 2001-03-12 株式会社ナムコ 情報記憶媒体及び画像生成装置
JP3372832B2 (ja) 1997-07-25 2003-02-04 コナミ株式会社 ゲーム装置、ゲーム画像処理方法およびゲーム画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4035867B2 (ja) * 1997-09-11 2008-01-23 株式会社セガ 画像処理装置及び画像処理方法並びに媒体
WO1999027498A1 (fr) * 1997-11-25 1999-06-03 Sega Enterprises, Ltd. Generateur d'image
JPH11207029A (ja) 1998-01-28 1999-08-03 Konami Co Ltd ビデオゲーム装置、ビデオゲームにおける画面表示方法及び画面表示プログラムが格納された可読記録媒体
JP4114824B2 (ja) * 1998-04-24 2008-07-09 株式会社バンダイナムコゲームス 画像生成装置及び情報記憶媒体
WO1999060526A1 (fr) * 1998-05-20 1999-11-25 Sega Enterprises, Ltd. Processeur d'image, machine de distraction, procede de traitement d'image et support d'enregistrement
US6552722B1 (en) * 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
JP4188463B2 (ja) 1998-09-03 2008-11-26 株式会社バンダイナムコゲームス 画像生成装置、画像生成方法および記憶媒体
JP2001087551A (ja) * 1999-09-24 2001-04-03 Konami Co Ltd 射的ビデオゲーム装置および射的ビデオゲームにおける画像表示方法
JP2001276420A (ja) 2000-03-30 2001-10-09 Namco Ltd ゲーム装置および情報記憶媒体
JP3345600B2 (ja) * 2000-04-10 2002-11-18 コナミ株式会社 ゲームシステムおよびコンピュータ読取可能な記憶媒体
JP3347124B2 (ja) * 2000-04-28 2002-11-20 株式会社コナミコンピュータエンタテインメントジャパン ゲームシステムおよびゲーム用プログラムが記憶されたコンピュータ読み取り可能な記録媒体
JP2002202770A (ja) * 2000-12-28 2002-07-19 Genki Kk コンピュータゲームの逐次読込方法並びに逐次読込方法を用いた記録媒体
JP2002360920A (ja) * 2001-06-05 2002-12-17 Atlus Co Ltd ゲーム画像制御装置
JP3764070B2 (ja) * 2001-06-07 2006-04-05 富士通株式会社 オブジェクト表示プログラムおよびオブジェクト表示装置
JP4707080B2 (ja) * 2001-07-30 2011-06-22 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
JP3594915B2 (ja) * 2001-08-03 2004-12-02 株式会社ナムコ プログラム、情報記憶媒体及びゲーム装置
US7133083B2 (en) * 2001-12-07 2006-11-07 University Of Kentucky Research Foundation Dynamic shadow removal from front projection displays
JP3637031B2 (ja) * 2002-04-03 2005-04-06 任天堂株式会社 ゲーム装置およびゲームプログラム
JP4115188B2 (ja) * 2002-07-19 2008-07-09 キヤノン株式会社 仮想空間描画表示装置
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
WO2005084405A2 (en) * 2004-03-03 2005-09-15 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US7542050B2 (en) 2004-03-03 2009-06-02 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US7502036B2 (en) * 2004-03-03 2009-03-10 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
JP4412715B2 (ja) * 2004-05-07 2010-02-10 株式会社バンダイナムコゲームス プログラム、情報記憶媒体および画像生成システム
JP3877077B2 (ja) 2004-08-31 2007-02-07 任天堂株式会社 ゲーム装置および画像処理プログラム
JP4636908B2 (ja) * 2005-03-14 2011-02-23 キヤノン株式会社 画像処理装置、画像処理方法
JP4717622B2 (ja) * 2005-12-15 2011-07-06 株式会社バンダイナムコゲームス プログラム、情報記録媒体および画像生成システム
JP5154775B2 (ja) 2006-08-18 2013-02-27 任天堂株式会社 ゲームプログラムおよびゲーム装置
US20080231627A1 (en) * 2007-03-20 2008-09-25 Robert Allen Shearer Using Ray Tracing to Enhance Artificial Intelligence Character Behavior
JP5016443B2 (ja) * 2007-10-25 2012-09-05 ティーオーエー株式会社 カメラ設置シミュレータプログラム
JP2010033252A (ja) * 2008-07-28 2010-02-12 Namco Bandai Games Inc プログラム、情報記憶媒体および画像生成システム
JP2010033285A (ja) * 2008-07-28 2010-02-12 Namco Bandai Games Inc プログラム、情報記憶媒体および画像生成システム
US8898574B2 (en) * 2008-12-19 2014-11-25 International Business Machines Corporation Degrading avatar appearances in a virtual universe
US9633465B2 (en) 2009-02-28 2017-04-25 International Business Machines Corporation Altering avatar appearances based on avatar population in a virtual universe
US9440591B2 (en) * 2009-05-13 2016-09-13 Deere & Company Enhanced visibility system
CN101819678A (zh) * 2010-03-16 2010-09-01 昆明理工大学 驾驶模拟***三维虚拟图像的标定方法
JP5614211B2 (ja) * 2010-09-30 2014-10-29 株式会社セガ 画像処理プログラム及びコンピュータ読み取り可能な記録媒体
CN102456200A (zh) * 2010-10-25 2012-05-16 鸿富锦精密工业(深圳)有限公司 商品广告插播***及方法
JP5670253B2 (ja) * 2011-05-18 2015-02-18 日立アロカメディカル株式会社 超音波診断装置
JP6085411B2 (ja) * 2011-06-02 2017-02-22 任天堂株式会社 画像処理装置、画像処理方法、および画像処理装置の制御プログラム
US9266019B2 (en) 2011-07-01 2016-02-23 Empire Technology Development Llc Safety scheme for gesture-based game
CN103764235B (zh) 2011-08-31 2016-03-23 英派尔科技开发有限公司 用于基于姿势的游戏***的位置设置
KR101567591B1 (ko) 2011-12-02 2015-11-20 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 제스처 기반 게임 시스템을 위한 안전 체계
JP5807130B2 (ja) 2012-02-24 2015-11-10 エンパイア テクノロジー ディベロップメント エルエルシー ジェスチャー・ベースのゲーム・システムのための安全な方式
JP2016502694A (ja) * 2012-10-04 2016-01-28 ディズニー エンタープライゼス インコーポレイテッド 没入型環境用のインタラクティブ型オブジェクト
US10528135B2 (en) 2013-01-14 2020-01-07 Ctrl-Labs Corporation Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
JP6148887B2 (ja) 2013-03-29 2017-06-14 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像処理システム
WO2014186370A1 (en) 2013-05-13 2014-11-20 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices that accommodate different user forms
US9666427B2 (en) * 2013-06-21 2017-05-30 Lam Research Corporation Method of collapse-free drying of high aspect ratio structures
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US11426123B2 (en) 2013-08-16 2022-08-30 Meta Platforms Technologies, Llc Systems, articles and methods for signal routing in wearable electronic devices that detect muscle activity of a user using a set of discrete and separately enclosed pod structures
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US9788789B2 (en) 2013-08-30 2017-10-17 Thalmic Labs Inc. Systems, articles, and methods for stretchable printed circuit boards
CN106102504A (zh) 2014-02-14 2016-11-09 赛尔米克实验室公司 用于弹性电力缆线的***、制品和方法以及采用弹性电力缆线的可佩戴电子装置
US10199008B2 (en) 2014-03-27 2019-02-05 North Inc. Systems, devices, and methods for wearable electronic devices as state machines
US20150325202A1 (en) * 2014-05-07 2015-11-12 Thalmic Labs Inc. Systems, devices, and methods for wearable computers with heads-up displays
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US9874744B2 (en) 2014-06-25 2018-01-23 Thalmic Labs Inc. Systems, devices, and methods for wearable heads-up displays
JP2016093362A (ja) * 2014-11-14 2016-05-26 株式会社コロプラ ゲーム空間内における仮想カメラの制御プログラム及びゲームシステム。
US9807221B2 (en) 2014-11-28 2017-10-31 Thalmic Labs Inc. Systems, devices, and methods effected in response to establishing and/or terminating a physical communications link
SG11201706548QA (en) 2015-02-17 2017-09-28 Thalmic Labs Inc Systems, devices, and methods for eyebox expansion in wearable heads-up displays
US9958682B1 (en) 2015-02-17 2018-05-01 Thalmic Labs Inc. Systems, devices, and methods for splitter optics in wearable heads-up displays
US10078435B2 (en) 2015-04-24 2018-09-18 Thalmic Labs Inc. Systems, methods, and computer program products for interacting with electronically displayed presentation materials
US10175488B2 (en) 2015-05-04 2019-01-08 North Inc. Systems, devices, and methods for spatially-multiplexed holographic optical elements
EP3304172A4 (en) 2015-05-28 2019-01-02 North Inc. Systems, devices, and methods that integrate eye tracking and scanning laser projection in wearable heads-up displays
WO2017041010A1 (en) 2015-09-04 2017-03-09 Thalmic Labs Inc. Systems, articles, and methods for integrating holographic optical elements with eyeglass lenses
WO2017059285A1 (en) 2015-10-01 2017-04-06 Thalmic Labs Inc. Systems, devices, and methods for interacting with content displayed on head-mounted displays
US10937332B2 (en) * 2015-10-20 2021-03-02 The Boeing Company Systems and methods for providing a virtual heads up display in a vehicle simulator
US9904051B2 (en) 2015-10-23 2018-02-27 Thalmic Labs Inc. Systems, devices, and methods for laser eye tracking
US10802190B2 (en) 2015-12-17 2020-10-13 Covestro Llc Systems, devices, and methods for curved holographic optical elements
US10303246B2 (en) 2016-01-20 2019-05-28 North Inc. Systems, devices, and methods for proximity-based eye tracking
US10151926B2 (en) 2016-01-29 2018-12-11 North Inc. Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display
JP6002346B1 (ja) * 2016-04-07 2016-10-05 株式会社Cygames ゲームにおけるオブジェクト画像表示のためのプログラム、方法、電子装置及びシステム
US20170294135A1 (en) * 2016-04-11 2017-10-12 The Boeing Company Real-time, in-flight simulation of a target
JP2019518979A (ja) 2016-04-13 2019-07-04 ノース インコーポレイテッドNorth Inc. レーザプロジェクタの焦点を合わせるためのシステム、デバイス、及び方法
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN110300542A (zh) 2016-07-25 2019-10-01 开创拉布斯公司 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置
US10277874B2 (en) 2016-07-27 2019-04-30 North Inc. Systems, devices, and methods for laser projectors
US10459221B2 (en) 2016-08-12 2019-10-29 North Inc. Systems, devices, and methods for variable luminance in wearable heads-up displays
US10345596B2 (en) 2016-11-10 2019-07-09 North Inc. Systems, devices, and methods for astigmatism compensation in a wearable heads-up display
WO2018098579A1 (en) 2016-11-30 2018-06-07 Thalmic Labs Inc. Systems, devices, and methods for laser eye tracking in wearable heads-up displays
US10365492B2 (en) 2016-12-23 2019-07-30 North Inc. Systems, devices, and methods for beam combining in wearable heads-up displays
JP6681352B2 (ja) * 2017-01-06 2020-04-15 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、情報処理方法、ゲームシステム、ゲームプログラム、ゲーム装置、及びゲーム方法
JP6606791B2 (ja) 2017-01-12 2019-11-20 株式会社コナミデジタルエンタテインメント ゲーム装置及びプログラム
US10718951B2 (en) 2017-01-25 2020-07-21 North Inc. Systems, devices, and methods for beam combining in laser projectors
EP3697297A4 (en) 2017-10-19 2020-12-16 Facebook Technologies, Inc. SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS
US11300788B2 (en) 2017-10-23 2022-04-12 Google Llc Free space multiple laser diode modules
WO2019130374A1 (ja) 2017-12-25 2019-07-04 ガンホー・オンライン・エンターテイメント株式会社 端末装置、システム、プログラム及び方法
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
WO2019186622A1 (ja) * 2018-03-26 2019-10-03 楽天株式会社 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
US10843089B2 (en) * 2018-04-06 2020-11-24 Rovi Guides, Inc. Methods and systems for facilitating intra-game communications in a video game environment
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN112105983B (zh) * 2018-05-08 2023-07-07 苹果公司 增强的视觉能力
US10905350B2 (en) 2018-08-31 2021-02-02 Facebook Technologies, Llc Camera-guided interpretation of neuromuscular signals
WO2020061451A1 (en) 2018-09-20 2020-03-26 Ctrl-Labs Corporation Neuromuscular text entry, writing and drawing in augmented reality systems
US11797087B2 (en) 2018-11-27 2023-10-24 Meta Platforms Technologies, Llc Methods and apparatus for autocalibration of a wearable electrode sensor system
WO2020189319A1 (ja) * 2019-03-19 2020-09-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2020213088A1 (ja) * 2019-04-17 2020-10-22 楽天株式会社 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
JP7001719B2 (ja) 2020-01-29 2022-02-04 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置、及び方法
CN115176286A (zh) * 2020-04-21 2022-10-11 索尼集团公司 图像处理装置、图像处理方法和程序
CN112807684A (zh) * 2020-12-31 2021-05-18 上海米哈游天命科技有限公司 一种遮挡物信息获取方法、装置、设备及存储介质
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
CN117163302B (zh) * 2023-10-31 2024-01-23 安胜(天津)飞行模拟***有限公司 飞行器仪表显示方法、装置、设备及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR850003595A (ko) * 1983-11-15 1985-06-20 빈센트 죠셉로너 비디오 표시 발생기 시스템 및 그 표시 방법
US5202672A (en) * 1987-12-30 1993-04-13 Namco Ltd. Object display system
US6054991A (en) * 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
EP0605945B1 (en) * 1992-12-15 1997-12-29 Sun Microsystems, Inc. Method and apparatus for presenting information in a display system using transparent windows
JPH06215150A (ja) * 1993-01-18 1994-08-05 Toshiba Corp 三次元画像表示装置
CA2109681C (en) * 1993-03-10 1998-08-25 Donald Edgar Blahut Method and apparatus for the coding and display of overlapping windows with transparency
JPH06290254A (ja) * 1993-03-31 1994-10-18 Toshiba Corp 三次元図形の表示処理装置
US5638501A (en) * 1993-05-10 1997-06-10 Apple Computer, Inc. Method and apparatus for displaying an overlay image
US5491510A (en) * 1993-12-03 1996-02-13 Texas Instruments Incorporated System and method for simultaneously viewing a scene and an obscured object
WO1996020470A1 (en) * 1994-12-23 1996-07-04 Philips Electronics N.V. Single frame buffer image processing system
JP3734045B2 (ja) * 1995-08-10 2006-01-11 株式会社セガ 仮想画像生成方法及びその装置
JP3141737B2 (ja) 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007010596A1 (ja) * 2005-07-19 2007-01-25 Fujitsu Limited 画像判定方法、画像判定装置および画像判定方法をコンピュータに実行させるプログラムを記録した記録媒体
JPWO2007010596A1 (ja) * 2005-07-19 2009-01-29 富士通株式会社 画像判定方法
JP4751886B2 (ja) * 2005-07-19 2011-08-17 富士通株式会社 画像判定方法
US8180103B2 (en) 2005-07-19 2012-05-15 Fujitsu Limited Image determining method, image determining apparatus, and recording medium having recorded therein program for causing computer to execute image determining method
JP2009059111A (ja) * 2007-08-30 2009-03-19 Square Enix Holdings Co Ltd 画像生成装置及び方法、並びにプログラム及び記録媒体
JP4489800B2 (ja) * 2007-08-30 2010-06-23 株式会社スクウェア・エニックス 画像生成装置及び方法、並びにプログラム及び記録媒体
JP2011524022A (ja) * 2008-05-29 2011-08-25 トムトム インターナショナル ベスローテン フエンノートシャップ デジタル地図画像上でのルート情報の表示
US8525704B2 (en) 2008-05-29 2013-09-03 Tomtom International B.V. Displaying route information on a digital map image
JP2012110550A (ja) * 2010-11-26 2012-06-14 Copcom Co Ltd ゲームプログラム及びゲーム装置
JP2016146864A (ja) * 2015-02-10 2016-08-18 株式会社カプコン ゲームプログラムおよびゲーム装置
WO2016129603A1 (ja) * 2015-02-10 2016-08-18 株式会社カプコン ゲーム装置、制御方法およびコンピュータが読み取り可能な記録媒体

Also Published As

Publication number Publication date
WO1997006511A1 (fr) 1997-02-20
EP0786742B1 (en) 2002-12-18
DE69625455T2 (de) 2003-10-23
JP3769747B2 (ja) 2006-04-26
USRE41414E1 (en) 2010-07-06
EP0786742A1 (en) 1997-07-30
DE69625455D1 (de) 2003-01-30
KR970706554A (ko) 1997-11-03
CA2201755C (en) 2004-07-06
JP3141737B2 (ja) 2001-03-05
CA2201755A1 (en) 1997-02-20
JPH0950541A (ja) 1997-02-18
MX9702603A (es) 1998-05-31
KR100439931B1 (ko) 2005-04-06
BR9606580A (pt) 1998-07-07
EP0786742A4 (en) 1998-12-09
CN1161096A (zh) 1997-10-01
US6377277B1 (en) 2002-04-23
CN1158632C (zh) 2004-07-21

Similar Documents

Publication Publication Date Title
JP3141737B2 (ja) 仮想画像生成装置及びその方法
US9345958B2 (en) Image processing apparatus for forming a view frustum on a display device
US20090244064A1 (en) Program, information storage medium, and image generation system
KR20050061607A (ko) 게임 화상의 표시 제어 프로그램 및 게임 장치 및 기억매체
US20110183765A1 (en) Information storage medium, game system, and input determination method
US20130257857A1 (en) Stereoscopic device and image generation method
JP3138423B2 (ja) シミュレーション装置
US6878058B1 (en) Image processor and game device with image processor
EP0797172A3 (en) Image processor and game apparatus equipped with the same
US7666097B2 (en) Method for generating image animation effect
JP3786670B1 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP3413129B2 (ja) 画像処理方法及び画像処理装置
JP3215306B2 (ja) 画像合成方法及び装置
JP4662271B2 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP5698028B2 (ja) プログラム及び立体視画像生成装置
JP3786671B1 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP3431522B2 (ja) ゲーム装置及び情報記憶媒体
JP5054908B2 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2006263321A (ja) プログラム、情報記憶媒体、及び画像生成システム
MXPA97002603A (en) Apparatus and method for the generation of virt image
JP2002331165A (ja) ゲーム機におけるマーカーの色変更装置及び情報記録媒体
JP2002150310A (ja) ゲーム装置および情報記憶媒体

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20050708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060129

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090217

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100217

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100217

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120217

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120217

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120217

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130217

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130217

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130217

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130217

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140217

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140217

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term