JPH07152923A - テクスチャ処理されたオブジェクトをレンダリングする方法及び装置 - Google Patents

テクスチャ処理されたオブジェクトをレンダリングする方法及び装置

Info

Publication number
JPH07152923A
JPH07152923A JP6198986A JP19898694A JPH07152923A JP H07152923 A JPH07152923 A JP H07152923A JP 6198986 A JP6198986 A JP 6198986A JP 19898694 A JP19898694 A JP 19898694A JP H07152923 A JPH07152923 A JP H07152923A
Authority
JP
Japan
Prior art keywords
space
texture
mapping
coordinate
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP6198986A
Other languages
English (en)
Inventor
Leon A Shirman
レオン・エイ・シアマン
Yakov Kamen
ヤコヴ・カメン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Microsystems Inc
Original Assignee
Sun Microsystems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Microsystems Inc filed Critical Sun Microsystems Inc
Publication of JPH07152923A publication Critical patent/JPH07152923A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【目的】 NURBSなどの複雑なプリミティブを含む
多様なプリミティブに対するテクスチャの動的マッピン
グを可能にするシステム及びプロセスを提供する。 【構成】 モデリング座標(MC)空間で場所指定した
オブジェクトをパラメータ化して、オブジェクトと関連
するパラメータ座標(PC)空間を確定する。パラメー
タ化プロセスを実行したならば、PC空間とテクスチャ
座標(TC)空間との間のマッピングを生成する。オブ
ジェクトをMC空間から表示座標(DC)にマッピング
し、次に、τマッピングを使用して、オブジェクトの頂
点などのオブジェクトの選択された点にテクスチャマッ
プをマッピングする。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、テクスチャ処理された
オブジェクトをレンダリングするシステム及び方法に関
し、特に、テクスチャ処理されたNURBS面をレンダ
リングするシステム及び方法に関する。
【0002】
【従来の技術】面に対してテクスチャ処理を実行する能
力は、コンピュータグラフィックスにおけるレンダリン
グ能力を向上させる。テクスチャマッピングと呼ばれる
1つの技法では、テクスチャ座標(TC)空間でテクス
チャのマップを生成する。テクスチャを適用すべきオブ
ジェクトはモデリング座標(MC)空間で実現される。
次に、テクスチャ座標とオブジェクト座標との対応性を
定義するために、バインディングプロセスを実行する。
バインディングプロセスは、典型的には、TC空間内の
テクスチャマップの座標(たとえば、u,v座標)をM
C空間内のオブジェクトの所定の座標(たとえば、x,
y,z,w座標)にバインディングする。通常は、オブ
ジェクトの頂点など、オブジェクトについて可能なあら
ゆる点から成る1サブセットを使用する。
【0003】バインディングプロセスが完了したなら
ば、オブジェクトを装置座標(DC)空間にマッピング
する。DC空間内のオブジェクトの各々の画素と関連す
るテクスチャ座標を確定するために、バインディングさ
れる全ての可能な点のサブセットを使用する補間プロセ
スを実行して、DC空間内のオブジェクトの各座標に適
用されるべきテクスチャマップの要素を確定する。続い
て、色合成プロセスを実行して、テクスチャマップの色
を表示装置座標空間のオブジェクトに取り入れる。次
に、テクスチャの色を伴ったこのオブジェクトを表示装
置に表示する。テクスチャ及びテクスチャ処理プロセス
の詳細については、Kamenの「Texture M
apping」(Sun Interactive M
edia,1992年11月刊)及びKamenの「T
exture Mapping,Part II:Pa
rameterization」(Sun Inter
active Media, 1993年2月刊);又
はRogers,Earnshaw,Editorsの
Computer Graphics Techniq
ues,Theory and Practiceの1
59〜187ページ(1990年刊、Springer
−Verlag)を参照。
【0004】
【発明が解決しようとする課題】しかしながら、バイン
ディングプロセスはオブジェクトとテクスチャの組合わ
せごとに実行され、同一のオブジェクトに異なるテクス
チャマップを加えるときには、別個のバインディングプ
ロセスを実行しなければならない。さらに、非一様有理
Bスプライン面(NURBS)などのパラメータ座標
(PC)空間で定義されるオブジェクトに対しては、P
C空間がTC空間と等しくなるように設定される場合に
限って、又は最初にNURBSを三角形にモザイク分割
し、周知のテクスチャマッピングプロセスを三角形ごと
に適用することによって初めて、プロセスは機能するの
である。本発明はオブジェクトをテクスチャ処理する画
期的なシステム及び方法を提供することを課題とする。
【0005】
【課題を解決するための手段】このプロセスでは、モデ
リング座標(MC)空間、あるいは、世界座標(WC)
空間で場所指定されたオブジェクトに対してパラメータ
化プロセスを実行して、オブジェクトと関連するパラメ
ータ座標(PC)空間を確定する。このプロセスは、後
にオブジェクトに適用されるであろう様々に異なるビュ
ー又はテクスチャの数とは関係なく、1つのオブジェク
トに対して1度実行される。オブジェクトがNURBS
である場合、オブジェクトは既にパラメータ空間で実現
されているので、さらなる時間の節約をはかれるのであ
る。
【0006】パラメータ化プロセスを実行したならば、
PC空間とテクスチャ座標(TC)空間との間のマッピ
ングを生成する。ここではτマッピングと呼ばれるこの
マッピングはPC空間の(s1...sn)座標をTC空
間の(u1...un)座標と相関させる。オブジェクト
をMC空間から表示座標(DC)へマッピングし、次
に、τマッピングを使用して、オブジェクトの頂点など
のオブジェクトの選択された点にテクスチャマップをマ
ッピングする。好ましい一実施例では、次に、オブジェ
クトパラメータ補間を実行して、画素の位置、色及び強
さを含めて、オブジェクトの画素をDC空間でレンダリ
ングする。色合成プロセスを使用してマッピングされた
テクスチャの色を補間し、画素ごとにテクスチャ色をレ
ンダリングし、また、合成プロセスを実行してテクスチ
ャ色をオブジェクトの画素と組合わせる。オブジェクト
パラメータ補間、テクスチャマッピング、テクスチャ補
間及びテクスチャ/オブジェクト合成を実行するために
他のプロセスや、シーケンスも使用可能である。加え
て、好ましい実施例においては、オブジェクトに適用さ
れるテクスチャの粒度を、ミップ−マップ基準、テクス
チャ品質又はNURBSの場合のNURBS近似基準の
ような技法を使用して制御することができる。
【0007】
【実施例】本発明の方法及び装置は、テクスチャとオブ
ジェクトとの間のマッピング関数の計算を最小限に抑え
つつ、そのような図形アスペクトをワーピングとして提
供する能力を含めてレンダリングされるテクスチャの画
質、すなわち、粒度を制御する能力をイネーブルするよ
うに、NURBSなどの複合オブジェクトを含むオブジ
ェクトにテクスチャを適用する複雑演算を実行する。
【0008】図1のブロック線図により、本発明のシス
テムを概念化して示す。CPU10と、システムメモリ
15と、入出力(I/O)装置20と、グラフィックス
サブシステム25とはシステムバス30を介して結合し
ている。CPU10は中央処理装置、すなわち、ホスト
プロセッサとして機能し、典型的には、オブジェクトを
生成し且つ本発明に従って表示されるオブジェクトにテ
クスチャマップを適用するアプリケーションプログラム
を実行する。CPU10は強力な汎用プロセッサとして
機能し、システムメモリ15、I/O装置20及びその
他の周辺装置(図示せず)などの利用可能な資源を利用
して、複合プログラム及び複合プロセスを実行する。C
PU10をカリフォルニア州マウンテンビューのSun
Microsystems,Inc.が製造している
ようなシステム又はワークステーションに構成しても良
い。
【0009】グラフィックスサブシステムは、CPU1
0からの処理オーバヘッドをオフロードするために、図
形向けの、多くの場合に反復プロセスであるプロセスを
実行するように構成されているのが好ましい。グラフィ
ックスサブシステムの構成はいくつか考えられるが、一
実施例では、システム25は浮動小数点プロセッサと、
メモリと、VLSIとを含み、オブジェクトをテクスチ
ャを伴ってレンダリングするプロセスの一部として要求
される単純ではあるが、コスト高で反復性の高い計算を
実行するように構成されている。たとえば、そのプロセ
スを実行する速度をさらに増すために、オブジェクトを
表わす三角形をレンダリングする専用VLSIデバイス
などの特別の専用ハードウェアによって、計算の少なく
とも一部を実行することができる。たとえば、浮動小数
点プロセッサによりオブジェクトを複数の三角形にモザ
イク状に分割し、それらの三角形にテクスチャを適用し
ても良い。そこで、VLSIコンポーネントは三角形を
フレームバッファ40に記憶するための画素データに変
換する。画素データは表示装置50のx−y座標空間を
もって容易に識別されるシーケンスとしてフレームバッ
ファ40に記憶される。
【0010】表示制御装置45は、フレームバッファに
おいて場所指定された画素データが定義するオブジェク
トの表示を生成する。表示制御装置45はその制御装置
55を介して、ラスタ走査速度に従って1度に走査線1
本ずつ、たとえば、毎秒60回の速度で、フレームバッ
ファを循環してゆく。画素データをアクセスするため
に、制御装置55によりメモリアドレスを生成する。フ
レームバッファから画素データを逐次読取り、表示制御
装置のカラールックアップテーブル(LUT)60に入
力する。LUT60は、表示装置50における出力、た
とえば、電子ビームの強さと色を制御するために使用さ
れるデジタル制御信号を記憶している。LUT60が出
力した信号はデジタル/アナログ変換器(DAC)6
5,70及び75に入力され、それらのDACは表示す
べき画素の赤色成分、緑色成分及び青色成分それぞれの
位置と強さの活動化、すなわち、生成を制御するための
アナログ信号を発生する。表示装置は陰極線管(CR
T)などのラスタ走査装置であっても良い。説明の便宜
上、表示装置はCRTであるが、本発明のシステムに従
って他の表示装置は利用しても良いことは当業者には明
白である。
【0011】装置が陰極線管である場合、アナログ制御
信号はビーム中の電子の数を制御する。ビーム中の電子
の数は表示する強さを確定する。このようにして画素ご
とに赤色ビーム、緑色ビーム及び青色ビームを制御する
ことにより、表示装置に様々に異なる色と強さを発生さ
せることができる。電子のビームは印加される高い正電
圧によってリン被覆画面に向けられる。ビームを特定の
1つの場所(画素データのx−y座標位置を反映してい
る)に向けるのは、偏向コイルが発生する磁界である。
ビームの電子が画面に当たると、リンは可視光を発出
し、発出される強さは画面に当たる電子の数によって決
まる。
【0012】図2を参照して、本発明のプロセスの概要
を説明する。オブジェクトはMC空間105、あるい
は、世界座標(WC)空間で記述される。テクスチャマ
ップはTC空間120で定義される。その後にオブジェ
クトをDC空間130にレンダリングし且つ表示するこ
とになる。オブジェクト110をPC空間115に結び
付けるために、パラメータ化プロセス「P」を使用す
る。このプロセスは1つのオブジェクトについて1度実
行され、ビューやテクスチャとは無関係である。次に、
TC空間120とPC空間115との間でマッピングを
実行する。このマッピングをここではτマッピングとい
う。続いて、τマッピングを使用して、表示装置座標空
間130においてオブジェクト110にテクスチャマッ
プを適用する。
【0013】DC空間130へのビューイング変換を経
てオブジェクト110を変換したならば、τマッピング
を利用して対応するテクスチャマップ値をDC空間に移
し、その空間で、オブジェクトの頂点などのオブジェク
トの所定の点にそれを適用する。テクスチャマップから
のテクスチャ値をDC空間の中のオブジェクトに適用し
たならば、テクスチャ値を補間して、オブジェクトの各
々の画素に1つのテクスチャ値を適用する。次に、色合
成プロセスを実行して、テクスチャ値をオブジェクトの
色と組合わせ、画素画像を生成する。その画素画像をフ
レームバッファに記憶させ、後に表示する。
【0014】本発明のプロセスには、プリミティブのジ
オメトリとは無関係にテクスチャマッピングのプロセス
を制御する能力があるため、テクスチャ画像の修正に際
して新たな自由度を導入することになる。加えて、この
プロセスは、あらゆる種類のプリミティブを支援するよ
うなテクスチャマッピングのための融通性に富む適応戦
略を実現させる。さらに、利用する実際のテクスチャを
様々に異なる品質レベルで利用できる。このプロセスを
図3、図4及び図5を参照しながらさらに詳細に説明す
る。
【0015】図3及び図4を参照すると、ステップ20
0で、まず、システムはモデリング座標でレンダリング
すべきオブジェクトの定義を受ける(MC空間はオブジ
ェクト座標空間とも呼ばれることに注意すべきであ
る)。ステップ210では、オブジェクトと関連するP
C空間を構成するためにパラメータ化プロセスを実行す
る。オブジェクト、典型的には1つの面は三次元空間
(たとえば、MC空間)で定義されるので、座標(x,
y,z)、あるいは、(x,y,z,w)を使用する。
パラメータ空間は、典型的には、MC空間の中における
オブジェクトの各点をsとtの数理関数、すなわち、定
義済み関数によって得ることができるように定義された
二次元空間(s,t)である。この関数はパラメータ空
間をMC空間にマッピングする。オブジェクトをパラメ
ータ化することにより、PC空間でオブジェクトの独立
表現を実行できる。パラメータ化プロセスは、たとえ
ば、多角形プリミティブに関して、それらの多角形プリ
ミティブ上の所定の点(たとえば、オブジェクトの頂
点)がPC空間の中の値に割当てられる、すなわち、バ
インディングされるようなバインディングプロセスであ
ると考えられる。スプライン又はNURBSなどの複雑
な面の場合、複雑な面はパラメータ空間で定義されるの
で、このステップは追加ステップとは考えられない。パ
ラメータ化は二次元パラメータ値を三次元オブジェクト
にバインディングすることを含んでいるので、典型的に
は複雑なプロセスである。従って、パラメータ化ステッ
プは与えられるどのオブジェクトに対しても一度しか実
行されないという点で利点が得られるのである。
【0016】ステップ220では、PC空間からTC空
間へのτマッピングを生成する。続いて、このマッピン
グを使用して、DC空間に変換されるオブジェクトの点
に対応するテクスチャ座標を識別する。このマッピング
は、さらに、テクスチャ座標とパラメータ座標とを別個
のパラメータとして維持する。従って、パラメータ空間
はプリミティブの1つの属性であり、テクスチャは後に
オブジェクトに適用される別個のエンティティであると
みなすことができる。さらに、τマッピングを修正する
ことにより、オブジェクト又はテクスチャマップ自体を
修正せずに、表示されるテクスチャ画像を容易に制御、
修正できる。τマッピングの場合、それに関連するのが
同次元(たとえば、二次元)の空間であり、従って、異
なるテクスチャ処理効果に対して再実行するのに有用で
あるので、τマッピングはパラメータ化より非常に単純
なプロセスである。加えて、パラメータ座標空間とテク
スチャ座標空間を分離することにより、スプラインに関
わる非常に有用な品質尺度と動的テクスチャ処理を実現
できる。
【0017】PC空間とTC空間との間でτマッピング
を生成するために、多様な周知の方法や関数を使用する
ことができる。単純な実施例においては、パラメータ空
間とテクスチャ空間が一致するように構成できる。この
実施例は、1対1のマップ、すなわち、一致マップを成
立させる従来のテクスチャマッピングに対応している。
ところが、与えられたテクスチャマップについて表示さ
れるテクスチャを修正するように任意のワーピング効果
を実行可能にするためには、非一致マップを支援するこ
とが望ましい。τマッピングを定義するための1つの方
法は、u=U(s,t)、v=V(s,t)とする直接
指定である。この関数は一致関数を含む多様なマッピン
グを提供するものと定義することができる。τマッピン
グの画像が必ず全テクスチャ空間と一致している必要は
ないということを理解すべきである。その場合、オブジ
ェクト上でテクスチャを生成するために、テクスチャマ
ップの一部を利用しなくとも良い。
【0018】あるいは、PC空間で1組の点、P=〔
(si,tj)〕 を選択し且つTC空間において対応する1組
の補間値、T=〔U(si,tj),V(si,tj)〕を選択するこ
とにより、τマッピングを生成する。たとえば、1組の
点PはPC空間の中で格子を形成するか(すなわち、1
<=i=<n及び1<=j<=mとするとき、Pは1組
のnm値〔si,tj〕である)、又は1組の任意値を
形成することができる。Pに対する唯一の制限は、PC
空間の四角の全て(smin,tmin),(smi
n,tmax),(smax,tmin),(sma
x,tmax)を含むべきであるということである。利
用する補間プロセスは区分的線形補間又はより高次のス
プラインであっても良い。たとえば、図7はPC空間の
矩形格子と、TC空間の対応する補間値とを示す。
【0019】テクスチャマップのテクスチャ座標を表示
空間にあるオブジェクトの各画素にマッピングするため
にτマッピングを実行することができるが、特にスプラ
インを利用するマッピングの場合には、これは集中的計
算を要する演算である。τマッピング、たとえば、対応
するテクスチャ座標はオブジェクト画像の全ての画素の
うちの1サブセットについて確定されるのが好ましい。
たとえば、点のサブセットはオブジェクトの頂点などの
1組の所定の点であっても良い。マッピングはそのよう
な点のサブセットに対して対応するテクスチャ座標しか
識別しないが、その後、サブセットの点相互間を補間す
ることにより、頂点間の画素に関わるテクスチャ座標を
確定する。すなわち、テクスチャ座標を確定するために
画素ごとにτマッピングを適用するのではなく、画素の
サブセットについてテクスチャ座標を確定することがで
き、その他の画素に関わるテクスチャ値を補間によって
生成するのである。
【0020】利用できる補間方法の1つは線形補間であ
る。この方式においては、ボロノイタイアグラムなどの
利用可能な技法を使用して、1組の値Pの三角形分割を
実行する。(Franco PreparataとMi
chel Shamosの「Computationa
l Geometry:An Introductio
n」、Springer−Verlag、1988年
刊、198〜216ページ)を参照。Pの組に入ってい
ないPC空間内のオブジェクトの各点は厳密に1つの三
角形の中に入っている。従って、点ごとの重心座標を計
算することができる。TC空間における重心座標を使用
して、この点の画像のテクスチャ座標を計算する。この
方法はごく一般的であり、任意のPの組に対して機能す
る。さらに、線形補間の代わりに、三角形に対するスプ
ライン補間を使用できる。三角形スプライン補間につい
ては、たとえば、G.Fainの「Curves an
dSurfaces for Geometric D
esign」(Academic Press 199
1年刊)の235〜254ページを参照。
【0021】あるいは、矩形に対する双線形補間を使用
することができる。この方式は、点の組Pが規則的な格
子を形成するものと仮定する。そこで、双線形補間を使
用して、中間点に関わるマッピングを確定する。一般
に、所定の点を含むPC空間の中の矩形を発見するプロ
セスは、対応する三角形を発見するのより単純である。
たとえば、規則的な格子を形成するためにPを定義して
も良い。Pが規則的な格子を形成しない場合には、Pを
含む最小の格子を構成する。これは、点の組Pの中に入
っている各々の点を通る垂直線と水平線を線引きするこ
とにより実行可能である。そこで、それらの線の交点は
Pを含む規則格子P′を形成する。P′−Pの点につい
ての補間値も同様に線形補間を使用して推定できる。さ
らに、規則格子におけるテンソル積補間値を使用する平
滑スプライン補間を周知の技法を使用して実行できる
(Farinの「Curves and Surfac
esfor Geometric Design」の2
21〜233ページを参照)。矩形についての双線形補
間と、平滑補間の結果の例を図8に示す。同図a及びb
は、PC空間とTC空間における補間格子をそれぞれ示
す。同図cは、チェッカー盤状テクスチャマップを示
す。同図dは、PCとTCとの間に双線形補間マッピン
グを適用した結果として得られる画像を示す。同図e
は、平滑補間マッピングを適用した後の同じ画像を示
す。
【0022】図3及び図4に戻ると、ステップ230で
は、モザイク分割の粒度を確定する。これは、テクスチ
ャ処理されたNURBS面の動的モザイク分割の場合に
特に有用なオプションのステップである。プロセスのこ
の時点で、NURBSオブジェクトをファセットにモザ
イク分割するのが好ましい。以下の説明はNURBSに
関連するものであるが、この技法を他の種類の面並びに
他の種類のプリミティブオブジェクトに容易に適用でき
ることは当業者には明白である。従って、NURBS曲
線とNURBS面の動的モザイク分割の概念を、テクス
チャ処理されたNURBS面をも含むように拡張するこ
とは可能である。この方法では、所望のモザイク分割粒
度を得るために、DC空間、MC空間、PC空間又はT
C空間でモザイク分割閾値基準を指定することができ
る。Abi−Ezzi他、(たとえば、Abi−Ezz
i,Shirmanの「The Tessellati
onof Curved Surfaces Unde
r Highly Varying Transfor
mation」,Proceedings Eurog
raphics ’91, 1991年、385〜39
7ページを参照)はNURBS曲線とNURBS面の動
的モザイク分割の概念を説明している。制御点が記述す
るNURBS面は、その面を頂点により定義される平面
ファセット(三角形など)に分割、すなわち、モザイク
分割し且つそれらの平面ファセットをレンダリングする
ことによって表示される。モザイク分割の粒度は特定用
途向け近似基準により制御される。たとえば、その用途
は、DC又はWCにおけるファセットの最大サイズが指
定の許容差を越えてはならないということを要求するか
もしれない。従って、ビューイング変換、すなわち、モ
デリング変換が変化するときには、その近似基準に従う
ためにモザイク分割を動的に調整する。
【0023】Abi−Ezzi他では、通常、NURB
SをWC空間又はLC空間においてモザイク分割する
(たとえば、Abi−Ezzi,Shirmanの「T
heTessellation of Curved
Surfaces Under Highly Var
ying Transformation」,Proc
eedings Eurographics ’9
1, 1991年、385〜397ページを参照)。し
かしながら、テクスチャNURBSのモザイク分割プロ
セスを説明するに際しては、便宜上、モザイク分割はM
C空間又はWC空間で起こるものと仮定する。そこで、
DCで指定した許容差をどのようにしてMCにマッピン
グするかの推定を確定することになる。これは、境界付
き領域における透視変換の最小スケールファクタと最大
スケールファクタに関わる閉じた形の式を生成すること
によって確定されるのが好ましい。(Abi−Ezzi
の「Scaling Behavior of Vie
wing Transformations」,Com
puter Graphics and Applic
ations,1993年5月、48〜54ページを参
照。)テクスチャの場合、ファセットの三角形の大きさ
がTC空間における所定の許容差を越えないように、テ
クスチャ座標の許容差を指定するのが好ましい。
【0024】図6は、様々な座標空間とそれらの間での
マッピングを視覚に訴えるように示す。TCからPCへ
の閾値のスケーリングを推定するために、PCからTC
へのバウンド(すなわち、τマッピング)を使用する。
τマッピングは典型的には区分的線形マッピングである
ので、バウンドを推定するのは容易である。PC空間で
バウンドを推定したならば、PC空間において指定の規
則的な間隔をおいてNURBSをモザイク分割する(す
なわち、一定のパラメータ近似基準)。このように、T
C空間、PC空間、MC空間又はDC空間で閾値を指定
することができ、その閾値に適合するように面を動的に
モザイク分割できるのである。
【0025】たとえば、MC空間で最大三角形サイズが
与えられたとき、1つの面パッチを評価するために必要
とされるセグメントの数は次の通りである: ns =|S′s|/ds,mct =|S′t|/dt,mc 式中、ns 及びnt はs方向、t方向それぞれのステッ
プ、すなわち、セグメントの要求数であり、ds,mc
びdt,mc はMC空間におけるNURBSの閾値を表わ
し、|S′s|及び|S′t|はMC空間の対応する方
向における面パッチの最大導関数バウンドである(ここ
では、パッチは0から1の間でパラメータ化されると仮
定する)。詳細については、Abi−Ezzi,Shi
rmanの「The Tessellation of
Curved SurfacesUnder Hig
hly Varying Transformatio
n」Proceedings Eurographic
s ’91, 385〜397ページ)を参照。
【0026】DC空間(すなわち、画素)で最大三角形
サイズdを指定した場合、ビューイング変換のスケーリ
ング行動と、モデリング変換のノルムとを使用して、サ
イズds,dc、dt,dcをMC空間にマッピングする。MC
空間における閾値の確定に関する詳細については、たと
えば、Abi−Ezzi,Shirmanの「Scal
ing Behavior of Viewing T
ransformations」(Computer
Graphics and Application
s,1993年5月)を参照。マッピングを実行したな
らば、セグメントns,ntの数は先に述べたように確定
される: ns =|S′s|/ds,mct =|S′t|/dt,mc
【0027】閾値をPC空間で指定する場合には、パッ
チごとのセグメントの数はns =1/ds,pc 及びnt
=1/dt,pc である。ところが、最大サイズdをTC
空間(すなち、テクセル)で指定するのであれば、PC
における最小サイズはτマッピングを使用して推定され
る: ds,pc =ds,tc/|τ′s| dt,pc =dt,tc/|τ′t| 式中、|τ′s|及び|τ′t|は、s,t方向のτマッ
ピングの最大導関数バウンドである。そこで、セグメン
トの数はds,pc 及びdt,pc の逆数であると確定され
る: ns =|τ′s|/ds,tct =|τ′s|/dt,tc
【0028】DC空間で指定される閾値はビューに依存
するが、TC空間で指定される閾値はビューとは無関係
であることに注意すべきである。場合によっては、TC
空間で指定される閾値と、DC空間又はMC空間で指定
される閾値とを組合わせることが望ましい。たとえば、
異なるビューに対して何らかの品質のテクスチャを維持
することが望ましいであろう。従って、双方の閾値を満
足させるためには、単一ステップサイズを選択すべきで
ある: ns =g(ns N,ns T,thresh) nt =g(nt N,nt T,thresh) 式中、ns N 及びnt N はDC空間又はMC空間における
閾値から計算されるステップの数であり、ns T 及びnt
T はTC空間で計算されるステップの数であり、thr
eshは定義済み最大値を表わす。たとえば、thre
shは、閾値ds, dc 及びdt,dc をDC空間内の1画素
と等しくなるように指定することにより得られるステッ
プの数に対応することもありうるだろう。関数gは典型
的には平均関数である。たとえば、 min(max(nNnT),thresh) として定義できるであろう。
【0029】その他の組合わせ技法も使用可能である。
たとえば、TC及びMC又はDCで指定した閾値に従っ
て確定されるステップサイズを平均して、モザイク分割
のための一様ステップサイズを生成することができる。
【0030】また、閾値を使用して適切なミップ−マッ
プレベルを確定することもできる。ステップの数ns
tを上記の公式の中の1つに従って確定したならば、
TC空間における閾値を次のように確定できる。 ds,tc =|τ′s|/ns , dt,tc =|τ′t|/nt
【0031】次に、たとえば、
【0032】
【数1】
【0033】によりミップ−マップレベルを確定するこ
とができる。尚、式中、lはミップ−マップレベルを表
わし、f(ds,tc,dt,tc)は閾値の積又は二乗積の最
大値などの閾値の何らかの関数を表わし、TC空間はu
とvの双方で0から1の範囲にあると仮定する。
【0034】図3及び図4に戻ると、ステップ240で
は、MC空間で場所指定したオブジェクトを表示装置座
標(DC)空間にマッピングする。このステップは周知
の多様な技法を使用して実行される。たとえば、モデリ
ング変換によりMC空間のオブジェクトを世界座標(W
C)系に変換する。世界座標系は、レンダリングすべき
図形オブジェクトの複数の異なる部分を組立てる座標系
である。ビューイング変換を経て、WC系の図形オブジ
ェクトを表示装置の画面空間に対応するDC系に変換す
る。(詳細については、たとえば、Foley,Van
Dam,Feiner,Hughesの「Compu
ter Graphics Principles a
nd Practice」(Addison−Wesl
ey Publishing Company,199
0年刊)の279〜281ページを参照。)あるいは、
オブジェクトを格子変換を経て照明座標(LC)空間に
変換し、続いて、スパース変換を経てDC空間に変換す
ることも可能である(Abi−Ezzi,Woznyの
「Factoring a HomogenousTr
ansformation for a More E
fficientGraphics Pipelin
e」,Computer Graphics第15巻第
2号、1991年刊の249〜258ページを参照)。
【0035】オブジェクトをDC空間にマッピングした
ならば、オブジェクトにテクスチャを適用する。ここで
は、通常、補間・色合成プロセスと呼ばれるこのプロセ
ス、ステップ250は多様な方法により実行可能であ
る。図5を参照しながら、そのプロセスを説明する。
【0036】図5を参照すると、ステップ415では、
頂点の色を確定する。ステップ420では、頂点の対応
するPC座標値を検索する。ステップ425,430,
435,440及び445により表わされている1つの
プロセスにおいては、オブジェクトの頂点について補間
を実行して、オブジェクトを表わす個々の画素を生成す
る(ステップ425)。オブジェクトの所定のパラメー
タ(オブジェクトの頂点など)から画素画像を生成する
に際しては、線走査アルゴリズムなどの周知の技法を使
用する。あるいは、NURBSのような複雑なオブジェ
クトに対しては、オブジェクトの面を三角形分割し、続
いて、生成された三角形を周知の走査線アルゴリズムを
使用してレンダリングするなどの別の周知の技法を利用
する。τマッピングを使用して、画素ごとに対応するT
C座標を確定する(ステッ430)。次に、テクスチャ
の色を確定するのであるが、テクスチャ値の直接ルック
アップなどの周知の多様な技法を使用することができ
る。さらに、ミップ−マッピングや加算面積テーブルな
どの技法を使用して、補間を実行することができる。た
とえば、Williamsの「Pyramidal P
arametrics」(Computer Grap
hics 第17巻第3号,1983根7月刊)及び
「Crow,Summed Area Tables
for Texture Mapping」(Comp
uter Graphics第18巻第3号、1984
年刊、207〜211ページ)を参照。ステップ440
では、頂点のオブジェクト色の補間を実行して、画素ご
とのオブジェクト色を確定する。次のステップ445で
は、合成プロセスを実行して、オブジェクト色とテクス
チャ色を合成し、すなわち、組合わせ、テクスチャ処理
したオブジェクトの最終画素色を確定する。2色を組合
わせるために周知の多様な色合成プロセスを使用でき
る。たとえば、単純にテクスチャ色をオブジェクト色と
入れ替えることが可能であるが、その場合には、画素の
色はテクスチャ色になる。あるいは、画素の色はオブジ
ェクト色とテクスチャ色の組合わせ、たとえば、単純平
均、加重和、加重平均などであっても良い。詳細につい
ては、たとえば、Solaris(R) XGLTM 3.
0.1 Programmer’s Guide ,S
unSoft(1993年刊、Sun Microsy
stems,Inc.)の387〜389ページを参
照。
【0037】あるいは、次のようなプロセスを使用して
も良い。このプロセスは、TC空間で指定した閾値を使
用してモザイク分割の粒度を確定する場合に好ましい。
まず、ステップ450で、オブジェクトの頂点に対応す
るTC座標値をτマッピングを使用して確定する。TC
座標値を確定したならば、テクスチャ処理したオブジェ
クトの画素色を確定するために、異なる情報のレベルで
補間プロセスを実行することができる。ステップ45
5,435,440,445により表わされるこのプロ
セスにおいては、TC座標値を補間して、オブジェクト
の頂点の対応するTC値を確定する。次に、テクスチャ
色を抽出し(ステップ435)、オブジェクト色を補間
し(ステップ440)、各画素のオブジェクト色とテク
スチャ色を合成して、テクスチャ処理したオブジェクト
について画素色を生成する(ステップ445)。
【0038】別のプロセスでは、τマッピングを使用し
てオブジェクトの頂点のTC座標値を計算したならば
(ステップ450)、ステップ460において各頂点の
テクスチャ色を確定する。プロセスのこの時点で、オブ
ジェクトの画素ごとのテクスチャ色値を生成するため
に、テクスチャ色値について補間を実行することができ
る(ステップ465)か、又は各頂点のオブジェクト色
を対応するテクスチャ色と組合わせるために頂点で合成
プロセスを実行することができる(ステップ470)。
テクスチャ色補間プロセスを実行する場合(ステップ4
65)、その後、オブジェクトの頂点のオブジェクト色
を補間してオブジェクトの画素ごとの色値を生成し(ス
テップ440)、各々の画素において、合成プロセスを
実行して、テクスチャオブジェクトの色を生成する(ス
テップ445)。まず、合成プロセスを実行する場合に
は(ステップ470)、ステップ475で、頂点の合成
色の補間を補間して、テクスチャ処理したオブジェクト
の色を生成する。
【0039】プロセスの変形は、画素ごとの情報を生成
するために頂点情報の補間を実行するのが処理中のどの
時点であるかによって、以上の説明から区別される。ど
の変形を利用すべきかの選択は品質と性能について考慮
すべき要件によって決まる。詳細にいえば、品質が高く
なるにつれて、性能は低くなる。従って、PC値の補間
(たとえば、ステップ415,420,425,43
0,435,440,445)は最高の品質画像を発生
するが、実行される画素ごとの演算の数が多いために最
大量のメモリと処理オーバヘッドを要求するのである。
TC値の補間(たとえば、ステップ415,420,4
50,455,435,440,445)は次に良い品
質の画像を発生し、性能はわずかに高くなる。その結
果、テクスチャ色の補間(たとえば、ステップ415,
420,450,460,465,440,445)は
より高い性能をもたらすが、品質はより劣るようにな
り、その後に続く合成頂点色の補間(たとえば、ステッ
プ415,420,450,460,470,475)
は、画素ごとの演算の数は合成色を補間してゆく最後の
ステップ(ステップ475)に限定されているので、最
も高速のプロセスである。
【0040】図4に戻ると、ステップ290では、対応
する色値と強さ値をもって生成された結果画素をフレー
ムバッファに記憶させる。ステップ300では、表示装
置の、フレームバッファに記憶されている画素データが
識別する位置と強さで画素を活動させて、表示装置にテ
クスチャ処理したオブジェクトを生成する。
【0041】このプロセスの容易に明らかになる利点の
1つは、たとえば、ステップ310でオブジェクトの新
たなビューをレンダリングすべき場合にプロセス全体を
再実行する必要がないということである。新たなビュー
をレンダリングすべき場合、プロセスはステップ230
へ分岐することにより、パラメータ化プロセス(ステッ
プ210)と、τマッピングの確定(ステップ220)
とを再実行する必要をなくす。同様に、ステップ320
では、同じオブジェクトに関して新たなテクスチャマッ
プを生成することができる。この場合、新たなテクスチ
ャマップに対応するためにステップ220のτマッピン
グを再生成することになると考えられ、ステップ210
のオブジェクトのパラメータ化のプロセスを再実行する
必要はない。これにより、ワーピングなどの特殊視覚効
果を実行されるテクスチャ処理されたパラメータに影響
を及ぼさずに生成できるのである。
【0042】本発明を好ましい実施例に関連して説明し
た。しかしながら、以上の説明に照らせば、様々な用途
に対しての数多くの代替変形例が当業者に明白になるこ
とは明らかである。
【図面の簡単な説明】
【図1】 本発明の一実施例を示す概念ブロック線図。
【図2】 本発明のプロセスを示す概念図。
【図3】 本発明のプロセスステップを示すフローチャ
ート。
【図4】 本発明のプロセスステップを示すフローチャ
ート。
【図5】 本発明のプロセスステップを示すフローチャ
ート。
【図6】 異なる座標空間の間のマッピングを示す図。
【図7】 パラメータ座標(PC)空間とテクスチャ座
標(TC)空間との間のτマッピングを視覚に訴えて示
す図。
【図8】 オブジェクトにテクスチャを生成するための
補間技法の例を示す図。
【符号の説明】
10…CPU、15…システムメモリ、20…入出力装
置、25…グラフィックスサブシステム、30…システ
ムバス、40…フレームバッファ、45…表示制御装
置、50…表示装置、55…制御装置、60…カラール
ックアップテーブル、65,70,75…デジタル/ア
ナログ変換器、105…MC空間、110…オブジェク
ト、115…PC空間、120…TC空間、130…D
C空間。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ヤコヴ・カメン アメリカ合衆国 95014 カリフォルニア 州・カッパチーノ・グリーンウッド ドラ イブ・19334

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 中央処理装置(CPU)と、メモリと、
    図形表示装置に結合された図形表示制御装置を含む入出
    力装置とを具備するコンピュータシステムによって、各
    々が1つのオブジェクトと、そのオブジェクトに加えら
    れるテクスチャとから成る複数のテクスチャ処理された
    オブジェクトを、DC空間に従って規定されている図形
    表示装置にレンダリングする方法において、前記オブジ
    ェクトはモデリング座標(MC)空間で複数の頂点によ
    り決められ、世界座標(WC)空間に変換され且つ装置
    座標(DC)空間で画像としてレンダリングされ、各頂
    点が関連する色値を有しているとともに、前記テクスチ
    ャがテクスチャ座標(TC)空間でテクスチャマップに
    より決められ、そのテクスチャマップがテクスチャの色
    を識別するものであり、 オブジェクトと関連するパラメータ座標(PC)空間を
    構成する過程と;PC空間からTC空間へのτマッピン
    グを生成する過程と、 MC空間内のオブジェクトの頂点をDC空間に変換する
    過程と、 τマッピングを使用してDC空間内のオブジェクトにテ
    クスチャマップをマッピングする過程と、 オブジェクトの色値をマッピングされたテクスチャ値と
    合成して、テクスチャ処理されたオブジェクト画素デー
    タを生成する過程と;各画素データがDC空間内の画素
    の位置に対応するフレームバッファの記憶場所に記憶さ
    れるように、各画素データをフレームバッファに記憶す
    る過程とからなり、 前記図形表示制御装置がフレームバッファに記憶されて
    いる画素データを読取り且つ画素データが識別する位置
    と色をもって画素を駆動するための制御信号を発生し、 表示のためにテクスチャ処理されたオブジェクトを生成
    することを特徴とするテクスチャ処理されたオブジェク
    トをレンダリングする方法。
  2. 【請求項2】 オブジェクトに加えられるテクスチャの
    モザイク分割(基盤目模様)粒度を確定する過程をさら
    に含む請求項1記載の方法。
  3. 【請求項3】 前記方法は、モザイク分割粒度ns,nt
    を確定した後に、TC空間の対応する閾値基準から、
    s,t方向におけるτマッピングの最大導関数バウンド
    をそれぞれ|τ′s|,|τ′t|とする式: ds,tc =|τ′s|/ns , dt,tc =|τ′t|/nt に従ってテクスチャのミップ−マップレベルを確定する
    過程をさらに含む請求項2記載の方法。
  4. 【請求項4】 中央処理装置(CPU)と、メモリと、
    図形表示装置を含む入出力装置とを具備するコンピュー
    タシステムによって、各々が1つのオブジェクトと、そ
    のオブジェクトに適用されるテクスチャとから成る、複
    数のテクスチャ処理されたオブジェクトを、DC空間に
    従って規定される図形表示装置にレンダリングする装置
    において、前記オブジェクトはモデリング座標(MC)
    空間で複数の頂点により決められ、世界座標(WC)空
    間に変換され且つ装置座標(DC)空間で画像としてレ
    ンダリングされ、各頂点は関連する色値を有しており、
    前記テクスチャはテクスチャ座標(TC)空間でテクス
    チャマップにより決められ、そのテクスチャマップはテ
    クスチャの色を識別するものであり、 オブジェクトと関連するパラメータ座標(PC)空間
    と;PC空間からTC空間へのτマッピングと;MC空
    間内のオブジェクトの頂点をDC空間に変換する第1の
    変換手段と;τマッピングを使用してDC空間内のオブ
    ジェクトにテクスチャマップをマッピングするマッピン
    グ手段と;オブジェクトの色値をマッピングされたテク
    スチャ値と合成して、テクスチャ処理されたオブジェク
    ト画素データを生成する色合成手段と;フレームバッフ
    ァの記憶場所がDC空間内の位置に対応するように各画
    素データを記憶するフレームバッファと;図形表示装置
    及びフレームバッファに結合され、フレームバッファに
    記憶されている画素データを読取り且つ画素データが指
    示する位置と色をもって画素を駆動するための制御信号
    を発生する図形表示制御装置とを具備し、 表示のためにテクスチャ処理されたオブジェクトを生成
    するテクスチャ処理されたオブジェクトをレンダリング
    する装置。
  5. 【請求項5】 各々が1つのオブジェクトと、そのオブ
    ジェクトに適用されるテクスチャとから成り、前記オブ
    ジェクトはモデリング座標(MC)空間で複数の頂点に
    より決められ、世界座標(WC)空間に変換され且つ装
    置座標(DC)空間で画像としてレンダリングされ、各
    頂点は関連する色値を有しており、テクスチャはテクス
    チャ座標(TC)空間でテクスチャマップにより決めら
    れ、そのテクスチャマップはテクスチャの色を識別する
    ような複数のテクスチャ処理されたオブジェクトを、D
    C装置に従って規定される図形表示装置にレンダリング
    するコンピュータシステムにおいて、 オブジェクトと関連するパラメータ座標(PC)空間を
    確定する手段と;PC空間からTC空間へのτマッピン
    グを確定する手段と;MC空間内のオブジェクトの頂点
    をDC空間に変換する第1の変換手段と;τマッピング
    を使用してDC空間内のオブジェクトにテクスチャマッ
    プをマッピングするマッピング手段とを具備するホスト
    プロセッサと;前記ホストプロセッサに結合され、オブ
    ジェクトの色値を生成し且つその色値をマッピングされ
    たテクスチャ値と合成してテクスチャ処理されたオブジ
    ェクト画素データを生成する色合成手段を具備する図形
    処理サブシステムと;フレームバッファの記憶場所がD
    C空間内の位置に対応するように各画素データを記憶す
    るためのフレームバッファと;図形表示装置及びフレー
    ムバッファに結合され、フレームバッファに記憶されて
    いる画素データを読取り且つ画素データが指示する位置
    と色をもって画素を駆動するための制御信号を発生する
    図形表示制御装置とを具備し、 表示のためにテクスチャ処理されたオブジェクトを生成
    するコンピュータシステム。
JP6198986A 1993-08-02 1994-08-02 テクスチャ処理されたオブジェクトをレンダリングする方法及び装置 Ceased JPH07152923A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US101471 1987-09-28
US08/101,471 US5550960A (en) 1993-08-02 1993-08-02 Method and apparatus for performing dynamic texture mapping for complex surfaces

Publications (1)

Publication Number Publication Date
JPH07152923A true JPH07152923A (ja) 1995-06-16

Family

ID=22284834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6198986A Ceased JPH07152923A (ja) 1993-08-02 1994-08-02 テクスチャ処理されたオブジェクトをレンダリングする方法及び装置

Country Status (4)

Country Link
US (1) US5550960A (ja)
EP (1) EP0637814B1 (ja)
JP (1) JPH07152923A (ja)
DE (1) DE69424900T2 (ja)

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3064799B2 (ja) * 1994-03-29 2000-07-12 ヤマハ株式会社 テクスチャマッピング装置
JP2846252B2 (ja) * 1994-08-22 1999-01-13 株式会社ナムコ 3次元シミュレータ装置及び画像合成方法
GB9501832D0 (en) 1995-01-31 1995-03-22 Videologic Ltd Texturing and shading of 3-d images
EP0812447B1 (en) * 1995-03-02 2004-05-26 Parametric Technology Corporation Computer graphics system for creating and enhancing texture maps
US5710878A (en) * 1995-06-07 1998-01-20 Mccoy; David Scott Method for facilitating material application for a group of objects of a computer graphic
US5734386A (en) * 1995-09-08 1998-03-31 Evans & Sutherland Computer Corporation System and method for displaying textured polygons using planar texture interpolation
US5870509A (en) * 1995-12-12 1999-02-09 Hewlett-Packard Company Texture coordinate alignment system and method
US6034693A (en) * 1996-05-28 2000-03-07 Namco Ltd. Image synthesizing apparatus, image synthesizing method and information storage medium
US6348917B1 (en) * 1996-09-30 2002-02-19 Cirrus Logic, Inc Dynamic switching of texture mip-maps based on depth
US5808623A (en) * 1996-10-07 1998-09-15 Adobe Systems Incorporated System and method for perspective transform in computer using multi-pass algorithm
US5935198A (en) * 1996-11-22 1999-08-10 S3 Incorporated Multiplier with selectable booth encoders for performing 3D graphics interpolations with two multiplies in a single pass through the multiplier
US5905500A (en) * 1997-02-19 1999-05-18 Seiko Epson Corporation Method and apparatus for adaptive nonlinear projective rendering
ES2129357B1 (es) * 1997-03-24 2000-02-01 Univ Valladolid Sistema automatico para la ingenieria inversa en entornos cad y la evaluacion objetiva del color.
US6124858A (en) * 1997-04-14 2000-09-26 Adobe Systems Incorporated Raster image mapping
US5963213A (en) * 1997-05-07 1999-10-05 Olivr Corporation Ltd. Method and system for accelerating warping
US6208347B1 (en) 1997-06-23 2001-03-27 Real-Time Geometry Corporation System and method for computer modeling of 3D objects and 2D images by mesh constructions that incorporate non-spatial data such as color or texture
US20020154132A1 (en) 1997-07-30 2002-10-24 Alain M. Dumesny Texture mapping 3d graphic objects
US6151029A (en) * 1997-08-22 2000-11-21 Seiko Epson Corporation Texture mapping with improved technique for selecting an appropriate level in filtered representations of the texture
US5956043A (en) * 1997-09-18 1999-09-21 Novell, Inc. Textured tile rotation system and method
US6064394A (en) * 1997-10-31 2000-05-16 Autodesk, Inc. Texture mapping using a plane normal to a selected triangle and using a (U,V) origin thereof to preserve texture size upon surface scaling
AU2100199A (en) * 1997-12-31 1999-07-19 Research Foundation Of State University Of New York, The Method and apparatus for three-dimensional surface contouring using a digital video projection system
US6191796B1 (en) * 1998-01-21 2001-02-20 Sensable Technologies, Inc. Method and apparatus for generating and interfacing with rigid and deformable surfaces in a haptic virtual reality environment
US6333749B1 (en) 1998-04-17 2001-12-25 Adobe Systems, Inc. Method and apparatus for image assisted modeling of three-dimensional scenes
US6201546B1 (en) 1998-05-29 2001-03-13 Point Cloud, Inc. Systems and methods for generating three dimensional, textured models
US6163320A (en) * 1998-05-29 2000-12-19 Silicon Graphics, Inc. Method and apparatus for radiometrically accurate texture-based lightpoint rendering technique
GB9811695D0 (en) * 1998-06-01 1998-07-29 Tricorder Technology Plc Facial image processing method and apparatus
US6281904B1 (en) * 1998-06-09 2001-08-28 Adobe Systems Incorporated Multi-source texture reconstruction and fusion
US6317125B1 (en) 1998-06-19 2001-11-13 Interplay Entertainment Corp. Saxs video object generation engine
US6275235B1 (en) * 1998-12-21 2001-08-14 Silicon Graphics, Inc. High precision texture wrapping method and device
US6184894B1 (en) 1999-01-29 2001-02-06 Neomagic Corp. Adaptive tri-linear interpolation for use when switching to a new level-of-detail map
US6342884B1 (en) * 1999-02-03 2002-01-29 Isurftv Method and apparatus for using a general three-dimensional (3D) graphics pipeline for cost effective digital image and video editing, transformation, and representation
US6650334B1 (en) * 1999-02-05 2003-11-18 Ati International Srl Optimizing texture tag checking for three-dimensional computer graphics
US20030158786A1 (en) 1999-02-26 2003-08-21 Skyline Software Systems, Inc. Sending three-dimensional images over a network
EP1092178B1 (en) * 1999-03-31 2004-08-04 Koninklijke Philips Electronics N.V. Method of assigning a two-dimensional decorative pattern to a three dimensioinal surface.
US6421052B1 (en) * 1999-04-09 2002-07-16 The Procter & Gamble Company Method of seaming and expanding amorphous patterns
US8595764B2 (en) 1999-06-25 2013-11-26 Jlb Ventures, Llc Image-oriented electronic programming guide
US6437795B1 (en) * 1999-07-21 2002-08-20 Sun Microsystems, Inc. Method and apparatus for clipping a function
US7292261B1 (en) 1999-08-20 2007-11-06 Patrick Teo Virtual reality camera
US6507676B1 (en) * 1999-12-13 2003-01-14 Xerox Corporation Hexagonal and octagonal regions from summed-area tables
US6421067B1 (en) 2000-01-16 2002-07-16 Isurftv Electronic programming guide
US6996505B1 (en) 2000-06-21 2006-02-07 Raindrop Geomagic, Inc. Methods, apparatus and computer program products for automatically generating nurbs models of triangulated surfaces using homeomorphisms
US7230628B1 (en) * 2000-10-05 2007-06-12 Shutterfly, Inc. Previewing a framed image print
US6853373B2 (en) 2001-04-25 2005-02-08 Raindrop Geomagic, Inc. Methods, apparatus and computer program products for modeling three-dimensional colored objects
US7873972B2 (en) * 2001-06-01 2011-01-18 Jlb Ventures Llc Method and apparatus for generating a mosaic style electronic program guide
KR100406860B1 (ko) * 2001-06-02 2003-11-21 삼성에스디에스 주식회사 동영상의 객체이미지를 저장하는 방법 및 그 장치
US20030001857A1 (en) * 2001-06-29 2003-01-02 Doyle Peter L. Method and apparatus for determining logical texture coordinate bindings
US6781594B2 (en) * 2001-08-21 2004-08-24 Sony Computer Entertainment America Inc. Method for computing the intensity of specularly reflected light
AU2002335799A1 (en) * 2001-10-10 2003-04-22 Sony Computer Entertainment America Inc. System and method for environment mapping
US6809738B2 (en) * 2001-12-21 2004-10-26 Vrcontext S.A. Performing memory management operations to provide displays of complex virtual environments
US6791549B2 (en) 2001-12-21 2004-09-14 Vrcontext S.A. Systems and methods for simulating frames of complex virtual environments
US7113630B2 (en) * 2002-02-19 2006-09-26 Credence Systems Corporation PICA system detector calibration
US7324116B2 (en) * 2002-06-20 2008-01-29 Microsoft Corporation Systems and methods for providing controllable texture sampling
US6891548B2 (en) * 2002-08-23 2005-05-10 Hewlett-Packard Development Company, L.P. System and method for calculating a texture-mapping gradient
GB2393088B (en) * 2002-09-10 2006-06-28 British Broadcasting Corp Texture mapping
US7098924B2 (en) * 2002-10-19 2006-08-29 Via Technologies, Inc. Method and programmable device for triangle interpolation in homogeneous space
US7348989B2 (en) * 2003-03-07 2008-03-25 Arch Vision, Inc. Preparing digital images for display utilizing view-dependent texturing
EP1636787B1 (en) * 2003-05-30 2012-02-29 Pacific Data Images LLC Shading computer-generated objects using generalized shading regions
US7006103B2 (en) * 2003-07-30 2006-02-28 Hewlett-Packard Development Company, L.P. System and method for editing parametric texture maps
US7446777B2 (en) * 2003-09-26 2008-11-04 Rensselaer Polytechnic Institute System and method of computing and displaying property-encoded surface translator descriptors
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US20070035553A1 (en) * 2005-08-12 2007-02-15 Microsoft Corporation General framework for aligning textures
US7791616B2 (en) * 2006-02-10 2010-09-07 The United States Of America As Represented By The Secretary Of The Navy Method for efficiently transforming a raster image from one map projection to another map projection
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US7891818B2 (en) 2006-12-12 2011-02-22 Evans & Sutherland Computer Corporation System and method for aligning RGB light in a single modulator projector
US8358317B2 (en) 2008-05-23 2013-01-22 Evans & Sutherland Computer Corporation System and method for displaying a planar image on a curved surface
US8702248B1 (en) 2008-06-11 2014-04-22 Evans & Sutherland Computer Corporation Projection method for reducing interpixel gaps on a viewing surface
US8077378B1 (en) 2008-11-12 2011-12-13 Evans & Sutherland Computer Corporation Calibration system and method for light modulation device
US8558833B1 (en) * 2009-10-14 2013-10-15 Nvidia Corporation System and method for symmetric parameterization of independently tessellated patches
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
US9641826B1 (en) 2011-10-06 2017-05-02 Evans & Sutherland Computer Corporation System and method for displaying distant 3-D stereo on a dome surface
US8504941B2 (en) * 2011-10-31 2013-08-06 Utc Fire & Security Corporation Digital image magnification user interface
CN111882634B (zh) * 2020-07-24 2024-02-06 上海米哈游天命科技有限公司 一种图像渲染方法、装置、设备及存储介质
US20240020935A1 (en) * 2022-07-15 2024-01-18 The Boeing Company Modeling system for 3d virtual model

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5255352A (en) * 1989-08-03 1993-10-19 Computer Design, Inc. Mapping of two-dimensional surface detail on three-dimensional surfaces

Also Published As

Publication number Publication date
DE69424900D1 (de) 2000-07-20
EP0637814A2 (en) 1995-02-08
EP0637814B1 (en) 2000-06-14
EP0637814A3 (ja) 1995-03-01
US5550960A (en) 1996-08-27
DE69424900T2 (de) 2001-01-11

Similar Documents

Publication Publication Date Title
JPH07152923A (ja) テクスチャ処理されたオブジェクトをレンダリングする方法及び装置
US6016150A (en) Sprite compositor and method for performing lighting and shading operations using a compositor to combine factored image layers
US5742749A (en) Method and apparatus for shadow generation through depth mapping
US6037948A (en) Method, system, and computer program product for updating texture with overscan
US6064393A (en) Method for measuring the fidelity of warped image layer approximations in a real-time graphics rendering pipeline
US5704024A (en) Method and an apparatus for generating reflection vectors which can be unnormalized and for using these reflection vectors to index locations on an environment map
EP1636787B1 (en) Shading computer-generated objects using generalized shading regions
US6639598B2 (en) Method and apparatus for effective level of detail selection
US6469700B1 (en) Per pixel MIP mapping and trilinear filtering using scanline gradients for selecting appropriate texture maps
EP0553973A2 (en) Computer graphics display method and system with shadow generation
US6292192B1 (en) System and method for the direct rendering of curve bounded objects
US6791569B1 (en) Antialiasing method using barycentric coordinates applied to lines
JP3402610B2 (ja) テクスチャをマップする方法並びに装置
JPH09134451A (ja) 透視投影計算装置および透視投影計算方法
JP4198087B2 (ja) 画像生成装置および画像生成方法
US6583790B1 (en) Apparatus for and method of converting height fields into parametric texture maps
US5109481A (en) Quadratic interpolation for shaded image generation
JPH09330423A (ja) 三次元形状データ変換装置
US6400370B1 (en) Stochastic sampling with constant density in object space for anisotropic texture mapping
JP3086426B2 (ja) オブジェクトのラスタ化方法及び装置
US7116333B1 (en) Data retrieval method and system
EP1058912A1 (en) Subsampled texture edge antialiasing
KR100633029B1 (ko) 풋프린트의 분석 및 수정 방법
JP3712015B2 (ja) 画像作成装置および方法
JPH10162161A (ja) ユーザ定義によるルームおよびウインドウを用いた効率的レンダリング

Legal Events

Date Code Title Description
A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20040127