CZ273297A3 - Počítačový grafický systém pro vytváření a zlepšování map, vztahujících se ke třírozměrným modelům - Google Patents

Počítačový grafický systém pro vytváření a zlepšování map, vztahujících se ke třírozměrným modelům Download PDF

Info

Publication number
CZ273297A3
CZ273297A3 CZ972732A CZ273297A CZ273297A3 CZ 273297 A3 CZ273297 A3 CZ 273297A3 CZ 972732 A CZ972732 A CZ 972732A CZ 273297 A CZ273297 A CZ 273297A CZ 273297 A3 CZ273297 A3 CZ 273297A3
Authority
CZ
Czechia
Prior art keywords
data
dimensional
model
map
texture
Prior art date
Application number
CZ972732A
Other languages
English (en)
Inventor
David F. Derby
Original Assignee
Parametric Technology Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Parametric Technology Corporation filed Critical Parametric Technology Corporation
Publication of CZ273297A3 publication Critical patent/CZ273297A3/cs

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

Oblast techniky
Vynález se týká počítačového grafického systému pro vytváření a
Dosavadní stav techniky
Obecně je úkolem grafických systémů počítačů zobrazovat data na stínítku katodové trubice (CRT - cathode ray tube) tak, aby vznikaly dynamické obrázky.
Zobrazení se obvykle skládá z pravoúhlého pole, které sestává z tisíců jednotlivých zobrazovacích bodů (pixelů nebo pelů - picture elements). Každý pixel v poli odpovídá zpracovaným datům pixelu, data představují například barvu, intenzitu a hloubku.
Data pixelu se mohou k CRT přivádět z takzvané paměti obrazovky (frame buffer), která umožňuje příjem a vysílání dat vysokou rychlostí. Rozmanité způsoby organizace a prohledávání paměti obrazovky při řízení zobrazování, pixel po pixelu, jsou popsány v učebnici nazvané Computer Graphics: Principles and Practice, Second Edition, Foley, Van Dam, Feiner & Hughes. Vydáno 1987 nakladatelstvím Addison-Wesley Publishing Company. Na tuto publikaci se budeme dále odkazovat.
Pro sekvenční zobrazování nebo zapisování pixelů buzením stínítka CRT obrazovky, jak v televizní technice tak v oblasti počítačové grafiky, se
5 většinou používá způsobu rastrového skenování (raster-scan patterns). Rastrové skenování lze přirovnat ke způsobu čtení západních kultur, tj. pixely, stejně jako slova, jsou čteny a zobrazovány jeden za druhým zleva doprava, řádek po řádku směrem dolů. Tedy, budicí paprsek CRT sleduje vzor rastru a vykresluje pixel po pixelu, řádek za řádkem, snímek za snímkem. Systémy pro taková zobrazování jsou podrobně popsána ve výše zmíněné Foleyho učebnici.
>
• ·
US-169
Obecně jsou pro podporu dynamického grafického zobrazování třírozměrná geometrická data, která představují objekty nebo základní prvky (např. polygony jako jsou trojúhelníky), uložena v hlavní paměti, kterou tvoří například pevný disk.
Geometrická data (třírozměrná nebo 37D)-Se_zpracuií_tak._aby.„vzniklamvybranádata, která se převedou na data dvourozměrného (2-D) zobrazení definující každý jednotlivý pixel. Tedy, grafické obrázky vznikají ze základních tvarů (obvykle trojúhelníků), z nichž se skládají zobrazované objekty.
Při výpočtu pixelů pro zobrazení se se základními prvky nakládá s ohledem na konkrétní pohled, základní prvek se rozloží postupem zvaným konverze nebo rozklad skenováním (scan conversion), kterým se určí přispění každého prvku ke každému pixelu. Při zpracování základních prvků se řeší zejména vzájemné překrývání objektů. Dominantní objekt může například zakrýt povrchy objektu v pozadí. Tedy, kumulativní hodnota každého pixelu (uchovávaná v paměti obrazovky) se počítá postupně ze všech základních prvků. Současně se zpracováním základních prvků se do pixelů mohou zahrnout textury z texturové paměti, např. z paměti obsahující texturovou mapu.
Z podrobnějšího pohledu na grafické operace je zřejmé, že základní prvky se obvykle uchovávají v třírozměrném modelu nebo reálném prostoru vymezeném souřadnicovým systémem. Reálným prostorem spolu s geometrickými transformacemi se zabývá kapitola 5 výše zmíněné Foleyho učebnice. Jedna z takových transformací zahrnuje normalizaci, při které se pohled (view volume)
5 převede na kanonický pohled. Transformované základní prvky se oříznou podle kanonického pohledu a poté se dále transformují do dvourozměrného prostoru obrazovky. Obecně se tyto počáteční operace provádějí v geometrickém subsystému, který se někdy nazývá vstupní část (front end) systému grafického zobrazování. Jinak řečeno, subsystém vstupní části prochází modelem zobrazení a převádí základní prvky do prostoru obrazovky. Struktury a činnosti takových systémů rozebírá výše zmíněná Foleyho učebnice v kapitole 18. Data ze vstupní části se dále zpracovávají v subsystému takzvané výstupní části (back end),
US-169 ·· .«· • · »J · 4 • · e • · · 4 ·
4 ··· · · · 4 —- který vytváří konečný obrázek rozkladem skenováním každého ze základních prvků, určením viditelnosti toho kterého základního prvku v každém pixelu a příslušným vystínováním vybraných pixelů. Takové operace jsou rovněž popsány ve Foleyho učebnici v kapitole 18.
Protože objekty jsou tvořeny polygony, mohou být pro dosažení jemnějšího rozlišení obrázků objekty rozděleny do většího množství polygonů, např. trojúhelníků. Praktická omezení takového dělení však urychlila vývoj alternativního přístupu známého jako mapování textury (textuře mapping).
Texturová mapa, která se skládá z jednotlivých prvků nazývaných texely, je v podstatě útvarem ve dvourozměrném prostoru, který je obecně definován pravoúhlými souřadnicemi označenými u a v. Mapováním textury na základní prvek je takový prvek texturován, např. jako by byl opatřen vzorkem cihel či > dokonce malby. Podrobný popis texturových map a mapování je obsahem kapitoly
16 výše zmíněné Foleyho učebnice.
Ačkoliv jsou techniky používání mapování textury široce rozšířené, představuje vytváření texturových map týkajících se třírozměrných (3-D) objektů hned několik problémů. Povšimněte si, jak je uvedeno výše, že objekt nebo model
0 obrázku existuje v reálném prostoru a je třírozměrný, zatímco texturová mapa, která se na model nanese, existuje v pouze dvourozměrném texturovém prostoru. Některé dříve používané techniky vytváření textury žádoucích zobrazení jsou popsány níže.
5 Podle jedné dosud známé metody je typicky 3-D model vytvořen jednou osobou a 2-D obrázek modelovaného objektu osobou jinou. Třetí osoba má za úkol zbortit 2-D obrázek tak, aby odpovídal 3-D modelu, a naopak. Protože objekt i obrázek vznikly nezávisle, jde obvykle o úkol obtížný a časově náročný, navíc výsledek bývá nevalný. Analogickou operací může být pokus natáhnout správně fotografii lidské tváře na hlavu manekýna.
• · · · · · · · · • · ·· * · · ·· ···· • · · · · · · ···· ·· ··· ·· ·· ·
US-169
Podle jiného přístupu se v grafice vytvoří 3-D model a zobrazí se. Zobrazí se rovněž 2-D texturová mapa.
Při interaktivním ovládání operátor provede změnu ve 2-D texturové mapě a 5 poté pozoruje důsledky aplikace-proyedepé-změny,na-modelu· Jato^činnostjeA/ jistém smyslu analogická pokusu o nakreslení mapy Země na naplocho rozloženou kůru oloupanou z pomeranče tak, aby mapa vypadalo po nabalení kůry zpět na pomeranč správně. Omezením je skutečnost, že nátěr lze na kůru nanést pouze tehdy, je-li rozložena naplocho. Rovněž tento způsob je obtížný a i o časově náročný.
Podle dalšího přístupu se vytvoří a zobrazí 3-D model. Orientace modelu vzhledem k určitému pohledu se použije pro mapování 3-D modelového prostoru do 2-D texturového prostoru. Barva, transparentnost a jiná data jsou přiřazena přímo vybranému pohledu na 3-D model. Data se poté transformují mapováním do texturové mapy. Problémem metody je její závislost na konkrétním pohledu. To znamená, že při zvětšení, natočení, posunu nebo jiném pohybu modelu jsou data texturové mapy nepoužitelná. Mapování ze 3-D modelového prostoru do 2-D texturového prostoru existuje pouze pro jednu orientaci. I v případě, kdy bylo dříve definováno permanentní mapování (mapování nezávislé na orientaci), tento způsob předchozí mapování znehodnotí. Fyzikální analogií může být pomeranč, který ztratí svou barvu, pokud se s ním pohne. Nebo jinak, pokud byly na pomerančové kůře jako prvotní textura vyznačeny hranice kontinentů, pohybem budou obrysy v texturové mapě zničeny.
Samozřejmě, že jsou známy i další způsoby včetně hybridních metod složených ze způsobů popsaných výše. Například bylo navrženo využít model z mikro-polygonů, kde každý vrchol každého mikro-polygonu uchovává texturová data. Vyřeší se tím problém závislosti na pohledu, způsob však klade značné nároky na výkonnost počítače. Povšimněte si, že data nejsou ve skutečnosti uchovávána jako texturová data, spíše jako data vrcholů polygonů. Jemnost
US-169 modelu nelze tedy zvýšit jednoduše zvětšením texturové mapy. Systémmá rovněž m svá omezení při zpracovávání složitých modelů.
Podstata vynálezu ystenTpoidlě vynálězu^i“Ol5ecne“RI^éFza^íl'^9štřániFTŤeclosťafl^vyše popsaných známých systémů. Jak bude podrobněji popsáno dále, data se mohou umístit přímo na model, takže transformace se vždy provede správně. Jak je rovněž uvedeno dále, přidání nových dat do texturové mapy nenaruší již existující mapování mezi modelovým prostorem a texturovým prostorem. Nová nebo čerstvá data se vkládají do texturové mapy tak, že se přizpůsobují stávajícímu mapování z modelového prostoru do texturového prostoru. Dále, jemnost vzorkování dat není omezena geometrickou nebo polygonální jemností modelu, nýbrž rozlišením texturového prostoru, jehož měřítko lze měnit nezávisle na jemnosti modelu.
Podle provedení podle vynálezu systém předpokládá existenci geometrických dat pro 3-D model, například krychli, pohyblivou hlavu nebo zeměkouli, spolu s určitým mapováním do 2-D texturového prostoru, např. v souřadnicích u a v. Jak je popsáno, systém využívá geometrická data pro sestavení zobrazení 3-D modelu. Poté se přidají doplňková data zbarvení modelu.
Poté se přidají nová doplňková data, jakoby se štětcem nanesl nátěr přímo na zobrazený model. Povšimněte si, že nová doplňková data mohou přicházet z množství zdrojů jiných, než je štětec, např. prostřednictvím editace obrázku nebo systémů manipulace dat. Povšimněte si rovněž, že doplňková data a nová doplňková data mohou představovat libovolný počet jevů nebo informací jiných než textura. Konkrétně mohou být doplňková data texturou nebo vizualizačními daty (barva, transparentnost apod.), transformačními nebo deformačními systémy
3-D dat (jako jsou data pro mapy nerovností nebo mapy posunutí (bump maps or displacement maps)) nebo transformačními nebo deformačními systémy 2-D dat Gako jsou jádra zpracování obrázků (image Processing kernels)); povšimněte si rovněž možnost užití NURB, jak je popsáno na straně 502 zmíněné Foleyho učebnice.
v
US-169
Z názorného příkladu dat nanesení nátěru nebo barvy na model je zřejmé, že budou dotčeny určité vybrané pixely zobrazení. Data barvy pro každý z těchto pixelů jsou souhlasně uchována v takzvaném prostoru skryté obrazovky (hidden screen). Po uschoyání,barev_systém_vybere-releyantní-polygony,,např.-pQlygony,. jejichž čelních stěn se pixely dotýkají. Pomocí transformací se zjistí pozice relevantních polygonů v texturovém prostoru - konkrétních texelů. V popsaném provedení se texely pro přimíšení do texturové mapy rozkládají skenováním. Jak je uvedeno dále, texely právě zpracovávaného polygonu se vztáhnou zpět přes geometrická data k pixelům v prostoru obrazovky. Pokud je pixel viditelný (na základě obsahu paměti obrazovky), nová data (nátěr) se přimísí do obsahu paměti obrazovky. Tedy, mapu lze efektivně proměnit v texturu, nebo lze jinak nakládat se základními prvky v rozmanitých pozicích a pozorované z různých úhlů.
Přehled obrázků na výkresech
Na výkresech jsou zobrazeny příklady provedení vynálezu.
Na obr. 1 je blokové schéma systému navrženého podle vynálezu.
0 Na obr. 2 je schematická reprezentace texturové mapy vypracované systémem dle obr. 1.
Na obr. 3 je blokové schéma, které ukazuje změny formátu v systému dle obr. 1 a znázorňuje podrobněji strukturu pamětí a procesorů.
Na obr. 4 je vývojový diagram činnosti systému dle obr. 1 a 3.
5 Na obr. 5 je schéma znázorňující činnost systému dle obr. 1 a 3.
Na obr. 6 je blokové schéma části systému dle obr. 3.
Příklady provedení vynálezu
Nyní bude popsáno příkladné provedení vynálezu s odkazy na doprovodné
0 obrázky. Zobrazovače obrázků, datové procesory, použité formáty, způsoby zobrazení dat, techniky ukládání a transformace dat, či jiné prvky použité v • · · · ········· t· · ::7: : : : : us-i69 • ··· · · · · · «·· · • · · · · « · ·· · · · · · · · · · · · ·
--- _ příkladném provedení vynálezu, mohou nabývat nejrozmanitějších podob, z nichž některé se mohou i značně lišit od zde popisovaných. Určité strukturní a funkční podrobnosti použité v popisu vynálezu jsou proto pouze reprezentativní, i když v této souvislosti jsou považovány za nejlepší možné pro účely patentové přihlášky ™ ...... 5 a na jejich základě jsou formulovány patentové nároky, které vymezují rozsah vynálezu.
Na obr. 1 je na grafickém zobrazovací nakreslena zeměkoule G. Jak je popsáno dále, reprezentují zeměkouli G 3-D geometrická data definující kouli a dvourozměrná texturová data ohraničující pevniny I. Jak je také uvedeno dále, texturová data mohou být uchovávána ve tvaru dvourozměrné texturové mapy M, podobné, jaká je na obr. 2.
Pro prvotní přiblížení funkce popisovaného provedení předpokládejme, že chceme natřít nebo vybarvit zeměkouli G. Kvůli zjednodušení činnosti pouze pro účely vysvětlení předpokládejme první krok, kterým je umístění nového modrého bodu SL do západní části Spojených států, který označuje např. Salt Lake City. Způsobů, jak dostat bod SL na zeměkouli G je známo mnoho, jedním je například namalování štětcem. Podle vynálezu se poté, co se bod SL umístí na zeměkouli
0 G, data zpracují a bod SL se přidá do texturové mapy M v měřítku, které odpovídá geometrickým datům zeměkoule G. Následně může být bod SL na zeměkouli G zobrazen z kteréhokoliv pohledu a v různých pozicích.
Operace zpracování dat je, jak je uvedeno dále, podstatná a obvykle se
5 týká více dat, než je pouhý bod SL. Může být například žádoucí natřít na zeměkouli G moře a oceány modře, jednotlivé státy na pevninách Γrůznými barvami a dále označit všechna velká města body. Takové operace budou jednoduše rozšířením zjednodušené operace přidání bodu SL do texturové mapy M (obr. 2), která je popsána dále.
Operace a struktury pro přidání bodu SL na texturovou mapu M z bodu SL na zeměkouli G jsou podrobně popsány dále. Disk 10 geometrických dat (obr. 1 • · • ·
US-169 • · ·ο · ·· · · · · · • •o* ·♦· ·· · • ··· 9 · · · · ··· · • · · · · 9 9
999 9 9 9 9 9 9 9 9 9 9 · vlevo nahoře) uchovává pro zobrazení důležitá 3-D geometrická data. Disk 10 je spojen s geometrickým procesorem 12, který pracuje jako vstupní část (front end) grafiky počítače. To znamená, že geometrický procesor 12 transformuje vybrané základní prvky, např. trojúhelníky nebo nurby, uložené na disku 10 do prostoru _j^^Q:bre^oyky,.,kcle ^reprezentují_data^pro^zobrazenUaková.-použití^grafického procesoru jako vstupní části jsou dobře známa, jak je například uvedeno v kapitole 18 výše zmíněné Foleyho učebnice. V příkladu zobrazení zeměkoule G pracuje geometrický procesor 12 s daty, která definují kouli G.
Data představující kouli z geometrického procesoru 12 se předávají interpretačnímu procesoru 14 (rendering processor), který může být považován za procesor výstupní části (back end) nebo rastrovací procesor, který skenováním rozkládá základní prvky představující kouli a vytváří tak obrázky v paměti 16 obrazovky. Operace zahrnuje určení základních prvků, které přispívají ke každému pixelu, a následného stínování a texturování každého pixelu. Co se textury týká, je interpretační procesor 14 spojen s texturovou pamětí 18, která uchovává texturové mapy, např. mapu M dle obr. 2, avšak bez bodu SL, který představuje nová data. Jak již bylo uvedeno výše, různá vhodná provedení interpretačního procesoru 14 a texturové paměti 18 jsou dobře známa a jsou popsána ve zmíněné Foleyho učebnici.
Data pixelů z interpretačního procesoru 14 do paměti 16 obrazovky jsou reprezentací obrázku a řídí zobrazovací jednotku 20. na níž se objeví zeměkoule G. Jak bylo naznačeno výše, podle naprogramovaného nebo interaktivního ovládání je systém schopen zeměkoulí G různě pohybovat, zobrazení doplňovat či měnit úhel pohledu. Takové techniky jsou dobře známy, systém podle vynálezu však navíc umožňuje texturování zeměkoule G i s bodem SL (nová doplňková data) a uložení takové textury do texturové paměti 18 při zachování obrysů pevnin I (stará nebo existující doplňková data) a bodu SL. Předtím je však vhodné uvést
0 několik poznámek o zobrazování obrázků jednotkou 20.
US-169
···· · · ··· · · · 4 ·
- Jak již bylo uvedeno výše, jednotlivé pixely ve paměti W obrazovky se vypočtou testováním početných trojúhelníků (polygonů nebo jiných 3-D základních prvků), které se mohou objevit v zobrazení, na to, zda přispívají k pixelu. Kumulativní reprezentace každého pixelu ve paměti 16 obrazovky vychází ze 5 všech zpracovaných vhodných trojúhelníků. Obecně řečeno,_troiúhelníky~se.čtou.z disku W geometrických dat, projdou prvotním zpracováním ve třírozměrném prostoru v geometrickém procesoru 12, který je dále předá interpretačnímu procesoru 14. Dominantní povrchy trojúhelníků se skenováním rozloží ve dvourozměrného prostoru obrazovky interpretačním procesorem 14 a data se předají do paměti 16 obrazovky. Pomocí dobře známých technik se v procesu použije texturová mapa M (obr. 2) vyznačující pevniny L Paměť obrazovky 16 řídí zobrazovací jednotku 20, která zobrazí obrázek zeměkoule bez bodu SL.
Jak bylo naznačeno výše, pro nanesení barvy na zeměkouli G existují 15 různá zařízení. Takové zařízení je na obr. 1 označeno jako zdroj 22 texturových dat a může jím být například takový štětec, jaký je popsán v dosud nepřiznané U. S. patentové přihlášce seriálového čísla 08/195,112 nazvané: Systém vytváření obrázků v reálném čase pro simulaci fyzického malování, nosiče výkresů a modelování rysů pomocí 3-D grafiky.
Zdroje 22 texturových dat se může použít pro nanesení modrého bodu SL přes procesor 14 do paměti 16 obrazovky. Nanesená barva (modrý bod SL) se uchovává odděleně v paměti 24 skryté obrazovky. Konkrétně, nanesenou surovou barvou se v paměti 24 skryté obrazovky označí ty určité pixely v poli paměti obrazovky, které nesou bod SL. Povšimněte si, že paměť skryté obrazovky není nutná, pokud jsou data přístupná jiným způsobem.
Po uložení bodu SL do skryté paměti 24, jeho zaznamenání v paměti 16 obrazovky a zobrazení na zeměkouli G, systém pokračuje začleněním bodu SL do texturové mapy M (obr. 2). Tato činnost bude popsána nejprve poněkud obecně a až poté podrobněji s odkazy na různé prostorové souřadnice ukázané na obr. 3. Nejprve se pracuje s polygony nebo jinými základními prvky.
• ·
US-169
Polygony z disku 10 se zpracovávají postupně. To znamená, že všechny polygony, které se podílí na obrázku zeměkoule G, se testují, zda mají něco společného s bodem SL. Konkrétněji, polygony se testují, zda se podílí na zobrazení čelního pohledu, obrázku, zeměkoule. G.. Relevantní polygony· se poté transformují ze 3-D modelového prostoru do 2-D prostoru obrazovky a testují se, zda se stýkají s bodem SL. Polygony v oblasti bodu SL (určené vrcholy) se transformují do texturového prostoru (texturové paměti 18). aby se určily texely stýkající se s bodem SL. Relevantní texely se skenováním rozloží a obsah příslušných texelů se smísí s daty barvy modrého bodu SL. Smíšená data, která představují efektivní a mnohými způsoby využitelný způsob modifikace textury, se poté uloží do texturové paměti M (obr. 2).
Jak je podrobně uvedeno dále, činnosti jsou vykonávány spoluprací paměťových jednotek (10, 16, 18 a 24) a procesorů (12, 14 a 26). S odkazu na obr. 3, kde jsou ukázány vazby procesorů k prostorům v paměťových jednotkách, nyní popíšeme strukturu a postup operací podrobněji.
Krychle a bloky na obr. 3 představují paměti pro souřadnice různých
0 prostorů. Konkrétně blok 30 texturové paměti představuje 2-D prostor pro texturové mapy. Krychle 32 paměti modelového prostoru představuje 3-D prostor pro geometrická data. Krychle 34 paměti normalizovaného prostoru představuje 3D prostor pro normalizovaná geometrická data a blok 36 paměti prostoru obrazovky (paměť obrazovky) představuje 2-D paměť pro data zobrazení. Navíc blok 38 paměti skryté obrazovky představuje dvourozměrnou paměť pro nanesenou barvu. Tento způsob může pracovat rovněž s 3-D texturovými prostory.
Kvůli usnadnění pochopení jsou každá z pamětí na obr. 3, jejich obsahy a
0 zpracovávací operace abecedně označeny. Například paměťový blok 30 obsahuje texelová data a (texturovou mapu) v 2-D texturovém prostoru b. Paměťová krychle obsahuje 3-D geometrická data d ve 3-D modelovém prostoru e. Paměťová
US-169 krychle 34 obsahuje data transformovaného modelu g ve 3-Ď normál izovaném prostoru h. Paměťový blok 36 obsahuje data zobrazení j ve 2-D prostoru obrazovky k. Data se přivádí rovněž k bloku m, který uchovává data barvy n.
.J5^_TT^OT_Bř.es,un^dat,z-jedné-paměti~do-druhé^ahrnuje4ransformace,^které-?již^byly obecně popsány výše. Například transformační mapování mezi 2-D texturovým prostorem b a 3-D modelovým prostorem e může být buď implicitní nebo explicitní a může být nebo nemusí celkově vratná. Vratnost transformace dat se liší případ od případu.
Procesy včetně transformací jsou rovněž abecedně rozlišeny. Konkrétně, procesor 12 vstupní části provádí transformaci c mezi blokem 30 texturové mapy a krychlí 32 modelového prostoru. Transformace mezi krychlí 32 modelového prostoru a krychlí 34 normalizovaného prostoru je označena f. Transformace i probíhají mezi krychlí 34 normalizovaného prostoru a blokem 36 prostoru obrazovky. Jak je podrobně vysvětleno dále, všechny takové operace řídí procesor 26 mapování dat, který provádí rovněž operace rozkladu skenováním. Povšimněte si, že v různých implementacích mohou různé operace provádět různé prvky. V podstatě jsou jednotlivé operace, jako jsou různé transformace a
0 rozklad skenováním, a struktury pro jejich provádění dobře známy. Požadovaných výsledků se dosahuje uspořádáním provádění operací podle vynálezu.
Nejprve obraťme pozornost k tomu, jak vzniká zobrazení. Reprezentace polygonů (nejsou zobrazeny), které vymezují geometrickou kostku 42 na obr. 3, se transformují do normalizovaného tvaru představovaného normalizovanou kostkou 44 pomocí dat g v prostoru h. Z normalizovaného prostoru h se reprezentace 44 kostky transformuje do reprezentace kostky 46 (data j v prostoru k). Opět si povšimněte, že reprezentacemi kostky jsou polygony (nejsou zobrazeny), které ve skutečnosti tvoří transformovaná data.
Transformace dat z jedné paměti do druhé probíhá prostřednictvím maticových operací, které jsou odborníkům dobře známy. Více podrobností lze <) '<0 •12:
US-169 nalézt v kapitole 18 a příloze výše zmíněné Foleyho učebnice. Takové transformační operace provádí v dopředném směru procesory 12 a 14, ve směru opačném spolupracují oba zmíněné procesory s procesorem 26 mapování dat. Shrnutí, ačkoliv to není v některých případech nutné, je toto: jsou k dispozici data,
5· která se-rozloží na posloupnost trojúhelníků. Obvykle“procesor'12'vstupní části data d definující kostku 42 znormalizuje a vzniknou data g představující kostku
44. Normalizovaná kostka 44 se poté texturuje a skenováním rozloží na data zobrazení j v prostoru k představující krychli 46. Tedy, na zobrazovací se zobrazí krychle 46 reprezentující data z geometrické kostky 42 a mapy 48.
Předpokládejme nyní, že vstupem 50, který používá zdroj texturovaných dat, který byl již dříve popsán v souvislosti s obr. 1, se na kostku 46 nanese modrá barva definující bod 40. V podstatě se bod 40 zobrazí na krychli 46 a data barvy se uloží v prostoru k obrazovky jako v paměti obrazovky. Barva (nebo jiná žádoucí data) se uloží rovněž do prostoru skryté obrazovky jako data m.
Po zobrazení obrázku (kostka 46) a nanesení barvy nebo nátěru (bod 40) systém přenese bod 40 do texturové mapy, která je uložena v texturové paměti 30 na obr. 3. Odtud lze data bodu 40 spolu s jinými texturami výběrově přenášet do o různých reprezentací kostky 46.
Operace přenesení bodu 40 do textury b (texturové paměti 30) lze do jisté míry shrnout. Konkrétně, počáteční operací je zjištění toho polygonu (polygonů) v modelovém prostoru e, který bod obsahuje. Lze toho dosáhnout tak, že se polygony postupně transformují z modelového prostoru do prostoru obrazovky a testují se. Po nalezení takového polygonu (nebo polygonů) se naleznou texely, které tomuto polygonu přísluší, skenováním se rozloží a zjistí se pixely, které se překrývají s pixely tvořícími bod 40. Operace bude dále popsána podrobněji s odkazy současně na obr. 3 a 4. Na obr. 4 je vývojový diagram operací prováděných ve spolupráci procesoru 12 vstupní části, procesoru 14 výstupní části a procesoru 26 mapování dat.
·· ····
US-169 • :íL3;
• ·· ·· · · · · • · · · · · • · 9 9 9999
9 9 9 9
999 99 99 9
Operace výběru nebo zjišťování relevantních polygonů (pro bod 40) zahrnuje testování polygonů uložených v modelovém prostoru e. Tedy, jak je naznačeno blokem 60 na obr. 4, každý polygon se nejprve funkcí f (procesor 12) převede z dat d na data 3. Rozhodováním v bloku 62 se určí, zda je YyJng^gcoyaný^polygp_n^iditelný_(froOtJacing)^či„nikoíiv.^Rokud.,není^polygon viditelný, nemůže se objevit na obrazovce a může být vyřazen. Pokud je polygon viditelný, musí se s ním dále uvažovat a proces pokračuje provedením operace i s daty g) (blok 64).
V bloku 64 se data g) (označení viditelných polygonů) transformují na reprezentaci pixelů (data j uložená v prostoru k obrazovky). Povšimněte si, že se v bloku 64 transformují vrcholy polygonu, které vymezují plochu polygonu v prostoru obrazovky. Data j, která reprezentují polygon, vstupují ve formě £ do rozhodování v bloku 66. Rozhodování 66 určí, zda se pixely (data £) překrývají s bodem 40. obecně s novými daty, např. nátěrem. Pokud pixely nejsou v ploše nebo oblasti nátěru, polygon může být vyřazen a proces se opakuje s novým polygonem. V opačném případě podstupuje polygon další zpracování. Konkrétně prochází data j£ zpětnou transformací (blok 68), která má určit určité pixely v texturové mapě. Dle obr. 3 a 4 operace v bloku 68 zahrnuje zpětné transformace procesů i, f a c, kterými se určí ty texely v příslušném polygonu, které přicházejí v úvahu pro přijetí nanesené barvy. Další operací je v bloku 70 rozklad skenováním dat a polygonu. Rozklad skenováním zahrnuje zpracování jednotlivých texelů (označeny jsou ve vztahu k polygonu ď) a obarvení některých z nich. Texely se zpracovávají postupně jeden za druhým, po posledním texelu algoritmus začne zpracovávat další polygon.
V krocích rozkladu texelu skenováním se v operaci c v bloku 72 zkoumá vztah dat a) (která označují texel) k geometrickým datům. Operaci provádí procesor 12.
0 V podstatě se texel přeloží tak, aby označoval pixelová data ď v modelovém prostoru e. Povšimněte si, že tato pixelová data mohou v závislosti na všech výše zmíněných transformacích být ve skutečnosti násobné pixely nebo
US-169 části pixelů. Další transformace je naznačena blokem 74. Konkrétně, data pixelu ď se transformují na pixelová data ££ do prostoru obrazovky. V prostoru obrazovky k se pixelová data £2 testují na viditelnost, jak je znázorněno rozhodovacím blokem 76. Pokud není pixel viditelný, je vyřazen. V opačném případě se určí ,5 . ^pixeiu-j^- odp0vídají€Í*texel;-na*který-se-nanese^barvarKonkrétně“existujícrtexel71^^' který může nebo nemusí mít obsah, se smísí s daty m, která reprezentují nátěr ve skrytém prostoru n obrazovky. Tuto operaci reprezentuje na obr. 4 blok 78. Výsledkem je přidání podstaty nátěru (přidané charakteristiky) k texturové mapě pro následné a různé operace mapování textury. Po ukončení této operace algoritmus pokračuje posledním rozhodovacím blokem 80, ve kterém se určí zda byl či nebyl texel posledním v polygonu. Pokud ano, polygon je úplný a algoritmus se vrací do kroku představovaného blokem 60. V opačném případě musí být zpracovány skenovacím rozkladem další texely téhož polygonu a algoritmus se vrací k bloku 72.
Operace skenovacího rozkladu jsou popsány ve výše zmíněné Foleyho učebnici, rastrovacími operacemi na polygonech se zabývá strana 884. Na obr. 5 je vyznačen polygon 86. Skenování zahrnuje v podstatě postupné zpracovávání diskrétních pixelových oblastí 88. Předpokládejme například, že pouze vrchol 90 polygonu 86 je na zobrazení viditelný. Spodní část polygonu 86 může být například zakryta, jak je částečně naznačeno, jiným polygonem 92. V takovém případě dostanou nanesený nátěr texely odpovídající naznačeným pixelovým oblastem 88. Jak bylo výše popsáno, pixelové oblasti 88 se zpracovávají postupně v průběhu skenovacího rozkladu s následným určováním použití směšovací operace. Konkrétně, porovnávání zakrytí se provádí pomocí uložení paměti hloubky (depth buffer z-buffer) ze 3-D interpretačního procesu.
Při provádění výše vysvětleného procesu spolupracují procesory 12 a 14 s procesorem 26 mapování dat. Činnosti procesoru 12 vstupní části a procesoru 14 výstupní části jsou dobře známy, práce procesoru 26 mapování dat si zaslouží dodatečné vysvětlení. Je zřejmé, že pro realizaci zde uvedených procesů se
US-169 ·· ·· · ·· • · 4 c · ··· · • 4- · · · · • ···· ·· · · • · · · · ···· ·· ··· ·· ·· ···· • · · • · · ··· · • · *· · může použít libovolných ze široké nabídky struktur, pro účely názornosti á vysvětlení činnosti může mít procesor 26 formu dle obr. 6.
Řídicí jednotka 100 řídí výše popsané činnosti v rámci systému zpracování 5 dat dle obr. 1. V.tomto smyslu je.řídicí.jednotka. 100,Jak.je7naznačeno.-spojena..s. procesorem 12 vstupní části, interpretačním procesorem či procesorem 14 výstupní části, texturovou pamětí 18, pamětí 16 obrazovky a pamětí 24 skryté obrazovky. Navíc má řídicí jednotka oboustranné spojení s komparátorem 102 a jednotkou 104 skenovacího rozkladu. Znovu si povšimněte, že tyto funkce mohou být prováděny prvky existující procesorové struktury. Zde však řídicí jednotka 100 řídí komparátor 102, který provádí testování naznačené rozhodovacím blokem 66 na obr. 4. Podobně jednotka 104 skenovacího rozkladu provádí skenovací rozklad uvedený pod blokem 70 a dále kroky naznačené bloky 72, 74, 76, 78 a 80. Tedy, „ pro provádění výše popsaného příkladného procesu je k dispozici integrovaný systém.
Ve spojení se systémem počítačové grafiky mohou být použita modelová data pro vytvoření grafických obrázků, které jsou mapovány texturovými mapami. Dále, podle vynálezu, na obrázky může být nanesen nátěr nebo jiná forma čerstvých mapových dat, která se smísí se stávajícími texturovými daty. Operace zahrnují testování modelových dat ve vztahu k čerstvým mapovým datům nebo nátěru na určení těch modelových dat, která se transformují a otestují na určení poloh těch pixelů, které dostanou nátěr. Vznikne tak efektivní a přátelský systém pro přidávání textur nebo podobných forem dat do map při používání grafických obrázků.
Ve světle výše uvedeného popisu je zřejmé, že vynález může být efektivně používán v grafických počítačových systémech pro efektivní a ekonomické vkládání nových doplňkových dat (doplňujících geometrická data na zobrazení) v mnoha oblastech. Ačkoliv je popisovaný systém primárně zamýšlen pro systémy mapování textury, je zřejmé, že může upraven i pro mnoho jiných aplikací doplňování nových dat. Dále je rovněž zřejmé, že ač se popsané provedení
US-169
_ __ skládá z určitých prvkůvurčitékonfiguraci, ’ lze využít libovolné“ zmnožství struktur nebo algoritmů. Rozsah vynálezu je vymezen v následujích nárocích.

Claims (7)

  1. _ „ PATENTOVÉ NÁROKY
    1. Počítačový grafický systém pro vytváření a zlepšování map vztahujících se ke třírozměrným modelům, vyznačující se tím, že se skládá z:
    5_ _ _ _ _ modelového..prostředku .pro .uchovávání-^ ..zpracování- dat třírozměrného·- modelu, mapového prostředku pro uchovávání a zpracování doplňkových dat jako mapy zobrazení, prostředku pro vkládání nových doplňkových dat pro vytváření a zlepšování
    1 o mapy zobrazení, prostředku pro testování modelových dat vzhledem k novým doplňkovým datům pro určení těch výlučných modelových dat, která přijmou nová doplňková data, a prostředku pro transformaci výlučných modelových dat do pozic dat a 15 souhlasné uložení nových doplňkových dat.
  2. 2. Systém podle nároku 1, vyznačující se tím, že prostředkem pro vkládání dat je štětec.
    2 0
  3. 3. Systém podle nároku 1, vyznačující se tím, že doplňková data jsou texturovými daty.
  4. 4. Systém podle nároku 1, vyznačující se tím, že prostředek pro testování zahrnuje prostředek pro transformaci dat třírozměrného modelu do prostoru
    2 5 nových doplňkových dat pro určení výlučných dat třírozměrného modelu.
  5. 5. Systém podle nároku 4, vyznačující se tím, že prostředek pro transformaci zahrnuje prostředek pro transformaci výlučných dat třírozměrného modelu do prostoru doplňkových dat tak, aby vznikla data pozice mapy, prostředek pro
    30 testování dat pozice mapy na viditelnost na obrázku tak, aby se určily viditelné pozice mapy, a prostředek pro přimíšení viditelných nových dat do mapového prostředku v určených viditelných pozicích mapy.
    •18:
    // -//
    US-169
  6. 6. Systém podle nároku 1, vyznačující se tím, že modelový prostředek uchovává a zpracovává data třírozměrného modelu ve formě polygonů.
    -»7. - Systém^podle^nároku^4-r=vyznačující-~se~tím,---že--mapový—prostředek uchovává a zpracovává mapová data ve formě dvourozměrných texturových prvků.
    8. Systém podle nároku 7, vyznačující se tím, že prostředek pro testování 10 zahrnuje prostředek pro transformaci třírozměrných polygonů na dvourozměrné obrazové prvky (pixely).
    9. Systém podle nároku 8, vyznačující se tím, že prostředek pro transformaci zahrnuje prostředek pro transformaci polygonů výlučných dat třírozměrného
    15 modelu na data dvourozměrné mapy a konverzní prostředek pro rozklad dat dvourozměrné mapy skenováním pro výběrové uložení nových doplňkových dat.
    10. Systém podle nároku 9, vyznačující se tím, že prostředek pro konverzi skenováním, který vztahuje data dvourozměrné mapy k datům modelu pro
    2 0 nalezení výlučného pixelu, zahrnuje prostředek pro transformaci výlučného pixelu do prostoru obrazovky pro otestování pixelu na viditelnost na obrázku a prostředek pro přimíšení jistých z nových doplňkových dat do mapového prostředku.
    25 11. Způsob pro vytváření a zlepšování doplňkových dat, která jsou uložena pro použití spolu s třírozměrnými daty při vytváření grafických obrázků, vyznačující se tím, že se skládá z kroků:
    uchovávání třírozměrných dat, která reprezentují grafický obrázek, uchovávání doplňkových dat, která souvisí s třírozměrnými daty pro grafický
    30 obrázek, vložení nových doplňkových dat pro zlepšení doplňkových dat, ·· ··
    TK K-TSZ--9S• ·· ·· ···· *· : : : : .* us-i69 • · ·· ···· • · · · · ··· ·· ·· · testování třírozměrných dat ve vztahu k novým doplňkovým datům na určení výlučných třírozměrných dat, která přijmou nová doplňková data zlepšující doplňková data, a transformace výlučných třírozměrných dat do určitých pozic dat a 5 souhlasné uložení.no.vých.doplňkových dat, _
  7. 7/-/2 -
CZ972732A 1995-03-02 1996-02-15 Počítačový grafický systém pro vytváření a zlepšování map, vztahujících se ke třírozměrným modelům CZ273297A3 (cs)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US39816895A 1995-03-02 1995-03-02

Publications (1)

Publication Number Publication Date
CZ273297A3 true CZ273297A3 (cs) 1998-06-17

Family

ID=23574266

Family Applications (1)

Application Number Title Priority Date Filing Date
CZ972732A CZ273297A3 (cs) 1995-03-02 1996-02-15 Počítačový grafický systém pro vytváření a zlepšování map, vztahujících se ke třírozměrným modelům

Country Status (11)

Country Link
US (1) US5838331A (cs)
EP (1) EP0812447B1 (cs)
JP (1) JPH11511875A (cs)
KR (1) KR100415474B1 (cs)
CN (1) CN1182491A (cs)
AT (1) ATE268031T1 (cs)
AU (1) AU4985096A (cs)
CA (1) CA2214433A1 (cs)
CZ (1) CZ273297A3 (cs)
DE (1) DE69632578T2 (cs)
WO (1) WO1996027169A1 (cs)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6786420B1 (en) 1997-07-15 2004-09-07 Silverbrook Research Pty. Ltd. Data distribution mechanism in the form of ink dots on cards
JP2937937B2 (ja) * 1997-04-21 1999-08-23 核燃料サイクル開発機構 三次元オブジェクトデータ処理方法
US6618117B2 (en) 1997-07-12 2003-09-09 Silverbrook Research Pty Ltd Image sensing apparatus including a microcontroller
US6803989B2 (en) 1997-07-15 2004-10-12 Silverbrook Research Pty Ltd Image printing apparatus including a microcontroller
US6985207B2 (en) 1997-07-15 2006-01-10 Silverbrook Research Pty Ltd Photographic prints having magnetically recordable media
US6879341B1 (en) 1997-07-15 2005-04-12 Silverbrook Research Pty Ltd Digital camera system containing a VLIW vector processor
AUPO850597A0 (en) 1997-08-11 1997-09-04 Silverbrook Research Pty Ltd Image processing method and apparatus (art01a)
US20040119829A1 (en) 1997-07-15 2004-06-24 Silverbrook Research Pty Ltd Printhead assembly for a print on demand digital camera system
US7110024B1 (en) 1997-07-15 2006-09-19 Silverbrook Research Pty Ltd Digital camera system having motion deblurring means
US6624848B1 (en) 1997-07-15 2003-09-23 Silverbrook Research Pty Ltd Cascading image modification using multiple digital cameras incorporating image processing
US6690419B1 (en) 1997-07-15 2004-02-10 Silverbrook Research Pty Ltd Utilising eye detection methods for image processing in a digital image camera
US7705891B2 (en) 1997-07-15 2010-04-27 Silverbrook Research Pty Ltd Correction of distortions in digital images
US6486886B1 (en) * 1997-07-15 2002-11-26 Silverbrook Research Pty Ltd Bump map compositing for simulated digital painting effects
AUPO802797A0 (en) 1997-07-15 1997-08-07 Silverbrook Research Pty Ltd Image processing method and apparatus (ART54)
US6268865B1 (en) * 1998-01-13 2001-07-31 Disney Enterprises, Inc. Method and apparatus for three-dimensional painting
AUPP702098A0 (en) 1998-11-09 1998-12-03 Silverbrook Research Pty Ltd Image creation method and apparatus (ART73)
US6456287B1 (en) * 1999-02-03 2002-09-24 Isurftv Method and apparatus for 3D model creation based on 2D images
KR100444778B1 (ko) * 1999-02-05 2004-08-18 삼성전자주식회사 영상 텍스쳐 추출 방법 및 그 장치
AUPQ056099A0 (en) 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (pprint01)
US6792605B1 (en) 1999-06-10 2004-09-14 Bow Street Software, Inc. Method and apparatus for providing web based services using an XML Runtime model to store state session data
US6560633B1 (en) 1999-06-10 2003-05-06 Bow Street Software, Inc. Method for creating network services by transforming an XML runtime model in response to an iterative input process
US6456291B1 (en) * 1999-12-09 2002-09-24 Ati International Srl Method and apparatus for multi-pass texture mapping
DE60137660D1 (de) * 2000-03-17 2009-04-02 Panasonic Corp Kartenanzeige- und Navigationsvorrichtung
GB0007974D0 (en) * 2000-04-01 2000-05-17 Discreet Logic Inc Processing image data
US6667746B1 (en) * 2000-09-26 2003-12-23 Ati International, Srl Pre-blending textures
US6917842B2 (en) * 2001-02-20 2005-07-12 Canon Kabushiki Kaisha Information processing apparatus and method
US6825838B2 (en) * 2002-10-11 2004-11-30 Sonocine, Inc. 3D modeling system
JP2004252603A (ja) * 2003-02-18 2004-09-09 Canon Inc 三次元データ処理方法
US20050017982A1 (en) * 2003-07-23 2005-01-27 Kane Francis James Dynamic imposter generation with MIP map anti-aliasing
US7151545B2 (en) * 2003-08-06 2006-12-19 Landmark Graphics Corporation System and method for applying accurate three-dimensional volume textures to arbitrary triangulated surfaces
AU2006313491B2 (en) * 2005-11-08 2011-01-06 Astellas Pharma Inc. Compositions and methods for treating thrombocytopenia
US7616218B1 (en) 2005-12-05 2009-11-10 Nvidia Corporation Apparatus, system, and method for clipping graphics primitives
US7439988B1 (en) * 2005-12-05 2008-10-21 Nvidia Corporation Apparatus, system, and method for clipping graphics primitives with respect to a clipping plane
US7714877B1 (en) 2005-12-19 2010-05-11 Nvidia Corporation Apparatus, system, and method for determining clipping distances
US7420572B1 (en) 2005-12-19 2008-09-02 Nvidia Corporation Apparatus, system, and method for clipping graphics primitives with accelerated context switching
US8564590B2 (en) * 2007-06-29 2013-10-22 Microsoft Corporation Imparting three-dimensional characteristics in a two-dimensional space
US9858245B2 (en) * 2013-01-28 2018-01-02 The Boeing Company Panoptic visualization of elements of a complex system using a model viewer
KR101435325B1 (ko) * 2013-04-10 2014-08-27 한국과학기술원 깊이 맵 생성 방법 및 장치
WO2016103067A1 (en) * 2014-12-22 2016-06-30 Husqvarna Ab Garden mapping and planning via robotic vehicle
CN105488840B (zh) * 2015-11-26 2019-04-23 联想(北京)有限公司 一种信息处理方法及电子设备

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4514818A (en) * 1980-12-04 1985-04-30 Quantel Limited Video image creation system which simulates drafting tool
GB2140257B (en) * 1980-12-04 1985-09-18 Quantel Ltd Video image creation
US4602286A (en) * 1982-01-15 1986-07-22 Quantel Limited Video processing for composite images
GB2157122B (en) * 1982-01-15 1986-09-24 Quantel Ltd Image composition system
US4646251A (en) * 1985-10-03 1987-02-24 Evans & Sutherland Computer Corporation Computer graphics, parametric patch parallel subdivision processor
US4855934A (en) * 1986-10-03 1989-08-08 Evans & Sutherland Computer Corporation System for texturing computer graphics images
US5251160A (en) * 1988-02-23 1993-10-05 Evans & Sutherland Computer Corporation System for blending surfaces in geometric modeling
US5038223A (en) * 1988-02-29 1991-08-06 Canon Kabushiki Kaisha Image processing method and apparatus for imparting a pictorial or painter-like effect
US5245432A (en) * 1989-07-31 1993-09-14 Imageware Research And Development Inc. Apparatus and method for transforming a digitized signal of an image to incorporate an airbrush effect
US5255352A (en) * 1989-08-03 1993-10-19 Computer Design, Inc. Mapping of two-dimensional surface detail on three-dimensional surfaces
US5192208A (en) * 1989-08-21 1993-03-09 General Electric Company Radar simulation for use with a visual simulator
US5237647A (en) * 1989-09-15 1993-08-17 Massachusetts Institute Of Technology Computer aided drawing in three dimensions
US5155813A (en) * 1990-01-08 1992-10-13 Wang Laboratories, Inc. Computer apparatus for brush styled writing
GB9008946D0 (en) * 1990-04-20 1990-06-20 Crosfield Electronics Ltd Image processing apparatus
US5179638A (en) * 1990-04-26 1993-01-12 Honeywell Inc. Method and apparatus for generating a texture mapped perspective view
US5233684A (en) * 1990-06-26 1993-08-03 Digital Equipment Corporation Method and apparatus for mapping a digital color image from a first color space to a second color space
US5566283A (en) * 1990-09-03 1996-10-15 Dainippon Printing Co., Ltd. Computer graphic image storage, conversion and generating apparatus
US5504845A (en) * 1990-09-10 1996-04-02 Modacad, Inc. Method for remodeling and rendering three-dimensional surfaces
US5307452A (en) * 1990-09-21 1994-04-26 Pixar Method and apparatus for creating, manipulating and displaying images
US5315709A (en) * 1990-12-03 1994-05-24 Bachman Information Systems, Inc. Method and apparatus for transforming objects in data models
US5230039A (en) * 1991-02-19 1993-07-20 Silicon Graphics, Inc. Texture range controls for improved texture mapping
JP3082289B2 (ja) * 1991-05-14 2000-08-28 富士ゼロックス株式会社 画像処理装置
US5325473A (en) * 1991-10-11 1994-06-28 The Walt Disney Company Apparatus and method for projection upon a three-dimensional object
US5469536A (en) * 1992-02-25 1995-11-21 Imageware Software, Inc. Image editing system including masking capability
US5469535A (en) * 1992-05-04 1995-11-21 Midway Manufacturing Company Three-dimensional, texture mapping display system
US5359526A (en) * 1993-02-04 1994-10-25 Hughes Training, Inc. Terrain and culture generation system and method
US5471572A (en) * 1993-07-09 1995-11-28 Silicon Graphics, Inc. System and method for adding detail to texture imagery in computer generated interactive graphics
US5490240A (en) * 1993-07-09 1996-02-06 Silicon Graphics, Inc. System and method of generating interactive computer graphic images incorporating three dimensional textures
US5550960A (en) * 1993-08-02 1996-08-27 Sun Microsystems, Inc. Method and apparatus for performing dynamic texture mapping for complex surfaces
US5566284A (en) * 1993-12-22 1996-10-15 Matsushita Electric Industrial Co., Ltd. Apparatus and method for mip-map generation using low-pass filtering based on resolution ratio
US5592597A (en) * 1994-02-14 1997-01-07 Parametric Technology Corporation Real-time image generation system for simulating physical paint, drawing media, and feature modeling with 3-D graphics

Also Published As

Publication number Publication date
WO1996027169A1 (en) 1996-09-06
EP0812447A1 (en) 1997-12-17
AU4985096A (en) 1996-09-18
EP0812447B1 (en) 2004-05-26
JPH11511875A (ja) 1999-10-12
CN1182491A (zh) 1998-05-20
EP0812447A4 (en) 1998-07-15
ATE268031T1 (de) 2004-06-15
KR100415474B1 (ko) 2004-03-18
US5838331A (en) 1998-11-17
DE69632578T2 (de) 2005-06-09
DE69632578D1 (de) 2004-07-01
KR19980702692A (ko) 1998-08-05
CA2214433A1 (en) 1996-09-06

Similar Documents

Publication Publication Date Title
CZ273297A3 (cs) Počítačový grafický systém pro vytváření a zlepšování map, vztahujících se ke třírozměrným modelům
US5592597A (en) Real-time image generation system for simulating physical paint, drawing media, and feature modeling with 3-D graphics
US7446778B2 (en) Dynamically adjusted brush for direct paint systems on parameterized multi-dimensional surfaces
US7310102B2 (en) System and method for applying accurate three-dimensional volume textures to arbitrary triangulated surfaces
US6226003B1 (en) Method for rendering silhouette and true edges of 3-D line drawings with occlusion
JPH0757117A (ja) テクスチャマップへの索引を生成する方法及びコンピュータ制御表示システム
US5926182A (en) Efficient rendering utilizing user defined shields and windows
US20090153555A1 (en) System and Computer-Implemented Method for Modeling the Three-Dimensional Shape of An Object by Shading of a Two-Dimensional Image of the Object
Schneider et al. Real-time rendering of complex vector data on 3d terrain models
CN113593027B (zh) 一种三维航电显控界面装置
US7012614B2 (en) Texture roaming via dimension elevation
Darsa et al. Walkthroughs of complex environments using image-based simplification
Hormann et al. A quadrilateral rendering primitive
López et al. An efficient GPU approach for designing 3D cultural heritage information systems
US6924805B2 (en) System and method for image-based rendering with proxy surface animation
JP2003504697A (ja) 副標本化テクスチャ端縁部のアンチエイリアシング
Feibush et al. Texture rendering system for architectural design
Hüttner et al. FlyAway: a 3D terrain visualization system using multiresolution principles
JP4138018B2 (ja) 物体の2次元画像のシェーディングにより物体の3次元形状をモデル化するシステムおよびコンピュータによるその実現方法
Bornik et al. Texture Minification using Quad-trees and Fipmaps.
CA2307356A1 (en) Texturing apparatus and method therefor
Johnson et al. Accelerated Visualization of Large-Scale Time-Varying Material Simulations Using Programmable Graphics Hardware

Legal Events

Date Code Title Description
PD00 Pending as of 2000-06-30 in czech republic