DE10246122B4 - Method and device for displaying a computer-modeled article - Google Patents

Method and device for displaying a computer-modeled article Download PDF

Info

Publication number
DE10246122B4
DE10246122B4 DE2002146122 DE10246122A DE10246122B4 DE 10246122 B4 DE10246122 B4 DE 10246122B4 DE 2002146122 DE2002146122 DE 2002146122 DE 10246122 A DE10246122 A DE 10246122A DE 10246122 B4 DE10246122 B4 DE 10246122B4
Authority
DE
Germany
Prior art keywords
textures
parameters
index
determined
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn - After Issue
Application number
DE2002146122
Other languages
German (de)
Other versions
DE10246122A1 (en
Inventor
Andreas Dipl.-Math. Reich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE2002146122 priority Critical patent/DE10246122B4/en
Publication of DE10246122A1 publication Critical patent/DE10246122A1/en
Application granted granted Critical
Publication of DE10246122B4 publication Critical patent/DE10246122B4/en
Anticipated expiration legal-status Critical
Withdrawn - After Issue legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computational Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Verfahren zur Darstellung eines computermodellierten Gegenstands, das einen Preprocessing- und einen Visualisierungsschritt umfasst, dadurch gekennzeichnet, dass in dem Preprocessingschritt Parameter, in Form von Texturen der Oberflächenpunkte, für zumindest einen Teil zumindest einer Oberfläche des darzustellenden Gegenstands (H) mittels eines Raytracingverfahrens ermittelt und in ein Parameterfeld abgelegt werden, wobei die Parameter für jeden Teil der mindestens einen Oberfläche für unterschiedliche Perspektiven der Betrachtung bestimmt werden, und dass in dem Visualisierungsschritt mindestens eine Betrachtungsperspektive ausgewählt wird und mittels der für diese Perspektive bestimmten Parameter eine Echtzeitdarstellung des Gegenstandes erfolgt, wobei die Betrachtungsperspektive über einen Rotationswinkel (θ, ψ) um einen Fixpunkt (F) in dem darzustellenden Gegenstand (H) bestimmt wird.method to depict a computer modeled object having a Preprocessing and a visualization step includes, thereby characterized in that in the preprocessing step parameters, in form of surface point texture, for at least one Part of at least one surface of the item to be displayed (H) by means of a ray tracing method determined and stored in a parameter field, the parameters for each Part of the at least one surface for different Perspectives of viewing are determined, and that in the visualization step at least one viewing perspective is selected and by means of for this Perspective certain parameters a real-time representation of the object takes place, wherein the viewing perspective over a rotation angle (θ, ψ) by one Fixed point (F) in the object to be displayed (H) is determined.

Figure 00000001
Figure 00000001

Description

Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Darstellung eines computermodellierten Gegenstands, insbesondere zur Darstellung eines virtuellen Prototypen von Produkten.The The present invention relates to a method and an apparatus to illustrate a computer-modeled article, in particular to represent a virtual prototype of products.

Bei der Entwicklung neuer Produkte, insbesondere bei der Entwicklung neuer Kraftfahrzeugkomponenten, ist es in der Entwicklungsphase notwendig, einen Prototypen zu erzeugen. Anhand des Prototypen sollen insbesondere Designaspekte beurteilt werden können. Zudem sollen die sich oft widersprechenden Anforderungen von Technik, Gesetz und Design aufeinander abgestimmt werden. Da die Entwicklungszeiträume immer kürzer werden, hat es sich bewährt, anstelle der Herstellung von Prototypen sogenannte virtuelle Prototypen zu verwenden. Diese virtuellen Prototypen können für die Unterstützung des Entwicklungsprozesses, aber auch für die Entscheidungsfindung bei der Wahl zwischen verschiedenen Designs verwendet werden.at the development of new products, especially in development new automotive components, it is in the development phase necessary to produce a prototype. Based on the prototype especially design aspects can be assessed. In addition, the should often conflicting requirements of technology, law and design be coordinated with each other. Because the development periods always shorter be, it has proven instead of producing prototypes so-called virtual prototypes to use. These virtual prototypes can be used to support the Development process, but also for decision-making to be used in choosing between different designs.

Die virtuellen Prototypen müssen die Anforderung erfüllen, eine photorealistische Visualisierung des Produkts zu geben, die etwa die gleiche Beurteilungsbasis wie ein tatsächlicher Prototyp liefert.The virtual prototypes need fulfill the requirement to give a photorealistic visualization of the product that about the same assessment base as an actual prototype provides.

Als eine Visualisierungsmethode ist beispielsweise das Z-Bufferverfahren bekannt. Bei diesem Verfahren werden die einzelnen Geometriepartikel des Produkts (in der Regel Dreiecke) auf eine Kameraebene abgebildet und jeweils deren Abstand zu der Ebene abgespeichert. Es kann nun in jedem Punkt leicht bestimmt werden, welches Partikel am nächsten zur Kameraebene liegt. Die Farbe dieses Partikels wird in diesem Punkt dargestellt. Im Falle von transparenten Objekten wird neben dem vorderen transparenten Flächenstück auch die dahinterliegende Geometrie in abgeschwächter Form dargestellt.When A visualization method is, for example, the Z-buffer method known. In this process, the individual geometry particles of the product (usually triangles) on a camera level and each stored their distance to the plane. It can now be easily determined at each point, which particle closest to Camera level is. The color of this particle is shown in this point. In the case of transparent objects will be next to the front transparent Surface piece also the underlying geometry shown in a weakened form.

Ein Verfahren zum Texturieren von 3D-Bildern ist in der EP 725 366 A2 beschrieben. Bei diesem als MIP-Mapping bezeichneten Verfahren wird ein 3D-Bild zur Anzeige auf einem Bildschirm texturiert, indem für bestimmte Positionen auf dem Bildschirm Textur-Bilddaten aus einem Speicher entsprechend der Bilddaten entnommen wird und ein geeigneter Teil der Textur-Bilddaten an der Position des Bildschirms abgebildet wird. Mit dem beschriebenen MIP-Mapping Verfahren kann der Betrachtungswinkel, den ein Betrachter zu dem anzuzeigenden Gegenstand hat nicht berücksichtigt werden.A method of texturing 3D images is in the EP 725 366 A2 described. In this method, called MIP mapping, a 3D image is textured for display on a screen by taking texture image data from a memory corresponding to the image data for certain positions on the screen and a suitable part of the texture image data at the position of the image Screen is displayed. With the described MIP mapping method, the viewing angle which a viewer has to the item to be displayed can not be taken into account.

Weiterhin ist in dem Artikel „Texture extraction from photographs and rendering with dynamic texture mapping" von Genc,S. und Atalay, V. (Proc. Int. Conference on Image Analysis and Processing, 1999, Seite 1055-1058) ein Verfahren zur Darstellung eines Gegenstandes beschrieben, wobei die Texturen der Oberfläche aus Bildern extrahiert werden, die aus unterschiedlichen Winkeln zu dem Gegenstand aufgenommen wurden. Hierbei muss eine große Anzahl von Bildern bezüglich der Textur an der Oberfläche extrahiert werden, um eine fotorealistische Wiedergabe des Gegenstandes zu erzeugen.Farther is in the article "Texture extraction from photographs and rendering with dynamic texture mapping "by Genc, S. and Atalay, V. (Proc. Int. Conference on Image Analysis and Processing, 1999, pages 1055-1058) discloses a method of displaying an article described, with the textures of the surface extracted from images are picked up from different angles to the object were. This must be a big one Number of pictures with respect to the texture on the surface be extracted to a photo-realistic rendering of the object to create.

Z-Bufferalgorithmen sind sehr einfach aufgebaut und können fest in einer Grafikhardware implementiert werden. Die daraus resultierende Geschwindigkeit ermöglicht es, große Datenmengen in Echtzeit darzustellen. Allerdings wird bei diesem Verfahren jedes Geometriepartikel isoliert von der Umgebung betrachtet, so dass in reflektierenden Objekten die Umgebung nicht realistisch dargestellt werden kann. Mit Hilfe sogenannter Environmentmaps kann der Eindruck von reflektierenden Oberflächen erzeugt werden. Um den darzustellenden Oberflächenpunkt wird dabei eine Sphäre gelegt, auf der eine Textur die zu reflektierende Umgebung darstellt. Der Sichtstrahl des Betrachters zum Oberflächenpunkt wird an der Oberfläche gespiegelt und der entsprechende Farbpunkt auf der Sphäre kennzeichnet den im Oberflächenpunkt sichtbaren Farbwert. Durch die Verwendung von Environmentmaps scheint sich zwar etwas in der Oberfläche zu spiegeln, Umgebungselemente sind durch diese Technik aber nicht sichtbar. Neben der mangelnden Darstellung von Reflektionen sind Refraktionen – die Brechung des Lichtstrahls in einem teiltransparenten Objekt – nicht möglich.Z-buffer algorithms are very simple and can be fixed in a graphics hardware be implemented. The resulting speed makes it possible size Display data volumes in real time. However, this is going on Method considered each geometry particle isolated from the environment, so that in reflective objects the environment is not realistic can be represented. With the help of so-called environment maps can the impression of reflective surfaces are generated. To the surface point to be displayed becomes a sphere on which a texture represents the environment to be reflected. The viewing beam of the observer to the surface point is mirrored on the surface and the corresponding color point on the sphere marks that in the surface point visible color value. By the use of environment maps seems something in the surface but environment elements are not visible, noticeable. In addition to the lack of representation of reflections are refractions - the refraction of the light beam in a semi-transparent object - not possible.

Neben dem Z-Bufferverfahren ist als weitere Visualisierungsmethode das sogenannte Raytracingverfahren bekannt. Das Raytracingverfahren verfolgt einen vollständig anderen Ansatz. Ausgehend von einem Betrachter werden Strahlen in den Raum geschickt. Trifft der Strahl auf eine Oberfläche auf, so wird er, je nach Oberflächeneigenschaften, diffus gestreut, reflektiert, oder aber er tritt refraktiv in das Objekt ein. Eine Kombination der drei Möglichkeiten ist vorstellbar. In diesem Fall wird der Strahl in mehrere Strahlen aufgeteilt, einer wird an der Oberfläche reflektiert, der zweite tritt unter Beachtung eines Brechungsindex in das Objekt ein. Die jeweils neu erzeugten Strahlen werden weiter verfolgt und eventuell erneut reflektiert oder innerhalb anderer Objekte gebrochen. Der Farbwert, des Oberflächenpunkts ist die gewichtete Mischung der Farbwerte der beiden Strahlen sowie der Oberflächenfarbe an diesem Punkt.Next The Z-buffer method is another visualization method so-called raytracing known. The raytracing method follows a completely different approach. Starting from a viewer, rays are in sent the room. If the beam strikes a surface, so will he, depending on the surface properties, diffused, reflected, or refractively enters Object. A combination of the three possibilities is conceivable. In this case, the beam is split into several beams, one becomes on the surface the second occurs considering a refractive index into the object. The newly generated beams will continue tracked and possibly reflected again or within other objects Broken. The color value of the surface point is the weighted one Mixture of the color values of the two rays and the surface color at this point.

Die Datenstruktur, die zum Durchführen eines solchen Verfahrens notwendig ist, ist im Vergleich zu der Datenstruktur des Z-Bufferverfahrens wesentlich komplexer. In der Regel wird eine baumartige Datenstruktur benötigt. Aufgrund dieser Komplexität kann dieses Verfahren in der Regel nicht als Hardwarelösung implementiert werden. Die Berechnungszeit kann darüber hinaus, je nach Komplexität der dargestellten Geometrie, sehr lang sein. Allerdings kann mit dieser Methode eine sehr hohe Qualität der Darstellung erzielt werden.The Data structure to perform Such a procedure is necessary in comparison to the Data structure of the Z-buffer method significantly more complex. In the Usually a tree-like data structure is needed. Because of this complexity, this can be Procedures usually can not be implemented as a hardware solution. The calculation time can over it beyond, depending on the complexity the geometry shown, be very long. However, with This method achieves a very high quality of presentation.

Schließlich ist für die aussagekräftige Beurteilung von virtuellen Designmodellen neben der Darstellungsqualität das Darstellungsmedium von großer Bedeutung. Ein mögliches Medium ist die Echtzeitvisualisierung. Hierbei muss zur Gewährleistung des Echtzeitanspruchs als Visualisierungsverfahren das Z-Bufferverfahren verwendet werden. Refraktionen sind allerdings nicht darstellbar und Reflektionen können nur mittels Environmenttexturen angedeutet werden.Finally is for the meaningful Assessment of virtual design models in addition to the presentation quality of the presentation medium of great Importance. A possible Medium is the real-time visualization. This must to ensure the real-time claim as a visualization method, the Z-buffer method be used. However, refractions are not possible and reflections can only indicated by environment textures.

In der Echtzeitvisualisierung werden komplexe Strukturen über Texturen dargestellt, vergleichbar mit Bildern, die auf eine Oberfläche geklebt werden. Dadurch ist es möglich, die Menge der darzustellenden Geometrie zu reduzieren und optische Effekte als planares Abbild darzustellen. Diese Texturen können sehr realistisch wirken, besitzen aber den großen Nachteil, dass diese gerade bei einer dargestellten Tiefenwirkung der Geometrie nur aus der Perspektive, aus der sie aufgenommen wurden, realistisch aussehen. In anderen Perspektiven wirken sie verzerrt und sind nicht verwendbar. Es ist somit nicht möglich, mit Hilfe einer auf eine Ebene projizierten Textur den aktuellen Konstruktionsstand aus Designsicht zu diskutieren.In real-time visualization becomes complex structures over textures shown, similar to pictures glued to a surface become. This makes it possible reduce the amount of geometry to be displayed and optical To present effects as a planar image. These textures can be very Realistic, but have the big disadvantage that this straight in a shown depth effect of the geometry only from the Perspective from which they were taken, look realistic. In other perspectives, they appear distorted and unusable. It is therefore not possible using a texture projected on a plane, the current one Design stand to discuss from design point of view.

Aufgabe der vorliegenden Erfindung ist daher die Bereitstellung eines Verfahrens und einer Vorrichtung zur verzerrungsfreien Darstellung eines Produkts in einer Echtzeitvisualisierung, die eine hohe Interaktivität erlaubt. Insbesondere soll die Darstellung auch dann verzerrungsfrei sein, wenn das Produkt aus unterschiedlichen Perspektiven betrachtet wird. Gleichzeitig soll die Darstellungsqualität hoch sein.task The present invention therefore provides a method and a device for distortion-free display of a product in a real-time visualization that allows high interactivity. In particular, the representation should also be distortion-free, when the product is viewed from different perspectives. At the same time, the quality of the presentation should be high.

Der Erfindung liegt die Erkenntnis zugrunde, dass diese Aufgabe ideal gelöst werden kann durch ein Verfahren und eine Vorrichtung, die die unterschiedlichen möglichen Positionen eines Betrachters bei der Ermittlung der für die Darstellung notwendigen Parameter berücksichtigen.Of the The invention is based on the finding that this task is ideal solved can be through a method and a device that the different potential Positions of an observer in the determination of the representation take into account the necessary parameters.

Die Aufgabe wird daher gelöst durch ein Verfahren zur Darstellung eines computermodellierten Gegenstands, das einen Preprocessing- und einen Visualisierungsschritt umfasst, dadurch gekennzeichnet, dass in dem Preprocessingschritt Parameter für zumindest einen Teil zumindest einer Oberfläche des darzustellenden Gegenstands ermittelt und in ein Parameterfeld abgelegt werden, wobei die Parameter für jeden Teil der mindestens einen Oberfläche für unterschiedliche Perspektiven der Betrachtung bestimmt werden. Hierbei werden die Parameter, die Texturen der Oberflächenpunkte darstellen, mittels eines Raytracingverfahrens ermittelt. Ferner wird in dem Visualisierungsschritt mindestens eine Betrachtungsperspektive ausgewählt und es erfolgt mittels der für diese Perspektive bestimmten Parameter eine Echtzeitdarstellung des Gegenstandes. Dabei wird die Betrachtungsperspektive über einen Rotationswinkel um einen Fixpunkt in dem darzustellenden Gegenstand bestimmt.The Task is therefore solved by a method of displaying a computer-modeled article, which comprises a preprocessing step and a visualization step, characterized in that in the preprocessing step parameters for at least a part of at least one surface of the object to be displayed determined and stored in a parameter field, the parameters for each Part of the at least one surface for different Perspectives of consideration. Here are the Parameters that represent textures of the surface points by means of a ray tracing method. Further, in the visualization step selected at least one viewing perspective and it is done by means of the for this perspective certain parameters a real-time representation of the object. In doing so, the viewing perspective becomes over one Rotation angle around a fixed point in the object to be displayed certainly.

Unter Perspektive der Betrachtung wird im Sinne dieser Erfindung die Position und Orientierung eines Betrachters oder einer Kamera bezüglich des Gegenstands verstanden. Durch die Bestimmung von Parametern für unterschiedliche Perspektiven können in dem Parameterfeld sämtliche Parameter abgelegt werden, die für mögliche Positionen und Blickwinkel eines Betrachters erforderlich sind. Eine Berechnung dieser Parameter während einer Visualisierung kann daher entfallen und eine Echtzeitvisualisierung kann daher ermöglicht werden.Under Perspective of consideration becomes the position in the sense of this invention and orientation of a viewer or a camera with respect to the Understood object. By determining parameters for different ones Perspectives can in the parameter field all Parameters are stored for possible Positions and angles of an observer are required. A calculation of these parameters during a visualization can therefore be omitted and a real-time visualization can therefore allows become.

Unter Parametern werden im Sinne dieser Erfindung Visualisierungsparameter verstanden. Diese Parameter stellen Texturen der Oberflächenpunkte der mindestens einen Oberfläche dar. Die Visualisierungsparameter werden auf der Basis des Raytracingverfahrens ermittelt. Dadurch können auch Reflektionen und Refraktionen innerhalb des Gegenstands korrekt dargestellt werden und die Darstellungsqualität kann deutlich verbessert werden. Die Verwendung des Raytracingverfahrens ist für die Echtzeitvisualisierung nur mit dem erfindungsgemäßen Verfahren möglich. Da die Parameter, insbesondere die Texturen, in einem Preprocessingschritt berechnet werden, beeinflussen die für das Raytracingverfahren notwendigen langen Rechnungszeiten die Echtzeitwirkung nicht. Aus diesem Grund können mit dem erfindungsgemäßen Verfahren auch komplexere Gegenstände, die zumindest teilweise reflektierende oder teildurchsichtige Bestandteile aufweisen, in hoher Qualität in Echtzeit dargestellt werden. Einen solchen Gegenstand stellen beispielsweise Beleuchtungselemente, wie die Heckleuchten eines Kraftfahrzeugs, dar.Under Parameters become visualization parameters in the sense of this invention Understood. These parameters represent textures of the surface points the at least one surface The visualization parameters are based on the raytracing method determined. Thereby can Reflections and refractions within the object are also correct can be displayed and the presentation quality can be significantly improved become. The use of the raytracing method is for real-time visualization only with the method according to the invention possible. Because the parameters, especially the textures, in a Preprocessingschritt are calculated, affect the necessary for the raytracing process long billing times the real-time effect is not. For this reason can with the method according to the invention also more complex objects, the at least partially reflective or partially transparent components exhibit, in high quality be displayed in real time. To put such an object For example, lighting elements such as the tail lights of a Motor vehicle, dar.

Vorzugsweise wird jedem Parameter ein Index zugewiesen, wobei der Index zumindest die Information über die Perspektive der Betrachtung beinhaltet. Durch die Zuweisung von Indices können bei einer späteren Ausgabe der Visualisierungsparameter diejenigen Parameter gemeinsam ausgelesen werden, die für eine bestimmte Betrachtungsperspektive aufgenommen wurden.Preferably each index is assigned an index, the index being at least the information about includes the perspective of viewing. By assignment of indices can at a later Output of visualization parameters those parameters in common be read out for a certain perspective was taken.

In dem Visualisierungsschritt werden daher bevorzugt Parameter aus dem Parameterfeld ausgelesen, wobei eine Betrachtungsperspektive ausgewählt wird und die bezüglich dieser Perspektive bestimmten und abgelegten Parameter ausgelesen werden.In The visualization step is therefore preferred parameters the parameter field, with a viewing perspective selected will and the re This perspective selected and stored parameters are read out become.

Das erfindungsgemäße Verfahren kann in einer Ausführungsform so ausgelegt sein, dass in dem Preprocessingschritt

  • – um den darzustellenden Gegenstand eine Teilsphäre gelegt wird,
  • – diese Teilsphäre in diskreten Schritten in den Höhen- und Breitengraden der Teilsphäre durchlaufen wird,
  • – für jeden diskreten Punkt der Teilsphäre, der sich durch einen diskreten Höhen- und Breitengrad auszeichnet, die Texturen mindestens einer der Oberflächen des Gegenstands bestimmt werden,
  • – diese Texturen mit jeweils einem Index versehen werden, der zumindest den Höhen- und Breitengrad der Teilsphäre, von dem aus diese berechnet wurden, beinhaltet, und
  • – diese indizierten Texturen in ein Texturenfeld abgelegt werden,
  • – und dass in dem Visualisierungsschritt eine Kameraanimation verwendet wird, bei der die Kameraposition um einen in dem Gegenstand befindlichen Fixpunkt gedreht werden kann,
  • – der Rotationswinkel der Kamera ermittelt wird,
  • – aus diesem Rotationswinkel der Index bestimmt wird, mit dem die zu verwendenden Texturen in dem Texturenfeld versehen sind, und
  • – diese Texturen auf die mindestens eine Oberfläche des darzustellenden Gegenstands projiziert werden.
In one embodiment, the method according to the invention can be designed such that in the preprocessing step
  • - a partial sphere is placed around the object to be displayed,
  • - this sub-sphere is traversed in discrete steps in the high and low degrees of the partial sphere,
  • For each discrete point of the sub-sphere characterized by a discrete high and low latitude, the textures of at least one of the surfaces of the object are determined,
  • - these textures are each provided with an index which at least includes the latitude and longitude of the partial sphere from which they were calculated, and
  • - these indexed textures are placed in a texture field,
  • And in that in the visualization step a camera animation is used in which the camera position can be rotated about a fixed point located in the object,
  • - the rotation angle of the camera is determined,
  • From this rotation angle the index is determined, with which the textures to be used are provided in the texture field, and
  • - These textures are projected onto the at least one surface of the object to be displayed.

Die der Erfindung zugrunde liegende Aufgabe wird weiterhin gelöst durch eine Vorrichtung zur Darstellung eines computermodellierten Gegenstands in Echtzeit, die zumindest eine Kameraanimationseinheit, mindestens eine Bestimmungseinheit für Parameter, die eine Berechnungseinheit von Texturen zur Berechnung auf der Basis des Raytracingverfahrens darstellt, mindestens einer Oberfläche des Gegenstands, mindestens eine Indexvergabeeinheit, mindestens eine Speichereinheit für ein Parameterfeld, mindestens eine Kameraeinstellvorrichtung, mindestens eine Indexberechnungseinheit zur Berechnung eines Index aus der Kameraposition, mindestens eine Parameterauswahleinheit und mindestens eine Projiziereinheit umfasst, wobei die Freiheitsgrade der Kamera auf die Rotation um einen Fixpunkt in dem darzustellenden Gegenstand beschränkt sind. Die Einheiten der Vorrichtung können als Vorrichtungen oder als Software-Programm vorliegen. Es ist auch möglich, dass mehrere Einheiten zusammengefasst sind.The The object underlying the invention is further achieved by a device for displaying a computer-modeled article in real time, the at least one camera animation unit, at least a determination unit for Parameters that comprise a calculation unit of textures for calculation represents the basis of the raytracing process, at least one surface of the Item, at least one indexing unit, at least one Storage unit for a parameter field, at least one camera adjustment device, at least an index calculation unit for calculating an index from the Camera position, at least one parameter selection unit and at least a projecting unit, wherein the degrees of freedom of the camera on the rotation around a fixed point in the object to be displayed limited are. The units of the device may be used as devices or available as a software program. It is also possible that several units are summarized.

Die Parameterauswahleinheit kann eine Vergleichseinheit darstellen, in der der aus der Kameraposition berechnete Index mit den in der Indexvergabeeinheit vergebenen Indices verglichen wird.The Parameter selection unit can represent a comparison unit, in the calculated from the camera position index with in the Indexing unit.

Vorzugsweise ist die erfindungsgemäße Vorrichtung mit einer Anzeigevorrichtung verbunden, die einen Monitor oder eine Powerwall darstellt. Über diese Anzeigevorrichtungen können die ermittelten Darstellungen des Gegenstands ausgegeben werden. Zusätzlich ist in der Regel eine Eingabevorrichtung vorgesehen, die beispielsweise eine Tastatur oder ein Touchpad darstellen kann und mittels derer die Betrachtungsposition bzw. die Kameraposition verändert werden kann.Preferably is the device according to the invention connected to a display device which has a monitor or a Powerwall represents. about these display devices can the identified representations of the object are output. additionally usually an input device is provided, for example a keyboard or a touchpad can represent and by means of which the viewing position or the camera position are changed can.

Die erfindungsgemäße Vorrichtung ist zur Ausführung des erfindungsgemäßen Verfahrens geeignet.The inventive device is for execution the method according to the invention suitable.

Merkmale und Details, die im Zusammenhang mit dem erfindungsgemäßen Verfahren beschrieben werden, gelten ebenso für die erfindungsgemäße Vorrichtung und umgekehrt.characteristics and details associated with the method of the invention are described, also apply to the device according to the invention and vice versa.

Die Erfindung soll im Folgenden anhand einer Ausführungsform des Verfahrens an dem Beispiel der Darstellung einer Heckleuchte eines Kraftfahrzeugs erläutert werden. Hierzu wird Bezug auf die Figuren genommen. Es zeigen:The Invention will be described below with reference to an embodiment of the method the example of the representation of a tail light of a motor vehicle explained become. For this reference is made to the figures. Show it:

1: eine schematische Darstellung einer Heckleuchte mit der durch eine Kameraanimation gebildeten Späre um die Heckleuchte; und 1 : a schematic representation of a tail light with the formed by a camera animation Spears around the tail light; and

2: ein Flussdiagramm des Ablaufs einer Ausführungsform des erfindungsgemäßen Verfahrens. 2 : A flow chart of the sequence of an embodiment of the method according to the invention.

Eine Heckleuchte besteht in der Regel im wesentlichen aus den im Folgenden genannten Komponenten: Sie umfasst ein Gehäuse, das reflektierend ausgestaltet ist und in dem Reflektoren eingebettet sind, fünf Lampen, zwei Zusatzlichtscheiben, die über dem Rück-, Brems- und Nebelschlusslicht bzw. über dem Rückfahr- und Blinklicht angeordnet sind, und eine Lichtabschlussscheibe. Zur Darstellung der Heckleuchte wird die Lichtabschlussscheibe als die Oberfläche verwendet, für die die Texturen bestimmt werden bzw. auf die die Texturen projiziert werden.A Tail light usually consists essentially of the below It includes a housing that is designed to be reflective and in which reflectors are embedded, five lamps, two auxiliary lenses, the above the back, Brake and rear fog light or arranged above the reversing and flashing light are, and a Lichtabschlussscheibe. For the representation of the tail light the lens cap is used as the surface for which the Textures are determined or on which the textures are projected.

Erfindungsgemäß werden die Texturen eines jeden Oberflächenpunkts für verschiedene Perspektiven, die der Betrachter einnehmen kann, bestimmt. Hierzu kann, wie in 1 gezeigt, in der Visualisierungssoftware eine Kameraanimation mit einer Kamera K aufgebaut werden, in der in einer Teilsphäre S um die Heckleuchte H, die in 1 nur schematisch angedeutet ist, die Höhen- (h) und Breitengrade (b) der Sphäre systematisch in diskreten Schritten (αi, βj)(i,j) mit αi ∊ [αmin, αmax], i ∊ [0,maxhor] βj ∊ [βmin, βmax], j ∊ [0,maxver]durchlaufen werden. Die Form der Sphäre wird dem darzustellenden Gegenstand angepasst. Bei einer Heckleuchte kann beispielsweise eine Halbkugel ausreichen. Durch das Durchlaufen der verschiedenen Positionen entsteht somit eine Folge von Visualisierungen der Heckleuchte. Diese Visualisierungen werden vorzugsweise auf der Basis des Raytracingverfahrens erhalten, damit Reflektionen und Refraktionen innerhalb der Heckleuchte korrekt dargestellt werden können. Die Visualisierungsdaten erhalten beim Durchlaufen der Höhen- und Breitengrade einen laufenden Index, der zu jeder Höhen- und Breitenposition (αi, βj) innerhalb der Diskretisierung eindeutig eine Textur zuordnet. Nach der Vergabe des Index werden die Texturen aufbereitet, bevor diese in einem Texturfeld abgelegt werden.According to the invention, the textures of each surface point are determined for different perspectives that the viewer can assume. For this, as in 1 shown, in the visualization software, a camera animation with a camera K are constructed, in which in a partial sphere S to the rear light H, which in 1 is indicated only schematically, the height (h) and latitude (b) of the sphere systematically in discrete steps (α i , β j ) (i, j) with α i Ε [α min , α Max ], i ε [0, max hor ] β j Ε [β min , β Max ], j ε [0, max ver ] to go through. The shape of the sphere is adapted to the object to be displayed. For a rear light, for example, a hemisphere may be sufficient. By going through the different positions thus creates a series of visualizations of the tail light. These visualizations are preferably obtained on the basis of the raytracing process so that reflections and refractions within the rear light can be displayed correctly. The visualization data obtained when passing through the high and low degrees of an index running, which uniquely assigns a texture to each height and width position (α i , β j ) within the discretization. After the index has been assigned, the textures are processed before they are placed in a texture field.

Innerhalb des Echtzeitvisualisierungssystems werden die Freiheitsgrade der Kamera auf die Rotation (θ, ψ) um einen Fixpunkt F innerhalb der Heckleuchte eingeschränkt. Dadurch ist gewährleistet, dass der Betrachter nur Positionen einnehmen kann, für die in dem Preprocessingschritt die relevanten Texturen aufgenommen wurden. Bei einer Änderung der Perspektive des Betrachters wird eine Neutexturierung der Lichtabschlussscheibe der Heckleuchte bewirkt. Eine Verzerrung der Darstellung erfolgt hierbei nicht, da für jede mögliche Position des Betrachters die Texturen im Vorfeld ermittelt wurden. Die Entfernung r der Kamera zu dem Fixpunkt ist frei wählbar. Der Qualitätsverlust durch die Skalierung der Textur bei einer Annäherung des Betrachters an die Heckleuchte kann mit Hilfe einer ausreichenden Texturgröße entgegen gewirkt werden.Within of the real time visualization system, the degrees of freedom of the Camera on the rotation (θ, ψ) by one Fixed point F within the tail light restricted. This ensures that that the viewer can only take positions for which the preprocessing step the relevant textures were recorded. In case of a change the perspective of the viewer becomes a re-texturing of the light finishing disc the tail light causes. A distortion of the representation takes place not here, because for every possible one Position of the observer the textures were determined in advance. The distance r of the camera to the fixed point is freely selectable. Of the loss of quality by scaling the texture as the viewer approaches the Tail light can oppose with the help of a sufficient texture size be worked.

Abhängig von dem Rotationswinkel (θ, ψ) der Kamera kann eindeutig die geeignetste Textur mit dem Index index im Texturfeld ermittelt werden und auf die Lichtabschlussscheibe der Heckleuchte projiziert werden. Hierbei wird der Index nach folgender Formel aus dem Rotationswinkel berechnet:

Figure 00090001
wobei αmin und αimax bzw. βmin und βimax die minimalen und maximalen Höhen- bzw. Breitengrade der in dem Preprocessingschritt gewählten Teilsphäre, und maxhor und maxver die maximale Anzahl der diskreten Schritte, die im Preprocessingschritt in horizontaler und vertikaler Richtung durchlaufen wurden, sind.Depending on the rotation angle (θ, ψ) of the camera, the most suitable texture with the index index in the texture field can clearly be determined and projected onto the tail light of the tail light. The index is calculated from the rotation angle using the following formula:
Figure 00090001
where α min and α imax and β min and β imax are the minimum and maximum degrees of latitude or latitude of the partial sphere selected in the preprocessing step, and max hor and max ver are the maximum number of discrete steps in the horizontal and vertical preprocessing steps are gone through.

Die Indizierung der Texturen beginnt mit 0. Insgesamt werden maxhor∙maxver Texturen benötigt, so dass z.B. bei einer Texturauflösung von 512∙512 Pixel und einer vertikalen und horizontalen Auflösung von 25 bzw. 15 etwa 280 MByte Texturspeicher benötigt werden. Dieser kann durch einen ausreichend dimensionierten Grafikspeicher realisiert werden.The indexing of the textures starts with 0. In total, max hor ∙ max ver textures are needed, so that eg with a texture resolution of 512 ∙ 512 pixels and a vertical and horizontal resolution of 25 or 15 about 280 MByte texture memory are needed. This can be realized by a sufficiently sized graphics memory.

Trotz der Rundungsfehler, die durch die Berechnung „Round" entstehen, erscheint der Übergang der Texturen sehr fließend. Die Rundungsfehler sind abhängig von der Diskretisierungsfeinheit der horizontalen und vertikalen Winkelschritte.In spite of the rounding error resulting from the calculation "Round" appears the transition the textures very fluent. The rounding errors are dependent from the discretization fineness of horizontal and vertical Angular steps.

Dieser mögliche Verfahrensablauf, der den Preprocessing und den Visualisierungsschritt umfasst, ist in 2 angedeutet. Es sei bemerkt, dass der Visualisierungsschritt nach dem einmaligen Durchführen des Preprocessingschritts beliebig oft wiederholt werden und so der Gegenstand aus verschiedenen Perspektiven in Echtzeit betrachtet werden kann, ohne eine Verzerrung des dargestellten Gegenstands zu erhalten.This possible procedure, which comprises the preprocessing and the visualization step, is in 2 indicated. It should be noted that the visualization step may be repeated as often as desired once the preprocessing step has been performed, so that the object can be viewed from different perspectives in real time, without resulting in distortion of the illustrated subject matter.

Die Erfindung ist nicht auf das beschriebene Ausführungsbeispiel beschränkt.The Invention is not limited to the embodiment described.

Insbesondere kann die Vergabe der Indizes für die Visualisierungsparameter und die Ermittlung des geeigneten Index für eine bestimmte Perspektive der Betrachtung auch auf andere Weise erfolgen. So können beispielsweise als Indizes in dem Preprocessingschritt die Rotationswinkel der Kamera bezüglich eines Fixpunkts vergeben werden, während die Kamera in der Kameraanimation die Rotationswinkel in Inkrementen durchläuft. In diesem Fall kann die Berechnung des Index im Visualisierungsschritt entfallen und unmittelbar durch den Vergleich der aktuellen Kameraposition im Visualisierungsschritt mit dem Index in dem Texturfeld die geeignete Textur ermittelt werden.Especially can assign the indices for the visualization parameters and the determination of the appropriate index for one certain perspective of consideration also be done in other ways. So, for example as indices in the preprocessing step the rotation angle of the Camera re of a fixed point while the camera is in camera animation the rotation angle passes through in increments. In this case, the Calculation of the index in the visualization step is omitted and immediate the comparison of the current camera position in the visualization step the index in the texture field determines the appropriate texture.

Weiterhin kann bei der Berechnung der Texturen erfindungsgemäß auch ein sogenanntes Beleuchtungsmodell, das auch Shader genannt wird, berücksichtigt werden. Dieser Shader bestimmt für den relevanten Geometriepunkt die Farbe, dargestellt durch einen Rot-Grün-Blau-Wert (RGB-Wert), sowie die Helligkeit des Geometriepunkts. Ansätze, die hierzu existieren, sind beispielsweise das Lambert-, Phong- oder Blinnshading.Farther may according to the invention in the calculation of the textures also so-called illumination model, which is also called shader, considered become. This shader is intended for the relevant geometry point the color, represented by a Red-green-blue value (RGB value), as well as the brightness of the geometry point. Approaches that exist for this purpose are, for example, the Lambert, Phong or Blinnshading.

In der dargestellten und beschriebenen Ausführungsform des Verfahrens wurde davon ausgegangen, dass die Texturen alle auf eine Geometrie, beispielsweise die Lichtabschlussscheibe, projiziert werden. Es ist aber auch möglich jede Textur auf eine eigene Geometrie zu projizieren oder zumindest einige Texturen auf eine und weitere Texturen auf eine andere Geometrie zu projizieren. Durch diese Vorgehensweise kann die Darstellungsqualität noch zusätzlich erhöht werden.In the illustrated and described embodiment of the method has been assumed that the textures all on one geometry, for example the light cap, to be projected. But it is also possible every Texture to project its own geometry or at least some Textures on one and more textures on another geometry to project. By doing so, the display quality can be further increased.

Mit dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung kann somit ein Mittel geschaffen werden, das auf einfache Weise eine sehr verzerrungsarme Darstellung von photorealistischen Heckleuchtentexturen und eine interaktive Designbeurteilung erlaubt. Weiterhin kann der Aufbereitungsprozess größtenteils automatisch erfolgen. Schließlich wird eine freie Interaktion um die zu begutachtende Heckleuchte ermöglicht.With the method according to the invention and the device according to the invention Thus, a means can be created in a simple way a very low-distortion representation of photorealistic rear light textures and an interactive design assessment allowed. Furthermore, the Processing process mostly done automatically. After all becomes a free interaction around the tail light to be inspected allows.

Claims (8)

Verfahren zur Darstellung eines computermodellierten Gegenstands, das einen Preprocessing- und einen Visualisierungsschritt umfasst, dadurch gekennzeichnet, dass in dem Preprocessingschritt Parameter, in Form von Texturen der Oberflächenpunkte, für zumindest einen Teil zumindest einer Oberfläche des darzustellenden Gegenstands (H) mittels eines Raytracingverfahrens ermittelt und in ein Parameterfeld abgelegt werden, wobei die Parameter für jeden Teil der mindestens einen Oberfläche für unterschiedliche Perspektiven der Betrachtung bestimmt werden, und dass in dem Visualisierungsschritt mindestens eine Betrachtungsperspektive ausgewählt wird und mittels der für diese Perspektive bestimmten Parameter eine Echtzeitdarstellung des Gegenstandes erfolgt, wobei die Betrachtungsperspektive über einen Rotationswinkel (θ, ψ) um einen Fixpunkt (F) in dem darzustellenden Gegenstand (H) bestimmt wird.A method for representing a computer-modeled article comprising a Preprocessing- and a visualization step, characterized in that in the Preprocessingschritt parameters, in the form of textures of the surface points, for at least a part of at least one surface of the object to be displayed (H) by means of a Raytracingverfahrens determined and are stored in a parameter field, wherein the parameters for each part of the at least one surface are determined for different perspectives of the view, and that in the visualization step at least one viewing perspective is selected and by means of the parameters determined for this perspective a real-time representation of the object takes place Viewing perspective over a rotation angle (θ, ψ) around a fixed point (F) in the object to be displayed (H) is determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass jedem Parameter ein Index zugewiesen wird, wobei der Index zumindest die Information über die Perspektive der Betrachtung beinhaltet.Method according to claim 1, characterized in that that each parameter is assigned an index, where the index at least the information about includes the perspective of viewing. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass in dem Visualisierungsschritt Parameter aus dem Parameterfeld ausgelesen werden, wobei eine Betrachtungsperspektive ausgewählt wird und die bezüglich dieser Perspektive bestimmten und abgelegten Parameter ausgelesen werden.Method according to one of claims 1 or 2, characterized in the visualization step, parameters from the parameter field be read, with a viewing perspective is selected and the re This perspective selected and stored parameters are read out become. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass in dem Preprocessingschritt – um den darzustellenden Gegenstand eine Teilsphäre (S) gelegt wird, – diese Teilsphäre (S) in diskreten Schritten (αi, βj)(i,j) in den Höhen- (h) und Breitengraden (b) der Teilsphäre (S) durchlaufen wird, – für jeden diskreten Punkt der Teilsphäre (S), der sich durch einen diskreten Höhen- und Breitengrad auszeichnet, die Textu ren mindestens einer der Oberflächen des Gegenstands (H) bestimmt werden, – diese Texturen mit jeweils einem Index versehen werden, der zumindest den Höhen- und Breitengrad der Teilsphäre (S), von dem aus diese berechnet wurden, beinhaltet, und – diese indizierten Texturen in ein Texturenfeld abgelegt werden, – und dass in dem Visualisierungsschritt eine Kameraanimation (K) verwendet wird, bei der die Kameraposition um einen in dem Gegenstand (H) befindlichen Fixpunkt (F) gedreht werden kann, – der Rotationswinkel (θ, ψ) der Kamera ermittelt wird, – aus diesem Rotationswinkel (θ, ψ) der Index bestimmt wird, mit dem die zu verwendenden Texturen in dem Texturenfeld versehen sind und – diese Texturen auf die mindestens eine Oberfläche des darzustellenden Gegenstands (H) projiziert werden.Method according to one of claims 1 to 3, characterized in that in the Preprocessingschritt - around the object to be displayed, a partial sphere (S) is placed, - this partial sphere (S) in discrete steps (α i , β j ) (i, j) in the height (h) and latitudes (b) of the sub-sphere (S), - for each discrete point of the sub-sphere (S) characterized by a discrete height and latitude, the textures of at least one of the surfaces of the Object (H) are determined, - these textures are each provided with an index which at least includes the height and latitude of the partial sphere (S) from which they were calculated, and - these indexed textures are filed in a texture field, - And that in the visualization step, a camera animation (K) is used, in which the camera position can be rotated about a fixed point (F) located in the object (H), - the rotation angle (θ, ψ) of the Kam era is determined - From this rotation angle (θ, ψ), the index is determined, with which the textures to be used in the texture field are provided and - these textures are projected onto the at least one surface of the object to be displayed (H). Vorrichtung zur Darstellung eines computermodellierten Gegenstands (H) in Echtzeit, die zumindest eine Kameraanimationseinheit (K), mindestens eine Bestimmungseinheit für Parameter, die eine Berechnungseinheit von Texturen zur Berechnung auf der Basis des Raytracingverfahrens darstellt, mindestens einer Oberfläche des Gegenstands (H), mindestens eine Indexvergabeeinheit, mindestens eine Speichereinheit für ein Parameterfeld, mindestens eine Kameraeinstellvorrichtung, mindestens eine Indexberechnungseinheit zur Berechnung eines Index aus der Kameraposition (θ, ψ), mindestens eine Parameterauswahleinheit und mindestens eine Projiziereinheit umfasst, wobei die Freiheitsgrade der Kamera auf die Rotation (θ, ψ) um einen Fixpunkt (F) in dem darzustellenden Gegenstand (H) beschränkt sind.Device for displaying a computer-modeled Item (H) in real time, the at least one camera animation unit (K), at least one determination unit for parameters, which is a calculation unit of textures for calculation based on the raytracing method represents at least one surface of the article (H), at least an indexing unit, at least one memory unit for a parameter field, at least one camera setting device, at least one index calculation unit for calculating an index from the camera position (θ, ψ), at least a parameter selection unit and at least one projecting unit includes, wherein the degrees of freedom of the camera on the rotation (θ, ψ) around a fixed point (F) are limited in the item (H) to be displayed. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Parameterauswahleinheit eine Vergleichseinheit darstellt, in der der aus der Kameraposition berechnete Index mit den in der Indexvergabeeinheit vergebenen Indices verglichen wird.Device according to claim 6, characterized in that that the parameter selection unit represents a comparison unit, in the calculated from the camera position index with in the Indexing unit. Vorrichtung nach einem der Ansprüche 6 oder 7, dadurch gekennzeichnet, dass diese mit einer Anzeigevorrichtung verbunden ist, die einen Monitor oder eine Powerwall darstellt.Device according to one of claims 6 or 7, characterized that it is connected to a display device which has a Monitor or a Powerwall represents. Vorrichtung nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass diese zur Ausführung des Verfahrens nach einem der Ansprüche 1 bis 4 geeignet ist.Device according to one of claims 5 to 7, characterized that these are for execution of the method according to any one of claims 1 to 4 is suitable.
DE2002146122 2002-10-01 2002-10-01 Method and device for displaying a computer-modeled article Withdrawn - After Issue DE10246122B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2002146122 DE10246122B4 (en) 2002-10-01 2002-10-01 Method and device for displaying a computer-modeled article

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2002146122 DE10246122B4 (en) 2002-10-01 2002-10-01 Method and device for displaying a computer-modeled article

Publications (2)

Publication Number Publication Date
DE10246122A1 DE10246122A1 (en) 2004-04-15
DE10246122B4 true DE10246122B4 (en) 2006-04-20

Family

ID=32010138

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2002146122 Withdrawn - After Issue DE10246122B4 (en) 2002-10-01 2002-10-01 Method and device for displaying a computer-modeled article

Country Status (1)

Country Link
DE (1) DE10246122B4 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107045561A (en) * 2016-12-26 2017-08-15 中国航空工业集团公司西安飞机设计研究所 A kind of metal ball surface frame and its design method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0725366A2 (en) * 1995-01-31 1996-08-07 Videologic Limited Texturing and shading 3-D images
US20020097906A1 (en) * 2000-11-20 2002-07-25 Nec Corporation Method and apparatus for collating object

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0725366A2 (en) * 1995-01-31 1996-08-07 Videologic Limited Texturing and shading 3-D images
US20020097906A1 (en) * 2000-11-20 2002-07-25 Nec Corporation Method and apparatus for collating object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GENC, S.; ATALAY, V.: Texture extraction from photographs and rendering with dynamic texture mapping. Proc.Int. Conference on Image Analysis and Processing, 1999, S. 1055-1058 *

Also Published As

Publication number Publication date
DE10246122A1 (en) 2004-04-15

Similar Documents

Publication Publication Date Title
DE3854543T2 (en) Priority management of a depth data buffer for real-time computer systems for image generation.
DE68928391T2 (en) Image generator
DE3855231T2 (en) Priority resolution system between polygons with anti-aliasing
EP3178068B1 (en) Method, visualization device, and computer program product for visualizing a three-dimensional object
EP0984397B1 (en) Method and device for elimination of unwanted steps in raster displays
EP1438697A2 (en) Method and device for producing light-microscopy, three-dimensional images
EP0862141A2 (en) Image presentation method and apparatus
EP0789328A2 (en) Picture processing method for displaying reflective objects and device therefor
DE102019005885A1 (en) Area map generation and hole filling
DE102005061590A1 (en) Lighting simulating method for technical lighting system, involves computing color for pixels to represent lighting of scenery and using grey tones for true-color representation or color values for reproduction of lighting
DE10246122B4 (en) Method and device for displaying a computer-modeled article
EP0865002B1 (en) Method and device for displaying computer modelled objects
DE102008016553A1 (en) A method for generating a 3D image of a scene from a 2D image of the scene
DE69826996T2 (en) HEADLIGHT MARKING GENERATION PROCESS AND PICTOR PROCESSOR USE
EP3188131B1 (en) Method and visualisation device for volumetric visualization of a three-dimensional object
AT503743B1 (en) METHOD FOR THE COMPUTER-BASED PRESENTATION OF OBJECTS
DE102015120927A1 (en) Method for displaying a simulation environment
WO2007085482A1 (en) Method for producing and displaying images which can be perceived in three dimensions
EP4068198B1 (en) Method for generating an image of an object, computer program product and imaging system for carrying out the method
DE4209936A1 (en) Terrain image simulation for use in flight simulators - has geographical feature data store in memory which is accessed and processed to provide display views dependent upon position of observer
EP0846309B1 (en) Image processing method for simulating structure in relief, and device for carrying out the method
DE102022213200A1 (en) Method for transmissivity-aware chroma keying
DE10331231B4 (en) Method for transferring depth information into the depth memory of a graphics card for displaying 3D panoramic images
DE102006013860B4 (en) Method and device for generating a spatial representation
DE10237470A1 (en) Method and device for generating light microscopic, three-dimensional images

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
R120 Application withdrawn or ip right abandoned
R120 Application withdrawn or ip right abandoned

Effective date: 20130722