DE3712639A1 - Verfahren und einrichtung zum abbilden von volumendaten - Google Patents

Verfahren und einrichtung zum abbilden von volumendaten

Info

Publication number
DE3712639A1
DE3712639A1 DE19873712639 DE3712639A DE3712639A1 DE 3712639 A1 DE3712639 A1 DE 3712639A1 DE 19873712639 DE19873712639 DE 19873712639 DE 3712639 A DE3712639 A DE 3712639A DE 3712639 A1 DE3712639 A1 DE 3712639A1
Authority
DE
Germany
Prior art keywords
volume
voxel
voxels
image
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19873712639
Other languages
English (en)
Inventor
Robert Drebin
Loren C Carpenter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PIXAR FA
Original Assignee
PIXAR FA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PIXAR FA filed Critical PIXAR FA
Publication of DE3712639A1 publication Critical patent/DE3712639A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

In zahlreichen modernen Anwendungsfällen ist es erwünscht, die dreidimensionale Kohärenz eines interessierenden Volumens oder Objekts zu beobachten. Im Falle der Abbildung realer dreidimensionaler ("3D") Festkörper ist es gewöhnlich nur möglich, diskrete ebene Querschnitte des 3D-Volumens und dessen Inhalt zu betrachten. Es ist typischerweise nicht möglich, 3D-Volumina so zu betrachten, daß Innen- und Objektflächen, Grenzen, Grenzflächen und räumliche Beziehungen innerhalb des Volumens getrennt und visuell identifiziert werden können.
Beispielsweise ist es bei der medizinischen Abbildung sehr erwünscht, anatomische Strukturen durch dreidimensionale Dar­ stellungen auf Computer-Bildschirmsystemen sichtbar machen zu können. Die Fähigkeit, genaue, volumetrische, anatomische Modelle aus computerisierten tomographischen (CT) Abtastungen zu erzeugen, ist als chirurgische Hilfe extrem wertvoll (z. B. zum Anzeigen von Strukturen für die Planung chirurgischer Eingriffe oder zum Anzeigen von Details der anatomischen Struktur ohne die Notwendigkeit zu untersuchenden Eingriffen). Daher liefert die dreidimensionale Abbildung die Form, Größe und relative Position von pathologischen Strukturen und damit wertvolle Daten für die chirurgische Planung, Diagnose und Behandlung.
Die Computersimulation von realen 3D-Volumina hängt von der Möglichkeit zur Rekonstruktion von 3D-Strukturen aus planaren Ausschnittsdaten, z. B. CT-Abtastungen, ab. Diese und andere Abtastungen liefern Daten, aus denen ein 3D-Dichte-Bildvolumen, bestehend aus Volumenelementen (Voxels) als Eingangsdaten für die Bildverarbeitung gewonnen wird. Unglücklicherweise sind solche Eingabe-Bildvolumina typischerweise von geringer Auflösung im Vergleich zu der Detailqualität, die zur genauen Darstellung des abgetasteten Volumens erwünscht ist.
Beispielsweise stellen bestimmte Voxel in einigen CT-Abtast- Bildvolumen die Röntgenstrahldämpfung oder andere Bildvolumen­ daten über das Volumen, einschließlich über die Oberflächen­ grenzdaten dar. Obwohl ein Voxel nur einem einzigen "homogenen" Wert zugeordnet ist, existiert tatsächlich eine Grenze, und es gibt diskrete Materialien auf jeder Seite der Grenze innerhalb des unter Betrachtung stehenden Objekts. Daher ist ein Voxel entlang eines Randes oder einer Kante eine Probe, die sich über beide Seiten der Kante erstreckt. Wenn außerdem ein Material (z. B. ein Knochen) kleiner als die Breite eines Voxels ist, hat das die Grenzinformation über diesen Knochen liefernde Voxel eine sehr geringe Auflösung. Daher ist die Grenzform innerhalb eines Voxels nicht genügend genau be­ stimmt.
Verschiedene Ansätze wurden angewandt in dem Bemühen, Ober­ flächengrenzen in Volumen anzunähern. Eine bekannte Methode ist die "Schwellwertbildung" ("thersholding"). Bei der Schwellwertbildung werden Voxel, welche eine Grenze kreuzen, als zusammengesetzt aus einem oder dem anderen Materialtyp auf jeder Seite der Grenze klassifiziert. Die projizierte sichtbare Grenze wird so die binär klassifizierte Voxelgrenze.
Je größer die Voxel sind, umso größer ist der Fehler, der durch Schwellwertbildung eingeführt wird. Außerdem liefert die Schwellwertmethode für grobe Bilder oder Bilder mit hohen Dichten und eng benachbarten Oberflächengrenzen ein noch schlechteres Ergebnis, so daß die resultierenden Abbildungen immer weniger genau werden. Nachfolgende Annäherungsmethoden werden manchmal in dem Versuch angewendet, eine genauere Annäherung aus dem Schwellwertergebnis zu erhalten. Versuche zur Annäherung der unbekannten Oberfläche geben jedoch Anlaß zu einem weitgehend ungenauen Ergebnis, da diese Annäherungen auf der anfänglichen binären Klassifikation der Voxel beruhen.
Es ist auch sehr erwünscht, alle Daten innerhalb des Volumens gleichzeitig aus ausgewählten stationären oder rotierenden Ansichten sichtbar zu machen. Dies bedeutet, daß man in das Zentrum eines Volumens blickt und Objekte und versteckte Flächen innerhalb des Volumens (und damit innere Grenzen und Flächen) bestimmt. Dafür ist es notwendig, gegebenenfalls durch störende Objekte teilweise durchsehen zu können (z. B. bei einem von Muskeln umgebenen Knochen sowohl den Knochen als auch den den Knochen umgebenden Muskel zu beobachten). Bekannte Methoden zwingen bei der Erzeugung von Volumenelementen zur Durchführung einer binären Entscheidung dahingehend, ob ein Pixel aus einem vorgegebenen Material besteht oder nicht. Eine binäre Klassifikation führt Phantom- (oder Abtast-)Fehler ein, da die kontinuierliche Abbildungsfunktion nicht erhalten wird. Der durch binäre Klassifikation eingeführte Fehler wird bei jedem Versuch zur Rekonstruktion eines ursprünglichen Bildvolumens aus dem klassifizierten Volumen miteingebracht. Da das rekonstruierte Bild nur so viele Intensitätsniveaus haben kann, wie Materialien vorhanden sind, werden die Material­ grenzschichten ausgefranst bzw. gezackt, und die Intensitäten stellen nicht die ursprüngliche Bildfunktion dar.
Das Abbildungssystem nach der Erfindung umfaßt ein Verfahren und eine Einrichtung zum Projizieren einer zweidimensionalen (2D)-Darstellung von dreidimensionalen (3D)-Volumina, wobei Oberflächengrenzen und im Inneren der Volumina gelegene Objekte geeignet gezeigt werden und versteckte Flächen und die Flächengrenzen selbst genau vermittelt werden. Außerdem kann das erzeugte zweidimensionale Bild die gleiche Auflösung wie die Abtastauflösung des interessierenden Eingabe-Bildvolumens haben. Dies wird erreicht durch Implementierungsmethoden zur Bestimmung von "Teilvolumen" von Voxeln. Eine Teilvolumenbildung ordnet ausgewählten Farben und Undurchsichtigkeitsgraden (Opazitäten) unterschiedlichen Materialien (oder Datenkomponenten) zu, die in einem Bilddatenvolumen auf der Basis der prozentualen Zusammensetzung von in jedem Voxel des Bildvolumens dargestellten Materialien dargestellt werden. Anders als bei bekannten Systemen, wie die eine Schwellwertbildung benutzenden Methoden, besitzt das Abbildungsverfahren nach der vorliegenden Erfindung ein hohes Maß an Präzision und Definiertheit, das vom Bildvolumen auf einer Pro-Voxel-Basis unabhängig ist.
Ein Bildvolumen, das ein Volumenobjekt oder eine Datenstruktur darstellt, wird in einen Bildspeicher geschrieben. Eine Farbe oder eine Opazität wird jedem Voxel innerhalb des Volumens zugeordnet und als ein dreidimensionales Rot (R)-, Grün (G)-, Blau (B)- und Opazitäts (A)-Komponenten-Datenvolumen gespeichert. Die RGBA-Zuordnung für jedes Voxel wird auf der Basis einer prozentualen Komponentenzusammensetzung der das Volumen darstellenden Materialien und damit dem Prozentsatz der Farbe und Transparenz (auf der Basis von 100% Bezugsmaterialfarbe und Transparenzwerten) für solche Materialien bestimmt. Solche in dem Bildspeicher für das Komponentenvolumen gespeicherte Voxel werden im folgenden teilweise RGBA-Voxel bezeich­ net.
Als nächstes werden die Voxel im RGBA-Volumen als mathematische "Gele" oder Filter derart verwendet, daß jedes der aufein­ anderfolgenden Voxelfilter über einen vorhergehenden Hintergrund- Voxelfilter gelegt wird. Durch die lineare Interpolation wird ein neues Hintergrundfilter bestimmt und erzeugt. Die Interpolation wird aufeinanderfolgend für alle Voxel (oder Gruppen von Voxeln, z. B. Voxel-Abtastlinien bzw. -zeilen) bis zu dem vordersten Voxel der Sichtebene durchgeführt. Das Verfahren wird solange wiederholt, bis alle Anzeigevoxel für die Bildebene bestimmt sind.
Die Rekonstruktion nach dem erfindungsgemäßen Verfahren sorgt für die 2D-Projektion von Volumina, wobei Objektoberflächen innerhalb eines diskreten Datenvolumens selbst dann detailliert und zur Anzeige gebracht werden können, wenn Oberflächen zuvor wegen grober Bildvolumendaten oder einer niedrigen Abtast­ geschwindigkeit nicht gefunden werden konnten. Die Erfindung erreicht eine Sichtbarmachung von verborgenen Flächen innerhalb des Volumens, so daß alle Oberflächengrenzen deutlich und genau definiert sind.
Daher ist es durch Vorgeben eines diskreten Probendatenvolumens eines komplexen Volumendatensatzes oder Objekts und durch Finden des Prozentsatzes der Zusammensetzung von Komponenten­ materialien für jedes Voxel möglich, komplexe Abbildungen zu schaffen, ohne anfänglich über besondere Informationen zur Grenzlage innerhalb jedes Voxels zu verfügen. Die Erfindung ermöglicht daher das Betrachten von Volumina, ohne ein geometrisches Modell (sondern stattdessen nur ein 3D-Rastervolumen) zu haben, so daß es möglich ist, eine komplexe Projektion des 3D-Volumens unter Verwendung von teilweiser Transparenz und Farben zu erzeugen, die die Charakteristika eines mathematischen "geometrisch-körperlichen Modells" haben kann. Objekte können betrachtet werden, die andere Objekte teilweise abschatten, und räumliche Beziehungen zwischen Objekten können genau vermittelt werden.
Andere Möglichkeiten und Vorteile der Erfindung ergeben sich aus der nachfolgenden genaueren Beschreibung der beigefügten Zeichnung. In der Zeichnung zeigt:
Fig. 1 ein Blockdiagramm zur Veranschaulichung der Architektur der Erfindung;
Fig. 2 ein Blockdiagramm zur Veranschaulichung der Aufteilung des bei der Erfindung verwendeten Bildspeichers;
Fig. 3 ein Blockdiagramm, das die Architektur des bei dem beschriebenen Ausführungsbeispiel verwendeten Kanalprozessors veranschaulicht;
Fig. 4a eine Kurve, welche ein typisches Eingangsdaten­ histogramm veranschaulicht;
Fig. 4b eine Kurve, welche die Klassifizierung eines CT-Eingangsdatenhistogramms veranschaulicht;
Fig. 5 mehrere Voxel, die zur Erzeugung eines zweidimensionalen Bildes bzw. Displays verwendet werden;
Fig. 6 eine Bildrekonstruktion für aufeinanderfolgende Voxel-Abtastzeilen und Schritte; und
Fig. 7 die Berechnung einer projizierten Pixelausgabe auf der Basis der verketteten Filterung.
Die nachfolgende detaillierte Beschreibung wird weitgehend anhand von Algorithmen und symbolischen Darstellungen von Operationen an Datenbits innerhalb eines Computerspeichers durchgeführt. Die algorithmischen Beschreibungen und Dar­ stellungen sind die vom Fachmann auf dem Gebiet der Datenver­ arbeitung angewandten Mittel, um möglichst effektiv die Substanz ihrer Arbeit anderen einschlägigen Fachleuten zu vermitteln.
Ein Algorithmus wird hier wie allgemein als selbstkonsistente Folge von Schritten entwickelt, die zu einem gewünschten Ergebnis führt. Diese Schritte erfordern physikalische Manipulation von physikalischen Größen. Gewöhnlich - wenn auch nicht notwendigerweise - nehmen diese Größen die Form von elektrischen oder magnetischen Signalen an, die gespeichert, übertragen, kombiniert, verglichen oder auf andere Weise verarbeitet werden können. Es erweist sich manchmal als zweckmäßig, und zwar prinzipiell aus Gründen üblicher Praxis, auf diese Signale als Bits, Werte, Elemente, Symbole, Zeichen, Ausdrücke, Zahlen o. dgl. hinzuweisen. Zu beachten ist jedoch, daß alle diese oder ähnliche Ausdrücke geeigneten physikalischen Größen zugeordnet und daher nur zweckmäßige Bezeichnungen für diese Größen sind.
Obwohl Voxel aus Zweckmäßigkeitsgründen noch häufig als drei­ dimensionale Elemente mit einem dreidimensionalen Volumen bezeichnet werden, sollte beachtet werden, daß Voxel Punkte in einem dreidimensionalen Raum definieren.
In der folgenden Beschreibung werden außerdem zahlreiche Einzel­ heiten, wie algorithmische Konventionen, spezielle Bitanzahlen usw. angegeben, um die Erfindung besser verständlich zu machen. Es ist für den Fachmann jedoch klar, daß die Erfindung ohne diese speziellen Einzelheiten realisiert werden kann. In anderen Fällen sind bekannte Schaltungen und Strukturen nicht im einzelnen beschrieben, um die Erfindung nicht mit unnötigen Einzelheiten zu belasten,
Systemarchitektur
Die erfindungsgemäße Systemarchitektur ist in Fig. 1 dargestellt. Bei dem bevorzugten Ausführungsbeispiel enthält das Abbildungssystem einen Host- bzw. Verarbeitungscomputer 10, der mit einem Bit-Abbildungsterminal (bit map terminal) 12 und einem Systembus 14 gekoppelt ist. Der Systembus 14 ist mit einem Kanalprozessor 16, einem Speichersteuergerät 18 und einem Videosteuergerät 20 gekoppelt. Das Speichersteuergerät 18 ist mit dem Kanalprozessor 16 und dem Videosteuergerät 20 sowie mit einem Bildspeicher 26 gekoppelt. Das Videosteuergerät 20 ist mit dem Speicher 26 über einen Videobus 28 gekoppelt. Der Kanalprozessor 16 ist über einen Bildbus 24 mit dem Bildspeicher 26 gekoppelt. Ein Farbmonitor 22 oder eine andere Ausgabevorrichtung ist mit dem Videosteuergerät 20 gekoppelt.
Der Kanalprozessor 16 enthält ein parallel-verarbeitendes Computersystem. Bei dem bevorzugten Ausführungsbeispiel der Erfindung werden vier 16-Bit-Parallelprozessoren im Kanalprozessor verwendet. Obwohl es sich als zweckmäßig erwiesen hat, vier parallele Prozessoren bei der Erfindung zu verwenden, ist es klar, daß eine beliebige Anzahl von Prozessoren ohne Entfernung von dem vorliegenden Erfindungsgedanken verwendet werden kann.
Der Verarbeitungscomputer 10 ist mit einem Bit-Abbildungsterminal 12 verbunden, das eine Vielzahl von dem Benutzer zur Verfügung stehenden Menüs anzeigt. Bei dem bevorzugten Ausführungsbeispiel dient der Verarbeitungscomputer 10 zum Manipu­ lieren des von den im Bildspeicher 26 gespeicherten Bilddaten erzeugten Histogramms. Im Verarbeitungscomputer 10 kann eine Nachschlagetabelle gespeichert werden, die zuvor zugeordnete Farb- und Opazitätswerte für jeden Spitzenintensitätsplatz in einem Histogramm enthält. Zusätzlich kann der Verarbeitungs­ computer 10 zur Anzeige des Histogramms auf dem Bit-Abbildungs­ terminal 12 verwendet werden, so daß der Benutzer definierte Farb- und Opazitätswerte bestimmen kann.
Bei dem beschriebenen Ausführungsbeispiel der Erfindung ist der Systembus 14 ein 16-Bit-Bus, der den Verarbeitungscomputer 10 mit anderen Komponenten des Bildverarbeitungssystems koppelt. Obwohl 16-Bit-Parallelprozessoren bei dem beschriebenen Ausführungsbeispiel verwendet werden, können ebensogut 8-Bit, 32-Bit oder andere Prozessoren zum Einsatz kommen. Daher können anderen Bitgrößen-Systembusse bei Bedarf eingesetzt werden.
Das Videosteuergerät 20 liefert die vertikale und horizontale Synchronisation für die Farbmonitor 22 und weist auch einen Pufferspeicher zur Anzeige von Bildschirmdaten auf. Das Videosteuergerät 20 greift auf den Videobus 28 während der vertikalen Austastperioden zu, um aktualisierte Informationen an den Pufferspeicher zu liefern. Das Videosteuergerät weist einen Digital/Analog-(d/a)-Umsetzer zum Umsetzen von Digitalsignalen in ein für die Anzeige auf dem Monitor 22 geeignetes Videosignal auf. Zusätzlich weist das Steuergerät 20 Nachschlagetabellen für jeden der RGB-Kanäle auf. Das 12-Bit-Digitalwort des roten (R) Kanals wird beispielsweise durch eine Nach­ schlagetabelle ausgegeben, und ein spezieller roter Farbwert wird ausgegeben und auf dem Farbmonitor 22 zur Anzeige gebracht. Wie gesagt, sind Nachschlagetabellen für jeden der Kanäle R, G und B vorgesehen. Das Videosteuergerät 20 wirkt als ein Drei-Wert-Ein/Drei-Wert-Aus-Umsetzer, der Gammakorrek­ turen zuläßt. Der Videobus 28 ist bei dem bevorzugten Ausführungsbeispiel ein in 12-Bit-Einheiten unterteilbarer Bus, der bei bis zu 420 Megabytes pro Sekunde arbeitet. Der Bildbus 24 arbeitet bei dem bevorzugten Ausführungsbeispiel bei 240 Megabytes pro Sekunde.
Der Farbmonitor 22 kann bei der Erfindung irgendein kommerzieller Farbmonitor mit 480 bis 1125 Abtastzeilen sein. Das erfindungsgemäß verwendete System hat die zur Bedienung von Monitoren mit hoher Auflösung und hoher Abtastzeilenzahl bzw. -dichte erforderliche Geschwindigkeit und Befähigung.
Der Bildspeicher 26 ist ein Direktzugriffsspeicher (RAM), der zum Speichern der ursprünglichen Bilddaten ebenso wie von Klassifizierungsdaten, Farb- und Opazitätsdaten und den zusammen­ gesetzten RGBA-Volumendaten benutzt wird. Der Bildspeicher 26 ist im einzelnen in Fig. 2 gezeigt. Wie oben erwähnt, wird jedes Voxel durch vier 12-Bit-Digitalworte dargestellt. Ein Teil des Speichers, der Ursprungsvolumenspeicher 26 a, speichert die Daten in ihrer ursprünglichen Form. Bei dem bevorzugten Ausführungsbeispiel sind angenähert 40 Millionen Bits zum Speichern von Ursprungsdaten vorgesehen. Die Ursprungs­ bildvolumendaten werden als Folge von 12-Bit-Worten gespeichert, wobei jedes Wort den Intensitätspegel eines Wortes des ursprünglichen Voxelvolumens darstellt. Die RGBA-Volumen werden nach ihrer Erzeugung im RGBA-Volumenspeicher 26 b gespeichert. Jeder Farbwert wird durch ein 12-Bit-Wort dargestellt, und der Opazitätswert A wird ebenfalls durch ein 12-Bit-Wort dargestellt. Bei dem bevorzugten Ausführungsbeispiel der Erfindung sind dem RGBA-Volumenspeicher 26 b 160 Millionen Speicherbits zugeordnet. Die zusammengesetzten Voxel werden in dem zweidimensionalen Projektionsspeicher 26 d gespeichert. Wie zuvor erwähnt, werden die Kombinationsvoxel aus einer Verkettung von verschiedenen Abtastzeilen der RGBA-Volumendaten erzeugt. Der Bildspeicher 26 weist auch einen temporären Arbeits­ raumspeicher 26 c auf. Obwohl die Anzahl von Bits in den verschiedenen Teilen des Bildspeichers 26 für das beschriebene Ausführungsbeispiel angegeben wurde, ist es für den Fachmann klar, daß jede geeignete Anzahl von Speicherbits bei der Realisierung der vorliegenden Erfindung verwendet werden kann.
Im folgenden wird wiederum auf Fig. 1 Bezug genommen. Das Speichersteuergerät 18 dient zur Bestimmung aller Zugriffe zum Bildspeicher 26. Das Speichersteuergerät 18 ermöglicht das Schreiben von Daten über den Bildbus 24 in den Bildspeicher 26.
Ein Kanalprozessor 16 dient zur Erzeugung des Histogramms, aus dem Klassifikationen der Voxel gemacht werden. Der Kanalprozessor 16 ist im einzelnen in Fig. 3 gezeigt und weist einen Zwischenspeicher 17 und vier Multiplizierer/arithmetische Logikeinheiten (ALU) 15 a bis 15 d auf. Bei dem bevorzugten Ausführungsbeispiel enthält der Zwischenspeicher 17 64K 16-Bit-Wortspeicherplätze. Der Kanalprozessor 16 benutzt den Zwischenspeicher 17 zur Zwischenspeicherung von Daten für die Verarbeitung durch die Multiplizierer/ALU-Paare. Jedes der Multiplizierer/ALU-Paare 15 a bis 15 d ist einem der vier Co-Prozessoren zugeordnet, die den Kanalprozessor bilden. Diese Parallellösung ermöglicht es, daß der gleiche Befehl an verschiedenen Daten ausgeführt wird. Ein solches System ist bekannt als Einzelbefehl-Mehrfachdatenstrom (SIMD)-System. Ein solches System ist genauer in der DE-OS 36 20 982 beschrieben. Bei dem bevorzugten Ausführungsbeispiel wird ein Kanal für die R (rot)-Werte der Voxel, ein Kanal für die G (grün)-Werte, einer für B (blau) und einer für A (Opazitäts)-Werte ver­ wendet.
Die Initiierung des Verarbeitungssystems erfolgt, wenn die ursprünglichen Bildvolumendaten in den Verarbeitungscomputer 10 eingelesen werden. Die ursprünglichen Bilddaten können in einer komprimierten Form übertragen werden und erfordern ein Dekodieren und Expandieren. Außerdem kann in Abhängigkeit von der Datenquelle der Fall eintreten, daß die Bits/Pixel-Auflösung der Rohdaten nicht zu der bevorzugten 12-Bit-Pixel-Auflösung der Erfindung paßt. Daher kann der Verarbeitungscomputer oder der Kanalprozessor, wenn erforderlich, die ursprünglichen Bilddaten auf eine akzeptable Auflösung künstlich anreichern.
Der Verarbeitungscomputer 10 gibt dann ein Anforderungssignal an den Systembus 14 und fordert den Kanalprozessor 18 auf, das Schreiben der ursprünglichen Bilddaten in den Bildspeicher zuzulassen. Der Verarbeitungscomputer 10 gibt danach die ursprünglichen Bilddaten auf den Systembus 14 in den Kanal­ prozessor 16 aus. Der Kanalprozessor 16 gibt danach die ursprünglichen Bilddaten auf den Bildbus 24 aus, wo sie in den Ursprungs­ bildvolumenspeicher 26 a des Bildspeichers 26 geschrieben werden.
Wenn erwünscht oder notwendig wird danach das ursprüngliche Bildvolumen von dem Kanalprozessor 16 klassifiziert. Eine Abtastzeile aus dem Ursprungsvolumenspeicher 26 a wird dann auf den Bildbus 24 gegeben und in den Kanalprozessor 16 eingegeben. Der Kanalprozessor 16 zählt die Anzahl von Voxeln bei jedem der 2049 definierbaren Intensitätspegel zur Erzeugung eines Histogramms. Der Kanalprozessor 16 kann danach die Spitzen entsprechend den zuvor definierten Nachschlagetabellen oder einer Programmnhierarchie klassifizieren. Zusätzlich kann das Histogramm von dem Verarbeitungscomputer 10 auf dem Bit-Abbildungsterminal 12 zur Anzeige gebracht werden, so daß die Klassifizierung von einem Benutzer manuell durchgeführt werden kann.
Nach dem Klassifizieren werden die Klassifizierungsdaten über den Systembus 14 zum Kanalprozessor 16 und insbesondere zum Zwischenspeicher 17 übertragen. Der Kanalprozessor berechnet eine Vielzahl von Nachschlagetabellen auf der Basis von Klassifizierungs­ daten aus dem Verarbeitungscomputer. Der Zwischenspeicher 17 enthält eine Vielzahl von Nachschlagetabellen, so daß RGB- und Opazitätswerte den klassifizierten Voxeln zugeordnet werden können. Der Kanalprozessor 16 fordert eine Abtastzeile (ein eindimensionales Voxel-Feld) gleichzeitig aus dem Speichersteuergerät an und verarbeitet die Abtastzeilen durch die gespeicherten Nachschlagetabellen. Der Eingang zu den Kanalprozessor-Nachschlagetabellen ist eine monochrome Abtastzeile, und der Ausgang ist eine RGBA-klassifizierte Abtastzeile. Der Zwischenspeicher 17 des Kanalprozessors 16 weist wenigstens drei Puffer, nämlich einen Abtastzeilenpuffer, eine Nachschlagetabelle und einen Ausgangspuffer für die Ausgangsklassifikation auf. Wenn auch die Beschreibung in Verbindung mit Nachschlagetabellen durchgeführt wurde, kann irgendeine geeignete Methode zur Zuordnung oder Erzeugung von Farbwerten bei der Erfindung zum Einsatz kommen.
Der Ausgang aus dem Ausgangspuffer wird über einen Bitbus 24 zum RGBA-Volumenspeicher 26 b des Bildspeichers 26 übertragen. Jede Scheibe des ursprünglichen Bildvolumens wird als ein Feld oder eine Matrix in dem RGBA-Volumenspeicher 26 b gespeichert. Die "verkettete Filterung" nach der Erfindung wird von dem Kanalprozessor 16 durchgeführt. Ein Hintergrundbildvolumen wird anfangs in den Zwischenspeicher des Kanalprozessors jeweils zeilenweise eingelesen. Während jedes aufeinanderfolgende Bildvolumen in den Kanalprozessor 16 eingelesen wird, werden die RGBA-Werte von den Multiplizierer/ALU-Einheiten 15 a-d verkettet. Das sich ergebende zusammengesetzte Bildvolumen wird im Projektionsspeicher 26 d des Bildspeichers 26 gespeichert.
Zur Anzeige des zusammengesetzten Bildes werden die Inhalte des Speichers 26 d auf den Videobus 28 in das Videosteuergerät 20 ausgegeben. Die im Projektionsspeicher 26 d gespeicherten digitalen Daten werden von dem Steuergerät 20 in analoge Video­ daten umgesetzt und an den Farbmonitor 22 ausgegeben, wo sie mit einer Rasterabtastung zur Anzeige gebracht werden.
Teilvolumen Klassifizierung
Ein Bildvolumen, d. h. ein Volumen von Bildelementen (Voxeln), das ein dreidimensionales Bild darstellt, wird in den Verarbeitungs­ computer 10 eingelesen und nach einer erforderlichen Dekodierung oder Entkomprimierung in den Ursprungsbildspeicher 26 b des Bildspeichers 26 eingelesen. Daher können die betrachteten Objekte, Felder von zweidimensionalen Matrizen, als dreidimensionale geordnete Felder gedacht und im Bildspeicher mathematisch dargestellt werden. Das Bildvolumen kann ein unverarbeitetes Bildfeld sein, welches nach verschiedenen bekannten Methoden gewonnen werden kann.
Wenn auch die Erfindung ein weites Feld von Anwendungs­ möglichkeiten hat, wird sie als Beispiel in Verbindung mit einer dreidimensionalen Widergabe von berechneten tomographischen (CT)-Bildern beschrieben. Eingangsbildvolumendaten, die in diesem Zusammenhang als geordnetes CT-Bildvolumenfeld dargestellt werden, können aus zahlreichen tomographischen Abbildungs­ methoden, z. B. Röntgenstrahl-Computertomographie, Ultraschall- Sektorabtastung, kernmagnetischer Resonanz usw. gewonnen werden. In anderem Zusammenhang können die Bildvolumen- Eingangsdaten unter Verwendung anderer Abbildungsmethoden, z. B. seismischer Abbildung oder des Ergebnisses von Modellrechnungen oder Computersimulation (z. B. Strömungssimulator) gewonnen werden. Das Bildvolumen wird bei dem beschriebenen Beispiel als ein geordnetes Feld von 2D-Bildern gespeichert, wobei jedes Bild eine 2D-geordnete Matrix von 12-Bit-Zahlen ist.
Die CT-Abtastung oder ein anderes Bildvolumen liefert monochrome graue Skaleneingangsdaten an das Bildverarbeitungssystem nach der Erfindung. Diese CT-Eingangsbildvolumendaten werden in dem Anfangsvolumenspeicher 26 (a) des Bildspeichers 26 als geordnetes Feld von 12-Bit-Binärzahlen gespeichert, von denen jede eine vorgegebene CT-Abtastung oder andere Bild­ volumendaten (Voxel) darstellt. Bei dem beschriebenen Beispiel stellt die von dem CT-Abtasteingang gelieferte Bildvolumeninformation Informationen über vier diskrete Materialien in der zu betrachtenden Anatomie dar, nämlich Luft, Fett, Weichgewebe und Knochen.
Bei dem beschriebenen Beispiel hängt die Intensität der Grauskalendaten von der Röntgenstrahldichte des Materials ab, wie sie mit der ursprünglichen Bildgebungsmethode dargestellt wurde. Im folgenden wird auf Fig. 4a Bezug genommen. Grauskalen- Intensitätsdaten für jedes Voxel sind in einem Histogramm 30 aufgetragen, das eine Verteilung der Zahl von Voxeln in dem Bildvolumen über der Intensität veranschaulicht. Das Histogramm 30 wird vom Kanalprozessor 16 aus den Bildvolumen-Eingangsdaten erzeugt und wird auf den Verarbeitungscomputer 10 über den Systembus 14 übertragen.
Der Grauskalenpegel-Histogramm 30 ist eine Funktion, welche für jeden Grauskalenpegel die Anzahl von Voxeln im Bildvolumen zeigt, welche einen besonderen Graupegel haben. Die Abszisse 32 ist die Graupegelintensität, die in dem dargestellten Fall von 0 bis 2048 reicht. Die Ordinate 34 ist die Häufigkeit (z. B. die Anzahl von Voxeln des Bildvolumens bei jeder Intensität). Daher stellt die Fläche unter der Histogrammkurve 36 die gesamte Anzahl von Voxeln in dem Bildvolumen dar.
Das Histogramm 30 wird von einem besonderen Bild abgeleitet, das bei dem beschriebenen Ausführungsbeispiel einer 12-Bit Pixelinformation der CT-Abtastung entspricht. Das resultierende Histogramm wird dann von dem Verarbeitungscomputer 10 gefiltert, um Geräusche zu entfernen (d. h. um Hochfrequenz­ änderungen zu unterdrücken, während die Form der Eingangsfunktion erhalten wird), wobei im Stande der Technik weitgehend bekannte Tiefpaß-Filtermethoden Verwendung finden. Es ergibt sich eine geglättete Histogrammkurve, wie sie in Fig. 4a gezeigt ist.
Bei bekannten Abbildungssystemen sind alle Voxel so klassifiziert, daß sie jeweils 100% eines einzigen Materials darstellen. Daher wird bei der Verwendung bekannter Methoden eine binäre Klassifizierung für jedes Voxel durchgeführt, wobei alle Voxel innerhalb eines speziellen Intensitätsbereichs als das eine oder andere dieser von den Eingangsvolumen-Bilddaten dargestellten Materialien klassifiziert werden. Unter Verwendung bekannter Methoden für das vorliegende CT-Abtastbeispiel würden die Voxel entweder als Knochen, Fett, Gewebe oder Luft klassifiziert. Beim Stande der Technik wird ein Grau-Schwellwertpegel als Grenze (cutoff) an einem Punkt zwischen zwei Histogrammspitzen gewählt. Alle Voxel innerhalb eines vorgegebenen Intensitätsbereichs werden dadurch kategorisiert entweder als 100% Luft, Weichgewebe, Knochen oder Fett. Diese Information wird danach im Speicher als 2-Bit- oder 1-Bit-Wert gespeichert.
Bei CT-Umsetzungen ist diese binäre Klassifikation geeignet für Spitzenregionen des Histogramms, wo ein Voxelinhalt eindeutig in die eine oder andere konkrete Materialklasse fällt. Jedoch bedingt eine solche "harte" Klassifikation, daß eine diskrete binäre Bestimmung betreffend die Material­ klassifikation aller Voxel innerhalb des Bildvolumens durchgeführt wird.
So wird beispielsweise im Stande der Technik an den Oberflächen­ grenzen (z. B. an den Grenzflächen zwischen Muskelgewebe und Knochen) ein einen Randplatz schneidendes Voxel entweder als Knochen oder als Gewebe klassifiziert. Wenn daher Voxel Oberflächen oder Ränder schneiden, oder wenn das örtliche Material dünner ist als die Breite von einem Voxel, geht der Rand oder die Oberflächengrenze verloren, und es ergibt sich eine unpräzise Umsetzung und Wiedergabe. Eine solche Binär­ wertzuordnung führt daher beträchtliche Unschärfe- bzw. Phantomfehler (aliasing error) ein mit der Folge einer ungenauen Oberflächenzeichnung.
Bei der Erfindung werden Voxel entsprechend den ihnen zugeordneten Intensitäten in einer Zusammensetzung zwischen 0% und 100% jedes im Bildvolumen dargestellten Materialtyps klassi­ fiziert.
Im folgenden wird auf Fig. 4b Bezug genommen, in der ausgeprägte Spitzen P und Täler T im Histogramm 30 identifiziert sind. Ein Intensitätsbereich 40, charakterisiert als 100% eines Materials, wird für alle Voxel bestimmt, die in einen ausgewählten Intensitätsbereich zur Linken und Rechten der ausgeprägten Histogrammspitzen P fallen. Bei dem beschriebenen Beispiel wird dieser Bereich für eine CT-Abtastung durch eine lineare Approximation bestimmt. Der 100% Materialbereich wird angesetzt, wenn alle Voxel P in das als (p-t)/4 definierte Intensitätsband fallen, wobei p die einer ausgeprägten Spitze P zugehörige Intensität und t eine einem benachbarten ausgeprägten Tal T zugeordnete Intensität ist. Alle Voxel innerhalb des Bereichs auf jeder Seite einer vorgegebenen ausgeprägten Spitze P werden als 100% "reiner" Materialwert klassifiziert. Daher sind bei dem beschriebenen Beispiel alle Voxel innerhalb dieser Zonen kategorisiert als 100% Fett, Luft, Weichgewebe bzw. Knochen. Voxel außerhalb dieser Intensitätsbereichswerte werden so kategorisiert, daß sie Bildinformationen mit einem gewissen Prozentsatz des "reinen" Materials auf der linken und auf der rechten Seite der Voxel darstellen. Daher sind sie Kombinationsmaterialvoxel, von denen jedes eine prozentuale Zusammensetzung dieser Materialien enthält.
Aus Konventionsgründen werden Voxel, die nach der Klassifikation aus weniger als 100% eines Einzelmaterials bestehen, bei der Erfindung als Teil- oder Partialvolumen bezeichnet. Außerdem werden als 100% eines Materials klassifizierte Voxel im folgenden als solche bezeichnet. Zur allgemeinen Definition basiert die erfindungsgemäße Klassifikation jedoch auf einer Partialvolumenbestimmung. Daher werden in einer generelleren Konvention alle klassifizierten Voxel als "Teil- bzw. Partialvolumen" klassifiziert, wobei Voxel, die aus einem einzigen homogenen Material bestehen, als "Teilvolumen" mit 100% eines Materials und 0% anderer Materialkomponenten klassifiziert werden.
Bei der Bestimmung der Teilvolumenklassifikation wird der Prozentsatz jedes Materials in Voxeln außerhalb der 100%-Material­ intensitätsbereiche ermittelt. Bei dem beschriebenen Ausführungsbeispiel wird der prozentuale Voxelmaterialanteil durch eine lineare Interpolation für Voxel mit Intensitäten zwischen den Grenzen benachbarter 100% Materialintensitätswerte bestimmt. Ein Verhältnis wird dann gefunden von:
  • (1) den Intensitätsunterschieden einer 100%-Wert-Grenze zu der be­ trachteten Voxelintensität (Zähler) gegenüber
  • (2) dem Intensitätswert zwischen umgebenden 100% Materialwertgrenzen (Nenner).
Dieses Verhältnis liefert die prozentuale Voxelzusammensetzung für jedes benachbarte Material bei einem speziellen Intensitätswert zwischen 100%-Wertebereichen.
Im folgenden wird auf Fig. 4b Bezug genommen. Teilvolumen­ prozentsätze werden durch Kanalprozessorberechnung bestimmt, die für alle Teilvolumenvoxel durch eine lineare Interpolation für jede Intensität zwischen benachbarten 100% Materialintensitäts­ wertgrenzen durchgeführt wird. Alternativ kann die Klassifikation entsprechend solchen Werten durchgeführt werden, die in einer Nachschlagetabelle vorhanden sind, oder entsprechend einer nach Inspektion vom Benutzer bestimmten Werten. Bei dem beschriebenen bevorzugten Beispiel ist die prozentuale Zusammensetzung bei einem vorgegebenen Voxel mit einer Teilvolumen­ intensität I (pv) wie folgt:
wobei
PV ab = das oder die betrachteten Teilvolumenvoxel sind; I(PV) ab = Intensität der betrachteten Teilvolumenvoxel zwischen 100% Materialintensitätsbereichen a und b; I(Pb) a = Intensität an einem Spitzengrenzwert a für 100% Materialtyp; und I(Pb) b = Intensität am Grenzwert b für 100% Materialtyp.
Bei der Berechnung der der Grenze a zugeordneten Materialfraktion wird I(Pb) a verwendet; bei der Grenze b wird I(Pb) b verwendet. Daher wird jedes Voxel klassifiziert entweder als
  • (1) ein Teilvolumen aus einem Prozentsatz von mehr als einem Bildvolumen-Materialtyp oder
  • (2) ein "reines" Volumen aus 100% eines Bildvolumen-Materialtyps
Bei dem beschriebenen bevorzugten Ausführungsbeispiel wird die Klassifikation von Grauskalendaten für ein Muskel-Skelett-CT- Abtastmodell durchgeführt. Bei diesem Modell ist, wie in Fig. 4b gezeigt, die Beziehung zwischen Material-Grauskalenintensitäten so, daß Fett 40 stets an weiches Gewebe (Muskelgewebe) 44 angrenzt; weiches Gewebe 44 stets Fett 40 umgibt und außerdem stets Knochen 46 umgibt. Es ist jedoch klar, daß andere Klassifikationsschemata zur Bestimmung der prozentualen Voxel­ materialzusammensetzung für andere Eingangsdaten, beispielsweise für seismische Bildvolumen-Eingangsdaten verwendet werden können. Auch kann eine solche Klassifikation für Anwendungen verwendet werden, bei denen Eingangsdaten Materialnachbarschaften enthalten, bei denen mehrere Materialien (und/oder ihre zugehörigen Histogrammintensitäten) gleichzeitig einander benachbart sind und so durch Bildvolumen-Eingangsdaten dargestellt werden. Obwohl geradlinige Interpolationsmethoden bei diesem Beispiel beschrieben werden, können alternativ andere Methoden (beispielsweise quadratische oder kubische Methoden) zur Berechnung von Voxel-Partialvolumenprozentsätzen bei dem beschriebenen Ausführungsbeispiel und in den anderen Ausführungs­ beispielen verwendet werden.
Farb- und Opazitätszuordnung
Bei der Erfindung wird ein 2D-Farbbild von einem 3D-Volumen konstruiert, und zwar auf der Basis einer Farbdarstellung eines Bildvolumens unter Verwendung einer "verketteten Filterung", wie sie nachfolgend im Abschnitt über Rekonstruktion beschrieben werden wird. Um solche Filter zu konstruieren, werden Farbwerte (RGB) und ein Opazitätswert (A) zunächst jedem Voxel des Bildvolumens zugeordnet. Nach der Klassifika­ tion aller Voxel im Volumen und Kenntnis ihrer prozentualen Materialzusammensetzung kann eine (RGB) und Opazität (A) zugeordnet werden. Bei dem vorliegenden Beispiel eines Farbmodellschemas für CT-Bildvolumendaten sind Knochen undurchsichtig weiß; weiches Gewebe ist halbtransparent-rot; Fett ist sehr transparent grün; und Luft ist vollständig transparent. Ein Wert mit roten (R), blauen (B) und grünen (G) Komponenten wird zugeordnet, der den Farbwert jedes dieser vier Materialien darstellt. Außerdem wird ein Opazitäts- (oder Transparenz-)Wert (A) für die gewählte Transparenz jedes 100% reinen Materials zugeordnet.
Wenn das zugeordnete RGBA für jeden Materialtyp bekannt ist, kann ein RGBA für jedes Voxel im Bildvolumen auf der Basis seiner prozentualen Zusammensetzung ermittelt werden. Wenn beispielsweise ein Voxel klassifiziert wurde mit 30% Luft und 70% Fett, kann ein "kombiniertes" RGBA für dieses Voxel durch den Kanalprozessor 16 ermittelt werden, in dem das RGBA jeder Materialkomponente im Voxel mit dem zugehörigen prozentualen Materialbeitrag multipliziert und die Ergebnisse danach summiert werden. Das resultierende RGBA wird das RGBA des betrachteten Voxels und wird in den RGBA-Volumenspeicher 26 b gelesen. Es gilt:
mit
W = Beitrag des Materials i im Voxel; und C = Farbe und Opazität des Materials i; und
Die Operationen der RGBA-Voxelzuordnung wird für jedes Voxel im betrachteten Bildvolumen durchgeführt, und diese Werte werden in den RGBA-Volumen-Bildspeicher 26 (b) geschrieben und für eine spätere Verarbeitung gespeichert. Jedes RGBA-Voxel wird als ein geordnetes kubisches Feld von speziellen Zahlen im RGBA-Bildspeicher 26 b dargestellt, jeweils für ein zugehöriges Voxel des Bildvolumens.
Bei bekannten Abbildungssystemen wird typischerweise jedem Voxel nur ein einziger Materialtyp und/oder Farbwert zugeordnet. Alle Voxel im Volumen wurden auf diese Weise als einheitlich zusammengesetzt aus dem einen oder dem anderen Bildvolumen- Materialtyp angesehen. Im Gegensatz dazu werden bei der Erfindung Farben und Opazitäten in weiten Bereichen bestimmt und zugeordnet auf der Basis eines Farb- und Opazitätsgemisches, das einen zugehörigen prozentualen Materialanteil für jedes Voxel darstellt. Die RGBA-Zuordnungen werden bei der Erfindung durch Verarbeitung der klassifizierten Voxel über R-, G-, B-, A-Nachschlagetabellen im Zwischenspeicher 17 des Kanalprozessors 16 hergestellt.
Bildrekonstruktion
Nach der Erzeugung eines RGBA-Volumens, das im RGBA-Bildspeicher 26 gespeichert wird, kann eine 2D-Projektion für jede gewählte Ansicht des 3D-Volumens konstruiert werden, wobei Objekte, welche nicht als mathematische Körper oder Oberflächen des 3D-Volumens dargestellt werden, die sichtbaren Charakteristiken der 2D-Projektionen, erzeugt aus mathematischen Oberflächen- oder Körpermodellen, schaffen. Dies geschieht unter Verwendung von verketteten Filtern, wie sie die Erfindung vorsieht.
Im folgenden wird auf Fig. 5 Bezug genommen, in der eine lokal geordnete 3 × 3-Matrix von Displaypixeln 60 gezeigt ist. Die 3 × 3-Anzeige und das 3 × 3 × 5-Volumen 62, das in Fig. 6 gezeigt ist, dienen bei dem beschriebenen Beispiel nur zum Zwecke der Erläuterung. In der Praxis kann das Display ein 1024 mal 768 oder ein anderes geeignetes Abtastrasterdisplay sein. Außerdem ist das RGBA-Volumen ein 3-Raum-Datenfeld, das ein (x, y, z) Bildvolumen darstellt, welches nur durch die Eingangsdaten und die Speichergröße begrenzt ist. Jedes RGBA-Voxel arbeitet als Farbfilter und erzeugt einen zusammengesetzten 2D-Ausgang, wie er in Fig. 5 in Zuordnung zu einem Videodisplaypixel (2, 1) gezeigt ist.
Die RGBA-Voxel können als Filter wie Voxel angesehen werden, die entlang der z-Achse (d. h. der zur Blickrichtung parallelen Achse) zusammengeklappt sind und eine mathematische Filterschichtung erzeugen. Jedes Filter hat eine Farbe und Opazität, wobei die Farbe durch drei Komponenten, rot (R), grün (G) und blau (B) dargestellt ist. Opazität ist dargestellt durch eine Filterkomponente (A). Die Opazität A eines Filters bestimmt, wieviel von den Voxeln hinter dem Filter "durchscheint" (d. h. zum neuen, kombinierten Hintergrundelement beiträgt).
Um ein zweidimensionales Pixel (x, y) zu projizieren und ein Bild rechtwinklig zur XY-Ebene entsprechend Darstellung in den Fig. 5 und 6 zu erzeugen (wodurch eine ausgewählte Ansicht des 3D-Volumens an jedem örtlichen Displaypixel (x, y) entsteht), wird aufeinanderfolgend das RGBA jedes Fordergrundvoxels FG (z. B. 72) mathematische dem RGBA jedes Hintergrundvoxels BG (z. B. 70) überlagert, um ein neues Hintergrund RGBA-Voxel BG′ zu erzeugen. Die dem Voxel BG zugeordneten RGBA-Werte werden aus dem Bildspeicher gelesen und in dem als BG-Filterpuffer wirksamen Zwischenspeicher zeitweilig gespeichert. In ähnlicher Weise werden RGBA-Werte, die dem Voxel BG zugeordnet sind, aus dem Bildspeicher gelesen und im Zwischenspeicher gespeichert, wobei ein Teil des letzteren als FG-Puffer arbeitet.
Bei dem bevorzugten Ausführungsbeispiel wird die durch eine Spalte oder einen Stapel von zwei oder mehreren verketteten Filtern projizierte Farbe bestimmt durch die folgende Gleichung:
BG′ = FG + (1 - (FG) × (A FG )) (BG)
wobei
A FG = die Opazität des Vordergrundfilters;
wobei FG(A) die Opazität des Vordergrundfilters, d. h. den Opazitätsbeitrag des Vordergrundfilters zum neuen Hintergrundfilter BG darstellt. Der resultierende neue Hintergrundwert BG′ wird im Zwischenspeicher für die nachfolgenden Berechnungen des Kanalprozessors ge­ speichert.
Auf diese Weise wird ein neues RGBA-Hintergrundfilter BG bestimmt. Die obige Berechnung wird danach aufeinanderfolgend für jedes aufeinanderfolgende Vordergrundfilter FG und dessen zugehörigen neuen Hintergrund BG solange durchgeführt, bis alle Filter, die sich bis zur ausgewählten Projektionsebene der Ansicht 64 erstrecken, berücksichtigt sind, und ein endgültiger RGBA-Projektionspixelwert für die Anzeige 60 bestimmt ist. Diese Folge wird durchgeführt, um alle Displaypixel in bezug auf die ausgewählte 2D-Sichtebene 64 des betrachteten Bildvolumens 62 zu bestimmen.
Die beschriebene Rekonstruktionsmethode ist nicht auf eine besondere Verarbeitungsfolge, beispielsweise auf die zuvor beschriebene Pixel-für-Pixel-Verarbeitung, beschränkt. Beispielsweise wird bei dem gegenwärtig bevorzugten Ausführungsbeispiel unter Bezugnahme auf Fig. 6 die Bildrekonstruktionsverarbeitung für aufeinanderfolgende Voxel-Abtastlinien bzw. -zeilen des im Bildspeicher 26 b gespeicherten RGBA-Volumens durchgeführt (d. h. Voxelstreifen, die rechtwinklig zur 2D-Bildebene 16 entlang horizontaler Scheiben 66 des RGBA-Volumens 62 verlaufen). Daher wird aufeinanderfolgend das RGBA jeder Vordergrund-Abtastlinien bzw. -zeile FG mathematisch "überlagert" einem RGBA jeder Hintergrund-Abtastzeile oder -linie BG, um eine neue Hintergrund-Abtastzeile oder -linie BG′ zu erzeugen. Die der Abtastlinie bzw. -zeile FG zugeordneten RGBA-Werte werden aus dem Bildspeicher gelesen und im Zwischenspeicher zwischengespeichert. In ähnlicher Weise werden die der Abtastlinie bzw. -zeile BG zugeordneten RGBA-Werte aus dem Bildspeicher gelesen und zeitweilig im Zwischenspeicher gespeichert. Die Filterlagen-Berechnungsfolge wird von dem Kanalprozessor durchgeführt, der aus dem Zwischenspeicher für aufeinanderfolgende zugehörige BG- und FG-Filter liest, um eine zusammengesetzte RGBA-Abtastzeile bzw. -linie 68 zu schaffen, die danach in dem Video-Display-Ausgang 64 geschrie­ ben wird. Außerdem werden diese Operationen durchgeführt, um alle zusammengesetzten Pixelprojektions-Display-Abtastzeilen oder -linien für die ausgewählte 2D-Ansicht des betrachteten 3D-Volumens zu bestimmen.
Die Filterung wird implementiert durch Kombination aufein­ anderfolgender Bildvolumenteile (jeweils eine Abtastzeile) durch die Multiplizierer/ALU-Einheiten 15 a-15 d des Kanalprozessors. Ein Kanal (Multiplizierer/ALU) wird zum Filtern der R-Werte und jeweils einer für die G, B und A-Werte verwendet, usw. für die RGB­ Werte jedes Voxels. Die Filterung kann von der Rückseite aus zur Frontseite oder alternativ von der Frontseite zur Rückseite bezüglich der Ansichts- bzw. Bildebene durchgeführt werden.
Beispielsweise zeigt Fig. 7 eine Farbtafel für die Fig. RGBA-Voxel 70 bis 78, die als aufeinanderfolgende verkettete Filter zur Erzeugung eines zusammengesetzten Projektionsdisplay-Pixels 2, 1 in Fig. 5, auch in Fig. 6 gezeigt, wirken. Wie aus der Tabelle ersichtlich ist, werden die RGBA-Komponenten jedes Werts jedes Filters zur Berechnung eines neuen BG′-Filters (das danach der BG-Wert des nachfolgenden FG-Voxels wird) verwendet, um eine endgültige Pixelfarbe bei (2, 1) zu erzeugen. Daher werden aufeinanderfolgende Berechnungen entsprechend der verketteten Filtergleichung durchgeführt, um die aufeinanderfolgenden neuen Hintergrundfilterwerte zu berechnen, welche danach entsprechend der obigen Gleichung zur Berechnung der nachfolgenden Werte bezüglich jedes neuen Vordergrunds solange kombiniert werden, bis ein endgültiger Pixelfarbwert bestimmt ist. Dieser Wert wird dann angezeigt (in diesem Falle mit dem zugehörigen Displaypixel (2, 1)).
Die zusammengesetzte 2D-Projektion wird dann im Displaypuffer 26 d gespeichert und zum Rasterabtast-Displaymonitor 22 ausge­ geben. Es versteht sich natürlich, daß die zusammengesetzte 2D-Projektion alternativ an einen Drucker oder ein anderes Ausgabegerät ausgegeben werden kann.
Es wird also eine zweidimensionale Farbprojektion eines 3D-Eingangsbildvolumens erzeugt. Eine andere Bildverarbeitung kann auch an den resultierenden Projektionen oder Zwischenvolumendaten, z. B. eine Rotation, Translation, Schattierung, Streckung, Schrumpfung o. dgl. durchgeführt werden.
Die vorliegende Erfindung kann in einem weiten Bereich von Bildverarbeitungszusammenhängen eingesetzt werden. Sie kann beispielsweise zur Schaffung von in 3D-modellierbaren Datensätzen, wie Daten aus Voxel-abgetasteten Volumen (z. B. CT-Abtastungen) verwendet werden und für besondere oder generelle Lösungssätze oder Rechenergebnisse aus Gleichungssätzen oder anderen Datensätzen, welche wegen ihrer Komplexität nicht ohne weiteres modellierbar sind. Außerdem kann die Erfindung auf Farbdatensätze angewendet werden, wenn die Farbe der Komponenten­ materialien im Volumen bekannt ist. Dabei kann die Teilvolumen­ bestimmung nach der Erfindung unter Verwendung eines alternativen Mittels zum Klassifizieren der Daten nach prozentualem Materialanteil durchgeführt werden.
Die Erfindung ist daher nicht auf Grauskalen-Datensätze, CT-Abtastungen, reale Abbildungen o. dgl. beschränkt. Vielmehr kann die Erfindung für jeden Kontext angewandt werden, bei dem diskrete Volumenabtastungen bzw. -proben bestimmbar sind, wobei für jede Probe (oder Voxel) Materialtypen innerhalb des Datensatzes (oder differenzierbare Daten zur Darstellung oder Zuordnung eines Materialtyps) bekannt sind oder gefunden werden können, so daß der prozentuale Beitrag für jedes Voxel im Datenvolumen ermittelt werden kann. Die Klassifizierung nach dem Teilvolumenprozentsatz kann, obwohl sie bei dem beschrie­ benen Beispiel für CT-Abtastungen unter Verwendung einer Histogramm­ verteilung durchgeführt wurde, auf verschiedenen Wegen für andere Anwendungen erfolgen, beispielsweise ohne ein Histogramm (d. h. räumlich anstatt statistisch).

Claims (5)

1. Verfahren zum Erzeugen eines zweidimensionalen Displays eines dreidimensionalen Datensatzes, dadurch gekennzeichnet, daß ein den dreidimensionalen Datensatz darstellendes erstes Bildvolumen erzeugt wird, daß das erste Bildvolumen in einem ersten Bildspeicher in Form mehrerer homogener Speicherfelder gespeichert wird, wobei jedes Feld mehrere Abtastlinien bzw. -zeilen mit mehreren Volumenelementen (Voxeln) enthält, daß ein zweites Bildvolumen dadurch erzeugt wird, daß man jedem Voxel einen Farbwert und einen Opazitätswert zuordnet, daß durch Kombination einer der Abtastlinien bzw. -zeilen mit der nächstfolgenden der Abtastlinien bzw. -zeilen ein Kombinations­ bildvolumen erzeugt wird, daß der vorhergehende Schritt für jede nachfolgende der Abtastlinien bzw. -zeilen mit jedem erzeugten Kombinationsbildvolumen bis zur n'ten Abtastlinie bzw. -zeile wiederholt wird, wobei n die Gesamtzahl von Ab­ tastlinien bzw. -zeilen darstellt und das Kombinationsbildvolumen Voxel hat, deren Farb- und Opazitätswerte auf der prozentualen Zusammensetzung der Farb- und Opazitätswerte von Voxeln in kombinierten Abtastlinien bzw. -zeilen basieren.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das erste Bildvolumen in eine Vielzahl von Digitalsignalen umgesetzt und in einem Digitalspeicher gespeichert wird.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Farbwerte eine Rot-, eine Grün- und eine Blaukomponente enthalten.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß das Kombinationsbildvolumen in einem Kanalprozessor erzeugt wird, wobei die Rot-, Blau- und Grünkomponenten und der Opazitäts­ wert in ersten, zweiten, dritten bzw. vierten Kanälen kombiniert werden.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß der Farb- und Opazitätswert jedes Voxels eines Kombinationsbildvolumens gegeben ist durch FG + (1 - (FG) (A)) (BG),wobeiFG= die Farb- und Opazitätskomponenten eines Voxels einer der Abtastlinien bzw. -zeilen;A= die Opazität des Voxels einer der Abtastlinien oder -zeilen;BG= die zusammengesetzte Farb- und Opazitätskomponenten des korrespondierenden Voxels in zuvor kombinierten Abtastlinien bzw. -zeilen.
DE19873712639 1986-04-14 1987-04-14 Verfahren und einrichtung zum abbilden von volumendaten Ceased DE3712639A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US85177686A 1986-04-14 1986-04-14

Publications (1)

Publication Number Publication Date
DE3712639A1 true DE3712639A1 (de) 1987-10-22

Family

ID=25311652

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19873712639 Ceased DE3712639A1 (de) 1986-04-14 1987-04-14 Verfahren und einrichtung zum abbilden von volumendaten

Country Status (6)

Country Link
US (1) US5381518A (de)
JP (1) JPH0727576B2 (de)
CA (1) CA1258923A (de)
DE (1) DE3712639A1 (de)
FR (1) FR2597227B1 (de)
GB (1) GB2190570B (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4034086A1 (de) * 1989-10-30 1991-05-02 Gen Electric Verfahren und vorrichtung zum liefern von daten eines probeobjekts, die als volumetrisch wiedergegebenes projektionsbild anzeigbar sind
DE19911988A1 (de) * 1999-03-17 2000-09-28 Siemens Ag Medizinische Untersuchungsanlage, insbesondere Magnetresonanzanlage
DE10105765A1 (de) * 2001-02-08 2002-09-05 Karlheinz Schmidt Verfahren zur visuellen Darstellung von räumlichen Objekten
US7873141B2 (en) 2006-11-22 2011-01-18 Ge Medical Systems Global Technology Company, Llc X-ray tomographic imaging apparatus

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4985856A (en) * 1988-11-10 1991-01-15 The Research Foundation Of State University Of New York Method and apparatus for storing, accessing, and processing voxel-based data
US5640496A (en) * 1991-02-04 1997-06-17 Medical Instrumentation And Diagnostics Corp. (Midco) Method and apparatus for management of image data by linked lists of pixel values
US5734384A (en) * 1991-11-29 1998-03-31 Picker International, Inc. Cross-referenced sectioning and reprojection of diagnostic image volumes
US5644689A (en) * 1992-01-13 1997-07-01 Hitachi, Ltd. Arbitrary viewpoint three-dimensional imaging method using compressed voxel data constructed by a directed search of voxel data representing an image of an object and an arbitrary viewpoint
US5361385A (en) * 1992-08-26 1994-11-01 Reuven Bakalash Parallel computing system for volumetric modeling, data processing and visualization
JPH06223198A (ja) * 1993-01-26 1994-08-12 Hitachi Ltd 光線追跡による画像生成装置及び方法
US5583974A (en) * 1993-05-10 1996-12-10 Apple Computer, Inc. Computer graphics system having high performance multiple layer Z-buffer
US5664077A (en) * 1993-09-06 1997-09-02 Nec Corporation Three-dimensional graph displaying system
AU699764B2 (en) * 1994-09-06 1998-12-17 Research Foundation Of The State University Of New York, The Apparatus and method for real-time volume visualization
US5724493A (en) * 1994-12-13 1998-03-03 Nippon Telegraph & Telephone Corporation Method and apparatus for extracting 3D information of feature points
DE19603774A1 (de) * 1996-02-02 1997-08-07 Kontron Elektronik Verfahren zur Ermittlung von dreidimensionalen Objekt-Eigenschaften
US6144384A (en) * 1996-02-20 2000-11-07 Yugen Kashia Aloalo International Voxel data processing using attributes thereof
US5825364A (en) * 1996-04-18 1998-10-20 Electronic Data Systems Corporation System and method for constructing a three dimensional model from two dimensional images using poissan probability
US5999187A (en) * 1996-06-28 1999-12-07 Resolution Technologies, Inc. Fly-through computer aided design method and apparatus
US5986662A (en) * 1996-10-16 1999-11-16 Vital Images, Inc. Advanced diagnostic viewer employing automated protocol selection for volume-rendered imaging
US6123733A (en) 1996-11-27 2000-09-26 Voxel, Inc. Method and apparatus for rapidly evaluating digital data processing parameters
US5917937A (en) * 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
JPH11508386A (ja) * 1997-04-15 1999-07-21 ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク 平行法及び遠近法によりボリュームを実時間で視覚化する装置及び方法
US6144383A (en) * 1997-05-30 2000-11-07 Hewlett-Packard Company Volumetric data organization method that allows for cache efficient rendering speedups and efficient graphics hardware design
JP3896188B2 (ja) * 1997-06-13 2007-03-22 株式会社日立製作所 放射線治療計画のための画像処理装置
US6008813A (en) * 1997-08-01 1999-12-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Real-time PC based volume rendering system
US6246784B1 (en) 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6262749B1 (en) * 1997-12-31 2001-07-17 Acuson Corporation Ultrasonic system and method for data transfer, storage and/or processing
JPH11353225A (ja) * 1998-05-26 1999-12-24 Internatl Business Mach Corp <Ibm> 逐次実行型でグレイ・コード体系のアドレッシングを行うタイプのプロセッサがアクセスするメモリ、及びメモリにコード/データを格納する方法
US6396939B1 (en) 1998-05-28 2002-05-28 Orthosoft Inc. Method and system for segmentation of medical images
FR2779853B1 (fr) * 1998-06-11 2000-08-11 Ge Medical Syst Sa Procede de reconstruction d'une image tridimensionnelle d'un objet, en particulier une image tridimensionnelle angiographique
US6310619B1 (en) 1998-11-10 2001-10-30 Robert W. Rice Virtual reality, tissue-specific body model having user-variable tissue-specific attributes and a system and method for implementing the same
US6411296B1 (en) 1998-11-12 2002-06-25 Trrarecon, Inc. Method and apparatus for applying modulated lighting to volume data in a rendering pipeline
US6426749B1 (en) 1998-11-12 2002-07-30 Terarecon, Inc. Method and apparatus for mapping reflectance while illuminating volume data in a rendering pipeline
US6532017B1 (en) 1998-11-12 2003-03-11 Terarecon, Inc. Volume rendering pipeline
US6342885B1 (en) 1998-11-12 2002-01-29 Tera Recon Inc. Method and apparatus for illuminating volume data in a rendering pipeline
US6356265B1 (en) 1998-11-12 2002-03-12 Terarecon, Inc. Method and apparatus for modulating lighting with gradient magnitudes of volume data in a rendering pipeline
US6512517B1 (en) 1998-11-12 2003-01-28 Terarecon, Inc. Volume rendering integrated circuit
US6369816B1 (en) 1998-11-12 2002-04-09 Terarecon, Inc. Method for modulating volume samples using gradient magnitudes and complex functions over a range of values
US6404429B1 (en) 1998-11-12 2002-06-11 Terarecon, Inc. Method for modulating volume samples with gradient magnitude vectors and step functions
US6281901B1 (en) * 1998-11-25 2001-08-28 The United States Of America As Represented By The Secretary Of The Navy Interactive overlay for displaying 3-D data
IL127314A0 (en) * 1998-11-27 1999-09-22 Algotec Systems Ltd A method for forming a perspective rendering from a voxel space
US6304266B1 (en) * 1999-06-14 2001-10-16 Schlumberger Technology Corporation Method and apparatus for volume rendering
US6385604B1 (en) * 1999-08-04 2002-05-07 Hyperroll, Israel Limited Relational database management system having integrated non-relational multi-dimensional data store of aggregated data elements
US6408292B1 (en) 1999-08-04 2002-06-18 Hyperroll, Israel, Ltd. Method of and system for managing multi-dimensional databases using modular-arithmetic based address data mapping processes on integer-encoded business dimensions
US6972774B2 (en) * 2000-02-21 2005-12-06 Fujitsu Limited Image processing system for inserting plurality of images into composite area, and medium
EP1264281A4 (de) 2000-02-25 2007-07-11 Univ New York State Res Found Anordnung und verfahren zur bearbeitung und wiedergabe eines volumen
US20020029207A1 (en) * 2000-02-28 2002-03-07 Hyperroll, Inc. Data aggregation server for managing a multi-dimensional database and database management system having data aggregation server integrated therein
JP2001291090A (ja) * 2000-04-06 2001-10-19 Terarikon Inc 三次元画像表示装置
US6573912B1 (en) 2000-11-07 2003-06-03 Zaxel Systems, Inc. Internet system for virtual telepresence
EP1209618A1 (de) * 2000-11-28 2002-05-29 TeraRecon, Inc., A Delaware Corporation Pipeline-Volumendarstellung
EP1209629A1 (de) * 2000-11-28 2002-05-29 TeraRecon, Inc., A Delaware Corporation Strahl-Frühendpunkt für ein paralleles Pipeline-Volumendarstellungssystem
US6940507B2 (en) * 2000-12-18 2005-09-06 Dmitriy G. Repin Method and apparatus for visualization of 3D voxel data using lit opacity volumes with shading
ES2378357T3 (es) * 2001-04-18 2012-04-11 Landmark Graphics Corporation Dispositivo de renderizado de cuerpos volumétricos
US20050114831A1 (en) * 2001-04-18 2005-05-26 Andres Callegari Volume body renderer
US6826297B2 (en) * 2001-05-18 2004-11-30 Terarecon, Inc. Displaying three-dimensional medical images
DE10224011A1 (de) * 2002-05-29 2003-12-24 Siemens Ag Rechnergestütztes Rekonstruktionsverfahren für ein dreidimensionales Objekt
US7260250B2 (en) * 2002-09-30 2007-08-21 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Computer-aided classification of anomalies in anatomical structures
JP2006507051A (ja) * 2002-11-21 2006-03-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 体積画像のシーケンスを視覚化する方法及び装置
WO2004075116A1 (en) 2003-02-18 2004-09-02 Koninklijke Philips Electronics N.V., Volume visualization using tissue mix
US20050151734A1 (en) * 2004-01-14 2005-07-14 Gubkin Andrew A. Method and apparatus for rendering, storing and editing voxel objects
US20050171700A1 (en) * 2004-01-30 2005-08-04 Chroma Energy, Inc. Device and system for calculating 3D seismic classification features and process for geoprospecting material seams
US7327365B2 (en) * 2004-07-23 2008-02-05 Microsoft Corporation Shell texture functions
CN101052998A (zh) 2004-11-01 2007-10-10 皇家飞利浦电子股份有限公司 绘制的多维数据集的可视化
US7711162B2 (en) * 2005-01-27 2010-05-04 Siemens Medical Solutions Usa, Inc. Accelerated texture-based fusion renderer
US7460119B2 (en) * 2005-01-27 2008-12-02 Siemens Medical Solutions Usa, Inc. Invisible space skipping with adaptive granularity for texture-based volume rendering
US7532214B2 (en) * 2005-05-25 2009-05-12 Spectra Ab Automated medical image visualization using volume rendering with local histograms
JP4267598B2 (ja) * 2005-07-11 2009-05-27 ザイオソフト株式会社 画像融合処理方法、画像融合処理プログラム、画像融合処理装置
US8041129B2 (en) * 2006-05-16 2011-10-18 Sectra Ab Image data set compression based on viewing parameters for storing medical image data from multidimensional data sets, related systems, methods and computer products
EP1862120B1 (de) * 2006-05-29 2016-11-09 Toshiba Medical Systems Corporation Computergestützte Vorrichtung zur Bildgebungsdiagnoseverarbeitung und computergestütztes Verfahren zur Bildgebungsdiagnoseverarbeitung
US7830381B2 (en) * 2006-12-21 2010-11-09 Sectra Ab Systems for visualizing images using explicit quality prioritization of a feature(s) in multidimensional image data sets, related methods and computer products
US20080232694A1 (en) * 2007-03-21 2008-09-25 Peter Sulatycke Fast imaging data classification method and apparatus
US8593457B2 (en) * 2010-05-27 2013-11-26 National Tsing Hua University Method of three-dimensional image data processing
ES2671252T3 (es) 2011-11-17 2018-06-05 Stratasys Ltd. Sistema y método para fabricar un modelo de una parte del cuerpo usando fabricación aditiva con múltiples materiales
US8605973B2 (en) 2012-03-17 2013-12-10 Sony Corporation Graph cuts-based interactive segmentation of teeth in 3-D CT volumetric data
US9152744B2 (en) * 2012-03-29 2015-10-06 Airbus Operations (S.A.S.) Methods, systems, and computer readable media for generating a non-destructive inspection model for a composite part from a design model of the composite part
CN104658034B (zh) * 2013-11-18 2019-03-01 清华大学 Ct图像数据的融合绘制方法
US10292670B2 (en) * 2013-12-04 2019-05-21 Elekta Ltd. Method and system for dose calculation based on continuous material indexing
GB2537831A (en) * 2015-04-24 2016-11-02 Univ Oxford Innovation Ltd Method of generating a 3D representation of an environment and related apparatus
TW201736865A (zh) * 2016-04-13 2017-10-16 Nihon Medi-Physics Co Ltd 來自核子醫學影像的生理累積之自動去除及ct影像之自動分段
EP3311988A1 (de) * 2016-10-24 2018-04-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zum gemeinsamen 3d-drucken von farbe und lichtdurchlässigkeit und vorrichtung zum gemeinsamen 3d-drucken von farbe und lichtdurchlässigkeit
EP3388107B1 (de) * 2017-04-13 2021-10-13 RaySearch Laboratories AB Methode, system- und computerprogrammprodukt für ionenstrahlungstherapie
US10896503B2 (en) 2018-03-23 2021-01-19 International Business Machines Corporation Identification of areas of interest in imaging applications

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1547566A (en) * 1975-07-04 1979-06-20 Emi Ltd Information display arrangements
US4558438A (en) * 1981-12-28 1985-12-10 Gulf Research & Development Company Method and apparatus for dynamically displaying geo-physical information
US4586038A (en) * 1983-12-12 1986-04-29 General Electric Company True-perspective texture/shading processor
US4679040A (en) * 1984-04-30 1987-07-07 The Singer Company Computer-generated image system to display translucent features with anti-aliasing
US4737921A (en) * 1985-06-03 1988-04-12 Dynamic Digital Displays, Inc. Three dimensional medical image display system
US4729098A (en) * 1985-06-05 1988-03-01 General Electric Company System and method employing nonlinear interpolation for the display of surface structures contained within the interior region of a solid body
US4719585A (en) * 1985-08-28 1988-01-12 General Electric Company Dividing cubes system and method for the display of surface structures contained within the interior region of a solid body
US4835712A (en) * 1986-04-14 1989-05-30 Pixar Methods and apparatus for imaging volume data with shading

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Frieder u.a.: "Backk-to-Front Display of Voxel-Based Objects", in IEEE Computer Graphics and Applications, Januar 85 S, 52-60 *
Goldwasser u.a.: Physician's Workstation with Real-Time Performance", in IEEE Computer Graphics and Applications, Dezember 85, S. 44-57 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4034086A1 (de) * 1989-10-30 1991-05-02 Gen Electric Verfahren und vorrichtung zum liefern von daten eines probeobjekts, die als volumetrisch wiedergegebenes projektionsbild anzeigbar sind
DE19911988A1 (de) * 1999-03-17 2000-09-28 Siemens Ag Medizinische Untersuchungsanlage, insbesondere Magnetresonanzanlage
DE19911988C2 (de) * 1999-03-17 2003-07-31 Siemens Ag Medizinische Magnetresonanzanlage
DE10105765A1 (de) * 2001-02-08 2002-09-05 Karlheinz Schmidt Verfahren zur visuellen Darstellung von räumlichen Objekten
US7873141B2 (en) 2006-11-22 2011-01-18 Ge Medical Systems Global Technology Company, Llc X-ray tomographic imaging apparatus

Also Published As

Publication number Publication date
JPS6324478A (ja) 1988-02-01
GB2190570A (en) 1987-11-18
GB2190570B (en) 1991-01-23
GB8708832D0 (en) 1987-05-20
CA1258923A (en) 1989-08-29
FR2597227B1 (fr) 1992-09-11
US5381518A (en) 1995-01-10
JPH0727576B2 (ja) 1995-03-29
FR2597227A1 (fr) 1987-10-16

Similar Documents

Publication Publication Date Title
DE3712639A1 (de) Verfahren und einrichtung zum abbilden von volumendaten
DE3689399T2 (de) Kubusteilungssystem und Verfahren zur Anzeige von im Innengebiet eines massiven Körpers enthaltenen Flächenstrukturen.
DE3855040T2 (de) Bildverarbeitungsverfahren und -gerät
DE69029982T2 (de) Verfahren und Geräte zur dreidimensionalen Bilderzeugung
DE69835408T2 (de) Verfahren und Vorrichtung zur Komposition von Bildfarben unter Speicherbeschränkungen
EP2038847B1 (de) Verfahren und vorrichtung zur darstellung von 3d bilddatensätzen auf 2d bildern
DE69919497T2 (de) Verfahren und Gerät zur Volumendarstellung mit mehreren Tiefenpuffern
DE68928438T2 (de) Verfahren und Vorrichtung zur Erzeugung von beweglichen Bildern
DE3686233T2 (de) Videosignalverarbeitung.
DE3853393T2 (de) Verfahren und Vorrichtung zur zweidimensionalen Bilderstellung.
DE69333846T2 (de) Verfahren zur mischung von bildern und vorrichtung hierzu.
DE69100140T2 (de) Verfahren zur Anzeige eines Bildteiles einer physikalischen Struktur.
DE3650169T2 (de) Anlage und Verfahren zur Anzeige von im Inneren eines Festkörpers eingeschlossenen Oberflächenstrukturen.
DE102005023964A1 (de) Volumenvisualisierung mittels Texturverschiebung
DE4224568C2 (de) Vorrichtung und Verfahren zur Bildung der Anzeige eines dreidimensionalen sequentiellen tomografischen Flächenschattierungsbildes
DE3735519C2 (de) Binäre Rauminterpolation
DE102009042328A1 (de) Effiziente Bestimmung von Lichteffekten beim Volume Rendering
DE69921608T2 (de) Verfahren und vorrichtung zum zoomen von digitalen bilddateien
DE102009042326A1 (de) Interaktive Veränderung der Darstellung eines mittels Volume Rendering dargestellten Objekts
EP1843296A1 (de) Verfahren zur reproduzierbaren Erzeugung von Ansichten tomographischer Bilddaten
DE102007050615A1 (de) Brick-basierter Fusionsrenderer
DE3854960T2 (de) Vorrichtung und Verfahren zur tomographischen Datenverarbeitung
DE3732616A1 (de) Roentgenstrahl-computer-tomographiegeraet
DE102004056589A1 (de) Verfahren und Vorrichtung zur Durchführung segmentierungsbasierter Bildoperationen
DE102008005476A1 (de) Verfahren zur Bildkompression eines Bildes mit 3D Graphikinformation

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8131 Rejection