DE3712639A1 - Verfahren und einrichtung zum abbilden von volumendaten - Google Patents
Verfahren und einrichtung zum abbilden von volumendatenInfo
- Publication number
- DE3712639A1 DE3712639A1 DE19873712639 DE3712639A DE3712639A1 DE 3712639 A1 DE3712639 A1 DE 3712639A1 DE 19873712639 DE19873712639 DE 19873712639 DE 3712639 A DE3712639 A DE 3712639A DE 3712639 A1 DE3712639 A1 DE 3712639A1
- Authority
- DE
- Germany
- Prior art keywords
- volume
- voxel
- voxels
- image
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
In zahlreichen modernen Anwendungsfällen ist es erwünscht, die
dreidimensionale Kohärenz eines interessierenden Volumens oder
Objekts zu beobachten. Im Falle der Abbildung realer dreidimensionaler
("3D") Festkörper ist es gewöhnlich nur möglich,
diskrete ebene Querschnitte des 3D-Volumens und dessen Inhalt
zu betrachten. Es ist typischerweise nicht möglich, 3D-Volumina
so zu betrachten, daß Innen- und Objektflächen, Grenzen,
Grenzflächen und räumliche Beziehungen innerhalb des Volumens
getrennt und visuell identifiziert werden können.
Beispielsweise ist es bei der medizinischen Abbildung sehr
erwünscht, anatomische Strukturen durch dreidimensionale Dar
stellungen auf Computer-Bildschirmsystemen sichtbar machen zu
können. Die Fähigkeit, genaue, volumetrische, anatomische
Modelle aus computerisierten tomographischen (CT) Abtastungen
zu erzeugen, ist als chirurgische Hilfe extrem wertvoll (z. B.
zum Anzeigen von Strukturen für die Planung chirurgischer
Eingriffe oder zum Anzeigen von Details der anatomischen
Struktur ohne die Notwendigkeit zu untersuchenden Eingriffen).
Daher liefert die dreidimensionale Abbildung die Form, Größe
und relative Position von pathologischen Strukturen und damit
wertvolle Daten für die chirurgische Planung, Diagnose und
Behandlung.
Die Computersimulation von realen 3D-Volumina hängt von der
Möglichkeit zur Rekonstruktion von 3D-Strukturen aus planaren
Ausschnittsdaten, z. B. CT-Abtastungen, ab. Diese und andere
Abtastungen liefern Daten, aus denen ein 3D-Dichte-Bildvolumen,
bestehend aus Volumenelementen (Voxels) als Eingangsdaten
für die Bildverarbeitung gewonnen wird. Unglücklicherweise
sind solche Eingabe-Bildvolumina typischerweise von geringer
Auflösung im Vergleich zu der Detailqualität, die zur genauen
Darstellung des abgetasteten Volumens erwünscht ist.
Beispielsweise stellen bestimmte Voxel in einigen CT-Abtast-
Bildvolumen die Röntgenstrahldämpfung oder andere Bildvolumen
daten über das Volumen, einschließlich über die Oberflächen
grenzdaten dar. Obwohl ein Voxel nur einem einzigen "homogenen"
Wert zugeordnet ist, existiert tatsächlich eine Grenze,
und es gibt diskrete Materialien auf jeder Seite der Grenze
innerhalb des unter Betrachtung stehenden Objekts. Daher ist
ein Voxel entlang eines Randes oder einer Kante eine Probe,
die sich über beide Seiten der Kante erstreckt. Wenn außerdem
ein Material (z. B. ein Knochen) kleiner als die Breite eines
Voxels ist, hat das die Grenzinformation über diesen Knochen
liefernde Voxel eine sehr geringe Auflösung. Daher ist die
Grenzform innerhalb eines Voxels nicht genügend genau be
stimmt.
Verschiedene Ansätze wurden angewandt in dem Bemühen, Ober
flächengrenzen in Volumen anzunähern. Eine bekannte Methode ist
die "Schwellwertbildung" ("thersholding"). Bei der Schwellwertbildung
werden Voxel, welche eine Grenze kreuzen, als
zusammengesetzt aus einem oder dem anderen Materialtyp auf
jeder Seite der Grenze klassifiziert. Die projizierte sichtbare
Grenze wird so die binär klassifizierte Voxelgrenze.
Je größer die Voxel sind, umso größer ist der Fehler, der
durch Schwellwertbildung eingeführt wird. Außerdem liefert die
Schwellwertmethode für grobe Bilder oder Bilder mit hohen
Dichten und eng benachbarten Oberflächengrenzen ein noch
schlechteres Ergebnis, so daß die resultierenden Abbildungen
immer weniger genau werden. Nachfolgende Annäherungsmethoden
werden manchmal in dem Versuch angewendet, eine genauere Annäherung
aus dem Schwellwertergebnis zu erhalten. Versuche zur
Annäherung der unbekannten Oberfläche geben jedoch Anlaß zu
einem weitgehend ungenauen Ergebnis, da diese Annäherungen auf
der anfänglichen binären Klassifikation der Voxel beruhen.
Es ist auch sehr erwünscht, alle Daten innerhalb des Volumens
gleichzeitig aus ausgewählten stationären oder rotierenden
Ansichten sichtbar zu machen. Dies bedeutet, daß man in das
Zentrum eines Volumens blickt und Objekte und versteckte Flächen
innerhalb des Volumens (und damit innere Grenzen und
Flächen) bestimmt. Dafür ist es notwendig, gegebenenfalls
durch störende Objekte teilweise durchsehen zu können (z. B.
bei einem von Muskeln umgebenen Knochen sowohl den Knochen als
auch den den Knochen umgebenden Muskel zu beobachten). Bekannte
Methoden zwingen bei der Erzeugung von Volumenelementen zur
Durchführung einer binären Entscheidung dahingehend, ob ein
Pixel aus einem vorgegebenen Material besteht oder nicht. Eine
binäre Klassifikation führt Phantom- (oder Abtast-)Fehler ein,
da die kontinuierliche Abbildungsfunktion nicht erhalten wird.
Der durch binäre Klassifikation eingeführte Fehler wird bei
jedem Versuch zur Rekonstruktion eines ursprünglichen Bildvolumens
aus dem klassifizierten Volumen miteingebracht. Da das
rekonstruierte Bild nur so viele Intensitätsniveaus haben
kann, wie Materialien vorhanden sind, werden die Material
grenzschichten ausgefranst bzw. gezackt, und die Intensitäten
stellen nicht die ursprüngliche Bildfunktion dar.
Das Abbildungssystem nach der Erfindung umfaßt ein Verfahren
und eine Einrichtung zum Projizieren einer zweidimensionalen
(2D)-Darstellung von dreidimensionalen (3D)-Volumina, wobei
Oberflächengrenzen und im Inneren der Volumina gelegene Objekte
geeignet gezeigt werden und versteckte Flächen und die
Flächengrenzen selbst genau vermittelt werden. Außerdem kann
das erzeugte zweidimensionale Bild die gleiche Auflösung wie
die Abtastauflösung des interessierenden Eingabe-Bildvolumens
haben. Dies wird erreicht durch Implementierungsmethoden zur
Bestimmung von "Teilvolumen" von Voxeln. Eine Teilvolumenbildung
ordnet ausgewählten Farben und Undurchsichtigkeitsgraden
(Opazitäten) unterschiedlichen Materialien (oder Datenkomponenten)
zu, die in einem Bilddatenvolumen auf der Basis der
prozentualen Zusammensetzung von in jedem Voxel des Bildvolumens
dargestellten Materialien dargestellt werden. Anders als
bei bekannten Systemen, wie die eine Schwellwertbildung benutzenden
Methoden, besitzt das Abbildungsverfahren nach der
vorliegenden Erfindung ein hohes Maß an Präzision und Definiertheit,
das vom Bildvolumen auf einer Pro-Voxel-Basis unabhängig
ist.
Ein Bildvolumen, das ein Volumenobjekt oder eine Datenstruktur
darstellt, wird in einen Bildspeicher geschrieben. Eine Farbe
oder eine Opazität wird jedem Voxel innerhalb des Volumens
zugeordnet und als ein dreidimensionales Rot (R)-, Grün (G)-,
Blau (B)- und Opazitäts (A)-Komponenten-Datenvolumen gespeichert.
Die RGBA-Zuordnung für jedes Voxel wird auf der Basis
einer prozentualen Komponentenzusammensetzung der das Volumen
darstellenden Materialien und damit dem Prozentsatz der Farbe
und Transparenz (auf der Basis von 100% Bezugsmaterialfarbe
und Transparenzwerten) für solche Materialien bestimmt. Solche
in dem Bildspeicher für das Komponentenvolumen gespeicherte
Voxel werden im folgenden teilweise RGBA-Voxel bezeich
net.
Als nächstes werden die Voxel im RGBA-Volumen als mathematische
"Gele" oder Filter derart verwendet, daß jedes der aufein
anderfolgenden Voxelfilter über einen vorhergehenden Hintergrund-
Voxelfilter gelegt wird. Durch die lineare Interpolation
wird ein neues Hintergrundfilter bestimmt und erzeugt.
Die Interpolation wird aufeinanderfolgend für alle Voxel (oder
Gruppen von Voxeln, z. B. Voxel-Abtastlinien bzw. -zeilen) bis
zu dem vordersten Voxel der Sichtebene durchgeführt. Das Verfahren
wird solange wiederholt, bis alle Anzeigevoxel für die
Bildebene bestimmt sind.
Die Rekonstruktion nach dem erfindungsgemäßen Verfahren sorgt
für die 2D-Projektion von Volumina, wobei Objektoberflächen
innerhalb eines diskreten Datenvolumens selbst dann detailliert
und zur Anzeige gebracht werden können, wenn Oberflächen
zuvor wegen grober Bildvolumendaten oder einer niedrigen Abtast
geschwindigkeit nicht gefunden werden konnten. Die Erfindung
erreicht eine Sichtbarmachung von verborgenen Flächen
innerhalb des Volumens, so daß alle Oberflächengrenzen deutlich
und genau definiert sind.
Daher ist es durch Vorgeben eines diskreten Probendatenvolumens
eines komplexen Volumendatensatzes oder Objekts und durch
Finden des Prozentsatzes der Zusammensetzung von Komponenten
materialien für jedes Voxel möglich, komplexe Abbildungen zu
schaffen, ohne anfänglich über besondere Informationen zur
Grenzlage innerhalb jedes Voxels zu verfügen. Die Erfindung
ermöglicht daher das Betrachten von Volumina, ohne ein geometrisches
Modell (sondern stattdessen nur ein 3D-Rastervolumen)
zu haben, so daß es möglich ist, eine komplexe Projektion des
3D-Volumens unter Verwendung von teilweiser Transparenz und
Farben zu erzeugen, die die Charakteristika eines mathematischen
"geometrisch-körperlichen Modells" haben kann. Objekte
können betrachtet werden, die andere Objekte teilweise abschatten,
und räumliche Beziehungen zwischen Objekten können
genau vermittelt werden.
Andere Möglichkeiten und Vorteile der Erfindung ergeben sich
aus der nachfolgenden genaueren Beschreibung der beigefügten
Zeichnung. In der Zeichnung zeigt:
Fig. 1 ein Blockdiagramm zur Veranschaulichung der
Architektur der Erfindung;
Fig. 2 ein Blockdiagramm zur Veranschaulichung der
Aufteilung des bei der Erfindung verwendeten
Bildspeichers;
Fig. 3 ein Blockdiagramm, das die Architektur des bei
dem beschriebenen Ausführungsbeispiel verwendeten
Kanalprozessors veranschaulicht;
Fig. 4a eine Kurve, welche ein typisches Eingangsdaten
histogramm veranschaulicht;
Fig. 4b eine Kurve, welche die Klassifizierung eines
CT-Eingangsdatenhistogramms veranschaulicht;
Fig. 5 mehrere Voxel, die zur Erzeugung eines zweidimensionalen
Bildes bzw. Displays verwendet
werden;
Fig. 6 eine Bildrekonstruktion für aufeinanderfolgende
Voxel-Abtastzeilen und Schritte; und
Fig. 7 die Berechnung einer projizierten Pixelausgabe
auf der Basis der verketteten Filterung.
Die nachfolgende detaillierte Beschreibung wird weitgehend
anhand von Algorithmen und symbolischen Darstellungen von
Operationen an Datenbits innerhalb eines Computerspeichers
durchgeführt. Die algorithmischen Beschreibungen und Dar
stellungen sind die vom Fachmann auf dem Gebiet der Datenver
arbeitung angewandten Mittel, um möglichst effektiv die Substanz
ihrer Arbeit anderen einschlägigen Fachleuten zu vermitteln.
Ein Algorithmus wird hier wie allgemein als selbstkonsistente
Folge von Schritten entwickelt, die zu einem gewünschten Ergebnis
führt. Diese Schritte erfordern physikalische Manipulation
von physikalischen Größen. Gewöhnlich - wenn auch nicht
notwendigerweise - nehmen diese Größen die Form von elektrischen
oder magnetischen Signalen an, die gespeichert, übertragen,
kombiniert, verglichen oder auf andere Weise verarbeitet
werden können. Es erweist sich manchmal als zweckmäßig, und
zwar prinzipiell aus Gründen üblicher Praxis, auf diese Signale
als Bits, Werte, Elemente, Symbole, Zeichen, Ausdrücke,
Zahlen o. dgl. hinzuweisen. Zu beachten ist jedoch, daß alle
diese oder ähnliche Ausdrücke geeigneten physikalischen Größen
zugeordnet und daher nur zweckmäßige Bezeichnungen für diese
Größen sind.
Obwohl Voxel aus Zweckmäßigkeitsgründen noch häufig als drei
dimensionale Elemente mit einem dreidimensionalen Volumen
bezeichnet werden, sollte beachtet werden, daß Voxel Punkte in
einem dreidimensionalen Raum definieren.
In der folgenden Beschreibung werden außerdem zahlreiche Einzel
heiten, wie algorithmische Konventionen, spezielle Bitanzahlen
usw. angegeben, um die Erfindung besser verständlich zu
machen. Es ist für den Fachmann jedoch klar, daß die Erfindung
ohne diese speziellen Einzelheiten realisiert werden kann. In
anderen Fällen sind bekannte Schaltungen und Strukturen nicht
im einzelnen beschrieben, um die Erfindung nicht mit unnötigen
Einzelheiten zu belasten,
Die erfindungsgemäße Systemarchitektur ist in Fig. 1 dargestellt.
Bei dem bevorzugten Ausführungsbeispiel enthält das
Abbildungssystem einen Host- bzw. Verarbeitungscomputer 10,
der mit einem Bit-Abbildungsterminal (bit map terminal) 12 und
einem Systembus 14 gekoppelt ist. Der Systembus 14 ist mit
einem Kanalprozessor 16, einem Speichersteuergerät 18 und
einem Videosteuergerät 20 gekoppelt. Das Speichersteuergerät 18
ist mit dem Kanalprozessor 16 und dem Videosteuergerät 20
sowie mit einem Bildspeicher 26 gekoppelt. Das Videosteuergerät 20
ist mit dem Speicher 26 über einen Videobus 28 gekoppelt.
Der Kanalprozessor 16 ist über einen Bildbus 24 mit dem
Bildspeicher 26 gekoppelt. Ein Farbmonitor 22 oder eine andere
Ausgabevorrichtung ist mit dem Videosteuergerät 20 gekoppelt.
Der Kanalprozessor 16 enthält ein parallel-verarbeitendes
Computersystem. Bei dem bevorzugten Ausführungsbeispiel der
Erfindung werden vier 16-Bit-Parallelprozessoren im Kanalprozessor
verwendet. Obwohl es sich als zweckmäßig erwiesen hat,
vier parallele Prozessoren bei der Erfindung zu verwenden, ist
es klar, daß eine beliebige Anzahl von Prozessoren ohne Entfernung
von dem vorliegenden Erfindungsgedanken verwendet
werden kann.
Der Verarbeitungscomputer 10 ist mit einem Bit-Abbildungsterminal 12
verbunden, das eine Vielzahl von dem Benutzer zur
Verfügung stehenden Menüs anzeigt. Bei dem bevorzugten Ausführungsbeispiel
dient der Verarbeitungscomputer 10 zum Manipu
lieren des von den im Bildspeicher 26 gespeicherten Bilddaten
erzeugten Histogramms. Im Verarbeitungscomputer 10 kann eine
Nachschlagetabelle gespeichert werden, die zuvor zugeordnete
Farb- und Opazitätswerte für jeden Spitzenintensitätsplatz in
einem Histogramm enthält. Zusätzlich kann der Verarbeitungs
computer 10 zur Anzeige des Histogramms auf dem Bit-Abbildungs
terminal 12 verwendet werden, so daß der Benutzer definierte
Farb- und Opazitätswerte bestimmen kann.
Bei dem beschriebenen Ausführungsbeispiel der Erfindung ist
der Systembus 14 ein 16-Bit-Bus, der den Verarbeitungscomputer 10
mit anderen Komponenten des Bildverarbeitungssystems koppelt.
Obwohl 16-Bit-Parallelprozessoren bei dem beschriebenen
Ausführungsbeispiel verwendet werden, können ebensogut 8-Bit,
32-Bit oder andere Prozessoren zum Einsatz kommen. Daher können
anderen Bitgrößen-Systembusse bei Bedarf eingesetzt
werden.
Das Videosteuergerät 20 liefert die vertikale und horizontale
Synchronisation für die Farbmonitor 22 und weist auch einen
Pufferspeicher zur Anzeige von Bildschirmdaten auf. Das
Videosteuergerät 20 greift auf den Videobus 28 während der vertikalen
Austastperioden zu, um aktualisierte Informationen an den
Pufferspeicher zu liefern. Das Videosteuergerät weist einen
Digital/Analog-(d/a)-Umsetzer zum Umsetzen von Digitalsignalen
in ein für die Anzeige auf dem Monitor 22 geeignetes Videosignal
auf. Zusätzlich weist das Steuergerät 20 Nachschlagetabellen
für jeden der RGB-Kanäle auf. Das 12-Bit-Digitalwort
des roten (R) Kanals wird beispielsweise durch eine Nach
schlagetabelle ausgegeben, und ein spezieller roter Farbwert
wird ausgegeben und auf dem Farbmonitor 22 zur Anzeige gebracht.
Wie gesagt, sind Nachschlagetabellen für jeden der
Kanäle R, G und B vorgesehen. Das Videosteuergerät 20 wirkt
als ein Drei-Wert-Ein/Drei-Wert-Aus-Umsetzer, der Gammakorrek
turen zuläßt. Der Videobus 28 ist bei dem bevorzugten Ausführungsbeispiel
ein in 12-Bit-Einheiten unterteilbarer Bus, der
bei bis zu 420 Megabytes pro Sekunde arbeitet. Der Bildbus 24
arbeitet bei dem bevorzugten Ausführungsbeispiel bei 240 Megabytes
pro Sekunde.
Der Farbmonitor 22 kann bei der Erfindung irgendein kommerzieller
Farbmonitor mit 480 bis 1125 Abtastzeilen sein. Das
erfindungsgemäß verwendete System hat die zur Bedienung von
Monitoren mit hoher Auflösung und hoher Abtastzeilenzahl bzw.
-dichte erforderliche Geschwindigkeit und Befähigung.
Der Bildspeicher 26 ist ein Direktzugriffsspeicher (RAM), der
zum Speichern der ursprünglichen Bilddaten ebenso wie von
Klassifizierungsdaten, Farb- und Opazitätsdaten und den zusammen
gesetzten RGBA-Volumendaten benutzt wird. Der Bildspeicher 26
ist im einzelnen in Fig. 2 gezeigt. Wie oben erwähnt, wird
jedes Voxel durch vier 12-Bit-Digitalworte dargestellt. Ein
Teil des Speichers, der Ursprungsvolumenspeicher 26 a, speichert
die Daten in ihrer ursprünglichen Form. Bei dem bevorzugten
Ausführungsbeispiel sind angenähert 40 Millionen Bits
zum Speichern von Ursprungsdaten vorgesehen. Die Ursprungs
bildvolumendaten werden als Folge von 12-Bit-Worten gespeichert,
wobei jedes Wort den Intensitätspegel eines Wortes des
ursprünglichen Voxelvolumens darstellt. Die RGBA-Volumen werden
nach ihrer Erzeugung im RGBA-Volumenspeicher 26 b gespeichert.
Jeder Farbwert wird durch ein 12-Bit-Wort dargestellt,
und der Opazitätswert A wird ebenfalls durch ein 12-Bit-Wort
dargestellt. Bei dem bevorzugten Ausführungsbeispiel der Erfindung
sind dem RGBA-Volumenspeicher 26 b 160 Millionen Speicherbits
zugeordnet. Die zusammengesetzten Voxel werden in dem
zweidimensionalen Projektionsspeicher 26 d gespeichert. Wie
zuvor erwähnt, werden die Kombinationsvoxel aus einer Verkettung
von verschiedenen Abtastzeilen der RGBA-Volumendaten
erzeugt. Der Bildspeicher 26 weist auch einen temporären Arbeits
raumspeicher 26 c auf. Obwohl die Anzahl von Bits in den
verschiedenen Teilen des Bildspeichers 26 für das beschriebene
Ausführungsbeispiel angegeben wurde, ist es für den Fachmann
klar, daß jede geeignete Anzahl von Speicherbits bei der Realisierung
der vorliegenden Erfindung verwendet werden kann.
Im folgenden wird wiederum auf Fig. 1 Bezug genommen. Das
Speichersteuergerät 18 dient zur Bestimmung aller Zugriffe zum
Bildspeicher 26. Das Speichersteuergerät 18 ermöglicht das
Schreiben von Daten über den Bildbus 24 in den Bildspeicher
26.
Ein Kanalprozessor 16 dient zur Erzeugung des Histogramms, aus
dem Klassifikationen der Voxel gemacht werden. Der Kanalprozessor 16
ist im einzelnen in Fig. 3 gezeigt und weist einen
Zwischenspeicher 17 und vier Multiplizierer/arithmetische
Logikeinheiten (ALU) 15 a bis 15 d auf. Bei dem bevorzugten
Ausführungsbeispiel enthält der Zwischenspeicher 17 64K
16-Bit-Wortspeicherplätze. Der Kanalprozessor 16 benutzt den
Zwischenspeicher 17 zur Zwischenspeicherung von Daten für die
Verarbeitung durch die Multiplizierer/ALU-Paare. Jedes der
Multiplizierer/ALU-Paare 15 a bis 15 d ist einem der vier
Co-Prozessoren zugeordnet, die den Kanalprozessor bilden.
Diese Parallellösung ermöglicht es, daß der gleiche Befehl an
verschiedenen Daten ausgeführt wird. Ein solches System ist
bekannt als Einzelbefehl-Mehrfachdatenstrom (SIMD)-System. Ein
solches System ist genauer in der DE-OS 36 20 982 beschrieben.
Bei dem bevorzugten Ausführungsbeispiel wird ein Kanal für die
R (rot)-Werte der Voxel, ein Kanal für die G (grün)-Werte,
einer für B (blau) und einer für A (Opazitäts)-Werte ver
wendet.
Die Initiierung des Verarbeitungssystems erfolgt, wenn die
ursprünglichen Bildvolumendaten in den Verarbeitungscomputer 10
eingelesen werden. Die ursprünglichen Bilddaten können in
einer komprimierten Form übertragen werden und erfordern ein
Dekodieren und Expandieren. Außerdem kann in Abhängigkeit von
der Datenquelle der Fall eintreten, daß die Bits/Pixel-Auflösung
der Rohdaten nicht zu der bevorzugten 12-Bit-Pixel-Auflösung
der Erfindung paßt. Daher kann der Verarbeitungscomputer
oder der Kanalprozessor, wenn erforderlich, die ursprünglichen
Bilddaten auf eine akzeptable Auflösung künstlich anreichern.
Der Verarbeitungscomputer 10 gibt dann ein Anforderungssignal
an den Systembus 14 und fordert den Kanalprozessor 18 auf, das
Schreiben der ursprünglichen Bilddaten in den Bildspeicher
zuzulassen. Der Verarbeitungscomputer 10 gibt danach die
ursprünglichen Bilddaten auf den Systembus 14 in den Kanal
prozessor 16 aus. Der Kanalprozessor 16 gibt danach die ursprünglichen
Bilddaten auf den Bildbus 24 aus, wo sie in den Ursprungs
bildvolumenspeicher 26 a des Bildspeichers 26 geschrieben
werden.
Wenn erwünscht oder notwendig wird danach das ursprüngliche
Bildvolumen von dem Kanalprozessor 16 klassifiziert. Eine
Abtastzeile aus dem Ursprungsvolumenspeicher 26 a wird dann auf
den Bildbus 24 gegeben und in den Kanalprozessor 16 eingegeben.
Der Kanalprozessor 16 zählt die Anzahl von Voxeln bei
jedem der 2049 definierbaren Intensitätspegel zur Erzeugung
eines Histogramms. Der Kanalprozessor 16 kann danach die Spitzen
entsprechend den zuvor definierten Nachschlagetabellen
oder einer Programmnhierarchie klassifizieren. Zusätzlich kann
das Histogramm von dem Verarbeitungscomputer 10 auf dem
Bit-Abbildungsterminal 12 zur Anzeige gebracht werden, so daß
die Klassifizierung von einem Benutzer manuell durchgeführt
werden kann.
Nach dem Klassifizieren werden die Klassifizierungsdaten über
den Systembus 14 zum Kanalprozessor 16 und insbesondere zum
Zwischenspeicher 17 übertragen. Der Kanalprozessor berechnet
eine Vielzahl von Nachschlagetabellen auf der Basis von Klassifizierungs
daten aus dem Verarbeitungscomputer. Der Zwischenspeicher 17
enthält eine Vielzahl von Nachschlagetabellen, so
daß RGB- und Opazitätswerte den klassifizierten Voxeln zugeordnet
werden können. Der Kanalprozessor 16 fordert eine Abtastzeile
(ein eindimensionales Voxel-Feld) gleichzeitig aus
dem Speichersteuergerät an und verarbeitet die Abtastzeilen
durch die gespeicherten Nachschlagetabellen. Der Eingang zu
den Kanalprozessor-Nachschlagetabellen ist eine monochrome
Abtastzeile, und der Ausgang ist eine RGBA-klassifizierte
Abtastzeile. Der Zwischenspeicher 17 des Kanalprozessors 16
weist wenigstens drei Puffer, nämlich einen Abtastzeilenpuffer,
eine Nachschlagetabelle und einen Ausgangspuffer für die
Ausgangsklassifikation auf. Wenn auch die Beschreibung in
Verbindung mit Nachschlagetabellen durchgeführt wurde, kann
irgendeine geeignete Methode zur Zuordnung oder Erzeugung von
Farbwerten bei der Erfindung zum Einsatz kommen.
Der Ausgang aus dem Ausgangspuffer wird über einen Bitbus 24
zum RGBA-Volumenspeicher 26 b des Bildspeichers 26 übertragen.
Jede Scheibe des ursprünglichen Bildvolumens wird als ein Feld
oder eine Matrix in dem RGBA-Volumenspeicher 26 b gespeichert.
Die "verkettete Filterung" nach der Erfindung wird von dem
Kanalprozessor 16 durchgeführt. Ein Hintergrundbildvolumen
wird anfangs in den Zwischenspeicher des Kanalprozessors jeweils
zeilenweise eingelesen. Während jedes aufeinanderfolgende
Bildvolumen in den Kanalprozessor 16 eingelesen wird, werden
die RGBA-Werte von den Multiplizierer/ALU-Einheiten 15 a-d
verkettet. Das sich ergebende zusammengesetzte Bildvolumen
wird im Projektionsspeicher 26 d des Bildspeichers 26
gespeichert.
Zur Anzeige des zusammengesetzten Bildes werden die Inhalte
des Speichers 26 d auf den Videobus 28 in das Videosteuergerät 20
ausgegeben. Die im Projektionsspeicher 26 d gespeicherten
digitalen Daten werden von dem Steuergerät 20 in analoge Video
daten umgesetzt und an den Farbmonitor 22 ausgegeben, wo
sie mit einer Rasterabtastung zur Anzeige gebracht werden.
Ein Bildvolumen, d. h. ein Volumen von Bildelementen (Voxeln),
das ein dreidimensionales Bild darstellt, wird in den Verarbeitungs
computer 10 eingelesen und nach einer erforderlichen
Dekodierung oder Entkomprimierung in den Ursprungsbildspeicher 26 b
des Bildspeichers 26 eingelesen. Daher können die betrachteten
Objekte, Felder von zweidimensionalen Matrizen, als
dreidimensionale geordnete Felder gedacht und im Bildspeicher
mathematisch dargestellt werden. Das Bildvolumen kann ein
unverarbeitetes Bildfeld sein, welches nach verschiedenen
bekannten Methoden gewonnen werden kann.
Wenn auch die Erfindung ein weites Feld von Anwendungs
möglichkeiten hat, wird sie als Beispiel in Verbindung mit einer
dreidimensionalen Widergabe von berechneten tomographischen
(CT)-Bildern beschrieben. Eingangsbildvolumendaten, die in
diesem Zusammenhang als geordnetes CT-Bildvolumenfeld dargestellt
werden, können aus zahlreichen tomographischen Abbildungs
methoden, z. B. Röntgenstrahl-Computertomographie, Ultraschall-
Sektorabtastung, kernmagnetischer Resonanz usw. gewonnen
werden. In anderem Zusammenhang können die Bildvolumen-
Eingangsdaten unter Verwendung anderer Abbildungsmethoden,
z. B. seismischer Abbildung oder des Ergebnisses von Modellrechnungen
oder Computersimulation (z. B. Strömungssimulator)
gewonnen werden. Das Bildvolumen wird bei dem beschriebenen
Beispiel als ein geordnetes Feld von 2D-Bildern gespeichert,
wobei jedes Bild eine 2D-geordnete Matrix von 12-Bit-Zahlen
ist.
Die CT-Abtastung oder ein anderes Bildvolumen liefert monochrome
graue Skaleneingangsdaten an das Bildverarbeitungssystem
nach der Erfindung. Diese CT-Eingangsbildvolumendaten
werden in dem Anfangsvolumenspeicher 26 (a) des Bildspeichers 26
als geordnetes Feld von 12-Bit-Binärzahlen gespeichert, von
denen jede eine vorgegebene CT-Abtastung oder andere Bild
volumendaten (Voxel) darstellt. Bei dem beschriebenen Beispiel
stellt die von dem CT-Abtasteingang gelieferte Bildvolumeninformation
Informationen über vier diskrete Materialien in der
zu betrachtenden Anatomie dar, nämlich Luft, Fett, Weichgewebe
und Knochen.
Bei dem beschriebenen Beispiel hängt die Intensität der Grauskalendaten
von der Röntgenstrahldichte des Materials ab, wie
sie mit der ursprünglichen Bildgebungsmethode dargestellt
wurde. Im folgenden wird auf Fig. 4a Bezug genommen. Grauskalen-
Intensitätsdaten für jedes Voxel sind in einem Histogramm 30
aufgetragen, das eine Verteilung der Zahl von Voxeln in dem
Bildvolumen über der Intensität veranschaulicht. Das Histogramm 30
wird vom Kanalprozessor 16 aus den Bildvolumen-Eingangsdaten
erzeugt und wird auf den Verarbeitungscomputer 10
über den Systembus 14 übertragen.
Der Grauskalenpegel-Histogramm 30 ist eine Funktion, welche
für jeden Grauskalenpegel die Anzahl von Voxeln im Bildvolumen
zeigt, welche einen besonderen Graupegel haben. Die Abszisse 32
ist die Graupegelintensität, die in dem dargestellten Fall
von 0 bis 2048 reicht. Die Ordinate 34 ist die Häufigkeit
(z. B. die Anzahl von Voxeln des Bildvolumens bei jeder Intensität).
Daher stellt die Fläche unter der Histogrammkurve 36
die gesamte Anzahl von Voxeln in dem Bildvolumen dar.
Das Histogramm 30 wird von einem besonderen Bild abgeleitet,
das bei dem beschriebenen Ausführungsbeispiel einer 12-Bit
Pixelinformation der CT-Abtastung entspricht. Das resultierende
Histogramm wird dann von dem Verarbeitungscomputer 10
gefiltert, um Geräusche zu entfernen (d. h. um Hochfrequenz
änderungen zu unterdrücken, während die Form der Eingangsfunktion
erhalten wird), wobei im Stande der Technik weitgehend bekannte
Tiefpaß-Filtermethoden Verwendung finden. Es ergibt sich
eine geglättete Histogrammkurve, wie sie in Fig. 4a gezeigt
ist.
Bei bekannten Abbildungssystemen sind alle Voxel so klassifiziert,
daß sie jeweils 100% eines einzigen Materials darstellen.
Daher wird bei der Verwendung bekannter Methoden eine binäre
Klassifizierung für jedes Voxel durchgeführt, wobei alle Voxel
innerhalb eines speziellen Intensitätsbereichs als das eine
oder andere dieser von den Eingangsvolumen-Bilddaten dargestellten
Materialien klassifiziert werden. Unter Verwendung
bekannter Methoden für das vorliegende CT-Abtastbeispiel würden
die Voxel entweder als Knochen, Fett, Gewebe oder Luft
klassifiziert. Beim Stande der Technik wird ein Grau-Schwellwertpegel
als Grenze (cutoff) an einem Punkt zwischen zwei
Histogrammspitzen gewählt. Alle Voxel innerhalb eines vorgegebenen
Intensitätsbereichs werden dadurch kategorisiert entweder
als 100% Luft, Weichgewebe, Knochen oder Fett. Diese Information
wird danach im Speicher als 2-Bit- oder 1-Bit-Wert
gespeichert.
Bei CT-Umsetzungen ist diese binäre Klassifikation geeignet
für Spitzenregionen des Histogramms, wo ein Voxelinhalt eindeutig
in die eine oder andere konkrete Materialklasse fällt.
Jedoch bedingt eine solche "harte" Klassifikation, daß eine
diskrete binäre Bestimmung betreffend die Material
klassifikation aller Voxel innerhalb des Bildvolumens durchgeführt
wird.
So wird beispielsweise im Stande der Technik an den Oberflächen
grenzen (z. B. an den Grenzflächen zwischen Muskelgewebe
und Knochen) ein einen Randplatz schneidendes Voxel entweder
als Knochen oder als Gewebe klassifiziert. Wenn daher Voxel
Oberflächen oder Ränder schneiden, oder wenn das örtliche
Material dünner ist als die Breite von einem Voxel, geht der
Rand oder die Oberflächengrenze verloren, und es ergibt sich
eine unpräzise Umsetzung und Wiedergabe. Eine solche Binär
wertzuordnung führt daher beträchtliche Unschärfe- bzw. Phantomfehler
(aliasing error) ein mit der Folge einer ungenauen
Oberflächenzeichnung.
Bei der Erfindung werden Voxel entsprechend den ihnen zugeordneten
Intensitäten in einer Zusammensetzung zwischen 0% und
100% jedes im Bildvolumen dargestellten Materialtyps klassi
fiziert.
Im folgenden wird auf Fig. 4b Bezug genommen, in der ausgeprägte
Spitzen P und Täler T im Histogramm 30 identifiziert
sind. Ein Intensitätsbereich 40, charakterisiert als 100%
eines Materials, wird für alle Voxel bestimmt, die in einen
ausgewählten Intensitätsbereich zur Linken und Rechten der
ausgeprägten Histogrammspitzen P fallen. Bei dem beschriebenen
Beispiel wird dieser Bereich für eine CT-Abtastung durch eine
lineare Approximation bestimmt. Der 100% Materialbereich wird
angesetzt, wenn alle Voxel P in das als (p-t)/4 definierte
Intensitätsband fallen, wobei p die einer ausgeprägten Spitze
P zugehörige Intensität und t eine einem benachbarten ausgeprägten
Tal T zugeordnete Intensität ist. Alle Voxel innerhalb
des Bereichs auf jeder Seite einer vorgegebenen ausgeprägten
Spitze P werden als 100% "reiner" Materialwert klassifiziert.
Daher sind bei dem beschriebenen Beispiel alle Voxel innerhalb
dieser Zonen kategorisiert als 100% Fett, Luft, Weichgewebe
bzw. Knochen. Voxel außerhalb dieser Intensitätsbereichswerte
werden so kategorisiert, daß sie Bildinformationen mit einem
gewissen Prozentsatz des "reinen" Materials auf der linken und
auf der rechten Seite der Voxel darstellen. Daher sind sie
Kombinationsmaterialvoxel, von denen jedes eine prozentuale
Zusammensetzung dieser Materialien enthält.
Aus Konventionsgründen werden Voxel, die nach der Klassifikation
aus weniger als 100% eines Einzelmaterials bestehen, bei
der Erfindung als Teil- oder Partialvolumen bezeichnet. Außerdem
werden als 100% eines Materials klassifizierte Voxel im
folgenden als solche bezeichnet. Zur allgemeinen Definition
basiert die erfindungsgemäße Klassifikation jedoch auf einer
Partialvolumenbestimmung. Daher werden in einer generelleren
Konvention alle klassifizierten Voxel als "Teil- bzw. Partialvolumen"
klassifiziert, wobei Voxel, die aus einem einzigen
homogenen Material bestehen, als "Teilvolumen" mit 100% eines
Materials und 0% anderer Materialkomponenten klassifiziert
werden.
Bei der Bestimmung der Teilvolumenklassifikation wird der
Prozentsatz jedes Materials in Voxeln außerhalb der 100%-Material
intensitätsbereiche ermittelt. Bei dem beschriebenen Ausführungsbeispiel
wird der prozentuale Voxelmaterialanteil durch
eine lineare Interpolation für Voxel mit Intensitäten
zwischen den Grenzen benachbarter 100% Materialintensitätswerte
bestimmt. Ein Verhältnis wird dann gefunden von:
- (1) den Intensitätsunterschieden einer 100%-Wert-Grenze zu der be trachteten Voxelintensität (Zähler) gegenüber
- (2) dem Intensitätswert zwischen umgebenden 100% Materialwertgrenzen (Nenner).
Dieses Verhältnis liefert die prozentuale Voxelzusammensetzung
für jedes benachbarte Material bei einem speziellen
Intensitätswert zwischen 100%-Wertebereichen.
Im folgenden wird auf Fig. 4b Bezug genommen. Teilvolumen
prozentsätze werden durch Kanalprozessorberechnung bestimmt, die
für alle Teilvolumenvoxel durch eine lineare Interpolation für
jede Intensität zwischen benachbarten 100% Materialintensitäts
wertgrenzen durchgeführt wird. Alternativ kann die Klassifikation
entsprechend solchen Werten durchgeführt werden, die
in einer Nachschlagetabelle vorhanden sind, oder entsprechend
einer nach Inspektion vom Benutzer bestimmten Werten. Bei dem
beschriebenen bevorzugten Beispiel ist die prozentuale Zusammensetzung
bei einem vorgegebenen Voxel mit einer Teilvolumen
intensität I (pv) wie folgt:
wobei
PV ab
= das oder die betrachteten Teilvolumenvoxel sind;
I(PV)
ab
= Intensität der betrachteten Teilvolumenvoxel zwischen
100% Materialintensitätsbereichen a und b;
I(Pb)
a
= Intensität an einem Spitzengrenzwert a für 100%
Materialtyp; und
I(Pb)
b
= Intensität am Grenzwert b für 100% Materialtyp.
Bei der Berechnung der der Grenze a zugeordneten Materialfraktion
wird I(Pb) a verwendet; bei der Grenze b wird I(Pb) b
verwendet. Daher wird jedes Voxel klassifiziert entweder als
- (1) ein Teilvolumen aus einem Prozentsatz von mehr als einem Bildvolumen-Materialtyp oder
- (2) ein "reines" Volumen aus 100% eines Bildvolumen-Materialtyps
Bei dem beschriebenen bevorzugten Ausführungsbeispiel wird die
Klassifikation von Grauskalendaten für ein Muskel-Skelett-CT-
Abtastmodell durchgeführt. Bei diesem Modell ist, wie in Fig. 4b
gezeigt, die Beziehung zwischen Material-Grauskalenintensitäten
so, daß Fett 40 stets an weiches Gewebe (Muskelgewebe) 44
angrenzt; weiches Gewebe 44 stets Fett 40 umgibt und außerdem
stets Knochen 46 umgibt. Es ist jedoch klar, daß andere
Klassifikationsschemata zur Bestimmung der prozentualen Voxel
materialzusammensetzung für andere Eingangsdaten, beispielsweise
für seismische Bildvolumen-Eingangsdaten verwendet werden
können. Auch kann eine solche Klassifikation für Anwendungen
verwendet werden, bei denen Eingangsdaten Materialnachbarschaften
enthalten, bei denen mehrere Materialien (und/oder
ihre zugehörigen Histogrammintensitäten) gleichzeitig einander
benachbart sind und so durch Bildvolumen-Eingangsdaten dargestellt
werden. Obwohl geradlinige Interpolationsmethoden bei
diesem Beispiel beschrieben werden, können alternativ andere
Methoden (beispielsweise quadratische oder kubische Methoden)
zur Berechnung von Voxel-Partialvolumenprozentsätzen bei dem
beschriebenen Ausführungsbeispiel und in den anderen Ausführungs
beispielen verwendet werden.
Bei der Erfindung wird ein 2D-Farbbild von einem 3D-Volumen
konstruiert, und zwar auf der Basis einer Farbdarstellung
eines Bildvolumens unter Verwendung einer "verketteten Filterung",
wie sie nachfolgend im Abschnitt über Rekonstruktion
beschrieben werden wird. Um solche Filter zu konstruieren,
werden Farbwerte (RGB) und ein Opazitätswert (A) zunächst
jedem Voxel des Bildvolumens zugeordnet. Nach der Klassifika
tion aller Voxel im Volumen und Kenntnis ihrer prozentualen
Materialzusammensetzung kann eine (RGB) und Opazität (A) zugeordnet
werden. Bei dem vorliegenden Beispiel eines Farbmodellschemas
für CT-Bildvolumendaten sind Knochen undurchsichtig
weiß; weiches Gewebe ist halbtransparent-rot; Fett ist sehr
transparent grün; und Luft ist vollständig transparent. Ein
Wert mit roten (R), blauen (B) und grünen (G) Komponenten wird
zugeordnet, der den Farbwert jedes dieser vier Materialien
darstellt. Außerdem wird ein Opazitäts- (oder Transparenz-)Wert (A)
für die gewählte Transparenz jedes 100% reinen Materials
zugeordnet.
Wenn das zugeordnete RGBA für jeden Materialtyp bekannt ist,
kann ein RGBA für jedes Voxel im Bildvolumen auf der Basis
seiner prozentualen Zusammensetzung ermittelt werden. Wenn
beispielsweise ein Voxel klassifiziert wurde mit 30% Luft und
70% Fett, kann ein "kombiniertes" RGBA für dieses Voxel durch
den Kanalprozessor 16 ermittelt werden, in dem das RGBA jeder
Materialkomponente im Voxel mit dem zugehörigen prozentualen
Materialbeitrag multipliziert und die Ergebnisse danach summiert
werden. Das resultierende RGBA wird das RGBA des
betrachteten Voxels und wird in den RGBA-Volumenspeicher 26 b
gelesen. Es gilt:
mit
W
= Beitrag des Materials i im Voxel; und
C
= Farbe und Opazität des Materials i; und
Die Operationen der RGBA-Voxelzuordnung wird für jedes Voxel
im betrachteten Bildvolumen durchgeführt, und diese Werte
werden in den RGBA-Volumen-Bildspeicher 26 (b) geschrieben und
für eine spätere Verarbeitung gespeichert. Jedes RGBA-Voxel
wird als ein geordnetes kubisches Feld von speziellen Zahlen
im RGBA-Bildspeicher 26 b dargestellt, jeweils für ein zugehöriges
Voxel des Bildvolumens.
Bei bekannten Abbildungssystemen wird typischerweise jedem
Voxel nur ein einziger Materialtyp und/oder Farbwert zugeordnet.
Alle Voxel im Volumen wurden auf diese Weise als einheitlich
zusammengesetzt aus dem einen oder dem anderen Bildvolumen-
Materialtyp angesehen. Im Gegensatz dazu werden bei der
Erfindung Farben und Opazitäten in weiten Bereichen bestimmt
und zugeordnet auf der Basis eines Farb- und Opazitätsgemisches,
das einen zugehörigen prozentualen Materialanteil für
jedes Voxel darstellt. Die RGBA-Zuordnungen werden bei der
Erfindung durch Verarbeitung der klassifizierten Voxel über
R-, G-, B-, A-Nachschlagetabellen im Zwischenspeicher 17 des
Kanalprozessors 16 hergestellt.
Nach der Erzeugung eines RGBA-Volumens, das im RGBA-Bildspeicher
26 gespeichert wird, kann eine 2D-Projektion für jede
gewählte Ansicht des 3D-Volumens konstruiert werden, wobei
Objekte, welche nicht als mathematische Körper oder Oberflächen
des 3D-Volumens dargestellt werden, die sichtbaren Charakteristiken
der 2D-Projektionen, erzeugt aus mathematischen
Oberflächen- oder Körpermodellen, schaffen. Dies geschieht
unter Verwendung von verketteten Filtern, wie sie die Erfindung
vorsieht.
Im folgenden wird auf Fig. 5 Bezug genommen, in der eine lokal
geordnete 3 × 3-Matrix von Displaypixeln 60 gezeigt ist. Die
3 × 3-Anzeige und das 3 × 3 × 5-Volumen 62, das in Fig. 6 gezeigt
ist, dienen bei dem beschriebenen Beispiel nur zum Zwecke der
Erläuterung. In der Praxis kann das Display ein 1024 mal 768
oder ein anderes geeignetes Abtastrasterdisplay sein. Außerdem
ist das RGBA-Volumen ein 3-Raum-Datenfeld, das ein (x, y, z)
Bildvolumen darstellt, welches nur durch die Eingangsdaten und
die Speichergröße begrenzt ist. Jedes RGBA-Voxel arbeitet als
Farbfilter und erzeugt einen zusammengesetzten 2D-Ausgang, wie
er in Fig. 5 in Zuordnung zu einem Videodisplaypixel (2, 1)
gezeigt ist.
Die RGBA-Voxel können als Filter wie Voxel angesehen werden,
die entlang der z-Achse (d. h. der zur Blickrichtung parallelen
Achse) zusammengeklappt sind und eine mathematische Filterschichtung
erzeugen. Jedes Filter hat eine Farbe und Opazität,
wobei die Farbe durch drei Komponenten, rot (R), grün (G) und
blau (B) dargestellt ist. Opazität ist dargestellt durch eine
Filterkomponente (A). Die Opazität A eines Filters bestimmt,
wieviel von den Voxeln hinter dem Filter "durchscheint" (d. h.
zum neuen, kombinierten Hintergrundelement beiträgt).
Um ein zweidimensionales Pixel (x, y) zu projizieren und ein
Bild rechtwinklig zur XY-Ebene entsprechend Darstellung in den
Fig. 5 und 6 zu erzeugen (wodurch eine ausgewählte Ansicht
des 3D-Volumens an jedem örtlichen Displaypixel (x, y) entsteht),
wird aufeinanderfolgend das RGBA jedes Fordergrundvoxels
FG (z. B. 72) mathematische dem RGBA jedes Hintergrundvoxels
BG (z. B. 70) überlagert, um ein neues Hintergrund RGBA-Voxel
BG′ zu erzeugen. Die dem Voxel BG zugeordneten RGBA-Werte
werden aus dem Bildspeicher gelesen und in dem als
BG-Filterpuffer wirksamen Zwischenspeicher zeitweilig gespeichert.
In ähnlicher Weise werden RGBA-Werte, die dem Voxel BG
zugeordnet sind, aus dem Bildspeicher gelesen und im Zwischenspeicher
gespeichert, wobei ein Teil des letzteren als FG-Puffer
arbeitet.
Bei dem bevorzugten Ausführungsbeispiel wird die durch eine
Spalte oder einen Stapel von zwei oder mehreren verketteten
Filtern projizierte Farbe bestimmt durch die folgende
Gleichung:
BG′ = FG + (1 - (FG) × (A FG )) (BG)
wobei
A FG
= die Opazität des Vordergrundfilters;
wobei FG(A) die Opazität des Vordergrundfilters, d. h.
den Opazitätsbeitrag des Vordergrundfilters zum neuen
Hintergrundfilter BG darstellt. Der resultierende neue
Hintergrundwert BG′ wird im Zwischenspeicher für die
nachfolgenden Berechnungen des Kanalprozessors ge
speichert.
Auf diese Weise wird ein neues RGBA-Hintergrundfilter BG bestimmt.
Die obige Berechnung wird danach aufeinanderfolgend
für jedes aufeinanderfolgende Vordergrundfilter FG und dessen
zugehörigen neuen Hintergrund BG solange durchgeführt, bis
alle Filter, die sich bis zur ausgewählten Projektionsebene
der Ansicht 64 erstrecken, berücksichtigt sind, und ein endgültiger
RGBA-Projektionspixelwert für die Anzeige 60 bestimmt
ist. Diese Folge wird durchgeführt, um alle Displaypixel in
bezug auf die ausgewählte 2D-Sichtebene 64 des betrachteten
Bildvolumens 62 zu bestimmen.
Die beschriebene Rekonstruktionsmethode ist nicht auf eine
besondere Verarbeitungsfolge, beispielsweise auf die zuvor
beschriebene Pixel-für-Pixel-Verarbeitung, beschränkt. Beispielsweise
wird bei dem gegenwärtig bevorzugten Ausführungsbeispiel
unter Bezugnahme auf Fig. 6 die Bildrekonstruktionsverarbeitung
für aufeinanderfolgende Voxel-Abtastlinien bzw.
-zeilen des im Bildspeicher 26 b gespeicherten RGBA-Volumens
durchgeführt (d. h. Voxelstreifen, die rechtwinklig zur
2D-Bildebene 16 entlang horizontaler Scheiben 66 des
RGBA-Volumens 62 verlaufen). Daher wird aufeinanderfolgend das RGBA
jeder Vordergrund-Abtastlinien bzw. -zeile FG mathematisch
"überlagert" einem RGBA jeder Hintergrund-Abtastzeile oder
-linie BG, um eine neue Hintergrund-Abtastzeile oder -linie
BG′ zu erzeugen. Die der Abtastlinie bzw. -zeile FG zugeordneten
RGBA-Werte werden aus dem Bildspeicher gelesen und im
Zwischenspeicher zwischengespeichert. In ähnlicher Weise werden
die der Abtastlinie bzw. -zeile BG zugeordneten RGBA-Werte
aus dem Bildspeicher gelesen und zeitweilig im Zwischenspeicher
gespeichert. Die Filterlagen-Berechnungsfolge wird von
dem Kanalprozessor durchgeführt, der aus dem Zwischenspeicher
für aufeinanderfolgende zugehörige BG- und FG-Filter liest, um
eine zusammengesetzte RGBA-Abtastzeile bzw. -linie 68 zu
schaffen, die danach in dem Video-Display-Ausgang 64 geschrie
ben wird. Außerdem werden diese Operationen durchgeführt, um
alle zusammengesetzten Pixelprojektions-Display-Abtastzeilen
oder -linien für die ausgewählte 2D-Ansicht des betrachteten
3D-Volumens zu bestimmen.
Die Filterung wird implementiert durch Kombination aufein
anderfolgender Bildvolumenteile (jeweils eine Abtastzeile) durch
die Multiplizierer/ALU-Einheiten 15 a-15 d des Kanalprozessors.
Ein Kanal (Multiplizierer/ALU) wird zum Filtern der R-Werte
und jeweils einer für die G, B und A-Werte verwendet, usw. für
die RGB
Werte jedes Voxels. Die Filterung kann von der Rückseite
aus zur Frontseite oder alternativ von der Frontseite
zur Rückseite bezüglich der Ansichts- bzw. Bildebene durchgeführt
werden.
Beispielsweise zeigt Fig. 7 eine Farbtafel für die Fig. RGBA-Voxel
70 bis 78, die als aufeinanderfolgende verkettete Filter zur
Erzeugung eines zusammengesetzten Projektionsdisplay-Pixels
2, 1 in Fig. 5, auch in Fig. 6 gezeigt, wirken. Wie aus der
Tabelle ersichtlich ist, werden die RGBA-Komponenten jedes
Werts jedes Filters zur Berechnung eines neuen BG′-Filters
(das danach der BG-Wert des nachfolgenden FG-Voxels wird)
verwendet, um eine endgültige Pixelfarbe bei (2, 1) zu erzeugen.
Daher werden aufeinanderfolgende Berechnungen entsprechend
der verketteten Filtergleichung durchgeführt, um die
aufeinanderfolgenden neuen Hintergrundfilterwerte zu berechnen,
welche danach entsprechend der obigen Gleichung zur Berechnung
der nachfolgenden Werte bezüglich jedes neuen Vordergrunds
solange kombiniert werden, bis ein endgültiger Pixelfarbwert
bestimmt ist. Dieser Wert wird dann angezeigt (in
diesem Falle mit dem zugehörigen Displaypixel (2, 1)).
Die zusammengesetzte 2D-Projektion wird dann im Displaypuffer
26 d gespeichert und zum Rasterabtast-Displaymonitor 22 ausge
geben. Es versteht sich natürlich, daß die zusammengesetzte
2D-Projektion alternativ an einen Drucker oder ein anderes
Ausgabegerät ausgegeben werden kann.
Es wird also eine zweidimensionale Farbprojektion eines
3D-Eingangsbildvolumens erzeugt. Eine andere Bildverarbeitung
kann auch an den resultierenden Projektionen oder Zwischenvolumendaten,
z. B. eine Rotation, Translation, Schattierung,
Streckung, Schrumpfung o. dgl. durchgeführt werden.
Die vorliegende Erfindung kann in einem weiten Bereich von
Bildverarbeitungszusammenhängen eingesetzt werden. Sie kann
beispielsweise zur Schaffung von in 3D-modellierbaren Datensätzen,
wie Daten aus Voxel-abgetasteten Volumen (z. B. CT-Abtastungen)
verwendet werden und für besondere oder generelle
Lösungssätze oder Rechenergebnisse aus Gleichungssätzen oder
anderen Datensätzen, welche wegen ihrer Komplexität nicht ohne
weiteres modellierbar sind. Außerdem kann die Erfindung auf
Farbdatensätze angewendet werden, wenn die Farbe der Komponenten
materialien im Volumen bekannt ist. Dabei kann die Teilvolumen
bestimmung nach der Erfindung unter Verwendung eines
alternativen Mittels zum Klassifizieren der Daten nach prozentualem
Materialanteil durchgeführt werden.
Die Erfindung ist daher nicht auf Grauskalen-Datensätze,
CT-Abtastungen, reale Abbildungen o. dgl. beschränkt. Vielmehr
kann die Erfindung für jeden Kontext angewandt werden, bei dem
diskrete Volumenabtastungen bzw. -proben bestimmbar sind,
wobei für jede Probe (oder Voxel) Materialtypen innerhalb des
Datensatzes (oder differenzierbare Daten zur Darstellung oder
Zuordnung eines Materialtyps) bekannt sind oder gefunden werden
können, so daß der prozentuale Beitrag für jedes Voxel im
Datenvolumen ermittelt werden kann. Die Klassifizierung nach
dem Teilvolumenprozentsatz kann, obwohl sie bei dem beschrie
benen Beispiel für CT-Abtastungen unter Verwendung einer Histogramm
verteilung durchgeführt wurde, auf verschiedenen Wegen
für andere Anwendungen erfolgen, beispielsweise ohne ein
Histogramm (d. h. räumlich anstatt statistisch).
Claims (5)
1. Verfahren zum Erzeugen eines zweidimensionalen Displays
eines dreidimensionalen Datensatzes,
dadurch gekennzeichnet, daß
ein den dreidimensionalen Datensatz darstellendes erstes
Bildvolumen erzeugt wird, daß das erste Bildvolumen in einem
ersten Bildspeicher in Form mehrerer homogener Speicherfelder
gespeichert wird, wobei jedes Feld mehrere Abtastlinien bzw.
-zeilen mit mehreren Volumenelementen (Voxeln) enthält, daß
ein zweites Bildvolumen dadurch erzeugt wird, daß man jedem
Voxel einen Farbwert und einen Opazitätswert zuordnet, daß
durch Kombination einer der Abtastlinien bzw. -zeilen mit der
nächstfolgenden der Abtastlinien bzw. -zeilen ein Kombinations
bildvolumen erzeugt wird, daß der vorhergehende Schritt für
jede nachfolgende der Abtastlinien bzw. -zeilen mit jedem
erzeugten Kombinationsbildvolumen bis zur n'ten Abtastlinie
bzw. -zeile wiederholt wird, wobei n die Gesamtzahl von Ab
tastlinien bzw. -zeilen darstellt und das Kombinationsbildvolumen
Voxel hat, deren Farb- und Opazitätswerte auf der prozentualen
Zusammensetzung der Farb- und Opazitätswerte von
Voxeln in kombinierten Abtastlinien bzw. -zeilen basieren.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
das erste Bildvolumen in eine Vielzahl von Digitalsignalen
umgesetzt und in einem Digitalspeicher gespeichert wird.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
die Farbwerte eine Rot-, eine Grün- und eine Blaukomponente
enthalten.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß
das Kombinationsbildvolumen in einem Kanalprozessor erzeugt
wird, wobei die Rot-, Blau- und Grünkomponenten und der Opazitäts
wert in ersten, zweiten, dritten bzw. vierten Kanälen
kombiniert werden.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch
gekennzeichnet, daß der Farb- und Opazitätswert jedes Voxels
eines Kombinationsbildvolumens gegeben ist durch
FG + (1 - (FG) (A)) (BG),wobeiFG= die Farb- und Opazitätskomponenten eines Voxels
einer der Abtastlinien bzw. -zeilen;A= die Opazität des Voxels einer der Abtastlinien oder
-zeilen;BG= die zusammengesetzte Farb- und Opazitätskomponenten
des korrespondierenden Voxels in zuvor kombinierten Abtastlinien
bzw. -zeilen.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US85177686A | 1986-04-14 | 1986-04-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE3712639A1 true DE3712639A1 (de) | 1987-10-22 |
Family
ID=25311652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19873712639 Ceased DE3712639A1 (de) | 1986-04-14 | 1987-04-14 | Verfahren und einrichtung zum abbilden von volumendaten |
Country Status (6)
Country | Link |
---|---|
US (1) | US5381518A (de) |
JP (1) | JPH0727576B2 (de) |
CA (1) | CA1258923A (de) |
DE (1) | DE3712639A1 (de) |
FR (1) | FR2597227B1 (de) |
GB (1) | GB2190570B (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4034086A1 (de) * | 1989-10-30 | 1991-05-02 | Gen Electric | Verfahren und vorrichtung zum liefern von daten eines probeobjekts, die als volumetrisch wiedergegebenes projektionsbild anzeigbar sind |
DE19911988A1 (de) * | 1999-03-17 | 2000-09-28 | Siemens Ag | Medizinische Untersuchungsanlage, insbesondere Magnetresonanzanlage |
DE10105765A1 (de) * | 2001-02-08 | 2002-09-05 | Karlheinz Schmidt | Verfahren zur visuellen Darstellung von räumlichen Objekten |
US7873141B2 (en) | 2006-11-22 | 2011-01-18 | Ge Medical Systems Global Technology Company, Llc | X-ray tomographic imaging apparatus |
Families Citing this family (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4985856A (en) * | 1988-11-10 | 1991-01-15 | The Research Foundation Of State University Of New York | Method and apparatus for storing, accessing, and processing voxel-based data |
US5640496A (en) * | 1991-02-04 | 1997-06-17 | Medical Instrumentation And Diagnostics Corp. (Midco) | Method and apparatus for management of image data by linked lists of pixel values |
US5734384A (en) * | 1991-11-29 | 1998-03-31 | Picker International, Inc. | Cross-referenced sectioning and reprojection of diagnostic image volumes |
US5644689A (en) * | 1992-01-13 | 1997-07-01 | Hitachi, Ltd. | Arbitrary viewpoint three-dimensional imaging method using compressed voxel data constructed by a directed search of voxel data representing an image of an object and an arbitrary viewpoint |
US5361385A (en) * | 1992-08-26 | 1994-11-01 | Reuven Bakalash | Parallel computing system for volumetric modeling, data processing and visualization |
JPH06223198A (ja) * | 1993-01-26 | 1994-08-12 | Hitachi Ltd | 光線追跡による画像生成装置及び方法 |
US5583974A (en) * | 1993-05-10 | 1996-12-10 | Apple Computer, Inc. | Computer graphics system having high performance multiple layer Z-buffer |
US5664077A (en) * | 1993-09-06 | 1997-09-02 | Nec Corporation | Three-dimensional graph displaying system |
AU699764B2 (en) * | 1994-09-06 | 1998-12-17 | Research Foundation Of The State University Of New York, The | Apparatus and method for real-time volume visualization |
US5724493A (en) * | 1994-12-13 | 1998-03-03 | Nippon Telegraph & Telephone Corporation | Method and apparatus for extracting 3D information of feature points |
DE19603774A1 (de) * | 1996-02-02 | 1997-08-07 | Kontron Elektronik | Verfahren zur Ermittlung von dreidimensionalen Objekt-Eigenschaften |
US6144384A (en) * | 1996-02-20 | 2000-11-07 | Yugen Kashia Aloalo International | Voxel data processing using attributes thereof |
US5825364A (en) * | 1996-04-18 | 1998-10-20 | Electronic Data Systems Corporation | System and method for constructing a three dimensional model from two dimensional images using poissan probability |
US5999187A (en) * | 1996-06-28 | 1999-12-07 | Resolution Technologies, Inc. | Fly-through computer aided design method and apparatus |
US5986662A (en) * | 1996-10-16 | 1999-11-16 | Vital Images, Inc. | Advanced diagnostic viewer employing automated protocol selection for volume-rendered imaging |
US6123733A (en) | 1996-11-27 | 2000-09-26 | Voxel, Inc. | Method and apparatus for rapidly evaluating digital data processing parameters |
US5917937A (en) * | 1997-04-15 | 1999-06-29 | Microsoft Corporation | Method for performing stereo matching to recover depths, colors and opacities of surface elements |
JPH11508386A (ja) * | 1997-04-15 | 1999-07-21 | ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク | 平行法及び遠近法によりボリュームを実時間で視覚化する装置及び方法 |
US6144383A (en) * | 1997-05-30 | 2000-11-07 | Hewlett-Packard Company | Volumetric data organization method that allows for cache efficient rendering speedups and efficient graphics hardware design |
JP3896188B2 (ja) * | 1997-06-13 | 2007-03-22 | 株式会社日立製作所 | 放射線治療計画のための画像処理装置 |
US6008813A (en) * | 1997-08-01 | 1999-12-28 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | Real-time PC based volume rendering system |
US6246784B1 (en) | 1997-08-19 | 2001-06-12 | The United States Of America As Represented By The Department Of Health And Human Services | Method for segmenting medical images and detecting surface anomalies in anatomical structures |
US6262749B1 (en) * | 1997-12-31 | 2001-07-17 | Acuson Corporation | Ultrasonic system and method for data transfer, storage and/or processing |
JPH11353225A (ja) * | 1998-05-26 | 1999-12-24 | Internatl Business Mach Corp <Ibm> | 逐次実行型でグレイ・コード体系のアドレッシングを行うタイプのプロセッサがアクセスするメモリ、及びメモリにコード/データを格納する方法 |
US6396939B1 (en) | 1998-05-28 | 2002-05-28 | Orthosoft Inc. | Method and system for segmentation of medical images |
FR2779853B1 (fr) * | 1998-06-11 | 2000-08-11 | Ge Medical Syst Sa | Procede de reconstruction d'une image tridimensionnelle d'un objet, en particulier une image tridimensionnelle angiographique |
US6310619B1 (en) | 1998-11-10 | 2001-10-30 | Robert W. Rice | Virtual reality, tissue-specific body model having user-variable tissue-specific attributes and a system and method for implementing the same |
US6411296B1 (en) | 1998-11-12 | 2002-06-25 | Trrarecon, Inc. | Method and apparatus for applying modulated lighting to volume data in a rendering pipeline |
US6426749B1 (en) | 1998-11-12 | 2002-07-30 | Terarecon, Inc. | Method and apparatus for mapping reflectance while illuminating volume data in a rendering pipeline |
US6532017B1 (en) | 1998-11-12 | 2003-03-11 | Terarecon, Inc. | Volume rendering pipeline |
US6342885B1 (en) | 1998-11-12 | 2002-01-29 | Tera Recon Inc. | Method and apparatus for illuminating volume data in a rendering pipeline |
US6356265B1 (en) | 1998-11-12 | 2002-03-12 | Terarecon, Inc. | Method and apparatus for modulating lighting with gradient magnitudes of volume data in a rendering pipeline |
US6512517B1 (en) | 1998-11-12 | 2003-01-28 | Terarecon, Inc. | Volume rendering integrated circuit |
US6369816B1 (en) | 1998-11-12 | 2002-04-09 | Terarecon, Inc. | Method for modulating volume samples using gradient magnitudes and complex functions over a range of values |
US6404429B1 (en) | 1998-11-12 | 2002-06-11 | Terarecon, Inc. | Method for modulating volume samples with gradient magnitude vectors and step functions |
US6281901B1 (en) * | 1998-11-25 | 2001-08-28 | The United States Of America As Represented By The Secretary Of The Navy | Interactive overlay for displaying 3-D data |
IL127314A0 (en) * | 1998-11-27 | 1999-09-22 | Algotec Systems Ltd | A method for forming a perspective rendering from a voxel space |
US6304266B1 (en) * | 1999-06-14 | 2001-10-16 | Schlumberger Technology Corporation | Method and apparatus for volume rendering |
US6385604B1 (en) * | 1999-08-04 | 2002-05-07 | Hyperroll, Israel Limited | Relational database management system having integrated non-relational multi-dimensional data store of aggregated data elements |
US6408292B1 (en) | 1999-08-04 | 2002-06-18 | Hyperroll, Israel, Ltd. | Method of and system for managing multi-dimensional databases using modular-arithmetic based address data mapping processes on integer-encoded business dimensions |
US6972774B2 (en) * | 2000-02-21 | 2005-12-06 | Fujitsu Limited | Image processing system for inserting plurality of images into composite area, and medium |
EP1264281A4 (de) | 2000-02-25 | 2007-07-11 | Univ New York State Res Found | Anordnung und verfahren zur bearbeitung und wiedergabe eines volumen |
US20020029207A1 (en) * | 2000-02-28 | 2002-03-07 | Hyperroll, Inc. | Data aggregation server for managing a multi-dimensional database and database management system having data aggregation server integrated therein |
JP2001291090A (ja) * | 2000-04-06 | 2001-10-19 | Terarikon Inc | 三次元画像表示装置 |
US6573912B1 (en) | 2000-11-07 | 2003-06-03 | Zaxel Systems, Inc. | Internet system for virtual telepresence |
EP1209618A1 (de) * | 2000-11-28 | 2002-05-29 | TeraRecon, Inc., A Delaware Corporation | Pipeline-Volumendarstellung |
EP1209629A1 (de) * | 2000-11-28 | 2002-05-29 | TeraRecon, Inc., A Delaware Corporation | Strahl-Frühendpunkt für ein paralleles Pipeline-Volumendarstellungssystem |
US6940507B2 (en) * | 2000-12-18 | 2005-09-06 | Dmitriy G. Repin | Method and apparatus for visualization of 3D voxel data using lit opacity volumes with shading |
ES2378357T3 (es) * | 2001-04-18 | 2012-04-11 | Landmark Graphics Corporation | Dispositivo de renderizado de cuerpos volumétricos |
US20050114831A1 (en) * | 2001-04-18 | 2005-05-26 | Andres Callegari | Volume body renderer |
US6826297B2 (en) * | 2001-05-18 | 2004-11-30 | Terarecon, Inc. | Displaying three-dimensional medical images |
DE10224011A1 (de) * | 2002-05-29 | 2003-12-24 | Siemens Ag | Rechnergestütztes Rekonstruktionsverfahren für ein dreidimensionales Objekt |
US7260250B2 (en) * | 2002-09-30 | 2007-08-21 | The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services | Computer-aided classification of anomalies in anatomical structures |
JP2006507051A (ja) * | 2002-11-21 | 2006-03-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 体積画像のシーケンスを視覚化する方法及び装置 |
WO2004075116A1 (en) | 2003-02-18 | 2004-09-02 | Koninklijke Philips Electronics N.V., | Volume visualization using tissue mix |
US20050151734A1 (en) * | 2004-01-14 | 2005-07-14 | Gubkin Andrew A. | Method and apparatus for rendering, storing and editing voxel objects |
US20050171700A1 (en) * | 2004-01-30 | 2005-08-04 | Chroma Energy, Inc. | Device and system for calculating 3D seismic classification features and process for geoprospecting material seams |
US7327365B2 (en) * | 2004-07-23 | 2008-02-05 | Microsoft Corporation | Shell texture functions |
CN101052998A (zh) | 2004-11-01 | 2007-10-10 | 皇家飞利浦电子股份有限公司 | 绘制的多维数据集的可视化 |
US7711162B2 (en) * | 2005-01-27 | 2010-05-04 | Siemens Medical Solutions Usa, Inc. | Accelerated texture-based fusion renderer |
US7460119B2 (en) * | 2005-01-27 | 2008-12-02 | Siemens Medical Solutions Usa, Inc. | Invisible space skipping with adaptive granularity for texture-based volume rendering |
US7532214B2 (en) * | 2005-05-25 | 2009-05-12 | Spectra Ab | Automated medical image visualization using volume rendering with local histograms |
JP4267598B2 (ja) * | 2005-07-11 | 2009-05-27 | ザイオソフト株式会社 | 画像融合処理方法、画像融合処理プログラム、画像融合処理装置 |
US8041129B2 (en) * | 2006-05-16 | 2011-10-18 | Sectra Ab | Image data set compression based on viewing parameters for storing medical image data from multidimensional data sets, related systems, methods and computer products |
EP1862120B1 (de) * | 2006-05-29 | 2016-11-09 | Toshiba Medical Systems Corporation | Computergestützte Vorrichtung zur Bildgebungsdiagnoseverarbeitung und computergestütztes Verfahren zur Bildgebungsdiagnoseverarbeitung |
US7830381B2 (en) * | 2006-12-21 | 2010-11-09 | Sectra Ab | Systems for visualizing images using explicit quality prioritization of a feature(s) in multidimensional image data sets, related methods and computer products |
US20080232694A1 (en) * | 2007-03-21 | 2008-09-25 | Peter Sulatycke | Fast imaging data classification method and apparatus |
US8593457B2 (en) * | 2010-05-27 | 2013-11-26 | National Tsing Hua University | Method of three-dimensional image data processing |
ES2671252T3 (es) | 2011-11-17 | 2018-06-05 | Stratasys Ltd. | Sistema y método para fabricar un modelo de una parte del cuerpo usando fabricación aditiva con múltiples materiales |
US8605973B2 (en) | 2012-03-17 | 2013-12-10 | Sony Corporation | Graph cuts-based interactive segmentation of teeth in 3-D CT volumetric data |
US9152744B2 (en) * | 2012-03-29 | 2015-10-06 | Airbus Operations (S.A.S.) | Methods, systems, and computer readable media for generating a non-destructive inspection model for a composite part from a design model of the composite part |
CN104658034B (zh) * | 2013-11-18 | 2019-03-01 | 清华大学 | Ct图像数据的融合绘制方法 |
US10292670B2 (en) * | 2013-12-04 | 2019-05-21 | Elekta Ltd. | Method and system for dose calculation based on continuous material indexing |
GB2537831A (en) * | 2015-04-24 | 2016-11-02 | Univ Oxford Innovation Ltd | Method of generating a 3D representation of an environment and related apparatus |
TW201736865A (zh) * | 2016-04-13 | 2017-10-16 | Nihon Medi-Physics Co Ltd | 來自核子醫學影像的生理累積之自動去除及ct影像之自動分段 |
EP3311988A1 (de) * | 2016-10-24 | 2018-04-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zum gemeinsamen 3d-drucken von farbe und lichtdurchlässigkeit und vorrichtung zum gemeinsamen 3d-drucken von farbe und lichtdurchlässigkeit |
EP3388107B1 (de) * | 2017-04-13 | 2021-10-13 | RaySearch Laboratories AB | Methode, system- und computerprogrammprodukt für ionenstrahlungstherapie |
US10896503B2 (en) | 2018-03-23 | 2021-01-19 | International Business Machines Corporation | Identification of areas of interest in imaging applications |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1547566A (en) * | 1975-07-04 | 1979-06-20 | Emi Ltd | Information display arrangements |
US4558438A (en) * | 1981-12-28 | 1985-12-10 | Gulf Research & Development Company | Method and apparatus for dynamically displaying geo-physical information |
US4586038A (en) * | 1983-12-12 | 1986-04-29 | General Electric Company | True-perspective texture/shading processor |
US4679040A (en) * | 1984-04-30 | 1987-07-07 | The Singer Company | Computer-generated image system to display translucent features with anti-aliasing |
US4737921A (en) * | 1985-06-03 | 1988-04-12 | Dynamic Digital Displays, Inc. | Three dimensional medical image display system |
US4729098A (en) * | 1985-06-05 | 1988-03-01 | General Electric Company | System and method employing nonlinear interpolation for the display of surface structures contained within the interior region of a solid body |
US4719585A (en) * | 1985-08-28 | 1988-01-12 | General Electric Company | Dividing cubes system and method for the display of surface structures contained within the interior region of a solid body |
US4835712A (en) * | 1986-04-14 | 1989-05-30 | Pixar | Methods and apparatus for imaging volume data with shading |
-
1987
- 1987-04-13 FR FR878705210A patent/FR2597227B1/fr not_active Expired - Fee Related
- 1987-04-13 CA CA000534575A patent/CA1258923A/en not_active Expired
- 1987-04-13 GB GB8708832A patent/GB2190570B/en not_active Expired - Fee Related
- 1987-04-14 DE DE19873712639 patent/DE3712639A1/de not_active Ceased
- 1987-04-14 JP JP62089980A patent/JPH0727576B2/ja not_active Expired - Fee Related
-
1992
- 1992-12-18 US US07/993,830 patent/US5381518A/en not_active Expired - Fee Related
Non-Patent Citations (2)
Title |
---|
Frieder u.a.: "Backk-to-Front Display of Voxel-Based Objects", in IEEE Computer Graphics and Applications, Januar 85 S, 52-60 * |
Goldwasser u.a.: Physician's Workstation with Real-Time Performance", in IEEE Computer Graphics and Applications, Dezember 85, S. 44-57 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4034086A1 (de) * | 1989-10-30 | 1991-05-02 | Gen Electric | Verfahren und vorrichtung zum liefern von daten eines probeobjekts, die als volumetrisch wiedergegebenes projektionsbild anzeigbar sind |
DE19911988A1 (de) * | 1999-03-17 | 2000-09-28 | Siemens Ag | Medizinische Untersuchungsanlage, insbesondere Magnetresonanzanlage |
DE19911988C2 (de) * | 1999-03-17 | 2003-07-31 | Siemens Ag | Medizinische Magnetresonanzanlage |
DE10105765A1 (de) * | 2001-02-08 | 2002-09-05 | Karlheinz Schmidt | Verfahren zur visuellen Darstellung von räumlichen Objekten |
US7873141B2 (en) | 2006-11-22 | 2011-01-18 | Ge Medical Systems Global Technology Company, Llc | X-ray tomographic imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JPS6324478A (ja) | 1988-02-01 |
GB2190570A (en) | 1987-11-18 |
GB2190570B (en) | 1991-01-23 |
GB8708832D0 (en) | 1987-05-20 |
CA1258923A (en) | 1989-08-29 |
FR2597227B1 (fr) | 1992-09-11 |
US5381518A (en) | 1995-01-10 |
JPH0727576B2 (ja) | 1995-03-29 |
FR2597227A1 (fr) | 1987-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3712639A1 (de) | Verfahren und einrichtung zum abbilden von volumendaten | |
DE3689399T2 (de) | Kubusteilungssystem und Verfahren zur Anzeige von im Innengebiet eines massiven Körpers enthaltenen Flächenstrukturen. | |
DE3855040T2 (de) | Bildverarbeitungsverfahren und -gerät | |
DE69029982T2 (de) | Verfahren und Geräte zur dreidimensionalen Bilderzeugung | |
DE69835408T2 (de) | Verfahren und Vorrichtung zur Komposition von Bildfarben unter Speicherbeschränkungen | |
EP2038847B1 (de) | Verfahren und vorrichtung zur darstellung von 3d bilddatensätzen auf 2d bildern | |
DE69919497T2 (de) | Verfahren und Gerät zur Volumendarstellung mit mehreren Tiefenpuffern | |
DE68928438T2 (de) | Verfahren und Vorrichtung zur Erzeugung von beweglichen Bildern | |
DE3686233T2 (de) | Videosignalverarbeitung. | |
DE3853393T2 (de) | Verfahren und Vorrichtung zur zweidimensionalen Bilderstellung. | |
DE69333846T2 (de) | Verfahren zur mischung von bildern und vorrichtung hierzu. | |
DE69100140T2 (de) | Verfahren zur Anzeige eines Bildteiles einer physikalischen Struktur. | |
DE3650169T2 (de) | Anlage und Verfahren zur Anzeige von im Inneren eines Festkörpers eingeschlossenen Oberflächenstrukturen. | |
DE102005023964A1 (de) | Volumenvisualisierung mittels Texturverschiebung | |
DE4224568C2 (de) | Vorrichtung und Verfahren zur Bildung der Anzeige eines dreidimensionalen sequentiellen tomografischen Flächenschattierungsbildes | |
DE3735519C2 (de) | Binäre Rauminterpolation | |
DE102009042328A1 (de) | Effiziente Bestimmung von Lichteffekten beim Volume Rendering | |
DE69921608T2 (de) | Verfahren und vorrichtung zum zoomen von digitalen bilddateien | |
DE102009042326A1 (de) | Interaktive Veränderung der Darstellung eines mittels Volume Rendering dargestellten Objekts | |
EP1843296A1 (de) | Verfahren zur reproduzierbaren Erzeugung von Ansichten tomographischer Bilddaten | |
DE102007050615A1 (de) | Brick-basierter Fusionsrenderer | |
DE3854960T2 (de) | Vorrichtung und Verfahren zur tomographischen Datenverarbeitung | |
DE3732616A1 (de) | Roentgenstrahl-computer-tomographiegeraet | |
DE102004056589A1 (de) | Verfahren und Vorrichtung zur Durchführung segmentierungsbasierter Bildoperationen | |
DE102008005476A1 (de) | Verfahren zur Bildkompression eines Bildes mit 3D Graphikinformation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8131 | Rejection |