DE3855040T2 - Bildverarbeitungsverfahren und -gerät - Google Patents

Bildverarbeitungsverfahren und -gerät

Info

Publication number
DE3855040T2
DE3855040T2 DE3855040T DE3855040T DE3855040T2 DE 3855040 T2 DE3855040 T2 DE 3855040T2 DE 3855040 T DE3855040 T DE 3855040T DE 3855040 T DE3855040 T DE 3855040T DE 3855040 T2 DE3855040 T2 DE 3855040T2
Authority
DE
Germany
Prior art keywords
interest
boundary
region
viewing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE3855040T
Other languages
English (en)
Other versions
DE3855040D1 (de
Inventor
Todd J Krochta
Hsayjern Lin
Frederick C Mailey
Heang K Tuy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Philips Nuclear Medicine Inc
Original Assignee
Picker International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Picker International Inc filed Critical Picker International Inc
Publication of DE3855040D1 publication Critical patent/DE3855040D1/de
Application granted granted Critical
Publication of DE3855040T2 publication Critical patent/DE3855040T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Algebra (AREA)
  • Computer Graphics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Processing (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Input (AREA)
  • Image Analysis (AREA)

Description

  • Die Erfindung betrifft Bildverarbeitungsverfahren und -geräte.
  • Insbesondere betrifft die Erfindung ein solches Verfahren und eine solche Vorrichtung, die dreidimensionale Bilder erzeugen.
  • Die Erfindung ist auf Computertomographie-Bildverarbeitungsverfahren und -geräte anwendbar und wird unter spezieller Bezugnahme hierauf erläutert, obgleich zu beachten ist, daß die Erfindung auch die Anwendung auf andere Abbildungsverfahren und -geräte wie Magnetresonanz- Bildverarbeitungsverfahren und -geräte beinhaltet.
  • Die Computertomographie (CT) und die Magnetresonanz- Bildverarbeitung (MRI von magnetic resonance imaging) ermöglichen die Erzeugung von Querschnittsdaten der menschlichen Anatomie. Die durch die CT oder MRI gewonnenen Daten werden zusammengestellt bzw. assembliert, und es wird entsprechend der von einem speziellen Abschnitt der Daten gewonnenen Daten eine Grauskala zugewiesen.
  • Da jedoch Organe in der Realität dreidimensional sind, muß eine Serie von Schichten oder Abtastungen aufgenommen werden, und es ist eine mentale Integration erforderlich, um die tatsächliche Anatomie sichtbar zu machen. Es besteht die Notwendigkeit, eine Folge derartiger rekonstruierter planarer Bilder in ein vertrauteres Formal umzusetzen. Die Art der Bildreformatierung hilft den Ärzten bei ihrer im Kopf auszuführenden mentalen Integration. Sie unterstützt auch das Auffüllen der Kommunikationslücke zwischen Radiologen, überweisenden Ärzten, Mitarbeitern und deren Patienten. Aus dieser Art von Bildverarbeitung resultiert eine bessere Planung der medizinischen Behandlung oder chirurgischen Operationen.
  • Im letzten Jahrzehnt sind zahlreiche Verfahren zur Reformatierung von Querschnittsbildern und zu deren Präsentierung als dreidimensionales Bild aus irgendeiner beliebigen Betrachtung vorgeschlagen worden. Insbesondere sind fünf verschiedene Lösungswege ausprobiert und untersucht worden. Diese umfassen die Cuberille-Lösung, die Octree-Lösung, die Strahlabtast-Lösung (Ray-Tracing Lösung), die Triangulations-Lösung und die Contour-Lösung. Jede dieser Lösungen beinhaltet jedoch ihr eigentümliche Nachteile.
  • Damit ein dreidimensionaler Bildverarbeitungsprozessor in der Praxis nutzbar wird, muß die Systemantwort extrem schnell sein und idealerweise weniger als eine Sekunde pro Bild bzw. Frame betragen, wenn sie nicht Echtzeitverarbeitung entsprechen muß. In den bekannten Systemen konnte eine Implementierung mit derartigen Geschwindigkeiten nur unter der Verwendung hierfür speziell vorgesehener Hardware erreicht werden. Eine derartige spezielle zweckbezogene Hardware ist außerordentlich teuer und ist generell nicht kosteneffektiv. Eine solche speziell zugewiesene Hardware ist n&cht für andere Prozeßoperationen außer für ihre spezielle dreidimensionale Reformatierung verwendbar.
  • Ein weiterer Nachteil des Standes der Technik findet sich speziell in der Cuberille-Lösung. In derartigen Systemen ist die Vorverarbeitung von ursprünglichen Bilddaten erforderlich, da das zugrundeliegende Modell dieser Lösung voraussetzt, daß das dreidimensionale Objekt aus Hexaedern oder Kubussen derselben Abmessung aufgebaut ist. Da in der Tat die Eingangsdaten eines CT oder MRI Scanners typischerweise nicht kubisch sind, da die Distanz zwischen aufeinanderfolgenden Schichten gemeinhin sehr viel größer als die Pixelschicht oder die rekonstruierten Bilder sind, werden Auflösung und Genauigkeit verwirkt.
  • Die vorliegende Erfindung beabsichtigt die Schaffung eines neuen und verbesserten Bildverarbeitungsverfahrens und -geräts, die sämtliche der oben erwähnten Probleme und auch weitere überwinden, und sieht ein System vor, das dreidimensionale Bilder erzeugt und einfach, ökonomisch und auf Prozessoreinrichtungen für einen allgemeinen Zweck einfach adaptierbar ist.
  • Gemäß einem ersten Aspekt der Erfindung wird ein Bildverarbeitungsgerät vorgesehen, das ein dreidimensionales Bild einer Probe erzeugt und aufweist: eine Akquisitionseinrichtung zur Erfassung von Schichtdaten, die eine physikalische Eigenschaft mehrerer im wesentlichen planarer Regionen der Probe anzeigen, wobei jede planare Region in mehrere Teilregionen unterteilt ist, die durch für den diese betreffenden Anteil von Schichtdaten repräsentative Teilregiondaten repräsentiert sind, d.h. durch Teilregiondaten, die für den Anteil der Schichtdaten repräsentativ sind, welcher nur diese betrifft bzw. eindeutig diese Teilregionen wiedergibt; eine Einrichtung, die im wesentlichen sämtlichen Teilregionen zumindest einer der mehreren im wesentlichen planarer Schichten einen Betrachtungswert oder Sichtwert zuordnet, wobei der Betrachtungswert entsprechend der Teilregiondaten hierfür (die Teilregionen) zugewiesen wird; eine Einrichtung, die zumindest eine erste der planaren Regionen zur Bildung einer interessierenden Region auf- oder verteilt bzw. portioniert oder zumißt; eine Einrichtung, die eine interessierende Abgrenzung innerhalb der interessierenden Region definiert; eine Einrichtung, die eine Position einer zugeordneten Betrachtungsfläche in Relation zu im wesentlichen jeder Teilregion der interessierenden Abgrenzung definiert; eine Einrichtung, die Abgrenzungsbilddaten, die repräsentativ für im wesentlichen sämtliche Abgrenzungsteilregionen von Interesse sind, als eine Funktion von diese betreffenden Teilregiondaten zusammenstellt oder assembliert, d.h. als eine Funktion von Teilregiondaten, die nur diese betreffen oder eindeutig hierfür (die interessierenden Abgrenzungsteilregionen) sind; und eine Einrichtung zur Projektion der Bilddaten auf die Betrachtungsfläche, dadurch gekennzeichnet, daß das Gerät ferner eine Skalierungseinrichtung umfaßt, die die Betrachtungswerte zumindest eines Teils der Abgrenzungsbilddaten entsprechend der Verschiebung oder Versetzung der Abgrenzungsteilregionen von der Betrachtungsfläche skaliert.
  • Gemäß einem zweiten Aspekt der Erfindung ist ein Verfahren zum Erzeugen eines dreidimensionalen Bildes einer Probe vorgesehen, aufweisend die Schritte: Erfassen von Schichtdaten, die eine physikalische Eigenschaft mehrerer im wesentlichen planarer Regionen der Probe anzeigen, wobei jede planare Region in mehrere Teilregionen unterteilt ist, die durch Teilregiondaten repräsentiert sind, welche durch für den diese betreffenden Anteil von Schichtdaten repräsentative Teilregiondaten repräsentiert sind; Zuweisen eines Betrachtungswerts zu im wesentlichen sämtlichen Teilregionen zumindest einer der mehreren planaren Schichten, wobei der Betrachtungswert oder Sichtwert entsprechend den Teilregiondaten hierfür zugewiesen wird; Aufteilen zumindest einer ersten der planaren Regionen zur Bildung einer interessierenden Region; Definieren einer interessierenden Abgrenzung innerhalb der interessierenden Region; Definieren einer Position einer zugeordneten Betrachtungsfläche in Relation zu im wesentlichen jeder Teilregion der interessierenden Abgrenzung; Zusammenstellen oder Assemblieren von Teilregionbilddaten, die im wesentlichen für sämtliche Teilregionen der interessierenden Abgrenzung repräsentativ sind, als eine Funktion von nur diese betreffende Teilregiondaten; Projizieren von Bilddaten auf die Betrachtungsoberfläche; und gekennzeichnet durch Skalieren der Betrachtungswerte zumindest eines Teils der Abgrenzungsbilddaten entsprechend der Verschiebung oder Versetzung der Abgrenzungsteilregionen von der Betrachtungsfläche.
  • Ein Vorteil der vorliegenden Erfindung besteht darin, daß ein Verfahren und ein Gerät angegeben werden, in welchen ein dreidimensionales Bild aus einer Serie von Schichtabtastungen erzeugt wird, die mit konventionellen Abbildungsgeräten oder Bildverarbeitungsgeräten gewinnbar sind.
  • Ein weiterer Vorteil der vorliegenden Erfindung besteht in der Bereitstellung eines Verfahrens und eines Geräts zum Erzeugen von dreidimensionalen Bildern mit gesteigerter Wiedergabetreue und Auflösung.
  • Ein weiterer Vorteil der vorliegenden Erfindung besteht in der Bereitstellung eines Verfahrens und eines Geräts zur Erzeugung dreidimensionaler Abbildungen, welche keine spezialisierte Hardware erfordern.
  • Ein weiterer Vorteil der vorliegenden Erfindung besteht in der Bereitstellung eines Verfahrens und Geräts, mit denen die Oberflächendichte eines dreidimensionalen Bildes sichtbar gemacht werden kann.
  • Ein noch weiterer Vorteil der vorliegenden Erfindung besteht in der Bereitstellung eines Verfahrens und Geräts, mit denen Querschnitts-Schnitte eines dreidimensionalen Bildes selektiert und betrachtet werden können.
  • Die US- A-4 674 046 offenbart ein Abtastplanungsverfahren zur Gewinnung eines Tomographiebildes in einem Computertomographiesystem. Es werden Projektionsdaten mehrerer paralleler Schichten durch eine Computertomographie-Abtastvorrichtung akquiriert. Die Tomographiebilder werden entsprechend den akquirierten bzw. erfaßten Daten interpoliert, um hierdurch dreidimensionale Bilddaten vorzusehen, und ein dreidimensionales Objektbild entsprechend dieser dreidimensionalen Daten wird zur Anzeige gebracht. Gemäß manuell eingegebener Koordinateninformation werden der Betrachtungspunkt für das Objektbild die Orientierung des Objektbildes geändert. Entsprechend der Koordinateninformation wird ein Schichtpositionsbild, das die designierte Position und den Winkel der Schicht repräsentiert, dreidimensional dargestellt. Die Computertomographie-Abtastvorrichtung wird entsprechend der Position und dem Winkel des Schichtpositionsbildes bezüglich des Objektbildes gesteuert.
  • Die JP-A-59 060 680 offenbart die Abbildung oder Bildverarbeitung eines dreidimensionalen Objekts, wobei die betrachtete Oberfläche ein zweidimensionaler Querschnitt des dreidimensionalen Bildes ist. Ein zu betrachtender gewünschter Schnitt des Bildes wird selektiert, indem ein Joy-Stick bei Betrachtung eines Fernsehmonitors betätigt wird. Auf diese Weise wird der gewünschte Querschnitt des dreidimensionalen Objekts vor der Betrachtung selektiert, oder es wird Schicht um Schicht des Bildes weggeschnitten, bis das gewünschte Schnittbild sichtbar wird. Ein dreidimensionales Bild wird dann durch Aufeinanderschichten mehrerer Tomographieschichten gebildet, jedoch wird nur ein zweidimensionales Querschnittsbild dargestellt.
  • Ein Verfahren und ein Gerät gemäß der Erfindung werden nun beispielhalber unter Bezugnahme auf die beiliegenden Zeichnungen erläutert, in denen:
  • FIG. 1 ein Blockschaltbild des Geräts ist;
  • FIG. 2 eine schematische Darstellung ist, die ein dreidimensionales Bild zeigt, das durch das Gerät erzeugt worden ist;
  • FIG. 3 ein segmentiertes Objekt und dessen Projektion auf eine Betrachtungsoberfläche zeigt;
  • FIG. 4 ein Schema für eine dreidimensionale Bilddatenprojektion auf einen Betrachtungsbereich darstellt;
  • FIG. 5 ein Flußdiagramm zur Erleichterung der Erzeugung der dreidimensionalen Abbildung ist;
  • FIG. 6 ein Flußdiagramm für Betrachtungsoperationen des Geräts ist;
  • FIG. 7 ein Flußdiagramm zur Verdeutlichung einer Erweiterung des Verfahrens und Geräts ist, die es gestattet, Oberflächendichte-Information auf dem erzeugten dreidimensionalen Bild darzustellen;
  • FIG. 8 ein Fortsetzungs-Flußdiagramm der FIG. 7 ist;
  • FIG. 9 ein Probenbild zum Schneiden und Betrachten unter Verwendung des Geräts zeigt;
  • FIG. 10 eine Prozedur zum Schneiden eines Bildes unter Verwendung des Geräts zeigt;
  • FIG. 11 ein Flußdiagramm für den Schneidvorgang unter Verwendung des Geräts ist; und
  • FIG. 12 einen alternativen Schneidvorgang zu dem an Hand FIG. 11 Erläuterten zeigt.
  • In der Fig. 1 ist ein Blockschaltbild mit einer schematischen Darstellung eines Diagnose-Bildverarbeitungsgeräts gezeigt, welches eine dreidimensionale Repräsentation einer Probe liefert. Eine Akquisitionseinrichtung, die Schichtdaten (sogenannte Slice-Daten) A akquiriert bzw. erfaßt, ist interfacemäßig mit einer Datenprozessor/ Steuerschaltung B verbunden. Wie dargestellt, umfaßt die Akquisitionseinrichtung A einen CT-Scanner und wird speziell mit Bezug hierauf erläutert. Es ist jedoch zu beachten, daß ähnliche Schichtdaten auch ohne weiteres durch irgendeine andere geeignete Schichtabbildungsvorrichtung wie beispielsweise eine MRI-Vorrichtung erfaßbar sind.
  • Der CT-Scanner umfaßt eine Röntgenquelle 10, die ein fächerförmiges Röntgenstrahlbündel durch einen Abbildungskreis 12 auf eine Detektoranordnung 14 projiziert. Es sind mehrere im wesentlichen paralleler Scheiben oder Schichten durch inkrementelles Bewegen eines Objekts durch den Abbildungskreis 12 zwischen aufeinanderfolgenden Abtastvorgängen mit Hilde von Einrichtungen wie z.B. dem dargestellten Zahnradgetriebe 18 gewinnbar. Ein Frozessor 22 ist interfacemäßig an eine Röntgenröhrensteuerschaltung 24 angeschlossen, die eine Beschleunigungs/Abbrems-Steuerung einer rotierenden Anode der Röntgenröhre 10 sowie eine Steuerung der Erzeugung des Röntgenstrahlfächers erleichtert. Ein Feldrechner (sogenannter Array-Prozessor) 26 arbeitet unter der Steuerung eines in einer Speichereinrichtung 28 gespeicherten Programms. Der Feldrechner arbeitet in Verbindung mit dem Prozessor 22 und unter einer weiter unten dargelegten Programmierung. Die Verwendung eines Feldrechners ist für eine schnelle Verarbeitung der dreidimensionalen Bilddaten des vorliegenden Systems von Vorteil.
  • Die Schichtdaten werden von der Akquisitionseinrichtung A über eine Datenakquisitionsschaltung 30 erfaßt. Vom Feldrechner 22 erzeugte Bilder werden durch die Bildrekonstruktionsschaltung 32 rekonstruiert. Ferner ermöglicht ein Bedienungsfeld 20 den Eingriff eines Menschen in bzw. den Dialog mit dem Prozessor 22. Schließlich gestattet eine Display-Einrichtung 34 die Betrachtung einer resultierenden Abbildung.
  • Im bevorzugten Ausführungsbeispiel umfaßt der Feldrechner 26 drei Prozessorelemente zur Erleichterung einer sehr schnellen Berechnung. Es ist jedoch zu beachten, daß andere Verarbeitungseinheiten adäquat funktionieren werden, wenn die zu verarbeitenden Bilder gemäß der Lehre des vorliegenden Systems verarbeitet werden.
  • Der Prozessor nimmt einen Satz Bilder aufeinanderfolgender oder fortlaufender Schichten eines dreidimensionalen Objekts auf, die durch die Akquisitionseinrichtung A erzeugt werden, und liefert räumlich codierte Schichtdaten, die eine physikalische Eigenschaft hiervon anzeigen. Ferner ist eine Einrichtung vorgesehen, die einen Betrachtungswert oder Sichtwert (sogenannten Viewing-Wert) im wesentlichen sämtlichen Teilregionen zumindest einer der im wesentlichen planaren Schichten zuweist. Dieser Betrachtungswert ist zweckmäßigerweise ein Grauskalenwert. Diese Bilder fortlaufender Schichten werden in ein Format umgesetzt, das ähnlich dem eines konventionellen CT- oder MRI-Scanners ist.
  • Die gegenstandsmäßige Prozedur zur Erzeugung der dreidimensionalen Abbildungen gestaltet eine solche Erzeugung als insbesondere anpaßbar und anwendbar auf konventionelle Prozessoren, wie den gegenstandsmäßigen Feldrechner. Die dreidimensionalen untersuchten Objekte wie Knochen oder Organe erstrecken sich gewöhnlich durch zahlreiche aufeinanderfolgende Querschnitts-Bildschichten. Beispielsweise wäre ein Satz Querschnitts-CT-Abbildungen erforderlich, um die lumbale Wirbelsäule zu untersuchen, da sich die Wirbelsäule über eine Schichtdicke hinaus erstreckt. Um das dreidimensionale Objekt effizient aus einer Schicht zu extrahieren, wird zu Anfang eine dreidimensionale Box ausgewählt, die groß genug ist, um das der Untersuchung unterzogene dreidimensionale Objekt einzuschließen. Diese dreidimensionale Box, die hier als die interessierende Box ("BOI") bezeichnet wird, ist kleiner als ein Gesamtvolumen, welches durch einen Schichtsatz repräsentiert wird, reduziert die zur Verarbeitung erforderliche Gesamtinformation und reduziert damit auch die Verarbeitungszeit. Die BOI funktioniert so, daß sie jede Bildschicht in eine zweidimensionale Region von dieser aufteilt bzw. portioniert. Jede Region, die als interessierende Region oder Region von Interesse bezeichnet wird ("ROI"), setzt sich wiederum aus mehreren Teilregionen zusammen, die durch Daten repräsentiert werden, welche von der Datenakquisitionseinrichtung geliefert werden. Die ROI wird vorzugsweise aus einem einzelnen Schichtbild selektiert und aus praktischen Gründen auffolgende Schichten projiziert oder extrapoliert. Es ist jedoch zu beachten, daß in bestimmten Situationen es vorzuziehen ist, eine ROI aus zwei oder mehr Regionen zu selektieren, um hierdurch ein bestimmtes Volumen einzuschließen. Beispielsweise könnte eine erste ROI selektiert werden, die einen ersten Satz Dimensionen aufweist, und es könnte eine zweite ROI mit einem zweiten Satz Dimensionen ausgewählt werden, welche größer oder geringer als die des ersten sind, wobei die dazwischenliegenden Schichten funktionell mit den Dimensionen der beiden Dimensionssätze in Beziehung gesetzt werden. Für die meisten Zwecke ist jedoch eine einzelne ROI mit einem gegebenen Satz Dimensionen adäquat, die auffolgende Schichten extrapoliert oder projiziert werden.
  • Nach Definition einer interessierenden Region wird hieraus ein Gegenstand oder eine interessierende Grenze oder Umgrenzung eines Gegenstandes selektiert. Wiederum wird ein solcher Gegenstand zweckmäßigerweise aus einer einzelnen ROI von einer einzelnen Schicht selektiert und auffolgende ROI's der interessierenden Box projiziert. In speziellen Situationen ist jedoch zu beachten, daß die interessierende Grenze auch von zwei oder mehr interessierenden Regionen selektiert werden könnte.
  • Die Selektion der interessierenden Grenze oder Abgrenzung kann beispielsweise durch eine manuelle Selektion an Hand eines Displays erfolgen, wie beispielsweise das Bewegen eines Cursors auf dieser Abgrenzung oder durch Isolieren einer speziellen Abgrenzung mit einem vorgegebenen Grauskalenwert. Im bevorzugten Ausführungsbeispiel wird eine Kombination von beidem implementiert. Die interessierende Region wird zu Anfang als ein planares Bild erzeugt. Ein selektierter Bereich von Grauskalen (Werten) wird dieser interessierenden Region zugeordnet, und nur diejenigen Bereiche, die in diesen Bereich hineinfallen, werden beleuchtet. Eine Bedienungsperson oder ein Techniker selektiert dann über das Bedienungsfeld 20 (FIG. 1) diejenigen Oberflächen oder Abgrenzungen innerhalb dieses Bereiches, die heranzuziehen sind. Diese werden dann wiederum auffolgende Regionen der interessierenden Box projiziert.
  • In FIG. 2 ist ein Probengegenstand in einer interessierenden Box 37 dargestellt, die wiederum aus aufeinanderfolgenden Schichten zusammengesetzt ist. Der Gegenstand oder die Probe 34 ist in seiner Gesamtheit durch zwei Schichten sektioniert. Die interessierenden Regionen 36, 38 werden aus jeder Schicht selektiert. Jede interessierende Region 36, 38 selbst umfaßt Teilregiondaten 40, die als Bildelement oder Pixel bezeichnet werden können. Das Pixel wird deshalb so genannt, weil es dazu verwendet wird, ein darauffolgendes Bild dadurch zu erzeugen, daß ihm ein eindeutiger, d.h. ihn betreffender individueller Betrachtungswert oder Grauskalenwert zugewiesen wird, welcher eine Funktion der physikalischen Eigenschaft dieses speziellen Elementes ist, wie es vom Schichtbildverarbeitungsgerät oder Schichtabbildungsgerät aufgeklaubt oder zusammengetragen ist.
  • Wenn die Pixel 40 von jeder Region von Interesse 36, 38 derart plaziert sind, ist ein Volumenelement ("VOXEL") definierbar, das eine Volumeneigenschaft der Gegenstandsprobe anzeigt.
  • Generell muß ein der Untersuchung unterzogener Gegenstand von der dreidimensionalen ihn einschließenden Box weiterer Verarbeitung unterzogen werden. In der vorliegenden Erfindung wird diese Verarbeitung mit Segmentation bezeichnet. Die Segmentation besteht aus zahlreichen Computergraphik- und Bildverarbeitungstechniken, die im Verbund genutzt werden. Diese Techniken umfassen eine Schwellwertbildung, eine Konturgebung und ein Bereichs- oder Regionswachstum. Der Segmentationsprozeß ermöglicht, daß die Bildverarbeitung auf einem Standardprozessor bewerkstelligt werden kann. Bei der Segmentation wird, sobald das interessierende Objekt aus der dreidimensionalen Box in der oben verdeutlichten Weise extrahiert worden ist, dieses Objekt in einer knappen, prägnanten Weise repräsentiert. Im vorliegenden System wird die Abtastzeilen-Repräsentationstechnik implementiert. In dieser Technik wird ein Gegenstand oder Objekt durch einen Satz Segmente repräsentiert, die das Objektvolumen vollständig füllen. Jedes Segment ist wiederum durch zwei Endpunkte, die Schichtnummer, in die das Segment hineingehört, und die Reihennummer des Segments innerhalb der Schicht repräsentiert. Wendet man sich speziell FIG. 2B zu, ist ersichtlich, daß die Bildung zweier derartiger Segmente dort verdeutlicht ist. Das Segment 46 wird aus den Endpunkten (Pixeln) 48, 50 gebildet, während das Segment 56 aus den Endpunkten 58, 60 gebildet wird.
  • Gemäß FIG. 3 ist das gegenwärtig beschriebene dreidimensionale Reformatierungsverfahren imstande, jeweilige perspektivische dreidimensionale Bilder eines Objektes 66 in einer beliebigen gegebenen Betrachtungsrichtung zu erzeugen. Jede Sicht- oder Betrachtungsrichtung ist mit einer rechtwinkligen oder quadratischen Betrachtungsoberfläche, wie die durch 68 angedeutete, verknüpft, auf der entsprechende perspektivische dreidimensionale Bilder erzeugt werden. Dieses Rechteck oder die Betrachtungsfläche wird deshalb als Bildschirm (Screen) bezeichnet, weil das erzeugte dreidimensionale Bild dadurch betrachtet wird, daß es auf eine zweidimensionale Betrachtungsfläche verschoben wird, wie diejenige, die in der Display-Konsole 34 (FIG. 1) ausgeführt ist.
  • Eine perspektivische dreidimensionale Ansicht eines dreidimensionalen Objekts kann so betrachtet werden, als wäre sie aus orthogonalen Projektionen auf den Schirm von Punkten auf der Oberfläche des Objekts auf diesem Schirm zusammengesetzt. Um einen Tiefen-Cue-Effekt bei der Betrachtung des erzeugten Bildes zu gewährleisten, werden die Grauskalenwert-Betrachtungswerte entsprechend den projizierten Punkten auf dem Schirm durch eine Skalierungseinrichtung skaliert. Jeder resultierende Grauskalenwert ist invers proportional zu einer kürzesten Distanz von einem entsprechenden Punkt auf der Oberfläche des Objekts längs einer Normalen zum Schirm. Die Betrachtungsrichtung wird als normal zum Schirm vorausgesetzt. Projizieren in dieser Rahmenkonstruktion zwei Punkte auf einer Oberfläche des Objekts auf denselben Punkt des Schirms, ist nur ein Punkt, der dem Schirm am nächsten liegt, sichtbar. Ferner erscheinen Punkte auf der Oberfläche des Objekts, die näher am Schirm liegen, weißer gefärbt, und Punkte auf der Oberfläche, die weiter weg vom Schirm sind, werden abgedunkelt, um ein pseudo-dreidimensionales Bild leichter darstellen zu können.
  • Um die Krümmung der Oberfläche des Objekts an einem sichtbaren Punkt darzustellen, kann die Skalierungseinrichtung alternativ oder zusätzlich eine Einrichtung umfassen, die einen entsprechenden Grauwert oder Graupegel multipliziert mit einer Wichtung, die eine Funktion des Kosinus eines Winkels der Normalen zum Schirm und der Normalen zur Oberfläche des Objekts ist, diesem speziellen betrachteten Punkt zuordnet. Für eine effiziente Realisierung im Hinblick auf Berechnungszeit und Rechnerspeicherung, wird dieser Winkel aus der Distanz der umgebenden Punkte im Schirm zu entsprechenden sichtbaren Punkten auf der Oberfläche des Objekts abgeschätzt. Explizit ist die Formel, die dazu verwendet wird, einen Grauwert zuzuordnen, im folgenden aufgeführt:
  • g = SCALE * cosm Maximum (AVERD, CUTOFF) * (K * (d-DMAX) + GMIN)
  • Formel (1),
  • worin: g = zugeordneter Grauwert
  • d = zugeordnete Distanz zur Betrachtungsfläche
  • K = (GMAX - GMIN) / (DMIN - DMAX)
  • DMIN = 0,5 * DIAG
  • DMAG = 1,5 I DIAG
  • DIAG = Diagonale der interessierenden Box
  • AVERD = Summe von vier Zahlen, wobei jede Zahl das Minimum zwischen MAXA und dem Absolutwert der Differenz zwischen den Distanzen ist, die einem der vier entgegengesetzten Paare von Pixeln zugewiesen sind, die das gerade betrachtete Pixel umgeben,
  • GMAX, GMIN, m, MAXA, CUTOFF und SCALE willkürliche Werte sind, die von den gewünßchten Betrachtungscharakteristiken abhängen; im bevorzugten Beispiel sind hierfür geeignete Werte: GMAX = 255, GMIN = -255, m = 20, MAXA = 25, CUTOFF = 0,9919 und SCALE (Maßstab) = 1/200.
  • Wird gemäß Darstellung in FIG. 3 eine Oberflächendarstellung von den Prozessoren ausgeführt, wird ein rechtwinkliger Schirm 68 in kleine Quadrate aufgeteilt, die Schirmpixel genannt werden. Für eine gute Auflösung der dreidimensionalen Ansichten des Objekts ist es von Vorteil, einen Schirm zu betrachten, der gerade groß genug ist, um eine Projektion des Objektes zu enthalten. Um dieses Ziel zu erreichen, wird die Diagonale der Box von Interesse vorteilhafterweise so ausgewählt, daß sie der seitlichen Abmessung des Schirms entspricht.
  • Der Vergrößerungsfaktor des dreidimensionalen Bildes wird zweckmäßigerweise dadurch gewonnen, daß ein Schirm kleinerer Größe gewählt wird, wenn die Anzahl von Pixeln, die den Schirm unterteilen, konstant bleibt. Beispielsweise werden zweckmäßigerweise Werte von 256 x 256 Pixeln oder 512 x 512 Pixeln gewählt. Die Anzahl von Pixeln eines Schirms wird im folgenden als Schirmauflösung bezeichnet. Eine Änderung der dreidimensioanalen Ansichten des Objekts wird zweckmäßigerweise dadurch realisiert, daß eine Position des Schirms geändert wird, statt das Objekt selbst zu drehen. Eine derartige Positionierung der Betrachtungsfläche 68 ist in FIG. 3 in Relation zum Objekt 66 dargestellt. Wie oben erwähnt, wird das dreidimensionale Objekt durch einen Segmentsatz repräsentiert. In einer solchen Repräsentation repräsentiert ein zum Objekt gehörendes Liniensegment einen Teil von diesem. Für den Fall, daß sämtliche Schichten parallel zueinander sind, und wenn die Aufteilung einer Schicht in Pixel durch rechtwinklige Flächenmuster gemäß Darstellung in FIG. 2C erleichtert ist, repräsentiert jedes Segment ein Parallelepipedon, welches es enthält. Die Dimensionen des Parallelepipedons 90 sind wie folgt:
  • - Die Länge des Liniensegments 46 entspricht L;
  • - Die gemeinsame Seite der Pixel in einer axialen Ebene der Schicht entspricht W; und
  • - Die Distanz zwischen der das Liniensegment enthaltenden Schicht und der folgenden Schicht entspricht H.
  • Aus praktischer Sicht wird vorausgesetzt, daß die Vereinigung sämtlicher Parallelepipedons, die mit den Segmenten in der Objektrepräsentation verknüpft sind, dem dreidimensionalen darzustellenden Objekt entsprechen. Diese Voraussetzung wird um so genauer, wenn die Distanz zwischen zwei aufeinanderfolgenden Schichten kleiner gemacht wird und die Anzahl von Pixeln, die jede Schicht aufbauen, größer wird.
  • Es wird ferner vorausgesetzt, daß die Abtastung des untersuchten Gegenstandes gleichförmig oder gleichmäßig ist, d.h. die gesamte dreidimensionale interessierende Box ist in nicht überlappende kleine Parallelepipedons oder Voxel 74 (FIG. 3) gleicher Größe und Form unterteilt. Diese Voraussetzung wird für den Fall erfüllt, daß sämtliche Schichten durch kleine Pixel gleicher Größe unterteilt sind und eine Distanz zwischen aufeinanderfolgenden Schichten über die gesamte dreidimensionale Box hinweg konstant ist. Die sechs Seitenflächen eines Voxels bestehen aus zwei Flächen in den beiden Schichten, die das Voxel sandwichartig einschließen, und vier weiteren Flächen, die die beiden Pixel verbinden. Bei geeigneter Auswahl des Koordinatensystems wird zweckmäßigerweise vorausgesetzt, daß die Flächen sämtlicher Voxel senkrecht zu einer Achse des Koordinatensystems liegen.
  • Gemäß FIG. 4 ist eine elementare Fläche oder Seite eines Voxel als die in einer Unterteilung der dreidimensionalen Box definiert. In der Figur sind Segmente aus vier Schichten 80, 82, 84 und 86 dargestellt. Jede elementare Fläche wird vorteilhafterweise als ein Rechteck definiert, das senkrecht zu einer Achse des Koordinatensystems steht.
  • Aus der Voraussetzung, daß das darzustellende Objekt durch eine Gesamtheit sämtlicher Parallelepipedons approximiert wird, die dem Linienelement zugeordnet sind, welches den Gegenstand repräsentiert, ist es hinreichend, nur die elementaren Flächen zu betrachten, die die Parallelepipedons abdecken (d.h. die Deckflächen), um eine dreidimensionale Oberfläche, die das Objekt zeigt, zu konstruieren. In der Figur sind Konzepte, die sich auf potentiell sichtbare Elementarflächen beziehen, nicht sichtbare Elementarflächen und eine Klassifikation von potentiell sichtbaren Flächen dargestellt. Zwei Arten von Elementarflächen stehen senkrecht auf einer Bezugsachse. Eine Art besteht aus Flächen, die in eine positive Richtung der Achse blicken, und die andere besteht aus Flächen, die zur negativen Richtung orientiert sind. Beispielsweise ist eine sichtbare Elementarfläche 92 senkrecht zur Y-Achse. Insgesamt gibt es sechs Typen oder Arten von Elementarflächen.
  • Eine Elementarfläche ist als sichtbar definiert, wenn sie einen sichtbaren Punkt enthält. Für eine gegebene Ansicht oder Betrachtung sind einige Elementarflächen sichtbar und einige sind es nicht. Eine Elementarfläche kann für eine Betrachtung sichtbar sein, kann jedoch für eine andere Betrachtung nicht sichtbar sein.
  • Um die Informationsgeschwindigkeit des dreidimensionalen perspektivischen Bildes vom Objekt in der gegebenen Richtung zu steigern, um das System adaptierbar zur Verwendung in Verbindung mit einem Standardprozessor zu gestalten, werden die meisten der nicht sichtbaren Elementarflächen aus der Liste von zu verarbeitenden Flächen ausgeschlqssen. Es werden Kriterien aufgegriffen, um nicht sichtbare Flächen für das Ausschließungsverfahren zu erkennen.
  • Eine Elementarfläche ist nicht sichtbar, wenn sie eine gemeinsame Elementarfläche zweier Parallelepipedons ist, die zum Objekt gehören. Für eine gegebene Ansicht existieren nur drei Arten von Flächen, die nicht sichtbar sein können. Elementarflächen, die nicht durch diese Kriterien ausgeschlossen werden, werden als potentiell sichtbare Flächen bezeichnet. Da die Elementarflächen in sechs unterschiedliche Klassen klassifiziert sind, werden zweckmäßigerweise zunächst diejenigen Flächen, welche nicht sichtbar sind und gleichzeitig das erste Kriterium erfüllen, eliminiert.
  • Im Beispiel der FIG. 4 ist ein zweites Eliminationskriterium erkennbar. Nur zwei Elementarflächen eines Parallelepipedons senkrecht zur X-Achse sind potentiell sichtbar. Beide dieser Flächen entsprechen Endpunkten eines entsprechenden Segments der Objektrepräsentation, und beide sind in zwei verschiedenen Listen aufgelistet. Es wird vorausgesetzt, daß innerhalb einer Abbildungsschicht Liniensegmente, die ein dreidimensionales Objekt repräsentieren, parallel zur Y-Achse sind.
  • Eine Elementarfläche senkrecht zur Y-Achse, die in die positive Richtung blickt, ist eine potentiell sichtbare Fläche, falls sie nicht eine Elementarfläche eines Parallelepipedons ist, das gerade vor ihr liegt. Eine Elementarfläche, die senkrecht zur Y-Achse liegt und in die negative Richtung blickt, ist eine potentiell sichtbare Fläche, falls sie nicht eine Elementarfläche eines Parallelepipedons unmittelbar hinter ihr ist.
  • Eine Elementarfläche senkrecht zur X-Achse, die in die positive Richtung blickt, ist eine potentiell sichtbare Fläche, falls sie nicht eine Elementarfläche eines Parallelepipedons unmittelbar aufgesetzt aufihre Oberseite ist. Eine Elementarfläche senkrecht zur Z-Achse, die in die negative Richtung blickt, ist eine potentiell sichtbare Fläche, falls sie nicht eine Elementarfläche eines Parallelepipedons unmittelbar unter ihr ist.
  • Falls Elementarflächen, die zur positiven Richtung orientiert sind, potentiell sichtbar sind, dann sind die Elementarflächen der entgegengesetzten Richtung dies nicht, und umgekehrt.
  • Potentiell sichtbare Elementarflächen, die senkrecht zu einer Achse liegen, werden in-zwei verschiedenen Listen gruppiert. Eine Liste besteht aus Flächen, die in die positive Richtung der Achse zeigen, und die andere besteht aus Flächen, die in die negative Richtung zeigen. Folglich sind die potentiellen Elementarflächen der dreidimensionalen Objekte in unterschiedlichen Listen klassifiziert und gruppiert.
  • Für eine gegebene Betrachtung wird jede Elementarfläche auf eine Betrachtungsfläche oder einen Schirm als Parallelogramm projiziert. Da die Größe der Elementarfläche dieselbe für sämtliche Elementarflächen desselben Typs ist, bleibt die Größe ihrer Projektionen auf dem Schirm unveränderlich. Jedem Punkt des Parallelogramms wird seine Distanz zum Punkt der Elementarfläche längs der Betrachtungsrichtung zugewiesen.
  • Falls mehr als zwei Punkte von verschiedenen Elementarflächen auf denselben Punkt des Schirms projiziert werden, wird dem projizierten Punkt die kürzeste Distanz zugeordnet.
  • Bei der Verarbeitung sämtlicher potentiell sichtbarer Flächen in obiger Weise kann die Schattierung des Bildes des Objekts auf dem Schirm dadurch bewerkstelligt werden, daß jeder Punkt auf dem Schirm der folgenden Zuordnung unterzogen wird:
  • - Der Punkt ist ein Hintergrundpunkt, falls kein Punkt auf einer Elementarfläche aufihn projiziert ist, wobei der zugeordnete Grauwert eine negative Zahl, beispielsweise -1000 ist;
  • - Andererseits entspricht der Punkt einem sichtbaren Punkt der Oberfläche des Objekts.
  • Hinsichtlich der Formel (1), die weiter oben aufgeführt wurde, ist der diesem Punkt zugewiesene Grauwert invers proportional zum Abstand des entsprechenden sichtbaren Punktes auf dem Schirm und ist proportional zu einer Potenz des Kosinus des Maximums zweier Zahlen CUTOFF und AVERD. Die Zahl CUTOFF ist fixiert und wird ein für allemal ausgewählt. Die Zahl AVERD ist die Summe virer anderer Zahlen, wobei jede Zahl dadurch gewonnen wird, daß das Minimum zwischen einer Zahl MAXA und dem Absolutwert der Differenz zwischen den Distanzen genommen wird, die einem der vier entgegengesetzten Pixelpaare zugeordnet sind, die das gerade betrachtete Pixel umgeben. In der folgenden Implementierung wird der zugewiesene Grauwert g als Funktion der zugewiesenen Distanz d durch die oben dargelegte Formel (1) berechnet.
  • In den FIG. 5 und 6 ist eine Darstellung des Erzeugungsprozesses für das dreidimensionale Bild gemäß Offenbarung in Form eines Flußdiagramms zusammengefaßt worden.
  • Die vorausgehende Beschreibung lehrt ein System zum Erzeugen eines dreidimensionalen Bildes einer Gegenstandsprobe. Obgleich sie eine gute Repräsentation der Probendimensionen ergibt, wären auch häufig Oberflächendichte- Eigenschaften bei der Analyse der Probe von Vorteil. Hierbei wird in Erinnerung gerufen, daß die ursprünglich gewonnenen Schichtdaten durch Mittel wie z.B. einen CT- Scanner oder einen MRI-Scanner gewonnen wurden. Wenn beispielsweise die Daten durch einen CT-Scanner gewonnen werden, gehen die Schichtdaten funktionell in Beziehung zu einer Röntgenstrahldichte der Probe, In den FIG. 7 und 3 ist ein System zusammengefaßt. das diese zur Verfügung stehenden Daten zur Erzielung einer Oberflächendichte Repräsentation auf einem dreidimensionalen Bild handhabt, wobei nun hieraufim folgenden speziell Bezug genommen wird.
  • Die folgende Routine wird für die Erzeugung eines dreidimensionalen Bildes mit darin codierter Oberflächendichteinformation herangezogen. Sie stellt in einem bevorzugten Ausführungsbeispiel eine Softwareroutine dar, die im Speicher 24 gespeichert ist.
  • Der Ausdruck "Dichte", so wie er hier verwendet wird, bezieht sich im Beispiel eines CT-Scanners auf die CT- Zahl oder auf T&sub1;, T&sub2;, IR, ... (gewichtet oder nicht gewichtet), im Fall des MRI-Scanners.
  • Um ein dreidimensionales Bild mit Dichteinformation aus einer Serie axialer Schichten zu erzeugen, müssen eine Serie von Aufgaben erfüllt werden, die erforderlich sind, um ein dreidimensionales Bild (nur mit Oberflächeninformation) zu bilden. Darüber hinaus müssen Koordinaten von Punkten auf der Oberfläche des Objekts, die bei der zugrundegelegten Betrachtung sichtbar sind, während der Ausführung dieser Aufgaben aufgezeichnet werden. Die Koordinaten potentiell sichtbarer Punkte bei der oben be schriebenen konditionellen Zuweisung werden unter Verwendung von drei zweidimensionalen Arrays oder Anordnungen aufgezeichriet, deren Größe der Größe des Schirms entspricht. Ist beispielsweise relativ zu einem Betrachtungsschirm (m, n) die Stelle eines Pixels in der Projektion einer Elementarfläche, werden die Koordinaten des potentiell sichtbaren Punktes in der geeigneten Anordnung an der Stelle (m, n) aufgezeichnet. Falls dem Pixel (m, n) eine neue Distanz zugewiesen wird, werden die zuvor aufgezeichneten Koordinaten durch Koordinaten des entsprechenden neuen potentiell sichtbaren Punktes ersetzt.
  • Nachdem ein schattiertes dreidimensionales zu der Oberfläche eines dreidimensionalen Objektes gehörendes Bild erzeugt worden ist, muß ein neuer Satz Aufgaben ausgeführt werden, um:
  • (1) die Dichteinformation aus den Schichtdaten zu extrahieren, die vom Gegenstand an den sichtbaren Punkten gewinnbar sind, wobei Koordinaten verwendet werden, die zuvor während der dreidimensionalen Ansichtbildung aufgezeichnet wurden;
  • (2) die notwendige Dichteinterpolation der Dichte geeigneter Pixel oder Teilregionen von Interesse aus zwei verschiedenen interessierenden Regionen auszuführen;
  • (3) diesen berechneten Dichtewert mit dem Grauwert zu kombinieren, der die Oberfläche des Objekts am sichtbaren Punkt repräsentiert;
  • (4) das obige Produkt an der orthogonalen Projektion des sichtbaren Punktes auf dem Schirm zu speichern, auf dem das dreidimensionale Bild erzeugt ist.
  • In einem ersten Schritt werden die drei zweidimensionalen Strahlen von Koordinaten oder sichtbaren Punkte der Koordinatendarstellung in eine Spaltenzahl, eine Reihenzahl und eine Interesseregionzahl ("ROI")-Zahl umgesetzt, so daß die Dichtezahl aus den ursprünglichen Schichtdaten einer geeigneten ROI wiedergewonnen werden kann. Eine Anordnung oder ein Feld, das die Spaltenzahl, Reihenzahl und die ROI-Zahl sichtbarer Pixel enthält, wird jeweils als das X-Feld, das Y-Feld und das Z-Feld bezeichnet. Da die Auflösung der dritten Dimension der ursprünglichen Schichtbilder im allgemeinen schlecht ist, ist eine Interpolation über die Schichten hinweg erforderlich. Um Rechnerspeicherkapazität bzw. -arbeit einzusparen, wird ein Interpolationscode im Z-Feld gespeichert. Während einer derartigen Umsetzung und Speicherung wird auch eine Gesamtzahl von P Pixeln innerhalb einer ROI, die in den X, Y, und Z Feldern aufgefunden werden, für jede ROI gespeichert.
  • In einem zweiten Schritt wird ein weiteres zweidimensionales Feld oder Array mit einer Größe gleich der der Schirmfläche erzeugt. Dieses Feld wird dazu verwendet, ein endgültiges dreidimensionales Bild mit Dichteinformation zu erzeugen und wird als der dreidimensionale Bilddichteschirm bezeichnet. Der Bildschirm, der das dreidimensionale Bild enthält, das gemäß weiter vorne liegender Beschreibung ohne das Vorhandensein von Dichteinformation hergestellt wurde, wird als der dreidimensionale Oberflächenbildschirm bezeichnet.
  • In einem dritten Schritt wird zu Beginn der dreidimensionale Bilddichteschirm auf Null gesetzt.
  • In einem vierten Schritt wird eine ROI mit einer Gesamtzahl ungleich Null P gelesen, und es erfolgen dann die folgenden Funktionsschritte:
  • (a) Es erfolgt eine Abtastung durch das Z-Feld, um Pixel, die POI-Nummern, welche mit betrachteten ROI- Nummern übereinstimmen, festzustellen und nachzuprüfen. Beispielsweise kann (m, n) als die Stelle eines derartigen Pixels voraus gesetzt werden.
  • (b) Es werden eine Spaltenzahl und eine Reihenzahl aus den X- und Y-Feldern an der Stelle (m, n) ermittelt. (x,y) wird als die Spalten- bzw. Reihenzahl angenommen.
  • (c) Die Dichteinformation d wird aus Schichtdaten der ROI bei der Stelle (x,y) ausgelesen. Unter Verwendung von d als Adresse, wird eine Zahl D durch eine Nachschlagetabelle hindurch gelesen, die ein für allemal in einem frühen Stadium gerade nach der Auflistung sämtlicher potentiell sichtbarer elementarer Flächen eingerichtet wurde. Dieselbe Nachschlagetabelle kann als Identitäts-Nachschlagetabelle funktionieren. In diesem Fall wird, falls der Wert D und der Wert d übereinstimmen, eine nicht modifizierter Dichtewert gewonnen.
  • In einigen Fällen liefern jedoch nicht modifizierte Dichtewerte keine gute Bildqualität, insbesondere, wenn der dynamische Bereich von d groß ist und das dreidimensionale Objekt eine komplexe Oberflächenbegrenzung aufweist. In einer solchen Situation geht Oberflächenstruktur in einigen Abschnitten des Bildes infolge der geringen Dynamikbereichskapazität (0 bis 255) von der Displaymonitorvorrichtung verloren.
  • Um dieses Problem zu umgehen, kann eine nichtlineare Nachschlagetabelle verwendet werden. Ein Beispiel einer derartigen Nachschlagetabelle findet sich für den Fall, daß sie in zwei Bereiche unterteilt ist. Der untere Bereich, der den Weichgewebebereichen entspricht, dient als eine Identitäts-Nachschlagetabelle. Ein oberer Bereich, der Knochenbereichen entspricht, ist eine Nachschlagetabelle mit Neigung oder Schräge, die nahe Null vom unteren Rand des unteren Teiles der Nachschlagetabelle beginnt.
  • (d) Die Zahl D wird einem Wichtungswert w zwischen O und 1 multipliziert. Diese Wichtungszahl wird in einer Nachschlagetabelle aufgefunden, die Codes verwendet, die im Z-Feld bei der Stelle (m,n) eingebettet sind.
  • (e) Das Produkt w * D wird dem dreidimensionalen Bilddichtefeld bei der Stelle (m,n) hinzugefügt.
  • (f) Die Gesamtzahl P wird mit 1 dekrementiert.
  • (g) Die Schritte (a) bis (g) werden wiederholt, bis die Zahl P Null wird.
  • Im Schritt 5 werden die Operationen des Schritts 4 für sämtliche ROI's mit einem P ungleich Null wiederholt.
  • Im Schritt 6 wird für sämtliche Pixel, die einen sichtbaren Punkt auf dem dreidimensionalen Objekt entsprechen, der dreidimensionale Dichtegehalt mit deren dreidimensionalem Oberflächengehalt multipliziert, und das Produkt dieser Gehalte oder Inhalte wird durch den Maximalwert des dreidimensionalen Bildoberflächenfeldes dividiert. Der Inhalt der verbleibenden Pixel wird auf eine negative Zahl wie beispielsweise -1000 gesetzt. Diese Division ist nur dann erforderlich, wenn ein Oberflächenfeld nicht normiert ist, d.h. der schattierte Wert nicht im Gleitpunktformat (einer Zahl zwischen 0 und 1) vorliegt. Diese sechs Schritte bilden die Implikation oder Inklusion der Dichteinformation von FIG. 8.
  • Die zuvor erwähnten Prozeduren sind im Flußdiagramm für die Realisierung auf dem Prozessor der FIG. 7 und 8 zusammengestellt.
  • Gemäß der vorgehenden Beschreibung ist das System zur Erzeugung eines dreidimensionalen Bildes aus einer Serie von Schichtabtastungen einer konventionellen Prozessoreinrichtung vorgesehen. Das System beinhaltet ferner die Fähigkeit einer selektiyen Hinzufügung von Oberflächendichteinformation im erzeugten dreidimensionalen Objekt. Häufig ist es auch wünschenswert, selektiv einen ausgewählten Abschnitt eines erzeugten dreidimensionalen Objekts zu betrachten. Ist beispielsweise die Wirbelsäule abgebildet worden, kann es der Arzt wünschen, die Wirbelsäule längs einer oder mehrerer Ebenen "aufzuspalten", um die Betrachtung deren Innenseite zu erleichtern. Gemäß FIG. 9 repräsentiert beispielsweise ein dreidimensionales Bild eines Gegenstandes oder einer Probe 100 eine dreidimensionale Darstellung. Es kann wünschenswert sein, das Bild 100 in einen oder mehrere Abschnitte zu zerschneiden. Dabei sind zwei Abschnitte längs einer Oberfläche geschnitten dargestellt, und zwar so, daß sie durch Ebenen 102, 104 gebildet sind.
  • Im gegenstandsmäßigen System existieren drei Mittel zur Definition einer Schnittfläche für ein dreidimensionales Bild. In einem ersten Mittel bzw. einer ersten Maßname weisen zwei Kurven einen gemeinsamen Scheitelpunkt oder Vertex auf. Die erste Kurve wird als Primärkurve bezeichnet und die zweite Kurve als direktionale Kurve oder Richtungskurve. Beim zweiten Fall dient eine Kurve dazu, die Oberfläche zu schneiden. Im dritten Fall werden zwei Kurven zur Definition einer Schnittfläche verwendet, wobei die Kurven in diesem Fall jedoch keinen gemeinsamen Vertex aufweisen.
  • Eine Kurve wird im folgenden durch eine endliche Anzahl von Kontrollpunkten definiert. Jeder Punkt, der auf dem Schirm identifiziert ist, liefert einen Punkt im dreidimensionalen Raum der dreidimensionalen Objektabbildung. Es wird eine Kurve gewonnen, indem zwei Punkte des dreidimensionalen Raumes verbunden werden, die zwei aufeinanderfolgenden Kontrollpunkten zugeordnet sind.
  • Der erste Fall ist am schwierigsten sichtbar zu machen und wird in Verbindung mit FIG. 10 erläutert. In diesem Fall teilen sich eine primäre Kurve und eine sekundäre Kurve einen gemeinsamen Vertex. Die Schnittfläche wird gemäß Darstellung in FIG. 10 gewonnen.
  • Im Block I der FIG. 10 ist die Primärkurve mit 110 angegeben und die Richtungskurve mit 112 angezeigt. Diese Kurven treffen sich an einem gemeinsamen Vertexpunkt oder Scheitelpunkt V.
  • Im Block IIsind beide Enden der Primärkurve so verlängert, bis sie die dreidimensionale Box BOI überschreiten. Der Vektor 114, der den gemeinsamen Scheitelpunkt v und den Endpunkt einer rückwärtigen Verlängerung der Primärkurve verbindet, wird als deren rückwärtiger Verlängerungsvektor bezeichnet.
  • Im Block III sind beide Enden der Richtungskurve so weit verlängert, bis sie die dreidimensionale Box wieder überschreiten. Der Verlängerungsvektor 118, der vom gemeinsamen Scheitelpunkt aus startet, wird als rückwärtige Verlängerung bezeichnet. Der Vektor 118, der den gemeinsamen Scheitelpunkt und den Endpunkt der rückwärtigen Verlängerung der Richtungskurve verbindet, wird entsprechend als rückwärtiger Verlängerungsvektor bezeichnet. Die Verlängerungen 116 und 120 sind Verlängerungen, die zur Überschreitung der BOI erforderlich sind.
  • In IV ist die Primärkurve mit einem Translationsvektor, der gleich dem rückwärtigen Verlängerungsvektor der Richtungskurve ist, verschoben worden.
  • Im Block V ist die Richtungskurve mit dem Translationsvektor, der gleich dem rückwärtigen Verlängerungsvektor der Primärkurve ist, einer Translation unterzogen worden. (Es ist anzumerken, daß nach Abschluß der vorgenannten beiden Schritte dafür gesorgt wird, daß die der Translation unterworfenen Kurven wiederum einen gemeinsamen Endpunkt haben, der als neuer gemeinsamer Vertex V' bezeichnet ist).
  • Im Block VI ist eine Schnittfläche durch ein Verfahren der Vervollständigung eines Parallelogramms erzeugt, wobei hierzu vom gemeinsamen neuen Vertex V' der verlängerten primären Kurve und Richtungskurve ausgegangen wird. Beim Beginn von drei nicht linearen Punkten wie dem gemeinsamen Vertex V', einem Punkt P&sub1; (auf der verschobenen primären Kurve) nächstgelegen zu V' und einem Punkt D&sub1; (auf der verschobenen Richtungskurve) wird ein weiterer Punkt C&sub1; erzeugt, welcher den vierten Vertex des Parallelogramms P&sub1;, V', D&sub1;, C&sub1; darstellt. Die Vervollständigung des nächsten Parallelogramms geht jeweils von den drei Punkten P&sub2;, P&sub1; und C&sub1; aus, wobei ein neuer Punkt C&sub2; erzeugt wird. Die Parallelogrammvervollständigung erfolgt längs der primären Kurve, bis das letzte Parallelogramm außerhalb der dreidimensionalen Box liegt.
  • In der zweiten Situation des oben beschriebenen zweiten Falls wird nur eine Kurve dazu verwendet, das dreidimensionale Objekt in zwei Hälften zu zerteilen, wobei hier im wesentlichen die gleichen Schritte befolgt werden, ausgenommen, daß die Richtungskurve als in einer Linie oder Geraden senkrecht zu Schirm liegend vorausgesetzt wird.
  • Gemäß FIG. 12 ist die dritte Situation des obigen Falls 3 dargestellt. In diesem Fall sind zwei Kurven ohne gemeinsamen Vertex realisiert. Die Schnittfläche wird wie folgt erzeugt.
  • Zunächst wird eine Kurve 200 isoliert, die einer Kurve entspricht, die auf dem dreidimensionalen Bild 202 gezogen ist.
  • Da zumeist ein Schnittpunkt zwischen einer beliebigen interessierenden Region mit der dreidimensionalen Kurve vorliegt, gibt es zweitens zumeist zwei Schnittpunkte zwischen jeder beliebigen interessierenden Region mit zwei Kurven. Vergleiche beispielsweise die Punkte 204 und 206 der Figur.
  • Drittens werden auf einer interessierenden Region mit zwei Schnittpunkten die Punkte mit einer Linie 208 verbunden. Diese Linie wird als die Schnittpunktlinie einer Schnittfläche mit einer interessierenden Region betrachtet.
  • Viertens wird auf einer interessierenden Region mit einem Schnittpunkt die Schnittpunktlinie der Schnittfläche als die Linie vorausgesetzt, die durch den Punkt hindurchgeht und parallel zu der Schnittpunktlinie der Schnittfläche mit der darüberliegenden Schicht ist. Gibt es keine darüberliegende Schicht, wird vorausgesetzt, daß die Richtung senkrecht zum Schirm liegt.
  • Fünftens wird auf einer interessierenden Region ohne Schnittpunkt die Schnittpunktlinie der Schnittfläche mit einer interessierenden Region als die Orthogonalprojektion auf die interessierende Region von einer Schnittpunktlinie der Schnittfläche mit der vorhergehenden interessierenden Region angenommen. Falls diese interessierende Region die erste interessierende Region ist, wird angenommen, daß die Schnittpunktlinie außerhalb der interessierenden Region liegt.
  • Schließlich werden zuletzt die Schnittpunktlinien der Schnittfläche mit sämtlichen interessierenden Regionen der dreidimensionalen Box dazu verwendet, das tatsächliche dreidimensionale Objekt zu schneiden. Das Schneiden kann von den Schnittpunktlinien aus ausgeführt werden, da das Objekt nur mit den Schichten definiert ist.
  • Die drei Fälle ermöglichen das Schneiden eines dreidimensionalen Objekts längs irgendeiner Ebene oder interessierenden Ebenen auf einfache und effiziente Weise. Hierdurch wird den Ärzten und Technikern bei der Untersuchungsprozedur eine Hilfestellung geliefert.
  • Der Ablauf des zuvor dargelegten Schnittvorgangs ist wie folgt:
  • 1. Selektieren eines dreidimensionalen Bildes;
  • 2. Ziehen von einer oder zwei Kurven auf dem dreidimensionalem Bild zur Definition einer Schnittfläche; 3. Selektieren des Abschnitts zur Anfertigung des dreidimensionalen Bildes durch Selektion eines Punktes auf dem dreidimensionalen Bild;
  • 4. Ausführen der Stückwerkbildung der Schnittfläche (des sogenannten Patchings) auf der Grundlage der zuvor auf dem Schirm gezogenen Kurven;
  • 5. Die Patchwork-Oberfläche teilt die interessierende Box (oder dreidimensionale Box) in zwei Teile. Identifizierung des Teils, der den Punkt enthält, der in Schritt 3 selektiert worden ist;
  • 6. Ausführen des tatsächlichen Schneidvorgangs des dreidimensionalen Objekts und Aufgreifen oder Zusammenstellen des Teils, der den in Schritt 3 selektierten Punkt enthält; und
  • 7. Ausführen der dreidimensionalen Bildneuformatierung oder Reformatierung des aufgegriffenen oder zusammengestellten Teils.
  • Die Erfindung wurde an Hand des bevorzugten Ausführungsbeispiels erläutert. Offensichtliche Modifikationen und Änderungen werden Anderen beim Lesen und Verstehen dieser Beschreibung einfallen. Es ist beabsichtigt, daß derartige Modifikationen und Änderungen insofern mit eingeschlossen sind, als sie innerhalb des Schutzumfangs der beiliegenden Ansprüche oder deren Äquivalente fallen.

Claims (30)

1. Bildverarbeitungsgerät zur Erzeugung eines dreidimensionalen Bildes einer Probe, aufweisend: eine Akquisitionseinrichtung zur Erfassung von Schichtdaten, die eine physikalische Eigenschaft mehrerer im wesentlichen planarer Regionen der Probe anzeigen, wobei jede planare Region in mehrere Teilregionen unterteilt ist, die durch für den diese betreffenden Anteil von Schichtdaten repräsentative Teilregiondaten repräsentiert sind; eine Einrichtung, die im wesentlichen sämtlichen Teilregionen zumindest einer der mehreren im wesentlichen planaren Schichten einen Betrachtungswert zuweist, wobei der Betrachtungswert entsprechend von Teilregiondaten hiervon zugewiesen wird; eine Einrichtung, die zumindest eine erste der planaren Regionen zur Bildung einer interessierenden Region aufteilt; eine Einrichtung, die eine interessierende Abgrenzung innerhalb der interessierenden Region definiert; eine Einrichtung, die eine Position einer zugeordneten Betrachtungsfläche in Relation zu im wesentlichen jeder Teilregion der interessierenden Abgrenzung definiert; eine Einrichtung, die Abgrenzungsbilddaten, die repräsentativ für im wesentlichen sämtliche Teilregionen der interessierenden Abgrenzung sind, als eine Funktion von diese betreffenden Teilregiondaten zusammenstellt; und eine Einrichtung, die die Bilddaten auf die Betrachtungsfläche projiziert, dadurch gekennzeichnet,
daß das Gerät eine Skalierungseinrichtung umfaßt, die die Betrachtungswerte zumindest eines Teils der Abgrenzungsbilddaten entsprechend der Verschiebung der Abgrenzungsteilregionen von der Betrachtungsfläche skaliert.
2.Bildverarbeitungsgerät nach Anspruch 1, in welchem die Skalierungseinrichtung ferner eine Einrichtung umfaßt, die mehrere der skalierten Betrachtungswerte entsprechend einem Winkel einer Normalen auf der interessierenden Abgrenzung in Relation zur Betrachtungsfläche einstellt.
3. Bildverarbeitungsgerät nach Anspruch 1 oder 2, aufweisend eine Einrichtung zur Extrapolation der interessierenden Region auf zumindest eine zweite planare Region zur Bildung zumindest einer extrapolierten interessierenden Region.
4. Bildverarbeitungsgerät nach einem der vorhergehenden Ansprüche, ferner aufweisend eine Einrichtung zur Extrapolation der interessierenden Abgrenzung auf zumindest eine zweite interessierende Region.
5. Bildverarbeitungsgerät nach Anspruch 4 unter Rückbeziehung auf Anspruch 3, in welchem die zweite interessierende Region diese zumindest eine extrapolierte interessierende Region ist.
6. Bildverarbeitungsgerät nach einem der vorhergehenden Ansprüche, ferner aufweisend eine Einrichtung zum Variieren einer Position der Betrachtungsfläche in Relation zu den Bilddaten.
7. Bildverarbeitungsgerät nach einem der vorhergehenden Ansprüche, in welchem die Akquisitionseinrichtung eine Magnetresonanzvorrichtung oder eine Computertomographievorrichtwig umfaßt.
8. Verfahren zur Erzeugung eines dreidimensionalen Bildes einer Probe, aufweisend die Schritte: Erfassen von Schichtdaten, die eine physikalische Eigenschaft mehrerer im wesentlichen planarer Regionen der Probe anzeigen, wobei Jede planare Region in mehrere Teilregionen aufgeteilt wird, die durch für den diese betreffenden Anteil von Schichtdaten repräsentative Teilregiondaten repräsentiert werden; Zuweisen eines Betrachtungswerts zu im wesentlichen sämtlichen Teilregionen von zumindest einer der mehreren planaren Schichten, wobei der Betrachtungswert entsprechend Teilregiondaten hiervon zugewiesen wird; Aufteilen zumindest einer ersten der planaren Regionen zur Bildung einer interessierenden Region; Definieren einer interessierenden Abgrenzung innerhalb der interessierenden Region; Definieren einer Position einer zugeordneten Betrachtungsfläche in Relation zu im wesentlichen Jeder Teilregion der interessierenden Abgrenzung; Zusammenstellen von Abgrenzungsbilddaten, die repräsentativ für im wesentlichen sämtliche Teilregionen der interessierenden Abgrenzungsfunktion sind, als eine Funktion von diese betreff enden Teilregiondaten; Projizieren von Bilddaten auf die Betrachtungsoberfläche; gekennzeichnet durch
Skalieren der Betrachtungswerte zumindest eines Teils der Abgrenzungsbilddaten entsprechend der Verschiebung der Abgrenzungsteilregionen von der Betrachtungsfläche.
9. Verfahren nach Anspruch 8, ferner umfassend die Schritte der Bestimmung eines Winkels einer Normalen auf der interessierenden Abgrenzung zur Betrachtungsfläche und Einstellens mehrerer der skalierten Werte entsprechend hierzu.
10. Verfahren nach Anspruch 8 oder 9, ferner umfassend: die Extrapolation der interessierenden Region auf zumindest eine zweite planare Region zur Bildung zumindest einer extrapolierten interessierenden Region; und Extrapolieren der interessierenden Abgrenzung auf zumindest die eine extrapolierte interessierende Region.
11. Verfahren nach einem der Ansprüche 8 bis 10, ferner umfassend den Schritt der Variation einer Position der Betrachtungsfläche in Relation zu den Bilddaten.
12. Bildverarbeitungsgerät nach Anspruch 1, in welchem: die Zuweisungseinrichtung einen Betrachtungswert im wesentlichen sämtlichen Teilregionen Jeder der mehreren planaren Schichten zuweist und die zugewiesenen Betrachtungswerte keine Information hinsichtlich der Dichte der Teilregionen etnhalten, welchen sie zugewiesen sind; die Einrichtung zum Aufteilen zumindest erste und zweite planare Teilregionen aufteilt, um jeweils zumindest erste und zweite interessierende Regionen zu bilden; die Einrichtung zur Definition einer Abgrenzung zumindest erste und zweite interessierende Abgrenzungen jeweils innerhalb zumindest der ersten und zweiten interessierenden Region definiert; die Einrichtung zur Definition einer Position die Position der Betrachtungsfläche in Relation zu im wesentlichen jeder Teilregion von zumindest der ersten und zweiten interessierenden Abgrenzung definiert; die Einrichtung zur Zusammenstellung von Abgrenzungsbilddaten Bilddaten, die repräsentativ für im wesentlichen sämtliche Teilregionen zumindest der ersten und zweiten interessierenden Abgrenzung sind, als eine Funktion diese betreffenden Teilregiondaten zusammenstellt; und das Gerät ferner eine Einrichtung zur Modifikation im wesentlichen jedes skalierten Betrachtungswerts entsprechend der Dichte der Teilregion, der er zugewiesen war, gemäß Anzeige durch die Teilregiondaten aufweist.
13. Bildverarbeitungsgerät nach Anspruch 12, ferner umfassend eine Einrichtung zur Definition jeder interessierenden Abgrenzung als eine Mehrzahl im wesentlichen paralleler, linearer Datensegmente.
14. Bildverarbeitungsgerät nach Anspruch 13, ferner umfassend eine Einrichtung zur Bestimmung potentiell sichtbarer Flächenabschnitte jedes der Datenelementsegmente, wobei ein sichtbarer Flächenabschnitt als der Abschnitt eines Datensegments definiert ist, der direkt auf die Betrachtungsfläche projizierbar ist, ohne ein anderes der Datensegmente zu kreuzen.
15. Bildverarbeitungsgerät nach einem der Ansprüche 12 bis 14, in welchem die Aufteilungseinrichtung eine Einrichtung umfaßt, die die zweite interessierende Region als eine Extrapolation einer Aufteilung von der ersten interessierenden Region bildet.
16. Bildverarbeitungsgerät nach einem der Ansprüche 12 bis 15, in welchem die Abgrenzungseinrichtung eine Einrichtung zur Definition der zweiten interessierenden Abgrenzung als eine Extrapolation der ersten interessierenden Abgrenzung definiert.
17, Verfahren nach Anspruch 8, in welchem: der Schritt der Zuweisung einen Betrachtungswert im wesentlichen sämtlichen Teilregionen jeder der mehreren planaren Schichten zuweist und die zugewiesenen Betrachtungswerte keine Information hinsichtlich der Dichte der Teilregionen enthalten, denen sie zugewiesen sind; der Schritt der Aufteilung zumindest erste und zweite planare Regionen aufteilt, um jeweils eine erste und-zweite interessierende Teilregion zu bilden; der Schritt der Definition einer Abgrenzung zumindest erste und zweite interessierende Teilregionen jeweils innerhalb der ersten und zweiten interessierenden Region definiert; der Schritt der Definition einer Position die Position der Betrachtungsfläche in Relation zu im wesentlichen jeder Teilregion der zumindest ersten und zweiten interessierenden Abgrenzung definiert; der Schritt der Zusammenstellung von Abgrenzungsbilddaten, die repräsentativ für im wesentlichen sämtliche Teilregionen der zumindest ersten und zweiten interessierenden Abgrenzungen sind, als Funktion von diese betreffenden Teilregiondaten zusammenstellt; und das Verfahren ferner zwischen dem Schritt der Skalierung und Projektion den Schritt der Modifikation im wesentlichen jedes skalierten Betrachtungswerts entsprechend der Dichte der Teilregion umfaßt, der er zugewiesen war, gemäß Anzeige durch die Teilregiondaten.
18. Verfahren nach Anspruch 17, ferner umfassend den Schritt der Definition jeder interessierenden Abgrenzung als eine Mehrzahl im wesentlichen paralleler, linearer Datensegmente.
19. Verfahren nach Anspruch 18, ferner umfassend den Schritt der Bestimmung potentiell sichtbarer Flächenabschnitte jedes der Datensegmente, wobei ein sichtbarer Flächenabschnitt als der Abschnitt eines Datensegments definiert ist, welcher, ohne andere der Datensegmente zu kreuzen, direkt auf die Betrachtungsfläche projizierbar ist.
20. Verfahren nach einem der Ansprüche 17 bis 19, umfassend den Schritt der Abbildung der zweiten interessierenden Region als eine Extrapolation des Schritts der Aufteilung einer ersten der planaren Regionen zur Bildung einer ersten interessierenden Region.
21. Verfahren nach einem der Ansprüche 17 bis 20, umfassend den Schritt der Definition der zweiten interessierenden Abgrenzung als eine Extrapolation der ersten interess ierenden Abgrenzung.
22. Bildverarbeitungsgerät nach Anspruch 1, ferner aufweisend: eine Einrichtung zur Definition einer Schnittfläche; eine Einrichtung zur Projektion der Schnittfläche auf die Betrachtungsfläche; eine Einrichtung zur Aufteilung der Schichtbilddaten in zumindest einen ersten Anteil und zweiten Anteil entsprechend der Schnittfläche; eine Einrichtung zum Erzeugen modifizierter Bilddaten, die repräsentativ für die aufgeteilten Bilddaten sind; und eine Einrichtung zur Projektion der modifizierten Bilddaten auf die Betrachtungsfläche.
23. Bildverarbeitungsgerät nach Anspruch 22, ferner umfassend eine Einrichtung zur Selektion einer der Anteile, und in welchem die modifizierten Bilddaten vom selektierten Anteil umfaßt sind.
24. Bildverarbeitungsgerät nach Anspruch 22 oder 23, ferner aufweisend eine Einrichtung zur Variation einer Position der Betrachtungsfläche in Relation zu den modifizierten Bilddaten.
25. Bildverarbeitungsgerät nach Anspruch 22, in welchem die Skalierungseinrichtung ferner eine Einrichtung umfaßt, die mehrere der skalierten Werte entsprechend einem Winkel einer Normalen auf der interessierenden Abgrenzung in Relation zur Betrachtungsfläche einstellt.
26. Bildverarbeitungsgerät nach Anspruch 22, in welchem die Akquisitionseinrichtung einen Computertomographiescanner oder eine Magnetresonanz-Bildverarbeitungsvorrichtung umfaßt.
27. Verfahren nach Anspruch 8, ferner umfassend die Schritte: Definieren einer Schnittfläche; Projizieren der Schnittfläche auf die Betrachtungsfläche; Aufteilen der Schichtbilddaten in zumindest einen ersten Anteil und einen zweiten Anteil entsprechend der Schnittfläche; Erzeugen modifizierter Bilddaten, die für die Aufteilungsbilddaten repräsentativ sind; und Projizieren der modifizierten Bilddaten auf die Betrachtungsfläche.
28. Verfahren nach Anspruch 27, ferner umfassend den Schritt der Selektion eines der Anteile, und in welchem der Schritt der Erzeugung modifizierter Bilddaten sich auf Bilddaten richtet, die den selektierten Anteil umfassen.
29. Verfahren nach Anspruch 27 oder 28, ferner umfassend den Schritt der Variation einer Position der Betrachtungsfläche in Relation zu den modifizierten Bilddaten.
30. Verfahren nach Anspruch 27, ferner umfassend den Schritt der Einstellung mehrerer der skalierten Werte entsprechend einem Winkel einer Normalen auf der interessierenden Abgrenzung in Relation zur Betrachtungsfläche.
DE3855040T 1987-11-27 1988-11-09 Bildverarbeitungsverfahren und -gerät Expired - Fee Related DE3855040T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/126,368 US4882679A (en) 1987-11-27 1987-11-27 System to reformat images for three-dimensional display

Publications (2)

Publication Number Publication Date
DE3855040D1 DE3855040D1 (de) 1996-04-04
DE3855040T2 true DE3855040T2 (de) 1996-07-11

Family

ID=22424454

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3855040T Expired - Fee Related DE3855040T2 (de) 1987-11-27 1988-11-09 Bildverarbeitungsverfahren und -gerät

Country Status (4)

Country Link
US (1) US4882679A (de)
EP (1) EP0318176B1 (de)
JP (1) JP2981506B2 (de)
DE (1) DE3855040T2 (de)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5165410A (en) * 1987-05-15 1992-11-24 Medical & Scientific Enterprises, Inc. Position indicating system for a multidiagnostic scanner
US5079699A (en) * 1987-11-27 1992-01-07 Picker International, Inc. Quick three-dimensional display
JPH02173878A (ja) * 1988-12-27 1990-07-05 Toshiba Corp 3次元断面表示装置
JP2952673B2 (ja) * 1989-06-19 1999-09-27 株式会社日立メディコ 関心領域抽出方法及び切り出し方法
JP2845995B2 (ja) * 1989-10-27 1999-01-13 株式会社日立製作所 領域抽出手法
JPH0454682A (ja) * 1990-06-22 1992-02-21 Toshiba Corp 立体画像処理方法及びその装置
US5201035A (en) * 1990-07-09 1993-04-06 The United States Of America As Represented By The Secretary Of The Air Force Dynamic algorithm selection for volume rendering, isocontour and body extraction within a multiple-instruction, multiple-data multiprocessor
GB2246689A (en) * 1990-08-04 1992-02-05 David John Winter Creating a 3-D image from a plurality of cross-sections
ES2048034B1 (es) * 1991-07-25 1995-08-01 Ibermatica S A Procedimiento de obtencion de informacion e imagenes de organos vitales.
US5734384A (en) * 1991-11-29 1998-03-31 Picker International, Inc. Cross-referenced sectioning and reprojection of diagnostic image volumes
US5371778A (en) * 1991-11-29 1994-12-06 Picker International, Inc. Concurrent display and adjustment of 3D projection, coronal slice, sagittal slice, and transverse slice images
US5379370A (en) * 1992-07-17 1995-01-03 International Business Machines Corporation Method and apparatus for drawing lines, curves, and points coincident with a surface
US5684937A (en) * 1992-12-14 1997-11-04 Oxaal; Ford Method and apparatus for performing perspective transformation on visible stimuli
DE4307956C2 (de) * 1993-03-12 1996-04-11 Siemens Ag Verfahren zur Segmentierung einer Struktur
US5431161A (en) * 1993-04-15 1995-07-11 Adac Laboratories Method and apparatus for information acquistion, processing, and display within a medical camera system
US5592663A (en) * 1993-12-17 1997-01-07 Nagamori; Nobuhiko Graphing method and apparatus for data base retrieval
US6166740A (en) * 1994-04-15 2000-12-26 Hewlett Packard Company Method and system for viewing three-dimensional data for a tracked structure
JPH10504692A (ja) * 1994-08-19 1998-05-06 ライカ アクチエンゲゼルシャフト 立体ビデオ画像を表示装置上に表示する方法及び装置
US5765561A (en) * 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
US6151404A (en) * 1995-06-01 2000-11-21 Medical Media Systems Anatomical visualization system
US5737506A (en) * 1995-06-01 1998-04-07 Medical Media Systems Anatomical visualization system
US6702736B2 (en) 1995-07-24 2004-03-09 David T. Chen Anatomical visualization system
US5776050A (en) * 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system
US5682886A (en) * 1995-12-26 1997-11-04 Musculographics Inc Computer-assisted surgical system
US5825908A (en) * 1995-12-29 1998-10-20 Medical Media Systems Anatomical visualization and measurement system
US5701404A (en) * 1996-05-31 1997-12-23 Softimage Method and system for efficiently trimming a nurbs surface with a projected curve
CA2200659A1 (en) * 1996-04-12 1997-10-12 Softimage Inc. Method and system for efficiently trimming a nurbs surface with a projected curve
WO1998000811A1 (en) * 1996-06-28 1998-01-08 Resolution Technologies, Inc. Fly-through computer aided design method and apparatus
US5895439A (en) * 1996-10-15 1999-04-20 Southwest Research Institute Method for generating and displaying complex data derived from non-destructive evaluation scanning
US6246784B1 (en) 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6369812B1 (en) 1997-11-26 2002-04-09 Philips Medical Systems, (Cleveland), Inc. Inter-active viewing system for generating virtual endoscopy studies of medical diagnostic data with a continuous sequence of spherical panoramic views and viewing the studies over networks
CA2333393C (en) 1998-05-28 2007-08-07 Orthosoft Inc. Interactive computer-assisted surgical system and method thereof
US6396939B1 (en) * 1998-05-28 2002-05-28 Orthosoft Inc. Method and system for segmentation of medical images
US6310620B1 (en) * 1998-12-22 2001-10-30 Terarecon, Inc. Method and apparatus for volume rendering with multiple depth buffers
US6535623B1 (en) * 1999-04-15 2003-03-18 Allen Robert Tannenbaum Curvature based system for the segmentation and analysis of cardiac magnetic resonance images
GB2375212B (en) * 1999-04-29 2003-06-11 Mitsubishi Electric Inf Tech Method and apparatus for searching for an object using shape
US6907281B2 (en) * 2000-09-07 2005-06-14 Ge Medical Systems Fast mapping of volumetric density data onto a two-dimensional screen
US6690960B2 (en) 2000-12-21 2004-02-10 David T. Chen Video-based surgical targeting system
US6975897B2 (en) 2001-03-16 2005-12-13 Ge Medical Systems Global Technology Company, Llc Short/long axis cardiac display protocol
DE10149556A1 (de) * 2001-10-08 2003-04-24 Siemens Ag Verfahren zur Erzeugung eines zweidimensionalen Bildes aus einem 3D-Datensatz eines Tomographie-Geräts und medizinisches Tomographie-Gerät
US7260250B2 (en) * 2002-09-30 2007-08-21 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Computer-aided classification of anomalies in anatomical structures
WO2005011500A1 (en) 2003-08-04 2005-02-10 Koninklijke Philips Electronics N.V. Mapping the coronary arteries on a sphere
DE10338145B4 (de) * 2003-08-15 2022-02-24 "Stiftung Caesar" (Center Of Advanced European Studies And Research) Verfahren zur Darstellung von 3D Bilddaten
US7197170B2 (en) * 2003-11-10 2007-03-27 M2S, Inc. Anatomical visualization and measurement system
US20050113664A1 (en) * 2003-11-26 2005-05-26 Laurent Stefani Cardiac display methods and apparatus
US20060098010A1 (en) * 2004-03-09 2006-05-11 Jeff Dwyer Anatomical visualization and measurement system
JP4224425B2 (ja) * 2004-05-11 2009-02-12 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Ct画像生成方法およびx線ct装置
DE102004026616B4 (de) 2004-06-01 2007-09-20 Siemens Ag Verfahren zum Messen eines Untersuchungsbereichs mit einem Magnetresonanzgerät
US7702137B2 (en) 2004-11-10 2010-04-20 M2S, Inc. Anatomical visualization and measurement system
US20060119622A1 (en) * 2004-11-23 2006-06-08 General Electric Company Method and apparatus for volume rendering display protocol
US20070049817A1 (en) * 2005-08-30 2007-03-01 Assaf Preiss Segmentation and registration of multimodal images using physiological data
US7822254B2 (en) * 2006-04-21 2010-10-26 Siemens Medical Solutions Usa, Inc. Automatic positioning of matching multi-planar image reformatting (MPR) views of multiple 3D medical images
WO2008027520A2 (en) 2006-08-30 2008-03-06 The Trustees Of Columbia University In The City Of New York Systems and methods for composite elastography and wave imaging
WO2010014977A1 (en) 2008-08-01 2010-02-04 The Trustees Of Columbia University In The City Of New York Systems and methods for matching and imaging tissue characteristics
JP5637653B2 (ja) * 2008-08-18 2014-12-10 株式会社東芝 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム
EP2480144B1 (de) 2009-09-21 2024-03-06 The Trustees of Columbia University in the City of New York Systeme zur öffnung einer gewebebarriere
US20110176711A1 (en) * 2010-01-21 2011-07-21 Radu Catalin Bocirnea Methods, apparatuses & computer program products for facilitating progressive display of multi-planar reconstructions
CN102222352B (zh) * 2010-04-16 2014-07-23 株式会社日立医疗器械 图像处理方法和图像处理装置
GB2479784B (en) 2010-04-23 2012-11-07 Nds Ltd Image scaling
JP5641503B2 (ja) * 2010-10-15 2014-12-17 国立大学法人 筑波大学 マルチステップ・ラティス・ボクセル法
DE102011003135B4 (de) * 2011-01-25 2018-04-05 Siemens Healthcare Gmbh Bildgebungsverfahren zum Rotieren eines Gewebebereichs
US9320491B2 (en) 2011-04-18 2016-04-26 The Trustees Of Columbia University In The City Of New York Ultrasound devices methods and systems
WO2012162664A1 (en) 2011-05-26 2012-11-29 The Trustees Of Columbia University In The City Of New York Systems and methods for opening of a tissue barrier in primates
WO2014059170A1 (en) 2012-10-10 2014-04-17 The Trustees Of Columbia University In The City Of New York Systems and methods for mechanical mapping of cardiac rhythm
US9247921B2 (en) 2013-06-07 2016-02-02 The Trustees Of Columbia University In The City Of New York Systems and methods of high frame rate streaming for treatment monitoring
US10322178B2 (en) 2013-08-09 2019-06-18 The Trustees Of Columbia University In The City Of New York Systems and methods for targeted drug delivery
US10028723B2 (en) 2013-09-03 2018-07-24 The Trustees Of Columbia University In The City Of New York Systems and methods for real-time, transcranial monitoring of blood-brain barrier opening

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1547566A (en) * 1975-07-04 1979-06-20 Emi Ltd Information display arrangements
US4105922A (en) * 1977-04-11 1978-08-08 General Electric Company CT number identifier in a computed tomography system
US4245244A (en) * 1978-09-01 1981-01-13 General Electric Company Device for delineating zones in a video image display
US4590558A (en) * 1981-12-30 1986-05-20 General Electric Company Method and apparatus for removing objects from CT images
US4608635A (en) * 1982-08-03 1986-08-26 Thomas Jefferson University Method and apparatus for tomographic diagnosis
JPS5960680A (ja) * 1982-09-30 1984-04-06 Toshiba Corp 画像処理装置
US4520316A (en) * 1983-04-25 1985-05-28 The University Of British Columbia NMR imaging technique
JPS60152942A (ja) * 1984-01-23 1985-08-12 Toshiba Corp Nmr―ctスキャン計画装置
US4710715A (en) * 1985-04-23 1987-12-01 Nmr Imaging, Inc. Method of mapping magnetic field strength and tipping pulse accuracy of an NMR imager
JPS61259373A (ja) * 1985-05-14 1986-11-17 Toshiba Corp X線撮影診断装置
US4729098A (en) * 1985-06-05 1988-03-01 General Electric Company System and method employing nonlinear interpolation for the display of surface structures contained within the interior region of a solid body
US4710876A (en) * 1985-06-05 1987-12-01 General Electric Company System and method for the display of surface structures contained within the interior region of a solid body
US4751643A (en) * 1986-08-04 1988-06-14 General Electric Company Method and apparatus for determining connected substructures within a body

Also Published As

Publication number Publication date
DE3855040D1 (de) 1996-04-04
EP0318176A2 (de) 1989-05-31
US4882679A (en) 1989-11-21
EP0318176B1 (de) 1996-02-28
JPH01166267A (ja) 1989-06-30
EP0318176A3 (de) 1991-05-02
JP2981506B2 (ja) 1999-11-22

Similar Documents

Publication Publication Date Title
DE3855040T2 (de) Bildverarbeitungsverfahren und -gerät
DE69029982T2 (de) Verfahren und Geräte zur dreidimensionalen Bilderzeugung
DE3689399T2 (de) Kubusteilungssystem und Verfahren zur Anzeige von im Innengebiet eines massiven Körpers enthaltenen Flächenstrukturen.
DE3751300T2 (de) Verfahren und Vorrichtung zur dreidimensionalen Konnektivi- tätsbestimmung von zusammenhängenden Unterstrukturen in einem Körper unter Verwendung einer Äquivalenzrelation.
DE4344312C2 (de) Dreidimensionales Ultraschall-Abbildungssystem
DE60313742T2 (de) Verfahren und geräte für schnelle fächerstrahl-tomographie
DE3650169T2 (de) Anlage und Verfahren zur Anzeige von im Inneren eines Festkörpers eingeschlossenen Oberflächenstrukturen.
DE69737720T2 (de) Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem
DE3712639A1 (de) Verfahren und einrichtung zum abbilden von volumendaten
DE19807053B4 (de) Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung
DE3832222A1 (de) Vorrichtung und verfahren zum anzeigen eines 2-dimensionalen bildes eines 3-dimensionalen gegenstandes
DE3735519C2 (de) Binäre Rauminterpolation
DE102004063053A1 (de) Verfahren und System zum Visualisieren dreidimensionaler Daten
EP0938063B1 (de) Verfahren zur zweidimensionalen Abbildung von Strukturen für die medizinische Diagnostik
DE102017214447B4 (de) Planare Visualisierung von anatomischen Strukturen
WO2008101596A2 (de) Verfahren und vorrichtung zur darstellung von 3d bilddatensätzen auf 2d bildern
DE10254908B4 (de) Verfahren zum Herstellen eines Bildes
EP1843296A1 (de) Verfahren zur reproduzierbaren Erzeugung von Ansichten tomographischer Bilddaten
EP1658591A1 (de) Verfahren und vorrichtung zur darstellung eines vorbestimmbaren bereichs in mehrdimensionalen datens tzen
DE10254907B4 (de) Verfahren zur Oberflächenkonturierung eines dreidimensionalen Abbildes
DE3854960T2 (de) Vorrichtung und Verfahren zur tomographischen Datenverarbeitung
DE102011075917A1 (de) Verfahren zum Bereitstellen eines 3D-Bilddatensatzes mit unterdrückten Messfeldüberschreitungsartefakten und Computertomograph
DE10253617B4 (de) Verfahren zur Darstellung eines ineinem Volumendatensatz abgebildeten Objektes
DE69814482T2 (de) Verfahren und Vorrichtung zur Darstellung von Oberflächen aus volumetrischen Daten
DE102009007680A1 (de) Verfahren und Vorrichtung zur interaktiven CT-Rekonstruktion

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Free format text: PATENTANWAELTE REICHEL UND REICHEL, 60322 FRANKFURT

8327 Change in the person/name/address of the patent owner

Owner name: PHILIPS MEDICAL SYSTEMS (CLEVELAND), INC., CLEVELA

8339 Ceased/non-payment of the annual fee