DE112004000352B4 - System und Verfahren zum Durchführen einer virtuellen Endoskopie - Google Patents

System und Verfahren zum Durchführen einer virtuellen Endoskopie Download PDF

Info

Publication number
DE112004000352B4
DE112004000352B4 DE112004000352T DE112004000352T DE112004000352B4 DE 112004000352 B4 DE112004000352 B4 DE 112004000352B4 DE 112004000352 T DE112004000352 T DE 112004000352T DE 112004000352 T DE112004000352 T DE 112004000352T DE 112004000352 B4 DE112004000352 B4 DE 112004000352B4
Authority
DE
Germany
Prior art keywords
lumen
rendering
region growing
mpr
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE112004000352T
Other languages
English (en)
Other versions
DE112004000352T5 (de
Inventor
Bernhard Geiger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Medical Solutions USA Inc
Original Assignee
Siemens Medical Solutions USA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Solutions USA Inc filed Critical Siemens Medical Solutions USA Inc
Publication of DE112004000352T5 publication Critical patent/DE112004000352T5/de
Application granted granted Critical
Publication of DE112004000352B4 publication Critical patent/DE112004000352B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Generation (AREA)

Abstract

Verfahren zum Durchführen einer virtuellen Endoskopie mit folgenden Schritten: – Erhalten von dreidimensionalen (3D) Daten einer ein Lumen enthaltenden anatomischen Struktur; – Berechnen einer Abstandskarte unter Verwendung der dreidimensionalen (3D) Daten, welche die Abstände der Voxel des Lumens zu einem ersten Voxel des Lumens angibt; – Festlegen einer Position eines virtuellen Endoskops im Lumen; – Berechnen einer multiplanaren Rekonstruktion (MPR) orthogonal zum Lumen an der Endoskopposition; – Durchführen eines ersten Region Growing auf dem MPR-Bild an der Endoskopposition und Markieren der mit dem Region Growing verknüpften Pixel als Kandidaten für das 3D-Rendering; – Bestimmen des minimalen Abstandswerts und des maximalen Abstandswerts der markierten Pixel durch Nachschlagen der Abstandswerte der jeweils zugehörigen Voxel in der Abstandskarte; – Suchen von Pixeln der MPR, die zu dem Lumen gehören und die nach der ersten Bereichsanwachsung noch nicht markiert waren; ...

Description

  • Querverweis auf verwandte Anmeldungen
  • Diese Anmeldung nimmt die Priorität der vorläufigen US-Anmeldung 60/454,105 vom 12. März 2003 in Anspruch, die hierin durch Bezugnahme beinhaltet ist.
  • Hintergrund der Erfindung
  • 1. Technischer Bereich
  • Die vorliegende Erfindung betrifft das Durchführen einer virtuellen Endoskopie und spezieller das Durchführen einer virtuellen Endoskopie unter Verwendung einer multiplanaren Rekonstruktion (MPR) und dreidimensionalem (3D) Rendering einer virtuellen endoskopischen Abbildung.
  • 2. Diskussion des Standes der Technik
  • Virtuelle Endoskopie (oder durch Computer berechnete Endoskopie) ist ein Verfahren einer Diagnose unter Verwendung der Computerverarbeitung dreidimensionaler (3D) Bilddatensätze wie Computertomographie (CT)- oder Magnetresonanzbildgebungs(MRI)-Scans, um simulierte Darstellungen patientenspezifischer Organe ähnlich denen, die durch übliche invasive Endoskopieverfahren erzeugt werden, herzustellen. Virtuelle Endoskopie wurde auf viele endoskopische Verfahren einschließlich Bronchoskopie, Darmspiegelung, Untersuchungen der Bauchspeicheldrüse, Kehlkopfspiegelungen und Otoskopie angewandt. Bei Verwendung der virtuellen Endoskopie können patientenspezifische anatomische Strukturen nicht-invasiv erhalten werden, wodurch die Schwierigkeiten bei der Durchführung, die mit üblichen invasiven Endoskopieverfahren einhergehen, reduziert werden.
  • In einem typischen virtuellen Endoskopieverfahren werden 3D-Bilder erzeugt, um Bilder zu simulieren, die beispielsweise von einem faseroptischen Endoskop kommen. Somit kann man beispielsweise durch das Lumen, etwa ein Kolon, fliegen und die Innenfläche des Kolons betrachten, um Oberflächenanomalien festzustellen. Dies wird erreicht, indem ein Betrachtungspunkt eines virtuellen Endoskops unter Verwendung einer Perspektivprojektion ausgewählt wird, was typischerweise unter einem stumpfen Winkel wie 110° stattfindet.
  • Obwohl die erhaltenen Bilder hilfreich sind, um die Innenfläche des Lumens zu betrachten, ist typischerweise Information auf der Außenoberfläche des Lumens nicht sichtbar. Somit ist es schwierig, die Wanddicke des Lumens oder Anomalien zu bestimmen, die auf der Außenoberfläche des Lumens vorhanden sein können. Außerdem können bei Verwendung einer Weitwinkel-Perspektivprojektion (z. B. 100 oder 110°) Merkmale wie Tumore, die hinter Falten und Kurven im Lumen versteckt sein können, nicht erkannt werden.
  • Aus dem Artikel „Interventional 3D-Angiography: Calibration, Reconstruction and Visualization System”, Proceedings of the Fourth IEEE Workshop on Applications of Computer Vision (WACV '98); 19.–21. Oct. 1998, Seiten 246–247 von Ali Bani-Hashemi et al. ist es bekannt, ein Lumen zu segmentieren und dieses Lumen in 3D zu rendern, während der Rest des Bildes in klassischer 2D-MPR-Ansicht verbleibt.
  • Aus dem Artikel „Automatic Segmentation of the colon for virtual colonoscopy”, Computerized Medical Imaging and Graphics, vol. 24 no. 1, 2000, Seiten 1–9 von C. L. Wyatt et al. ist es bekannt, eine automatische Segmentierung eines Lumens mittel eines Region Growing Schritts durchzuführen.
  • Problematisch dabei ist, dass bei den bekannten Vorgehensweisen unter Umständen das Lumen nicht vollständig segmentiert wird, und dass Informationen auf der Außenoberfläche des Lumens nicht sichtbar sind.
  • Die Aufgabe der Erfindung besteht somit darin, ein Verfahren und ein System zu dessen Durchführung bereitzustellen, das eine zuverlässigere und vollständigere Segmentierung des Lumens ermöglicht.
  • Diese Aufgabe wird gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1 und ein System mit den Merkmalen des Anspruchs 5.
  • Weitere Merkmale und Vorteile der Erfindung werden aus der nachfolgenden Beschreibung, den Zeichnungen und den Ansprüchen deutlich.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm eines Systems zum Durchführen einer virtuellen Endoskopie gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung;
  • 2 ist ein Ablaufdiagramm, das den Ablauf eines Verfahrens zum Durchführen einer virtuellen Endoskopie gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung zeigt;
  • 3 ist eine dreidimensionale (3D) Wiedergabe eines Lumens gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung;
  • 4 ist ein Lumen, das in 3D gerendert wurde, das einen Abschnitt aufweist, der nicht in 3D gerendert wurde; und
  • 5 ist der Abschnitt des Lumens aus 4, der nicht in 3D gerendert wurde, gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung in 3D gerendert.
  • Detaillierte Beschreibung beispielhafter Ausführungsformen
  • 1 ist ein Blockdiagramm eines Systems 10 zum Durchführen einer virtuellen Endoskopie gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung. Wie in 1 dargestellt weist das System 100 unter anderem eine Scanvorrichtung 105, einen Computer (PC) 110 und eine Bedienkonsole 115 auf, die beispielsweise über ein Ethernet-Netzwerk 120 verbunden sind. Die Scanvorrichtung 105 kann eine Magnetresonanzbildgebungs(MRI)-Vorrichtung, eine Computertomographie(CT)-Bildgebungsvorrichtung, eine Spiral-CT-Vorrichtung, eine Positronenemissionstomographie (PET)-, eine zweidimensionale (2D) oder dreidimensionale (3D) fluoroskopische Bildgebungsvorrichtung, eine 2D, 3D oder vierdimensionale (4D) Ultraschallbildgebungsvorrichtung oder ein Röntgengerät etc. sein.
  • Der PC 110, der ein tragbarer Computer oder Laptop sein kann, ein PTA etc., weist eine zentrale Prozessoreinheit (CPU) 125 und einen Speicher 130 auf, die mit einer Eingabevorrichtung 145 und einer Ausgabevorrichtung 150 verbunden sind. Der Speicher umfasst einen Direktzugriffsspeicher (RAM) 135 und einen Lesespeicher (ROM) 140. Der Speicher 130 kann auch eine Datenbank, ein Laufwerk für Disks oder Kassetten etc. oder eine Kombination hiervon aufweisen. Der Direktzugriffsspeicher 135 dient als Datenspeicher, der Daten speichert, die während der Ausführung eines Programms in der CPU 125 verwendet werden, und wird als Arbeitsbereich verwendet. Der Lesespeicher 140 dient als Programmspeicher zum Speichern eines Programms, das in der CPU ausgeführt wird. Die Eingabevorrichtung 145 wird durch eine Tastatur, Maus etc. gebildet, und die Ausgabevorrichtung 150 wird durch ein Flüssigkristalldisplay (LCD), ein Kathodenstrahlröhren(CRT)-Display, einen Drucker etc. gebildet.
  • Der Betrieb des Systems 100 wird von der Bedienkonsole 115 gesteuert, die eine Steuerung 160 aufweist, beispielsweise eine Tastatur, und ein Display 155, beispielsweise ein CRT-Display. Die Bedienkonsole 115 kommuniziert mit dem PC 110 und der Scanvorrichtung 105, so dass 2D-Bilddaten, die von der Scanvorrichtung 105 gesammelt werden, in 3D-Daten durch den PC 110 mittels Rendering umgewandelt werden und auf dem Display 155 angezeigt werden können. Es soll klar sein, dass der PC 110 betrieben werden kann und Informationen anzeigen kann, die von der Scanvorrichtung 105 geliefert werden, auch wenn keine Bedienkonsole 115 vorhanden ist.
  • 2 ist ein Ablaufdiagramm, das den Ablauf eines Verfahrens zum Durchführen einer virtuellen Endoskopie gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung zeigt. Wie in 2 dargestellt, werden 3D-Daten von einem Lumen (Schritt 205) erhalten. Dies wird erreicht durch Verwendung der Scanvorrichtung 105, in diesem Beispiel ein CT-Scanner, der von der Bedienkonsole 115 aus betrieben wird, um ein gewähltes Lumen zu scannen, wodurch eine Reihe von 2D-Bildern erzeugt wird, die mit dem Lumen verknüpft sind. Die 2D-Bilder des Lumens werden anschließend in ein gerendertes 3D-Bild umgewandelt oder transformiert. Es soll klar sein, dass das Lumen ein Kolon, eine Bauchspeicheldrüse, Bronchien, ein Kehlkopf, eine Luftröhre, eine Stirnhöhle, ein Ohrenkanal, ein Blutgefäß, eine Harnröhre, eine Harnblase oder jeder andere beliebige innere offene Raum oder Hohlraum eines rohrförmigen Organs sein kann.
  • Nachdem die 3D-Daten des Lumens erhalten wurden, wird eine Abstandskarte unter Verwendung der 3D-Daten des Lumens berechnet (Schritt 210). Die Abstandskarte wird berechnet, indem einem ersten Voxel (z. B. Keim- oder Saatvoxel) des Lumens ein anfänglicher Abstandswert von ”1” zugeordnet wird. Die an das erste Voxel angrenzenden Voxel werden untersucht, und wenn sie zu dem Lumen gehören und ihnen nicht zuvor ein Abstandswert zugeordnet wurde, wird ihnen ein Abstandswert von ”2” zugeordnet. Anschließend wird den Voxeln, die an die Voxel mit Abstandwert ”2” angrenzen, ein Abstandswert von ”3” zugeordnet, wenn sie zum Lumen gehören und ihnen nicht zuvor bereits ein Abstandswert zugeordnet wurde. Dieses Verfahren wird wiederholt, bis alle Voxel im Lumen bestimmte Abstandswerte erhalten haben. Während der Berechnung der Abstandskarte erhält somit ein Nachbar (z. B. ein angrenzendes Voxel) eines Voxels, das einen Abstandswert ”n” erhalten hat, einen Abstandswert von ”n + 1”, wenn es zum Lumen gehört und ihm noch kein Abstandswert zugeordnet wurde.
  • Wie weiter in 2 dargestellt ist, wird ein Endoskop (z. B. ein virtuelles Endoskop) an einer gewünschten Position im Lumen angeordnet (Schritt 215). Dies wird durchgeführt, indem ein Nutzer auf eine Stelle am Bildschirm klickt, die mit einem Bereich des Lumens verknüpft ist, dessen Analyse gewünscht ist, oder indem ein Durchflug durch das Lumen über einen vorprogrammierten ”Flugpfad” durchgeführt wird, um eine gewünschte Position für das Studium zu finden. Nach Schritt 215 wird eine multiplanare Rekonstruktion (MPR) orthogonal zum Lumen bei der Endoskopposition berechnet (Schritt 220). Unter Verwendung des MPR-Bilds des Lumens wird anschließend eine Bereichsanwachsung (bzw. ein Region Growing) an der Endoskopposition durchgeführt (Schritt 225). Ähnlich zum Verfahren des Berechnens einer Abstandskarte in Schritt 210 wird bei der Bereichsanwachsung ein Keimvoxel beispielsweise im Mittelpunkt der Endoskopposition ausgewählt und es wird ihm ein erster Wert zugeordnet. Die Nachbarvoxel werden anschließend gelesen und mit einem Grenzbereich verglichen, der durch Markierung eines Bereichs von Interesse im Lumen bestimmt werden kann, um zu bestimmen, ob solche Nachbarvoxel (z. B. angrenzende Voxel) in den Grenzbereich fallen. Wenn das Vogel oder die Voxel innerhalb des Grenzbereichs zu finden sind, wird ihm/ihnen ein zweiter Wert zugeordnet, und das Verfahren wird wiederholt, bis alle Voxel in dem Bereich von Interesse getestet wurden und/oder ihnen Werte zugeordnet wurden.
  • Die mit der Bereichsanwachsung verknüpften Daten werden anschließend als Kandidat für das 3D-Rendering markiert (Schritt 230). Diese Daten werden markiert, indem ihnen eine Kennung zugeordnet wird, die beispielsweise ein Wert sein kann, der sich von dem aller anderen Pixel- oder Voxelwerte in der MPR unterscheidet. An diesem Punkt kann der Nutzer fortfahren, ein 3D-Rendering der markierten Daten in Schritt 260 durchzuführen oder das MPR-Bild in Schritt 240 zu modifizieren (Schritt 235). Wenn der Nutzer zu Schritt 260 schreitet, werden die MPR-Daten mit einem 3D-Rendering der markierten Daten kombiniert, um ein vergrößertes Bild des Lumens zu liefern. Mit anderen Worten werden die markierten Pixel oder Voxel in der MPR durch eine gerenderte 3D-Wiedergabe des Lumens ersetzt.
  • Ein beispielhaftes Bild 300, das vom direkten Schreiten von Schritt 235 zu 260 geliefert wird, ist in 3 dargestellt. Wie in 3 gezeigt können Informationen außerhalb des Lumens (in diesem Beispiel ist das Lumen ein Kolon) beobachtet werden. Insbesondere sind Informationen außerhalb der Wand des Kolons sichtbar und unter Verwendung dieser Informationen kann die Dicke der Wand des Kolons bestimmt werden und Anomalien wie ein Polyp entdeckt werden. Zusätzlich werden die umgebenden MPR-Bildabschnitte nicht gerendert (z. B. nicht klare Bilder des Kolons), da sie nicht für das Rendering markiert wurden. Somit zeigt das Bild 300 lediglich den gewünschten Abschnitt des Lumens an, der zuvor in Schritt 215 durch den Nutzer ausgewählt wurde. Es soll klar sein, dass die Option des direkten Schreitens von Schritt 235 zu Schritt 260 dem Nutzer ermöglicht, schnell mit Abschnitten eines Lumens zu arbeiten, die keine Probleme wie Kurven oder beispielsweise haustrenartige Falten aufwerfen. Es soll außerdem klar sein, dass Schritt 235 weggelassen werden und die Abfolge in 2 direkt zu Schritt 240 voranschreiten kann.
  • Wenn der Nutzer jedoch das MPR-Bild weiter modifizieren oder verbessern möchte, werden minimale und maximale Abstände der markierten Daten der ersten Bereichsanwachsung aus der Abstandskarte berechnet (Schritt 240). Dies erfolgt durch Nachschlagen der Abstandswerte der markierten Daten (z. B. markierte Pixel oder Voxel) und Tabellarieren ihrer minimalen und maximalen Abstände aus ihren entsprechenden Positionen auf der Abstandskarte von Schritt 210. Sobald die Abstandswerte berechnet wurden, können zusätzliche Bereichsanwachsungen für Daten außerhalb des ersten markierten Bereichs durchgeführt werden, die ein Teil des gewünschten Lumens sein sollen. Ein Beispiel von Daten, die außerhalb eines markierten Bereichs liegen, ist in Bild 400 in 4 dargestellt.
  • Wie in 4 dargestellt weist das Bild 400 einen Abschnitt eines Lumens auf, der keinem 3D-Rendering unterzogen wurde (in diesem Beispiel ist das Lumen wiederum ein Kolon). Ein Pfeil zeigt diesen Abschnitt (d. h. einen Abschnitt des Lumens, der nach der ersten Bereichsanwachsung nicht markiert war). Um den durch den Pfeil gekennzeichneten Abschnitt zu rendern, wird eine weitere Bereichsanwachsung für Daten außerhalb der ersten Bereichsanwachsung durchgeführt (Schritt 245). Dies erfolgt durch Untersuchung aller Pixel oder Voxel der MPR, die zu dem Lumen gehören, die nach der ersten Bereichsanwachsung nicht markiert waren. Wenn solche Pixel oder Voxel gefunden werden und diese innerhalb enger Nachbarschaft zum berechneten minimalen und maximalen Abstand der markierten Daten von der ersten Bereichsanwachsung liegen, werden sie als Keimpunkt für nachfolgende Bereichsanwachsungen (z. B. zweite, dritte etc. Bereichsanwachsung) verwendet. Daraufhin werden die mit der Bereichsanwachsung verknüpften Daten als Kandidat für das 3D-Rendering markiert und ihnen wird eine Kennung zugeordnet (Schritt 250). Diese Abfolge (Schritte 245–255) wird sich selbst wiederholen, bis alle Bereichsanwachsungen auf der Basis des Abstands des Keimpixels zur ersten Bereichsanwachsung vervollständigt sind (Schritt 255).
  • Es soll klar sein, dass lediglich eine einzelne Bereichsanwachsung in dieser Abfolge (Schritte 245255) stattfinden könnte, ohne dass ein Nutzer die Option haben könnte, nach der einzigen Bereichsanwachsung direkt zu Schritt 260 zu schreiten. Mit anderen Worten wird lediglich eine zweite Bereichsanwachsung während dieser Abfolge durchgeführt, aber keine dritte, vierte, etc.
  • Es sollte klar sein, dass ein Schwellwert auf der Basis des berechneten maximalen und minimalen Abstands (aus Schritt 240) gesetzt werden könnte, um der Bereich einzugrenzen, in dem zweite oder nachfolgende Bereichsanwachsungen durchgeführt werden sollen. Beispielsweise kann der Schwellwert einfach auf den berechneten minimalen und maximalen Abstand gesetzt werden (deshalb kann die zweit Bereichsanwachsung nicht über diese Punkte hinausreichen), Er kann auf die Hälfte des berechneten minimalen und maximalen Abstands gesetzt werden, oder er kann auf eine Grenze jenseits des berechneten maximalen und minimalen Abstands gesetzt werden.
  • In Schritt 260 wird ein 3D-Rendering mit den markierten Daten der ersten, zweiten, dritten etc. Bereichanwachsung unter Verwendung einer 3D-Rendering-Technik wie Strahlformung, Oberflächenrendering (z. B. schattiertes Oberflächenrendering), Volumenrendering etc. durchgeführt. Es soll klar sein, dass das 3D-Rendering unter Verwendung der CPU 125 aus 1 oder durch bestimmte Rendering-Hardware wie eine Graphikkarte, Volumenrendering-Karte etc. durchgeführt werden kann. Die daraus resultierende 3D-Wiedergabe des markierten MPR-Bilds wird in Bild 500 von 5 dargestellt. Wie durch das Bild 500 dargestellt ist der Abschnitt des Lumens aus 4, der durch den Pfeil gekennzeichnet ist, nun sichtbar, und dementsprechend sind. Informationen außerhalb der Wand des Kolons sichtbar und Informationen wie die Dicke der Wand des Kolons können bestimmt und Anomalien wie ein Polyp entdeckt werden. Nach dem Durchführen des 3D-Renderings in Schritt 260 kann ein Nutzer das Endoskop in eine andere Position im Lumen bewegen und den oben beschriebenen Prozess wiederholen (Schritt 265).
  • Es wird angemerkt, dass die vorliegende Erfindung in verschiedenen Formen von Hardware, Software, Firmware, Spezialzweckprozessoren oder einer Kombination hiervon implementiert sein kann. In einer Ausführungsform kann die vorliegende Erfindung in Software als ein Anwendungsprogramm implementiert sein, das auf einer Programmspeichervorrichtung verkörpert ist.
  • Das Anwendungsprogramm kann geladen werden auf und ausgeführt werden durch ein Gerät mit einer beliebigen geeigneten Architektur.

Claims (5)

  1. Verfahren zum Durchführen einer virtuellen Endoskopie mit folgenden Schritten: – Erhalten von dreidimensionalen (3D) Daten einer ein Lumen enthaltenden anatomischen Struktur; – Berechnen einer Abstandskarte unter Verwendung der dreidimensionalen (3D) Daten, welche die Abstände der Voxel des Lumens zu einem ersten Voxel des Lumens angibt; – Festlegen einer Position eines virtuellen Endoskops im Lumen; – Berechnen einer multiplanaren Rekonstruktion (MPR) orthogonal zum Lumen an der Endoskopposition; – Durchführen eines ersten Region Growing auf dem MPR-Bild an der Endoskopposition und Markieren der mit dem Region Growing verknüpften Pixel als Kandidaten für das 3D-Rendering; – Bestimmen des minimalen Abstandswerts und des maximalen Abstandswerts der markierten Pixel durch Nachschlagen der Abstandswerte der jeweils zugehörigen Voxel in der Abstandskarte; – Suchen von Pixeln der MPR, die zu dem Lumen gehören und die nach der ersten Bereichsanwachsung noch nicht markiert waren; – wenn ein solches Pixel gefunden wird und der Abstandswert des zugehörigen Voxels gemäß der Abstandskarte innerhalb eines auf der Basis des bestimmten minimalen und maximalen Abstandswerts festgelegten Toleranzbereichs liegt, Durchführen eines weiteren Region Growing auf der MPR ausgehend von diesem Pixel als Keimpunkt und Markieren der mit dem weiteren Region Growing verknüpften Pixel; – Durchführen eines 3D-Renderings ausgehend von den markierten Pixeln, die zu dem ersten Region Growing und dem weiteren Region Growing gehören, und Ersetzen der markierten Pixel in der MPR durch die 3D-gerenderte Wiedergabe des Lumens.
  2. Verfahren nach Anspruch 1, wobei die 3D-Daten mittels Computertomographie (CT), Spiral-CT, Röntgen, Positronenemissionstomographie, fluoroskopischer, Ultraschall- oder Magnetresonanz(MR)-Bildgebungstechniken erhalten werden.
  3. Verfahren nach Anspruch 1, wobei das Lumen ein Kolon, eine Bauchspeicheldrüse, Bronchien, ein Kehlkopf, eine Luftröhre, eine Stirnhöhle, ein Ohrenkanal, ein Blutgefäß, eine Harnröhre oder eine Harnblase ist.
  4. Verfahren nach Anspruch 1, wobei das 3D-Rendering der Daten, die zu dem ersten Region Growing und dem weiteren Region Growing zugehörig sind, unter Verwendung von Strahlformung, Oberflächenrendering oder Volumenrendering als 3D-Rendering-Technik durchgeführt wird.
  5. System zum Durchführen einer virtuellen Endoskopie mit einer Speichervorrichtung zum Speichern eines Programms; einem Prozessor in Verbindung mit der Speichervorrichtung, wobei der Prozessor mit dem Programm zusammenwirkt, um das Verfahren nach einem der Ansprüche 1 bis 4 auszuführen.
DE112004000352T 2003-03-12 2004-03-11 System und Verfahren zum Durchführen einer virtuellen Endoskopie Expired - Fee Related DE112004000352B4 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US45410503P 2003-03-12 2003-03-12
US60/454,105 2003-03-12
US10/795,918 2004-03-08
US10/795,918 US7304644B2 (en) 2003-03-12 2004-03-08 System and method for performing a virtual endoscopy
PCT/US2004/007300 WO2004081873A2 (en) 2003-03-12 2004-03-11 System and method for performing a virtual endoscopy

Publications (2)

Publication Number Publication Date
DE112004000352T5 DE112004000352T5 (de) 2006-03-09
DE112004000352B4 true DE112004000352B4 (de) 2013-09-12

Family

ID=32994542

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112004000352T Expired - Fee Related DE112004000352B4 (de) 2003-03-12 2004-03-11 System und Verfahren zum Durchführen einer virtuellen Endoskopie

Country Status (5)

Country Link
US (1) US7304644B2 (de)
JP (1) JP2006519631A (de)
CN (1) CN1771517B (de)
DE (1) DE112004000352B4 (de)
WO (1) WO2004081873A2 (de)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10246355A1 (de) * 2002-10-04 2004-04-15 Rust, Georg-Friedemann, Dr. Interaktive virtuelle Endoskopie
JP2006346177A (ja) * 2005-06-16 2006-12-28 Toshiba Corp 画像診断装置、画像処理装置及び3次元画像データ表示方法
US7623900B2 (en) 2005-09-02 2009-11-24 Toshiba Medical Visualization Systems Europe, Ltd. Method for navigating a virtual camera along a biological object with a lumen
DE102006020398B4 (de) * 2006-04-28 2015-09-03 Siemens Aktiengesellschaft Medizintechnisches Diagnosesystem
US7853058B2 (en) * 2006-11-22 2010-12-14 Toshiba Medical Visualization Systems Europe, Limited Determining a viewpoint for navigating a virtual camera through a biological object with a lumen
US20080117210A1 (en) * 2006-11-22 2008-05-22 Barco N.V. Virtual endoscopy
US8840558B2 (en) * 2008-06-05 2014-09-23 Starkey Laboratories, Inc. Method and apparatus for mathematically characterizing ear canal geometry
US20100248200A1 (en) * 2008-09-26 2010-09-30 Ladak Hanif M System, Method and Computer Program for Virtual Reality Simulation for Medical Procedure Skills Training
JP5433240B2 (ja) 2009-01-21 2014-03-05 株式会社東芝 超音波診断装置及び画像表示装置
CN101849843B (zh) * 2009-03-31 2013-03-13 上海交通大学医学院附属新华医院 三维心脏超声虚拟内窥镜导航方法
ATE549972T1 (de) * 2009-06-05 2012-04-15 Starkey Lab Inc Verfahren und vorrichtung zur mathematischen charakterisierung der hörkanalgeometrie
US8611989B2 (en) * 2010-11-30 2013-12-17 Kabushiki Kaisha Toshiba Multi-planar reconstruction lumen imaging method and apparatus
CN102078179B (zh) * 2011-01-31 2012-05-30 广州宝胆医疗器械科技有限公司 三维立体电子结肠镜***
JP6071599B2 (ja) * 2012-02-01 2017-02-01 東芝メディカルシステムズ株式会社 超音波診断装置、画像処理装置及びプログラム
JP6006092B2 (ja) * 2012-11-15 2016-10-12 東芝メディカルシステムズ株式会社 超音波診断装置、画像処理装置及びプログラム
CN103968829B (zh) * 2014-05-13 2016-12-07 清华大学 基于虚拟标志物的三维空间定位追踪方法及***
US10424062B2 (en) 2014-08-06 2019-09-24 Commonwealth Scientific And Industrial Research Organisation Representing an interior of a volume
US10242488B1 (en) * 2015-03-02 2019-03-26 Kentucky Imaging Technologies, LLC One-sided transparency: a novel visualization for tubular objects
KR101717371B1 (ko) * 2015-08-31 2017-03-16 왕용진 실시간 또는 기저장된 초고속 후두내시경 영상을 이용한 평면 스캔 비디오카이모그래피 영상 생성 방법, 이를 수행하는 평면 스캔 비디오카이모그래피 영상 생성 서버, 및 이를 저장하는 기록매체
CN106890031B (zh) * 2017-04-11 2020-05-05 东北大学 一种标记物识别及标记点定位方法及手术导航***
US11340582B2 (en) * 2017-10-14 2022-05-24 Hewlett-Packard Development Company, L.P. Processing 3D object models
US10510178B2 (en) * 2018-02-27 2019-12-17 Verizon Patent And Licensing Inc. Methods and systems for volumetric reconstruction based on a confidence field
CN108461128A (zh) * 2018-03-02 2018-08-28 上海联影医疗科技有限公司 医学图像处理方法及***和图像处理终端
US11132830B2 (en) * 2018-03-29 2021-09-28 Biosense Webster (Israel) Ltd. Static virtual camera positioning
US11151789B1 (en) 2019-03-25 2021-10-19 Kentucky Imaging Technologies Fly-in visualization for virtual colonoscopy
US11521316B1 (en) 2019-04-03 2022-12-06 Kentucky Imaging Technologies Automatic extraction of interdental gingiva regions
US11044400B1 (en) 2019-04-03 2021-06-22 Kentucky Imaging Technologies Frame stitching in human oral cavity environment using intraoral camera

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4945478A (en) * 1987-11-06 1990-07-31 Center For Innovative Technology Noninvasive medical imaging system and method for the identification and 3-D display of atherosclerosis and the like
US5734384A (en) 1991-11-29 1998-03-31 Picker International, Inc. Cross-referenced sectioning and reprojection of diagnostic image volumes
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5611025A (en) * 1994-11-23 1997-03-11 General Electric Company Virtual internal cavity inspection system
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US6331116B1 (en) * 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US5891030A (en) * 1997-01-24 1999-04-06 Mayo Foundation For Medical Education And Research System for two dimensional and three dimensional imaging of tubular structures in the human body
US6346940B1 (en) * 1997-02-27 2002-02-12 Kabushiki Kaisha Toshiba Virtualized endoscope system
US6246784B1 (en) * 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6674894B1 (en) * 1999-04-20 2004-01-06 University Of Utah Research Foundation Method and apparatus for enhancing an image using data optimization and segmentation
US20020009215A1 (en) * 2000-01-18 2002-01-24 Arch Development Corporation Automated method and system for the segmentation of lung regions in computed tomography scans
US6898303B2 (en) * 2000-01-18 2005-05-24 Arch Development Corporation Method, system and computer readable medium for the two-dimensional and three-dimensional detection of lesions in computed tomography scans
WO2001078005A2 (en) * 2000-04-11 2001-10-18 Cornell Research Foundation, Inc. System and method for three-dimensional image rendering and analysis
EP1337970A4 (de) * 2000-10-02 2006-09-20 Univ New York State Res Found Mittellinien-und baumverzweigungsskelettbestimmung für virtuelle objekte
US7072501B2 (en) * 2000-11-22 2006-07-04 R2 Technology, Inc. Graphical user interface for display of anatomical information
KR100788643B1 (ko) * 2001-01-09 2007-12-26 삼성전자주식회사 색과 질감의 조합을 기반으로 하는 영상 검색 방법
US6816607B2 (en) * 2001-05-16 2004-11-09 Siemens Corporate Research, Inc. System for modeling static and dynamic three dimensional anatomical structures by 3-D models
US20030095696A1 (en) * 2001-09-14 2003-05-22 Reeves Anthony P. System, method and apparatus for small pulmonary nodule computer aided diagnosis from computed tomography scans
CA2466809A1 (en) * 2001-11-21 2003-06-05 Viatronix Incorporated System and method for visualization and navigation of three-dimensional medical images
US7397937B2 (en) * 2001-11-23 2008-07-08 R2 Technology, Inc. Region growing in anatomical images
DE10160206A1 (de) * 2001-12-07 2003-06-18 Philips Intellectual Property Verfahren und Vorrichtung zur Erstellung einer isolierten Darstellung von Körperstrukturen
US7123766B2 (en) * 2002-02-11 2006-10-17 Cedara Software Corp. Method and system for recognizing and selecting a region of interest in an image
US6574304B1 (en) * 2002-09-13 2003-06-03 Ge Medical Systems Global Technology Company, Llc Computer aided acquisition of medical images
US7260250B2 (en) * 2002-09-30 2007-08-21 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Computer-aided classification of anomalies in anatomical structures
US7123760B2 (en) * 2002-11-21 2006-10-17 General Electric Company Method and apparatus for removing obstructing structures in CT imaging
EP1455307A1 (de) * 2003-03-06 2004-09-08 MeVis GmbH Teilvolumenvisualisierung
US7142726B2 (en) * 2003-03-19 2006-11-28 Mitsubishi Electric Research Labs, Inc. Three-dimensional scene reconstruction from labeled two-dimensional images
WO2005010699A2 (en) * 2003-07-15 2005-02-03 Medical Metrx Solutions, Inc. Generating a computer model using scan data of a patient
US7209581B2 (en) * 2003-07-31 2007-04-24 Siemens Medical Solutions Usa, Inc. System and method for ground glass nodule (GGN) segmentation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Ali Bani-Hashemi et.al.: "Interventional 3D-Angiography: Calibration, Reconstruction and Visualization System", Proceedings of the Fourth IEEE Workshop on Applications of Computer Vision (WACV'98), 19-21 Oct. 1998, Page(s): 246-247 *
C.L. Wyatt, Y. Ge, D.J. Vining: "Automatic segmentation of the colon for virtual colonoscopy", Computerized Medical Imaging and Graphics, Vol. 24, No. 1, 2000, pp. 1-9 *

Also Published As

Publication number Publication date
US7304644B2 (en) 2007-12-04
DE112004000352T5 (de) 2006-03-09
CN1771517B (zh) 2010-05-26
CN1771517A (zh) 2006-05-10
JP2006519631A (ja) 2006-08-31
US20040202990A1 (en) 2004-10-14
WO2004081873A2 (en) 2004-09-23
WO2004081873A3 (en) 2005-03-31

Similar Documents

Publication Publication Date Title
DE112004000352B4 (de) System und Verfahren zum Durchführen einer virtuellen Endoskopie
DE102005036412B4 (de) Verbesserte GGN-Segmentierung in Lungenaufnahmen für Genauigkeit und Konsistenz
DE112004001177T5 (de) System und Verfahren zur Planung eines endoskopischen Pfades
DE69838698T2 (de) Bildanzeigevorrichtung und Verfahren
DE102004043676B4 (de) Verfahren zur Visualisierung von Plaqueablagerungen aus 3D-Bilddatensätzen von Gefäßstrukturen
DE102004022902B4 (de) Verfahren zur medizinischen Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt
DE112005001755T5 (de) System und Verfahren zur Baummodell-Visualisierung zur Erkennung von Lungenembolie
DE102007046250A1 (de) Verfahren und Vorrichtung zur Identifizierung von Bereichen in einem Bild
DE102005045602B4 (de) Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs
DE102005046385A1 (de) Verfahren und Vorrichtung zur Nachbearbeitung eines 3D-Bilddatensatzes, insbesondere für die virtuelle Kolonographie
DE112004000128T5 (de) Verfahren und Vorrichtung für die automatische lokale Wegplanung bei der virtuellen Kolonoskopie
DE112004000722T5 (de) Verfahren und Vorrichtung zur schnellen automatischen Mittellinien-Extraktion für die virtuelle Endoskopie
DE10355382A1 (de) Verfahren und System zur Vermessung von Luftwegen
DE102005009271A1 (de) System und Verfahren zur Durchführung einer virtuellen Endoskopie in einer Verzweigungsstruktur
DE112005000927T5 (de) Verfahren und System zur Netz-zu-Bild-Registrierung unter Anwendung von Ray-Casting
DE102022112136A1 (de) Medizinisches bildanalysegerät, verfahren und medizinisches bild, visualisierungsgerät und verfahren
DE10254908B4 (de) Verfahren zum Herstellen eines Bildes
DE102006039921A1 (de) System und Verfahren zum automatischen Atemwegevaluieren für Multi-Schnitt Computertomographie (MSCT) Bilddaten unter Verwendung eines Atemweglumendurchmessers, einer Atemwegwanddicke und eines Bronchien-Arterien-Verhältnisses
DE102004027710A1 (de) Verfahren zur automatischen Detektion einer Struktur bei bildgebenden medizinischen Verfahren, Computertomografiegerät, Arbeitsstation und Comupterprogrammprodukt
DE102011006398A1 (de) Verfahren, Bildverarbeitungseinrichtung und Computertomographiesystem zur Ermittlung eines Anteils von nekrotischem Gewebe sowie Computerprogrammprodukt mit Programmcodeabschnitten zur Ermittlung eines Anteils von nekrotischem Gewebe
DE102004027709B4 (de) Verfahren der virtuellen Endoskopie zur medizinischen 3D-Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt
DE112011104887B4 (de) Nichtflüchtiges computerlesbares Speichermedium zur Darstellung von Markierungen der computergestützten Detektion bei der computertomographischen Diagnose des Dickdarms
DE112007002807T5 (de) Verfahren und System zur Gruppierung von Bildern in einem Tomosynthese-Bildgebungssystem
DE102008016655B3 (de) Verfahren und Vorrichtung zur Visualisierung eines Bilddatensatzes eines einen Hohlraum umschließenden Organs, insbesondere eines CT-Bilddatensatzes eines Kolons
DE102008025535B4 (de) Verfahren zur Sichtung tubulärer anatomischer Strukturen, insbesondere Gefäßstrukturen, in medizinischen 3D-Bildaufnahmen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law

Ref document number: 112004000352

Country of ref document: DE

Date of ref document: 20060309

Kind code of ref document: P

8125 Change of the main classification

Ipc: G06T 7/40 AFI20051017BHDE

8127 New person/name/address of the applicant

Owner name: SIEMENS MEDICAL SOLUTIONS USA, INC., MALVERN, PA.,

8120 Willingness to grant licences paragraph 23
R019 Grant decision by federal patent court
R020 Patent grant now final

Effective date: 20131213

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20141001