DE102005023167A1 - Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz - Google Patents

Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz Download PDF

Info

Publication number
DE102005023167A1
DE102005023167A1 DE102005023167A DE102005023167A DE102005023167A1 DE 102005023167 A1 DE102005023167 A1 DE 102005023167A1 DE 102005023167 A DE102005023167 A DE 102005023167A DE 102005023167 A DE102005023167 A DE 102005023167A DE 102005023167 A1 DE102005023167 A1 DE 102005023167A1
Authority
DE
Germany
Prior art keywords
image data
data set
projection images
target structure
registration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102005023167A
Other languages
English (en)
Other versions
DE102005023167B4 (de
Inventor
Jan Dr. Boese
Norbert Rahn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102005023167A priority Critical patent/DE102005023167B4/de
Priority to US11/437,089 priority patent/US7689019B2/en
Priority to CN200610082786A priority patent/CN100581478C/zh
Publication of DE102005023167A1 publication Critical patent/DE102005023167A1/de
Application granted granted Critical
Publication of DE102005023167B4 publication Critical patent/DE102005023167B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B42/00Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
    • G03B42/02Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using X-rays
    • G03B42/021Apparatus for direct X-ray cinematography
    • G03B42/023Apparatus for indirect X-ray cinematography, i.e. by taking pictures on ordinary film from the images on the fluorescent screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/92Computer assisted medical diagnostics
    • Y10S128/922Computer assisted medical diagnostics including image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Registrierung von 2-D-Projektionsbildern eines Objekts relativ zu einem 3-D-Bilddatensatz desselben Objekts, bei welchem aus nur wenigen 2-D-Projektionsbildern ein im Objekt enthaltenes 3-D-Feature, das auch in den 3-D-Bildern identifizierbar ist, symbolisch rekonsturiert wird (36). Das so erhaltene 3-D-Feature wird dann durch 3-D-3-D-Registrierung mit dem 3-D-Bilddatensatz registriert (38).

Description

  • Die Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur Registrierung von 2D-Projektionsbildern eines Objekts relativ zu einem 3D-Bilddatensatz desselben Objekts.
  • Bei bestimmten klinischen Untersuchungen oder Behandlungen besteht die Notwendigkeit, 2D-Projektionsbilder, insbesondere Röntgen-Durchleuchtungsbilder, die während der Untersuchung oder Behandlung in Echtzeit zur Verfügung stehen, relativ zu einem vorher aufgenommenen 3D-Bilddatensatz zu registrieren, um die Echtzeit-Durchleuchtungsbilder mit anatomischen Bildinformationen aus dem 3D-Bilddatensatz überlagern zu können. Beispiele für solche Anwendungen sind zum Beispiel minimalinvasive Untersuchungen oder Behandlungen mit Endoskopen, Laparoskopen oder Kathetern, welche jeweils über eine kleine Körperöffnung in den Patienten eingeführt werden. Katheter kommen häufig im Rahmen kardiologischer Untersuchungen zum Einsatz, beispielsweise bei Arrhythmien des Herzens, die heutzutage durch sogenannte Ablations-Prozeduren behandelt werden. Hierbei wird ein Katheter während der Aufnahme von Echtzeit-Durchleuchtungsbildern, so genannten Fluoroskopiebildern, über Venen oder Arterien in eine Herzkammer eingeführt. In der Herzkammer wird das die Arrhythmie verursachende Gewebe durch die Applikation hochfrequenten Stroms ablatiert, d.h. als nekrotisches Gewebe zurückgelassen.
  • Die medizinische/technische Schwierigkeit bei derartigen Eingriffen besteht darin, dass der Katheter während der Röntgenkontrolle zwar sehr exakt und hoch aufgelöst in den Fluoroskopiebildern visualisiert werden kann, jedoch wird die Anatomie des Patienten nur ungenügend in den Fluoroskopiebildern abgebildet.
  • Gemäß dem aus der US 2003/0220555 A1 bekannten Verfahren wird deshalb vorgeschlagen, einen prä-operativ aufgenommenen 3D-Bilddatensatz des Untersuchungsbereichs zu verwenden, die intra-operativen 2D-Durchleuchtungsbilder relativ zu dem 3D-Bilddatensatz zu registrieren, die räumliche Position und Orientierung der Katheterspitze anhand der 2D-Durchleuchtungsbilder zu bestimmen und diese Informationen dazu zu verwenden, die Katheterspitze in eine Darstellung des 3D-Bilddatensatzes einzublenden. Die räumliche Position und Orientierung der Katheterspitze wird hier durch Rückprojektion aus wenigstens zwei 2D-Durchleuchtungsbildern ermittelt, was in diesem Fall relativ einfach ist, da die Form und Größe der Katheterspitze vorab bekannt ist und diese sehr deutlich und hoch aufgelöst auf den Fluoroskopiebildern erkennbar ist.
  • Die positionsgenaue Einblendung der Katheterspitze in den 3D-Datensatz setzt jedoch voraus, dass der 3D-Bilddatensatz sowie die beiden 2D-Durchleuchtungsbilder zueinander registriert sind, d.h., dass ihre Koordinatensysteme bezüglich einander über eine Transformationsmatrix korreliert sind. Zur Durchführung dieser so genannten 2D-3D-Registrierung werden in der US 2003/0220555 A1 unterschiedliche im Stand der Technik bekannte Methoden genannt. Bei der bild-basierten Registrierung wird beispielsweise iterativ jeweils aus dem 3D-Bilddatensatz ein „künstliches" Projektionsbild berechnet und mit dem tatsächlich erhaltenen 2D-Durchleuchtungsbild verglichen. Dieser Vorgang wird unter Variation des Projektionswinkels solange wiederholt, bis eine ausreichende Übereinstimmung zwischen dem künstlichen Projektionsbild, dem so genannten „digitally reconstructed radiogram (DRR)", und dem echten 2D-Durchleuchtungsbild erreicht ist.
  • Ein anderer 2D-3D-Registrierungsalgorithmus verwendet eine Landmarken-basierte Registrierung: Hierzu werden anatomische Besonderheiten wie beispielsweise die Herzoberfläche oder bestimmte Gefäßverzweigungspunkte etc. verwendet, die sowohl in den Durchleuchtungsbildern als auch in dem 3D-Bilddatensatz zu erkennen sind. Weitere 2D-3D-Registrierungsalgorithmen sind in dem Artikel von J. Weese, T.M. Buzug, G.P. Penney und P. Desmedt "2D/3D Registration and Motion Tracking for Surgical Interventions", Philips J. Res. 51 (1998), S. 299–316 beschrieben. Auch bei dem dortigen Verfahren werden aus den 3D-Bilddaten so genannte Pseudo-Projektionen berechnet und mit den Röntgen-Projektionsbildern verglichen.
  • Diese 2D-3D-Registierungsalgorhithmen sind aufgrund ihres iterativen „Trial and Error"-Characters zeitaufwändig und relativ instabil. Dies gilt insbesondere dann, wenn der präoperative 3D-Bilddatensatz mit einer anderen Modalität generiert wurde als die Durchleuchtungsbilder, also z.B. mit MR, so dass das künstlich berechnete Projektionsbild nicht unbedingt mit dem tatsächlich gemessenen Durchleuchtungsbild übereinstimmt.
  • Die Erfindung hat sich daher die Aufgabe gestellt, ein verbessertes Verfahren zur Registrierung von 2D-Projektionsbildern eines Objekts relativ zu einem 3D-Bilddatensatz desselben Objekts bereitzustellen, welches die oben genannten Nachteile der 2D-3D-Registrierungsalgorhithmen nicht aufweist.
  • Dieses Problem löst die Erfindung mit dem Verfahren des Anspruchs 1 sowie der zur Ausführung des Verfahrens geeigneten Vorrichtung gemäß Anspruch 12. Vorteilhafte Ausgestaltungen der Erfindung sind in den jeweils abhängigen Ansprüchen angegeben.
  • Die Erfindung umgeht die o. g. Schwierigkeiten der 2D-3D-Registrierung dadurch, dass sie aus mindestens zwei 2D-Projektionsbildern des Objekts, die aus verschiedenen Projektionswinkeln aufgenommen wurden, eine im Objekt enthaltene Zielstruktur räumlich rekonstruiert. Eine solche Rekonstruktion, welche nur wenige Projektionsbilder verwendet, wird auch „symbolische Rekonstruktion" genannt. Im Gegensatz zu der in der C-Bogen-Rotationsangiographie verwendeten gefilterten Rückprojektion von Bilddaten, die in kleinen Schritten über mindestens 180° gewonnen wurden, ist eine symbolische Rekonstruktion aus sehr wenigen 2D-Bildern nur dann möglich, wenn gewisse Merkmale des zu rekonstruierenden Bildes vorausgesetzt und für die Rekonstruktion verwendet werden. Erfindungsgemäß wird hierbei eine Modellfunktion für die Form der zu rekonstruierenden Zielstruktur verwendet. Das rekonstruierte 3D-Modell der im Objekt enthaltenen Struktur, die sowohl im 3D-Bilddatensatz als auch in den 2D-Projektionsbildern identifizierbar ist, wird dann in einer so genannten 3D-3D-Registrierung mit dem 3D-Bilddatensatz registriert.
  • Solche 3D-3D-Registrierungen sind im Stand der Technik bekannt und typischerweise stabiler als 2D-3D-Registrierungsalgorhithmen. Das Ergebnis der 3D-3D-Registrierung kann vorzugsweise dazu verwendet werden, weitere 2D-Projektionsbilder des Objektes aus beliebigen anderen Projektionswinkeln zu dem 3D-Bilddatensatz des Objektes zu registrieren und die koregistrierten Bilder gemeinsam auf einem Bildschirm darzustellen, um dem Arzt z.B. während einer minimalinvasiven Behandlung des Patienten eine gute Orientierung im Objekt (z.B. dem Untersuchungsbereich) zu ermöglichen. Dies setzt voraus, dass das Gerät, mit dem die 2D-Durchleuchtungsbilder aufgenommen werden, z.B. ein C-Bogen-Röntgengerät, kalibriert ist, d.h. dass die räumliche Relation von mit verschiedenen Angulationen aufgenommenen Bildern zueinander bekannt ist.
  • Besonders vorteilhaft wird das erfindungsgemäße Registrierungsverfahren jeweils nach einer beabsichtigten oder unbeabsichtigten Bewegung des Patienten wiederholt. Hierzu müssen lediglich zwei oder, wenn die Zielstruktur aus diesen zwei Bildern nicht zufrieden stellend räumlich rekonstruiert werden kann, drei, vier oder fünf 2D-Durchleuchtungsbilder mit verschiedenen Angulationen aufgenommen werden, die räumliche Position und Orientierung der darauf erkennbaren Zielstruktur symbolisch rekonstruiert werden und das so erhaltene 3D-Modell mittels 3D-3D-Registrierung relativ zum 3D-Bilddatensatz registriert werden. Aus dieser Registrierung kann dann die räumliche Orientierung der 2D-Projektionsbilder und aller weiterer mit dem gleichen Gerät vom gleichen Objekt/Patienten aufgenommene 2D-Projektionsbilder zu dem 3D-Bilddatensatz ermittelt werden.
  • Die Zielstruktur, die aus den 2D-Projektionsbildern durch symbolische Rekonstruktion räumlich rekonstruiert wird, wird im Folgenden auch mit „3D-Feature" bezeichnet. Das erfindungsgemäße Verfahren setzt voraus, dass dieses Feature sowohl in den 2D-Projektionsbildern als auch im 3D-Bilddatensatz zu erkennen ist. Vorzugsweise handelt es sich dabei um eine anatomische Struktur, wie zum Beispiel einen charakteristischen Gefäßabschnitt, insbesondere mit Verzweigungen, oder eine charakteristische Knochenstruktur. Möglich ist jedoch auch ein anderes Organ oder eine andere ausreichend klar umrissene Struktur wie zum Beispiel das Ventrikelsystem im Gehirn. Vorteilhafterweise ist die Struktur relativ klar abgrenzbar, erstreckt sich über einen erheblichen Teil des 3D-Bilddatensatzes und hat einen nicht zu komplexen Aufbau, welcher mit einer einfachen Modellfunktion angenähert wiedergegeben werden kann. Geeignet sind z.B. eher flächige Strukturen wie z.B. Grenzflächen zwischen Organen, welche dann z.B. durch eine aus mehreren Dreiecken oder Kugelflächen zusammengesetzten Fläche modelliert werden können. Ferner eignen sich Gefäßabschnitte besonders gut, da diese als Schläuche mit kreisförmigem Querschnitt und variablen Durchmesser angenähert werden können. Gefäße sind zudem in Röntgen- und CT-Bildern sehr gut darstellbar, wenn vor der Aufnahme Kontrastmittel gegeben wurde. Für die folgenden chirurgischen Eingriffe eignen sich bestimmte kontrastierte Gefäßabschnitte besonders gut als Zielstruktur: Für kardiologische bzw. elektrophysiologische Eingriffe der Aorten-Bogen, ein Koronarsinus-Abschnitt oder ein Pulmonalarterien-Abschnitt; für neurologische Eingriffe ein kontrastierter Karotis-Abschnitt (mit Verzweigungen), für Eingriffe im Abdomen-Bereich ein kontrastierter Aorta-Abschnitt oder ein kontrastierter Abschnitt eines abdominalen Gefäßes.
  • Alternativ kann es sich bei der Zielstruktur auch um eine nicht-anatomische Struktur handeln, wie z.B. ein Implantat, eine in den Knochen eingebrachte Schraube oder eine außerhalb des Körpers befindliche Landmarke, welche zur Orientierung verwendbar ist.
  • Für die räumliche Rekonstruktion derartiger charakteristischer Strukturen aus wenigen 2D-Projektionsbildern sind im Stand der Technik verschiedene Verfahren beschrieben. Ein Verfahren wurde zum Beispiel von der Firma Paieon Medical Ltd., Rosh Haalyn, Israel implementiert und ist im Internet unter www.matimop.org.il/newrdinf/company/c5292.htm beschrieben. Geeignet ist auch das in der US 6,047,080 beschriebene symbolische Rekonstruktionsverfahren für Koronargefäße aus angiographischen Bildern. Auch dieses Verfahren ist wissensbasiert und setzt voraus, dass die Zielstruktur mehrere zweigartige Gefäße enthält. Aus den 2D-Durchleuchtungsbildern werden für eine vorbestimmte Anzahl von Gefäßen so genannte „Centerlines", also Mittellängslinien, ermittelt. Aus diesen Centerlines wird eine zunächst zweidimensionale Baumstruktur extrahiert und die Verzweigungspunkte identifiziert. Aus diesen Informationen werden eine Rotationsmatrix und ein Translationsvektor bestimmt, welche den relativen Ausrichtungen des Bildgebungssystems entsprechen. Diese Transformation wird dazu verwendet, eine Beziehung zwischen den zu den verschiedenen Projektionsbildern gehörigen Gefäß-Centerlines aufzustellen, so dass jeder zu einem Projektionsbild gehörige Datenpunkt mit einem Datenpunkt in den anderen Projektionsbildern gekoppelt wird, so dass die gekoppelten Datenpunkte jeweils den gleichen Ort im Gefäß der Zielstruktur darstellen. Aus dieser Information kann ein dreidimensionaler Baum aus den Gefäß-Centerlines berechnet werden und eine entsprechende dreidimensionale visuelle Darstellung der Zielstruktur konstruiert werden, z.B. eine mittels Cursor auf dem Bildschirm drehbare graphische Wiedergabe. Dieses Verfahren könnte auch bei einer Ausführungsform der vorliegenden Erfindung angewendet werden.
  • Für anders geformte Zielstrukturen sind möglicherweise andere symbolische Rekonstruktionsverfahren geeigneter, welche zum Beispiel eine Rückprojektion einzelner Punkte beinhaltet, deren räumliche Lage dann an den Schnittpunkt der Rückprojektionslinien bestimmt werden kann.
  • Für die darauf folgende 3D-3D-Registrierung der räumlich rekonstruierten Struktur mit dem 3D-Bilddatensatz können ebenfalls verschiedene Verfahren zur Anwendung kommen. Hier unterscheidet man im Wesentlichen voxel-basierte Registrierungsverfahren und feature-basierte Registrierungsverfahren. Letztere Verfahren setzen voraus, das die Zielstruktur ebenfalls im 3D-Bilddatensatz identifiziert wird, so dass bei der 3D-3D-Registrierung nur die symbolisch rekonstruierte Zielstruktur mit der im 3D-Bilddatensatz enthaltenen Zielstruktur in Übereinstimmung gebracht wird. Diese Identifizierung wird auch mit „Extraktion" bezeichnet. Besonders bevorzugt wird hierbei ein bestimmtes Merkmal der Zielstruktur, insbesondere die Oberfläche oder die Centerlines der Zielstruktur aus dem 3D-Bilddatensatz extrahiert und mit dem entsprechenden Merkmal der aus den 2D-Projektionsbildern rekonstruierten Zielstruktur verglichen. Werden Oberflächen zur 3D-3D-Registrierung verwendet, ist es nicht erforderlich, das beide Oberflächen komplett 3D-rekonstruiert bzw. aus den 3D-Bilddaten extrahiert sind, sondern es ist auch eine Teilmenge der Oberflächenpunkte ausreichend. Dementsprechend ist eine ausreichend gute 3D-3D-Registrierung auch dann möglich, wenn die Zielstruktur nur relativ grob aus den 2D-Projektionsbildern symbolisch räumlich rekonstruiert werden konnte. Umgekehrt reicht auch eine relativ spärlich durch wenige Oberflächenpunkte repräsentierte aus den prä-operativen 3D-Bilddaten extrahierte Oberfläche der Zielstruktur für die oberflächen-basierte 3D-3D-Registrierung aus.
  • Anstelle der erwähnten Oberflächen-Extraktion können auch andere Features wie Landmarken, Centerlines usw. aus den 3D-Bilddaten extrahiert werden, die dann zur 3D-3D-Registrierung verwendet werden.
  • Bei so genannten voxel-basierten 3D-3D-Registrierungsverfahren werden nicht nur einzelne extrahierte Features, sondern der gesamte 3D-Bilddatensatz verwendet. Hierbei wird ein Ähnlichkeitsmaß zwischen dem 3D-Bilddatensatz und einem die symbolisch rekonstruierte Zielstruktur enthaltenden dreidimensionalen Datensatz berechnet und die relative Orientierung, Position und gegebenenfalls Stauchung der beiden 3D-Datensätze zueinander solange variiert, bis ein ausreichend hoher Wert für das Ähnlichkeitsmaß erreicht wird. Der Grad der Übereinstimmung kann z.B. unter Verwendung des Güte-Maßes „mutual information" bzw. „normalized mutual information" berechnet werden. Diese Güte-Maße werden mittels Histogrammen für die Grauwertverteilung gemessen und sind dem Fachmann bekannt. Je nach Anwendung kann die Registrierung eine „starre" Registrierung sein, oder auch eine Verformung des Objektes zwischen der Aufnahme des 3D-Bilddatensatzes und der 2D-Durchleuchtungsbilder berücksichtigen.
  • Unterliegt das Objekt bzw. der Untersuchungsbereich einer rhythmischen oder arrhythmischen physiologischen Bewegung (z.B. durch Herzschlag, Atmung) wird zur Erreichung einer optimalen Registrierung gemäß einer bevorzugten Ausführungsform darauf geachtet, dass der 3D-Bilddatensatz und die 2D-Durchleuchtungsbilder jeweils in der gleichen Bewegungsphase aufgenommen werden. Wenn beispielsweise ein 3D-Bilddatensatz des Herzens in Atem-Anhaltetechnik und in einer bestimmten Herzphase aufgenommen wurde, werden die 2D-Projektionsbilder für die symbolische Rekonstruktion in der gleichen Atemphase und zu einem möglichst passenden EKG-Zeitpunkt aufgenommen oder es werden aus einer Reihe von 2D-Projektionsbildern diejenigen selektiert, welche in dem zu dem 3D-Bilddatensatz passenden Bewegungszustand aufgenommen wurden. Das bedeutet, dass sowohl bei der Aufnahme des 3D-Bilddatensatzes wie auch der der 2D-Projektionsbilder die Erfassung der Bewegungsphase erforderlich ist. Die Bewegungsphase des Herzens kann z.B. durch ein parallel aufgenommenes EKG erfasst werden. Anhand des EKGs können dann die relevanten Bilddaten ausgewählt wer den. Alternativ kann die Aufnahme der 2D-Projektionsbilder ebenso wie des 3D-Bilddatensatzes durch das EKG getriggert werden, so dass alle Bilder in der gleichen Bewegungsphase aufgenommen werden. Auch ist es denkbar, als Bewegungsphase die Atembewegung des Patienten aufzuzeichnen. Dies kann beispielsweise unter Verwendung eines Atmungsgürtels, der um die Brust des Patienten gelegt ist und die Bewegung des Brustkorbes misst, erfolgen; Positionssensoren an der Brust des Patienten sind ebenso zur Aufzeichnung verwendbar. Wurde der 3D-Bilddatensatz bereits in einer bestimmten Bewegungsphase erzeugt, so richtet sich in diesem Fall die Triggerung der Aufnahme der 2D-Bilder nach der Phase des 3D-Bilddatensatzes.
  • Der 3D-Bilddatensatz ist bevorzugt ein prä-operativ gewonnener Datensatz. Verwendbar ist jeder 3D-Bilddatensatz unabhängig von der verwendeten Aufnahmemodalität, wie beispielsweise CT, 3D-Röntgenangiographie (CTA), Magnetresonanztomographie (MRT), 3D-Ultraschall, möglicherweise auch Positionenemissionstomographie (PET). Insbesondere die erstgenannten Aufnahmemodalitäten erlauben eine anatomisch exakte und hoch aufgelöste Darstellung des Untersuchungsbereichs. Wichtig ist nur, dass die bei der Rekonstruktion verwendete Zielstruktur im 3D-Bilddatensatz identifizierbar ist.
  • Die Erfindung ist auch auf eine Vorrichtung zur Ausführung des oben beschriebenen Registrierungsverfahrens gerichtet. Diese umfasst ein Röntgengerät, welches die Aufnahme von 2D-Projektionsbildern aus verschiedenen Projektionswinkeln erlaubt, einen Datenspeicher sowie Rechenmittel zur Ausführung der räumlichen Rekonstruktion und der 3D-3D-Registierung. Das Röntgengerät ist vorzugsweise ein C-Bogengerät. Hierbei kann es sich um ein Monoplangerät handeln, mit welchem die 2D-Projektionsbilder mit verschiedenen Angulationen des C-Bogens aufgenommen werden. Besonders bevorzugt wird ein Röntgen-Biplangerät verwendet, mit dem jeweils zwei 2D-Projektionsbilder gleichzeitig aufgenommen werden können. Dies vereinfacht naturgemäß die symbolische 3D-Rekonstruktion, da die beiden Projektionsbilder garantiert im gleichen Bewegungszustand des Objektes aufgenommen werden.
  • Die Erfindung wird nun anhand von Ausführungsbeispielen unter Bezug auf die beiliegenden Zeichnungen näher beschrieben: In den Zeichnungen zeigen:
  • 1 ein Flussdiagramm eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens;
  • 2a, 2b zwei beispielhafte 2D-Projektionsbilder, welche den gleichen Gefäßbaum aus zwei verschiedenen Projektionsrichtungen zeigen;
  • 3 eine Vorrichtung zur Ausführung des erfindungsgemäßen Verfahrens.
  • Zunächst wird auf die 2 Bezug genommen, um den Vorgang der symbolischen räumlichen Rekonstruktion am Beispiel eines Gefäßbaums 1 zu veranschaulichen. 2a und 2b zeigen den gleichen Gefäßbaum jeweils als 2D-Projektionsbild aus zwei verschiedenen Projektionswinkeln. Diese Bilder wurden z.B. mit dem in 3 gezeigten Röntgen-C-Bogengerät mit unterschiedlichen C-Bogen-Angulationen aufgenommen, wobei die Sichtbarkeit der Gefäße zum Beispiel durch Kontrastmittel-Injektion verstärkt wurde. Die einzelnen Gefäßarme 2 sind somit gut zu erkennen, und die Gefäßverzweigungen 6 sind ebenfalls identifizierbar. Bereits aus 2a lässt sich somit eine Art Baumstruktur dieses Gefäßabschnittes ermitteln, ohne jedoch die genau Lage der einzelnen Gefäßzweige im Raum bestimmen zu können. Hierzu wird nun beispielsweise jedes Gefäß in jedem 2D-Projektionsbild durch eine „Centerline" 4 angenähert, welche als gestrichelte Linie in dem größten Gefäß eingezeichnet ist. Ferner könnte auch der Gefäßdurchmesser entweder über die sichtbare Gefäßlänge gemittelt oder an jedem einzelnen Punkt entlang der Centerline aus jedem der beiden Bilder 2a und 2b extrahiert werden. In einem nächsten Schritt werden nun beispielsweise automatisch die Positionen der Gefäßverzweigungen 6 aus den einzelnen Bildern ext rahiert und jede Verzweigung 6 im Bild 2a einer Verzweigung 6' im Bild 2b zugeordnet. Dies kann anhand der Höhe der Gefäßverzweigungen im Bild (wenn die Angulationsrichtung des C-Bogens bekannt ist), der Durchmesser der abzweigenden Gefäße oder anhand der ermittelten Baumstruktur geschehen. Durch Rückprojektion kann dann die räumliche Position jeder Gefäßverzweigung, sowie der Gefäßverlauf zwischen den einzelnen Gefäßverzweigungen ermittelt werden. Auf diese Weise wird ein dreidimensionales Modell der Gefäßstruktur gewonnen, welche die Position und Orientierung jedes Gefäßarmes 2 in Bezug auf die Geometrie der 2D-Durchleuchtungsbilder und damit des verwendeten Röntgengerätes enthält.
  • Der oben beschriebene Vorgang ist ein Beispiel für den in 1 mit der Bezugsziffer 36 gekennzeichneten Verfahrensschritt der symbolischen 3D-Rekonstruktion des 3D-Features aus den > = 2 2D-Durchleuchtungsbildern. Im Folgenden soll nun der gesamte Verfahrensablauf gemäß 1 beschrieben werden.
  • Als erster Schritt 30 wird ein prä-operativer 3D-Bilddatensatz aufgenommen. Dies kann zu einem beliebigen Zeitpunkt vor dem geplanten diagnostischen oder chirurgischen Eingriff geschehen. Alternativ kann der 3D-Bilddatensatz auch direkt vor der Durchführung der weiteren Verfahrensschritte auf dem gleichen Röntgengerät akquiriert werden. Insbesondere C-Bogengeräte erlauben teilweise auch die Aufnahme von CT-ähnlichen dreidimensional aufgelösten Bildern.
  • Im nächsten Schritt 32 wird aus dem 3D-Bilddatensatz das zur 3D-3D-Registrierung benötigte 3D-Feature (die Zielstruktur) extrahiert, was durch Oberflächen-, Centerline- oder Landmarkenextraktion erfolgen kann. Dieser Schritt ist nur notwendig, wenn die 3D-3D-Registrierung tatsächlich eine Extraktion des 3D-Features benötigt, was z.B. bei voxel-basierten Registrierungsalgorithmen nicht der Fall ist. Schritt 32 kann daher optional übersprungen werden.
  • In Schritt 34 werden daraufhin zwei oder mehr 2D-Durchleuchtungsbilder aus verschiedenen C-Bogen-Angulationen aufgenommen, wobei das anschließend zu rekonstruierende 3D-Feature gut sichtbar ist.
  • In Schritt 38 wird dann, wie im Bezug auf 2 näher erläutert, das 3D-Feature wie z.B. der Gefäßabschnitt symbolisch rekonstruiert, so dass dessen räumliche Lage und Orientierung relativ zum Koordinatensystem des C-Bogen-Systems bekannt (registriert) ist.
  • Schritt 38 ist die eigentliche 3D-3D-Registrierung zwischen dem 3D-Feature, das aus dem prä-operativen 3D-Bilddatensatz stammt, und dem 3D-Feature, welches symbolisch aus den zwei oder mehreren 2D-Röntgendurchleuchtungsbildern rekonstruiert wurde (siehe Schritt 36).
  • Das gesuchte Ergebnis, nämlich die Registrierung der prä-operativen 3D-Bilddaten (vorzugsweise CT/MR) relativ zum Koordinatensystem des C-Bogen-Systems – liegt vor. Damit ist im Falle eines kalibrierten C-Bogen-Röntgensystems auch eine Registrierung der 3D-Bilddaten mit 2D-Durchleuchtungsbildern, die aus beliebigen Angulationen des C-Bogen-Systems generiert werden, gegeben. Die 2D-Röntgendurchleuchtungsbilder können somit während einer Intervention gemeinsam mit den 3D-Bilddaten bei gleicher Orientierung und Skalierung/Projektionsrichtung visualisiert werden (Schritt 40).
  • Somit ist ein Durchlauf des Verfahrens beendet. Ist im Laufe der Intervention die Registrierung nicht mehr optimal, z.B. weil der Patient sich bewegt hat, wird das Verfahren beginnend bei Schritt 34 wiederholt, um die Registrierung zu aktualisieren.
  • 3 zeigt ein Beispiel für eine Vorrichtung zur Durchführung dieses Verfahrens. Ein wesentlicher Bestandteil dieser Vorrichtung ist das Röntgengerät 8 mit einem C-Bogen 10, an dessen Armen eine Röntgenröhre 12 und ein Röntgen-Detektor 14 befestigt sind. Die Winkelstellung des C-Bogens kann um eine Liege 16 mit dem darauf gelagerten Patienten 18 herum verändert (anguliert) werden, um Durchleuchtungsbilder aus verschiedenen Projektionsrichtungen zu erhalten. Die so erhaltenen Bilder werden zu einer Steuerungs- und Bildauswerteeinrichtung 20 weitergeleitet, welche mindestens einen Datenspeicher 22 und ein Rechenmittel 24 mit einem Prozessor oder dergleichen umfasst. Das Rechenmittel ist dazu programmiert, das 3D-Feature aus den mindestens zwei Durchleuchtungsbildern räumlich zu rekonstruieren und das so erhaltene 3D-Modell mit den im Speicher 22 gespeicherten 3D-Bilddatensatz durchzuführen. Vorzugsweise ist dieser Vorgang vollautomatisch. Gegebenenfalls muss der Benutzer vorher die Art der Zielstruktur (Gefäßabschnitt, Knochen) angeben. Die gemeinsame Visualisierung der 2D-Durchleuchtungsbilder mit dem prä-operativen 3D-Bilddatensatz wird auf dem Bildschirm 26 wiedergegeben.
  • Eine besondere Anwendung des oben beschriebenen Verfahrens liegt darin, noch zu weiteren Systemen eine feste räumliche Beziehung zu den prä-operativen 3D-Bilddaten herzustellen. Dies ist für alle Systeme möglich, die beispielsweise durch deren Offline-Kalibierung mit dem C-Bogen-Röntgensystem eine fest räumliche Beziehung zum Koordinatensystem des C-Bogen-Röntgensystems aufweisen. So können zum Beispiel nach der symbolischen Rekonstruktion und der 3D-3D-Registrierung die prä-operativen 3D-Bilddaten auch zur Steuerung eines aktiven Navigationssystems von Instrumenten wie Kathetern (z.B. das Niobe-System der Fa. Stereotaxis) oder Operationsrobotern verwendet werden. Ebenso ist es möglich, die prä-operativen 3D-Bilddaten mit den Daten von Lokalisationssystemen zu verbinden, deren Koordinatensysteme relativ zum Koordinatensystem des C-Bogen-Röntgensystem kalibiert sind. Beispiele hierfür sind Lokalisationssysteme für die Chirurgie (z.B. CAPPA der Firma CAS Innovations, Erlangen), für die interventionelle Kardiologie (z.B. MPS-System der Firma Mediguide, Israel) oder die elektrophysiologischen Mapping-Systeme. Zu letzterem gehören z.B. das CARTO-System der Firma Biosense Webster, CA, USA und das Ensite-System der Firma Endocardial Solutions, MN, USA, die zur Durchführung von elektrophysiologischen Prozeduren wie der Ablation bei Vorhofflimmern verwendet werden.
  • Die vorliegende Erfindung beschreibt einen Lösungsansatz zur Registrierung von 2D-Projektionsbildern, welche z.B. während einer Operation in Echtzeit erhalten werden können, aber dafür wenig anatomische Informationen enthalten, mit prä-operativen morphologisch detaillierten 3D-Bilddaten, die z.B. mittels CT oder MR erhalten wurden. Hierbei werden nicht 2D-3D-Registrierungsalgorithmen, sondern die stabileren und gängigeren 3D-3D-Registrierungsalgorithmen verwendet. Voraussetzung hierfür ist die vorherige symbolische Rekonstruktion einer Zielstruktur aus zwei oder mehreren 2D-Röntgendurchleuchtungsbildern, die auch in den 3D-Bildern identifizierbar ist.

Claims (15)

  1. Verfahren zur Registrierung von 2D-Projektionsbildern eines Objekts relativ zu einem 3D-Bilddatensatz desselben Objekts, mit den folgenden Schritten a) Aufnahme von mindestens zwei 2D-Projektionsbildern des Objektes aus verschiedenen Projektionswinkeln (34); b) Räumliche Rekonstruktion einer im Objekt enthaltenen, sowohl im 3D-Bilddatensatz als auch in den 2D-Projektionsbildern identifizierbaren Zielstruktur (1) aus den mindestens zwei 2D-Projektionsbildern, unter Verwendung einer Modellfunktion für die Form der Zielstruktur, wobei ein 3D-Modell der Zielstruktur gewonnen wird (36); c) 3D-3D-Registrierung des 3D-Modells relativ zu dem 3D-Bilddatensatz (38).
  2. Verfahren nach Anspruch 1, bei welchem die Zielstruktur (1) im 3D-Bilddatensatz identifiziert wird und diese bei der 3D-3D-Registrierung (38) mit dem 3D-Modell der Zielstruktur in Übereinstimmung gebracht wird.
  3. Verfahren nach Anspruch 1 oder 2, bei welchem ein bestimmtes Merkmal der Zielstruktur (1), insbesondere die Form, Oberfläche oder die Centerlines (4), aus dem 3D-Bilddatensatz extrahiert wird, welches bei der 3D-3D-Registrierung (38) mit dem entsprechenden Merkmal des 3D-Modells in Übereinstimmung gebracht wird.
  4. Verfahren nach Anspruch 1, bei welchem die 3D-3D-Registrierung (38) eine voxelbasierte Registrierung unter Verwendung eines Ähnlichkeitsmaßes für den Grad der Übereinstimmung zwischen dem 3D-Modell und dem 3D-Bilddatensatz ist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, bei welchem das Objekt ein Teil des menschlichen oder tierischen Körpers und die Zielstruktur eine charakteristische anatomische Zielstruktur, insbesondere ein Gefäßabschnitt (1) oder ein Knochenabschnitt, ist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, bei welchem die mindestens zwei 2D-Projektionsbilder Röntgen-Durchleuchtungsbilder sind.
  7. Verfahren nach einem der vorhergehenden Ansprüche, bei welchem das Ergebnis der 3D-3D-Registrierung (38) des 3D-Modells relativ zu dem 3D-Bilddatensatz dazu verwendet wird, weitere 2D-Projektionsbildern des Objektes aus beliebigen Projektionswinkeln zu dem 3D-Bilddatensatz des Objektes zu registrieren (40).
  8. Verfahren nach Anspruch 6 und 7, welches während eines chirurgischen Eingriffs durchgeführt wird, um die zur Steuerung des Eingriffs aufgenommenen Fluoroskopie-Durchleuchtungsbilder relativ zu einem prä-operativ aufgenommenen 3D-Bilddatensatz zu registrieren, wobei die Schritte a) bis c) insbesondere nach einer Patientenbewegung wiederholt werden.
  9. Verfahren nach Anspruch 9, bei welchem das Objekt einer periodischen Bewegung wie Atmung oder Herzschlag unterliegt, und die mindestens zwei 2D-Projektionsbilder in dem gleichen Bewegungszustand des Objektes aufgenommen werden, in dem der 3D-Bilddatensatz aufgenommen wurde.
  10. Verfahren nach einem der vorhergehenden Ansprüche, bei welchem der 3D-Bilddatensatz vorab mittels CT, CTA, MRT, 3D-Ultraschall oder PET aufgenommen wird.
  11. Verfahren nach einem der vorhergehenden Ansprüche, wobei bei der räumlichen Rekonstruktion (36) der Zielstruktur (1) aus den mindestens zwei 2D-Projektionsbildern die Modellfunktion iterativ an die 2D-Projektionsbilder angepasst wird, bis eine vorgegebene Übereinstimmung erreicht ist.
  12. Vorrichtung zur Ausführung des Registrierungsverfahrens nach einem der vorhergehenden Ansprüche, umfassend a) ein Röntgengerät (8), welches die Aufnahme von 2D-Projektionsbildern eines Objektes (1) aus verschiedenen Projektionswinkeln erlaubt; b) einen Datenspeicher (22) zum Speichern von mindestens zwei 2D-Projektionsbildern des Objektes aus zwei verschiedenen Projektionswinkeln und eines vorhandenen 3D-Bilddatensatz desselben Objektes; c) Rechenmittel (24) zur räumlichen Rekonstruktion einer im Objekt enthaltenen, sowohl im 3D-Bilddatensatz als auch in den 2D-Projektionsbildern identifizierbaren Zielstruktur (1) aus den mindestens zwei 2D-Projektionsbildern, unter Verwendung einer Modellfunktion für die Form der Zielstruktur, wobei ein 3D-Modell der Zielstruktur (1) gewonnen wird, sowie zur 3D-3D-Registrierung des 3D-Modells relativ zu dem 3D-Bilddatensatz.
  13. Vorrichtung nach Anspruch 12, bei welchem das Röntgengerät (8) ein C-Bogen-Monoplangerät ist und die mindestens zwei 2D-Projektionsbilder Durchleuchtungsbilder sind, die mit verschiedenen Angulationen des C-Bogens aufgenommen wurden.
  14. Vorrichtung nach Anspruch 12 oder 13, bei welchem das Röntgengerät ein Röntgen-Biplangerät ist, mit welchem jeweils zwei der 2D-Projektionsbilder gleichzeitig aufgenommen werden können.
  15. Vorrichtung nach einem der Ansprüche 12 bis 14, ferner umfassend ein Bildschirmgerät (26) zur räumlich korrelierten Darstellung des 3D-Bilddatensatzes mit 2D-Projektionsbildern des Objekts, die mit dem Röntgengerät aufgenommen wurden.
DE102005023167A 2005-05-19 2005-05-19 Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz Active DE102005023167B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102005023167A DE102005023167B4 (de) 2005-05-19 2005-05-19 Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz
US11/437,089 US7689019B2 (en) 2005-05-19 2006-05-19 Method and device for registering 2D projection images relative to a 3D image data record
CN200610082786A CN100581478C (zh) 2005-05-19 2006-05-19 相对于3d图像数据组记录2d投影图像的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005023167A DE102005023167B4 (de) 2005-05-19 2005-05-19 Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz

Publications (2)

Publication Number Publication Date
DE102005023167A1 true DE102005023167A1 (de) 2006-11-23
DE102005023167B4 DE102005023167B4 (de) 2008-01-03

Family

ID=37311067

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005023167A Active DE102005023167B4 (de) 2005-05-19 2005-05-19 Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz

Country Status (3)

Country Link
US (1) US7689019B2 (de)
CN (1) CN100581478C (de)
DE (1) DE102005023167B4 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007009179A1 (de) * 2007-02-26 2008-06-26 Siemens Ag Registrierungsverfahren für Datensätze
WO2009077971A1 (en) * 2007-12-18 2009-06-25 Koninklijke Philips Electronics, N.V. Fusion of cardiac 3d ultrasound and x-ray information by means of epicardial surfaces and landmarks
DE102008020780B4 (de) * 2008-04-25 2010-12-02 Siemens Aktiengesellschaft Korrekturverfahren zur Korrektur eines EKG-Signaldatensatzes eines EKG-Signals
WO2011144413A1 (de) * 2010-05-18 2011-11-24 Siemens Aktiengesellschaft Verfahren und system zum ermitteln von 3d-geometriedaten von objekten

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7698019B2 (en) * 2003-11-03 2010-04-13 Tech Pharmacy Services, Inc. System and software of enhanced pharmaceutical operations in long-term care facilities and related methods
DE102006012945B4 (de) * 2006-03-21 2014-10-02 Siemens Aktiengesellschaft Verfahren zur virtuellen Schichtpositionierung in einem 3D-Volumendatensatz und medizinisches Abbildungssystem
DE102006012943B4 (de) * 2006-03-21 2009-11-19 Siemens Ag Verfahren zur automatischen Auswertung eines Abbildungsdatensatzes eines Objektes und medizinisches Abbildungssystem
RU2008148820A (ru) * 2006-05-11 2010-06-20 Конинклейке Филипс Электроникс Н.В. (Nl) Система и способ для создания интраоперационных трехмерных изображений с использованием данных неконтрастного изображения
DE102006046733B4 (de) * 2006-09-29 2008-07-31 Siemens Ag Verfahren und Vorrichtung zur gemeinsamen Darstellung von 2D Fluoroskopiebildern und einem statischen 3D Bilddatensatz
US20080131029A1 (en) * 2006-10-10 2008-06-05 Coleby Stanley E Systems and methods for visualizing and measuring real world 3-d spatial data
US8126239B2 (en) * 2006-10-20 2012-02-28 Siemens Aktiengesellschaft Registering 2D and 3D data using 3D ultrasound data
IL188569A (en) 2007-01-17 2014-05-28 Mediguide Ltd Method and system for coordinating a 3D image coordinate system with a medical position coordinate system and a 2D image coordinate system
US7773719B2 (en) * 2007-03-26 2010-08-10 Siemens Medical Solutions Usa, Inc. Model-based heart reconstruction and navigation
WO2008120136A1 (en) * 2007-03-30 2008-10-09 Koninklijke Philips Electronics N.V. 2d/3d image registration
US20080300478A1 (en) * 2007-05-30 2008-12-04 General Electric Company System and method for displaying real-time state of imaged anatomy during a surgical procedure
WO2009007910A2 (en) * 2007-07-11 2009-01-15 Philips Intellectual Property & Standards Gmbh Method for acquiring 3-dimensional images of coronary vessels, particularly of coronary veins
EP2207483B1 (de) * 2007-10-19 2016-06-01 Metritrack, Inc. Dreidimensionales mapping-display-system für diagnostische ultraschallgeräte und verfahren
RU2568635C2 (ru) * 2007-12-18 2015-11-20 Конинклейке Филипс Электроникс, Н.В. Регистрация двумерных/трехмерных изображений на основе признаков
US9070181B2 (en) * 2007-12-21 2015-06-30 General Electric Company System and method for extracting features of interest from an image
US20090198126A1 (en) * 2008-02-05 2009-08-06 Klaus Klingenbeck-Regn Imaging system
DE102008018445A1 (de) * 2008-04-07 2009-10-15 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zum tomographischen Vermessen von mechanischen Werkstücken
JP5675056B2 (ja) * 2008-07-04 2015-02-25 株式会社東芝 X線撮影装置および画像処理装置
US8131046B2 (en) * 2008-10-29 2012-03-06 Allegheny-Singer Research Institute Magnetic resonance imager using cylindrical offset region of excitation, and method
JP5661638B2 (ja) * 2008-11-25 2015-01-28 コーニンクレッカ フィリップス エヌ ヴェ 位置合わせするための画像の提供
US8659764B2 (en) 2009-02-27 2014-02-25 Body Surface Translations, Inc. Estimating physical parameters using three dimensional representations
US8428319B2 (en) * 2009-04-24 2013-04-23 Siemens Aktiengesellschaft Automatic measurement of morphometric and motion parameters of the coronary tree from a rotational X-ray sequence
DE102009024652A1 (de) 2009-06-12 2011-01-05 Siemens Aktiengesellschaft Hochauflösende, dreidimensionale medizinische Bildgebung mit dynamischen Echtzeitinformationen
US8675996B2 (en) * 2009-07-29 2014-03-18 Siemens Aktiengesellschaft Catheter RF ablation using segmentation-based 2D-3D registration
JP2011175477A (ja) * 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
DE102010018872A1 (de) * 2010-04-30 2011-11-03 Siemens Aktiengesellschaft Bildgebendes Verfahren zur hervorgehobenen Darstellung von Gefäßen in einem Untersuchungsbereich eines Patienten und Medizinsystem zur Durchführung des Verfahrens
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US8675939B2 (en) 2010-07-13 2014-03-18 Stryker Leibinger Gmbh & Co. Kg Registration of anatomical data sets
US8812079B2 (en) 2010-12-22 2014-08-19 Biosense Webster (Israel), Ltd. Compensation for magnetic disturbance due to fluoroscope
EP2672895B1 (de) * 2011-02-07 2022-04-20 Koninklijke Philips N.V. Medizinische bildgebungsvorrichtung zur bereitstellung einer bilddarstellung zur unterstützung der genauen positionierung einer eingriffsvorrichtung in gefässeingriffsverfahren
CN103687541B (zh) * 2011-03-02 2017-02-15 皇家飞利浦有限公司 用于导航引导的可视化
US9265468B2 (en) 2011-05-11 2016-02-23 Broncus Medical, Inc. Fluoroscopy-based surgical device tracking method
US11284846B2 (en) * 2011-05-12 2022-03-29 The John Hopkins University Method for localization and identification of structures in projection images
US9105200B2 (en) 2011-10-04 2015-08-11 Quantant Technology, Inc. Semi-automated or fully automated, network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data
US10734116B2 (en) 2011-10-04 2020-08-04 Quantant Technology, Inc. Remote cloud based medical image sharing and rendering semi-automated or fully automated network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data
US9510771B1 (en) 2011-10-28 2016-12-06 Nuvasive, Inc. Systems and methods for performing spine surgery
JP6122875B2 (ja) * 2012-02-06 2017-04-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 血管ツリー画像内での見えない分岐部の検出
US9972120B2 (en) 2012-03-22 2018-05-15 University Of Notre Dame Du Lac Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
US9545233B2 (en) * 2012-05-22 2017-01-17 Mazor Robotics Ltd. On-site verification of implant positioning
US9498182B2 (en) 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
US9439623B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
US9439622B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
CN103505288B (zh) * 2012-06-29 2017-11-17 通用电气公司 超声成像方法和超声成像设备
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
US9398855B2 (en) * 2013-05-30 2016-07-26 Siemens Aktiengesellschaft System and method for magnetic resonance imaging based respiratory motion correction for PET/MRI
CN105074728B (zh) 2013-08-09 2019-06-25 堃博生物科技(上海)有限公司 胸部荧光透视影像及相应的肋骨和脊椎三维影像数据配准
CN104574329B (zh) * 2013-10-09 2018-03-09 深圳迈瑞生物医疗电子股份有限公司 超声融合成像方法、超声融合成像导航***
US9848922B2 (en) 2013-10-09 2017-12-26 Nuvasive, Inc. Systems and methods for performing spine surgery
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US11213220B2 (en) 2014-08-11 2022-01-04 Cubisme, Inc. Method for determining in vivo tissue biomarker characteristics using multiparameter MRI matrix creation and big data analytics
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10453269B2 (en) 2014-12-08 2019-10-22 Align Technology, Inc. Intraoral scanning using ultrasound and optical scan data
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
JP6476041B2 (ja) * 2015-03-31 2019-02-27 株式会社Aze 医用画像診断装置、その制御方法、及びプログラム
KR101797042B1 (ko) * 2015-05-15 2017-11-13 삼성전자주식회사 의료 영상 합성 방법 및 장치
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
FI20155856A (fi) * 2015-11-18 2017-05-19 Teknologian Tutkimuskeskus Vtt Oy Menetelmiä ja laitteita läpitunkevaa kuvantamista varten
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
US10776963B2 (en) 2016-07-01 2020-09-15 Cubismi, Inc. System and method for forming a super-resolution biomarker map image
US11051886B2 (en) 2016-09-27 2021-07-06 Covidien Lp Systems and methods for performing a surgical navigation procedure
DE102016219817B4 (de) * 2016-10-12 2018-05-30 Siemens Healthcare Gmbh Verfahren zur Ermittlung eines Röntgenbilddatensatzes und Röntgeneinrichtung
TWI624243B (zh) * 2016-12-15 2018-05-21 神農資訊股份有限公司 手術導引系統及其器械導引方法
EP3382641A1 (de) 2017-03-30 2018-10-03 Koninklijke Philips N.V. Kontrastinjektionsabbildung
US10434335B2 (en) * 2017-03-30 2019-10-08 Shimadzu Corporation Positioning apparatus and method of positioning by generation of DRR image from X-ray CT image data
US10924670B2 (en) 2017-04-14 2021-02-16 Yang Liu System and apparatus for co-registration and correlation between multi-modal imagery and method for same
US11232853B2 (en) * 2017-04-21 2022-01-25 Cubisme, Inc. System and method for creating, querying, and displaying a MIBA master file
US10432913B2 (en) * 2017-05-31 2019-10-01 Proximie, Inc. Systems and methods for determining three dimensional measurements in telemedicine application
WO2018236936A1 (en) * 2017-06-19 2018-12-27 Mahfouz Mohamed R SURGICAL HIP NAVIGATION USING FLUOROSCOPY AND MONITORING SENSORS
US10699448B2 (en) * 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US10818019B2 (en) 2017-08-14 2020-10-27 Siemens Healthcare Gmbh Dilated fully convolutional network for multi-agent 2D/3D medical image registration
CN111163697B (zh) 2017-10-10 2023-10-03 柯惠有限合伙公司 用于在荧光三维重构中识别和标记目标的***和方法
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
CN112566581B (zh) 2018-08-10 2024-03-19 柯惠有限合伙公司 用于消融可视化的***
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11710249B2 (en) 2019-12-20 2023-07-25 Unify Medical, Inc. Generation of three-dimensional scans for intraoperative imaging
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
JP2023537454A (ja) 2020-05-26 2023-09-01 ユニファイ メディカル デジタル拡大による3次元画像の生成
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
CN114332372A (zh) * 2021-12-28 2022-04-12 北京阅影科技有限公司 血管三维模型的确定方法以及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10201644A1 (de) * 2002-01-17 2003-08-07 Siemens Ag Registrierungsprozedur bei projektiver intraoperativer 3D-Bildgebung
US20040170311A1 (en) * 1999-10-15 2004-09-02 Vittorio Accomazzi Perspective with shear warp

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6047080A (en) * 1996-06-19 2000-04-04 Arch Development Corporation Method and apparatus for three-dimensional reconstruction of coronary vessels from angiographic images
US7819807B2 (en) * 1996-06-28 2010-10-26 Sonosite, Inc. Balance body ultrasound system
DE19963440C2 (de) * 1999-12-28 2003-02-20 Siemens Ag Verfahren und System zur Visualisierung eines Gegenstandes
DE10210647A1 (de) 2002-03-11 2003-10-02 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE10210646A1 (de) * 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE10210645B4 (de) * 2002-03-11 2006-04-13 Siemens Ag Verfahren zur Erfassung und Darstellung eines in einen Untersuchungsbereich eines Patienten eingeführten medizinischen Katheters
DE10322739B4 (de) * 2003-05-20 2006-10-26 Siemens Ag Verfahren zur markerlosen Navigation in präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-C-Bogen-Bildes

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040170311A1 (en) * 1999-10-15 2004-09-02 Vittorio Accomazzi Perspective with shear warp
DE10201644A1 (de) * 2002-01-17 2003-08-07 Siemens Ag Registrierungsprozedur bei projektiver intraoperativer 3D-Bildgebung

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007009179A1 (de) * 2007-02-26 2008-06-26 Siemens Ag Registrierungsverfahren für Datensätze
WO2009077971A1 (en) * 2007-12-18 2009-06-25 Koninklijke Philips Electronics, N.V. Fusion of cardiac 3d ultrasound and x-ray information by means of epicardial surfaces and landmarks
DE102008020780B4 (de) * 2008-04-25 2010-12-02 Siemens Aktiengesellschaft Korrekturverfahren zur Korrektur eines EKG-Signaldatensatzes eines EKG-Signals
WO2011144413A1 (de) * 2010-05-18 2011-11-24 Siemens Aktiengesellschaft Verfahren und system zum ermitteln von 3d-geometriedaten von objekten

Also Published As

Publication number Publication date
CN1864635A (zh) 2006-11-22
US7689019B2 (en) 2010-03-30
CN100581478C (zh) 2010-01-20
DE102005023167B4 (de) 2008-01-03
US20060262970A1 (en) 2006-11-23

Similar Documents

Publication Publication Date Title
DE102005023167B4 (de) Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz
DE10210645B4 (de) Verfahren zur Erfassung und Darstellung eines in einen Untersuchungsbereich eines Patienten eingeführten medizinischen Katheters
EP1659967B1 (de) Verfahren und vorrichtung zur visuellen unterstützung einer elektrophysiologischen katheteranwendung im herzen
EP1659968B1 (de) Vorrichtung zur visuellen unterstützung einer elektrophysiologischen katheteranwendung im herzen
DE102005032755B4 (de) System zur Durchführung und Überwachung minimal-invasiver Eingriffe
DE102005030646B4 (de) Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern
DE10210647A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE102009040430B4 (de) Vorrichtung, Verfahren und Computerprogramm zur Überlagerung eines intraoperativen Livebildes eines Operationsgebiets oder des Operationsgebiets mit einem präoperativen Bild des Operationsgebiets
DE10210646A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE102006061178A1 (de) System zur Durchführung und Überwachung minimal-invasiver Eingriffe
DE102005027678A1 (de) Verfahren und Vorrichtung zur Markierung von dreidimensionalen Strukturen auf zweidimensionalen Projektionsbildern
EP1321101A2 (de) Verfahren zur Unterstützung der Orientierung im Gefässsystem
DE102008002864A1 (de) Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren
EP1348394B1 (de) Planungs- bzw. Navigationsunterstützung durch generische und erfasste Patientendaten mit zweidimensionaler Anpassung
DE10157965A1 (de) Navigationssystem mit Atem- bzw. EKG-Triggerung zur Erhöhung der Navigationsgenauigkeiten
DE102012224057B4 (de) Verfahren und Vorrichtung zur Bildunterstützung
DE102005022901B4 (de) Verfahren und Vorrichtung zur Orientierungsbestimmung eines sich in einem Objekt befindlichen Instruments
DE102006056679A1 (de) Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten insbesondere in Echtzeit
DE102007051479B4 (de) Verfahren und Vorrichtung zur Darstellung von Bilddaten mehrerer Bilddatensätze während einer medizinischen Intervention
DE102009024652A1 (de) Hochauflösende, dreidimensionale medizinische Bildgebung mit dynamischen Echtzeitinformationen
DE102008054298B4 (de) Verfahren und Vorrichtung zur 3D-Visualisierung eines Eingriffspfades eines medizinischen Instrumentes, eines medizinischen Instrumentes und/oder einer bestimmten Gewebestruktur eines Patienten
DE102006014882A1 (de) Verfahren zum Abbilden des Myokards eines Infarktpatienten und Verfahren zum Unterstützen eines therapeutischen Eingriffs am Herzen
DE102005022541A1 (de) Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild
EP1378206B1 (de) Röntgenbildunterstützte Navigation mit ursprünglichen, zweidimensionalen Röntgenbildern
DE10137914A1 (de) Verfahren zur Ermittlung einer Koordinatentransformation für die Navigation eines Objekts

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
8364 No opposition during term of opposition
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE