DE102005023167A1 - Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz - Google Patents
Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz Download PDFInfo
- Publication number
- DE102005023167A1 DE102005023167A1 DE102005023167A DE102005023167A DE102005023167A1 DE 102005023167 A1 DE102005023167 A1 DE 102005023167A1 DE 102005023167 A DE102005023167 A DE 102005023167A DE 102005023167 A DE102005023167 A DE 102005023167A DE 102005023167 A1 DE102005023167 A1 DE 102005023167A1
- Authority
- DE
- Germany
- Prior art keywords
- image data
- data set
- projection images
- target structure
- registration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B42/00—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
- G03B42/02—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using X-rays
- G03B42/021—Apparatus for direct X-ray cinematography
- G03B42/023—Apparatus for indirect X-ray cinematography, i.e. by taking pictures on ordinary film from the images on the fluorescent screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S128/00—Surgery
- Y10S128/92—Computer assisted medical diagnostics
- Y10S128/922—Computer assisted medical diagnostics including image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Registrierung von 2-D-Projektionsbildern eines Objekts relativ zu einem 3-D-Bilddatensatz desselben Objekts, bei welchem aus nur wenigen 2-D-Projektionsbildern ein im Objekt enthaltenes 3-D-Feature, das auch in den 3-D-Bildern identifizierbar ist, symbolisch rekonsturiert wird (36). Das so erhaltene 3-D-Feature wird dann durch 3-D-3-D-Registrierung mit dem 3-D-Bilddatensatz registriert (38).
Description
- Die Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur Registrierung von 2D-Projektionsbildern eines Objekts relativ zu einem 3D-Bilddatensatz desselben Objekts.
- Bei bestimmten klinischen Untersuchungen oder Behandlungen besteht die Notwendigkeit, 2D-Projektionsbilder, insbesondere Röntgen-Durchleuchtungsbilder, die während der Untersuchung oder Behandlung in Echtzeit zur Verfügung stehen, relativ zu einem vorher aufgenommenen 3D-Bilddatensatz zu registrieren, um die Echtzeit-Durchleuchtungsbilder mit anatomischen Bildinformationen aus dem 3D-Bilddatensatz überlagern zu können. Beispiele für solche Anwendungen sind zum Beispiel minimalinvasive Untersuchungen oder Behandlungen mit Endoskopen, Laparoskopen oder Kathetern, welche jeweils über eine kleine Körperöffnung in den Patienten eingeführt werden. Katheter kommen häufig im Rahmen kardiologischer Untersuchungen zum Einsatz, beispielsweise bei Arrhythmien des Herzens, die heutzutage durch sogenannte Ablations-Prozeduren behandelt werden. Hierbei wird ein Katheter während der Aufnahme von Echtzeit-Durchleuchtungsbildern, so genannten Fluoroskopiebildern, über Venen oder Arterien in eine Herzkammer eingeführt. In der Herzkammer wird das die Arrhythmie verursachende Gewebe durch die Applikation hochfrequenten Stroms ablatiert, d.h. als nekrotisches Gewebe zurückgelassen.
- Die medizinische/technische Schwierigkeit bei derartigen Eingriffen besteht darin, dass der Katheter während der Röntgenkontrolle zwar sehr exakt und hoch aufgelöst in den Fluoroskopiebildern visualisiert werden kann, jedoch wird die Anatomie des Patienten nur ungenügend in den Fluoroskopiebildern abgebildet.
- Gemäß dem aus der US 2003/0220555 A1 bekannten Verfahren wird deshalb vorgeschlagen, einen prä-operativ aufgenommenen 3D-Bilddatensatz des Untersuchungsbereichs zu verwenden, die intra-operativen 2D-Durchleuchtungsbilder relativ zu dem 3D-Bilddatensatz zu registrieren, die räumliche Position und Orientierung der Katheterspitze anhand der 2D-Durchleuchtungsbilder zu bestimmen und diese Informationen dazu zu verwenden, die Katheterspitze in eine Darstellung des 3D-Bilddatensatzes einzublenden. Die räumliche Position und Orientierung der Katheterspitze wird hier durch Rückprojektion aus wenigstens zwei 2D-Durchleuchtungsbildern ermittelt, was in diesem Fall relativ einfach ist, da die Form und Größe der Katheterspitze vorab bekannt ist und diese sehr deutlich und hoch aufgelöst auf den Fluoroskopiebildern erkennbar ist.
- Die positionsgenaue Einblendung der Katheterspitze in den 3D-Datensatz setzt jedoch voraus, dass der 3D-Bilddatensatz sowie die beiden 2D-Durchleuchtungsbilder zueinander registriert sind, d.h., dass ihre Koordinatensysteme bezüglich einander über eine Transformationsmatrix korreliert sind. Zur Durchführung dieser so genannten 2D-3D-Registrierung werden in der US 2003/0220555 A1 unterschiedliche im Stand der Technik bekannte Methoden genannt. Bei der bild-basierten Registrierung wird beispielsweise iterativ jeweils aus dem 3D-Bilddatensatz ein „künstliches" Projektionsbild berechnet und mit dem tatsächlich erhaltenen 2D-Durchleuchtungsbild verglichen. Dieser Vorgang wird unter Variation des Projektionswinkels solange wiederholt, bis eine ausreichende Übereinstimmung zwischen dem künstlichen Projektionsbild, dem so genannten „digitally reconstructed radiogram (DRR)", und dem echten 2D-Durchleuchtungsbild erreicht ist.
- Ein anderer 2D-3D-Registrierungsalgorithmus verwendet eine Landmarken-basierte Registrierung: Hierzu werden anatomische Besonderheiten wie beispielsweise die Herzoberfläche oder bestimmte Gefäßverzweigungspunkte etc. verwendet, die sowohl in den Durchleuchtungsbildern als auch in dem 3D-Bilddatensatz zu erkennen sind. Weitere 2D-3D-Registrierungsalgorithmen sind in dem Artikel von J. Weese, T.M. Buzug, G.P. Penney und P. Desmedt "2D/3D Registration and Motion Tracking for Surgical Interventions", Philips J. Res. 51 (1998), S. 299–316 beschrieben. Auch bei dem dortigen Verfahren werden aus den 3D-Bilddaten so genannte Pseudo-Projektionen berechnet und mit den Röntgen-Projektionsbildern verglichen.
- Diese 2D-3D-Registierungsalgorhithmen sind aufgrund ihres iterativen „Trial and Error"-Characters zeitaufwändig und relativ instabil. Dies gilt insbesondere dann, wenn der präoperative 3D-Bilddatensatz mit einer anderen Modalität generiert wurde als die Durchleuchtungsbilder, also z.B. mit MR, so dass das künstlich berechnete Projektionsbild nicht unbedingt mit dem tatsächlich gemessenen Durchleuchtungsbild übereinstimmt.
- Die Erfindung hat sich daher die Aufgabe gestellt, ein verbessertes Verfahren zur Registrierung von 2D-Projektionsbildern eines Objekts relativ zu einem 3D-Bilddatensatz desselben Objekts bereitzustellen, welches die oben genannten Nachteile der 2D-3D-Registrierungsalgorhithmen nicht aufweist.
- Dieses Problem löst die Erfindung mit dem Verfahren des Anspruchs 1 sowie der zur Ausführung des Verfahrens geeigneten Vorrichtung gemäß Anspruch 12. Vorteilhafte Ausgestaltungen der Erfindung sind in den jeweils abhängigen Ansprüchen angegeben.
- Die Erfindung umgeht die o. g. Schwierigkeiten der 2D-3D-Registrierung dadurch, dass sie aus mindestens zwei 2D-Projektionsbildern des Objekts, die aus verschiedenen Projektionswinkeln aufgenommen wurden, eine im Objekt enthaltene Zielstruktur räumlich rekonstruiert. Eine solche Rekonstruktion, welche nur wenige Projektionsbilder verwendet, wird auch „symbolische Rekonstruktion" genannt. Im Gegensatz zu der in der C-Bogen-Rotationsangiographie verwendeten gefilterten Rückprojektion von Bilddaten, die in kleinen Schritten über mindestens 180° gewonnen wurden, ist eine symbolische Rekonstruktion aus sehr wenigen 2D-Bildern nur dann möglich, wenn gewisse Merkmale des zu rekonstruierenden Bildes vorausgesetzt und für die Rekonstruktion verwendet werden. Erfindungsgemäß wird hierbei eine Modellfunktion für die Form der zu rekonstruierenden Zielstruktur verwendet. Das rekonstruierte 3D-Modell der im Objekt enthaltenen Struktur, die sowohl im 3D-Bilddatensatz als auch in den 2D-Projektionsbildern identifizierbar ist, wird dann in einer so genannten 3D-3D-Registrierung mit dem 3D-Bilddatensatz registriert.
- Solche 3D-3D-Registrierungen sind im Stand der Technik bekannt und typischerweise stabiler als 2D-3D-Registrierungsalgorhithmen. Das Ergebnis der 3D-3D-Registrierung kann vorzugsweise dazu verwendet werden, weitere 2D-Projektionsbilder des Objektes aus beliebigen anderen Projektionswinkeln zu dem 3D-Bilddatensatz des Objektes zu registrieren und die koregistrierten Bilder gemeinsam auf einem Bildschirm darzustellen, um dem Arzt z.B. während einer minimalinvasiven Behandlung des Patienten eine gute Orientierung im Objekt (z.B. dem Untersuchungsbereich) zu ermöglichen. Dies setzt voraus, dass das Gerät, mit dem die 2D-Durchleuchtungsbilder aufgenommen werden, z.B. ein C-Bogen-Röntgengerät, kalibriert ist, d.h. dass die räumliche Relation von mit verschiedenen Angulationen aufgenommenen Bildern zueinander bekannt ist.
- Besonders vorteilhaft wird das erfindungsgemäße Registrierungsverfahren jeweils nach einer beabsichtigten oder unbeabsichtigten Bewegung des Patienten wiederholt. Hierzu müssen lediglich zwei oder, wenn die Zielstruktur aus diesen zwei Bildern nicht zufrieden stellend räumlich rekonstruiert werden kann, drei, vier oder fünf 2D-Durchleuchtungsbilder mit verschiedenen Angulationen aufgenommen werden, die räumliche Position und Orientierung der darauf erkennbaren Zielstruktur symbolisch rekonstruiert werden und das so erhaltene 3D-Modell mittels 3D-3D-Registrierung relativ zum 3D-Bilddatensatz registriert werden. Aus dieser Registrierung kann dann die räumliche Orientierung der 2D-Projektionsbilder und aller weiterer mit dem gleichen Gerät vom gleichen Objekt/Patienten aufgenommene 2D-Projektionsbilder zu dem 3D-Bilddatensatz ermittelt werden.
- Die Zielstruktur, die aus den 2D-Projektionsbildern durch symbolische Rekonstruktion räumlich rekonstruiert wird, wird im Folgenden auch mit „3D-Feature" bezeichnet. Das erfindungsgemäße Verfahren setzt voraus, dass dieses Feature sowohl in den 2D-Projektionsbildern als auch im 3D-Bilddatensatz zu erkennen ist. Vorzugsweise handelt es sich dabei um eine anatomische Struktur, wie zum Beispiel einen charakteristischen Gefäßabschnitt, insbesondere mit Verzweigungen, oder eine charakteristische Knochenstruktur. Möglich ist jedoch auch ein anderes Organ oder eine andere ausreichend klar umrissene Struktur wie zum Beispiel das Ventrikelsystem im Gehirn. Vorteilhafterweise ist die Struktur relativ klar abgrenzbar, erstreckt sich über einen erheblichen Teil des 3D-Bilddatensatzes und hat einen nicht zu komplexen Aufbau, welcher mit einer einfachen Modellfunktion angenähert wiedergegeben werden kann. Geeignet sind z.B. eher flächige Strukturen wie z.B. Grenzflächen zwischen Organen, welche dann z.B. durch eine aus mehreren Dreiecken oder Kugelflächen zusammengesetzten Fläche modelliert werden können. Ferner eignen sich Gefäßabschnitte besonders gut, da diese als Schläuche mit kreisförmigem Querschnitt und variablen Durchmesser angenähert werden können. Gefäße sind zudem in Röntgen- und CT-Bildern sehr gut darstellbar, wenn vor der Aufnahme Kontrastmittel gegeben wurde. Für die folgenden chirurgischen Eingriffe eignen sich bestimmte kontrastierte Gefäßabschnitte besonders gut als Zielstruktur: Für kardiologische bzw. elektrophysiologische Eingriffe der Aorten-Bogen, ein Koronarsinus-Abschnitt oder ein Pulmonalarterien-Abschnitt; für neurologische Eingriffe ein kontrastierter Karotis-Abschnitt (mit Verzweigungen), für Eingriffe im Abdomen-Bereich ein kontrastierter Aorta-Abschnitt oder ein kontrastierter Abschnitt eines abdominalen Gefäßes.
- Alternativ kann es sich bei der Zielstruktur auch um eine nicht-anatomische Struktur handeln, wie z.B. ein Implantat, eine in den Knochen eingebrachte Schraube oder eine außerhalb des Körpers befindliche Landmarke, welche zur Orientierung verwendbar ist.
- Für die räumliche Rekonstruktion derartiger charakteristischer Strukturen aus wenigen 2D-Projektionsbildern sind im Stand der Technik verschiedene Verfahren beschrieben. Ein Verfahren wurde zum Beispiel von der Firma Paieon Medical Ltd., Rosh Haalyn, Israel implementiert und ist im Internet unter www.matimop.org.il/newrdinf/company/c5292.htm beschrieben. Geeignet ist auch das in der
US 6,047,080 beschriebene symbolische Rekonstruktionsverfahren für Koronargefäße aus angiographischen Bildern. Auch dieses Verfahren ist wissensbasiert und setzt voraus, dass die Zielstruktur mehrere zweigartige Gefäße enthält. Aus den 2D-Durchleuchtungsbildern werden für eine vorbestimmte Anzahl von Gefäßen so genannte „Centerlines", also Mittellängslinien, ermittelt. Aus diesen Centerlines wird eine zunächst zweidimensionale Baumstruktur extrahiert und die Verzweigungspunkte identifiziert. Aus diesen Informationen werden eine Rotationsmatrix und ein Translationsvektor bestimmt, welche den relativen Ausrichtungen des Bildgebungssystems entsprechen. Diese Transformation wird dazu verwendet, eine Beziehung zwischen den zu den verschiedenen Projektionsbildern gehörigen Gefäß-Centerlines aufzustellen, so dass jeder zu einem Projektionsbild gehörige Datenpunkt mit einem Datenpunkt in den anderen Projektionsbildern gekoppelt wird, so dass die gekoppelten Datenpunkte jeweils den gleichen Ort im Gefäß der Zielstruktur darstellen. Aus dieser Information kann ein dreidimensionaler Baum aus den Gefäß-Centerlines berechnet werden und eine entsprechende dreidimensionale visuelle Darstellung der Zielstruktur konstruiert werden, z.B. eine mittels Cursor auf dem Bildschirm drehbare graphische Wiedergabe. Dieses Verfahren könnte auch bei einer Ausführungsform der vorliegenden Erfindung angewendet werden. - Für anders geformte Zielstrukturen sind möglicherweise andere symbolische Rekonstruktionsverfahren geeigneter, welche zum Beispiel eine Rückprojektion einzelner Punkte beinhaltet, deren räumliche Lage dann an den Schnittpunkt der Rückprojektionslinien bestimmt werden kann.
- Für die darauf folgende 3D-3D-Registrierung der räumlich rekonstruierten Struktur mit dem 3D-Bilddatensatz können ebenfalls verschiedene Verfahren zur Anwendung kommen. Hier unterscheidet man im Wesentlichen voxel-basierte Registrierungsverfahren und feature-basierte Registrierungsverfahren. Letztere Verfahren setzen voraus, das die Zielstruktur ebenfalls im 3D-Bilddatensatz identifiziert wird, so dass bei der 3D-3D-Registrierung nur die symbolisch rekonstruierte Zielstruktur mit der im 3D-Bilddatensatz enthaltenen Zielstruktur in Übereinstimmung gebracht wird. Diese Identifizierung wird auch mit „Extraktion" bezeichnet. Besonders bevorzugt wird hierbei ein bestimmtes Merkmal der Zielstruktur, insbesondere die Oberfläche oder die Centerlines der Zielstruktur aus dem 3D-Bilddatensatz extrahiert und mit dem entsprechenden Merkmal der aus den 2D-Projektionsbildern rekonstruierten Zielstruktur verglichen. Werden Oberflächen zur 3D-3D-Registrierung verwendet, ist es nicht erforderlich, das beide Oberflächen komplett 3D-rekonstruiert bzw. aus den 3D-Bilddaten extrahiert sind, sondern es ist auch eine Teilmenge der Oberflächenpunkte ausreichend. Dementsprechend ist eine ausreichend gute 3D-3D-Registrierung auch dann möglich, wenn die Zielstruktur nur relativ grob aus den 2D-Projektionsbildern symbolisch räumlich rekonstruiert werden konnte. Umgekehrt reicht auch eine relativ spärlich durch wenige Oberflächenpunkte repräsentierte aus den prä-operativen 3D-Bilddaten extrahierte Oberfläche der Zielstruktur für die oberflächen-basierte 3D-3D-Registrierung aus.
- Anstelle der erwähnten Oberflächen-Extraktion können auch andere Features wie Landmarken, Centerlines usw. aus den 3D-Bilddaten extrahiert werden, die dann zur 3D-3D-Registrierung verwendet werden.
- Bei so genannten voxel-basierten 3D-3D-Registrierungsverfahren werden nicht nur einzelne extrahierte Features, sondern der gesamte 3D-Bilddatensatz verwendet. Hierbei wird ein Ähnlichkeitsmaß zwischen dem 3D-Bilddatensatz und einem die symbolisch rekonstruierte Zielstruktur enthaltenden dreidimensionalen Datensatz berechnet und die relative Orientierung, Position und gegebenenfalls Stauchung der beiden 3D-Datensätze zueinander solange variiert, bis ein ausreichend hoher Wert für das Ähnlichkeitsmaß erreicht wird. Der Grad der Übereinstimmung kann z.B. unter Verwendung des Güte-Maßes „mutual information" bzw. „normalized mutual information" berechnet werden. Diese Güte-Maße werden mittels Histogrammen für die Grauwertverteilung gemessen und sind dem Fachmann bekannt. Je nach Anwendung kann die Registrierung eine „starre" Registrierung sein, oder auch eine Verformung des Objektes zwischen der Aufnahme des 3D-Bilddatensatzes und der 2D-Durchleuchtungsbilder berücksichtigen.
- Unterliegt das Objekt bzw. der Untersuchungsbereich einer rhythmischen oder arrhythmischen physiologischen Bewegung (z.B. durch Herzschlag, Atmung) wird zur Erreichung einer optimalen Registrierung gemäß einer bevorzugten Ausführungsform darauf geachtet, dass der 3D-Bilddatensatz und die 2D-Durchleuchtungsbilder jeweils in der gleichen Bewegungsphase aufgenommen werden. Wenn beispielsweise ein 3D-Bilddatensatz des Herzens in Atem-Anhaltetechnik und in einer bestimmten Herzphase aufgenommen wurde, werden die 2D-Projektionsbilder für die symbolische Rekonstruktion in der gleichen Atemphase und zu einem möglichst passenden EKG-Zeitpunkt aufgenommen oder es werden aus einer Reihe von 2D-Projektionsbildern diejenigen selektiert, welche in dem zu dem 3D-Bilddatensatz passenden Bewegungszustand aufgenommen wurden. Das bedeutet, dass sowohl bei der Aufnahme des 3D-Bilddatensatzes wie auch der der 2D-Projektionsbilder die Erfassung der Bewegungsphase erforderlich ist. Die Bewegungsphase des Herzens kann z.B. durch ein parallel aufgenommenes EKG erfasst werden. Anhand des EKGs können dann die relevanten Bilddaten ausgewählt wer den. Alternativ kann die Aufnahme der 2D-Projektionsbilder ebenso wie des 3D-Bilddatensatzes durch das EKG getriggert werden, so dass alle Bilder in der gleichen Bewegungsphase aufgenommen werden. Auch ist es denkbar, als Bewegungsphase die Atembewegung des Patienten aufzuzeichnen. Dies kann beispielsweise unter Verwendung eines Atmungsgürtels, der um die Brust des Patienten gelegt ist und die Bewegung des Brustkorbes misst, erfolgen; Positionssensoren an der Brust des Patienten sind ebenso zur Aufzeichnung verwendbar. Wurde der 3D-Bilddatensatz bereits in einer bestimmten Bewegungsphase erzeugt, so richtet sich in diesem Fall die Triggerung der Aufnahme der 2D-Bilder nach der Phase des 3D-Bilddatensatzes.
- Der 3D-Bilddatensatz ist bevorzugt ein prä-operativ gewonnener Datensatz. Verwendbar ist jeder 3D-Bilddatensatz unabhängig von der verwendeten Aufnahmemodalität, wie beispielsweise CT, 3D-Röntgenangiographie (CTA), Magnetresonanztomographie (MRT), 3D-Ultraschall, möglicherweise auch Positionenemissionstomographie (PET). Insbesondere die erstgenannten Aufnahmemodalitäten erlauben eine anatomisch exakte und hoch aufgelöste Darstellung des Untersuchungsbereichs. Wichtig ist nur, dass die bei der Rekonstruktion verwendete Zielstruktur im 3D-Bilddatensatz identifizierbar ist.
- Die Erfindung ist auch auf eine Vorrichtung zur Ausführung des oben beschriebenen Registrierungsverfahrens gerichtet. Diese umfasst ein Röntgengerät, welches die Aufnahme von 2D-Projektionsbildern aus verschiedenen Projektionswinkeln erlaubt, einen Datenspeicher sowie Rechenmittel zur Ausführung der räumlichen Rekonstruktion und der 3D-3D-Registierung. Das Röntgengerät ist vorzugsweise ein C-Bogengerät. Hierbei kann es sich um ein Monoplangerät handeln, mit welchem die 2D-Projektionsbilder mit verschiedenen Angulationen des C-Bogens aufgenommen werden. Besonders bevorzugt wird ein Röntgen-Biplangerät verwendet, mit dem jeweils zwei 2D-Projektionsbilder gleichzeitig aufgenommen werden können. Dies vereinfacht naturgemäß die symbolische 3D-Rekonstruktion, da die beiden Projektionsbilder garantiert im gleichen Bewegungszustand des Objektes aufgenommen werden.
- Die Erfindung wird nun anhand von Ausführungsbeispielen unter Bezug auf die beiliegenden Zeichnungen näher beschrieben: In den Zeichnungen zeigen:
-
1 ein Flussdiagramm eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens; -
2a ,2b zwei beispielhafte 2D-Projektionsbilder, welche den gleichen Gefäßbaum aus zwei verschiedenen Projektionsrichtungen zeigen; -
3 eine Vorrichtung zur Ausführung des erfindungsgemäßen Verfahrens. - Zunächst wird auf die
2 Bezug genommen, um den Vorgang der symbolischen räumlichen Rekonstruktion am Beispiel eines Gefäßbaums1 zu veranschaulichen.2a und2b zeigen den gleichen Gefäßbaum jeweils als 2D-Projektionsbild aus zwei verschiedenen Projektionswinkeln. Diese Bilder wurden z.B. mit dem in3 gezeigten Röntgen-C-Bogengerät mit unterschiedlichen C-Bogen-Angulationen aufgenommen, wobei die Sichtbarkeit der Gefäße zum Beispiel durch Kontrastmittel-Injektion verstärkt wurde. Die einzelnen Gefäßarme2 sind somit gut zu erkennen, und die Gefäßverzweigungen6 sind ebenfalls identifizierbar. Bereits aus2a lässt sich somit eine Art Baumstruktur dieses Gefäßabschnittes ermitteln, ohne jedoch die genau Lage der einzelnen Gefäßzweige im Raum bestimmen zu können. Hierzu wird nun beispielsweise jedes Gefäß in jedem 2D-Projektionsbild durch eine „Centerline"4 angenähert, welche als gestrichelte Linie in dem größten Gefäß eingezeichnet ist. Ferner könnte auch der Gefäßdurchmesser entweder über die sichtbare Gefäßlänge gemittelt oder an jedem einzelnen Punkt entlang der Centerline aus jedem der beiden Bilder2a und2b extrahiert werden. In einem nächsten Schritt werden nun beispielsweise automatisch die Positionen der Gefäßverzweigungen6 aus den einzelnen Bildern ext rahiert und jede Verzweigung6 im Bild2a einer Verzweigung6' im Bild2b zugeordnet. Dies kann anhand der Höhe der Gefäßverzweigungen im Bild (wenn die Angulationsrichtung des C-Bogens bekannt ist), der Durchmesser der abzweigenden Gefäße oder anhand der ermittelten Baumstruktur geschehen. Durch Rückprojektion kann dann die räumliche Position jeder Gefäßverzweigung, sowie der Gefäßverlauf zwischen den einzelnen Gefäßverzweigungen ermittelt werden. Auf diese Weise wird ein dreidimensionales Modell der Gefäßstruktur gewonnen, welche die Position und Orientierung jedes Gefäßarmes2 in Bezug auf die Geometrie der 2D-Durchleuchtungsbilder und damit des verwendeten Röntgengerätes enthält. - Der oben beschriebene Vorgang ist ein Beispiel für den in
1 mit der Bezugsziffer36 gekennzeichneten Verfahrensschritt der symbolischen 3D-Rekonstruktion des 3D-Features aus den > = 2 2D-Durchleuchtungsbildern. Im Folgenden soll nun der gesamte Verfahrensablauf gemäß1 beschrieben werden. - Als erster Schritt
30 wird ein prä-operativer 3D-Bilddatensatz aufgenommen. Dies kann zu einem beliebigen Zeitpunkt vor dem geplanten diagnostischen oder chirurgischen Eingriff geschehen. Alternativ kann der 3D-Bilddatensatz auch direkt vor der Durchführung der weiteren Verfahrensschritte auf dem gleichen Röntgengerät akquiriert werden. Insbesondere C-Bogengeräte erlauben teilweise auch die Aufnahme von CT-ähnlichen dreidimensional aufgelösten Bildern. - Im nächsten Schritt
32 wird aus dem 3D-Bilddatensatz das zur 3D-3D-Registrierung benötigte 3D-Feature (die Zielstruktur) extrahiert, was durch Oberflächen-, Centerline- oder Landmarkenextraktion erfolgen kann. Dieser Schritt ist nur notwendig, wenn die 3D-3D-Registrierung tatsächlich eine Extraktion des 3D-Features benötigt, was z.B. bei voxel-basierten Registrierungsalgorithmen nicht der Fall ist. Schritt32 kann daher optional übersprungen werden. - In Schritt
34 werden daraufhin zwei oder mehr 2D-Durchleuchtungsbilder aus verschiedenen C-Bogen-Angulationen aufgenommen, wobei das anschließend zu rekonstruierende 3D-Feature gut sichtbar ist. - In Schritt
38 wird dann, wie im Bezug auf2 näher erläutert, das 3D-Feature wie z.B. der Gefäßabschnitt symbolisch rekonstruiert, so dass dessen räumliche Lage und Orientierung relativ zum Koordinatensystem des C-Bogen-Systems bekannt (registriert) ist. - Schritt
38 ist die eigentliche 3D-3D-Registrierung zwischen dem 3D-Feature, das aus dem prä-operativen 3D-Bilddatensatz stammt, und dem 3D-Feature, welches symbolisch aus den zwei oder mehreren 2D-Röntgendurchleuchtungsbildern rekonstruiert wurde (siehe Schritt36 ). - Das gesuchte Ergebnis, nämlich die Registrierung der prä-operativen 3D-Bilddaten (vorzugsweise CT/MR) relativ zum Koordinatensystem des C-Bogen-Systems – liegt vor. Damit ist im Falle eines kalibrierten C-Bogen-Röntgensystems auch eine Registrierung der 3D-Bilddaten mit 2D-Durchleuchtungsbildern, die aus beliebigen Angulationen des C-Bogen-Systems generiert werden, gegeben. Die 2D-Röntgendurchleuchtungsbilder können somit während einer Intervention gemeinsam mit den 3D-Bilddaten bei gleicher Orientierung und Skalierung/Projektionsrichtung visualisiert werden (Schritt
40 ). - Somit ist ein Durchlauf des Verfahrens beendet. Ist im Laufe der Intervention die Registrierung nicht mehr optimal, z.B. weil der Patient sich bewegt hat, wird das Verfahren beginnend bei Schritt
34 wiederholt, um die Registrierung zu aktualisieren. -
3 zeigt ein Beispiel für eine Vorrichtung zur Durchführung dieses Verfahrens. Ein wesentlicher Bestandteil dieser Vorrichtung ist das Röntgengerät8 mit einem C-Bogen10 , an dessen Armen eine Röntgenröhre12 und ein Röntgen-Detektor14 befestigt sind. Die Winkelstellung des C-Bogens kann um eine Liege16 mit dem darauf gelagerten Patienten18 herum verändert (anguliert) werden, um Durchleuchtungsbilder aus verschiedenen Projektionsrichtungen zu erhalten. Die so erhaltenen Bilder werden zu einer Steuerungs- und Bildauswerteeinrichtung20 weitergeleitet, welche mindestens einen Datenspeicher22 und ein Rechenmittel24 mit einem Prozessor oder dergleichen umfasst. Das Rechenmittel ist dazu programmiert, das 3D-Feature aus den mindestens zwei Durchleuchtungsbildern räumlich zu rekonstruieren und das so erhaltene 3D-Modell mit den im Speicher22 gespeicherten 3D-Bilddatensatz durchzuführen. Vorzugsweise ist dieser Vorgang vollautomatisch. Gegebenenfalls muss der Benutzer vorher die Art der Zielstruktur (Gefäßabschnitt, Knochen) angeben. Die gemeinsame Visualisierung der 2D-Durchleuchtungsbilder mit dem prä-operativen 3D-Bilddatensatz wird auf dem Bildschirm26 wiedergegeben. - Eine besondere Anwendung des oben beschriebenen Verfahrens liegt darin, noch zu weiteren Systemen eine feste räumliche Beziehung zu den prä-operativen 3D-Bilddaten herzustellen. Dies ist für alle Systeme möglich, die beispielsweise durch deren Offline-Kalibierung mit dem C-Bogen-Röntgensystem eine fest räumliche Beziehung zum Koordinatensystem des C-Bogen-Röntgensystems aufweisen. So können zum Beispiel nach der symbolischen Rekonstruktion und der 3D-3D-Registrierung die prä-operativen 3D-Bilddaten auch zur Steuerung eines aktiven Navigationssystems von Instrumenten wie Kathetern (z.B. das Niobe-System der Fa. Stereotaxis) oder Operationsrobotern verwendet werden. Ebenso ist es möglich, die prä-operativen 3D-Bilddaten mit den Daten von Lokalisationssystemen zu verbinden, deren Koordinatensysteme relativ zum Koordinatensystem des C-Bogen-Röntgensystem kalibiert sind. Beispiele hierfür sind Lokalisationssysteme für die Chirurgie (z.B. CAPPA der Firma CAS Innovations, Erlangen), für die interventionelle Kardiologie (z.B. MPS-System der Firma Mediguide, Israel) oder die elektrophysiologischen Mapping-Systeme. Zu letzterem gehören z.B. das CARTO-System der Firma Biosense Webster, CA, USA und das Ensite-System der Firma Endocardial Solutions, MN, USA, die zur Durchführung von elektrophysiologischen Prozeduren wie der Ablation bei Vorhofflimmern verwendet werden.
- Die vorliegende Erfindung beschreibt einen Lösungsansatz zur Registrierung von 2D-Projektionsbildern, welche z.B. während einer Operation in Echtzeit erhalten werden können, aber dafür wenig anatomische Informationen enthalten, mit prä-operativen morphologisch detaillierten 3D-Bilddaten, die z.B. mittels CT oder MR erhalten wurden. Hierbei werden nicht 2D-3D-Registrierungsalgorithmen, sondern die stabileren und gängigeren 3D-3D-Registrierungsalgorithmen verwendet. Voraussetzung hierfür ist die vorherige symbolische Rekonstruktion einer Zielstruktur aus zwei oder mehreren 2D-Röntgendurchleuchtungsbildern, die auch in den 3D-Bildern identifizierbar ist.
Claims (15)
- Verfahren zur Registrierung von 2D-Projektionsbildern eines Objekts relativ zu einem 3D-Bilddatensatz desselben Objekts, mit den folgenden Schritten a) Aufnahme von mindestens zwei 2D-Projektionsbildern des Objektes aus verschiedenen Projektionswinkeln (
34 ); b) Räumliche Rekonstruktion einer im Objekt enthaltenen, sowohl im 3D-Bilddatensatz als auch in den 2D-Projektionsbildern identifizierbaren Zielstruktur (1 ) aus den mindestens zwei 2D-Projektionsbildern, unter Verwendung einer Modellfunktion für die Form der Zielstruktur, wobei ein 3D-Modell der Zielstruktur gewonnen wird (36 ); c) 3D-3D-Registrierung des 3D-Modells relativ zu dem 3D-Bilddatensatz (38 ). - Verfahren nach Anspruch 1, bei welchem die Zielstruktur (
1 ) im 3D-Bilddatensatz identifiziert wird und diese bei der 3D-3D-Registrierung (38 ) mit dem 3D-Modell der Zielstruktur in Übereinstimmung gebracht wird. - Verfahren nach Anspruch 1 oder 2, bei welchem ein bestimmtes Merkmal der Zielstruktur (
1 ), insbesondere die Form, Oberfläche oder die Centerlines (4 ), aus dem 3D-Bilddatensatz extrahiert wird, welches bei der 3D-3D-Registrierung (38 ) mit dem entsprechenden Merkmal des 3D-Modells in Übereinstimmung gebracht wird. - Verfahren nach Anspruch 1, bei welchem die 3D-3D-Registrierung (
38 ) eine voxelbasierte Registrierung unter Verwendung eines Ähnlichkeitsmaßes für den Grad der Übereinstimmung zwischen dem 3D-Modell und dem 3D-Bilddatensatz ist. - Verfahren nach einem der vorhergehenden Ansprüche, bei welchem das Objekt ein Teil des menschlichen oder tierischen Körpers und die Zielstruktur eine charakteristische anatomische Zielstruktur, insbesondere ein Gefäßabschnitt (
1 ) oder ein Knochenabschnitt, ist. - Verfahren nach einem der vorhergehenden Ansprüche, bei welchem die mindestens zwei 2D-Projektionsbilder Röntgen-Durchleuchtungsbilder sind.
- Verfahren nach einem der vorhergehenden Ansprüche, bei welchem das Ergebnis der 3D-3D-Registrierung (
38 ) des 3D-Modells relativ zu dem 3D-Bilddatensatz dazu verwendet wird, weitere 2D-Projektionsbildern des Objektes aus beliebigen Projektionswinkeln zu dem 3D-Bilddatensatz des Objektes zu registrieren (40 ). - Verfahren nach Anspruch 6 und 7, welches während eines chirurgischen Eingriffs durchgeführt wird, um die zur Steuerung des Eingriffs aufgenommenen Fluoroskopie-Durchleuchtungsbilder relativ zu einem prä-operativ aufgenommenen 3D-Bilddatensatz zu registrieren, wobei die Schritte a) bis c) insbesondere nach einer Patientenbewegung wiederholt werden.
- Verfahren nach Anspruch 9, bei welchem das Objekt einer periodischen Bewegung wie Atmung oder Herzschlag unterliegt, und die mindestens zwei 2D-Projektionsbilder in dem gleichen Bewegungszustand des Objektes aufgenommen werden, in dem der 3D-Bilddatensatz aufgenommen wurde.
- Verfahren nach einem der vorhergehenden Ansprüche, bei welchem der 3D-Bilddatensatz vorab mittels CT, CTA, MRT, 3D-Ultraschall oder PET aufgenommen wird.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei bei der räumlichen Rekonstruktion (
36 ) der Zielstruktur (1 ) aus den mindestens zwei 2D-Projektionsbildern die Modellfunktion iterativ an die 2D-Projektionsbilder angepasst wird, bis eine vorgegebene Übereinstimmung erreicht ist. - Vorrichtung zur Ausführung des Registrierungsverfahrens nach einem der vorhergehenden Ansprüche, umfassend a) ein Röntgengerät (
8 ), welches die Aufnahme von 2D-Projektionsbildern eines Objektes (1 ) aus verschiedenen Projektionswinkeln erlaubt; b) einen Datenspeicher (22 ) zum Speichern von mindestens zwei 2D-Projektionsbildern des Objektes aus zwei verschiedenen Projektionswinkeln und eines vorhandenen 3D-Bilddatensatz desselben Objektes; c) Rechenmittel (24 ) zur räumlichen Rekonstruktion einer im Objekt enthaltenen, sowohl im 3D-Bilddatensatz als auch in den 2D-Projektionsbildern identifizierbaren Zielstruktur (1 ) aus den mindestens zwei 2D-Projektionsbildern, unter Verwendung einer Modellfunktion für die Form der Zielstruktur, wobei ein 3D-Modell der Zielstruktur (1 ) gewonnen wird, sowie zur 3D-3D-Registrierung des 3D-Modells relativ zu dem 3D-Bilddatensatz. - Vorrichtung nach Anspruch 12, bei welchem das Röntgengerät (
8 ) ein C-Bogen-Monoplangerät ist und die mindestens zwei 2D-Projektionsbilder Durchleuchtungsbilder sind, die mit verschiedenen Angulationen des C-Bogens aufgenommen wurden. - Vorrichtung nach Anspruch 12 oder 13, bei welchem das Röntgengerät ein Röntgen-Biplangerät ist, mit welchem jeweils zwei der 2D-Projektionsbilder gleichzeitig aufgenommen werden können.
- Vorrichtung nach einem der Ansprüche 12 bis 14, ferner umfassend ein Bildschirmgerät (
26 ) zur räumlich korrelierten Darstellung des 3D-Bilddatensatzes mit 2D-Projektionsbildern des Objekts, die mit dem Röntgengerät aufgenommen wurden.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005023167A DE102005023167B4 (de) | 2005-05-19 | 2005-05-19 | Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz |
US11/437,089 US7689019B2 (en) | 2005-05-19 | 2006-05-19 | Method and device for registering 2D projection images relative to a 3D image data record |
CN200610082786A CN100581478C (zh) | 2005-05-19 | 2006-05-19 | 相对于3d图像数据组记录2d投影图像的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005023167A DE102005023167B4 (de) | 2005-05-19 | 2005-05-19 | Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102005023167A1 true DE102005023167A1 (de) | 2006-11-23 |
DE102005023167B4 DE102005023167B4 (de) | 2008-01-03 |
Family
ID=37311067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102005023167A Active DE102005023167B4 (de) | 2005-05-19 | 2005-05-19 | Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz |
Country Status (3)
Country | Link |
---|---|
US (1) | US7689019B2 (de) |
CN (1) | CN100581478C (de) |
DE (1) | DE102005023167B4 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007009179A1 (de) * | 2007-02-26 | 2008-06-26 | Siemens Ag | Registrierungsverfahren für Datensätze |
WO2009077971A1 (en) * | 2007-12-18 | 2009-06-25 | Koninklijke Philips Electronics, N.V. | Fusion of cardiac 3d ultrasound and x-ray information by means of epicardial surfaces and landmarks |
DE102008020780B4 (de) * | 2008-04-25 | 2010-12-02 | Siemens Aktiengesellschaft | Korrekturverfahren zur Korrektur eines EKG-Signaldatensatzes eines EKG-Signals |
WO2011144413A1 (de) * | 2010-05-18 | 2011-11-24 | Siemens Aktiengesellschaft | Verfahren und system zum ermitteln von 3d-geometriedaten von objekten |
Families Citing this family (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7698019B2 (en) * | 2003-11-03 | 2010-04-13 | Tech Pharmacy Services, Inc. | System and software of enhanced pharmaceutical operations in long-term care facilities and related methods |
DE102006012945B4 (de) * | 2006-03-21 | 2014-10-02 | Siemens Aktiengesellschaft | Verfahren zur virtuellen Schichtpositionierung in einem 3D-Volumendatensatz und medizinisches Abbildungssystem |
DE102006012943B4 (de) * | 2006-03-21 | 2009-11-19 | Siemens Ag | Verfahren zur automatischen Auswertung eines Abbildungsdatensatzes eines Objektes und medizinisches Abbildungssystem |
RU2008148820A (ru) * | 2006-05-11 | 2010-06-20 | Конинклейке Филипс Электроникс Н.В. (Nl) | Система и способ для создания интраоперационных трехмерных изображений с использованием данных неконтрастного изображения |
DE102006046733B4 (de) * | 2006-09-29 | 2008-07-31 | Siemens Ag | Verfahren und Vorrichtung zur gemeinsamen Darstellung von 2D Fluoroskopiebildern und einem statischen 3D Bilddatensatz |
US20080131029A1 (en) * | 2006-10-10 | 2008-06-05 | Coleby Stanley E | Systems and methods for visualizing and measuring real world 3-d spatial data |
US8126239B2 (en) * | 2006-10-20 | 2012-02-28 | Siemens Aktiengesellschaft | Registering 2D and 3D data using 3D ultrasound data |
IL188569A (en) | 2007-01-17 | 2014-05-28 | Mediguide Ltd | Method and system for coordinating a 3D image coordinate system with a medical position coordinate system and a 2D image coordinate system |
US7773719B2 (en) * | 2007-03-26 | 2010-08-10 | Siemens Medical Solutions Usa, Inc. | Model-based heart reconstruction and navigation |
WO2008120136A1 (en) * | 2007-03-30 | 2008-10-09 | Koninklijke Philips Electronics N.V. | 2d/3d image registration |
US20080300478A1 (en) * | 2007-05-30 | 2008-12-04 | General Electric Company | System and method for displaying real-time state of imaged anatomy during a surgical procedure |
WO2009007910A2 (en) * | 2007-07-11 | 2009-01-15 | Philips Intellectual Property & Standards Gmbh | Method for acquiring 3-dimensional images of coronary vessels, particularly of coronary veins |
EP2207483B1 (de) * | 2007-10-19 | 2016-06-01 | Metritrack, Inc. | Dreidimensionales mapping-display-system für diagnostische ultraschallgeräte und verfahren |
RU2568635C2 (ru) * | 2007-12-18 | 2015-11-20 | Конинклейке Филипс Электроникс, Н.В. | Регистрация двумерных/трехмерных изображений на основе признаков |
US9070181B2 (en) * | 2007-12-21 | 2015-06-30 | General Electric Company | System and method for extracting features of interest from an image |
US20090198126A1 (en) * | 2008-02-05 | 2009-08-06 | Klaus Klingenbeck-Regn | Imaging system |
DE102008018445A1 (de) * | 2008-04-07 | 2009-10-15 | Carl Zeiss Industrielle Messtechnik Gmbh | Verfahren zum tomographischen Vermessen von mechanischen Werkstücken |
JP5675056B2 (ja) * | 2008-07-04 | 2015-02-25 | 株式会社東芝 | X線撮影装置および画像処理装置 |
US8131046B2 (en) * | 2008-10-29 | 2012-03-06 | Allegheny-Singer Research Institute | Magnetic resonance imager using cylindrical offset region of excitation, and method |
JP5661638B2 (ja) * | 2008-11-25 | 2015-01-28 | コーニンクレッカ フィリップス エヌ ヴェ | 位置合わせするための画像の提供 |
US8659764B2 (en) | 2009-02-27 | 2014-02-25 | Body Surface Translations, Inc. | Estimating physical parameters using three dimensional representations |
US8428319B2 (en) * | 2009-04-24 | 2013-04-23 | Siemens Aktiengesellschaft | Automatic measurement of morphometric and motion parameters of the coronary tree from a rotational X-ray sequence |
DE102009024652A1 (de) | 2009-06-12 | 2011-01-05 | Siemens Aktiengesellschaft | Hochauflösende, dreidimensionale medizinische Bildgebung mit dynamischen Echtzeitinformationen |
US8675996B2 (en) * | 2009-07-29 | 2014-03-18 | Siemens Aktiengesellschaft | Catheter RF ablation using segmentation-based 2D-3D registration |
JP2011175477A (ja) * | 2010-02-24 | 2011-09-08 | Canon Inc | 3次元計測装置、処理方法及びプログラム |
DE102010018872A1 (de) * | 2010-04-30 | 2011-11-03 | Siemens Aktiengesellschaft | Bildgebendes Verfahren zur hervorgehobenen Darstellung von Gefäßen in einem Untersuchungsbereich eines Patienten und Medizinsystem zur Durchführung des Verfahrens |
US9053562B1 (en) | 2010-06-24 | 2015-06-09 | Gregory S. Rabin | Two dimensional to three dimensional moving image converter |
US8675939B2 (en) | 2010-07-13 | 2014-03-18 | Stryker Leibinger Gmbh & Co. Kg | Registration of anatomical data sets |
US8812079B2 (en) | 2010-12-22 | 2014-08-19 | Biosense Webster (Israel), Ltd. | Compensation for magnetic disturbance due to fluoroscope |
EP2672895B1 (de) * | 2011-02-07 | 2022-04-20 | Koninklijke Philips N.V. | Medizinische bildgebungsvorrichtung zur bereitstellung einer bilddarstellung zur unterstützung der genauen positionierung einer eingriffsvorrichtung in gefässeingriffsverfahren |
CN103687541B (zh) * | 2011-03-02 | 2017-02-15 | 皇家飞利浦有限公司 | 用于导航引导的可视化 |
US9265468B2 (en) | 2011-05-11 | 2016-02-23 | Broncus Medical, Inc. | Fluoroscopy-based surgical device tracking method |
US11284846B2 (en) * | 2011-05-12 | 2022-03-29 | The John Hopkins University | Method for localization and identification of structures in projection images |
US9105200B2 (en) | 2011-10-04 | 2015-08-11 | Quantant Technology, Inc. | Semi-automated or fully automated, network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data |
US10734116B2 (en) | 2011-10-04 | 2020-08-04 | Quantant Technology, Inc. | Remote cloud based medical image sharing and rendering semi-automated or fully automated network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data |
US9510771B1 (en) | 2011-10-28 | 2016-12-06 | Nuvasive, Inc. | Systems and methods for performing spine surgery |
JP6122875B2 (ja) * | 2012-02-06 | 2017-04-26 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 血管ツリー画像内での見えない分岐部の検出 |
US9972120B2 (en) | 2012-03-22 | 2018-05-15 | University Of Notre Dame Du Lac | Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces |
US9545233B2 (en) * | 2012-05-22 | 2017-01-17 | Mazor Robotics Ltd. | On-site verification of implant positioning |
US9498182B2 (en) | 2012-05-22 | 2016-11-22 | Covidien Lp | Systems and methods for planning and navigation |
US9439623B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Surgical planning system and navigation system |
US9439622B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Surgical navigation system |
US8750568B2 (en) | 2012-05-22 | 2014-06-10 | Covidien Lp | System and method for conformal ablation planning |
US9439627B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Planning system and navigation system for an ablation procedure |
CN103505288B (zh) * | 2012-06-29 | 2017-11-17 | 通用电气公司 | 超声成像方法和超声成像设备 |
US9992021B1 (en) | 2013-03-14 | 2018-06-05 | GoTenna, Inc. | System and method for private and point-to-point communication between computing devices |
US9398855B2 (en) * | 2013-05-30 | 2016-07-26 | Siemens Aktiengesellschaft | System and method for magnetic resonance imaging based respiratory motion correction for PET/MRI |
CN105074728B (zh) | 2013-08-09 | 2019-06-25 | 堃博生物科技(上海)有限公司 | 胸部荧光透视影像及相应的肋骨和脊椎三维影像数据配准 |
CN104574329B (zh) * | 2013-10-09 | 2018-03-09 | 深圳迈瑞生物医疗电子股份有限公司 | 超声融合成像方法、超声融合成像导航*** |
US9848922B2 (en) | 2013-10-09 | 2017-12-26 | Nuvasive, Inc. | Systems and methods for performing spine surgery |
US9633431B2 (en) | 2014-07-02 | 2017-04-25 | Covidien Lp | Fluoroscopic pose estimation |
US11213220B2 (en) | 2014-08-11 | 2022-01-04 | Cubisme, Inc. | Method for determining in vivo tissue biomarker characteristics using multiparameter MRI matrix creation and big data analytics |
US9986983B2 (en) | 2014-10-31 | 2018-06-05 | Covidien Lp | Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same |
US10453269B2 (en) | 2014-12-08 | 2019-10-22 | Align Technology, Inc. | Intraoral scanning using ultrasound and optical scan data |
GB2536650A (en) | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
JP6476041B2 (ja) * | 2015-03-31 | 2019-02-27 | 株式会社Aze | 医用画像診断装置、その制御方法、及びプログラム |
KR101797042B1 (ko) * | 2015-05-15 | 2017-11-13 | 삼성전자주식회사 | 의료 영상 합성 방법 및 장치 |
US10702226B2 (en) | 2015-08-06 | 2020-07-07 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10674982B2 (en) | 2015-08-06 | 2020-06-09 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10716525B2 (en) | 2015-08-06 | 2020-07-21 | Covidien Lp | System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction |
FI20155856A (fi) * | 2015-11-18 | 2017-05-19 | Teknologian Tutkimuskeskus Vtt Oy | Menetelmiä ja laitteita läpitunkevaa kuvantamista varten |
US11172895B2 (en) | 2015-12-07 | 2021-11-16 | Covidien Lp | Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated |
US10776963B2 (en) | 2016-07-01 | 2020-09-15 | Cubismi, Inc. | System and method for forming a super-resolution biomarker map image |
US11051886B2 (en) | 2016-09-27 | 2021-07-06 | Covidien Lp | Systems and methods for performing a surgical navigation procedure |
DE102016219817B4 (de) * | 2016-10-12 | 2018-05-30 | Siemens Healthcare Gmbh | Verfahren zur Ermittlung eines Röntgenbilddatensatzes und Röntgeneinrichtung |
TWI624243B (zh) * | 2016-12-15 | 2018-05-21 | 神農資訊股份有限公司 | 手術導引系統及其器械導引方法 |
EP3382641A1 (de) | 2017-03-30 | 2018-10-03 | Koninklijke Philips N.V. | Kontrastinjektionsabbildung |
US10434335B2 (en) * | 2017-03-30 | 2019-10-08 | Shimadzu Corporation | Positioning apparatus and method of positioning by generation of DRR image from X-ray CT image data |
US10924670B2 (en) | 2017-04-14 | 2021-02-16 | Yang Liu | System and apparatus for co-registration and correlation between multi-modal imagery and method for same |
US11232853B2 (en) * | 2017-04-21 | 2022-01-25 | Cubisme, Inc. | System and method for creating, querying, and displaying a MIBA master file |
US10432913B2 (en) * | 2017-05-31 | 2019-10-01 | Proximie, Inc. | Systems and methods for determining three dimensional measurements in telemedicine application |
WO2018236936A1 (en) * | 2017-06-19 | 2018-12-27 | Mahfouz Mohamed R | SURGICAL HIP NAVIGATION USING FLUOROSCOPY AND MONITORING SENSORS |
US10699448B2 (en) * | 2017-06-29 | 2020-06-30 | Covidien Lp | System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data |
US10818019B2 (en) | 2017-08-14 | 2020-10-27 | Siemens Healthcare Gmbh | Dilated fully convolutional network for multi-agent 2D/3D medical image registration |
CN111163697B (zh) | 2017-10-10 | 2023-10-03 | 柯惠有限合伙公司 | 用于在荧光三维重构中识别和标记目标的***和方法 |
US10905498B2 (en) | 2018-02-08 | 2021-02-02 | Covidien Lp | System and method for catheter detection in fluoroscopic images and updating displayed position of catheter |
WO2019211741A1 (en) | 2018-05-02 | 2019-11-07 | Augmedics Ltd. | Registration of a fiducial marker for an augmented reality system |
CN112566581B (zh) | 2018-08-10 | 2024-03-19 | 柯惠有限合伙公司 | 用于消融可视化的*** |
US11766296B2 (en) | 2018-11-26 | 2023-09-26 | Augmedics Ltd. | Tracking system for image-guided surgery |
US11980506B2 (en) | 2019-07-29 | 2024-05-14 | Augmedics Ltd. | Fiducial marker |
US11710249B2 (en) | 2019-12-20 | 2023-07-25 | Unify Medical, Inc. | Generation of three-dimensional scans for intraoperative imaging |
US11382712B2 (en) | 2019-12-22 | 2022-07-12 | Augmedics Ltd. | Mirroring in image guided surgery |
JP2023537454A (ja) | 2020-05-26 | 2023-09-01 | ユニファイ メディカル | デジタル拡大による3次元画像の生成 |
US11896445B2 (en) | 2021-07-07 | 2024-02-13 | Augmedics Ltd. | Iliac pin and adapter |
CN114332372A (zh) * | 2021-12-28 | 2022-04-12 | 北京阅影科技有限公司 | 血管三维模型的确定方法以及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10201644A1 (de) * | 2002-01-17 | 2003-08-07 | Siemens Ag | Registrierungsprozedur bei projektiver intraoperativer 3D-Bildgebung |
US20040170311A1 (en) * | 1999-10-15 | 2004-09-02 | Vittorio Accomazzi | Perspective with shear warp |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6047080A (en) * | 1996-06-19 | 2000-04-04 | Arch Development Corporation | Method and apparatus for three-dimensional reconstruction of coronary vessels from angiographic images |
US7819807B2 (en) * | 1996-06-28 | 2010-10-26 | Sonosite, Inc. | Balance body ultrasound system |
DE19963440C2 (de) * | 1999-12-28 | 2003-02-20 | Siemens Ag | Verfahren und System zur Visualisierung eines Gegenstandes |
DE10210647A1 (de) | 2002-03-11 | 2003-10-02 | Siemens Ag | Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments |
DE10210646A1 (de) * | 2002-03-11 | 2003-10-09 | Siemens Ag | Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments |
DE10210645B4 (de) * | 2002-03-11 | 2006-04-13 | Siemens Ag | Verfahren zur Erfassung und Darstellung eines in einen Untersuchungsbereich eines Patienten eingeführten medizinischen Katheters |
DE10322739B4 (de) * | 2003-05-20 | 2006-10-26 | Siemens Ag | Verfahren zur markerlosen Navigation in präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-C-Bogen-Bildes |
-
2005
- 2005-05-19 DE DE102005023167A patent/DE102005023167B4/de active Active
-
2006
- 2006-05-19 CN CN200610082786A patent/CN100581478C/zh active Active
- 2006-05-19 US US11/437,089 patent/US7689019B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040170311A1 (en) * | 1999-10-15 | 2004-09-02 | Vittorio Accomazzi | Perspective with shear warp |
DE10201644A1 (de) * | 2002-01-17 | 2003-08-07 | Siemens Ag | Registrierungsprozedur bei projektiver intraoperativer 3D-Bildgebung |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007009179A1 (de) * | 2007-02-26 | 2008-06-26 | Siemens Ag | Registrierungsverfahren für Datensätze |
WO2009077971A1 (en) * | 2007-12-18 | 2009-06-25 | Koninklijke Philips Electronics, N.V. | Fusion of cardiac 3d ultrasound and x-ray information by means of epicardial surfaces and landmarks |
DE102008020780B4 (de) * | 2008-04-25 | 2010-12-02 | Siemens Aktiengesellschaft | Korrekturverfahren zur Korrektur eines EKG-Signaldatensatzes eines EKG-Signals |
WO2011144413A1 (de) * | 2010-05-18 | 2011-11-24 | Siemens Aktiengesellschaft | Verfahren und system zum ermitteln von 3d-geometriedaten von objekten |
Also Published As
Publication number | Publication date |
---|---|
CN1864635A (zh) | 2006-11-22 |
US7689019B2 (en) | 2010-03-30 |
CN100581478C (zh) | 2010-01-20 |
DE102005023167B4 (de) | 2008-01-03 |
US20060262970A1 (en) | 2006-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102005023167B4 (de) | Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz | |
DE10210645B4 (de) | Verfahren zur Erfassung und Darstellung eines in einen Untersuchungsbereich eines Patienten eingeführten medizinischen Katheters | |
EP1659967B1 (de) | Verfahren und vorrichtung zur visuellen unterstützung einer elektrophysiologischen katheteranwendung im herzen | |
EP1659968B1 (de) | Vorrichtung zur visuellen unterstützung einer elektrophysiologischen katheteranwendung im herzen | |
DE102005032755B4 (de) | System zur Durchführung und Überwachung minimal-invasiver Eingriffe | |
DE102005030646B4 (de) | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern | |
DE10210647A1 (de) | Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments | |
DE102009040430B4 (de) | Vorrichtung, Verfahren und Computerprogramm zur Überlagerung eines intraoperativen Livebildes eines Operationsgebiets oder des Operationsgebiets mit einem präoperativen Bild des Operationsgebiets | |
DE10210646A1 (de) | Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments | |
DE102006061178A1 (de) | System zur Durchführung und Überwachung minimal-invasiver Eingriffe | |
DE102005027678A1 (de) | Verfahren und Vorrichtung zur Markierung von dreidimensionalen Strukturen auf zweidimensionalen Projektionsbildern | |
EP1321101A2 (de) | Verfahren zur Unterstützung der Orientierung im Gefässsystem | |
DE102008002864A1 (de) | Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren | |
EP1348394B1 (de) | Planungs- bzw. Navigationsunterstützung durch generische und erfasste Patientendaten mit zweidimensionaler Anpassung | |
DE10157965A1 (de) | Navigationssystem mit Atem- bzw. EKG-Triggerung zur Erhöhung der Navigationsgenauigkeiten | |
DE102012224057B4 (de) | Verfahren und Vorrichtung zur Bildunterstützung | |
DE102005022901B4 (de) | Verfahren und Vorrichtung zur Orientierungsbestimmung eines sich in einem Objekt befindlichen Instruments | |
DE102006056679A1 (de) | Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten insbesondere in Echtzeit | |
DE102007051479B4 (de) | Verfahren und Vorrichtung zur Darstellung von Bilddaten mehrerer Bilddatensätze während einer medizinischen Intervention | |
DE102009024652A1 (de) | Hochauflösende, dreidimensionale medizinische Bildgebung mit dynamischen Echtzeitinformationen | |
DE102008054298B4 (de) | Verfahren und Vorrichtung zur 3D-Visualisierung eines Eingriffspfades eines medizinischen Instrumentes, eines medizinischen Instrumentes und/oder einer bestimmten Gewebestruktur eines Patienten | |
DE102006014882A1 (de) | Verfahren zum Abbilden des Myokards eines Infarktpatienten und Verfahren zum Unterstützen eines therapeutischen Eingriffs am Herzen | |
DE102005022541A1 (de) | Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild | |
EP1378206B1 (de) | Röntgenbildunterstützte Navigation mit ursprünglichen, zweidimensionalen Röntgenbildern | |
DE10137914A1 (de) | Verfahren zur Ermittlung einer Koordinatentransformation für die Navigation eines Objekts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8120 | Willingness to grant licences paragraph 23 | ||
8364 | No opposition during term of opposition | ||
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHCARE GMBH, DE Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE |