DE102007013807B4 - Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene - Google Patents
Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene Download PDFInfo
- Publication number
- DE102007013807B4 DE102007013807B4 DE102007013807.7A DE102007013807A DE102007013807B4 DE 102007013807 B4 DE102007013807 B4 DE 102007013807B4 DE 102007013807 A DE102007013807 A DE 102007013807A DE 102007013807 B4 DE102007013807 B4 DE 102007013807B4
- Authority
- DE
- Germany
- Prior art keywords
- projection
- fluoroscopic
- puncture
- needle
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000003384 imaging method Methods 0.000 claims abstract description 24
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 206010028980 Neoplasm Diseases 0.000 claims abstract description 7
- 230000036407 pain Effects 0.000 claims abstract description 6
- 238000002560 therapeutic procedure Methods 0.000 claims abstract description 6
- 238000002690 local anesthesia Methods 0.000 claims abstract description 5
- 238000006243 chemical reaction Methods 0.000 claims abstract description 3
- 239000013598 vector Substances 0.000 claims description 30
- 238000002594 fluoroscopy Methods 0.000 claims description 21
- 238000003780 insertion Methods 0.000 claims description 13
- 230000037431 insertion Effects 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 239000003589 local anesthetic agent Substances 0.000 claims description 2
- 238000010562 histological examination Methods 0.000 claims 1
- 230000036629 mind Effects 0.000 claims 1
- 210000001519 tissue Anatomy 0.000 description 26
- 238000012545 processing Methods 0.000 description 17
- 238000012800 visualization Methods 0.000 description 16
- 210000001835 viscera Anatomy 0.000 description 7
- 230000001575 pathological effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000003902 lesion Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 238000013152 interventional procedure Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000002583 angiography Methods 0.000 description 2
- 238000001574 biopsy Methods 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002792 vascular Effects 0.000 description 2
- 208000032843 Hemorrhage Diseases 0.000 description 1
- 206010027476 Metastases Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000010102 embolization Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 238000002697 interventional radiology Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000007674 radiofrequency ablation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/12—Arrangements for detecting or locating foreign bodies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/10—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
- A61B90/11—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
- A61B10/02—Instruments for taking cell samples or for biopsy
- A61B10/0233—Pointed or sharp biopsy instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
- G06T2207/10121—Fluoroscopy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30021—Catheter; Guide wire
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30052—Implant; Prosthesis
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Quality & Reliability (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene (E), wobei aus der Interventionsebene (E) herausführende Richtungsabweichungen des Ist-Verlaufs eines interventionellen Werkzeugs (W) von einem vorgebbaren Soll-Verlauf (h) durch Registrierung der verkürzt dargestellten Gesamtlänge oder einer verkürzt dargestellten Teillänge dieses interventionellen Werkzeugs (W) in der 2D-Projektionsdarstellung einer fluoroskopischen Durchleuchtungsaufnahme (F3), die in einer zur Interventionsebene (E) normal verlaufenden 2D-Projektionsrichtung (p→ R) aufgenommen wurde, erfasst und zur Anzeige gebracht werden, und wobei es sich bei dem interventionellen Werkzeug (W) um eine Punktionsnadel (N) handelt, die zur Durchführung einer unter CT- bzw. MRT-gestützter bildgebender Kontrolle nach örtlicher Betäubung durchgeführten histologischen Gewebeprobenentnahme oder im Rahmen einer Tumor- bzw. Schmerztherapie verwendet wird, aufweisend die folgenden Schritte: Generierung (S1) einer 3D-Aufnahme (M) eines darzustellenden Bildobjekts (BO) bzw. Zielgebiets (ZG) oder Umrechnung (S1') präinterventionell akquirierter Bilddaten in einen Volumendatensatz einer rekonstruierten 3D-Ansicht (M') dieses Bildobjekts (BO) bzw. Zielgebiets (ZG), Festlegung (S2) der Raumkoordinaten (x1, y1 und z1) eines zu erreichenden Punktionsziels (P1) in dem akquirierten dreidimensionalen Datensatz, bezogen auf ein dreidimensionales kartesisches Ortskoordinatensystem (K) mit geeignet festgelegtem Koordinatenursprung (O), Festlegung (S3a) der Raumkoordinaten (x0, y0 und z0) einer Einstichstelle P0(x0, y0, z0) in dem dreidimensionalen kartesischen Ortskoordinatensystem (K) und Einführung (S3b) der Punktionsnadel (N) in einen zu untersuchende Gewebebereich im Zielgebiet (ZG) um einen vorgebbaren Längenbetrag in einer vorgebbaren Richtung, Generierung (S4) mindestens einer die aktuelle Lage der Punktionsnadel (N) darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F1 und F2) aus jeder von mindestens zwei verschiedenen Projektionsrichtungen, Detektion (S5a) und Kennzeichnung (S5b) des Ortes der Nadelspitze (P2) in den 2D-Projektionsaufnahmen (F1 und F2) dieser beiden Projektionsrichtungen, Berechnung (S6) der Ortskoordinaten (x2, y2 und z2) des Raumpunktes P2 in dem dreidimensionalen kartesischen Ortskoordinatensystem (K), ausgehend von den 2D-Positionen dieses Raumpunkts (P2) in den beiden generierten 2D-Fluoroskopiebildern (F1 und F2), ...
Description
- Die vorliegende Erfindung bezieht sich auf ein im Bereich der diagnostischen und interventionellen Radiologie anzuwendendes Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei der Durchführung von CT- bzw. MRT-gesteuerten minimal-invasiven Interventionen an inneren Organen, Gewebebereichen, Läsionen oder pathologischen Strukturen im Körperinneren eines Patienten in einer vorgegebenen Interventionsebene, welches dazu dient, die Präzision und Sicherheit interventioneller Eingriffe, die z. B. zur Durchführung einer unter CT- bzw. MRT-gestützter bildgebender Kontrolle nach örtlicher Betäubung erfolgenden histologischen Gewebeprobenentnahme (Biopsie) oder im Rahmen einer Tumor- bzw. Schmerztherapie erforderlich sind, zu verbessern. Veranschaulicht wird das erfindungsgemäße Verfahren anhand eines einsetzbaren Bildakquisitions-, Bildverarbeitungs- und Bildvisualisierungssystems.
- Bei einem CT- bzw. MRT-gesteuerten interventionellen Eingriff werden zur Unterstützung und Kontrolle der Navigation dazu erforderlicher interventioneller Werkzeuge herkömmlicherweise unter fluoroskopischer Bildgebung in Echtzeit generierte 2D-Projektionsbilder von den zu behandelnden anatomischen Gewebebereichen, den verwendeten medizinischen Instrumenten und den sie umgebenden Regionen im Körperinneren eines zu behandelnden Patienten auf einem Anzeigebildschirm dargestellt. Zur Kontrolle eines solchen interventionellen Eingriffs mittels Röntgenbildgebung kann z. B. ein herkömmliches multidirektionales C-Bogen-Durchleuchtungssystem verwendet werden. Moderne C-Bogen-Geräte ermöglichen eine Rotationsakquisition von 2D-Projektionsaufnahmen abzubildender Gewebebereiche mit anschließender 3D-Rekonstruktion der akquirierten Bilddaten, welche dann in dreidimensional gerenderter Form visualisiert werden. Zu diesem Zweck wird aus den 2D-Projektionsaufnahmen der betreffenden Gewebebereiche unter Verwendung geeigneter digitaler Bildverarbeitungsfunktionen ein 3D-Datensatz errechnet. Was die Bildqualität und die Möglichkeiten der Visualisierung anbelangt, haben die resultierenden 3D-Abbildungen CT-ähnliche Eigenschaften.
- In
DE 10 2005 012 698 A1 ist ein Verfahren und eine Vorrichtung zur Navigation eines medizinischen Instruments in einer Gefäßstruktur eines Körpers offenbart, bei dem die Gefäßstruktur mit Hilfe eines bildverarbeitenden System anhand eines zuvor aufgenommenen Röntgenbildes eines zu untersuchenden Teilbereichs des Körpers automatisch erkannt und die Position des Instruments mit Hilfe eines passiven Ortungssystems in Bezug zu der Gefäßstruktur ermittelt wird. - Ferner ist in
DE 10 2004 061 591 B3 ein Verfahren zum Betrieb eines bildgebenden medizinischen Gerätes offenbart, bei dem die Bildverfälschung, welche aufgrund der Verformung der Patientenliege während der Patientenverschiebung auftreten kann, auf Basis der Verzerrung/Veränderung der Liegengeometrie eben durch die Verformung im aktuellen Bild (z. B. Vergrößerung der Breite/Dicke des Liegenbretts) rückgerechnet wird. - Im Bereich der interventionellen Rotationsangiografie ist in diesem Zusammenhang insbesondere eine von der Firma Siemens entwickelte Technologie zu nennen, welche unter der Produktbezeichnung syngo DynaCT bekannt geworden ist. syngo DynaCT nutzt die Aufnahmen einer Rotationsangiografie und erstellt daraus ein Angiografie-CT-Bild (ACT). Bei einer C-Bogen-Rotation von 220° erfolgt die Bildakquisition typischerweise innerhalb von ca. 5 bis 10 Sekunden. Das aufgenommene Volumen kann dann direkt im Angiografieraum dreidimensional rekonstruiert werden. Die Einsatzgebiete von syngo DynaCT reichen von der Darstellung von Blutungen oder Pathologien des Hirnkammersystems bis hin zur Führung und Überprüfung von Punktionen und Drainagesystemen. Bei der Visualisierung von Tumoren und Metastasen, z. B. in der Leber, wird syngo DynaCT darüber hinaus auch zur Unterstützung therapeutischer Maßnahmen, wie z. B. der Embolisierung oder RF-Ablation, verwendet. Da syngo DynaCT bereits während der Durchführung eines interventionellen Eingriffs CT-ähnliche Bilder liefert, muss ein zu behandelnder Patient zwecks Generierung der Bilddaten zweidimensionaler Projektionsaufnahmen, die dann in einen Volumendatensatz umgerechnet und in grafischer Form zur Anzeige gebracht werden müssen, nicht mehr extra in einen Computertomografen umgelagert werden.
- Alternativ zu syngo DynaCT können auch CT-, PET-CT- bzw. MRT-gestützte radiologische Bildgebungsverfahren zum Einsatz kommen, mit deren Hilfe Bilddaten zweidimensionaler Projektionsaufnahmen von interessierenden Gewebebereichen, Organen, Läsionen, anatomischen oder pathologischen Strukturen im Körperinneren eines zu behandelnden Patienten präinterventionell gewannen werden. Diese Bilddaten müssen dann erst in einen Volumendatensatz einer rekonstruierten 3D-Ansicht M der betreffenden Bildobjekte umgerechnet, mit den Bilddaten eines 2D-Fluoroskopiebildes F, welches die umliegenden Gewebebereiche dieser Bildobjekte zeigt, koregistriert, fusioniert und mit diesem zusammen grafisch visualisiert werden, bevor ein unter bildgebender Kontrolle durchzuführender interventioneller Eingriff erfolgen kann.
- Zur Koregistrierung (engl.: „matching”) der beiden Bilder M und F müssen für die unter Umständen auf unterschiedliche Ortskoordinatensysteme bezogenen Datensätze eines in den beiden Abbildungen dargestellten identischen Bildobjekts BO die Lageversatz- und Winkelversatzparameter einer zwei- oder dreidimensionalen Koordinatentransformation ermittelt werden, welche die Koordinaten des einen Datensatzes in die Koordinaten des jeweils anderen Datensatzes überführt und somit die beiden Darstellungen des betreffenden Bildobjekts BO miteinander zur Deckung bringt. Um die Qualität dieser Überführung (d. h. die Güte der Bildüberlagerung bei einer Fusionierung beider Datensätze) zu optimieren, wird eine über einem Parameterraum definierte Bewertungsfunktion (Metrik) gebildet und einem durch eine Extremalbedingung ausdrückbaren Optimierungskriterium unterzogen, mit dessen Hilfe dann die Lageversatz- und Winkelversatzparameter gefunden werden können, für die die beiden Darstellungen des Bildobjekts BO am besten überlagert sind. Anders ausgedrückt, nimmt die Bewertungsfunktion also ihr Optimum für den Fall an, dass die beiden Datensätze korrekt registriert sind.
- Zur Ermittlung der Lageversatz- und Winkelversatzparameter dienen dabei bestimmte Bildmerkmale (im Folgenden auch als „anatomische Landmarken” bezeichnet), die in den beiden zu matchenden Datensätzen des jeweiligen Bildobjekts BO enthalten sind und in einen räumlichen Zusammenhang zueinander gebracht werden können. Handelt es sich bei diesen Landmarken um künstlich angebrachte Markierungsobjekte, wird von „extrinsischer” Registrierung gesprochen. Hierbei wird vor der Bildaufnahme ein in den Bilddaten leicht zu detektierendes System von Orientierungspunkten am Patienten angebracht. Diese Fixpunkte lassen sich anschließend mathematisch relativ einfach in einen gemeinsamen Kontext bringen. In den meisten Fallen liegen die Bilddaten allerdings ohne künstlich hinzugefügte Landmarken vor. In diesem Fall handelt es sich um den Fall einer „intrinsischen” Registrierung. Die benötigten Bildmerkmale müssen dabei oft durch bildanalytische Verfahren gewonnen werden. Dies geschieht entweder durch Detektion anatomischer Landmarken, wobei es sich zum Beispiel um Kanten oder Oberflächen von Knochen, inneren Organen oder deutlich abgrenzbaren Gewebebereichen im Körperinneren des Patienten handeln kann, oder es findet vor dem Matching eine Segmentierung bestimmter Bildmerkmale statt, die in beiden Datensätzen enthalten sind. Intrinsische Bildmerkmale werden beispielsweise im Rahmen voxelbasierter Matchingverfahren verwendet, welche im letzten Jahrzehnt im Zuge der Erforschung intensitätsbasierter Algorithmen, die auf einer Auswertung von „Mutual Information” I(G1, G2) als Bewertungskriterium zur Quantifizierung der Güte einer Registrierung basieren, stark an Bedeutung gewonnen haben. Das durch den nachfolgenden Ausdruck gegebene Registrierungsmaß basiert auf der Kullback-Leiber-Divergenz (KLD) zwischen den zugehörigen Wahrscheinlichkeitsdichtefunktionen pG1(g1) und pG2(g2) der Grauwert-Verteilungen in den Datensätzen G1 und G2 zweier gemeinsam zu registrierender Bilder, wobei mit g1 und g2 zwei diskrete Zufallsvariablen für die enthaltenen Grauwerte in diesen beiden Bildern bezeichnet sind. Die Kullback-Leiber-Divergenz auf der rechten Seite der Formel liefert dabei eine Aussage darüber, wie stark die eine Verteilung von der anderen Verteilung abweicht, da sie ein Maß für die gegenseitige Abhängigkeit der beiden Zufallsvariablen g1 und g2 darstellt, welches für den Fall größtmöglicher statistischer Abhängigkeit (d. h. bei einer optimalen Registrierung) maximal und für den Fall völliger statistischer Unabhängigkeit (d. h. bei einer absoluten Fehlregistrierung) minimal ist. Da für die Ermittlung von I(G1, G2) lediglich die Grauwertinformation akquirierter Bilddaten herangezogen wird, ist hierzu prinzipiell kein a priori-Wissen oder eine Bildanalyse notwendig.
- Der große Vorteil von syngo DynaCT gegenüber herkömmlichen Bildakquisitions- und Bildregistrierungssystemen besteht darin, dass visualisierte syngo DynaCT-Bilddatensätze aktuelle 3D-Ansichten von darzustellenden Bildobjekten im Körperinneren eines Patienten wiedergeben, die bereits auf das Ortskoordinatensystem eines 2D-Fluoroskopiebildes der umliegenden Gewebebereiche dieses Bildobjekts bezogen und mit dem 2D-Fluoroskopiebild optimal registriert sind, so dass die Verwendung anatomischer Landmarken zur Koregistrierung dreidimensional rekonstruierter Ansichten präinterventionell akquirierter Bilddaten des Bildobjekts mit den Bilddaten des 2D-Fluoroskopiebildes sowie die Verwendung eines intensitätsbasierten Registrierungsmaßes zur Quantifizierung der Güte dieser Registrierung entfallen können.
- Ausgehend von dem oben genannten Stand der Technik, ist die vorliegende Erfindung der Aufgabe gewidmet, die Präzision und Sicherheit CT- bzw. MRT-gesteuerter, minimal-invasiver interventioneller Eingriffe durch Verbesserung der Zielgenauigkeit bei der Führung eines unter bildgebender Kontrolle geführten interventionellen Werkzeugs (wie z. B. einer Punktionsnadel) zu erhöhen.
- Diese Aufgabe wird erfindungsgemäß durch die Merkmale der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsbeispiele, die den Gedanken der Erfindung weiterbilden, sind in den abhängigen Patentansprüchen definiert.
- Die vorliegende Erfindung bezieht sich gemäß einem ersten Aspekt auf ein Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen an inneren Organen, Gewebebereichen, Läsionen oder pathologischen Strukturen im Körperinneren eines Patienten in einer vorgegebenen Interventionsebene. Das erfindungsgemäße Verfahren ist dadurch gekennzeichnet, dass aus der Interventionsebene herausführende Richtungsabweichungen des Ist-Verlaufs eines interventionellen Werkzeugs von einem vorgebbaren Soll-Verlauf durch Registrierung der verkürzt dargestellten Gesamtlänge oder einer verkürzt dargestellten Teillänge dieses interventionellen Werkzeugs in der 2D-Projektionsdarstellung einer fluoroskopischen Durchleuchtungsaufnahme, die in einer zur Interventionsebene normal verlaufenden 2D-Projektionsrichtung aufgenommen wurde, erfasst und zur Anzeige gebracht werden.
- Die erfassten Richtungsabweichungen des interventionellen Werkzeugs können dabei erfindungsgemäß in eine Stellgröße zur Ansteuerung eines Aktuatorsystems umsetzt werden, das die Richtungsabweichungen durch Gegensteuerung kompensiert. Bei dem interventionellen Werkzeug kann es sich wiederum z. B. um eine Punktionsnadel handeln, die zur Durchführung einer unter CT- bzw. MRT-gestützter bildgebender Kontrolle nach örtlicher Betäubung durchgeführten histologischen Gewebeprobenentnahme oder im Rahmen einer Tumor- bzw. Schmerztherapie verwendet wird, und das Aktuatorsystem kann, wie bereits beschrieben, Teil eines steuerbaren Punktionsroboters sein, der zur zielgenauen Führung der Punktionsnadel beim Nadelvorschub verwendet wird.
- Nach Generierung einer 3D-Aufnahme eines darzustellenden Bildobjekts oder Zielgebiets bzw. nach Umrechnung präinterventionell akquirierter Bilddaten in einen Volumendatensatz einer rekonstruierten 3D-Ansicht dieses Bildobjekts oder Zielgebiets werden bei dem erfindungsgemäßen Verfahren zunächst die Raumkoordinaten eines zu erreichenden Punktionsziels P1 in dem akquirierten dreidimensionalen Datensatz und die Raumkoordinaten einer Einstichstelle P0, bezogen auf ein dreidimensionales kartesisches Ortskoordinatensystem mit geeignet festgelegtem Koordinatenursprung, festgelegt. Danach wird die Punktionsnadel in einen zu untersuchende Gewebebereich im Zielgebiet um einen vorgebbaren Längenbetrag in einer vorgebbaren Richtung eingeführt, woraufhin erfindungsgemäß mindestens eine die aktuelle Lage der Punktionsnadel darstellende fluoroskopische 2D-Durchleuchtungsaufnahme aus jeder von mindestens zwei verschiedenen Projektionsrichtungen generiert wird. Nach Detektion und Kennzeichnung des Ortes der Nadelspitze in den 2D-Projektionsaufnahmen dieser beiden Projektionsrichtungen werden dann die Ortskoordinaten des zugehörigen Raumpunkts P2 in dem dreidimensionalen kartesischen Ortskoordinatensystem, ausgehend von den 2D-Positionen dieses Raumpunkts in den beiden generierten 2D-Fluoroskopiebildern, berechnet. Im Anschluss daran ist gemäß diesem Verfahren vorgesehen, dass die 2D-Positionen eines weiteren, geeignet festgelegten Raumpunktes P3 der Punktionsnadel in den 2D-Projektionsaufnahmen der beiden Projektionsrichtungen geschätzt werden und der Ort dieses weiteren Raumpunkts in den beiden generierten 2D-Projektionsaufnahmen gekennzeichnet wird. Daraufhin werden dann die Ortskoordinaten dieses weiteren Raumpunktes P3 in dem dreidimensionalen kartesischen Ortskoordinatensystem, ausgehend von den geschätzten 2D-Positionen des betreffenden Raumpunktes in den beiden generierten 2D-Fluoroskopiebildern, berechnet. Das Verfahren endet dann damit, dass die geschätzte Lage des weiteren Raumpunktes P3 solange durch iterative Veränderung seiner Position nachjustiert wird, bis die Richtungen der 2D-Projektionen einer die Raumpunkte P2 und P3 miteinander verbindenden Raumgerade mit den projizierten Raumrichtungen der Punktionsnadel in den beiden generierten 2D-Fluoroskopiebildern bis auf einen vorgebbaren Abweichungsbetrag übereinstimmen.
- Bei dem erfindungsgemäßen Verfahren kann dabei vorgesehen sein, dass die Generierung der mindestens einen die aktuelle Lage der Punktionsnadel darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme aus jeder der mindestens zwei verschiedenen Projektionsrichtungen entweder mit Hilfe eines C-Bogen-Röntgenaufnahmegeräts oder mit Hilfe einer Zwei-Ebenen-Durchleuchtungsanlage (Biplansystem) durchgeführt wird.
- Darüber hinaus kann vorgesehen sein, dass im Rahmen des erfindungsgemäßen Verfahrens zwei punktförmige Objektmarkierungen detektiert werden, welche an den durch die beiden Raumpunkte P2 und P3 festgelegten Stellen an der Spitze bzw. auf der Oberfläche der Punktionsnadel angebracht sind.
- Gemäß einem zweiten Aspekt bezieht sich die vorliegende Erfindung auf ein Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene mit Hilfe einer Zwei-Ebenen-Durchleuchtungsanlage (Biplansystem). Das Verfahren ist dadurch gekennzeichnet, dass aus der Interventionsebene herausführende Richtungsabweichungen des Ist-Verlaufs eines interventionellen Werkzeugs von einem vorgebbaren Soll-Verlauf durch Registrierung zweier Winkelbeträge in den 2D-Projektionsdarstellungen zweier fluoroskopischer Durchleuchtungsaufnahmen, die in zwei verschiedenen, zur Interventionsebene normal verlaufenden Projektionsebenen aufgenommen wurden, erfasst und zur Anzeige gebracht werden, wobei es sich bei den beiden Winkelbeträgen um die Richtungsabweichungen zwischen einer durch 2D-Projektion der Interventionsebene in der betreffenden Projektionsebene abgebildeten Sollgeraden und dem in diese Projektionsebene projizierten Ist-Verlauf des interventionellen Werkzeugs handelt.
- Die erfassten Richtungsabweichungen des interventionellen Werkzeugs können dabei erfindungsgemäß in eine Stellgröße zur Ansteuerung eines Aktuatorsystems umsetzt werden, das die Richtungsabweichungen durch Gegensteuerung kompensiert. Bei dem interventionellen Werkzeug kann es sich wiederum z. B. um eine Punktionsnadel handeln, die zur Durchführung einer unter CT- bzw. MRT-gestützter bildgebender Kontrolle nach örtlicher Betäubung durchgeführten histologischen Gewebeprobenentnahme oder im Rahmen einer Tumor- bzw. Schmerztherapie verwendet wird, und das Aktuatorsystem kann, wie bereits beschrieben, Teil eines steuerbaren Punktionsroboters sein, der zur zielgenauen Führung der Punktionsnadel beim Nadelvorschub verwendet wird.
- Nach Generierung einer die aktuelle Lage der Punktionsnadel darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme in einer ersten, zur Interventionsebene normal verlaufende Projektionsebene wird dabei zunächst die Nadelführungsrichtung in dieser ersten Projektionsebene erfasst. Bei Detektion einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel und einem idealen Einstichpfad, der durch den Verlauf einer durch 2D-Projektion der Interventionsebene in die erste Projektionsebene abgebildeten Sollgeraden vorgegeben ist, wird die Nadelführungsrichtung dann auf einen Wert nachjustiert, der entweder einen vorgegebenen Winkelbetrag unterschreitet oder die vorgenannte Richtungsabweichung in dieser ersten Projektionsebene vollständig kompensiert. Nach Generierung einer weiteren, die aktuelle Lage der Punktionsnadel darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme in einer zweiten, zur Interventionsebene normal verlaufende Projektionsebene wird dann zunächst die Nadelführungsrichtung in dieser zweiten Projektionsebene erfasst. Bei Detektion einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel und einem idealen Einstichpfad, der durch den Verlauf einer durch 2D-Projektion der Interventionsebene in die zweite Projektionsebene abgebildeten Sollgeraden vorgegeben ist, wird die Nadelführungsrichtung auf einen Wert nachjustiert, der entweder einen vorgegebenen Winkelbetrag unterschreitet oder die vorgenannte Richtungsabweichung in dieser zweiten Projektionsebene vollständig kompensiert. Die vorstehend beschriebenen Verfahrensschritte zur Erfassung und Nachjustierung der Nadelführungsrichtung in den beiden Projektionsebenen werden dann solange iterativ wiederholt, bis der Einstichpfad der Punktionsnadel mit einem in der Interventionsebene verlaufenden Sollpfad ohne Abweichung bzw. bis auf einen vorgebbaren Winkelbetrag übereinstimmt.
- Erfindungsgemäß kann auch vorgesehen sein, dass anstelle der Interventionsebene der Normalenvektor dieser Ebene in die zweite Projektionsebene hineinprojiziert wird und die Navigation der Punktionsnadel in der Interventionsebene bei Erfassung einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel und dem durch den Verlauf eines zu dem Normalenvektor orthogonalen Richtungsvektors vorgegebenen idealen Einstichpfad (Sollpfad) an die Richtung dieses Richtungsvektors angepasst wird, so dass die Regelabweichung in der fluoroskopischen 2D-Durchleuchtungsaufnahme der zweiten Projektionsebene nach erfolgter Nachjustierung kleiner als der vorgegebene Winkelbetrag ist bzw. der Einstichpfad im günstigsten Fall mit dem Sollpfad übereinstimmt.
- Weitere Merkmale der vorliegenden Erfindung ergeben sich aus den abhängigen Patentansprüchen sowie aus der Beschreibung von Ausführungsbeispielen, welche in den folgenden Zeichnungen abgebildet sind:
-
1 zeigt ein Blockschaltbild eines Bildakquisitions-, Bildverarbeitungs- und Bildvisualisierungssystems gemäß vorliegender Erfindung, das zur CT- bzw. MRT-gestützten bildgebenden Kontrolle unter Lokalanästhesie durchgeführter minimal-invasiver Interventionen an inneren Organen, Gewebebereichen, Läsionen oder pathologischen Strukturen eines Patienten verwendet wird, und -
2 und3 zeigen am Beispiel einer CT-gesteuerten Nadelpunktion zwei verschiedene Varianten eines Ablaufdiagramms zur Darstellung des erfindungsgemäßen Verfahrens zur gemeinsamen Registrierung und Visualisierung akquirierter Bilddaten, die im Rahmen eines CT- bzw. MRT-gesteuerten minimal-invasiven interventionellen Eingriffs benötigt werden. - In den folgenden Abschnitten werden die Systemkomponenten des erfindungsgemäßen Bildakquisitions-, Bildverarbeitungs- und Bildvisualisierungssystems und die Schritte des zugehörigen erfindungsgemäßen Verfahrens anhand der beigefügten Zeichnungen ohne Beschränkung der Allgemeinheit am Beispiel einer Nadelpunktion im Detail beschrieben.
- In
1 ist ein schematisches Blockschaltbild eines Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystems gemäß vorliegender Erfindung dargestellt, welches es ermöglicht, von einem Bildgebungssystem BGS generierte Bilddaten von inneren Organen, interessierenden Gewebebereichen, pathologischen Strukturen, eingeführten interventionellen Werkzeugen, medizintechnischen Instrumenten, Implantaten etc. im Körperinneren eines zu untersuchenden Patienten zum Einen in Form von zweidimensionalen fluoroskopischen Durchleuchtungsaufnahmen aus verschiedenen Projektionsrichtungen und zum Anderen in Form von dreidimensional rekonstruierten Datensätzen zu erfassen, zu archivieren und entweder getrennt oder in Form koregistrierter und fusionierter grafischer Darstellungen auf dem Anzeigebildschirm AB eines Bildschirm-Terminals zu visualisieren. Als bildgebendes System BGS kann dabei z. B. ein herkömmliches CT- oder MRT-Gerät, ein C-Bogen-Röntgenaufnahmegerät oder eine Zwei-Ebenen-Durchleuchtungsanalage (Biplansystem) verwendet werden. - Wie in
1 skizziert, werden die vom bildgebenden System BGS generierten Bilddaten über eine Eingabe-/Ausgabe-Schnittstelle I/O einem Bildverarbeitungssystem BVS zugeführt. Das Bildverarbeitungssystem BVS kann dabei neben einer zentralen Steuerungseinrichtung ZSE, welche den Datenaustausch mit dem Bildgebungssystem BGS sowie den Datenaustausch zwischen den einzelnen Systemkomponenten des Bildverarbeitungssystem BVS steuert, unter anderem ein Vorverarbeitungsmodul VVM mit einem digitalen Filter zur Rauschunterdrückung, Kontrastverbesserung und Kantendetektion umfassen. Eine in das Bildverarbeitungssystem BVS integrierte 3D-Bildrendering-Applikation BRA dient zur Generierung von rekonstruierten 3D-Ansichten sowie zur grafischen Visualisierung darzustellender Gewebebereiche. Darüber hinaus umfasst das Bildverarbeitungssystem BVS auch ein eingangsseitig mit den Datenausgängen des Vorverarbeitungsmoduls VVM und der 3D-Bildrendering-Applikation BRA verbundenes Bildvisualisierungs-Tool BVT sowie ein in dieses Bildvisualisierungs-Tool BVT integriertes Navigationshilfe-Tool NHT, welches aus einer Interventionsebene E herausführende Richtungsabweichungen des Ist-Verlaufs einer Punktionsnadel N von einem vorgebbaren Soll-Verlauf durch Registrierung der verkürzt dargestellten Gesamtlänge oder einer verkürzt dargestellten Teillänge dieses interventionellen Werkzeugs in der 2D-Projektionsdarstellung einer fluoroskopischen Durchleuchtungsaufnahme, die in einer zur Interventionsebene E normal verlaufenden 2D-Projektionsrichtung p →R aufgenommen wurde, erfasst und auf dem Anzeigebildschirm AB des Bildschirm-Terminals zur Anzeige bringt. - Wie in
1 dargestellt, kann die Punktionsnadel N entweder manuell von einem behandelnden Arzt oder von einem Punktionsroboter R geführt und gesteuert werden. Eine in das Bildverarbeitungssystem BVS integrierte Reglungs- und Steuerungseinheit R&S sorgt erfindungsgemäß dafür, dass die über das Navigationshilfe-Tool NHT erfassten Richtungsabweichungen der Punktionsnadel N in eine Stellgröße zur Ansteuerung eines zur Steuerung eines Roboterarms verwendeten Aktuatorsystems AS umgesetzt werden, das die Richtungsabweichungen durch Gegensteuerung kompensiert. Der Roboterarm kann dabei im Idealfall sowohl verschiebbar als auch schwenkbar ausgelegt sein, um Bewegungen in bis zu drei translatorischen (x, y, z) und drei rotatorischen Freiheitsgraden (φx, φy, φz) ausführen zu können und somit in der Lage zu sein, die Punktionsnadel N zielgenau zu einer vorgesehenen Einstichstelle zu steuern und eine vom Arzt oder der Regelungs- und Steuerungseinheit R&S vorgegebene Richtung des Einstichpfads in dem zu punktierenden Gewebe mit hoher Präzision einzuhalten. - Immer dann, wenn Bilddaten von dem CT- bzw. MRT-Gerät generiert und dem Bildverarbeitungssystem BVS über eine Eingabeschnittstelle bereitgestellt werden, können diese, veranlasst durch die zentrale Steuerungseinrichtung ZSE, nach Abschluss der Vorverarbeitung in Vorbereitung für eine spätere grafischen Visualisierung je nach Systemkonfiguration temporär oder persistent in einem Bilddatenspeicher einer externen Speichereinheit SE gespeichert werden, wo sie in ein patientenspezifisches Untersuchungsprotokoll einer Protokolldatei geschrieben werden, welche in einem Speicherbereich der Speichereinheit SE hinterlegt ist. Neben den im Rahmen des Bildgebungsprozesses akquirierten Bilddaten können auch sämtliche Aufnahmeparameter, die von einem die Untersuchung durchführenden Radiologen manuell eingestellt wurden, sowie alle Darstellungs- und Rekonstruktionsparameter, die zur Visualisierung rekonstruierter 3D-Ansichten von bestimmten Gewebebereichen im Körperinneren des Patienten benötigt werden, in einem standardisierten Datenformat (z. B. im DICOM-Format) über eine Datenausgabeschnittstelle DATA_OUT des Bildverarbeitungssystems BVS in das patientenspezifische Untersuchungsprotokoll der extern gespeicherten Protokolldatei geschrieben werden. Zur grafischen Visualisierung können die gespeicherten Bilddaten, Aufnahme- und Rekonstruktionsparameter dann über eine Dateneingabeschnittstelle DATA_IN des Bildverarbeitungssystems BVS in einen nicht dargestellten, lokalen Temporärspeicher des Bildvisualisierungs-Tools BVT geladen werden.
- Wie aus
1 ersichtlich, werden dem Bildvisualisierungs-Tool BVT einerseits die mittels fluoroskopischer Bildgebung akquirierten und von dem Vorverarbeitungsmodul VVM gefilterten Bilddaten zweidimensionaler Schnittbilder zu untersuchender Gewebebereiche zugeführt und andererseits Bilddaten rekonstruierter, mit Hilfe der 3D-Bildrendering-Applikation BRA rekonstruierter 3D-Ansichten interessierender Bereiche aus dem Körperinneren Patienten, die dann auf dem Anzeigebildschirm AB des Bildschirm-Terminals in grafischer Form visualisiert werden. Zur Archivierung werden die akquirierten und rekonstruierten Bilddaten über die eingangs erwähnte Datenausgabeschnittstelle DATA_OUT des Bildverarbeitungssystems BVS (z. B. unter Verwendung des DICOM-Formats) in das patientenspezifische Untersuchungsprotokoll der in der externen Speichereinheit SE hinterlegten Protokolldatei geschrieben und dort abrufbar und persistent gespeichert. - In
2 ist ein Ablaufdiagramm dargestellt, anhand dessen das erfindungsgemäße Verfahren zur CT- bzw. MRT-gestützten bildgebenden Kontrolle interventioneller Eingriffe an inneren Organen, Gewebebereichen, Läsionen oder pathologischen Strukturen eines Patienten, welches mit Hilfe des in1 skizzierten Bildakquisitions-, Bildverarbeitungs- und Bildvisualisierungssystems durchgeführt wird, am Beispiel einer CT-gesteuerten histologischen Gewebeprobenentnahme (Biopsie) mit einer Punktionsnadel N veranschaulicht wird. Als bildgebendes System kann dazu z. B. ein herkömmliches multidirektionales C-Bogen-Röntgenaufnahmegerät verwendet werden. Das Verfahren beginnt damit, dass eine 3D-Aufnahme M eines darzustellenden Bildobjekts BO oder eines interessierenden Zielgebiets ZG erstellt (S1) wird, z. B. mittels syngo DynaCT. Alternativ dazu können auch präinterventionell akquirierte Bilddaten in einen Volumendatensatz einer rekonstruierten 3D-Ansicht M' des betreffenden Bildobjekts BO bzw. Zielgebiets ZG umgerechnet werden (S1'), die später gegebenenfalls mit den Bilddaten eines oder mehrerer, aus unterschiedlichen Projektionsrichtungen aufgenommener 2D-Fluoroskopiebilder, welche die umliegenden Gewebebereiche dieses Bildobjekts oder Zielgebiets zeigen, koregistriert, fusioniert und mit diesen zusammen aus verschiedenen Blickwinkeln grafisch visualisiert werden können. In einem folgenden Schritt (S2) wird in dem generierten 3D-Datensatz ein z. B. durch drei kartesische Ortskoordinaten x1, y1 und z1 beschriebenes Punktionnziel P1(x1, y1, z1) (wiederum z. B. mit Hilfe der syngo DynaCT-Applikation) als Schnittpunkt von drei paarweise zueinander orthogonalen Schnittebenen festgelegt, bei denen es sich um die Projektionsebenen dreier durch multiplanare Reformation aus einem Volumendatensatz rekonstruierter 2D-Projektionen in einem dreidimensionalen kartesischen Ortskoordinatensystem handelt. Der den interventionellen Eingriff durchführende Arzt legt dann eine geeignete Einstichstelle P0(x0, y0, z0) fest (S3a) und führt die Punktionsnadel N in einer bestimmten Richtung ein Stück weit in das zu untersuchende Gewebe ein (S3b). Im Anschluss daran wird aus jeder von mindestens zwei verschiedenen Angulationsrichtungen des verwendeten C-Bogen-Röntgenaufnahmegeräts mindestens eine die aktuelle Lage der Punktionsnadel N darstellende fluoroskopische 2D-Durchleuchtungsaufnahme (F1 und F2) generiert (S4). In den 2D-Projektionsaufnahmen dieser beiden Angulationsrichtungen wird dann die Spitze der Punktionsnadel N manuell oder mit Hilfe eines Mustererkennungsalgorithmus detektiert (S5a) und als Punktobjekt gekennzeichnet (S5b), z. B. durch farbliche Hervorhebung dieses Punktobjekts und/oder durch ein Textlabel „P2”. Da sowohl die Geometrie als auch die aktuelle Position der Detektorfläche des C-Bogen-Geräts bekannt sind, können aus den 2D-Positionen der Nadelspitze in den beiden generierten 2D-Fluoroskopiebildern F1 und F2 die kartesischen Ortskoordinaten x2, y2 und z2 des zugehörigen Raumpunkts P2(x2, y2, z2) in einem dreidimensionalen kartesischen Ortskoordinatensystem K mit geeignet festgelegtem Koordinatenursprung O errechnet werden (S6). Im Anschluss daran werden die 2D-Positionen eines weiteren, geeignet festgelegten Raumpunktes P3(x3, y3, z3) der Punktionsnadel N in den 2D-Projektionsaufnahmen der beiden Angulationsrichtungen geschätzt (S7a) und ähnlich wie in Schritt S5 in Form eines weiteren Punktobjekts markiert (S7b), wiederum z. B. durch farbliche Hervorhebung dieses Punktobjekts und/oder durch ein Textlabel „P3”. Wie in Schritt S6 werden dann aus den 2D-Positionen dieses weiteren Punktobjekts in den beiden generierten 2D-Fluoroskopiebildern F1 und F2 die kartesischen Ortskoordinaten x3, y3 und z3 des Raumpunkts P3(x3, y3, z3) in dem durch das kartesische Ortskoordinatensystem aufgespannten 3D-Raum errechnet (S8). Da Schritt S7a jedoch nur auf einer Schätzung beruht, kann es sein, dass es sich bei dem Raumpunkt P3(x3, y3, z3) tatsächlich nur um einen Punkt in unmittelbarer Nähe der Punktionsnadel N und nicht um einen auf der Punktionsnadel N liegenden Punkt handelt. Aus diesem Grund werden die Ortskoordinaten des Raumpunktes P3(x3, y3, z3) nun mit Hilfe eines iterativen Verfahrens schrittweise feinjustiert. Zu diesem Zweck werden die beiden Punkte P2(x2, y2, z2) und P3(x3, y3, z3) in einem Schritt S9 mit einer durch die Parametergleichung gegebenen Raumgeraden g miteinander verbunden, deren Richtungsvektor r →g ≡ P →2P →3 = OP →3 – OP →2 die Raumrichtung einer „virtuellen Nadel” bildet, welche mit der Raumrichtung der (reellen) Punktionsnadel N in erster Näherung übereinstimmt. Im Anschluss daran wird die Raumgerade g in die beiden 2D-Fluoroskopiebilder F1 und F2 hineinprojiziert (S10a). Sofern die Richtungen beider 2D-Projektionen der Raumgerade g mit den projizierten Raumrichtungen der (reellen) Punktionsnadel N in den beiden 2D-Fluoroskopiebildern F1 und F2 bis auf eine vorgegebene tolerierbare Abweichung übereinstimmen, was über eine Abfrage (S10b) ermittelt wird, kann das Verfahren unmittelbar mit dem nächsten Schritt (S11) fortgesetzt werden. Andernfalls wird die Lage des Raumpunktes P3(x3, y3, z3) der virtuellen Nadel N so lange durch iterative Veränderung nachjustiert (S10c), bis die Richtungen beider 2D-Projektionen der Raumgerade g mit den projizierten Raumrichtungen der reellen Punktionsnadel N in den beiden 2D-Fluaroskopiebildern F1 und F2 bis auf einen vorgebbaren Abweichungsbetrag übereinstimmen. In dem darauf folgenden Schritt S11 wird dann die Angulationsrichtung des C-Bogens so festgelegt, dass die Projektionsrichtung p →R der fluoroskopischen Durchleuchtung parallel zum Normalenvektor einer in der Parameterform bzw. in der Hesseschen Normalform gegebenen Interventionsebene E verläuft, deren Aufpunktvektor a →E durch den Ortsvektor OP →1 des Raumpunktes P1(x1, y1, z1) in dem dreidimensionalen kartesischen Koordinatensystem K beschrieben wird und die von zwei Richtungsvektoren r →E1 und r →E2 aufgespannt wird, welche durch den Differenzvektor P →1P →2 zwischen den Ortsvektoren OP →1 und OP →2 des durch die beiden Raumpunkte P1(x1, y1, z1) und P2(x2, y2, z2) gegebenen Punktepaares bzw. durch den Differenzvektor P →1P →3 zwischen den Ortsvektoren OP →1 und OP →3 des durch die beiden Raumpunkte P1(x1, y1, z1) und P3(x3, y3, z3) gegebenen Punktepaares in diesem Koordinatensystem K gebildet werden. Das System prüft dabei automatisch, ob eine mögliche Kollision des C-Bogens vorliegt (S12). Sofern dies nicht der Fall ist, kann eine entsprechende Angulationsrichtung automatisch eingestellt werden (S13a), oder es wird eine Information an den Arzt ausgegeben, welche beinhaltet, welche Angulationsrichtung der Arzt manuell einstellen soll (S13a'). Bei Vorliegen eines Kollisionsbedingung wird der Arzt vom System darüber informiert, und es werden Vorschläge dahingehend unterbreitet, welche Einstellungen vorzunehmen sind, damit die CT-gestützte Untersuchung kollisionsfrei durchgeführt werden kann. Dies kann beispielsweise dadurch geschehen, dass die Ortskoordinaten x1, y1 und/oder z1 des Punktionsziels P1(x1, y1, z1) variiert werden (S13b). Der neue Zielpunkt muss natürlich innerhalb des interessierenden Zielgebiets ZG liegen und von dem behandelnden Arzt akzeptiert werden, bevor er von dem System übernommen werden kann. Alternativ dazu kann auch eine neue Einstichstelle P0(x0, y0, z0) der Punktionsnadel N vorgeschlagen werden (S13b'), die wiederum erst von dem behandelnden Arzt akzeptiert werden muss. In letzterem Fall müssen dann die Schritte S3 bis S13a/b bzw. S13a'/b' wiederholt werden. Wenn schließlich die Angulationsrichtung des C-Bogens so eingestellt ist, dass die Durchleuchtung parallel zum Normalenvektor n →E der Interventionsebene E erfolgt, wird das Dreieck ΔP1P2P3 in das bei dieser Durchleuchtung generierte Fluoroskopiebild F3 hineinprojiziert. Um die verschiedenen geometrischen Elemente – d. h. die drei Raumpunkte P1, P2 und P3, das Dreieck ΔP1P2P3, die die beiden Raumpunkte P2 und P3 verbindende Raumgerade g und/oder die Interventionsebene E, in der die drei Raumpunkte P1, P2 und P3 liegen – zu kennzeichnen, können bei einer grafischen Visualisierung auf dem Anzeigebildschirm eines Bildschirm-Terminals z. B. verschiedene Farben verwendet werden. - Darüber hinaus kann auch eine durch die nachfolgende Parametergleichung gegebene, in der Interventionsebene E liegende Gerade h eingezeichnet werden, welche die beiden Raumpunkte P3 und P1 miteinander verbindet und somit den idealen Einstichpfad der Punktionsnadel N beschreibt, beispielsweise in grüner Farbe. Dabei sollten die Ortskoordinaten x3, y3 und z3 des Raumpunkts P3 günstigerweise nahe der Einstichstelle P0 gewählt werden. Der Arzt hat dann die Möglichkeit, die Nadel N zurückzuziehen und gleich auf den durch Aufpunktvektor a →h = OP →3 und Richtungsvektor r →h = P →3P →1 der Geraden h vorgegebenen korrekten Einstichpfad zu bringen. Falls die Punktionsnadel N vom idealen Einstichpfad abweicht, kann z. B. vorgesehen sein, dass der auf dem Anzeigebildschirm dargestellte Zielpunkt rot blinkt.
- Die Tatsache, dass die fluoroskopische Durchleuchtung in einer Raumrichtung p →R parallel zum Normalenvektor n →E der Interventionsebene E erfolgt, bietet eine vorteilhafte Kontrollmöglichkeit für die Nadelführung. Falls der Einstichpfad aus der Interventionsebene E herausführt, erscheint die Punktionsnadel N in der 2D-Projektion des Fluoroskopiebildes F3 abhängig vom Winkelbetrag der jeweiligen Richtungsabweichung mehr oder weniger verkürzt. Neben Lageabweichungen sind infolge der projektiven Verkürzung also auch Richtungsabweichungen der (reellen) Punktionsnadel N vom grün dargestellten Idealpfad in der Interventionsebene E direkt aus dem fluoroskopischen Durchleuchtungsbild F3 ersichtlich. Diese Information kann dann entweder von dem behandelnden Arzt visuell wahrgenommen (S14a) und bei der Nadelführung berücksichtigt (S14b) werden oder vom Regelungs- und Steuerungssystem eines steuerbaren Punktionsroboters R als Sollwert-Istwert-Abweichung (Regeldifferenz) erfasst (S14a'), ausgewertet (S14b') und in eine Stellgröße umgesetzt werden (S14c'), die dann im Rahmen einer automatischen Nadelführung zur Richtungskorrektur (Nachjustierung) des Einstichpfads verwendet wird (S14d'). Durch die Verwendung eines solchen Punktionsroboters kann die Zielgenauigkeit und Reproduzierbarkeit der Nadelführung im Vergleich zur Nadelführung durch einen behandelnden Arzt wesentlich gesteigert werden. Der direkte Austausch der geometrischen Sollwert- und Istwert-Daten des Einstichpfads zwischen dem bildgebenden System des C-Bogen-Geräts und dem Punktionsroboter R erlaubt dabei eine weitgehende Automatisierung des Interventionsverfahrens. Allerdings obliegt es auch dabei naturgemäß immer dem behandelnden Arzt, die Ortskoordinaten x1, y1 und z1 des Punktionsziels P1(x1, y1, z1) vorzugeben und anatomisch günstige Zugangswege zu den im Rahmen einer CT-gesteuerten Intervention zu punktierenden Gewebebereichen auszuwählen, so dass beim Einstechen der Punktionsnadel N kein Knochengewebe im Weg ist und keine Blutgefäße, Nervenstränge oder inneren Organe verletzt werden. Aus diesem Grund wird bei dem erfindungsgemäßen Verfahren zuerst ein Probestich ausgeführt, dessen Einstichpfad durch Aufpunktvektor a →g = OP →2 und Richtungsvektor r →g = P →2P →3 der Geraden g und damit durch die Ortskoordinaten der beiden Raumpunkte P2 und P3 festgelegt ist, also durch Versuchskoordinaten, die von dem behandelnden Arzt vorgegeben werden.
- Im Gegensatz zu einem aus dem Stand der Technik bekannten Verfahren, bei dem als idealer Einstichpfad die Verbindungsgerade zwischen dem Einstichpunkt P0(x0, y0, z0) und dem Punktionsziel P1(x1, y1, z1) (im Folgenden bezeichnet als „Sollgerade”) festgelegt ist, welche jeweils durch drei kartesische Ortskoordinaten in dem durch das kartesische Koordinatensystem K aufgespannten 3D-Raum definiert sind, und bei dem Fluoroskopiebilder aus mindestens zwei Angulationsrichtungen des C-Bogens aufgenommen werden müssen, in denen die Punktionsnadel N in unterschiedlichen 2D-Projektionsdarstellungen abgebildet ist, um die aktuelle Lage der Punktionsnadel N und die Richtung des Nadelvorschubs mit dem räumlichen Verlauf der Sollgeraden h' zu vergleichen, der durch deren Aufpunktvektor a →h' = OP →0 und Richtungsvektor r →h' = P →0P →1 vorgegeben ist, ist eine derartige Vorgehensweise bei dem erfindungsgemäßen Verfahren nicht mehr erforderlich. Ein weiterer Nachteil des oben beschriebenen herkömmlichen Verfahrens besteht darin, dass der aktuelle Einstichpunkt P0(x0, y0, z0) in der 3D-Ansicht M' des Zielgebiets ZG nicht darstellbar ist, da er nicht zugleich in beiden der aus mindestens zwei verschiedenen Angulationsrichtungen, d. h. unter verschiedenen Projektionswinkeln aufgenommenen zweidimensionalen fluoroskopischen Durchleuchtungsbilder F1 und F2 dargestellt werden kann. Beide Nachteile werden mit Hilfe des erfindungsgemäßen Verfahrens, welches einen Probestich an einem nahe der vorgesehenen Einstichstelle P0(x0, y0, z0) gelegenen Raumpunkt P3(x3, y3, z3) auf der Körperoberfläche des Patienten vorsieht, umgangen, da die Koordinaten von P3 vorteilhafterweise so gewählt werden, dass dieser Raumpunkt in den unter beiden Angulationsrichtungen generierten 2D-Fluoroskopiebildern sichtbar ist und somit auch im 3D-Raum dargestellt werden kann. Aufgrund der erfindungsgemäß vorgegebenen Orthogonalität zwischen der Projektionsrichtung p →R bei Durchführung der fluoroskopischen Durchleuchtung und den Richtungsvektoren r →E1 und r →E2 der Interventionsebene E kann der C-Bogen des bildgebenden C-Bogen-Geräts während der gesamten CT-gesteuerten Intervention in einer stationären Angulation verbleiben.
- Um die Detektion der beiden an geeignet festgelegten Stellen der Punktionsnadel N befindlichen Raumpunkte P2 und P3 zu erleichtern und zuverlässiger zu machen, kann darüber hinaus erfindungsgemäß vorgesehen sein, dass an den betreffenden Stellen an der Spitze bzw. auf der Oberfläche der Punktionsnadel N zwei punktförmige Objektmarkierungen angebracht sind. Da der Abstand zwischen diesen beiden Objektmarkierungen (d. h. der Abstand der durch den Raumpunkt P3 bezeichneten Stelle der Punktionsnadel N zur Nadelspitze) bekannt ist, kann er bei bekannter Raumrichtung der Punktionsnadel N vorteilhaft zur genauen Bestimmung der 3D-Position des Raumpunktes P3 verwendet werden.
- Nach einer mit Hilfe einer Zwei-Ebenen-Durchleuchtungsanlage (Biplansystem) durchgeführten Variante des erfindungsgemäßen Verfahrens, welches in dem Ablaufdiagramm in
3 dargestellt ist, kann vorgesehen sein, dass alternativ zu Schritt S11 eine zur Interventionsebene E senkrecht verlaufende Projektionsebene EP1 (im Folgenden auch als „erste Durchleuchtungsebene” bezeichnet) anguliert wird (S15). Analog zu den unter Bezugnahme auf das in2 skizzierte Ablaufdiagramm beschriebenen Verfahrensschritten S14a und S14b bzw. S14a' bis S14d' wird die Navigation der Punktionsnadel N in der Interventionsebene E dann mittels fluoroskopischer Durchleuchtung der zu behandelnden Gewebebereiche in dieser ersten Durchleuchtungsebene EP1 erfasst (S16a) und bei Detektion einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel N und dem durch den Verlauf der grün dargestellten Raumgerade h vorgegebenen idealen Einstichpfad entsprechend nachjustiert (S16b), so dass die Regelabweichung in dem 2D-Fluoroskopiebild F1' dieser ersten Durchleuchtungsebene EP1 nach erfolgter Nachjustierung kleiner als der vorgegebene Winkelbetrag ist bzw. der Einstichpfad im günstigsten Fall mit dem grün dargestellten Idealpfad übereinstimmt. Im Anschluss daran wird das zu behandelnde Gewebe in einer weiteren, zur Interventionsebene E senkrecht verlaufende Projektionsebene EP2 (nachfolgend auch als „zweite Durchleuchtungsebene” bezeichnet) durchleuchtet (S17), die nicht unbedingt exakt orthogonal zur ersten Durchleuchtungsebene EP1 verlaufen muss. Die Interventionsebene E wird dabei in der 2D-Projektionsdarstellung dieser zweiten Durchleuchtungsebene EP2 als Gerade gEP2 / E EP2 / E EP2 / E EP2 / E - Anstelle der Interventionsebene E kann in Schritt S17 auch der Normalenvektor n →s dieser Ebene in die zweite Durchleuchtungsebene EP2 projiziert werden (S17'). In diesem Fall muss die Navigation der Punktionsnadel N in der Interventionsebene E bei Erfassung einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel N und dem durch den Verlauf eines zu dem Normalenvektor n →E orthogonalen Richtungsvektors r →E vorgegebenen idealen Einstichpfad entsprechend nachjustiert, d. h. an die Richtung dieses Richtungsvektors r →E angepasst werden (S18b'), so dass die Regelabweichung in dem 2D-Fluoroskopiebild F2' dieser zweiten Durchleuchtungsebene EP2 nach erfolgter Nachjustierung kleiner als der vorgegebene Winkelbetrag ist bzw. der Einstichpfad im günstigsten Fall mit dem blau dargestellten Idealpfad übereinstimmt. In diesem Fall muss die Punktionsnadel N also orthogonal zum Normalenvektor n →E der Interventionsebene E vorgeschoben werden.
- Erfindungsgemäß kann auch vorgesehen sein, dass der unter Bezugnahme auf das in
2 dargestellte Ablaufdiagramm beschriebene Schritt S4, welcher sich auf die Generierung mindestens einer die aktuelle Lage der Punktionsnadel N darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F1 und F2) aus jeder von mindestens zwei verschiedenen Angulationsrichtungen bezieht, mit Hilfe eines Biplansystems durchgeführt wird.
Claims (12)
- Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene (E), wobei aus der Interventionsebene (E) herausführende Richtungsabweichungen des Ist-Verlaufs eines interventionellen Werkzeugs (W) von einem vorgebbaren Soll-Verlauf (h) durch Registrierung der verkürzt dargestellten Gesamtlänge oder einer verkürzt dargestellten Teillänge dieses interventionellen Werkzeugs (W) in der 2D-Projektionsdarstellung einer fluoroskopischen Durchleuchtungsaufnahme (F3), die in einer zur Interventionsebene (E) normal verlaufenden 2D-Projektionsrichtung (p →R) aufgenommen wurde, erfasst und zur Anzeige gebracht werden, und wobei es sich bei dem interventionellen Werkzeug (W) um eine Punktionsnadel (N) handelt, die zur Durchführung einer unter CT- bzw. MRT-gestützter bildgebender Kontrolle nach örtlicher Betäubung durchgeführten histologischen Gewebeprobenentnahme oder im Rahmen einer Tumor- bzw. Schmerztherapie verwendet wird, aufweisend die folgenden Schritte: Generierung (S1) einer 3D-Aufnahme (M) eines darzustellenden Bildobjekts (BO) bzw. Zielgebiets (ZG) oder Umrechnung (S1') präinterventionell akquirierter Bilddaten in einen Volumendatensatz einer rekonstruierten 3D-Ansicht (M') dieses Bildobjekts (BO) bzw. Zielgebiets (ZG), Festlegung (S2) der Raumkoordinaten (x1, y1 und z1) eines zu erreichenden Punktionsziels (P1) in dem akquirierten dreidimensionalen Datensatz, bezogen auf ein dreidimensionales kartesisches Ortskoordinatensystem (K) mit geeignet festgelegtem Koordinatenursprung (O), Festlegung (S3a) der Raumkoordinaten (x0, y0 und z0) einer Einstichstelle P0(x0, y0, z0) in dem dreidimensionalen kartesischen Ortskoordinatensystem (K) und Einführung (S3b) der Punktionsnadel (N) in einen zu untersuchende Gewebebereich im Zielgebiet (ZG) um einen vorgebbaren Längenbetrag in einer vorgebbaren Richtung, Generierung (S4) mindestens einer die aktuelle Lage der Punktionsnadel (N) darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F1 und F2) aus jeder von mindestens zwei verschiedenen Projektionsrichtungen, Detektion (S5a) und Kennzeichnung (S5b) des Ortes der Nadelspitze (P2) in den 2D-Projektionsaufnahmen (F1 und F2) dieser beiden Projektionsrichtungen, Berechnung (S6) der Ortskoordinaten (x2, y2 und z2) des Raumpunktes P2 in dem dreidimensionalen kartesischen Ortskoordinatensystem (K), ausgehend von den 2D-Positionen dieses Raumpunkts (P2) in den beiden generierten 2D-Fluoroskopiebildern (F1 und F2), Schätzung (S7a) der 2D-Positionen eines weiteren, geeignet festgelegten Raumpunktes (P3) der Punktionsnadel (N) in den 2D-Projektionsaufnahmen der beiden Projektionsrichtungen und Kennzeichnung (S7b) des Ortes dieses Raumpunkts (P3) in den beiden generierten 2D-Projektionsaufnahmen (F1 und F2), Berechnung (S8) der Ortskoordinaten (x3, y3 und z3) des Raumpunktes P3 in dem dreidimensionalen kartesischen Ortskoordinatensystem (K), ausgehend von den geschätzten 2D-Positionen dieses Raumpunkts (P3) in den beiden generierten 2D-Fluoroskopiebildern (F1 und F2), und Nachjustierung (S10c) der Lage des Raumpunktes P3 durch iterative Veränderung seiner Position, bis die Richtungen der 2D-Projektionen einer die Raumpunkte P2 und P3 miteinander verbindenden (S9) Raumgerade (g) mit den projizierten Raumrichtungen der Punktionsnadel (N) in den beiden generierten 2D-Fluoroskopiebildern (F1 und F2) bis auf einen vorgebbaren Abweichungsbetrag übereinstimmen.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die erfassten Richtungsabweichungen des interventionellen Werkzeugs (W) in eine Stellgröße zur Ansteuerung eines Aktuatorsystems (AS) umsetzt werden, das die Richtungsabweichungen durch Gegensteuerung kompensiert.
- Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Aktuatorsystem (AS) Teil eines steuerbaren Punktionsroboters (R) ist, der zur zielgenauen Führung der Punktionsnadel (N) beim Nadelvorschub verwendet wird.
- Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass in Schritt S4 die Generierung der mindestens einen die aktuelle Lage der Punktionsnadel (N) darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F1 und F2) aus jeder von mindestens zwei verschiedenen Projektionsrichtungen mit Hilfe eines C-Bogen-Röntgenaufnahmegeräts durchgeführt wird.
- Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass in Schritt S4 die Generierung der mindestens einen die aktuelle Lage der Punktionsnadel (N) darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F1 und F2) aus jeder von mindestens zwei verschiedenen Projektionsrichtungen mit Hilfe einer Zwei-Ebenen-Durchleuchtungsanlage (Biplansystem) durchgeführt wird.
- Verfahren nach einem der Ansprüche 1 bis 5, gekennzeichnet durch den Schritt der Detektion zweier punktförmiger Objektmarkierungen, die an den durch die beiden Raumpunkte P2 und P3 festgelegten Stellen an der Spitze bzw. auf der Oberfläche der Punktionsnadel (N) angebracht sind.
- Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene (E) mit Hilfe einer Zwei-Ebenen-Durchleuchtungsanlage (Biplansystem), dadurch gekennzeichnet, dass aus der Interventionsebene (E) herausführende Richtungsabweichungen des Ist-Verlaufs eines interventionellen Werkzeugs (W) von einem vorgebbaren Soll-Verlauf durch Registrierung zweier Winkelbeträge in den 2D-Projektionsdarstellungen zweier fluoroskopischer Durchleuchtungsaufnahmen (F1' und F2'), die in zwei verschiedenen, zur Interventionsebene (E) normal verlaufenden Projektionsebenen (EP1 bzw. EP2) aufgenommen wurden, erfasst und zur Anzeige gebracht werden, wobei es sich bei den beiden Winkelbeträgen um die Richtungsabweichungen zwischen einer durch 2D-Projektion der Interventionsebene (E) in der betreffenden Projektionsebene (EP1 bzw. EP2) abgebildeten Sollgeraden (h bzw. g
EP2 / E - Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die erfassten Richtungsabweichungen des interventionellen Werkzeugs (W) in eine Stellgröße zur Ansteuerung eines Aktuatorsystems (AS) umgesetzt werden, das die Richtungsabweichungen durch Gegensteuerung kompensiert.
- Verfahren nach einem der Ansprüche 7 oder 8, dadurch gekennzeichnet, dass es sich bei dem interventionellen Werkzeug (W) um eine Punktionsnadel (N) handelt, die zur Durchführung einer unter CT- bzw. MRT-gestützter bildgebender Kontrolle nach örtlicher Betäubung durchgeführten histologischen Gewebeprobenentnahme oder im Rahmen einer Tumor- bzw. Schmerztherapie verwendet wird.
- Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass das Aktuatorsystem (AS) Teil eines steuerbaren Punktionsroboters (R) ist, der zur zielgenauen Führung der Punktionsnadel (N) beim Nadelvorschub verwendet wird.
- Verfahren nach einem der Ansprüche 9 oder 10, gekennzeichnet durch die Ausführung der folgenden Schritte: – Generierung (S15) einer die aktuelle Lage der Punktionsnadel (N) darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F1') in einer ersten, zur Interventionsebene (E) normal verlaufende Projektionsebene (EP1), – Erfassung (S16a) der Nadelführungsrichtung in dieser ersten Projektionsebene (EP1) und Nachjustierung (S16b) der Nadelführungsrichtung bei Detektion einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel (N) und einem idealen Einstichpfad, der durch den Verlauf einer durch 2D-Projektion der Interventionsebene (E) in die erste Projektionsebene (EP1) abgebildeten Sollgeraden (h) vorgegeben wird, auf einen Wert, der entweder einen vorgegebenen Winkelbetrag unterschreitet oder die Richtungsabweichung in dieser ersten Projektionsebene (EP1) vollständig kompensiert, – Generierung (S17) einer weiteren, die aktuelle Lage der Punktionsnadel (N) darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F2') in einer zweiten, zur Interventionsebene (E) normal verlaufende Projektionsebene (E), – Erfassung (S18a) der Nadelführungsrichtung in dieser zweiten Projektionsebene (EP2) und Nachjustierung (S18b) der Nadelführungsrichtung bei Detektion einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel (N) und einem idealen Einstichpfad, der durch den Verlauf einer durch 2D-Projektion der Interventionsebene (E) in die zweite Projektionsebene (EP2) abgebildeten Sollgeraden (g
EP2 / E - Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass in Schritt S17 anstelle der Interventionsebene (E) der Normalenvektor (n →E) dieser Ebene in die zweite Projektionsebene (EP2) hineinprojiziert wird (S17') und die Navigation der Punktionsnadel (N) in der Interventionsebene (E) bei Erfassung einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel (N) und dem durch den Verlauf eines zu dem Normalenvektor (n →E) orthogonalen Richtungsvektors (r →E) vorgegebenen idealen Einstichpfad (Sollpfad) an die Richtung dieses Richtungsvektors (r →E) angepasst wird (S18b'), so dass die Regelabweichung in der fluoroskopischen 2D-Durchleuchtungsaufnahme (F2') der zweiten Projektionsebene (EP2) nach erfolgter Nachjustierung kleiner als der vorgegebene Winkelbetrag ist bzw. der Einstichpfad im günstigsten Fall mit dem Sollpfad übereinstimmt.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007013807.7A DE102007013807B4 (de) | 2007-03-22 | 2007-03-22 | Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene |
US12/077,631 US9406134B2 (en) | 2007-03-22 | 2008-03-20 | Image system for supporting the navigation of interventional tools |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007013807.7A DE102007013807B4 (de) | 2007-03-22 | 2007-03-22 | Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102007013807A1 DE102007013807A1 (de) | 2008-09-25 |
DE102007013807B4 true DE102007013807B4 (de) | 2014-11-13 |
Family
ID=39713072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102007013807.7A Active DE102007013807B4 (de) | 2007-03-22 | 2007-03-22 | Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene |
Country Status (2)
Country | Link |
---|---|
US (1) | US9406134B2 (de) |
DE (1) | DE102007013807B4 (de) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8090166B2 (en) | 2006-09-21 | 2012-01-03 | Surgix Ltd. | Medical image analysis |
IL184151A0 (en) | 2007-06-21 | 2007-10-31 | Diagnostica Imaging Software Ltd | X-ray measurement method |
JP5380121B2 (ja) * | 2008-06-09 | 2014-01-08 | 株式会社東芝 | 超音波診断装置 |
WO2009153789A1 (en) | 2008-06-18 | 2009-12-23 | Surgix Ltd. | A method and system for stitching multiple images into a panoramic image |
US8337512B2 (en) * | 2008-12-08 | 2012-12-25 | Siemens Aktiengesellschaft | Device and workflow for minimally-invasive therapy, in particular needle guidance |
DE202010018601U1 (de) * | 2009-02-18 | 2018-04-30 | Google LLC (n.d.Ges.d. Staates Delaware) | Automatisches Erfassen von Informationen, wie etwa Erfassen von Informationen unter Verwendung einer dokumentenerkennenden Vorrichtung |
DE102010018872A1 (de) * | 2010-04-30 | 2011-11-03 | Siemens Aktiengesellschaft | Bildgebendes Verfahren zur hervorgehobenen Darstellung von Gefäßen in einem Untersuchungsbereich eines Patienten und Medizinsystem zur Durchführung des Verfahrens |
DE102010023027A1 (de) * | 2010-06-08 | 2011-12-08 | Hans-Udo Eickenberg | Verfahren und Vorrichtung zum Erkennen und Erfassen eines nicht intakten Bereiches in einem Untersuchungsobjekt oder eines krankhaften, inbesondere malignen Gewebebereichs in einem Körper, insbesondere in der Prostata, sowie zur Festlegung eines Weges zur gezielten Probeentnahme mittels Instrument aus dem Inneren des Untersuchungsobjektes, insbesondere zur gezielten Gewebeentnahme (Biopsie) mittels Instrument (Nadel) aus dem Körper, insbesondere aus der Prostata |
US20130322726A1 (en) * | 2011-02-15 | 2013-12-05 | Surgix Ltd. | Methods, apparatuses, assemblies, circuits and systems for assessing, estimating and/or determining relative positions, alignments, orientations and angles of rotation of a portion of a bone and between two or more portions of a bone or bones |
DE102012205949B4 (de) | 2012-04-12 | 2018-07-19 | Siemens Healthcare Gmbh | Bildgebung mit einem C-Bogen-Angiographiesystem für eine Bronchoskopie |
CA2878861A1 (en) * | 2012-07-12 | 2014-01-16 | Ao Technology Ag | Method for generating a graphical 3d computer model of at least one anatomical structure in a selectable pre-, intra-, or postoperative status |
WO2014160766A1 (en) | 2013-03-26 | 2014-10-02 | The Johns Hopkins University | Task-based source-detector trajectories for tomographic imaging |
US9986983B2 (en) | 2014-10-31 | 2018-06-05 | Covidien Lp | Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same |
US10716525B2 (en) | 2015-08-06 | 2020-07-21 | Covidien Lp | System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction |
US10702226B2 (en) | 2015-08-06 | 2020-07-07 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10674982B2 (en) | 2015-08-06 | 2020-06-09 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US11172895B2 (en) | 2015-12-07 | 2021-11-16 | Covidien Lp | Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated |
JP6615603B2 (ja) * | 2015-12-24 | 2019-12-04 | キヤノンメディカルシステムズ株式会社 | 医用画像診断装置および医用画像診断プログラム |
US11051886B2 (en) | 2016-09-27 | 2021-07-06 | Covidien Lp | Systems and methods for performing a surgical navigation procedure |
US10699448B2 (en) | 2017-06-29 | 2020-06-30 | Covidien Lp | System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data |
CN111163697B (zh) | 2017-10-10 | 2023-10-03 | 柯惠有限合伙公司 | 用于在荧光三维重构中识别和标记目标的***和方法 |
US10905498B2 (en) | 2018-02-08 | 2021-02-02 | Covidien Lp | System and method for catheter detection in fluoroscopic images and updating displayed position of catheter |
US10832436B2 (en) * | 2018-04-05 | 2020-11-10 | Symbol Technologies, Llc | Method, system and apparatus for recovering label positions |
US20210085211A1 (en) * | 2019-09-24 | 2021-03-25 | Covidien Lp | Systems and methods for image-guided navigation of percutaneously- inserted devices |
US11514624B2 (en) * | 2020-03-16 | 2022-11-29 | GE Precision Healthcare LLC | Methods and systems for biopsy needle reconstruction error assessment |
CN111513740B (zh) * | 2020-04-13 | 2023-09-12 | 北京东软医疗设备有限公司 | 血管造影机的控制方法、装置、电子设备、存储介质 |
WO2022094060A1 (en) | 2020-10-30 | 2022-05-05 | Mako Surgical Corp. | Robotic surgical system with slingshot prevention |
CN114587584B (zh) * | 2022-03-04 | 2023-10-03 | 杭州湖西云百生科技有限公司 | 提高骨科置钉操作安全性的导航***可视化方法及*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004061591B3 (de) * | 2004-12-21 | 2006-08-03 | Siemens Ag | Verfahren zum Betrieb eines bildgebenden medizinischen Gerätes |
DE102005012698A1 (de) * | 2005-03-18 | 2006-08-10 | Siemens Ag | Verfahren und Vorrichtung zur Navigation eines medizinischen Instruments in einer Gefäßstruktur eines Körpers |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6314310B1 (en) * | 1997-02-14 | 2001-11-06 | Biosense, Inc. | X-ray guided surgical location system with extended mapping volume |
US5930329A (en) * | 1997-09-22 | 1999-07-27 | Siemens Corporate Research, Inc. | Apparatus and method for detection and localization of a biopsy needle or similar surgical tool in a radiographic image |
US20030135115A1 (en) * | 1997-11-24 | 2003-07-17 | Burdette Everette C. | Method and apparatus for spatial registration and mapping of a biopsy needle during a tissue biopsy |
JP4443672B2 (ja) * | 1998-10-14 | 2010-03-31 | 株式会社東芝 | 超音波診断装置 |
US6546279B1 (en) * | 2001-10-12 | 2003-04-08 | University Of Florida | Computer controlled guidance of a biopsy needle |
US6785572B2 (en) * | 2001-11-21 | 2004-08-31 | Koninklijke Philips Electronics, N.V. | Tactile feedback and display in a CT image guided robotic system for interventional procedures |
US7169155B2 (en) * | 2001-12-14 | 2007-01-30 | Scimed Life Systems, Inc. | Methods and apparatus for guiding a needle |
AU2003299488B2 (en) * | 2002-05-10 | 2008-05-08 | Wisconsin Alumni Research Foundation | Low-temperature hydrocarbon production from oxygenated hydrocarbons |
EP1646317A1 (de) * | 2003-07-10 | 2006-04-19 | Koninklijke Philips Electronics N.V. | Vorrichtung und verfahren zur navigation eines instrumentes durch eine anatomische struktur |
WO2005067800A1 (en) * | 2004-01-13 | 2005-07-28 | Robarts Research Institute | An ultrasound imaging system and methods of imaging using the same |
WO2006043639A1 (ja) * | 2004-10-20 | 2006-04-27 | Kabushiki Kaisha Toshiba | 超音波診断装置及びその制御方法 |
US8046051B2 (en) * | 2005-03-29 | 2011-10-25 | Koninklijke Philips Electronics N.V. | Method and apparatus for the observation of a catheter within a vessel system |
-
2007
- 2007-03-22 DE DE102007013807.7A patent/DE102007013807B4/de active Active
-
2008
- 2008-03-20 US US12/077,631 patent/US9406134B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004061591B3 (de) * | 2004-12-21 | 2006-08-03 | Siemens Ag | Verfahren zum Betrieb eines bildgebenden medizinischen Gerätes |
DE102005012698A1 (de) * | 2005-03-18 | 2006-08-10 | Siemens Ag | Verfahren und Vorrichtung zur Navigation eines medizinischen Instruments in einer Gefäßstruktur eines Körpers |
Also Published As
Publication number | Publication date |
---|---|
US20080242971A1 (en) | 2008-10-02 |
DE102007013807A1 (de) | 2008-09-25 |
US9406134B2 (en) | 2016-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007013807B4 (de) | Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene | |
DE102008017111B4 (de) | System und Verfahren zur Navigation eines Ojektes in einem abgebildeten Subjekt | |
DE102007013407B4 (de) | Verfahren und Vorrichtung zur Bereitstellung einer Korrekturinformation | |
DE102010020284A1 (de) | Bestimmung von 3D-Positionen und -Orientierungen von chirurgischen Objekten aus 2D-Röntgenbildern | |
DE102005059804A1 (de) | Verfahren und Vorrichtung zur Bewegungskorrektur bei der Bildgebung während einer medizinischen Intervention | |
DE10136709B4 (de) | Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten | |
DE102010020781B4 (de) | Bestimmung und Überprüfung der Koordinatentransformation zwischen einem Röntgensystem und einem Operationsnavigationssystem | |
JP2016193222A (ja) | 画像を分析するための方法および装置 | |
DE10323008A1 (de) | Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken | |
DE102005030646A1 (de) | Verfahren zur Kontur-Visualisierung von interessierenden Regionen in 2D-Durchleuchtungsbildern | |
DE102008044529A1 (de) | System und Verfahren zur Verwendung von Fluoroskop- und Computertomographie-Registrierung für Sinuplastie-Navigation | |
DE10333543A1 (de) | Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung | |
DE102013213727A1 (de) | Interventionelles Bildgebungssystem | |
DE102010062340A1 (de) | Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung | |
DE112021003530T5 (de) | System zur Unterstützung eines Benutzers bei der Platzierung einer Eindringungsvorrichtung in Gewebe | |
DE102011080682A1 (de) | Positionsbestimmung bei einer stereotaktischen Biopsie | |
DE102019200786A1 (de) | Bildgebendes medizinisches Gerät, Verfahren zum Unterstützen von medizinischem Personal, Computerprogrammprodukt und computerlesbares Speichermedium | |
EP1464285B1 (de) | Perspektivische Registrierung und Visualisierung interner Körperbereiche | |
EP3626176B1 (de) | Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system | |
WO2023275158A1 (de) | Chirurgisches assistenzsystem mit verbesserter registrierung und registrierverfahren | |
DE102012200686A1 (de) | Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung | |
DE10137914B4 (de) | Verfahren zur Ermittlung einer Koordinatentransformation für die Navigation eines Objekts | |
DE102005022541A1 (de) | Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild | |
DE102008054298B4 (de) | Verfahren und Vorrichtung zur 3D-Visualisierung eines Eingriffspfades eines medizinischen Instrumentes, eines medizinischen Instrumentes und/oder einer bestimmten Gewebestruktur eines Patienten | |
WO2012025081A2 (de) | Verfahren zur simultanen, parallelen, kontinuierlichen darstellung von gespeicherten, hochaufgelösten diagnostischen 3-d-bilddaten und 2-d-echtzeitschnittbilddaten während einer medizinischen intervention eines patienten und anordnung zur durchführung dieses verfahrens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8120 | Willingness to grant licences paragraph 23 | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
R409 | Internal rectification of the legal status completed | ||
R409 | Internal rectification of the legal status completed | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHCARE GMBH, DE Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: A61B0090000000 Ipc: A61B0034200000 |