DE102007013807B4 - Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene - Google Patents

Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene Download PDF

Info

Publication number
DE102007013807B4
DE102007013807B4 DE102007013807.7A DE102007013807A DE102007013807B4 DE 102007013807 B4 DE102007013807 B4 DE 102007013807B4 DE 102007013807 A DE102007013807 A DE 102007013807A DE 102007013807 B4 DE102007013807 B4 DE 102007013807B4
Authority
DE
Germany
Prior art keywords
projection
fluoroscopic
puncture
needle
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102007013807.7A
Other languages
English (en)
Other versions
DE102007013807A1 (de
Inventor
Dr. Klingenbeck-Regn Klaus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102007013807.7A priority Critical patent/DE102007013807B4/de
Priority to US12/077,631 priority patent/US9406134B2/en
Publication of DE102007013807A1 publication Critical patent/DE102007013807A1/de
Application granted granted Critical
Publication of DE102007013807B4 publication Critical patent/DE102007013807B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30052Implant; Prosthesis

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene (E), wobei aus der Interventionsebene (E) herausführende Richtungsabweichungen des Ist-Verlaufs eines interventionellen Werkzeugs (W) von einem vorgebbaren Soll-Verlauf (h) durch Registrierung der verkürzt dargestellten Gesamtlänge oder einer verkürzt dargestellten Teillänge dieses interventionellen Werkzeugs (W) in der 2D-Projektionsdarstellung einer fluoroskopischen Durchleuchtungsaufnahme (F3), die in einer zur Interventionsebene (E) normal verlaufenden 2D-Projektionsrichtung (p→ R) aufgenommen wurde, erfasst und zur Anzeige gebracht werden, und wobei es sich bei dem interventionellen Werkzeug (W) um eine Punktionsnadel (N) handelt, die zur Durchführung einer unter CT- bzw. MRT-gestützter bildgebender Kontrolle nach örtlicher Betäubung durchgeführten histologischen Gewebeprobenentnahme oder im Rahmen einer Tumor- bzw. Schmerztherapie verwendet wird, aufweisend die folgenden Schritte: Generierung (S1) einer 3D-Aufnahme (M) eines darzustellenden Bildobjekts (BO) bzw. Zielgebiets (ZG) oder Umrechnung (S1') präinterventionell akquirierter Bilddaten in einen Volumendatensatz einer rekonstruierten 3D-Ansicht (M') dieses Bildobjekts (BO) bzw. Zielgebiets (ZG), Festlegung (S2) der Raumkoordinaten (x1, y1 und z1) eines zu erreichenden Punktionsziels (P1) in dem akquirierten dreidimensionalen Datensatz, bezogen auf ein dreidimensionales kartesisches Ortskoordinatensystem (K) mit geeignet festgelegtem Koordinatenursprung (O), Festlegung (S3a) der Raumkoordinaten (x0, y0 und z0) einer Einstichstelle P0(x0, y0, z0) in dem dreidimensionalen kartesischen Ortskoordinatensystem (K) und Einführung (S3b) der Punktionsnadel (N) in einen zu untersuchende Gewebebereich im Zielgebiet (ZG) um einen vorgebbaren Längenbetrag in einer vorgebbaren Richtung, Generierung (S4) mindestens einer die aktuelle Lage der Punktionsnadel (N) darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F1 und F2) aus jeder von mindestens zwei verschiedenen Projektionsrichtungen, Detektion (S5a) und Kennzeichnung (S5b) des Ortes der Nadelspitze (P2) in den 2D-Projektionsaufnahmen (F1 und F2) dieser beiden Projektionsrichtungen, Berechnung (S6) der Ortskoordinaten (x2, y2 und z2) des Raumpunktes P2 in dem dreidimensionalen kartesischen Ortskoordinatensystem (K), ausgehend von den 2D-Positionen dieses Raumpunkts (P2) in den beiden generierten 2D-Fluoroskopiebildern (F1 und F2), ...

Description

  • Die vorliegende Erfindung bezieht sich auf ein im Bereich der diagnostischen und interventionellen Radiologie anzuwendendes Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei der Durchführung von CT- bzw. MRT-gesteuerten minimal-invasiven Interventionen an inneren Organen, Gewebebereichen, Läsionen oder pathologischen Strukturen im Körperinneren eines Patienten in einer vorgegebenen Interventionsebene, welches dazu dient, die Präzision und Sicherheit interventioneller Eingriffe, die z. B. zur Durchführung einer unter CT- bzw. MRT-gestützter bildgebender Kontrolle nach örtlicher Betäubung erfolgenden histologischen Gewebeprobenentnahme (Biopsie) oder im Rahmen einer Tumor- bzw. Schmerztherapie erforderlich sind, zu verbessern. Veranschaulicht wird das erfindungsgemäße Verfahren anhand eines einsetzbaren Bildakquisitions-, Bildverarbeitungs- und Bildvisualisierungssystems.
  • Bei einem CT- bzw. MRT-gesteuerten interventionellen Eingriff werden zur Unterstützung und Kontrolle der Navigation dazu erforderlicher interventioneller Werkzeuge herkömmlicherweise unter fluoroskopischer Bildgebung in Echtzeit generierte 2D-Projektionsbilder von den zu behandelnden anatomischen Gewebebereichen, den verwendeten medizinischen Instrumenten und den sie umgebenden Regionen im Körperinneren eines zu behandelnden Patienten auf einem Anzeigebildschirm dargestellt. Zur Kontrolle eines solchen interventionellen Eingriffs mittels Röntgenbildgebung kann z. B. ein herkömmliches multidirektionales C-Bogen-Durchleuchtungssystem verwendet werden. Moderne C-Bogen-Geräte ermöglichen eine Rotationsakquisition von 2D-Projektionsaufnahmen abzubildender Gewebebereiche mit anschließender 3D-Rekonstruktion der akquirierten Bilddaten, welche dann in dreidimensional gerenderter Form visualisiert werden. Zu diesem Zweck wird aus den 2D-Projektionsaufnahmen der betreffenden Gewebebereiche unter Verwendung geeigneter digitaler Bildverarbeitungsfunktionen ein 3D-Datensatz errechnet. Was die Bildqualität und die Möglichkeiten der Visualisierung anbelangt, haben die resultierenden 3D-Abbildungen CT-ähnliche Eigenschaften.
  • In DE 10 2005 012 698 A1 ist ein Verfahren und eine Vorrichtung zur Navigation eines medizinischen Instruments in einer Gefäßstruktur eines Körpers offenbart, bei dem die Gefäßstruktur mit Hilfe eines bildverarbeitenden System anhand eines zuvor aufgenommenen Röntgenbildes eines zu untersuchenden Teilbereichs des Körpers automatisch erkannt und die Position des Instruments mit Hilfe eines passiven Ortungssystems in Bezug zu der Gefäßstruktur ermittelt wird.
  • Ferner ist in DE 10 2004 061 591 B3 ein Verfahren zum Betrieb eines bildgebenden medizinischen Gerätes offenbart, bei dem die Bildverfälschung, welche aufgrund der Verformung der Patientenliege während der Patientenverschiebung auftreten kann, auf Basis der Verzerrung/Veränderung der Liegengeometrie eben durch die Verformung im aktuellen Bild (z. B. Vergrößerung der Breite/Dicke des Liegenbretts) rückgerechnet wird.
  • Im Bereich der interventionellen Rotationsangiografie ist in diesem Zusammenhang insbesondere eine von der Firma Siemens entwickelte Technologie zu nennen, welche unter der Produktbezeichnung syngo DynaCT bekannt geworden ist. syngo DynaCT nutzt die Aufnahmen einer Rotationsangiografie und erstellt daraus ein Angiografie-CT-Bild (ACT). Bei einer C-Bogen-Rotation von 220° erfolgt die Bildakquisition typischerweise innerhalb von ca. 5 bis 10 Sekunden. Das aufgenommene Volumen kann dann direkt im Angiografieraum dreidimensional rekonstruiert werden. Die Einsatzgebiete von syngo DynaCT reichen von der Darstellung von Blutungen oder Pathologien des Hirnkammersystems bis hin zur Führung und Überprüfung von Punktionen und Drainagesystemen. Bei der Visualisierung von Tumoren und Metastasen, z. B. in der Leber, wird syngo DynaCT darüber hinaus auch zur Unterstützung therapeutischer Maßnahmen, wie z. B. der Embolisierung oder RF-Ablation, verwendet. Da syngo DynaCT bereits während der Durchführung eines interventionellen Eingriffs CT-ähnliche Bilder liefert, muss ein zu behandelnder Patient zwecks Generierung der Bilddaten zweidimensionaler Projektionsaufnahmen, die dann in einen Volumendatensatz umgerechnet und in grafischer Form zur Anzeige gebracht werden müssen, nicht mehr extra in einen Computertomografen umgelagert werden.
  • Alternativ zu syngo DynaCT können auch CT-, PET-CT- bzw. MRT-gestützte radiologische Bildgebungsverfahren zum Einsatz kommen, mit deren Hilfe Bilddaten zweidimensionaler Projektionsaufnahmen von interessierenden Gewebebereichen, Organen, Läsionen, anatomischen oder pathologischen Strukturen im Körperinneren eines zu behandelnden Patienten präinterventionell gewannen werden. Diese Bilddaten müssen dann erst in einen Volumendatensatz einer rekonstruierten 3D-Ansicht M der betreffenden Bildobjekte umgerechnet, mit den Bilddaten eines 2D-Fluoroskopiebildes F, welches die umliegenden Gewebebereiche dieser Bildobjekte zeigt, koregistriert, fusioniert und mit diesem zusammen grafisch visualisiert werden, bevor ein unter bildgebender Kontrolle durchzuführender interventioneller Eingriff erfolgen kann.
  • Zur Koregistrierung (engl.: „matching”) der beiden Bilder M und F müssen für die unter Umständen auf unterschiedliche Ortskoordinatensysteme bezogenen Datensätze eines in den beiden Abbildungen dargestellten identischen Bildobjekts BO die Lageversatz- und Winkelversatzparameter einer zwei- oder dreidimensionalen Koordinatentransformation ermittelt werden, welche die Koordinaten des einen Datensatzes in die Koordinaten des jeweils anderen Datensatzes überführt und somit die beiden Darstellungen des betreffenden Bildobjekts BO miteinander zur Deckung bringt. Um die Qualität dieser Überführung (d. h. die Güte der Bildüberlagerung bei einer Fusionierung beider Datensätze) zu optimieren, wird eine über einem Parameterraum definierte Bewertungsfunktion (Metrik) gebildet und einem durch eine Extremalbedingung ausdrückbaren Optimierungskriterium unterzogen, mit dessen Hilfe dann die Lageversatz- und Winkelversatzparameter gefunden werden können, für die die beiden Darstellungen des Bildobjekts BO am besten überlagert sind. Anders ausgedrückt, nimmt die Bewertungsfunktion also ihr Optimum für den Fall an, dass die beiden Datensätze korrekt registriert sind.
  • Zur Ermittlung der Lageversatz- und Winkelversatzparameter dienen dabei bestimmte Bildmerkmale (im Folgenden auch als „anatomische Landmarken” bezeichnet), die in den beiden zu matchenden Datensätzen des jeweiligen Bildobjekts BO enthalten sind und in einen räumlichen Zusammenhang zueinander gebracht werden können. Handelt es sich bei diesen Landmarken um künstlich angebrachte Markierungsobjekte, wird von „extrinsischer” Registrierung gesprochen. Hierbei wird vor der Bildaufnahme ein in den Bilddaten leicht zu detektierendes System von Orientierungspunkten am Patienten angebracht. Diese Fixpunkte lassen sich anschließend mathematisch relativ einfach in einen gemeinsamen Kontext bringen. In den meisten Fallen liegen die Bilddaten allerdings ohne künstlich hinzugefügte Landmarken vor. In diesem Fall handelt es sich um den Fall einer „intrinsischen” Registrierung. Die benötigten Bildmerkmale müssen dabei oft durch bildanalytische Verfahren gewonnen werden. Dies geschieht entweder durch Detektion anatomischer Landmarken, wobei es sich zum Beispiel um Kanten oder Oberflächen von Knochen, inneren Organen oder deutlich abgrenzbaren Gewebebereichen im Körperinneren des Patienten handeln kann, oder es findet vor dem Matching eine Segmentierung bestimmter Bildmerkmale statt, die in beiden Datensätzen enthalten sind. Intrinsische Bildmerkmale werden beispielsweise im Rahmen voxelbasierter Matchingverfahren verwendet, welche im letzten Jahrzehnt im Zuge der Erforschung intensitätsbasierter Algorithmen, die auf einer Auswertung von „Mutual Information” I(G1, G2) als Bewertungskriterium zur Quantifizierung der Güte einer Registrierung basieren, stark an Bedeutung gewonnen haben. Das durch den nachfolgenden Ausdruck
    Figure DE102007013807B4_0002
    gegebene Registrierungsmaß basiert auf der Kullback-Leiber-Divergenz (KLD) zwischen den zugehörigen Wahrscheinlichkeitsdichtefunktionen pG1(g1) und pG2(g2) der Grauwert-Verteilungen in den Datensätzen G1 und G2 zweier gemeinsam zu registrierender Bilder, wobei mit g1 und g2 zwei diskrete Zufallsvariablen für die enthaltenen Grauwerte in diesen beiden Bildern bezeichnet sind. Die Kullback-Leiber-Divergenz auf der rechten Seite der Formel liefert dabei eine Aussage darüber, wie stark die eine Verteilung von der anderen Verteilung abweicht, da sie ein Maß für die gegenseitige Abhängigkeit der beiden Zufallsvariablen g1 und g2 darstellt, welches für den Fall größtmöglicher statistischer Abhängigkeit (d. h. bei einer optimalen Registrierung) maximal und für den Fall völliger statistischer Unabhängigkeit (d. h. bei einer absoluten Fehlregistrierung) minimal ist. Da für die Ermittlung von I(G1, G2) lediglich die Grauwertinformation akquirierter Bilddaten herangezogen wird, ist hierzu prinzipiell kein a priori-Wissen oder eine Bildanalyse notwendig.
  • Der große Vorteil von syngo DynaCT gegenüber herkömmlichen Bildakquisitions- und Bildregistrierungssystemen besteht darin, dass visualisierte syngo DynaCT-Bilddatensätze aktuelle 3D-Ansichten von darzustellenden Bildobjekten im Körperinneren eines Patienten wiedergeben, die bereits auf das Ortskoordinatensystem eines 2D-Fluoroskopiebildes der umliegenden Gewebebereiche dieses Bildobjekts bezogen und mit dem 2D-Fluoroskopiebild optimal registriert sind, so dass die Verwendung anatomischer Landmarken zur Koregistrierung dreidimensional rekonstruierter Ansichten präinterventionell akquirierter Bilddaten des Bildobjekts mit den Bilddaten des 2D-Fluoroskopiebildes sowie die Verwendung eines intensitätsbasierten Registrierungsmaßes zur Quantifizierung der Güte dieser Registrierung entfallen können.
  • Ausgehend von dem oben genannten Stand der Technik, ist die vorliegende Erfindung der Aufgabe gewidmet, die Präzision und Sicherheit CT- bzw. MRT-gesteuerter, minimal-invasiver interventioneller Eingriffe durch Verbesserung der Zielgenauigkeit bei der Führung eines unter bildgebender Kontrolle geführten interventionellen Werkzeugs (wie z. B. einer Punktionsnadel) zu erhöhen.
  • Diese Aufgabe wird erfindungsgemäß durch die Merkmale der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsbeispiele, die den Gedanken der Erfindung weiterbilden, sind in den abhängigen Patentansprüchen definiert.
  • Die vorliegende Erfindung bezieht sich gemäß einem ersten Aspekt auf ein Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen an inneren Organen, Gewebebereichen, Läsionen oder pathologischen Strukturen im Körperinneren eines Patienten in einer vorgegebenen Interventionsebene. Das erfindungsgemäße Verfahren ist dadurch gekennzeichnet, dass aus der Interventionsebene herausführende Richtungsabweichungen des Ist-Verlaufs eines interventionellen Werkzeugs von einem vorgebbaren Soll-Verlauf durch Registrierung der verkürzt dargestellten Gesamtlänge oder einer verkürzt dargestellten Teillänge dieses interventionellen Werkzeugs in der 2D-Projektionsdarstellung einer fluoroskopischen Durchleuchtungsaufnahme, die in einer zur Interventionsebene normal verlaufenden 2D-Projektionsrichtung aufgenommen wurde, erfasst und zur Anzeige gebracht werden.
  • Die erfassten Richtungsabweichungen des interventionellen Werkzeugs können dabei erfindungsgemäß in eine Stellgröße zur Ansteuerung eines Aktuatorsystems umsetzt werden, das die Richtungsabweichungen durch Gegensteuerung kompensiert. Bei dem interventionellen Werkzeug kann es sich wiederum z. B. um eine Punktionsnadel handeln, die zur Durchführung einer unter CT- bzw. MRT-gestützter bildgebender Kontrolle nach örtlicher Betäubung durchgeführten histologischen Gewebeprobenentnahme oder im Rahmen einer Tumor- bzw. Schmerztherapie verwendet wird, und das Aktuatorsystem kann, wie bereits beschrieben, Teil eines steuerbaren Punktionsroboters sein, der zur zielgenauen Führung der Punktionsnadel beim Nadelvorschub verwendet wird.
  • Nach Generierung einer 3D-Aufnahme eines darzustellenden Bildobjekts oder Zielgebiets bzw. nach Umrechnung präinterventionell akquirierter Bilddaten in einen Volumendatensatz einer rekonstruierten 3D-Ansicht dieses Bildobjekts oder Zielgebiets werden bei dem erfindungsgemäßen Verfahren zunächst die Raumkoordinaten eines zu erreichenden Punktionsziels P1 in dem akquirierten dreidimensionalen Datensatz und die Raumkoordinaten einer Einstichstelle P0, bezogen auf ein dreidimensionales kartesisches Ortskoordinatensystem mit geeignet festgelegtem Koordinatenursprung, festgelegt. Danach wird die Punktionsnadel in einen zu untersuchende Gewebebereich im Zielgebiet um einen vorgebbaren Längenbetrag in einer vorgebbaren Richtung eingeführt, woraufhin erfindungsgemäß mindestens eine die aktuelle Lage der Punktionsnadel darstellende fluoroskopische 2D-Durchleuchtungsaufnahme aus jeder von mindestens zwei verschiedenen Projektionsrichtungen generiert wird. Nach Detektion und Kennzeichnung des Ortes der Nadelspitze in den 2D-Projektionsaufnahmen dieser beiden Projektionsrichtungen werden dann die Ortskoordinaten des zugehörigen Raumpunkts P2 in dem dreidimensionalen kartesischen Ortskoordinatensystem, ausgehend von den 2D-Positionen dieses Raumpunkts in den beiden generierten 2D-Fluoroskopiebildern, berechnet. Im Anschluss daran ist gemäß diesem Verfahren vorgesehen, dass die 2D-Positionen eines weiteren, geeignet festgelegten Raumpunktes P3 der Punktionsnadel in den 2D-Projektionsaufnahmen der beiden Projektionsrichtungen geschätzt werden und der Ort dieses weiteren Raumpunkts in den beiden generierten 2D-Projektionsaufnahmen gekennzeichnet wird. Daraufhin werden dann die Ortskoordinaten dieses weiteren Raumpunktes P3 in dem dreidimensionalen kartesischen Ortskoordinatensystem, ausgehend von den geschätzten 2D-Positionen des betreffenden Raumpunktes in den beiden generierten 2D-Fluoroskopiebildern, berechnet. Das Verfahren endet dann damit, dass die geschätzte Lage des weiteren Raumpunktes P3 solange durch iterative Veränderung seiner Position nachjustiert wird, bis die Richtungen der 2D-Projektionen einer die Raumpunkte P2 und P3 miteinander verbindenden Raumgerade mit den projizierten Raumrichtungen der Punktionsnadel in den beiden generierten 2D-Fluoroskopiebildern bis auf einen vorgebbaren Abweichungsbetrag übereinstimmen.
  • Bei dem erfindungsgemäßen Verfahren kann dabei vorgesehen sein, dass die Generierung der mindestens einen die aktuelle Lage der Punktionsnadel darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme aus jeder der mindestens zwei verschiedenen Projektionsrichtungen entweder mit Hilfe eines C-Bogen-Röntgenaufnahmegeräts oder mit Hilfe einer Zwei-Ebenen-Durchleuchtungsanlage (Biplansystem) durchgeführt wird.
  • Darüber hinaus kann vorgesehen sein, dass im Rahmen des erfindungsgemäßen Verfahrens zwei punktförmige Objektmarkierungen detektiert werden, welche an den durch die beiden Raumpunkte P2 und P3 festgelegten Stellen an der Spitze bzw. auf der Oberfläche der Punktionsnadel angebracht sind.
  • Gemäß einem zweiten Aspekt bezieht sich die vorliegende Erfindung auf ein Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene mit Hilfe einer Zwei-Ebenen-Durchleuchtungsanlage (Biplansystem). Das Verfahren ist dadurch gekennzeichnet, dass aus der Interventionsebene herausführende Richtungsabweichungen des Ist-Verlaufs eines interventionellen Werkzeugs von einem vorgebbaren Soll-Verlauf durch Registrierung zweier Winkelbeträge in den 2D-Projektionsdarstellungen zweier fluoroskopischer Durchleuchtungsaufnahmen, die in zwei verschiedenen, zur Interventionsebene normal verlaufenden Projektionsebenen aufgenommen wurden, erfasst und zur Anzeige gebracht werden, wobei es sich bei den beiden Winkelbeträgen um die Richtungsabweichungen zwischen einer durch 2D-Projektion der Interventionsebene in der betreffenden Projektionsebene abgebildeten Sollgeraden und dem in diese Projektionsebene projizierten Ist-Verlauf des interventionellen Werkzeugs handelt.
  • Die erfassten Richtungsabweichungen des interventionellen Werkzeugs können dabei erfindungsgemäß in eine Stellgröße zur Ansteuerung eines Aktuatorsystems umsetzt werden, das die Richtungsabweichungen durch Gegensteuerung kompensiert. Bei dem interventionellen Werkzeug kann es sich wiederum z. B. um eine Punktionsnadel handeln, die zur Durchführung einer unter CT- bzw. MRT-gestützter bildgebender Kontrolle nach örtlicher Betäubung durchgeführten histologischen Gewebeprobenentnahme oder im Rahmen einer Tumor- bzw. Schmerztherapie verwendet wird, und das Aktuatorsystem kann, wie bereits beschrieben, Teil eines steuerbaren Punktionsroboters sein, der zur zielgenauen Führung der Punktionsnadel beim Nadelvorschub verwendet wird.
  • Nach Generierung einer die aktuelle Lage der Punktionsnadel darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme in einer ersten, zur Interventionsebene normal verlaufende Projektionsebene wird dabei zunächst die Nadelführungsrichtung in dieser ersten Projektionsebene erfasst. Bei Detektion einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel und einem idealen Einstichpfad, der durch den Verlauf einer durch 2D-Projektion der Interventionsebene in die erste Projektionsebene abgebildeten Sollgeraden vorgegeben ist, wird die Nadelführungsrichtung dann auf einen Wert nachjustiert, der entweder einen vorgegebenen Winkelbetrag unterschreitet oder die vorgenannte Richtungsabweichung in dieser ersten Projektionsebene vollständig kompensiert. Nach Generierung einer weiteren, die aktuelle Lage der Punktionsnadel darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme in einer zweiten, zur Interventionsebene normal verlaufende Projektionsebene wird dann zunächst die Nadelführungsrichtung in dieser zweiten Projektionsebene erfasst. Bei Detektion einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel und einem idealen Einstichpfad, der durch den Verlauf einer durch 2D-Projektion der Interventionsebene in die zweite Projektionsebene abgebildeten Sollgeraden vorgegeben ist, wird die Nadelführungsrichtung auf einen Wert nachjustiert, der entweder einen vorgegebenen Winkelbetrag unterschreitet oder die vorgenannte Richtungsabweichung in dieser zweiten Projektionsebene vollständig kompensiert. Die vorstehend beschriebenen Verfahrensschritte zur Erfassung und Nachjustierung der Nadelführungsrichtung in den beiden Projektionsebenen werden dann solange iterativ wiederholt, bis der Einstichpfad der Punktionsnadel mit einem in der Interventionsebene verlaufenden Sollpfad ohne Abweichung bzw. bis auf einen vorgebbaren Winkelbetrag übereinstimmt.
  • Erfindungsgemäß kann auch vorgesehen sein, dass anstelle der Interventionsebene der Normalenvektor dieser Ebene in die zweite Projektionsebene hineinprojiziert wird und die Navigation der Punktionsnadel in der Interventionsebene bei Erfassung einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel und dem durch den Verlauf eines zu dem Normalenvektor orthogonalen Richtungsvektors vorgegebenen idealen Einstichpfad (Sollpfad) an die Richtung dieses Richtungsvektors angepasst wird, so dass die Regelabweichung in der fluoroskopischen 2D-Durchleuchtungsaufnahme der zweiten Projektionsebene nach erfolgter Nachjustierung kleiner als der vorgegebene Winkelbetrag ist bzw. der Einstichpfad im günstigsten Fall mit dem Sollpfad übereinstimmt.
  • Weitere Merkmale der vorliegenden Erfindung ergeben sich aus den abhängigen Patentansprüchen sowie aus der Beschreibung von Ausführungsbeispielen, welche in den folgenden Zeichnungen abgebildet sind:
  • 1 zeigt ein Blockschaltbild eines Bildakquisitions-, Bildverarbeitungs- und Bildvisualisierungssystems gemäß vorliegender Erfindung, das zur CT- bzw. MRT-gestützten bildgebenden Kontrolle unter Lokalanästhesie durchgeführter minimal-invasiver Interventionen an inneren Organen, Gewebebereichen, Läsionen oder pathologischen Strukturen eines Patienten verwendet wird, und
  • 2 und 3 zeigen am Beispiel einer CT-gesteuerten Nadelpunktion zwei verschiedene Varianten eines Ablaufdiagramms zur Darstellung des erfindungsgemäßen Verfahrens zur gemeinsamen Registrierung und Visualisierung akquirierter Bilddaten, die im Rahmen eines CT- bzw. MRT-gesteuerten minimal-invasiven interventionellen Eingriffs benötigt werden.
  • In den folgenden Abschnitten werden die Systemkomponenten des erfindungsgemäßen Bildakquisitions-, Bildverarbeitungs- und Bildvisualisierungssystems und die Schritte des zugehörigen erfindungsgemäßen Verfahrens anhand der beigefügten Zeichnungen ohne Beschränkung der Allgemeinheit am Beispiel einer Nadelpunktion im Detail beschrieben.
  • In 1 ist ein schematisches Blockschaltbild eines Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystems gemäß vorliegender Erfindung dargestellt, welches es ermöglicht, von einem Bildgebungssystem BGS generierte Bilddaten von inneren Organen, interessierenden Gewebebereichen, pathologischen Strukturen, eingeführten interventionellen Werkzeugen, medizintechnischen Instrumenten, Implantaten etc. im Körperinneren eines zu untersuchenden Patienten zum Einen in Form von zweidimensionalen fluoroskopischen Durchleuchtungsaufnahmen aus verschiedenen Projektionsrichtungen und zum Anderen in Form von dreidimensional rekonstruierten Datensätzen zu erfassen, zu archivieren und entweder getrennt oder in Form koregistrierter und fusionierter grafischer Darstellungen auf dem Anzeigebildschirm AB eines Bildschirm-Terminals zu visualisieren. Als bildgebendes System BGS kann dabei z. B. ein herkömmliches CT- oder MRT-Gerät, ein C-Bogen-Röntgenaufnahmegerät oder eine Zwei-Ebenen-Durchleuchtungsanalage (Biplansystem) verwendet werden.
  • Wie in 1 skizziert, werden die vom bildgebenden System BGS generierten Bilddaten über eine Eingabe-/Ausgabe-Schnittstelle I/O einem Bildverarbeitungssystem BVS zugeführt. Das Bildverarbeitungssystem BVS kann dabei neben einer zentralen Steuerungseinrichtung ZSE, welche den Datenaustausch mit dem Bildgebungssystem BGS sowie den Datenaustausch zwischen den einzelnen Systemkomponenten des Bildverarbeitungssystem BVS steuert, unter anderem ein Vorverarbeitungsmodul VVM mit einem digitalen Filter zur Rauschunterdrückung, Kontrastverbesserung und Kantendetektion umfassen. Eine in das Bildverarbeitungssystem BVS integrierte 3D-Bildrendering-Applikation BRA dient zur Generierung von rekonstruierten 3D-Ansichten sowie zur grafischen Visualisierung darzustellender Gewebebereiche. Darüber hinaus umfasst das Bildverarbeitungssystem BVS auch ein eingangsseitig mit den Datenausgängen des Vorverarbeitungsmoduls VVM und der 3D-Bildrendering-Applikation BRA verbundenes Bildvisualisierungs-Tool BVT sowie ein in dieses Bildvisualisierungs-Tool BVT integriertes Navigationshilfe-Tool NHT, welches aus einer Interventionsebene E herausführende Richtungsabweichungen des Ist-Verlaufs einer Punktionsnadel N von einem vorgebbaren Soll-Verlauf durch Registrierung der verkürzt dargestellten Gesamtlänge oder einer verkürzt dargestellten Teillänge dieses interventionellen Werkzeugs in der 2D-Projektionsdarstellung einer fluoroskopischen Durchleuchtungsaufnahme, die in einer zur Interventionsebene E normal verlaufenden 2D-Projektionsrichtung p →R aufgenommen wurde, erfasst und auf dem Anzeigebildschirm AB des Bildschirm-Terminals zur Anzeige bringt.
  • Wie in 1 dargestellt, kann die Punktionsnadel N entweder manuell von einem behandelnden Arzt oder von einem Punktionsroboter R geführt und gesteuert werden. Eine in das Bildverarbeitungssystem BVS integrierte Reglungs- und Steuerungseinheit R&S sorgt erfindungsgemäß dafür, dass die über das Navigationshilfe-Tool NHT erfassten Richtungsabweichungen der Punktionsnadel N in eine Stellgröße zur Ansteuerung eines zur Steuerung eines Roboterarms verwendeten Aktuatorsystems AS umgesetzt werden, das die Richtungsabweichungen durch Gegensteuerung kompensiert. Der Roboterarm kann dabei im Idealfall sowohl verschiebbar als auch schwenkbar ausgelegt sein, um Bewegungen in bis zu drei translatorischen (x, y, z) und drei rotatorischen Freiheitsgraden (φx, φy, φz) ausführen zu können und somit in der Lage zu sein, die Punktionsnadel N zielgenau zu einer vorgesehenen Einstichstelle zu steuern und eine vom Arzt oder der Regelungs- und Steuerungseinheit R&S vorgegebene Richtung des Einstichpfads in dem zu punktierenden Gewebe mit hoher Präzision einzuhalten.
  • Immer dann, wenn Bilddaten von dem CT- bzw. MRT-Gerät generiert und dem Bildverarbeitungssystem BVS über eine Eingabeschnittstelle bereitgestellt werden, können diese, veranlasst durch die zentrale Steuerungseinrichtung ZSE, nach Abschluss der Vorverarbeitung in Vorbereitung für eine spätere grafischen Visualisierung je nach Systemkonfiguration temporär oder persistent in einem Bilddatenspeicher einer externen Speichereinheit SE gespeichert werden, wo sie in ein patientenspezifisches Untersuchungsprotokoll einer Protokolldatei geschrieben werden, welche in einem Speicherbereich der Speichereinheit SE hinterlegt ist. Neben den im Rahmen des Bildgebungsprozesses akquirierten Bilddaten können auch sämtliche Aufnahmeparameter, die von einem die Untersuchung durchführenden Radiologen manuell eingestellt wurden, sowie alle Darstellungs- und Rekonstruktionsparameter, die zur Visualisierung rekonstruierter 3D-Ansichten von bestimmten Gewebebereichen im Körperinneren des Patienten benötigt werden, in einem standardisierten Datenformat (z. B. im DICOM-Format) über eine Datenausgabeschnittstelle DATA_OUT des Bildverarbeitungssystems BVS in das patientenspezifische Untersuchungsprotokoll der extern gespeicherten Protokolldatei geschrieben werden. Zur grafischen Visualisierung können die gespeicherten Bilddaten, Aufnahme- und Rekonstruktionsparameter dann über eine Dateneingabeschnittstelle DATA_IN des Bildverarbeitungssystems BVS in einen nicht dargestellten, lokalen Temporärspeicher des Bildvisualisierungs-Tools BVT geladen werden.
  • Wie aus 1 ersichtlich, werden dem Bildvisualisierungs-Tool BVT einerseits die mittels fluoroskopischer Bildgebung akquirierten und von dem Vorverarbeitungsmodul VVM gefilterten Bilddaten zweidimensionaler Schnittbilder zu untersuchender Gewebebereiche zugeführt und andererseits Bilddaten rekonstruierter, mit Hilfe der 3D-Bildrendering-Applikation BRA rekonstruierter 3D-Ansichten interessierender Bereiche aus dem Körperinneren Patienten, die dann auf dem Anzeigebildschirm AB des Bildschirm-Terminals in grafischer Form visualisiert werden. Zur Archivierung werden die akquirierten und rekonstruierten Bilddaten über die eingangs erwähnte Datenausgabeschnittstelle DATA_OUT des Bildverarbeitungssystems BVS (z. B. unter Verwendung des DICOM-Formats) in das patientenspezifische Untersuchungsprotokoll der in der externen Speichereinheit SE hinterlegten Protokolldatei geschrieben und dort abrufbar und persistent gespeichert.
  • In 2 ist ein Ablaufdiagramm dargestellt, anhand dessen das erfindungsgemäße Verfahren zur CT- bzw. MRT-gestützten bildgebenden Kontrolle interventioneller Eingriffe an inneren Organen, Gewebebereichen, Läsionen oder pathologischen Strukturen eines Patienten, welches mit Hilfe des in 1 skizzierten Bildakquisitions-, Bildverarbeitungs- und Bildvisualisierungssystems durchgeführt wird, am Beispiel einer CT-gesteuerten histologischen Gewebeprobenentnahme (Biopsie) mit einer Punktionsnadel N veranschaulicht wird. Als bildgebendes System kann dazu z. B. ein herkömmliches multidirektionales C-Bogen-Röntgenaufnahmegerät verwendet werden. Das Verfahren beginnt damit, dass eine 3D-Aufnahme M eines darzustellenden Bildobjekts BO oder eines interessierenden Zielgebiets ZG erstellt (S1) wird, z. B. mittels syngo DynaCT. Alternativ dazu können auch präinterventionell akquirierte Bilddaten in einen Volumendatensatz einer rekonstruierten 3D-Ansicht M' des betreffenden Bildobjekts BO bzw. Zielgebiets ZG umgerechnet werden (S1'), die später gegebenenfalls mit den Bilddaten eines oder mehrerer, aus unterschiedlichen Projektionsrichtungen aufgenommener 2D-Fluoroskopiebilder, welche die umliegenden Gewebebereiche dieses Bildobjekts oder Zielgebiets zeigen, koregistriert, fusioniert und mit diesen zusammen aus verschiedenen Blickwinkeln grafisch visualisiert werden können. In einem folgenden Schritt (S2) wird in dem generierten 3D-Datensatz ein z. B. durch drei kartesische Ortskoordinaten x1, y1 und z1 beschriebenes Punktionnziel P1(x1, y1, z1) (wiederum z. B. mit Hilfe der syngo DynaCT-Applikation) als Schnittpunkt von drei paarweise zueinander orthogonalen Schnittebenen festgelegt, bei denen es sich um die Projektionsebenen dreier durch multiplanare Reformation aus einem Volumendatensatz rekonstruierter 2D-Projektionen in einem dreidimensionalen kartesischen Ortskoordinatensystem handelt. Der den interventionellen Eingriff durchführende Arzt legt dann eine geeignete Einstichstelle P0(x0, y0, z0) fest (S3a) und führt die Punktionsnadel N in einer bestimmten Richtung ein Stück weit in das zu untersuchende Gewebe ein (S3b). Im Anschluss daran wird aus jeder von mindestens zwei verschiedenen Angulationsrichtungen des verwendeten C-Bogen-Röntgenaufnahmegeräts mindestens eine die aktuelle Lage der Punktionsnadel N darstellende fluoroskopische 2D-Durchleuchtungsaufnahme (F1 und F2) generiert (S4). In den 2D-Projektionsaufnahmen dieser beiden Angulationsrichtungen wird dann die Spitze der Punktionsnadel N manuell oder mit Hilfe eines Mustererkennungsalgorithmus detektiert (S5a) und als Punktobjekt gekennzeichnet (S5b), z. B. durch farbliche Hervorhebung dieses Punktobjekts und/oder durch ein Textlabel „P2”. Da sowohl die Geometrie als auch die aktuelle Position der Detektorfläche des C-Bogen-Geräts bekannt sind, können aus den 2D-Positionen der Nadelspitze in den beiden generierten 2D-Fluoroskopiebildern F1 und F2 die kartesischen Ortskoordinaten x2, y2 und z2 des zugehörigen Raumpunkts P2(x2, y2, z2) in einem dreidimensionalen kartesischen Ortskoordinatensystem K mit geeignet festgelegtem Koordinatenursprung O errechnet werden (S6). Im Anschluss daran werden die 2D-Positionen eines weiteren, geeignet festgelegten Raumpunktes P3(x3, y3, z3) der Punktionsnadel N in den 2D-Projektionsaufnahmen der beiden Angulationsrichtungen geschätzt (S7a) und ähnlich wie in Schritt S5 in Form eines weiteren Punktobjekts markiert (S7b), wiederum z. B. durch farbliche Hervorhebung dieses Punktobjekts und/oder durch ein Textlabel „P3”. Wie in Schritt S6 werden dann aus den 2D-Positionen dieses weiteren Punktobjekts in den beiden generierten 2D-Fluoroskopiebildern F1 und F2 die kartesischen Ortskoordinaten x3, y3 und z3 des Raumpunkts P3(x3, y3, z3) in dem durch das kartesische Ortskoordinatensystem aufgespannten 3D-Raum errechnet (S8). Da Schritt S7a jedoch nur auf einer Schätzung beruht, kann es sein, dass es sich bei dem Raumpunkt P3(x3, y3, z3) tatsächlich nur um einen Punkt in unmittelbarer Nähe der Punktionsnadel N und nicht um einen auf der Punktionsnadel N liegenden Punkt handelt. Aus diesem Grund werden die Ortskoordinaten des Raumpunktes P3(x3, y3, z3) nun mit Hilfe eines iterativen Verfahrens schrittweise feinjustiert. Zu diesem Zweck werden die beiden Punkte P2(x2, y2, z2) und P3(x3, y3, z3) in einem Schritt S9 mit einer durch die Parametergleichung
    Figure DE102007013807B4_0003
    gegebenen Raumgeraden g miteinander verbunden, deren Richtungsvektor r →g ≡ P →2P →3 = OP →3 – OP →2 die Raumrichtung einer „virtuellen Nadel” bildet, welche mit der Raumrichtung der (reellen) Punktionsnadel N in erster Näherung übereinstimmt. Im Anschluss daran wird die Raumgerade g in die beiden 2D-Fluoroskopiebilder F1 und F2 hineinprojiziert (S10a). Sofern die Richtungen beider 2D-Projektionen der Raumgerade g mit den projizierten Raumrichtungen der (reellen) Punktionsnadel N in den beiden 2D-Fluoroskopiebildern F1 und F2 bis auf eine vorgegebene tolerierbare Abweichung übereinstimmen, was über eine Abfrage (S10b) ermittelt wird, kann das Verfahren unmittelbar mit dem nächsten Schritt (S11) fortgesetzt werden. Andernfalls wird die Lage des Raumpunktes P3(x3, y3, z3) der virtuellen Nadel N so lange durch iterative Veränderung nachjustiert (S10c), bis die Richtungen beider 2D-Projektionen der Raumgerade g mit den projizierten Raumrichtungen der reellen Punktionsnadel N in den beiden 2D-Fluaroskopiebildern F1 und F2 bis auf einen vorgebbaren Abweichungsbetrag übereinstimmen. In dem darauf folgenden Schritt S11 wird dann die Angulationsrichtung des C-Bogens so festgelegt, dass die Projektionsrichtung p →R der fluoroskopischen Durchleuchtung parallel zum Normalenvektor
    Figure DE102007013807B4_0004
    einer in der Parameterform
    Figure DE102007013807B4_0005
    bzw. in der Hesseschen Normalform
    Figure DE102007013807B4_0006
    gegebenen Interventionsebene E verläuft, deren Aufpunktvektor a →E durch den Ortsvektor OP →1 des Raumpunktes P1(x1, y1, z1) in dem dreidimensionalen kartesischen Koordinatensystem K beschrieben wird und die von zwei Richtungsvektoren r →E1 und r →E2 aufgespannt wird, welche durch den Differenzvektor P →1P →2 zwischen den Ortsvektoren OP →1 und OP →2 des durch die beiden Raumpunkte P1(x1, y1, z1) und P2(x2, y2, z2) gegebenen Punktepaares bzw. durch den Differenzvektor P →1P →3 zwischen den Ortsvektoren OP →1 und OP →3 des durch die beiden Raumpunkte P1(x1, y1, z1) und P3(x3, y3, z3) gegebenen Punktepaares in diesem Koordinatensystem K gebildet werden. Das System prüft dabei automatisch, ob eine mögliche Kollision des C-Bogens vorliegt (S12). Sofern dies nicht der Fall ist, kann eine entsprechende Angulationsrichtung automatisch eingestellt werden (S13a), oder es wird eine Information an den Arzt ausgegeben, welche beinhaltet, welche Angulationsrichtung der Arzt manuell einstellen soll (S13a'). Bei Vorliegen eines Kollisionsbedingung wird der Arzt vom System darüber informiert, und es werden Vorschläge dahingehend unterbreitet, welche Einstellungen vorzunehmen sind, damit die CT-gestützte Untersuchung kollisionsfrei durchgeführt werden kann. Dies kann beispielsweise dadurch geschehen, dass die Ortskoordinaten x1, y1 und/oder z1 des Punktionsziels P1(x1, y1, z1) variiert werden (S13b). Der neue Zielpunkt muss natürlich innerhalb des interessierenden Zielgebiets ZG liegen und von dem behandelnden Arzt akzeptiert werden, bevor er von dem System übernommen werden kann. Alternativ dazu kann auch eine neue Einstichstelle P0(x0, y0, z0) der Punktionsnadel N vorgeschlagen werden (S13b'), die wiederum erst von dem behandelnden Arzt akzeptiert werden muss. In letzterem Fall müssen dann die Schritte S3 bis S13a/b bzw. S13a'/b' wiederholt werden. Wenn schließlich die Angulationsrichtung des C-Bogens so eingestellt ist, dass die Durchleuchtung parallel zum Normalenvektor n →E der Interventionsebene E erfolgt, wird das Dreieck ΔP1P2P3 in das bei dieser Durchleuchtung generierte Fluoroskopiebild F3 hineinprojiziert. Um die verschiedenen geometrischen Elemente – d. h. die drei Raumpunkte P1, P2 und P3, das Dreieck ΔP1P2P3, die die beiden Raumpunkte P2 und P3 verbindende Raumgerade g und/oder die Interventionsebene E, in der die drei Raumpunkte P1, P2 und P3 liegen – zu kennzeichnen, können bei einer grafischen Visualisierung auf dem Anzeigebildschirm eines Bildschirm-Terminals z. B. verschiedene Farben verwendet werden.
  • Darüber hinaus kann auch eine durch die nachfolgende Parametergleichung
    Figure DE102007013807B4_0007
    gegebene, in der Interventionsebene E liegende Gerade h eingezeichnet werden, welche die beiden Raumpunkte P3 und P1 miteinander verbindet und somit den idealen Einstichpfad der Punktionsnadel N beschreibt, beispielsweise in grüner Farbe. Dabei sollten die Ortskoordinaten x3, y3 und z3 des Raumpunkts P3 günstigerweise nahe der Einstichstelle P0 gewählt werden. Der Arzt hat dann die Möglichkeit, die Nadel N zurückzuziehen und gleich auf den durch Aufpunktvektor a →h = OP →3 und Richtungsvektor r →h = P →3P →1 der Geraden h vorgegebenen korrekten Einstichpfad zu bringen. Falls die Punktionsnadel N vom idealen Einstichpfad abweicht, kann z. B. vorgesehen sein, dass der auf dem Anzeigebildschirm dargestellte Zielpunkt rot blinkt.
  • Die Tatsache, dass die fluoroskopische Durchleuchtung in einer Raumrichtung p →R parallel zum Normalenvektor n →E der Interventionsebene E erfolgt, bietet eine vorteilhafte Kontrollmöglichkeit für die Nadelführung. Falls der Einstichpfad aus der Interventionsebene E herausführt, erscheint die Punktionsnadel N in der 2D-Projektion des Fluoroskopiebildes F3 abhängig vom Winkelbetrag der jeweiligen Richtungsabweichung mehr oder weniger verkürzt. Neben Lageabweichungen sind infolge der projektiven Verkürzung also auch Richtungsabweichungen der (reellen) Punktionsnadel N vom grün dargestellten Idealpfad in der Interventionsebene E direkt aus dem fluoroskopischen Durchleuchtungsbild F3 ersichtlich. Diese Information kann dann entweder von dem behandelnden Arzt visuell wahrgenommen (S14a) und bei der Nadelführung berücksichtigt (S14b) werden oder vom Regelungs- und Steuerungssystem eines steuerbaren Punktionsroboters R als Sollwert-Istwert-Abweichung (Regeldifferenz) erfasst (S14a'), ausgewertet (S14b') und in eine Stellgröße umgesetzt werden (S14c'), die dann im Rahmen einer automatischen Nadelführung zur Richtungskorrektur (Nachjustierung) des Einstichpfads verwendet wird (S14d'). Durch die Verwendung eines solchen Punktionsroboters kann die Zielgenauigkeit und Reproduzierbarkeit der Nadelführung im Vergleich zur Nadelführung durch einen behandelnden Arzt wesentlich gesteigert werden. Der direkte Austausch der geometrischen Sollwert- und Istwert-Daten des Einstichpfads zwischen dem bildgebenden System des C-Bogen-Geräts und dem Punktionsroboter R erlaubt dabei eine weitgehende Automatisierung des Interventionsverfahrens. Allerdings obliegt es auch dabei naturgemäß immer dem behandelnden Arzt, die Ortskoordinaten x1, y1 und z1 des Punktionsziels P1(x1, y1, z1) vorzugeben und anatomisch günstige Zugangswege zu den im Rahmen einer CT-gesteuerten Intervention zu punktierenden Gewebebereichen auszuwählen, so dass beim Einstechen der Punktionsnadel N kein Knochengewebe im Weg ist und keine Blutgefäße, Nervenstränge oder inneren Organe verletzt werden. Aus diesem Grund wird bei dem erfindungsgemäßen Verfahren zuerst ein Probestich ausgeführt, dessen Einstichpfad durch Aufpunktvektor a →g = OP →2 und Richtungsvektor r →g = P →2P →3 der Geraden g und damit durch die Ortskoordinaten der beiden Raumpunkte P2 und P3 festgelegt ist, also durch Versuchskoordinaten, die von dem behandelnden Arzt vorgegeben werden.
  • Im Gegensatz zu einem aus dem Stand der Technik bekannten Verfahren, bei dem als idealer Einstichpfad die Verbindungsgerade
    Figure DE102007013807B4_0008
    zwischen dem Einstichpunkt P0(x0, y0, z0) und dem Punktionsziel P1(x1, y1, z1) (im Folgenden bezeichnet als „Sollgerade”) festgelegt ist, welche jeweils durch drei kartesische Ortskoordinaten in dem durch das kartesische Koordinatensystem K aufgespannten 3D-Raum definiert sind, und bei dem Fluoroskopiebilder aus mindestens zwei Angulationsrichtungen des C-Bogens aufgenommen werden müssen, in denen die Punktionsnadel N in unterschiedlichen 2D-Projektionsdarstellungen abgebildet ist, um die aktuelle Lage der Punktionsnadel N und die Richtung des Nadelvorschubs mit dem räumlichen Verlauf der Sollgeraden h' zu vergleichen, der durch deren Aufpunktvektor a →h' = OP →0 und Richtungsvektor r →h' = P →0P →1 vorgegeben ist, ist eine derartige Vorgehensweise bei dem erfindungsgemäßen Verfahren nicht mehr erforderlich. Ein weiterer Nachteil des oben beschriebenen herkömmlichen Verfahrens besteht darin, dass der aktuelle Einstichpunkt P0(x0, y0, z0) in der 3D-Ansicht M' des Zielgebiets ZG nicht darstellbar ist, da er nicht zugleich in beiden der aus mindestens zwei verschiedenen Angulationsrichtungen, d. h. unter verschiedenen Projektionswinkeln aufgenommenen zweidimensionalen fluoroskopischen Durchleuchtungsbilder F1 und F2 dargestellt werden kann. Beide Nachteile werden mit Hilfe des erfindungsgemäßen Verfahrens, welches einen Probestich an einem nahe der vorgesehenen Einstichstelle P0(x0, y0, z0) gelegenen Raumpunkt P3(x3, y3, z3) auf der Körperoberfläche des Patienten vorsieht, umgangen, da die Koordinaten von P3 vorteilhafterweise so gewählt werden, dass dieser Raumpunkt in den unter beiden Angulationsrichtungen generierten 2D-Fluoroskopiebildern sichtbar ist und somit auch im 3D-Raum dargestellt werden kann. Aufgrund der erfindungsgemäß vorgegebenen Orthogonalität zwischen der Projektionsrichtung p →R bei Durchführung der fluoroskopischen Durchleuchtung und den Richtungsvektoren r →E1 und r →E2 der Interventionsebene E kann der C-Bogen des bildgebenden C-Bogen-Geräts während der gesamten CT-gesteuerten Intervention in einer stationären Angulation verbleiben.
  • Um die Detektion der beiden an geeignet festgelegten Stellen der Punktionsnadel N befindlichen Raumpunkte P2 und P3 zu erleichtern und zuverlässiger zu machen, kann darüber hinaus erfindungsgemäß vorgesehen sein, dass an den betreffenden Stellen an der Spitze bzw. auf der Oberfläche der Punktionsnadel N zwei punktförmige Objektmarkierungen angebracht sind. Da der Abstand zwischen diesen beiden Objektmarkierungen (d. h. der Abstand der durch den Raumpunkt P3 bezeichneten Stelle der Punktionsnadel N zur Nadelspitze) bekannt ist, kann er bei bekannter Raumrichtung der Punktionsnadel N vorteilhaft zur genauen Bestimmung der 3D-Position des Raumpunktes P3 verwendet werden.
  • Nach einer mit Hilfe einer Zwei-Ebenen-Durchleuchtungsanlage (Biplansystem) durchgeführten Variante des erfindungsgemäßen Verfahrens, welches in dem Ablaufdiagramm in 3 dargestellt ist, kann vorgesehen sein, dass alternativ zu Schritt S11 eine zur Interventionsebene E senkrecht verlaufende Projektionsebene EP1 (im Folgenden auch als „erste Durchleuchtungsebene” bezeichnet) anguliert wird (S15). Analog zu den unter Bezugnahme auf das in 2 skizzierte Ablaufdiagramm beschriebenen Verfahrensschritten S14a und S14b bzw. S14a' bis S14d' wird die Navigation der Punktionsnadel N in der Interventionsebene E dann mittels fluoroskopischer Durchleuchtung der zu behandelnden Gewebebereiche in dieser ersten Durchleuchtungsebene EP1 erfasst (S16a) und bei Detektion einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel N und dem durch den Verlauf der grün dargestellten Raumgerade h vorgegebenen idealen Einstichpfad entsprechend nachjustiert (S16b), so dass die Regelabweichung in dem 2D-Fluoroskopiebild F1' dieser ersten Durchleuchtungsebene EP1 nach erfolgter Nachjustierung kleiner als der vorgegebene Winkelbetrag ist bzw. der Einstichpfad im günstigsten Fall mit dem grün dargestellten Idealpfad übereinstimmt. Im Anschluss daran wird das zu behandelnde Gewebe in einer weiteren, zur Interventionsebene E senkrecht verlaufende Projektionsebene EP2 (nachfolgend auch als „zweite Durchleuchtungsebene” bezeichnet) durchleuchtet (S17), die nicht unbedingt exakt orthogonal zur ersten Durchleuchtungsebene EP1 verlaufen muss. Die Interventionsebene E wird dabei in der 2D-Projektionsdarstellung dieser zweiten Durchleuchtungsebene EP2 als Gerade g EP2 / E abgebildet und zweckmäßigerweise in einer anderen Farbe als die Farbe der Raumgeraden h dargestellt, z. B. in blauer Farbe. Die Gerade g EP2 / E gibt somit in dieser zweiten Durchleuchtungsebene EP2 den idealen Einstichpfad der Punktionsnadel N wieder. Da die Abbildungsgeometrie des C-Bogen-Geräts bekannt ist, können unter Umständen notwendige rechnerische Korrekturen bei der Projektion der Interventionsebene E in die zweite Durchleuchtungsebene EP2 vorgenommen werden, um etwaige Abbildungsfehler zu kompensieren. Analog zu den vorstehend beschriebenen Verfahrensschritten S16a und S16b wird die Navigation der Punktionsnadel N in der Interventionsebene E dann in der zweiten Durchleuchtungsebene EP2 erfasst (S18a) und bei Detektion einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel N und dem durch den Verlauf der blau dargestellten Gerade g EP2 / E vorgegebenen idealen Einstichpfad entsprechend nachjustiert (S18b), so dass die Regelabweichung in dem 2D-Fluoroskopiebild F2' dieser zweiten Durchleuchtungsebene EP2 nach erfolgter Nachjustierung kleiner als der vorgegebene Winkelbetrag ist bzw. der Einstichpfad im günstigsten Fall mit dem blau dargestellten Idealpfad übereinstimmt. Fällt der Verlauf des Einstichpfades in beiden 2D-Fluoroskopiebildern F1' und F2' mit dem grün bzw. blau eingezeichneten Idealpfad zusammen, der durch den Verlauf einer der beiden Geraden h bzw. g EP2 / E in der jeweiligen 2D-Projektionsdarstellung von F1' bzw. F2' festgelegt wird, ist sichergestellt, dass sich die Punktionsnadel N auf dem vorgesehenen Einstichpfad bewegt. Ansonsten werden die Verfahrensschritte S16a, S16b, S18a und S18b solange iterativ wiederholt, bis der Einstichpfad der Punktionsnadel mit einem in der Interventionsebene E verlaufenden Sollpfad ohne Abweichung bzw. bis auf einen vorgebbaren Winkelbetrag übereinstimmt (S19).
  • Anstelle der Interventionsebene E kann in Schritt S17 auch der Normalenvektor n →s dieser Ebene in die zweite Durchleuchtungsebene EP2 projiziert werden (S17'). In diesem Fall muss die Navigation der Punktionsnadel N in der Interventionsebene E bei Erfassung einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel N und dem durch den Verlauf eines zu dem Normalenvektor n →E orthogonalen Richtungsvektors r →E vorgegebenen idealen Einstichpfad entsprechend nachjustiert, d. h. an die Richtung dieses Richtungsvektors r →E angepasst werden (S18b'), so dass die Regelabweichung in dem 2D-Fluoroskopiebild F2' dieser zweiten Durchleuchtungsebene EP2 nach erfolgter Nachjustierung kleiner als der vorgegebene Winkelbetrag ist bzw. der Einstichpfad im günstigsten Fall mit dem blau dargestellten Idealpfad übereinstimmt. In diesem Fall muss die Punktionsnadel N also orthogonal zum Normalenvektor n →E der Interventionsebene E vorgeschoben werden.
  • Erfindungsgemäß kann auch vorgesehen sein, dass der unter Bezugnahme auf das in 2 dargestellte Ablaufdiagramm beschriebene Schritt S4, welcher sich auf die Generierung mindestens einer die aktuelle Lage der Punktionsnadel N darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F1 und F2) aus jeder von mindestens zwei verschiedenen Angulationsrichtungen bezieht, mit Hilfe eines Biplansystems durchgeführt wird.

Claims (12)

  1. Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene (E), wobei aus der Interventionsebene (E) herausführende Richtungsabweichungen des Ist-Verlaufs eines interventionellen Werkzeugs (W) von einem vorgebbaren Soll-Verlauf (h) durch Registrierung der verkürzt dargestellten Gesamtlänge oder einer verkürzt dargestellten Teillänge dieses interventionellen Werkzeugs (W) in der 2D-Projektionsdarstellung einer fluoroskopischen Durchleuchtungsaufnahme (F3), die in einer zur Interventionsebene (E) normal verlaufenden 2D-Projektionsrichtung (p →R) aufgenommen wurde, erfasst und zur Anzeige gebracht werden, und wobei es sich bei dem interventionellen Werkzeug (W) um eine Punktionsnadel (N) handelt, die zur Durchführung einer unter CT- bzw. MRT-gestützter bildgebender Kontrolle nach örtlicher Betäubung durchgeführten histologischen Gewebeprobenentnahme oder im Rahmen einer Tumor- bzw. Schmerztherapie verwendet wird, aufweisend die folgenden Schritte: Generierung (S1) einer 3D-Aufnahme (M) eines darzustellenden Bildobjekts (BO) bzw. Zielgebiets (ZG) oder Umrechnung (S1') präinterventionell akquirierter Bilddaten in einen Volumendatensatz einer rekonstruierten 3D-Ansicht (M') dieses Bildobjekts (BO) bzw. Zielgebiets (ZG), Festlegung (S2) der Raumkoordinaten (x1, y1 und z1) eines zu erreichenden Punktionsziels (P1) in dem akquirierten dreidimensionalen Datensatz, bezogen auf ein dreidimensionales kartesisches Ortskoordinatensystem (K) mit geeignet festgelegtem Koordinatenursprung (O), Festlegung (S3a) der Raumkoordinaten (x0, y0 und z0) einer Einstichstelle P0(x0, y0, z0) in dem dreidimensionalen kartesischen Ortskoordinatensystem (K) und Einführung (S3b) der Punktionsnadel (N) in einen zu untersuchende Gewebebereich im Zielgebiet (ZG) um einen vorgebbaren Längenbetrag in einer vorgebbaren Richtung, Generierung (S4) mindestens einer die aktuelle Lage der Punktionsnadel (N) darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F1 und F2) aus jeder von mindestens zwei verschiedenen Projektionsrichtungen, Detektion (S5a) und Kennzeichnung (S5b) des Ortes der Nadelspitze (P2) in den 2D-Projektionsaufnahmen (F1 und F2) dieser beiden Projektionsrichtungen, Berechnung (S6) der Ortskoordinaten (x2, y2 und z2) des Raumpunktes P2 in dem dreidimensionalen kartesischen Ortskoordinatensystem (K), ausgehend von den 2D-Positionen dieses Raumpunkts (P2) in den beiden generierten 2D-Fluoroskopiebildern (F1 und F2), Schätzung (S7a) der 2D-Positionen eines weiteren, geeignet festgelegten Raumpunktes (P3) der Punktionsnadel (N) in den 2D-Projektionsaufnahmen der beiden Projektionsrichtungen und Kennzeichnung (S7b) des Ortes dieses Raumpunkts (P3) in den beiden generierten 2D-Projektionsaufnahmen (F1 und F2), Berechnung (S8) der Ortskoordinaten (x3, y3 und z3) des Raumpunktes P3 in dem dreidimensionalen kartesischen Ortskoordinatensystem (K), ausgehend von den geschätzten 2D-Positionen dieses Raumpunkts (P3) in den beiden generierten 2D-Fluoroskopiebildern (F1 und F2), und Nachjustierung (S10c) der Lage des Raumpunktes P3 durch iterative Veränderung seiner Position, bis die Richtungen der 2D-Projektionen einer die Raumpunkte P2 und P3 miteinander verbindenden (S9) Raumgerade (g) mit den projizierten Raumrichtungen der Punktionsnadel (N) in den beiden generierten 2D-Fluoroskopiebildern (F1 und F2) bis auf einen vorgebbaren Abweichungsbetrag übereinstimmen.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die erfassten Richtungsabweichungen des interventionellen Werkzeugs (W) in eine Stellgröße zur Ansteuerung eines Aktuatorsystems (AS) umsetzt werden, das die Richtungsabweichungen durch Gegensteuerung kompensiert.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Aktuatorsystem (AS) Teil eines steuerbaren Punktionsroboters (R) ist, der zur zielgenauen Führung der Punktionsnadel (N) beim Nadelvorschub verwendet wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass in Schritt S4 die Generierung der mindestens einen die aktuelle Lage der Punktionsnadel (N) darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F1 und F2) aus jeder von mindestens zwei verschiedenen Projektionsrichtungen mit Hilfe eines C-Bogen-Röntgenaufnahmegeräts durchgeführt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass in Schritt S4 die Generierung der mindestens einen die aktuelle Lage der Punktionsnadel (N) darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F1 und F2) aus jeder von mindestens zwei verschiedenen Projektionsrichtungen mit Hilfe einer Zwei-Ebenen-Durchleuchtungsanlage (Biplansystem) durchgeführt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, gekennzeichnet durch den Schritt der Detektion zweier punktförmiger Objektmarkierungen, die an den durch die beiden Raumpunkte P2 und P3 festgelegten Stellen an der Spitze bzw. auf der Oberfläche der Punktionsnadel (N) angebracht sind.
  7. Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene (E) mit Hilfe einer Zwei-Ebenen-Durchleuchtungsanlage (Biplansystem), dadurch gekennzeichnet, dass aus der Interventionsebene (E) herausführende Richtungsabweichungen des Ist-Verlaufs eines interventionellen Werkzeugs (W) von einem vorgebbaren Soll-Verlauf durch Registrierung zweier Winkelbeträge in den 2D-Projektionsdarstellungen zweier fluoroskopischer Durchleuchtungsaufnahmen (F1' und F2'), die in zwei verschiedenen, zur Interventionsebene (E) normal verlaufenden Projektionsebenen (EP1 bzw. EP2) aufgenommen wurden, erfasst und zur Anzeige gebracht werden, wobei es sich bei den beiden Winkelbeträgen um die Richtungsabweichungen zwischen einer durch 2D-Projektion der Interventionsebene (E) in der betreffenden Projektionsebene (EP1 bzw. EP2) abgebildeten Sollgeraden (h bzw. g EP2 / E ) und dem in diese Projektionsebene (EP1 bzw. EP2) projizierten Ist-Verlauf des interventionellen Werkzeugs (W) handelt.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die erfassten Richtungsabweichungen des interventionellen Werkzeugs (W) in eine Stellgröße zur Ansteuerung eines Aktuatorsystems (AS) umgesetzt werden, das die Richtungsabweichungen durch Gegensteuerung kompensiert.
  9. Verfahren nach einem der Ansprüche 7 oder 8, dadurch gekennzeichnet, dass es sich bei dem interventionellen Werkzeug (W) um eine Punktionsnadel (N) handelt, die zur Durchführung einer unter CT- bzw. MRT-gestützter bildgebender Kontrolle nach örtlicher Betäubung durchgeführten histologischen Gewebeprobenentnahme oder im Rahmen einer Tumor- bzw. Schmerztherapie verwendet wird.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass das Aktuatorsystem (AS) Teil eines steuerbaren Punktionsroboters (R) ist, der zur zielgenauen Führung der Punktionsnadel (N) beim Nadelvorschub verwendet wird.
  11. Verfahren nach einem der Ansprüche 9 oder 10, gekennzeichnet durch die Ausführung der folgenden Schritte: – Generierung (S15) einer die aktuelle Lage der Punktionsnadel (N) darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F1') in einer ersten, zur Interventionsebene (E) normal verlaufende Projektionsebene (EP1), – Erfassung (S16a) der Nadelführungsrichtung in dieser ersten Projektionsebene (EP1) und Nachjustierung (S16b) der Nadelführungsrichtung bei Detektion einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel (N) und einem idealen Einstichpfad, der durch den Verlauf einer durch 2D-Projektion der Interventionsebene (E) in die erste Projektionsebene (EP1) abgebildeten Sollgeraden (h) vorgegeben wird, auf einen Wert, der entweder einen vorgegebenen Winkelbetrag unterschreitet oder die Richtungsabweichung in dieser ersten Projektionsebene (EP1) vollständig kompensiert, – Generierung (S17) einer weiteren, die aktuelle Lage der Punktionsnadel (N) darstellenden fluoroskopischen 2D-Durchleuchtungsaufnahme (F2') in einer zweiten, zur Interventionsebene (E) normal verlaufende Projektionsebene (E), – Erfassung (S18a) der Nadelführungsrichtung in dieser zweiten Projektionsebene (EP2) und Nachjustierung (S18b) der Nadelführungsrichtung bei Detektion einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel (N) und einem idealen Einstichpfad, der durch den Verlauf einer durch 2D-Projektion der Interventionsebene (E) in die zweite Projektionsebene (EP2) abgebildeten Sollgeraden (g EP2 / E ) vorgegeben wird, auf einen Wert, der entweder einen vorgegebenen Winkelbetrag unterschreitet oder die Richtungsabweichung in dieser zweiten Projektionsebene (EP2) vollständig kompensiert, und – iterative Wiederholung der Schritte S16a, Sl6b, S18a und S18b, bis der Einstichpfad der Punktionsnadel mit einem in der Interventionsebene (E) verlaufenden Sollpfad ohne Abweichung bzw. bis auf einen vorgebbaren Winkelbetrag übereinstimmt (S19).
  12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass in Schritt S17 anstelle der Interventionsebene (E) der Normalenvektor (n →E) dieser Ebene in die zweite Projektionsebene (EP2) hineinprojiziert wird (S17') und die Navigation der Punktionsnadel (N) in der Interventionsebene (E) bei Erfassung einer einen vorgebbaren Winkelbetrag überschreitenden Richtungsabweichung zwischen dem tatsächlichen Einstichpfad der Nadel (N) und dem durch den Verlauf eines zu dem Normalenvektor (n →E) orthogonalen Richtungsvektors (r →E) vorgegebenen idealen Einstichpfad (Sollpfad) an die Richtung dieses Richtungsvektors (r →E) angepasst wird (S18b'), so dass die Regelabweichung in der fluoroskopischen 2D-Durchleuchtungsaufnahme (F2') der zweiten Projektionsebene (EP2) nach erfolgter Nachjustierung kleiner als der vorgegebene Winkelbetrag ist bzw. der Einstichpfad im günstigsten Fall mit dem Sollpfad übereinstimmt.
DE102007013807.7A 2007-03-22 2007-03-22 Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene Active DE102007013807B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102007013807.7A DE102007013807B4 (de) 2007-03-22 2007-03-22 Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene
US12/077,631 US9406134B2 (en) 2007-03-22 2008-03-20 Image system for supporting the navigation of interventional tools

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007013807.7A DE102007013807B4 (de) 2007-03-22 2007-03-22 Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene

Publications (2)

Publication Number Publication Date
DE102007013807A1 DE102007013807A1 (de) 2008-09-25
DE102007013807B4 true DE102007013807B4 (de) 2014-11-13

Family

ID=39713072

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007013807.7A Active DE102007013807B4 (de) 2007-03-22 2007-03-22 Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene

Country Status (2)

Country Link
US (1) US9406134B2 (de)
DE (1) DE102007013807B4 (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8090166B2 (en) 2006-09-21 2012-01-03 Surgix Ltd. Medical image analysis
IL184151A0 (en) 2007-06-21 2007-10-31 Diagnostica Imaging Software Ltd X-ray measurement method
JP5380121B2 (ja) * 2008-06-09 2014-01-08 株式会社東芝 超音波診断装置
WO2009153789A1 (en) 2008-06-18 2009-12-23 Surgix Ltd. A method and system for stitching multiple images into a panoramic image
US8337512B2 (en) * 2008-12-08 2012-12-25 Siemens Aktiengesellschaft Device and workflow for minimally-invasive therapy, in particular needle guidance
DE202010018601U1 (de) * 2009-02-18 2018-04-30 Google LLC (n.d.Ges.d. Staates Delaware) Automatisches Erfassen von Informationen, wie etwa Erfassen von Informationen unter Verwendung einer dokumentenerkennenden Vorrichtung
DE102010018872A1 (de) * 2010-04-30 2011-11-03 Siemens Aktiengesellschaft Bildgebendes Verfahren zur hervorgehobenen Darstellung von Gefäßen in einem Untersuchungsbereich eines Patienten und Medizinsystem zur Durchführung des Verfahrens
DE102010023027A1 (de) * 2010-06-08 2011-12-08 Hans-Udo Eickenberg Verfahren und Vorrichtung zum Erkennen und Erfassen eines nicht intakten Bereiches in einem Untersuchungsobjekt oder eines krankhaften, inbesondere malignen Gewebebereichs in einem Körper, insbesondere in der Prostata, sowie zur Festlegung eines Weges zur gezielten Probeentnahme mittels Instrument aus dem Inneren des Untersuchungsobjektes, insbesondere zur gezielten Gewebeentnahme (Biopsie) mittels Instrument (Nadel) aus dem Körper, insbesondere aus der Prostata
US20130322726A1 (en) * 2011-02-15 2013-12-05 Surgix Ltd. Methods, apparatuses, assemblies, circuits and systems for assessing, estimating and/or determining relative positions, alignments, orientations and angles of rotation of a portion of a bone and between two or more portions of a bone or bones
DE102012205949B4 (de) 2012-04-12 2018-07-19 Siemens Healthcare Gmbh Bildgebung mit einem C-Bogen-Angiographiesystem für eine Bronchoskopie
CA2878861A1 (en) * 2012-07-12 2014-01-16 Ao Technology Ag Method for generating a graphical 3d computer model of at least one anatomical structure in a selectable pre-, intra-, or postoperative status
WO2014160766A1 (en) 2013-03-26 2014-10-02 The Johns Hopkins University Task-based source-detector trajectories for tomographic imaging
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
JP6615603B2 (ja) * 2015-12-24 2019-12-04 キヤノンメディカルシステムズ株式会社 医用画像診断装置および医用画像診断プログラム
US11051886B2 (en) 2016-09-27 2021-07-06 Covidien Lp Systems and methods for performing a surgical navigation procedure
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
CN111163697B (zh) 2017-10-10 2023-10-03 柯惠有限合伙公司 用于在荧光三维重构中识别和标记目标的***和方法
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US10832436B2 (en) * 2018-04-05 2020-11-10 Symbol Technologies, Llc Method, system and apparatus for recovering label positions
US20210085211A1 (en) * 2019-09-24 2021-03-25 Covidien Lp Systems and methods for image-guided navigation of percutaneously- inserted devices
US11514624B2 (en) * 2020-03-16 2022-11-29 GE Precision Healthcare LLC Methods and systems for biopsy needle reconstruction error assessment
CN111513740B (zh) * 2020-04-13 2023-09-12 北京东软医疗设备有限公司 血管造影机的控制方法、装置、电子设备、存储介质
WO2022094060A1 (en) 2020-10-30 2022-05-05 Mako Surgical Corp. Robotic surgical system with slingshot prevention
CN114587584B (zh) * 2022-03-04 2023-10-03 杭州湖西云百生科技有限公司 提高骨科置钉操作安全性的导航***可视化方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004061591B3 (de) * 2004-12-21 2006-08-03 Siemens Ag Verfahren zum Betrieb eines bildgebenden medizinischen Gerätes
DE102005012698A1 (de) * 2005-03-18 2006-08-10 Siemens Ag Verfahren und Vorrichtung zur Navigation eines medizinischen Instruments in einer Gefäßstruktur eines Körpers

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6314310B1 (en) * 1997-02-14 2001-11-06 Biosense, Inc. X-ray guided surgical location system with extended mapping volume
US5930329A (en) * 1997-09-22 1999-07-27 Siemens Corporate Research, Inc. Apparatus and method for detection and localization of a biopsy needle or similar surgical tool in a radiographic image
US20030135115A1 (en) * 1997-11-24 2003-07-17 Burdette Everette C. Method and apparatus for spatial registration and mapping of a biopsy needle during a tissue biopsy
JP4443672B2 (ja) * 1998-10-14 2010-03-31 株式会社東芝 超音波診断装置
US6546279B1 (en) * 2001-10-12 2003-04-08 University Of Florida Computer controlled guidance of a biopsy needle
US6785572B2 (en) * 2001-11-21 2004-08-31 Koninklijke Philips Electronics, N.V. Tactile feedback and display in a CT image guided robotic system for interventional procedures
US7169155B2 (en) * 2001-12-14 2007-01-30 Scimed Life Systems, Inc. Methods and apparatus for guiding a needle
AU2003299488B2 (en) * 2002-05-10 2008-05-08 Wisconsin Alumni Research Foundation Low-temperature hydrocarbon production from oxygenated hydrocarbons
EP1646317A1 (de) * 2003-07-10 2006-04-19 Koninklijke Philips Electronics N.V. Vorrichtung und verfahren zur navigation eines instrumentes durch eine anatomische struktur
WO2005067800A1 (en) * 2004-01-13 2005-07-28 Robarts Research Institute An ultrasound imaging system and methods of imaging using the same
WO2006043639A1 (ja) * 2004-10-20 2006-04-27 Kabushiki Kaisha Toshiba 超音波診断装置及びその制御方法
US8046051B2 (en) * 2005-03-29 2011-10-25 Koninklijke Philips Electronics N.V. Method and apparatus for the observation of a catheter within a vessel system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004061591B3 (de) * 2004-12-21 2006-08-03 Siemens Ag Verfahren zum Betrieb eines bildgebenden medizinischen Gerätes
DE102005012698A1 (de) * 2005-03-18 2006-08-10 Siemens Ag Verfahren und Vorrichtung zur Navigation eines medizinischen Instruments in einer Gefäßstruktur eines Körpers

Also Published As

Publication number Publication date
US20080242971A1 (en) 2008-10-02
DE102007013807A1 (de) 2008-09-25
US9406134B2 (en) 2016-08-02

Similar Documents

Publication Publication Date Title
DE102007013807B4 (de) Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene
DE102008017111B4 (de) System und Verfahren zur Navigation eines Ojektes in einem abgebildeten Subjekt
DE102007013407B4 (de) Verfahren und Vorrichtung zur Bereitstellung einer Korrekturinformation
DE102010020284A1 (de) Bestimmung von 3D-Positionen und -Orientierungen von chirurgischen Objekten aus 2D-Röntgenbildern
DE102005059804A1 (de) Verfahren und Vorrichtung zur Bewegungskorrektur bei der Bildgebung während einer medizinischen Intervention
DE10136709B4 (de) Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
DE102010020781B4 (de) Bestimmung und Überprüfung der Koordinatentransformation zwischen einem Röntgensystem und einem Operationsnavigationssystem
JP2016193222A (ja) 画像を分析するための方法および装置
DE10323008A1 (de) Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken
DE102005030646A1 (de) Verfahren zur Kontur-Visualisierung von interessierenden Regionen in 2D-Durchleuchtungsbildern
DE102008044529A1 (de) System und Verfahren zur Verwendung von Fluoroskop- und Computertomographie-Registrierung für Sinuplastie-Navigation
DE10333543A1 (de) Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung
DE102013213727A1 (de) Interventionelles Bildgebungssystem
DE102010062340A1 (de) Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung
DE112021003530T5 (de) System zur Unterstützung eines Benutzers bei der Platzierung einer Eindringungsvorrichtung in Gewebe
DE102011080682A1 (de) Positionsbestimmung bei einer stereotaktischen Biopsie
DE102019200786A1 (de) Bildgebendes medizinisches Gerät, Verfahren zum Unterstützen von medizinischem Personal, Computerprogrammprodukt und computerlesbares Speichermedium
EP1464285B1 (de) Perspektivische Registrierung und Visualisierung interner Körperbereiche
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
WO2023275158A1 (de) Chirurgisches assistenzsystem mit verbesserter registrierung und registrierverfahren
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE10137914B4 (de) Verfahren zur Ermittlung einer Koordinatentransformation für die Navigation eines Objekts
DE102005022541A1 (de) Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild
DE102008054298B4 (de) Verfahren und Vorrichtung zur 3D-Visualisierung eines Eingriffspfades eines medizinischen Instrumentes, eines medizinischen Instrumentes und/oder einer bestimmten Gewebestruktur eines Patienten
WO2012025081A2 (de) Verfahren zur simultanen, parallelen, kontinuierlichen darstellung von gespeicherten, hochaufgelösten diagnostischen 3-d-bilddaten und 2-d-echtzeitschnittbilddaten während einer medizinischen intervention eines patienten und anordnung zur durchführung dieses verfahrens

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R409 Internal rectification of the legal status completed
R409 Internal rectification of the legal status completed
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0090000000

Ipc: A61B0034200000