DE102011082444A1 - Verfahren und Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments - Google Patents

Verfahren und Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments Download PDF

Info

Publication number
DE102011082444A1
DE102011082444A1 DE102011082444A DE102011082444A DE102011082444A1 DE 102011082444 A1 DE102011082444 A1 DE 102011082444A1 DE 102011082444 A DE102011082444 A DE 102011082444A DE 102011082444 A DE102011082444 A DE 102011082444A DE 102011082444 A1 DE102011082444 A1 DE 102011082444A1
Authority
DE
Germany
Prior art keywords
endoscopic instrument
image
data set
detection system
optical detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102011082444A
Other languages
English (en)
Inventor
Lutz Blohm
Martin Hoheisel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102011082444A priority Critical patent/DE102011082444A1/de
Publication of DE102011082444A1 publication Critical patent/DE102011082444A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Endoscopes (AREA)

Abstract

Die vorliegende Erfindung beschreibt ein Verfahren (1) zur bildunterstützten Navigation eines endoskopischen Instruments (10), das folgende Verfahrensschritte umfasst:
S1) Akquirieren eines 3D-Datensatzes eines Untersuchungsbereiches (13);
S2) Erfassen eines Bildes (31; 41) in einer optischen Aufsicht von zumindest einem Ausschnitt des Untersuchungsbereiches (13) durch ein optisches Erfassungssystem (11) eines endoskopischen Instruments (10);
S3) Bestimmung der räumlichen Lage und der Orientierung des endoskopischen Instruments (10) und des optischen Erfassungssystems (11) des endoskopischen Instruments (10);
S4) Registrierung des, durch das optische Erfassungssystem des endoskopischen Instruments, erfassten Bildes (31; 41) mit dem 3D-Datensatz;
S5) Darstellung des erfassten Bildes (31; 41) mit zumindest einem Teil des überlagerten 3D-Datensatzes;
S6) Beenden des Verfahrens, wenn ein Abbruchkriterium erfüllt ist, ansonsten Sprung zu Verfahrensschritt S2.

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zur bildunterstützten Navigation eines endoskopischen Instruments.
  • Darüber hinaus betrifft die vorliegende Erfindung eine entsprechende Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments.
  • Die Durchführung von medizinischen Interventionen im Inneren eines menschlichen oder tierischen Körpers erfolgt heutzutage nicht nur durch offene Operationen, sondern bevorzugt mit Hilfe von minimal-invasiv eingesetzten Instrumenten wie Endoskopen oder Laparoskopen. Diese können unmittelbar durch den behandelnden Operateur oder durch Vermittlung eines Robotersystems erfolgen.
  • Die kontrollierte Manipulation der interventionellen Instrumente erfolgt unter Sichtkontrolle, wobei entweder ein Mikroskopsystem oder eine an der Spitze des Instruments angeordnete Kamera verwendet wird. Das von der Kamera erzeugte Bild wird auf einem Bildschirm dargestellt oder durch ein Okular betrachtet.
  • Die dargestellten Bilder zeigen die inneren Organe und die Interventionsinstrumente in der optischen Aufsicht. Dadurch ist eine eindeutige Korrelation von zu behandelndem Objekt und Instrument gegeben. Allerdings gilt dies nur für die Oberfläche der Organe. Innerhalb oder hinter den Organen befindliche Strukturen wie z.B. dort verlaufende Nerven und Gefäße oder anderes empfindliches Gewebe sind nicht sichtbar und können somit bei einem Eingriff verletzt oder zerstört werden.
  • Einzelne Strukturen, wie z.B. Adern, können sich auf der Oberfläche des zu behandelnden Organs abzeichnen und können somit vom Operateur berücksichtigt werden. Vor allem aber sind die anatomischen Kenntnisse des Arztes gefordert, der genau wissen muss, an welcher Stelle empfindliche Strukturen zu erwarten sind.
  • Die Aufgabe der vorliegenden Erfindung besteht nun darin, die bildunterstützte Navigation eines endoskopischen Instruments weiter zu verbessern.
  • Die Erfindung löst diese Aufgabe mit einem Verfahren mit den Merkmalen des ersten unabhängigen Patentanspruchs und einer Vorrichtung mit den Merkmalen des zweiten unabhängigen Patentanspruchs.
  • Der Grundgedanke der Erfindung ist ein Verfahren zur bildunterstützten Navigation eines endoskopischen Instruments, das folgende Verfahrensschritte umfasst:
    • S1) Akquirieren eines 3D-Datensatzes eines Untersuchungsbereiches;
    • S2) Erfassen eines Bildes in einer optischen Aufsicht von zumindest einem Ausschnitt des Untersuchungsbereiches durch ein optisches Erfassungssystem eines endoskopischen Instruments;
    • S3) Bestimmung der räumlichen Lage und der Orientierung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments;
    • S4) Registrierung des, durch das optische Erfassungssystem des endoskopischen Instruments, erfassten Bildes (31; 41) mit dem 3D-Datensatz;
    • S5) Darstellung des erfassten Bildes mit zumindest einem Teil des überlagerten 3D-Datensatzes;
    • S6) Beenden des Verfahrens, wenn ein Abbruchkriterium erfüllt ist, ansonsten Sprung zu Verfahrensschritt S2.
  • Im ersten Verfahrensschritt wird ein 3D-Datensatz, d.h. ein 3D-Bild mit gegebenenfalls zusätzlichen Informationen, wie die räumliche Lage oder die Ausdehnung des aufgenommenen Bereiches, eines Untersuchungsbereiches akquiriert. Bei dem Untersuchungsbereich kann es sich beispielsweise um einen Teil eines Patienten handeln, der untersucht werden soll oder an dem ein chirurgischer Eingriff vorgenommen werden soll. Der 3D-Datensatz kann durch Computertomographie (CT), Magnetresonanztomographie (MR) oder ein anderes, räumliches bildgebendes Verfahren gewonnen werden. Eine weitere Möglichkeit besteht darin, ein Röntgengerät zu verwenden. Durch eine geeignete Serie von Röntgenaufnahmen aus verschiedenen Richtungen rund um den Patienten ist nach dem Stand der Technik ein 3D-Datensatz berechenbar.
  • Im zweiten Verfahrensschritt wird mit Hilfe eines optischen Erfassungssystems eines endoskopischen Instruments ein Bild von dem Untersuchungsbereich oder einem Ausschnitt davon erfasst. Wie eingangs erwähnt, besitzen moderne Endoskope meist ein optisches Erfassungssystem, das das Bild vor dem Endoskop entweder optisch an das außerhalb des Untersuchungsbereichs, insbesondere außerhalb des Patienten, liegende Ende des Endoskops weiterleitet, wo eine Videokamera angeschlossen ist, oder es ist eine Kamera direkt am im Untersuchungsbereich liegenden Ende des Endoskops angebracht, die das Bild dann elektronisch weiterleitet. Prinzipbedingt ist das Bild eine optische Aufsicht. Unter einem endoskopischen Instrument wird insbesondere ein schlauch- oder stabähnliches Gerät mit einer Länge von ca. 0,3 bis 1,5 m und einem Durchmesser von ca. 1 bis 20 mm verstanden, das das beschriebene optische Erfassungssystem umfasst. Weiter kann das endoskopische Instrument integrierte oder über Arbeitskanäle einführbare mikromechanische Geräte, wie kleine Zangen oder Greifer, umfassen, mit denen im Untersuchungsbereich untersuchende oder intervenierende Vorgänge durchführbar sind.
  • Im dritten Verfahrensschritt werden die räumliche Lage und die Orientierung bzw. die Ausrichtung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments bestimmt. Das optische Erfassungssystem kann fest mit dem Restteil des endoskopischen Instruments verbunden sein oder, z.B. durch Gelenke, in einer eindeutigen, mechanischen Beziehung dazu stehen. Vorstellbar ist auch, dass beispielsweise die Ausrichtung des optischen Erfassungssystems variabel einstellbar ist und deshalb dessen Ausrichtung neben der Ausrichtung des endoskopischen Instruments erfasst wird.
  • Im vierten Verfahrensschritt wird das, durch das optische Erfassungssystem des endoskopischen Instruments, erfasste Bild mit dem 3D-Datensatz registriert, das heißt, der 3D-Datensatz wird dem Bild, das durch das optische Erfassungssystem des endoskopischen Instruments erfasst wurde, überlagert. Dabei ist wesentlich, dass der 3D-Datensatz in Position, Größe, Projektion und Orientierung mit der räumlichen Lage und der Orientierung des optischen Erfassungssystems des endoskopischen Instruments möglichst in Übereinstimmung gebracht wird. Insbesondere müssen die Koordinatensysteme des radiologischen Bildes und des optischen Bildes und ihre relative Lage zueinander bekannt sein oder die Überlagerung erfolgt mit Hilfe von Bildmerkmalen, die sich in beiden Bildern wiederfinden. Diese sogenannte Bildregistrierung ist eine in der medizinischen Bildverarbeitung gängige Aufgabenstellung für die es zahlreiche Lösungsvorschläge gibt. Eine Lösung ist beispielsweise in der DE 10 2005 035 430 A1 beschrieben.
  • Im fünften Verfahrensschritt wird das mit dem Endoskop erfasste Bild mit dem überlagerten 3D-Datensatz oder einem Teil davon dargestellt. Zweckmäßig erfolgt die Darstellung auf einem Bildschirm.
  • Das Verfahren wird beendet, wenn ein Abbruchkriterium erfüllt ist. Ein Abbruchkriterium kann das Erreichen einer vorgebbaren Anzahl an Verfahrensdurchläufen, das Erreichen einer vorgebbaren Zeitdauer oder das Betätigen eines Tasters oder eines Schalters sein. Ist das Abbruchkriterium nicht erfüllt, wird wieder zum zweiten Verfahrensschritt verzweigt.
  • Vorzugsweise umfasst in Verfahrensschritt S5 der Teil des überlagerten 3D-Datensatzes denjenigen Teil, der in Vorwärtsrichtung des optischen Erfassungssystems des endoskopischen Instruments liegt. Hierunter ist zu verstehen, dass bei der Darstellung der Überlagerung von 3D-Datensatz und dem Bild des endoskopischen Instruments nur der Teil des 3D-Datensatzes dargestellt wird, der in der Vorwärtsrichtung der Kamera des endoskopischen Instruments liegt. Somit werden Bereiche die quasi „hinter“ der Kamera des Endoskops liegen nicht angezeigt, sondern nur solche, die „in Blickrichtung“ der Endoskopkamera liegen.
  • Günstigerweise werden ein oder mehrere weitere 3D-Datensätze des Untersuchungsbereiches oder eines Teils davon in den ursprünglichen 3D-Datensatz co-registriert. Damit kann der ursprüngliche 3D-Datensatz durch weitere 3D-Datensätze, die z.B. durch andere bildgebende Verfahren gewonnen wurden, ergänzt oder erweitert werden.
  • Mit besonderem Vorteil wird vor Verfahrensschritt S2 der 3D-Datensatz segmentiert. Insbesondere können Organe, Nerven, und/oder Gefäße segmentiert werden. In die nachfolgenden Verfahrensschritte geht dann der segmentierte 3D-Datensatz ein. Bildsegmentierung ist ein bekanntes Gebiet der medizinischen Bildverarbeitung. Prinzipiell wird dabei ein Bild, das auch räumlich sein kann, analysiert und besondere Objekte, wie Organe, Nerven, Gefäße, pathologische oder körperfremde Objekte, extrahiert. Die Analyse kann auch eine Klassifikation der Objekte umfassen, z.B. bezüglich mechanischer Eigenschaften oder des Risikos für einen Patienten bei einer Läsion des Objektes. Der Vorteil dieses Verfahrensmerkmals liegt unter anderem darin, dass segmentierte Objekte leichter und für einen menschlichen Betrachter übersichtlicher dem Bild des endoskopischen Instruments überlagert werden können.
  • Verzugsweise ist im 3D-Datensatz manuell oder automatisch wenigstens ein Bereich, insbesondere ein Organ, eine Nervenbahn, ein Gefäß und/oder ein anderes, durch ein endoskopisches Instrument leicht verletzbares, Objekt markiert. Die manuelle Markierung kann z.B. durch einen Arzt erfolgt sein, der den 3D-Datensatz oder segmentierte Objekte daraus an einem Monitor studiert und durch Eingabe mit einem Computereingabemittel besondere Objekte gekennzeichnet hat. Bei der späteren Ansicht des überlagerten Bildes der Endoskopkamera sind die markierten Bereiche dann sehr leicht identifizierbar. Eine automatische Markierung könnte dadurch geschehen, dass segmentierte Objekte, die als besonders gefährdet deklariert wurden, wie z.B. Blutgefäße, markiert werden. Durch ein Endoskop leicht verletzbare Objekte können beispielsweise durch eine Testreihe ermittelt werden, bei der z.B. die benötigte Kraft einer Endoskopspitze zum Durchdringen eines Objektes gemessen wird. Objekte, deren Durchdringungskraft z.B. kleiner als die von Muskelgewebe ist, könnten dann als „leicht verletzbare Objekte“ deklariert werden. Weiter können alle segmentierten Objekte automatisch markiert werden.
  • Eine bevorzugte Ausgestaltung der Erfindung sieht vor, dass ein optischer und/oder akustischer Hinweis ausgegeben wird, wenn das endoskopische Instrument auf einen der im 3D-Datensatz markierten Bereiche ausgerichtet ist. Mit der Kenntnis über die räumliche Lage und die Orientierung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments ist es möglich, einen frühen Hinweis oder eine Warnung auszugeben, wenn das endoskopische Instrument auf einen markierten und damit möglicherweise gefährdeten Bereich gerichtet ist. Ein optischer Hinweis könnte darin bestehen, dass der betreffende markierte Bereich in einer auffälligen Farbe oder in einer blinkenden Darstellung gezeichnet wird. Oder es wird in der Bilddarstellung ein Hinweistext eingeblendet. Ein akustischer Hinweis könnte darin bestehen, dass ein Warnton ausgegeben wird, der lauter oder in der Tonlage höher wird, je genauer das endoskopische Instrument auf einen markierten Bereich gerichtet ist.
  • In einer weiteren vorteilhaften Ausgestaltung wird der optische und/oder akustische Hinweis ausgegeben, wenn die Bewegung des endoskopischen Instruments auf einen der im 3D-Datensatz markierten Bereiche ausgerichtet ist. Hier geht demnach die Ableitung der räumlichen Lage nach der Zeit ein. Wird erkannt, dass sich das endoskopischen Instrument auf einen markierten und damit möglicherweise gefährdeten Bereich zu bewegt, wird eine Warnung, wie zuvor beschrieben, ausgegeben.
  • Vorzugsweise gehen in die Bestimmung der räumlichen Lage und der Orientierung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments mindestens ein optischer Marker, mindestens ein elektromagnetischer Marker und/oder mindestens ein RFID-Tag mit zugehörigem Empfängersystem ein. Für die Ortung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments bieten sich verschiedene Ortungssysteme an.
  • In einer Ausführung können am distalen Ende des endoskopischen Instruments optische Marker angebracht sein, die eine Ortung mit Hilfe eines Kamerasystems ermöglichen, wie es z.B. von der Firma Northern Digital Incorporated, NDI, in einem Produkt „Polaris“ gewerblich angeboten wird.
  • In einer anderen Ausführung kann an der Spitze des endoskopischen Instruments eine oder mehrere Spulen angeordnet sein, in denen durch ein elektromagnetisches Feld außerhalb des Patienten angebrachten Sendespulen eine Spannung induziert wird, die die Bestimmung von Position und Lage des endoskopischen Instruments ermöglicht. Ein solches System wird beispielsweise von der Firma Northern Digital Incorporated, NDI, in einem Produkt „Aurora“ gewerblich angeboten.
  • In noch einer weiteren Ausführung befindet sich an der Spitze des endoskopischen Instruments ein Hochfrequenz-Transponder, ein sogenannter RFID-Tag, für Radio Frequency Indentification Tag. Aus der Offenlegungsschrift DE 10 2006 029 122 A1 ist bekannt, die Position eines Hochfrequenz-Transponders (RFID-Tag) mit Hilfe einer phasenempfindlichen Auswertung des Empfangssignals zu bestimmen. Die Antennen der Transponder werden durch ein Hochfrequenz-Feld angeregt und versorgen die Transponder mit elektrischer Energie. Die Transponder senden ihrerseits ein Lokalisierungssignal aus, das von mehreren Empfangseinheiten phasensensitiv empfangen wird. Nach einem in der DE 10 2006 029 122 A1 näher beschriebenen Verfahren wird der genaue Ort jedes Transponders bestimmt.
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung sieht vor, dass neben der Darstellung des erfassten Bildes mit zumindest einem Teil des überlagerten 3D-Datensatzes auch zumindest ein Teil des endoskopischen Instruments visualisiert ist.
  • Dadurch, dass die räumliche Lage und die Orientierung des endoskopischen Instruments in einem zuvor beschriebenen Verfahren bestimmt sind, kann das endoskopische Instrument ebenfalls im 3D-Datensatz des Untersuchungsbereiches, z.B. auf einem Monitor, angezeigt werden. Mit der Kenntnis des geometrischen Aufbaus des endoskopischen Instruments können gleichermaßen starre wie flexible Instrumente visualisiert werden. Dies führt zu einer weiteren Verbesserung der bildunterstützten Navigation des endoskopischen Instruments.
  • Ein weiterer Grundgedanke der Erfindung betrifft eine Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments, das ein Mittel zum Akquirieren eines 3D-Datensatzes eines Untersuchungsbereiches, ein endoskopisches Instrument mit einem optischen Erfassungssystem zum Erfassen eines Bildes und ein Steuer- und Anzeigemittel umfasst. Weiter umfasst die Vorrichtung erfindungsgemäß ein Ortungssystem zum Bestimmen der räumlichen Lage und der Orientierung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments. Erfindungsgemäß ist das Steuer- und Anzeigemittel dazu ausgebildet, ein zuvor beschriebenes erfindungsgemäßes Verfahren zur bildunterstützten Navigation eines endoskopischen Instruments auszuführen.
  • Die nachfolgend näher geschilderten Ausführungsbeispiele stellen bevorzugte Ausführungsformen der vorliegenden Erfindung dar.
  • Weitere vorteilhafte Weiterbildungen ergeben sich aus den nachfolgenden Figuren samt Beschreibung. Es zeigen:
  • 1 ein exemplarisches Ablaufdiagramm eines erfindungsgemäßen Verfahrens;
  • 2 ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments;
  • 3 ein Ausführungsbeispiel für ein Bild eines endoskopischen Instruments, das mit segmentierten Strukturen aus einem 3D-Datensatz überlagert ist;
  • 4 ein Ausführungsbeispiel für ein Bild eines endoskopischen Instruments, das mit segmentierten Strukturen aus einem 3D-Datensatz überlagert ist und einen Warnhinweis umfasst.
  • 1 zeigt ein exemplarisches Ablaufdiagramm eines erfindungsgemäßen Verfahrens. Es umfasst die Verfahrensschritte S1 bis S6, die im Einzelnen lauten:
    • S1) Akquirieren eines 3D-Datensatzes eines Untersuchungsbereiches;
    • S2) Erfassen eines Bildes in einer optischen Aufsicht von zumindest einem Ausschnitt des Untersuchungsbereiches durch ein optisches Erfassungssystem eines endoskopischen Instruments;
    • S3) Bestimmung der räumlichen Lage und der Orientierung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments;
    • S4) Registrierung des, durch das optische Erfassungssystem des endoskopischen Instruments, erfassten Bildes (31; 41) mit dem 3D-Datensatz;
    • S5) Darstellung des erfassten Bildes mit zumindest einem Teil des überlagerten 3D-Datensatzes;
    • S6) Beenden, „End“, des Verfahrens, wenn ein Abbruchkriterium erfüllt, „Y“, ist, ansonsten, „N“, Sprung zu Verfahrensschritt S2.
  • In 2 ist ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung 2 zur bildunterstützten Navigation eines endoskopischen Instruments 10 dargestellt. Es zeigt einen Interventions-Arbeitsplatz mit einem Untersuchungsobjekt, hier einem Patienten 14, der auf einem Tisch 6 liegt, der von einer Säule 7 getragen wird. Ein C-Bogen-Röntgengerät mit einem C-Bogen 3, an dem ein Röntgenstrahler 5 und ein Röntgendetektor 4 angeordnet sind, dient der radiologischen Bildgebung. Durch eine geeignete Serie von Röntgenaufnahmen aus verschiedenen Richtungen rund um den Patienten ist nach dem Stand der Technik ein 3D-Datensatz eines Untersuchungsbereiches 13 berechenbar und über ein erstes Verbindungsmittel 16 einem Steuer- und Anzeigemittel 15 zuführbar. Der minimal-invasive Eingriff wird mit Hilfe eines endoskopischen Instruments 10, hier ein Laparoskop, vorgenommen, das eine Kamera 11 und ein Interventions- oder Untersuchungsteil 12 umfasst. Die Kamera 11 ist an dem Ende des Laparoskops, das zum Untersuchungsbereich 13 ausgerichtet ist, angeordnet und nimmt Bilder eines zu behandelnden Organs, das innerhalb des Untersuchungsbereiches 13 liegt, auf. Die Bilder können auf dem Steuer- und Anzeigemittel 15, hier ein Computer mit Bildschirm, angezeigt werden. Weiter sind an dem Laporoskop 10 RFID-Tags 20 angeordnet, die es mit den im Raum angeordneten Messvorrichtungen 19 und mit Hilfe eines Auswertesystems 18 ermöglichen, den Ort und die Orientierung des Laparoskops 10 zu bestimmen. Die Daten des Auswertesystems 18 werden über ein zweites Verbindungsmittel 17 dem Steuer- und Anzeigemittel 15 zugeführt. Das Steuer- und Anzeigemittel 15 ist dazu ausgebildet, ein zuvor beschriebenes erfindungsgemäßes Verfahren zur bildunterstützten Navigation eines endoskopischen Instruments auszuführen.
  • 3 zeigt ein Ausführungsbeispiel 30 für ein Bild 31 eines endoskopischen Instruments, das mit segmentierten Strukturen 32 aus einem 3D-Datensatz überlagert ist. Ausgehend von einem minimal-invasiven Interventionsinstrument, wie einem Endoskop oder einem Laparoskop, wird einem, von dem optischen System des Instruments erzeugten, Bild 31 ein radiologisches Bild dergestalt überlagert, dass für einen Operateur, der einen Eingriff vornimmt, sichtbar wird, welche anatomischen Strukturen sich in Vorwärtsrichtung seines Eingriffs befinden. Dazu definiert der Operateur zunächst, in welchem Volumen, d.h. in welchem Untersuchungsbereich, die vorhandenen Strukturen visualisiert werden sollen. Vor der Durchführung des Eingriffs wird, z.B. mit Hilfe eines C-Bogen-Röntgengerätes, eine 3D-Aufnahme des interessierenden Organs erstellt. Die räumliche Lage des 3D-Datensatzes ist bekannt, da durch die Kalibrierung des Systems das Iso-Zentrum festgelegt wurde. Da diese 3D-Aufnahme erst unmittelbar vor dem Eingriff, mit dem Patienten gelagert und der Bauchhöhle aufgeblasen, erfolgt, werden alle anatomischen Gegebenheiten lagerichtig dargestellt. Das radiologische Bild umfasst beispielsweise ein Gefäßsystem 32 innerhalb des zu operierenden Organs. Dieses Gefäßsystem 32 wird durch eine Bildsegmentierung segmentiert. Die Kamera des Laparoskops erfasst einen Bildausschnitt 31 des Operationsgebietes. Ein Ortungssystem bestimmt den Ort und die Orientierung des Laparoskops, so dass nun bekannt ist, wie dieser Bildausschnitt räumlich angeordnet ist. Dies ermöglicht unter anderem, bei einer Drehung des Laparoskops, das dargestellte Bild auf einem Bildschirm ebenfalls in entsprechender Richtung zu drehen. So kann beispielsweise die Drehung dergestalt erfolgen, dass die kraniale Richtung auf dem Bildschirm nach oben dargestellt wird. Erfindungsgemäß werden die 3D-Daten des Untersuchungsgebiets vor dem Laparoskop, das von der Kamera erfasst wird, in das Kamerabild lagerichtig eingeblendet oder ihm überlagert.
  • In 4 schließlich ist ein Ausführungsbeispiel 40 für ein Bild 41 eines endoskopischen Instruments, das mit segmentierten Strukturen 42 aus einem 3D-Datensatz überlagert ist und einen Warnhinweis 44 umfasst, abgebildet. Die Ausführungen aus 3 sind auch für 4 zutreffend. Weiter wurde ein präoperativ aufgenommener Datensatz, z.B. aus einem CT- oder MR-Datensatz, der zusätzliche Informationen z.B. ein Gefäß 45, in den ursprünglich aufgenommenen intra-operativen 3D-Datensatz co-registriert. Das mit den beiden 3D-Datensätzen überlagerte Bild 40 zeigt weiter als Teil des endoskopischen Intruments ein mikromechanisches Instrument, z.B. ein Greifer, das nachfolgend als Interventionsinstrument 43 bezeichnet wird. Mit den durch das Ortungssystem bekannten Informationen über Ort und Orientierung des Interventionsinstruments 43 und deren zeitlichem Verlauf, lässt sich, z.B. unter der Annahme, dass sich die Bewegung gleichmäßig fortsetzt, vorausberechnen, welchen Weg das verwendete Interventionsinstrument 43 bei progressivem Vorschub nehmen würde und welche Strukturen es damit erreichen würde. Der Operateur hat die Strukturen 42 und 45 als Strukturen, die nicht berührt oder lädiert werden dürfen, markiert. Der Operateur wird somit in die Lage versetzt, auf Basis der vorliegenden radiologischen Datensätze in den Bildern zu vermeidende Areale zu markieren. Alternativ kann auf der Basis der Segmentierung des radiologischen Datensatzes eine Deklaration von gefährdeten Strukturen erfolgen. Das System ist in der Lage, während des Eingriffs zu warnen, falls das Interventionsinstrument diesen Arealen zu nahe kommt, d.h. falls beispielsweise eine vorgebbare Distanz unterschritten ist. Im Ausführungsbeispiel 40 bewegt sich das Interventionsinstrument 43 in Richtung 46, so dass das System eine potenzielle Berührung oder Läsion des Bereiches 47 durch einen optischen Warnhinweis 44 in Form z.B. eines blinkenden, sternförmigen Piktogramms, signalisiert. Der Bereich 45 ist, erkennbar durch die Ausrichtung und die Bewegungsrichtung 46 des Interventionsinstruments 43, nicht durch das Interventionsinstrument 43 gefährdet, so dass hier keine Warnung erfolgt.
  • Zusammenfassend kann man sagen, dass durch die erfindungsgemäße Überlagerung von optischen Bildern, wie sie von minimalinvasiven Interventionsvorrichtungen erzeugt werden, mit radiologischen Bildern, hinter der Oberfläche der zu behandelnden Organe liegende Strukturen sichtbar gemacht werden können. Dies erleichtert minimal-invasive Eingriffe zielgerichtet, genau und unter Vermeidung der Erzeugung unerwünschter Läsionen vorzunehmen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102005035430 A1 [0013]
    • DE 102006029122 A1 [0025]

Claims (11)

  1. Verfahren (1) zur bildunterstützten Navigation eines endoskopischen Instruments (10) umfassend folgende Verfahrensschritte: S1) Akquirieren eines 3D-Datensatzes eines Untersuchungsbereiches (13); S2) Erfassen eines Bildes (31; 41) in einer optischen Aufsicht von zumindest einem Ausschnitt des Untersuchungsbereiches (13) durch ein optisches Erfassungssystem (11) eines endoskopischen Instruments (10); S3) Bestimmung der räumlichen Lage und der Orientierung des endoskopischen Instruments (10) und des optischen Erfassungssystems (11) des endoskopischen Instruments (10); S4) Registrierung des, durch das optische Erfassungssystem des endoskopischen Instruments, erfassten Bildes (31; 41) mit dem 3D-Datensatz; S5) Darstellung des erfassten Bildes (31; 41) mit zumindest einem Teil des überlagerten 3D-Datensatzes; S6) Beenden des Verfahrens, wenn ein Abbruchkriterium erfüllt ist, ansonsten Sprung zu Verfahrensschritt S2.
  2. Verfahren (1) nach Anspruch 1, wobei das Abbruchkriterium das Erreichen einer vorgebbaren Anzahl an Verfahrensdurchläufen oder das Erreichen einer vorgebbaren Zeitdauer oder das Betätigen eines Tasters oder das Betätigen eines Schalters ist.
  3. Verfahren (1) nach Anspruch 1 oder Anspruch 2, wobei in Verfahrensschritt S5 der Teil des überlagerten 3D-Datensatzes denjenigen Teil umfasst, der in Vorwärtsrichtung des optischen Erfassungssystems (11) des endoskopischen Instruments (10) liegt.
  4. Verfahren (1) nach einem der vorhergehenden Ansprüche, wobei unmittelbar nach Verfahrensschritt S1 mindestens ein weiterer 3D-Datensatz von zumindest einem Teil des Untersuchungsbereiches (13) in den ursprünglichen 3D-Datensatz coregistriert ist.
  5. Verfahren (1) nach einem der vorhergehenden Ansprüche, wobei unmittelbar vor Verfahrensschritt S2 der 3D-Datensatz segmentiert ist, wobei insbesondere Organe, Nerven, und/oder Gefäße segmentiert sind, und in die nachfolgenden Verfahrensschritte der segmentierte 3D-Datensatz (32; 42) eingeht.
  6. Verfahren (1) nach einem der vorhergehenden Ansprüche, wobei im 3D-Datensatz manuell oder automatisch wenigstens ein Bereich (45, 47), insbesondere ein Organ, eine Nervenbahn, ein Gefäß und/oder ein anderes, durch ein endoskopisches Instrument (10) leicht verletzbares Objekt, markiert ist.
  7. Verfahren (1) nach Anspruch 6, wobei ein optischer und/oder ein akustischer Hinweis (44) ausgegeben wird, wenn das endoskopische Instrument (10) auf einen, der im 3D-Datensatz markierten Bereiche (45, 47) ausgerichtet ist.
  8. Verfahren (1) nach Anspruch 6 oder Anspruch 7, wobei der optische und/oder akustische Hinweis (44) ausgegeben wird, wenn die Bewegung des endoskopischen Instruments (10) auf einen, der im 3D-Datensatz markierten Bereiche (45, 47) ausgerichtet ist.
  9. Verfahren (1) nach einem der vorhergehenden Ansprüche, wobei in die Bestimmung der räumlichen Lage und der Orientierung des endoskopischen Instruments (10) und des optischen Erfassungssystems (11) des endoskopischen Instruments mindestens ein optischer Marker, mindestens ein elektromagnetischer Marker und/oder mindestens ein RFID-Tag (20), mit jeweils zugehörigem Empfängersystem (18, 19) eingehen.
  10. Verfahren (1) nach einem der vorhergehenden Ansprüche, wobei unmittelbar nach Verfahrensschritt S5 zumindest ein Teil (12) des endoskopischen Instruments (10) im 3D-Datensatz visualisiert ist.
  11. Vorrichtung (2) zur bildunterstützten Navigation eines endoskopischen Instruments (10) umfassend ein Mittel zum Akquirieren eines 3D-Datensatzes eines Untersuchungsbereiches (13), ein endoskopisches Instrument (10) mit einem optischen Erfassungssystem (11) zum Erfassen eines Bildes (31, 41) und ein Steuer- und Anzeigemittel (15), dadurch gekennzeichnet, dass die Vorrichtung (2) ein Ortungssystem (18, 19, 20) zum Bestimmen der räumlichen Lage und der Orientierung des endoskopischen Instruments (10) und des optischen Erfassungssystems (11) des endoskopischen Instruments (10) umfasst und dass das Steuer- und Anzeigemittel (15) dazu ausgebildet ist, ein Verfahren (1) nach einem der Ansprüche 1 bis 10 auszuführen.
DE102011082444A 2011-09-09 2011-09-09 Verfahren und Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments Ceased DE102011082444A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011082444A DE102011082444A1 (de) 2011-09-09 2011-09-09 Verfahren und Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011082444A DE102011082444A1 (de) 2011-09-09 2011-09-09 Verfahren und Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments

Publications (1)

Publication Number Publication Date
DE102011082444A1 true DE102011082444A1 (de) 2012-12-20

Family

ID=47228344

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011082444A Ceased DE102011082444A1 (de) 2011-09-09 2011-09-09 Verfahren und Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments

Country Status (1)

Country Link
DE (1) DE102011082444A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3041409A1 (de) * 2013-09-06 2016-07-13 Koninklijke Philips N.V. Navigationssystem
EP2996617B1 (de) * 2013-05-09 2021-04-14 Koninklijke Philips N.V. Robotische steuerung eines endoskops aus anatomischen merkmalen

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6459481B1 (en) * 1999-05-06 2002-10-01 David F. Schaack Simple system for endoscopic non-contact three-dimentional measurement
DE102005035430A1 (de) 2005-07-28 2007-02-01 Siemens Ag Verfahren zur verbesserten Darstellung co-registrierter 2D-3D-Bilder in der medizinischen Bildgebung
US20070276234A1 (en) * 2003-10-21 2007-11-29 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Intraoperative Targeting
DE102006029122A1 (de) 2006-06-22 2007-12-27 Amedo Gmbh System zur Bestimmung der Position eines medizinischen Instrumentes
US20080097155A1 (en) * 2006-09-18 2008-04-24 Abhishek Gattani Surgical instrument path computation and display for endoluminal surgery
WO2011086431A1 (en) * 2010-01-13 2011-07-21 Koninklijke Philips Electronics N.V. Image integration based registration and navigation for endoscopic surgery
WO2011090628A2 (en) * 2009-12-29 2011-07-28 Angiotech Pharmaceuticals, Inc. Bidirectional self-retaining sutures with laser-marked and/or non-laser marked indicia and methods

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6459481B1 (en) * 1999-05-06 2002-10-01 David F. Schaack Simple system for endoscopic non-contact three-dimentional measurement
US20070276234A1 (en) * 2003-10-21 2007-11-29 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Intraoperative Targeting
DE102005035430A1 (de) 2005-07-28 2007-02-01 Siemens Ag Verfahren zur verbesserten Darstellung co-registrierter 2D-3D-Bilder in der medizinischen Bildgebung
DE102006029122A1 (de) 2006-06-22 2007-12-27 Amedo Gmbh System zur Bestimmung der Position eines medizinischen Instrumentes
US20080097155A1 (en) * 2006-09-18 2008-04-24 Abhishek Gattani Surgical instrument path computation and display for endoluminal surgery
WO2011090628A2 (en) * 2009-12-29 2011-07-28 Angiotech Pharmaceuticals, Inc. Bidirectional self-retaining sutures with laser-marked and/or non-laser marked indicia and methods
WO2011086431A1 (en) * 2010-01-13 2011-07-21 Koninklijke Philips Electronics N.V. Image integration based registration and navigation for endoscopic surgery

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2996617B1 (de) * 2013-05-09 2021-04-14 Koninklijke Philips N.V. Robotische steuerung eines endoskops aus anatomischen merkmalen
US11284777B2 (en) 2013-05-09 2022-03-29 Koninklijke Philips N.V. Robotic control of an endoscope from anatomical features
EP3041409A1 (de) * 2013-09-06 2016-07-13 Koninklijke Philips N.V. Navigationssystem
US11395702B2 (en) 2013-09-06 2022-07-26 Koninklijke Philips N.V. Navigation system

Similar Documents

Publication Publication Date Title
EP2632382B2 (de) Navigationsaufsatz für optische geräte in der medizin und verfahren
DE19914455B4 (de) Verfahren zur Bestimmung der Bewegung eines Organs oder Therapiegebiets eines Patienten sowie hierfür geeignetes System
EP0652726B1 (de) Verfahren zur darstellung des inneren von körpern
DE10210645B4 (de) Verfahren zur Erfassung und Darstellung eines in einen Untersuchungsbereich eines Patienten eingeführten medizinischen Katheters
DE102007059599B4 (de) Vorrichtung für eine medizinische Intervention und Betriebsverfahren für eine Vorrichtung für eine medizinische Intervention
DE10136709B4 (de) Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
DE102005045073B4 (de) Verfahren zum visuellen Unterstützen einer invasiven Untersuchung oder Behandlung des Herzens mit Hilfe eines invasiven Instruments
DE102011007796B4 (de) Verfahren zur Ermittlung einer Zielposition für eine medizinische Maßnahme
DE102009025077A1 (de) System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
DE102006001884A1 (de) Verfahren zur bildlichen Unterstützung einer Führung eines in einen Hohlraum eines Untersuchungsobjekts mindestens teilweise eingeführten medizinischen Instruments
EP1199031A2 (de) Röntgenfreies intravaskuläres Lokalisierungs- und Bildgebungsverfahren
DE102008013611A1 (de) Vorrichtung und Verfahren für einen medizinischen Eingriff
DE102006060421B4 (de) Medizinisches System zur bildgestützten Diagnose oder Therapie des Körpers eines Patienten sowie von dem System durchgeführtes Verfahren
DE102013109486A1 (de) Navigationsaufsatz
DE102014102425B4 (de) Mikroskopsystem und Mikroskopieverfahren unter Verwendung digitaler Marker
DE102008032508B4 (de) Medizinische Untersuchungs- und Behandlungseinrichtung zur Planung und Durchführung einer Punktion eines Patienten sowie zugehöriges Verfahren
DE102011006537B4 (de) Verfahren zur Registrierung eines ersten Koordinatensystems einer ersten medizinischen Bildgebungseinrichtung mit einem zweiten Koordinatensystem einer zweiten medizinischen Bildgebungseinrichtung und/oder einem dritten Koordinatensystem eines medizinischen Instruments, welches durch Marker einer medizinischen Navigationseinrichtung definiert ist, und medizinisches Untersuchungs- und/oder Behandlungssystem
DE102012214589B4 (de) Verfahren und Vorrichtung zur Darstellung eines biologischen Hohlorgans
DE19951502A1 (de) System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild
DE102012217634A1 (de) Patientenlagerungsvorrichtung, medizinisches Bildgebungssystem und Verfahren zur medizinischen Bildgebung
DE102005022901B4 (de) Verfahren und Vorrichtung zur Orientierungsbestimmung eines sich in einem Objekt befindlichen Instruments
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
DE102011082444A1 (de) Verfahren und Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments
DE102007030747A1 (de) Verfahren und Einrichtung zum Durchführen eines minimalinvasiven Eingriffs in einem menschlichen oder tierischen Hohlorgan
DE102021205700B4 (de) Darstellungsvorrichtung zur Anzeige einer erweiterten Realität und Verfahren zum Bereitstellen einer erweiterten Realität

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R230 Request for early publication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20130216