DE102005012295A1 - Verfahren zu endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System - Google Patents

Verfahren zu endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System Download PDF

Info

Publication number
DE102005012295A1
DE102005012295A1 DE102005012295A DE102005012295A DE102005012295A1 DE 102005012295 A1 DE102005012295 A1 DE 102005012295A1 DE 102005012295 A DE102005012295 A DE 102005012295A DE 102005012295 A DE102005012295 A DE 102005012295A DE 102005012295 A1 DE102005012295 A1 DE 102005012295A1
Authority
DE
Germany
Prior art keywords
camera
endoscope
virtual
calibration
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102005012295A
Other languages
English (en)
Other versions
DE102005012295B4 (de
Inventor
Wolfgang Konen
Martin Scholz
Stephan Tombrock
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102005012295A priority Critical patent/DE102005012295B4/de
Publication of DE102005012295A1 publication Critical patent/DE102005012295A1/de
Application granted granted Critical
Publication of DE102005012295B4 publication Critical patent/DE102005012295B4/de
Withdrawn - After Issue legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Endoscopes (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur endoskopischen Navigation im Innern von Körpern, bestehend aus den Schritten DOLLAR A a. Bereitstellung eines optischen Abbildungssystems, bestehend aus Kamera, vorgeschaltetem Endoskop und nachgeschaltetem Monitor, DOLLAR A b. Bereitstellung eines Lagesensors in starrer Verbindung mit Kamera und Endoskop, DOLLAR A c. laufende Erfassung der räumlichen 3-D-Position der Kamera durch Positionsmesssystem, DOLLAR A d. fortgesetze Speicherung von Kamerabildern und der zugehörigen 3-D-Position der Kamera in digitalem Format auf einem Computer, DOLLAR A dadurch gekennzeichnet, dass man mehrfache Messungen bzw. Aufnahmen zwecks Eichung der Kamera und des Kamera-Endoskop-Systems miteinander verrechnet, dergestalt, dass die intrinsische Verzerrung der Kamera korrigiert wird und eine metrisch genaue Lokalisierung von Landmarken möglich ist. Weiterhin werden die gespeicherten Kamerabilder mit ihren zugehörigen 3-D-Positionen dazu genutzt, virtuelle Endoskopbilder zu berechnen, die dem Nutzer realitätsnahe Ansichten (Virtual oder Augmented Reality) endoskopischer Kamerabilder passend zur aktuellen Endoskopbewegung liefern. Die Erfindung betrifft die Nutzung virtueller Endoskopbilder für verschiedene Funktionen: Trainingsumgebung für Operateure, virtuelle Bildgebung bei Verlust der Sicht und virtuelle Bildausschnittsvergrößerung als Navigationshilfe.

Description

  • Die Erfindung behandelt ein Verfahren und eine Vorrichtung zur endoskopischen Navigation im Innern von Körpern.
  • Die Endoskopie wird in zunehmendem Maße bei Operationen eingesetzt, um die Belastung für den Patienten zu verringern. Die Handhabung erfordert vom Operateur höchste Geschicklichkeit, da das Operationsfeld dem Auge nicht frei zugänglich ist, sondern nur indirekt über die Kamera des Endoskops betrachtet wird. Weiterhin liefert das Endoskop nur einen eng umgrenzten, vergrößerten Gesichtsfeldausschnitt und es bewegt sich im Innern von Körpern in komplexen Hohlräumen, in denen die Navigation, insbesondere ohne die Verletzung sensibler organischer Strukturen, ein komplexes Problem sein kann.
  • Es besteht daher, wie auch bei anderen minimal-invasiven Operationsverfahren, ständiger Bedarf an die Navigation unterstützenden Verfahren, wobei es sich oft um bildgebende und bildverarbeitende Verfahren handelt, die auf Bilder zurückgreifen, die vor oder während der OP aufgezeichnet wurden.
  • Viele Publikationen über die Nutzung von Bildern in Computer Aided Surgery behandeln die Registration präoperativer 3D-Daten (CT, MRI) mit der intraoperativen Situation (Cinquin, P., E. Bainville et al: Computer assisted medical interventions. IEEE Engineering in medicine and biology (1995)). Hierbei können jedoch lediglich direkte (also nicht-endoskopische) OPs unterstützt werden, in denen Operationsinstrumente (z.B. ein starrer 3D-Stylus) in das Operationsfeld gehalten werden und bei geeigneter Eichung seine Position im präoperativen 3D-Dätenfeld angezeigt wird (Horstmann G.A., H.F. Reinhardt, Micro-stereometry: a frameless computerized navigating system for open microsurgery. Comput Med. Imaging Graph. 18, 229-233 (1994)). Die Integration eines Navigationssystems in ein Mikroskop wurde ebenfalls realisiert und gehört inzwischen zur OP-Routine (Handers et al.: Mikrochirurgische Planung und Durchführung bei Großhirngliomen und erste Erfahrungen mit dem Mehr-Koordinaten-Manipulator MKM.; DAG Aachen, Shaker 1995 s. auch DE-A 3717 871)
  • Der Nachteil all dieser Verfahren ist, dass sie nicht auf die endoskopische Operation übertragbar sind, da dort der direkte Zugang zum Operationsfeld mit einem starren Gerät verwehrt ist. Weiterhin wird das Operationsfeld nur über die Kamera beobachtet, die aufgrund der optischen Randbedingungen ein stark verzeichnetes und vergrößertes Bild der Situation liefert (s. 3). Die oben beschriebenen Verfahren sind nicht in der Lage, eine 3D-Kalibrierung des Systems (Patient – Kamera – Endo skop – Navigationssystem) durchzuführen. Ein verbessertes Verfahren zur Kamera- und Systemeichung ist daher ein Kernpunkt der Erfindung.
  • In US 5 776 050 (D.T. Chen et al.) wird ein anatomisches Visualisierungssystem in Kopplung mit einem Endoskop beschrieben. Hier wird das Endoskop zwar mit einem Lagesensor in seiner 3D-Position verfolgt, eine direkte Eichung auf das Kamerabild findet jedoch nicht statt. Vielmehr wird die Endoskop-Position geeicht und damit ein virtuelles Endoskop in andere 3D-Datenfelder (z.B. CT oder MRI) eingeblendet. Nachteilig ist, dass man bei der Eichung mit der Endoskopspitze Referenzpunkte berühren muss; ein Verfahren, das sich in der Neuro- oder endonasalen Chirurgie in der Regel wegen Verletzungsgefahr verbietet. Weiterhin läßt sich so keine genaue 3D-Vermessung im Kamerabild erreichen.
  • Eine der wenigen Publikationen, welche eine Eichung in Kombination mit endoskopischen Verfahren beschreibt ist WO94/03100 (M. Truppe). Hier wird ein Verfahren angegeben, bei dem Punkte aus einem 3D-Datenfeld in das Kamerabild des Endoskopes eingeblendet werden und mit dem bei Differenz zwischen Ist-Position und Soll-Position solcher Punkte eine Eichung des Systems (vor oder während der OP) durchgeführt werden kann, die diese Differenz zu beseitigen sucht. Dies ist vorteilhaft, wenn man während der OP eine Anpassung an geänderte Bedingung (z.B. Gewebeverschiebung oder Resektion) vornehmen muss. Ebenfalls wird eine grobe Entzerrung des Kamerabildes beschrieben. Nachteilig an dem Verfahren ist, dass eine wiederholte Nacheichung in der Regel die Ergebnisse vorheriger Nacheichungen überschreiben wird und so keine Verrechnung verschiedener Ist-Soll-Differenzen zur Erhöhung der Genauigkeit stattfindet und die Nacheichung nur lokal Gültigkeit besitzt. Gleichermaßen wird bei der Entzerrung nur von einem verzeichneten Bild ausgegangen, woraus keine Eichung aller der die Kamera und das System betreffenden 11 Parameter (6 extrinsische, 5 intrinsische) möglich ist. Dem Fachmann geläufig sind jedoch Verfahren (z. B. aus Tsai, R.Y.: A versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision, IEEE Journal of Robotics and Automation, Vol. RA-3, No.4, 1987), mit denen alle diese Eichparameter gleichzeitig bestimmt werden, was jedoch eine mehrfache Aufnahme von Kalibrierpattern und deren Verrechnung erfordert.
  • Ein weiterer Innovationsbereich der Erfindung betrifft die Nutzung der aufgezeichneten Kamerabilder zusammen mit ihrer 3D-Aufnahmeposition für Anwendungen der Virtual Reality und/oder Augmented Reality, insbesondere auch außerhalb der realen OP-Situation. In Kawamata, T., Iseki, H. et al, Endoscopic Augmented Reality Navigation System, Neurosurgery, 50, No. 6, 2002 wird ein Verfahren beschrieben, mit dem sich im Sinne von Augmented Reality 3D-Strukturen (z.B. eines Tumors) in das reale Endoskopbild einblenden lassen. Eine Generierung von virtuellen Endoskopbildern findet jedoch nicht statt.
  • In A.J. Lemke et al., Virtuelle MR-Ventrikelendoskopie vor neurochirurgischer interventioneller Endoskopie – Evaluierung verschiedener Darstellungstechniken, Fortschr. Röntgenstr. 176, 1106-1113, 2003 wird ein Verfahren beschrieben, bei dem aus hochaufgelösten MRI-Daten virtuelle Endoskopbilder mittels Techniken der Computergraphik (Surface und Volume Rendering) erzeugt werden. Dieses Verfahren hat seinen Vorteil in der patientenbezogenen OP-Planung vor der eigentlichen endoskopischen Operation. Für die in dieser Erfindung beschriebenen Aufgabenbereiche der Virtual Reali ty hat es jedoch verschiedene Nachteile: Die für die hochaufgelösten MRI-Daten notwendige MR-Tomografie ist aufwendig und teuer. Weiterhin erfordert das Surface und Volume Rendering bei aller Automatisierbarkeit immer noch einen erheblichen Bearbeitungsaufwand durch einen Fachmann. Schließlich spiegeln die erzeugten endoskopischen Bilder in Bezug auf Material-, Oberflächen- und Trübungseigenschaften nicht die Gegebenheiten der realen endoskopischen OP wieder und sind so nur bedingt zum allgemeinen endoskopischen Training einsetzbar.
  • Beschreibung der Erfindung
  • Die Erfindung betrifft ein Verfahren zur endoskopischen Navigation im Innern von Körpern, dessen grundlegender Aufbau in 1 gezeigt ist, bestehend aus den Schritten
    • a. Bereitstellung eines optischem Abbildungssystem bestehend aus Kamera und vorgeschaltetem Endoskop (a) und nachgeschaltetem Monitor (e),
    • b. Bereitstellung eines Lagesensors (3b) in starrer Verbindung mit Kamera und Endoskop,
    • c. laufende Erfassung der räumlichen 3D-Kameraposition durch Positionsmesssystem (c),
    • d. fortgesetzter Speicherung von Kamerabildern und der zugehörigen 3D-Position der Kamera in digitalem Format auf einem Computer (d)
    in Zusammenhang mit einem erfindungsgemäß entwickelten Eichverfahren.
  • Das Einsatzgebiet der Erfindung betrifft hierbei sowohl die Nutzung im OP durch den operierenden Arzt, als auch die Nutzung der fortgesetzt aufgezeichneten Bilder in Zusammenhang mit Bildverarbeitungs- und -generierungsverfahren ausserhalb des OPs zu Schulungszwecken (Demonstration, Training für ärztliches Personal).
  • Aufgabe der vorliegenden Erfindung war es zunächst, ein gegenüber dem bekannten Stand der Technik verbessertes Verfahren zur Kamera- und Systemeichung für die endoskopische Navigation zu gewinnen. Die Verbesserung erlaubte erstmals eine exakte Vermessung von 3D-Landmarken. Die Verbesserung betraf dabei sowohl die Genauigkeit der erzielten Eichung als auch die einfachere Handhabbung und Durchführung der hierzu nötigen Messungen.
  • Eine weitere Aufgabe der Erfindung war es, die Problematik zu lösen, dass Bilder und 3D-Positionen nicht lückenlos mit Videorate (25 Hz) gespeichert werden können, da hierzu die Datenrate zu hoch ist und auch die Messungen des Positionsmesssystems nicht in dieser Rate eintreffen. Deshalb werden die gespeicherten Bilder nicht "ruckelfrei" abspielbar sein.
  • Die die Erfindung beschreibenden Figuren zeigen:
  • 1: Schematische Zeichnung des intraoperativen Aufbaus. Das Endoskop (a) ist starr verbunden mit dem LED-Positionsgeber (b), der seinerseits vom OPMS (c) beobachtet wird. Die vom OPMS (c) gemessenen 3D-Positionen werden zum PC (d) übertragen. Die von der Endoskopkamera aufgenommenen Bilder werden sowohl zum PC (d) als auch zu einem Realbild-Endoskopmonitor (e) über tragen. Auf dem VN-Monitor (f) wird das Realbild oder das virtuell erzeugte Bild zusammen mit zusätzlichen Informationen angezeigt.
  • 2: Koordinatensysteme für die Systemeichung,
  • 3, links: Kalibriermuster als verzeichnetes Endoskopbild. Die eingezeichneten Geraden sind nicht Teil des Endoskopbildes, sondern sind überlagert, um die Verzeichnung zu zeigen.
  • 3, rechts: Kalibriermuster nach erfolgreicher Kamera-Eichung. Alle Ringe einer Reihe/Spalte berühren nun passgenau die gezeigten Linien.
  • 4: Schematische Zeichnung zur Koagulation bei intraoperativer Blutung.
  • 5: Schematische Zeichnung zu Berührungsalarm bei Verletzungsgefahr an Eintrittskanälen.
  • 2 zeigt die verschiedenen involvierten Koordinatensysteme und Koordinatentransformationen: Das OPMS O (Optische Positions-Mess-System) beobachtet das Endoskop E, welches starr mit der Kamera C verbunden ist, die wiederum den Kalibrierkörper W (oder den Patienten) betrachtet. Zwischen den Systemen bestehen Koordinatentransformation DE, DC, D, DO, mit 6 extrinsische Parametern, wie sie dem Fachmann geläufig ist. Zusätzlich besitzt die Kamera weitere 5 intrinsische Parameter, darunter auch die der Verzeichnung, wie sie ebenfalls dem Fachmann geläufig sind. Diese Parameter müssen im Prozess der Kamera- und Systemeichung bestimmt werden, was nur durch eine Mehrzahl von Messungen möglich ist.
  • Erfindungsgemäß wird dieses Problem nun wie folgt in 3 Schritten gelöst:
    • 1) In der Kamera-Eichung, die außerhalb des OP nur einmal für jede Kamera zu erfolgen hat, werden Endoskop und Kamera in eine Verschiebevorrichtung eingebaut, aus der sie den Kalibriekörper nach 3 beobachten. Der Kalibrierkörper besteht aus einem auf planarer Ebene aufgebrachten Ringmuster. Erfindungsgemäß wurde ein Mustererkennungsverfahren entwickelt, das automatisch aus dem Kamerabild die Position aller Ringe ermittelt und im Computer zur weiteren Verrechnung ablegt. Das Verfahren kann dabei automatisch erkennen, welche Ringe im jeweiligen Kamerabild sichtbar sind. Durch diesen Automatisierungsschritt wird die Arbeit der Kalibrierung ganz wesentlich erleichtert. Die Verschiebevorrichtung kann präzise in Submillimeterschritten verstellt werden und Aufnahmen werden in verschiedenen Abständen wiederholt. Ergebnis der Kamerakalibrierung, die nach dem dem Fachmann geläufigen Verfahren von Tsai, R.Y: A versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision, IEEE Journal of Robotics and Automation, Vol. RA-3, No.4 , 1987 durchgeführt wird, sind die 5 intrinsischen und 6 extrinsischen Kameraparameter D. Dabei wurde dieses Verfahren erstmalig für die endoskopische Bildgebung benutzt und erfindungsgemäß dahingehend erweitert, dass die Liste der in je zwei Bildern gleichermaßen sichtbaren Ringe durch das Mustererkennungsverfahren automatisch ermittelt wird und nur die so korrespondierenden Punkte in die Rechnung einbezogen werden. Die Verrechnung der mehrfachen Aufnahmen erfolgt durch das Verfahren automatisch. Überraschenderweise zeigte sich, dass dieses Verfahren, welches bisher vor allem für wenig verzeichnende Objektive eingesetzt wurde, auch mit den stark verzeichneten Bildern eines Endoskop arbeiten kann, dies allerdings nur, wenn eine bestimmte Variante des Verfahren (non-coplanar) zum Einsatz kam.
    • 2) In der Systemeichung, die ebenfalls außerhalb des OP erfolgen kann, betrachtet das Endoskop-Kamera-System den Kalibrierkörper aus verschiedenen Blickrichtungen. Auch hier werden die korrespondierenden Punkte durch das Mustererkennungsverfahren automatisch ermittelt. Der Anwender hat lediglich das Endoskop in verschiedene Blickrichtungen zu bringen. Die Messung des OPMS liefert für jede Endoskop-Position die 6 Parameter DE. In einem erfindungsgemäß entwickelten Verfahren, das die dem Fachmann geläufige Beschreibung von Koordinaten durch Quaternionen und Verfahren der Ausgleichsrechnung erstmalig auf die endoskopische Bildverarbeitung und endoskopische Eichung anwendet, werden nun, gegeben DE und D (aus Schritt 1) die unbekannten Transformationen DC und DO (12 Parameter) ermittelt.
    • 3) Falls nötig, kann in einer Nacheichung direkt im OP, die nur eine oder wenige Messungen umfassen muss und daher schnell durchführbar ist, einer Änderung der relativen Lage OPMS zu Patient (Transformation DO) Rechnung getragen werden.
  • In einer bevorzugten Ausführungsform der Erfindung wird in Schritt 1) ein Kalibrierpattern mit 10 × 10 Ringen verwendet, wovon einer der Ringe innen ausgefüllt ist, um die Korrespondenz automatisch herstellen zu können (s. 3). Die in 3 eingezeichneten Geraden sind nicht Teil des Endoskopbildes, sondern sind überlagert, um die Verzeichnung zu zeigen (links). Nach erfolgreicher Kalibrierung berühren alle Ringe einer Reihe/Spalte passgenau die gezeigten Geraden (rechts).
  • In einer weiteren bevorzugten Ausführungsform der Erfindung werden in Schritt 2) die verschiedenen Messungen aus bis zu 30° unterschiedlichen Blickwinkeln vorgenommen. Diese 30° haben sich als bester Kompromiss zwischen der Forderung nach unterschiedlichen Blickwinkeln zwecks guter Genauigkeit einerseits und Sichtbarkeit genügend korrespondierender Punkte andererseits erwiesen. In einer bevorzugten Ausführungsform der Erfindung werden 5-7 solcher Messungen durchgeführt. Überraschenderweise zeigte sich hier, dass bei der Ermittlung der 12 unbekannten Parameter fast nie Probleme mit lokalen Nebenminima auftraten, sondern die Ausgleichsrechnung robust mit nur 5-7 solcher Messungen arbeitete.
  • Damit ist das System geeicht. Es kann nun aufgrund verschiedener Faktoren (Lageverschiebung des Patienten, Gewebeverschiebungen im Vergleich zu vorherigen Messungen, Resektion von Gewebe oder anderen Faktoren) auch während der OP in situ zu Verschiebungen kommen, die insbesondere dann im Endoskop stark sichtbar sind, wenn sie lateral erfolgen. In einer bevorzugten Ausführungsform der Erfindung kann daher in Schritt 3) auch während der OP eine Nacheichung vorgenommen werden, bei der Ist- und Soll-Position einer oder mehrerer Landmarken angeclickt werden und das System daraus eine Rekalibrierung für die lateralen Transformationsparameter der aktuellen Endoskoporientierung vornimmt. Dadurch entsteht eine lokal gültige neue Eichung des Systems.
  • In einer bevorzugten Ausführungsform der Erfindung wird das geeichte System dazu genutzt, um im Kamerabild sichtbare Landmarken in ihrer 3D-Position zu vermessen: Hierzu wird eine Landmarke in aus verschiedenen Blickwinkeln erzielten Kamerabildern markiert und erfindungsgemäß mit einem dem Fachmann geläufigen Verfahren der Triangulation die 3D-Position der Landmarke ermittelt und neben dem Kamerabild angezeigt. In einem erfindungsgemäß entwickelten Verfahren wird auf Basis des maximalen Öffnungswinkels zwischen den Sehstrahlen eine Genauigkeit der 3D-Position errech net und die 3D-Position dem Nutzer nur zur Anzeige gebracht, wenn die Genauigkeit besser als ein geforderter Schwellwert ist.
  • Nachteil der oben beschriebenen Landmarkenvermessung ist, dass der Nutzer die Landmarke in mehreren Bildern wiederholt markieren muss. In einer bevorzugten Ausführungsform der Erfindung wurde ein Verfahren entwickelt, mit dem der Nutzer nur einmal eine Landmarke markieren muss. Danach wird diese Landmarke vom System automatisch mittels dem Fachmann geläufiger Mustererkennungsmethoden in den nachfolgenden Bildern verfolgt und so die für die Vermessung notwendigen Information gesammelt. Bei Unterschreitung der oben genannten Genauigkeitsschwelle wird die 3D-Position der Landmarke automatisch zur Anzeige gebracht wird.
  • Eine häufig bei endoskopischen Operationen auftretende Problematik besteht darin, dass das Endoskop durch enge, möglicherweise verletzliche Eintrittskanäle (z.B. Foramen Monroi in der Neurochirurgie, s. 5a) zum Operationsfeld geführt wird. Es besteht beim Arbeiten im Operationsfeld die Gefahr, durch den Endoskopschaft und zu starke laterale Bewegung an den Eintrittskanälen Verletzungen hervorzurufen. Mit dem geeichten und ständig in seiner 3D-Position vermessenen Endoskop kann diese Gefahr vermieden werden. Mittels eines erfindungsgemäß entwickelten Verfahrens wird die 3D-Struktur des Eintrittskanals beim Eintritt vermessen. Nachfolgend kann bei weiterer Bewegung des Endoskopes aufgrund seiner bekannten Geometrie (Schaftform und -dicke) und aktuellen 3D-Position jederzeit ermittelt werden, ob der Endoskopschaft einen festlegbaren Toleranzabstand zum Eintrittskanal unterschreitet. Die Lage des Endoskopes in Bezug auf diesen Eintrittskanal wird auf dem Monitor dem Operateur zur Anzeige gebracht (s. 5b) und bei Unterschreiten des Toleranzabstandes wird ein Alarm ausgelöst.
  • Ein weiterer Erfindungsgegenstand ist eine Vorrichtung enthaltend (s. 1)
    • a. eine Kamera mit vorgeschaltetem Endoskop,
    • b. einen am System Kamera-Endoskop befestigten Lagesensor,
    • c. ein optisches Positionsmesssystem (OPMS) zur Ermittlung der 3D-Position von Lagesensoren,
    • d. einen Computer mit Mitteln zur Erfassung und Speicherung der 3D-Positionen und der Endoskopbilder
  • Diese Vorrichtung ist so gestaltet, dass sie im OP einsetzbar ist (Sterilisierbarkeit System Kamera-Endoskop). Mittels dieser Vorrichtung können nun in großem Maßstab während der OP Kamerabilder und die zugehörigen 3D-Positionen gespeichert werden. In einer bevorzugten Ausführungsform der Erfindung werden 3-5 Bilder pro Sekunde gespeichert. Dabei können spezielle Verfahren zum Einsatz kommen, die neue Bilder nur dann abspeichern, wenn sich die 3D-Position des Endoskops um einen festgelegten Schwellwert verändert hat.
  • Es stehen nun erstmals in großer Zahl endoskopische Bilder aus einer OP zusammen mit den exakten 3D-Positionen der Kamera zur Verfühgung. Durch die vorliegende Erfindung werden diese Informationen erstmalig in verschiedenen erfindungsgemäßen Modulen für die virtuelle oder aber auch reale Handhabung bereitgestellt. Dies wird nachfolgend beschrieben:
    Zur Lösung der oben gestellten Aufgabe, dass Bilder und 3D-Positionen nicht lückenlos mit Videorate (25 Hz) gespeichert werden können und die gespeicherten Bilder daher nicht "ruckelfrei" abspielbar sein werden, wurde nun erfindungsgemäß folgende Neuerung entwickelt und die Lösung für verschiedene weitere innovative Module genutzt:
    • • Zunächst ist es mit dem Fachmann geläufigen Verfahren der Mustererkennung und des Warping möglich, für gespeicherte Bilder Korrespondenzen herzustellen und auf Basis solcher korrespondierenden Landmarken die fehlenden Zwischenbilder zu berechnen. Auf diese Weise können zu jeder 3D-Position, die in der konvexen Hülle der gespeicherten 3D-Positionen liegt, die "fehlenden" Bilder berechnet werden. Es entsteht so erstmalig für endoskopische Operationen eine volle Repräsentation des Operationsfeldes, die wir nachfolgend als "Virtual Map" bezeichnen.
    • • In einer bevorzugten Ausführungsform der Erfindung wird diese Virtual Map dazu genutzt, um einem für diese spezielle Art der OP trainierenden Arzt oder einem allgemein für endoskopische OPs trainierenden Nutzer die virtuelle und damit gefahrlose Simulation einer OP zu ermöglichen. Dazu wird ein Endoskop vom OPMS in seiner 3D-Position verfolgt und auf dem Monitor die zur aktuellen Position gehörigen Bilder der OP aus der Virtual Map eingespielt. Dabei sieht der Nutzer im Gegensatz zur virtuell synthetisierten Umgebung aus A.J. Lemke et al., Virtuelle MR-Ventrikelendoskopie, Fortschr. Röntgenstr. 176, 1106-1113, 2003, die realen Bilder aus einer OP mit all ihren Stärken und Schwächen und ist damit mit Navigationsproblemen konfrontiert, wie sie auch in der realen OP auftreten können. Mit dem erfindungsgemäß entwickelten Verfahren wird zu jeder 3D-Position ein approximiertes Bild zur Verfügung gestellt und der Nutzer erhält so eine "ruckelfreie" Bildsequenz.
    • • Eine schwierige Situation bei endoskopischen Operationen ist der möglicherweise eintretende Verlust der Sicht (durch Blutung oder Trübung). In einer bevorzugten Ausführungsform der Erfindung wird die Virtual Map dazu genutzt, im realen OP in solcher Situation dem Operateur eine neuartige Hilfe anzubieten, indem er vom Realbild auf Virtual-Map-Bild umschalten kann und so zur aktuellen Position des Endoskops ein approximatives Bild erhält. Dies ermöglicht ihm die gefährdungsminimale Rücknavigation des Endoskopes oder die aktive Einleitung von Maßnahmen, um die reale Sicht wiederzuerlangen, wie nachfolgend beschrieben:
    • • In einer weiteren bevorzugten Ausführungsform der Erfindung kann bei einem Verlust der Sicht durch Blutung gezielt eine Koagulation als blutstillende Maßnahme eingesetzt werden (s. 4). Durch ein erfindungsgemäß entwickeltes Mustererkennungsverfahren wird die Quelle der Blutung, sofern sie sich im Gesichtsfeld des Endoskopes befindet, durch Detektion des Beginns einer Rot färbung und seine schnelle Ausbreitung festgestellt und in ihrer 3D-Position als Landmarke gespeichert. Oder in der Nähe des Gefäßes, das eine potentielle Quelle darstellt, wird vom Operateur zuvor eine Landmarke gesetzt, um die 3D-Tiefe des Gefäßes zu speichern (markiertes Kreuz in 4a). Für beiden Fällen wurde erfindungsgemäß ein Verfahren für das geeichte System (Kamera-Endoskop) entwickelt, mit dem die Blutungsquelle koaguliert werden kann. Kommt es nun zum Blutaustritt (s. 4b), so wird die Stelle der Blutung als Marke eingeblendet und mit dem Zentrum des Kamerabildes zur Deckung gebracht. Eine Koagulationsfiber (s. 4c) wird durch den Arbeitskanal des Endoskopes eingebracht und der Operateur enthält über entsprechende Eichmarken einen Hinweis, wie tief die Koagulationsfiber einzuführen ist (dies ist eine Neuheit der Erfindung und nur deshalb möglich, weil die Landmarke in ihrer 3D-Position vermessen wurde). Nachdem die Koagulationsfiber an der richtigen Position ist, kann durch Koagulation eine Blutstillung eingeleitet werden.
    • • Erfahrungsgemäß erfordert eine solche Prozedur ein Training für den Operateur. In einer bevorzugten Ausführungsform der Erfindung wird dies dadurch trainiert, dass die Koagulationsprozedur in der Virtuellen Map an virtuellen Blutungen durchgespielt wird und die erreichte Positionierungsgenauigkeit und damit die Wahrscheinlichkeit für den Erfolg der Maßnahme bei einer realen Blutung an den Nutzer zurückgemeldet wird.
    • • Abschließend sei die Funktion "Virtuelle Bildausschnittsvergrößerung" beschrieben: In einer bevorzugten Ausführungsform der Virtual Map in Kombination mit der in der Kamera-Eichung bestimmten Verzeichnungskorrektur wird virtuell ein vergrößerter Bildausschnitt erzeugt. Dies ermöglicht dem Operateur entgegen dem engen Gesichtsfeld des realen Endoskopbildes ein virtuell vergrößertes Gesichtsfeld und damit einen verbesserten Überblick für die Navigation. Erfindungsgemäß werden hierzu geeignete Sequenzen aus der Virtual Map ausgewählt, die sich aufgrund der unterschiedlichen Blickrichtungen zu einem Panoramabild aneinandersetzen lassen. Hierzu wird zunächst mit dem Fachmann geläufigen Verfahren des Warping die Verzeichnung korrigiert. Dann werden mit weiteren, dem Fachmann geläufigen Verfahren der Mustererkennung die Korrespondenz anatomischer Strukturen in den Sequenzbildern ermittelt. Schließlich wird auf Basis dieser Korrespondenzen ein vergrößertes Panoramabild mit größerem Gesichtsfeld erzeugt und zur Anzeige gebracht.

Claims (20)

  1. Verfahren zur endoskopischen Navigation im Innern von Körpern, bestehend aus den Schritten a. Bereitstellung eines optischem Abbildungssystem bestehend aus Kamera, vorgeschaltetem Endoskop und nachgeschaltetem Monitor, b. Bereitstellung eines Lagesensors in starrer Verbindung mit Kamera und Endoskop, c. laufende Erfassung der räumlichen 3D-Position der Kamera, d. fortgesetzter Speicherung von Kamerabildern und der zugehörigen 3D-Position der Kamera in digitalem Format auf einem Computer, dadurch gekennzeichnet, dass man mehrfache Messungen bzw. Aufnahmen zwecks Eichung der Kamera und des Kamera-Endoskop-Systems miteinander verrechnet, dergestalt dass die intrinsische Verzerrung der Kamera korrigiert wird und eine metrisch genaue Lokalisierung von Landmarken möglich ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die zur Eichung notwendigen Aufnahmen die Aufnahmen eines Kalibrierkörpers aus verschiedenen Ansichten sind und dass diese halbautomatisch durchgeführt werden, derart dass eine beliebige Anzahl von Aufnahmen zur Erhöhung der Genauigkeit miteinander verrechnet wird und dass von Aufnahme zu Aufnahme die zueinander korrespondierenden Messpunkte automatisch verfolgt werden mittels des Einsatzes von Mustererkennungsverfahren.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die zur Kamera-Eichung notwendigen mehrfachen Aufnahmen mittels einer Verschiebevorrichtung, die Endoskop und Kamera aufnehmen kann und die präzise im Submillimeterbereich verfahrbar ist, durchgeführt werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass als Kalibrierkörper ein Muster aus regelmäßig angeordneten Ringen auf einer ebenen Platte verwendet wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass 5-7 Messungen zur Systemeichung durchgeführt werden und dass diese sich im Blickwinkel des Endoskops um bis zu 30° unterscheiden.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass zu einem späteren Zeitpunkt eine Nacheichung des Systems erfolgt.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Nacheichung durch Markierung von Ist- und Soll-Position einer oder mehrerer Landmarken erfolgt und dass auf Grundlage dieser Information eine Nacheichung der lateralen Lageparameter in Bezug auf die Bildebene des Endoskops vorgenommen wird.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass mit dem geeichten System eine 3D-Vermessung einer Landmarke erfolgt, indem diese Landmarke aus 2 oder mehr Blickwinkeln betrachtet und markiert wird und auf Basis der bekannten 3D-Position des Endoskops über eine Triangulation die 3D-Position der Landmarke bestimmt wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Landmarke nur in genau einem Bild markiert wird und dass die nachfolgenden Markierungen automatisch mit Mustererkennungsverfahren in den nachfolgenden Bildern ermittelt werden.
  10. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass beim Eintritt des Endoskopes durch enge, möglicherweise verletzliche Strukturen diese durch Methoden der Mustererkennung in ihrer 3D-Struktur vermessen werden, derart dass bei weiterer Einführung des Endoskopes und nachfolgender lateraler Bewegung bei hinreichend starker Berührung des starren Endoskopschaftes mit der zuvor vermessenen Struktur ein Alarm ausgelöst wird bzw. Lage und Richtung des Kontaktes angezeigt wird.
  11. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die in 1c gespeicherten Kamerabilder mit ihren 3D-Positionen in einer sog. "Virtual Map" der nachträglichen Navigation zugänglich gemacht werden, dergestalt dass zu jeder 3D-Position, die innerhalb der konvexen Hülle der gespeicherten 3D-Positionen liegt, ein approximatives Bild errechnet und angezeigt wird.
  12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass die "Virtual Map" dazu genutzt wird eine virtuelle Trainingsumgebung zu erzeugen, derart dass bei realen Bewegungen eines Nutzers am Endoskop die jeweiligen virtuellen Bilder erzeugt und eingespielt werden.
  13. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass die "Virtual Map" zur postoperativen Erstellung von 3D-Rekonstruktionen operativer Strukturen durch stereometrische Analyse genutzt wird, derart dass solche 3D-Rekonstruktionen in 3D-Atlanten zum räumlichen Training der Verhältnisse im OP genutzt werden.
  14. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass (i) in die virtuelle Trainingsumgebung reale, vom Nutzer bewegte Manipulationsgeräte eingespielt werden und (ii) dass bei hinreichend starkem Kontakt der Manipulatoren mit virtuellen Gefäßstrukturen eine virtuelle Blutung aus einem Quellpunkt mittels Techniken der Computergrafik simuliert wird (Augmented Reality).
  15. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass die "Virtual Map" oder direkt die gespeicherte Kombination (Endoskopbild + 3D-Position) dazu genutzt wird, bei einem Verlust der Sicht (in realer oder virtueller Umgebung) eine sichere Rücknavigation des Endoskopes ohne Verletzung umgebender Strukturen zu ermöglichen, indem zur aktuellen 3D-Position das approximativ nächstliegende Bild erzeugt bzw. eingespielt wird.
  16. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass die "Virtual Map" oder direkt die gespeicherte Kombination (Endoskopbild + 3D-Position) dazu genutzt wird, bei einem Verlust der Sicht durch Blutung eine Koagulation, wie in Anspruch 19 weitergehend beschrieben, einzuleiten.
  17. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass die "Virtual Map" zur virtuellen Bildausschnittsvergrößerung genutzt wird, indem für geeignete Sequenzen aus der "Virtual Map" die Verzeichnung korrigiert wird, die Korrespondenz für anatomische Strukturen in den Sequenzbildern ermittelt wird und auf Basis dieser Korrespondenzen ein virtuelles Bild mit größerem Gesichtsfeld zusammengesetzt wird .
  18. Vorrichtung zur Durchführung des Verfahrens gemäß den Ansprüchen 1 bis 17, enthaltend: a. eine Kamera mit vorgeschaltetem Endoskop, b. einen am System Kamera-Endoskop befestigter Lagesensor, c. ein optisches Positionsmesssystem (OPMS) zur Ermittlung der 3D-Position von Lagesensoren, d. einen Computer mit Mitteln zur Erfassung und Speicherung der 3D-Positionen und der Endoskopbilder sowie ein User-Interface zur Steuerung und Anzeige der vorgenannten Verfahren
  19. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, dass bei einem Verlust der Sicht durch Blutung die 3D-Landmarke der Blutungsquelle eingeblendet wird und dass eine zusätzliche Koagulationsfiber durch den Endoskopkanal eingebracht werden kann, derart, dass die 3D-Position der Spitze der Koagulationsfiber ebenfalls eingeblendet wird und bei Überdeckung beider Landmarken eine blutstillende Maßnahme eingeleitet wird.
  20. Vorrichtung nach Anspruch 14 und 19, dadurch gekennzeichnet, dass die Prozedur aus Anspruch 19 auch in der virtuellen Trainingsumgebung nach Anspruch 14 trainiert wird, verbunden mit einer Evaluation der erzielten Positionierungsgenauigkeit.
DE102005012295A 2005-03-17 2005-03-17 Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System Withdrawn - After Issue DE102005012295B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102005012295A DE102005012295B4 (de) 2005-03-17 2005-03-17 Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005012295A DE102005012295B4 (de) 2005-03-17 2005-03-17 Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System

Publications (2)

Publication Number Publication Date
DE102005012295A1 true DE102005012295A1 (de) 2006-09-21
DE102005012295B4 DE102005012295B4 (de) 2007-01-18

Family

ID=36933837

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005012295A Withdrawn - After Issue DE102005012295B4 (de) 2005-03-17 2005-03-17 Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System

Country Status (1)

Country Link
DE (1) DE102005012295B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010042372A1 (de) * 2010-10-13 2012-04-19 Kuka Laboratories Gmbh Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz
WO2012049326A3 (de) * 2010-10-15 2012-08-16 Scopis Gmbh Verfahren und vorrichtung zum kalibrieren eines optischen systems, abstandsbestimmungsvorrichtung sowie optisches system
DE102011078212A1 (de) * 2011-06-28 2013-01-03 Scopis Gmbh Verfahren und Vorrichtung zum Darstellen eines Objektes

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3717871A1 (de) * 1987-05-27 1988-12-22 Georg Prof Dr Schloendorff Verfahren und vorrichtung zur optischen darstellung eines chirurgischen eingriffes
WO1994003100A1 (de) * 1992-07-31 1994-02-17 Michael Truppe Verfahren zur darstellung des inneren von körpern
WO1996010949A1 (en) * 1994-10-07 1996-04-18 Medical Media Systems Video-based surgical targeting system
US5776050A (en) * 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system
WO2001074267A1 (en) * 2000-03-30 2001-10-11 Cbyon, Inc. Apparatus and method for calibrating an endoscope
EP1369769A2 (de) * 2002-06-06 2003-12-10 Siemens Corporate Research, Inc. System und Verfahren zum Bestimmen der Messgenauigkeit eines erweiterten Realitätsystems

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3717871A1 (de) * 1987-05-27 1988-12-22 Georg Prof Dr Schloendorff Verfahren und vorrichtung zur optischen darstellung eines chirurgischen eingriffes
WO1994003100A1 (de) * 1992-07-31 1994-02-17 Michael Truppe Verfahren zur darstellung des inneren von körpern
WO1996010949A1 (en) * 1994-10-07 1996-04-18 Medical Media Systems Video-based surgical targeting system
US5776050A (en) * 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system
WO2001074267A1 (en) * 2000-03-30 2001-10-11 Cbyon, Inc. Apparatus and method for calibrating an endoscope
EP1369769A2 (de) * 2002-06-06 2003-12-10 Siemens Corporate Research, Inc. System und Verfahren zum Bestimmen der Messgenauigkeit eines erweiterten Realitätsystems

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
CINQUIN,P. u.a.: "Computer Assisted Medical Inter- ventions". In: IEEE Engineering in Medicine and Biology, Mai/Juni 1995, S.254-263
CINQUIN,P. u.a.: "Computer Assisted Medical Inter-ventions". In: IEEE Engineering in Medicine and Biology, Mai/Juni 1995, S.254-263 *
HORSTMANN,G.A., u.a.: "MICRO-STEREOME-TRY: A FRA- MELESS COMPUTERIZED NAVIGAT-INGSYSTEM FOR OPEN *
KAWAMATA,T., u.a.: "Endoscopic Augemented Reality Navigation System for Endonasal Transsphenoidal Surgery to Treat Pituitary Tumors: Technical Note". In: Neurosurgery, Vol.50, Nr.6, Juni 2002, S.1393-1397 *
LEMBKE,A.-J.: "Virtuelle MR-Ventrikelendoskopie vor neurochirurgischer interventioneller Endosko- pie-Evaluierung verschiedener Darstellungstechnik- en". In: Fortschr. Röntgenstr. 2004. Nr.176, S. 1106-1113
LEMBKE,A.-J.: "Virtuelle MR-Ventrikelendoskopie vor neurochirurgischer interventioneller Endosko- pie-Evaluierung verschiedener Darstellungstechnik-en". In: Fortschr. Röntgenstr. 2004. Nr.176, S. 1106-1113 *
MIRCOSURGERY. In: Computerized Medical Imaging and Graphics, Vol.18, Nor.4, Elsevier Science Ltd. 1994, S.229-233;$
TSAI,R.Y.: A Versatile Camera Calibration Techni- que for High-Accracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses". In: IEEE Journal of Robotics and Automation, Vol.RA-3, Nr.4, August 1987, S.323-344
TSAI,R.Y.: A Versatile Camera Calibration Techni- que for High-Accracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses". In: IEEE Journal of Robotics and Automation, Vol.RA-3,Nr.4, August 1987, S.323-344 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010042372A1 (de) * 2010-10-13 2012-04-19 Kuka Laboratories Gmbh Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz
WO2012049326A3 (de) * 2010-10-15 2012-08-16 Scopis Gmbh Verfahren und vorrichtung zum kalibrieren eines optischen systems, abstandsbestimmungsvorrichtung sowie optisches system
US9068820B2 (en) 2010-10-15 2015-06-30 Scopis Gmbh Method and device for calibrating an optical system, distance determining device, and optical system
DE102011078212A1 (de) * 2011-06-28 2013-01-03 Scopis Gmbh Verfahren und Vorrichtung zum Darstellen eines Objektes
DE102011078212B4 (de) * 2011-06-28 2017-06-29 Scopis Gmbh Verfahren und Vorrichtung zum Darstellen eines Objektes
US9792721B2 (en) 2011-06-28 2017-10-17 Scopis Gmbh Method and device for displaying an object
US10706610B2 (en) 2011-06-28 2020-07-07 Scopis Gmbh Method for displaying an object

Also Published As

Publication number Publication date
DE102005012295B4 (de) 2007-01-18

Similar Documents

Publication Publication Date Title
EP0975257B1 (de) Endoskopisches system
EP0652726B1 (de) Verfahren zur darstellung des inneren von körpern
DE69422631T2 (de) Computerunterstützte mikrochirurgieausrüstung sowie diese ausrüstung gebrauchende verfahren
DE10108547B4 (de) Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
EP2632382B2 (de) Navigationsaufsatz für optische geräte in der medizin und verfahren
DE10136709B4 (de) Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
EP1319368B1 (de) Verfahren zur Bestimmung der Orientierung und Relativposition eines medizinischen Instruments
WO2014068106A1 (de) Bildgebendes system, operationsvorrichtung mit dem bildgebenden system und verfahren zur bildgebung
EP2606825A1 (de) Bilderzeugungsapparat und -methode zur Nuklearbildgebung
WO2008058520A2 (de) Vorrichtung zur bereitstellung von bildern für einen operateur
EP4213755B1 (de) Chirurgisches assistenzsystem
DE102011078405B4 (de) Verfahren zur Endoskopie mit magnetgeführter Endoskopkapsel sowie Einrichtung dazu
DE19842239A1 (de) Medizintechnische Einrichtung
DE102005012295B4 (de) Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System
DE102019200786A1 (de) Bildgebendes medizinisches Gerät, Verfahren zum Unterstützen von medizinischem Personal, Computerprogrammprodukt und computerlesbares Speichermedium
WO2012152264A1 (de) Vorrichtung und verfahren zur bestimmung der relativen position und orientierung von objekten
DE102014219477A1 (de) Chirurgierobotersystem
EP1464285B1 (de) Perspektivische Registrierung und Visualisierung interner Körperbereiche
DE10235795B4 (de) Medizinische Vorrichtung
DE102011114146A1 (de) Verfahren und Vorrichtung zum Darstellen eins Objektes
DE102020215559A1 (de) Verfahren zum Betreiben eines Visualisierungssystems bei einer chirurgischen Anwendung und Visualisierungssystem für eine chirurgische Anwendung
DE102014219581A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Registrierung eines medizinischen Bildes mit einer anatomischen Struktur
DE102011082444A1 (de) Verfahren und Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments
DE102010039598B4 (de) Verfahren zur Bildüberwachung eines medizinischen Eingriffs mit einer Nadel und Röntgeneinrichtung
DE102021128478A1 (de) Chirurgisches Navigationssystem mit verbessertem Instrumententracking und Navigationsverfahren

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8122 Nonbinding interest in granting licenses declared
8364 No opposition during term of opposition
R120 Application withdrawn or ip right abandoned

Effective date: 20140108