DE10109310A1 - Vorrichtung und Verfahren zur dreidimensionalen Navigation von Biopsie-Sonden - Google Patents
Vorrichtung und Verfahren zur dreidimensionalen Navigation von Biopsie-SondenInfo
- Publication number
- DE10109310A1 DE10109310A1 DE10109310A DE10109310A DE10109310A1 DE 10109310 A1 DE10109310 A1 DE 10109310A1 DE 10109310 A DE10109310 A DE 10109310A DE 10109310 A DE10109310 A DE 10109310A DE 10109310 A1 DE10109310 A1 DE 10109310A1
- Authority
- DE
- Germany
- Prior art keywords
- tracker
- navigation system
- probe
- surgical instruments
- patient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 239000000523 sample Substances 0.000 title claims abstract description 64
- 238000001574 biopsy Methods 0.000 title claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims abstract 2
- 238000003384 imaging method Methods 0.000 claims abstract 2
- 238000000034 method Methods 0.000 claims description 31
- 210000003484 anatomy Anatomy 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000002725 brachytherapy Methods 0.000 claims description 3
- 238000011477 surgical intervention Methods 0.000 claims 1
- 238000012360 testing method Methods 0.000 claims 1
- 238000002372 labelling Methods 0.000 abstract 1
- 206010028980 Neoplasm Diseases 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 238000001356 surgical procedure Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 230000035515 penetration Effects 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 5
- 238000002591 computed tomography Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000011326 mechanical measurement Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000002560 therapeutic procedure Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 239000005441 aurora Substances 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000009435 building construction Methods 0.000 description 1
- 238000000315 cryotherapy Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007917 intracranial administration Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000002647 laser therapy Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000013188 needle biopsy Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000001154 skull base Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/064—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
- A61B10/02—Instruments for taking cell samples or for biopsy
- A61B10/0233—Pointed or sharp biopsy instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
- A61B2090/3945—Active visible markers, e.g. light emitting diodes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/397—Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave
- A61B2090/3975—Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active
- A61B2090/3979—Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active infrared
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/12—Arrangements for detecting or locating foreign bodies
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- Theoretical Computer Science (AREA)
- Pulmonology (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Zur Zeit erfolgt eine CT-gestützte Sondenpositionierung meist nur innerhalb einer zweidimensionalen Schnittebene eines dreidimensionalen CTs. Hierzu erhält der Patient eine CT-Untersuchung in der Region, beispielsweise eines Tumors, durch die ein dreidimensionaler Bilddatensatz aufgenommen wird. Aus diesem Datensatz wird ein günstiger zweidimensionaler Schnitt durch den Tumor gesucht, in der die Sonde positioniert werden soll. Bei der schrittweisen Positionierung der Sonde muß jeder Schritt erneut mit einem CT-Schnitt kontrolliert werden. DOLLAR A Ein neues Verfahren zur Kalibrierung eines mit Infrarotleuchtdioden bestückten Trackers, der als Sondenhalter dient, und zur Erfassung des mit Infrarotleuchtdioden versehenen Patienten oder Probanden und eines mit Infrarotleuchtdioden markierten Patiententisches eröffnet die Möglichkeit, Biopsienadeln unter Kontrolle von Tomogrammen genau und mit geringer Auswertezeit zu navigieren. DOLLAR A Die Vorrichtung und das Verfahren eignen sich insbesondere zur Navigation von Sonden bei der Biopsie, der interstitiellen Brachytherapie, Bestrahlung, Lasertherapie und Kältetherapie. Speziell können Sonden unter der Kontrolle eines Computertomogramms im Tumorgewebe positioniert werden.
Description
Bei der Biopsie (Entnahme von Gewebeproben), Bestrahlung (Brachytherapie),
Lasertherapie und Kältetherapie (Kryotherapie) werden Sonden unter der Kontrolle
eines Computertomogramms (CT) im Tumorgewebe positioniert. Sowohl der richtige
Einstichkanal (Position und Richtung der Sonden) als auch die Sondenverteilung im
Tumor sind für die Qualität der Therapie entscheidend.
Zur Zeit erfolgt die CT-gestützte Sondenpositionierung meist nur innerhalb einer zwei
dimensionalen Schnittebene eines dreidimensionalen CTs. Hierzu erhält der Patient eine
CT-Untersuchung in der Region des Tumors, durch die ein dreidimensionaler
Bilddatensatz aufgenommen wird. Aus diesem Datensatz wird ein günstiger zweidimen
sionaler Schnitt durch den Tumor gesucht, in der die Sonde positioniert werden soll.
Danach erfolgt eine schrittweise Positionierung der Sonde innerhalb dieses Schnittes,
wobei jeder Schritt erneut mit einem CT-Schnitt kontrolliert werden muß.
Die dreidimensionale Positionsmessung im Raum wird zur Zeit mit Hilfe mechanischer,
elektromagnetischer, infrarot- und lasergeführten Meßsystemen in der
computergestützten Navigation durchgeführt [1]. Häufig erfolgt die Positionsmessung
der Patienten anhand externer Referenzsysteme mit einem stereotaktischen Rahmen.
Bei der mechanischen Messung wird die Position eines chirurgischen Instrumentes, z. B.
einer Sondenspitze, über einen Meßarm bestimmt, dessen Gelenke die Bewegung
eines am Meßarm fixierten chirurgischen Instrumentes in allen 6 Freiheitsgraden
ermöglichen [2, 3]. Aus den Meßdaten der Gelenkstellung des Meßarms kann im
Submillimeterbereich auf die Position des Instruments geschlossen werden.
Problematisch ist bei dieser Meßtechnik sowohl der eingeschränkte Bewegungsfreiraum
des Meßarms als auch die rückwirkenden Kräfte durch die Mechanik. Beides ist durch
die Konstruktion vorgegeben.
Bei einer elektromagnetischen Positionsmessung werden ein Sender und ein Sensor be
nötigt. Der Sender erzeugt ein dynamisches oder ein statisches Magnetfeld. Im Sensor
befinden sich drei elektromagnetische Spulen in orthogonaler Anordnung. Die
induzierten Spulenströme lassen sich als Funktion der Position und der Orientierung des
Sensors in Bezug auf das vom Sender erzeugte Magnetfeld darstellen. Sofern im
Bereich der Umgebung von Sender und Sensor keine Materialien mit magnetischen
Eigenschaften vorhanden sind, kann die Raumposition des Sensors mit einer
Genauigkeit von ungefähr ±1 mm festgestellt werden. Es stehen drei unterschiedliche
elektromagnetische Positionsmeßsysteme zur Verfügung [4, 5, 6]. Da größere
magnetische Bauteile wie z. B. der Operationstisch, der CT-Tisch oder auch
Konstruktionselemente der Gebäude zu einer Magnetfelddistorsion führen können [7],
ist der Einsatz dieser Systeme an besondere bauliche oder einrichtungsmäßige
Maßnahmen gebunden, die zunächst nicht vorhanden sind und erst geschaffen werden
müssen.
Infrarotmeßsysteme können die Positionen von Infrarotleuchtdioden im Raum messen.
Durch die Befestigung von drei Dioden am chirurgischen Instrument können deren
Positionen von mindestens zwei infrarotempfindlichen Kameras im
Submillimeterbereich bestimmt werden. Diese Technik wird hauptsächlich in der
Neurochirurgie als auch in der Mundkiefer- und Gesichtschirurgie zur Navigation
angewendet [8, 9, 10].
Alle drei beschriebenen Meßmethoden (mechanisch, elektromagnetisch und infrarot)
sind in Navigationssystemen integriert, die eine Navigation außerhalb des CT-
Aufnahmeraums am "virtuellen Patienten", d. h. an einem dreidimensionalen CT- oder
MR-Volumendatensatz, ermöglichen. Voraussetzung hierzu ist eine genaue
Positionskorrelation des Volumendatensatzes und des Navigationssystems. Diese
Korrelation wird in der Regel anhand von anatomischen Landmarkern durchgeführt,
deren Positionen am Patienten vermessen und in den CT- oder MR-Datensätzen
registriert werden. Durch die Kenntnis der Raumpositionen der Landmarker am
Patienten und in den Bilddatensätzen kann eine Transformationsvorschrift erstellt
werden, die es ermöglicht, weitere gemessene Positionen, z. B. solche von chirurgischen
Instrumenten, in den dreidimensionalen Bilddatensätzen darzustellen. Zur Zeit wird
dieser Vorgang manuell durch den Anwender ausgeführt, der mit einem Meßfühler
sowohl Landmarker am Patienten messen als auch in den Bilddatensätzen identifizieren
und markieren muß.
Den vorgenannten Meßmethoden gegenüber wird die lasergestützte Punktion direkt am
Computertomographen ohne "virtuellen Patienten" durchgeführt. Nachdem mehrere
CT-Schnitte der Tumorregion erzeugt wurden, wird nun ein gewünschter Einstichkanal
in den CT-Schnitten vorgegeben. Das System liefert nun die Einstellparameter eines
Laserzeigers, der einen Leuchtpunkt (Laserstrahl) auf die Patientenoberfläche
projiziert. Dieser stellt den Einstichpunkt der Sonde dar. Nach der Positionierung der
Sondenspitze kann deren Orientierung so ausgerichtet werden, daß der Laserpunkt auch
das Sondenende trifft. Jetzt entspricht die Sondenachse dem Laserzeiger und somit der
Orientierung des gewünschten Einstichkanals. Die Einstichtiefe muß aber vorher
manuell auf der Sonde eingezeichnet werden.
Der Nachteil dieser Technik ist, daß sie sich nur zur Positionierung einer Sonde direkt
am Computertomographen eignet. Von Vorteil ist hierbei, daß keine Korrelation von
Landmarkern am Patienten und deren Bildpunkten erfolgen muß. Voraussetzung hierzu
ist aber die konstante Lage des Patienten auf dem CT-Tisch während des gesamten
Vorgehens, was aber in der Regel nicht gegeben ist.
Eine Weiterentwicklung dieser Technik stellt ein mechanischer Arm mit einer
Punktionssonde der Fa. Picker dar, der fest mit dem Computertomographen verbunden
ist. Zunächst erfolgt eine CT-Aufnahme der Tumorregion. Durch die
Positionsbestimmung der Sonde durch die Armeinstellung und durch die Kenntnis der
durchgeführten CT-Schnittpositionen, die durch die Tischposition definiert wird, ist bei
einer konstanten Patientenlage eine automatische Sondenpositionierung möglich [11].
Wenn die Konstanz der Patientenlage beim Punktieren nicht gewährleistet ist, müssen
zwischenzeitlich neue CT-Aufnahmen zur Kontrolle der aktuellen Sondenposition
durchgeführt werden.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein stereooptisches und
dadurch von magnetischen oder elektromagnetischen Einflüssen freies System zur
freihandgeführten, Computergestützten Navigation von chirurgischen Instrumenten
oder Sonden in räumlicher Beziehung zu in CT- oder MR-Tomogrammen
visualisierbaren und lokalisierbaren Organen, Gefäßen, sonstigen Gewebestrukturen und
Risikostrukturen von Patienten zum Zweck einer einfachen und schnellen Applikation
unter in Tomogrammschnittbildern dargestellter visueller Kontrolle der
Navigationsbewegung und der geführten Instrumenten- oder Sondenrichtung bei
weitgehend interaktionsfreien Kalibrierung des Aufnahmesystems, des
Führungssystems der Instrumente oder Sonden, der Instrumenten- oder Sondenlänge
und der räumlichen Zuordnung bezogen auf die Patientenlage zu betreiben.
Ziel dieses Vorgehens ist die Unterstützung des Arztes bei der Biopsie oder
Sondenpositionierung im Tumor mit Hilfe eines CT-gestützten Navigationssystems, für
das zunächst das neue Meßverfahren entwickelt wird. Vor der Sondenpositionierung
wird mit einem CT ein Volumendatensatz der Tumorregion erzeugt und die so
aufgenommenen Bilddaten über eine definierte Schnittstelle vom CT zu dem
Navigationssystem gesendet. Es erfolgt eine automatische Registrierung der Position
des Tumors anhand der Messung der Raumposition von Landmarkern auf dem fixierten
Patienten nach einer neuen Methode mit dem vorgestellten System. Danach wird die
Navigation der Sonden durch die neuartige stereographische Meßmethode der
Raumposition der Sondenspitze und eine Anzeige der zweidimensionalen Schnittebene
durch den Volumenbilddatensatz, die durch die Sondenposition und -richtung definiert
wird, ermöglicht. Die genannten Nachteile der bekannten Verfahren, keine freie
Navigation wie bei der mechanischen Ausführung, keine Störungen durch magnetische
Beeinflussung von Gebäudekonstruktionen oder Einrichtungen wie bei
elektromagnetischen Verfahren, manuelle Ermittlung von Raumpositionen wie bei den
zur Zeit angewandten Infrarot-Verfahren, Markierung der Einstichtiefe der Sonden wie
bei den lasergestützten Verfahren und die Voraussetzung einer konstanten Patientenlage
sollen vermieden werden.
Zur Lösung der oben angegebenen Aufgabenstellung wird als Tracking-Sensor ein
Stereokamerasystem, bestehend aus mindestens zwei CCD-Videokameras, verwendet.
Die Kameras werden mit geneigten optischen Achsen für die Überwachung des
Arbeitsraumes auf der Patientenliege eingesetzt. Zur Unterdrückung des für die
Kameras empfindlichen Wellenlängenbereichs mit Ausnahme des nahen
Infrarotbereichs werden die Videokameras mit entsprechenden optischen
Langpassfiltern ausgerüstet. Durch die Anordnung mit geneigten optischen Achsen
schließt das Kalibriermuster keinen rechten Winkel mit den optischen Achsen ein.
Daher ist kein Multiplane-Verfahren sondern ein Singleplane-Verfahren für die
Kalibrierung der Kameraparameter ausreichend.
Die Kalibrierung des Stereokamerasystems bezüglich der Lage und der Orientierung der
Kameras im Raum, der Bildweiten der Objektive und einer möglichen radialsymmetri
schen Verzerrung der Abbildungen durch die Objektive wird durch ein Kalibriermuster
nach dem Singleplane-Verfahren durchgeführt [12-15].
Zur freihändigen Instrumenten- oder Sondenführung dient ein mit mindestens drei im
infraroten Wellenlängenbereich emittierenden Leuchtdioden bestückter Instrumenten-
oder Sondenhalter (Abb. 3 und 4) als Sender, im folgenden Tracker genannt. Die
Tracker werden in zwei verschiedenen Ausführungen hergestellt. Die unterschiedlichen
Ausführungen dienen zur lateralen (Abb. 3) oder dorsalen/ventralen (Abb. 4)
Applikation von Biopsienadeln. Die Anordnungen der Leuchtdioden dürfen keine
Rotationssymmetrie bezüglich der Biopsienadelachsen enthalten.
- 1. Die genauen Positionen der Leuchtdioden werden aus deren Abbildungen gewichtet
mit einer Funktion der Helligkeitsverteilung abzüglich eines zu definierenden
Schwellenwertes zur Segmentation des Hintergrundes mit mathematischen Verfahren
berechnet. Dabei wird die Position der Leuchtdiode PLED als gewichteter
Schwerpunkt
bestimmt, wobei die Wichtungsfunktion w(xi) = (h(xi) - S)2
als quadratische Funktion der Helligkeitswerte h(xi), die größer als eine vordefinierte Schwelle S sind, definiert. Durch die automatische Bestimmung der aktuellen Position der Leuchtflecke der Leuchtdioden am Führungssystem durch ein mathematisches Modell entfällt eine Zeit- und geräteaufwendige manuelle Vermessung der aktuellen Positionen der Leuchtflecken der Dioden, die aus fertigungstechnischen Gründen nicht genau bekannt sind. Die genauen Positionen der Leuchtflecke gehen in die Genauigkeit der dreidimensionalen Positionsbestimmung ein. - 2. Die Kalibrierung des Führungssystems der chirurgischen Instrumente oder Sonden
erfolgt in einem iterativen Verfahren automatisch. Ausgehend von Startwerten, die
die ungefähre Position der Leuchtdioden am Tracker, nicht jedoch den eigentlichen
Leuchtfleck beschreiben, wird für alle möglichen Korrespondenzen der Positionen
der Leuchtflecke im rechten und im linken Stereobild aus einem Fehlermaß die
richtige Korrespondenz ausgewählt und die genauen relativen Positionen der
Leuchtflecken untereinander festgelegt. Es entfällt daher eine genaue mechanische
Vermessung der Geometrie des Führungssystems und der Leuchtflecke der
Leuchtdioden.
Hierfür wird der Tracker mathematisch als eine geordnete Menge von n Punkten im Raum modelliert: T = {Ti|Ti ∈ R3, i = 1, . . . n} Jeder der Punkte Ti entspricht einer IR-LED am Tracker. Damit können dem Tracker zwei Eigenschaften zugeordnet werden:- 1. seine Geometrie, d. h. die relativen Positionen der Punkte Ti untereinander unabhängig von deren absoluten Positionen, und
- 2. seine Lage im Raum, d. h. die absoluten Positionen der Punkte Ti.
Bedingt durch den mechanischen Aufbau des Trackers und bedingt durch die Verwendung handelsüblicher IR-LEDs mit nicht bekanntem inneren Aufbau ist eine exakte Vermessung des Trackers nicht möglich. Daher werden die Tracker nach dem neu entwickelten Verfahren kalibriert. Hierzu werden die ungefähren Abstände der LED-Positionen untereinander definiert.
Aus den beiden Stereobildern wird die vorgegebene Anzahl von n LED-Positionen extrahiert (l1. . .ln für das linke, r1. . .rn für das rechte Kamerabild). Da keine Korrespondenzen der LED-Positionen in den Stereobildern bekannt sind, werden alle Kombinationen an Zuordnungen {l1. . .ln } → { r1. . .rn} gebildet und versucht, durch Triangulation die dreidimensionalen Weltkoordinaten der LED-Positionen zu berechnen. Eine Reihe dieser Zuordnungen ergeben keinen Schnittpunkt oder Näherung der Projektionsstrahlen einzelner LED-Positionen innerhalb einer vorgegebenen Grenze von 1 mm und fallen aus der weiteren Betrachtung heraus. Alle nun noch potentiell möglichen Korrespondenzen ergeben eine Menge τ an Trackerformen und -positionen im Raum, die durch P(τ) = {Pi|Pi ∈ R3, i = 1, . . . n} bezeichnet seien. Alle Kombinationen an Zuordnungen der Pi aus P(τ) auf Ti aus T werden gebildet und ein Fehlermaß
mit
d T|k = ||Tk - Tk+1|| Abstände zweier LEDs mit aufsteigendem Index k aus T,
d P|k = ||Pk - Pk+1|| Abstände zweier LEDs mit aufsteigendem Index k aus P(τ)
berechnet. Dasjenige P(τ), für das das Fehlermaß D minimal ist, beschreibt die richtige Korrespondenz τ der LEDs in den Stereobildern und bildet den Tracker optimal auf das Trackermodell T ab.
Dieses Verfahren wird automatisch mehrfach wiederholt und die jeweiligen Positionsdaten der LEDs gemittelt und daraus die als kalibriert angesehenen Positionen der LEDs bestimmt. - 3. Die Längen der chirurgischen Instrumente oder Sonden, soweit diese durch die
Entfernung eines definierten Punktes (z. B. die Instrumenten- oder Sondenspitze)
von dem Führungssystem festgelegt werden können, werden durch Tracken des
Führungssystems bei konstanter ortsfester Lage der Instrumenten- oder Sondenspitze
automatisch bestimmt. Dabei wird als Länge der Instrumente oder Sonden der
Radius einer Kugeloberfläche, die durch die Bewegung und durch das Tracking des
Führungssystems ermittelt wird, bestimmt. Die Orientierung der Instrumenten oder
Sonden im Raum ergibt sich dann aus einer geometrische Modellierung der
Instrumente, deren bekannten Befestigungspunkten im Führungssystem und der nun
bekannten Position der Instrumenten- oder Sondenspitze in Bezug auf das
Führungssystem.
Für die Modellierung der Sonde wird vorausgesetzt, daß sich diese als mathematische Gerade gN : x = N + λ m beschreiben läßt, wobei N ein Basispunkt auf der Geraden, m die Geradenrichtung und λ ein freier Parameter ist. Damit kann die Sondenspitze NS als ein Punkt auf der Sondengeraden gN angesehen werden.
Für die Kalibrierung der Sonde wird der Tracker bei in einem Punkt fixierter Sondenspitze bewegt und die Trackerposition bestimmt. Die Berechnung hierzu wird entsprechend dem unter Punkt 2 beschriebenen Verfahren durchgeführt. Zusätzlich werden zur Positionsbestimmung des Trackers alle einzelnen LED-Positionen mit der gleichen Transformationsgleichung optimal auf das gegebene Trackermodell T transformiert. Dadurch gehen bei der Verwendung von mehr als 3 LEDs am Tracker alle verfügbaren Informationen in die Positionsberechnung des Trackers mit ein. Da die Bewegung des Trackers bei mindestens vier nicht in einer Ebene liegenden Positionen eine Kugeloberfläche definiert (Abb. 5), kann nun der Mittelpunkt dieser Kugel durch eine Ausgleichsrechnung aller erkannten Trackerpositionen berechnet und dieser in ein dem Tracker zugeordneten Koordinatensystem transformiert werden. Dieser Punkt definiert eine Sondenspitze und liegt auf der Sondengeraden. Variiert man die Position der Sondenspitze bezüglich des Tracker- Koordinatensystems, d. h. man verschiebt die Sonde in der Halterung am Tracker, und wiederholt das oben beschriebene Verfahren, so erhält man eine Anzahl M an Positionen der Sondenspitze NSi mit i = 1 . . . M, aus der man nun die Sondengerade gN durch eine Ausgleichsgerade x = No + λ mN darstellt, für die die Fehlersumme der euklidischen Abstände der Punkte NSi zur Geraden gN minimal ist. Eine zeitaufwendige Messung der Instrumenten- oder Sondenlänge entfällt, das eventuell notwendige Einzeichnen der Einstichtiefe auf den Sonden entfällt, Abweichungen der Geometrie der Instrumente oder Sonden von der vorgegebenen Form wird durch die Art der Kalibrierung erfaßt. - 4. Die Korrespondenz der chirurgischen Instrumente oder Sonden zur Position des
Patienten wird durch eine weitere Kalibrierung vorgenommen. Dabei werden
Infrarotleuchtdioden als Landmarker, die sich an dem in einer definierten Lage
fixierten Patienten befinden, verwendet. Die Leuchtdioden können sowohl in den
Volumenbilddaten der Tomogramme durch Bildverarbeitungsalgorithmen bestimmt
werden als auch deren aktuelle Lage mit Hilfe des Stereokamerasystems festgestellt
werden. Dadurch erhält man eine Korrespndenz der Position medizinisch
anatomischer Gewebestrukturen bezüglich ihrer aktuellen Lage und in den
Volumenbilddaten. Hierbei handelt es sich um ein komplett automatisches
Verfahren, das für die Echtzeitregistrierung verwendet wird.
Nun kann das chirurgische Instrument oder die Sonde freihändig navigiert und in demjenigen Schnitt durch die dreidimensionalen Tomogramm-Bilddaten dargestellt werden, in deren Ebene sich die Achse des Instruments oder der Sonde bewegt. Dadurch ist eine direkte visuelle Kontrolle der Bewegung der Instrumente oder Sonden in deren Achsrichtung bezüglich Risikostrukturen innerhalb des dargestellten Schnittes möglich. - 5. Die Eindringtiefe und der Orientierung von chirurgischen Instrumenten oder Sonden kann nun automatisch in Tomogramm-Bilddaten bei einer virtuellen und realen Navigation dargestellt werden. Dadurch kann die optimale Eindringtiefe und eine Gefährdung durch neben und hinter den zu therapierenden Gewebestrukturen liegenden Risikostrukturen visualisiert werden.
- 6. Durch am Patiententisch angebrachte Infrarot-Leuchtdioden kann dessen Position bezüglich der Bildsensoren kalibriert werden. Eine Verbindung des stereooptischen Trackingverfahren mit einer Patiententisch-Steuerung erlaubt, den Patienten stets so positioniert zu halten, daß nach einer Bewegung des Instruments oder der Sonde die CT-Schnittebene genau durch die Spitze des chirurgische Instruments oder der Sonde verläuft. Durch die automatische Positionierung der Sondenspitze ist eine schnelle Kontrolle der exakten Position relativ zu anatomischen Strukturen gegeben.
- 7. Die Anwendbarkeit der stereooptischen Navigations- bzw. Trackingverfahren ist generell auch in weiteren Volumenbilddaten-gebenden Verfahren einsetzbar.
[1] R. Marmulla, M. Hilbert, H. Niederdellmann: Intraoperative Precision of
Mechanical, Electromagnetic, Infrared and Laser-guided Navigation Systems in
Computer-assisted Surgery, in: Mund-Kiefer-Gesichtschirurgie, 2. Suppl. 1, S.
145-148, May 1998
[2] R. L. Carrau, C. H. Snyderman, H. D. Curtin, I. P. Janecka, M. Stechison, J. L. Weissman: Computer-assisted Intraoperative Navigation During Skull Base Sur gery, in American Journal of Otolaryngol 17(2), p. 95-101, March - April 1996
[3] S. Hassfeld, J. Muhling, J. Zoller: Intraoperative Navigation in Oral and Maxillo facial Surgery, in: International Journal of oral Maxillofacial Surgery 24 (1 Pt. 2), p. 111-119, Feb. 1995
[4] Fasttrack System, Polhemus Inc., Colchester VT, USA
[5] The Bird, Ascension Inc., Burlington VT, USA, diskutiert in: G. Straßmann, C. Koltas, R. Heyd. S. Walter, D. Baltas, Th. Martin, H. Vogt G. Ioannidis, G. Sakas, N. Zamboglou. Navigation System for Interstitial Brachytherapy, Radiother. Oncol., 2000
[6] Aurora, Mednetix, Villingen, Switzerland
[7] W. Birkfeller, F. Watzinger, F. Wanschitz et al.: Systematic Distortion in Magnetic Digitizer, Med. Phys. 25(11), p. 2242-2248, 1998
[8] I. M. Germano, J. V. Queenan: Clinical Experience with Intracranial Brain Needle Biopsy Using Frameless Surgical Navigation, in Computational Aided Surgery 3(1), p. 33-39, 1998
[9] R. Marmulla, H. Niederdellmann: Computer-assisted Bone Segment Navigation, in: Jounal of Craniomaxillofacial Surgery 26(6), p. 347-359, Dec. 1998
[10] T. Morioka, S. Nishio, K. Ikezaki, Y. Natori, T. Inamura, H. Muratani, M. Muraishi, K. Hisada, F. Mihara, T. Matsushima, M. Fukui: Clinical Experience of Image-guided Neurosurgery with a Framelass Navigation System, in: No Shinkei Geka 27(1) p. 33-40, Jan. 1999
[11] PinPoint™, Picker, USA
[12] R. Tsai: An Efficient and Accurate Camera Calibration Technique for 3 D Machine Vision, in Proc. Computer Vision and Pattern Recognition, IEEE, Miami Beach, 1986
[13] R. Lenz: Linsenfehlerkorrigierte Eichung von Halbleiterkameras mit Standard objektiven für hochgenaue 3 D-Messungen in Echtzeit, in: Mustererkermung 1987, 9. DAGM-Symposium, 1987
[14] S. Posch: Automatische Tiefenbestimmung aus Grauwertbildern, Deutscher Universitätsverlag, 1990
[15] D. Richter, W. Schick, S. Vormbrock. Verifikation einer Roboterbasis- Kalibrierung mit einem Stereo-Bildverarbeitungssystem durch Evaluierung der Tiefenbestimmung innerhalb des Kalibriervolumens, in: Mustererkennung 1996, 18. DAGM-Symposium, p. 493-501, 1996
[2] R. L. Carrau, C. H. Snyderman, H. D. Curtin, I. P. Janecka, M. Stechison, J. L. Weissman: Computer-assisted Intraoperative Navigation During Skull Base Sur gery, in American Journal of Otolaryngol 17(2), p. 95-101, March - April 1996
[3] S. Hassfeld, J. Muhling, J. Zoller: Intraoperative Navigation in Oral and Maxillo facial Surgery, in: International Journal of oral Maxillofacial Surgery 24 (1 Pt. 2), p. 111-119, Feb. 1995
[4] Fasttrack System, Polhemus Inc., Colchester VT, USA
[5] The Bird, Ascension Inc., Burlington VT, USA, diskutiert in: G. Straßmann, C. Koltas, R. Heyd. S. Walter, D. Baltas, Th. Martin, H. Vogt G. Ioannidis, G. Sakas, N. Zamboglou. Navigation System for Interstitial Brachytherapy, Radiother. Oncol., 2000
[6] Aurora, Mednetix, Villingen, Switzerland
[7] W. Birkfeller, F. Watzinger, F. Wanschitz et al.: Systematic Distortion in Magnetic Digitizer, Med. Phys. 25(11), p. 2242-2248, 1998
[8] I. M. Germano, J. V. Queenan: Clinical Experience with Intracranial Brain Needle Biopsy Using Frameless Surgical Navigation, in Computational Aided Surgery 3(1), p. 33-39, 1998
[9] R. Marmulla, H. Niederdellmann: Computer-assisted Bone Segment Navigation, in: Jounal of Craniomaxillofacial Surgery 26(6), p. 347-359, Dec. 1998
[10] T. Morioka, S. Nishio, K. Ikezaki, Y. Natori, T. Inamura, H. Muratani, M. Muraishi, K. Hisada, F. Mihara, T. Matsushima, M. Fukui: Clinical Experience of Image-guided Neurosurgery with a Framelass Navigation System, in: No Shinkei Geka 27(1) p. 33-40, Jan. 1999
[11] PinPoint™, Picker, USA
[12] R. Tsai: An Efficient and Accurate Camera Calibration Technique for 3 D Machine Vision, in Proc. Computer Vision and Pattern Recognition, IEEE, Miami Beach, 1986
[13] R. Lenz: Linsenfehlerkorrigierte Eichung von Halbleiterkameras mit Standard objektiven für hochgenaue 3 D-Messungen in Echtzeit, in: Mustererkermung 1987, 9. DAGM-Symposium, 1987
[14] S. Posch: Automatische Tiefenbestimmung aus Grauwertbildern, Deutscher Universitätsverlag, 1990
[15] D. Richter, W. Schick, S. Vormbrock. Verifikation einer Roboterbasis- Kalibrierung mit einem Stereo-Bildverarbeitungssystem durch Evaluierung der Tiefenbestimmung innerhalb des Kalibriervolumens, in: Mustererkennung 1996, 18. DAGM-Symposium, p. 493-501, 1996
Claims (8)
1. Verfahren und Vorrichtungen zur Navigation von Sonden, Biopsie-Nadeln oder
chirurgischen Instrumenten zur Unterstützung bei chirurgischen Eingriffen, insbe
sondere auf dem Gebiet der Radiologie und Brachytherapie, bestehend aus
- - einem Computer (PC), der mit Bildverarbeitungsmodulen erweitert ist,
- - mindestens 2 infrarotempfindlichen Bildaufnahmesensoren, die mit festem räumlichen Bezug an einen CT- oder MRT-Tomographen gekoppelt sind,
- - einer Navigationseinrichtung (Tracker), an der mindestens 3 im infraroten Wellenlängenbereich emittierende Leuchtdioden fest gekoppelt sind und an der eine Sonde, Biopsie-Nadeln oder chirurgische Instrumente mechanisch befestigt werden können sowie
- - den Sonden, den Biopsienadeln und den chirurgischen Instrumenten,
- - Mittel zur Kalibrierung der Bildaufnahmesensoren vorhanden sind und
- - Mittel zur Extraktion und Kennzeichnung ausgewählter anatomischer Gewebe strukturen als einzelne Datensätze mit Hilfe der digitalen Bildverarbeitung vorhanden sind.
2. Navigationssystem nach Anspruch 1, dadurch gekennzeichnet, daß mit einem
Bildverarbeitungsprogramm aus dreidimensionalen Volumenbilddaten operative
Zugangswege zu auswählbaren anatomischen Gewebestrukturen unter Umgehung
von Risikostrukturen berechnet und visualisiert werden können.
3. Navigationssystem nach Anspruch 1 und 2, dadurch gekennzeichnet, daß an dem
Patienten oder Probanden mit der Körperstruktur fest verbunden mindestens 3 im
infraroten Wellenlängenbereich emittierende Leuchtdioden vorhanden sind, die mit
dem Tomographen aufgezeichnet werden und mit Methoden der digitalen
Bildverarbeitung aus dem Tomogramm extrahiert werden können, um die Lage
anatomischer Strukturen des Patienten, bezogen auf die Patientenstruktur eindeutig
definieren zu können.
4. Navigationssystem nach Anspruch 1 bis 3, dadurch gekennzeichnet, daß die an dem
Patienten oder Probanden mit der Körperstruktur fest verbundene Leuchtdioden mit
den am Tomographen fest verbundenen Bildaufnahmesensoren aufgezeichnet
werden, um die Lage der extrahierten anatomischen Strukturen des Patienten,
bezogen auf die aktuelle Patientenlage eindeutig definieren zu können.
5. Navigationssystem nach Anspruch 1 bis 4, dadurch gekennzeichnet, daß an dem
Patiententisch des Tomographen mit im infraroten Wellenlängenbereich
emittierende Leuchtdioden befestigt sind, dessen Lage im Raum, bezogen auf die
Kamerapositionen mit Methoden der digitalen Bildverarbeitung aus den Bilddaten
berechnet werden können.
6. Navigationssystem nach Anspruch 1 bis S. dadurch gekennzeichnet, daß mit einer
Rechenvorschrift aus den Positionen der Leuchtdioden aus Anspruch 3, 4 und 5 die
genaue aktuelle Lage von anatomischen Strukturen aus Anspruch 2 berechnet
werden.
7. Navigationssystem nach Anspruch 1 bis 6, dadurch gekennzeichnet, daß mit den
erfindungsgemäßen und unter den Punkten 1. und 2. in dem Abschnitt Definition
der Neuheiten beschriebenen Verfahren der Tracker kalibriert und die Position des
Trackers berechnet wird.
8. Navigationssystem nach Anspruch 1 bis 6, dadurch gekennzeichnet, daß mit den
erfindungsgemäßen und unter dem Punkt 3. in dem Abschnitt Definition der
Neuheiten beschriebenen Verfahren die am Tracker befestigten Sonden,
Biopsienadeln oder chirurgischen Instrumente bezüglich der aktuellen Position des
Trackers kalibriert und deren Position berechnet wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10109310A DE10109310A1 (de) | 2001-02-27 | 2001-02-27 | Vorrichtung und Verfahren zur dreidimensionalen Navigation von Biopsie-Sonden |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10109310A DE10109310A1 (de) | 2001-02-27 | 2001-02-27 | Vorrichtung und Verfahren zur dreidimensionalen Navigation von Biopsie-Sonden |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10109310A1 true DE10109310A1 (de) | 2002-09-05 |
Family
ID=7675589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10109310A Withdrawn DE10109310A1 (de) | 2001-02-27 | 2001-02-27 | Vorrichtung und Verfahren zur dreidimensionalen Navigation von Biopsie-Sonden |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10109310A1 (de) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004011959A1 (de) * | 2003-09-29 | 2005-05-12 | Fraunhofer Ges Forschung | Vorrichtung und Verfahren zum repoduzierbaren Positionieren eines Objektes relativ zu einem intrakorporalen Körperbereich |
DE102004039202B3 (de) * | 2004-08-12 | 2006-01-19 | Erbe Elektromedizin Gmbh | Vorrichtung zur Messung einer relativen Position eines chirurgischen Arbeitsinstruments sowie Verwendung hierfür |
DE102006008042A1 (de) * | 2006-02-21 | 2007-07-19 | Siemens Ag | Medizinisches Gerät mit im medizinischen Gerät kombinierter Bilderfassungs- und Positionsbestimmungsvorrichtung |
EP1854425A1 (de) * | 2006-05-11 | 2007-11-14 | BrainLAB AG | Medizintechnische Positionsbestimmung mit redundanten Positionserfassungseinrichtungen und Prioritätsgewichtung für die Positionserfassungseinrichtungen |
DE102006036575A1 (de) * | 2006-08-04 | 2008-02-14 | Siemens Ag | Medizinische Bildgebungsvorrichtung und Verfahren zur Darstellung der Position eines interventionellen Instruments bei einer solchen Bildgebungsvorrichtung |
CN113347937A (zh) * | 2019-01-25 | 2021-09-03 | 伯恩森斯韦伯斯特(以色列)有限责任公司 | 参照系的配准 |
CN114209431A (zh) * | 2021-12-24 | 2022-03-22 | 杭州柳叶刀机器人有限公司 | 光学探针识别方法、装置、电子设备及存储介质 |
-
2001
- 2001-02-27 DE DE10109310A patent/DE10109310A1/de not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004011959A1 (de) * | 2003-09-29 | 2005-05-12 | Fraunhofer Ges Forschung | Vorrichtung und Verfahren zum repoduzierbaren Positionieren eines Objektes relativ zu einem intrakorporalen Körperbereich |
DE102004039202B3 (de) * | 2004-08-12 | 2006-01-19 | Erbe Elektromedizin Gmbh | Vorrichtung zur Messung einer relativen Position eines chirurgischen Arbeitsinstruments sowie Verwendung hierfür |
DE102006008042A1 (de) * | 2006-02-21 | 2007-07-19 | Siemens Ag | Medizinisches Gerät mit im medizinischen Gerät kombinierter Bilderfassungs- und Positionsbestimmungsvorrichtung |
US8374678B2 (en) | 2006-02-21 | 2013-02-12 | Siemens Aktiengesellschaft | Medical apparatus with image acquisition device and position determination device combined in the medical apparatus |
EP1854425A1 (de) * | 2006-05-11 | 2007-11-14 | BrainLAB AG | Medizintechnische Positionsbestimmung mit redundanten Positionserfassungseinrichtungen und Prioritätsgewichtung für die Positionserfassungseinrichtungen |
US9125690B2 (en) | 2006-05-11 | 2015-09-08 | Brainlab Ag | Medical position determination using redundant position detection means and priority weighting for the position detection means |
DE102006036575A1 (de) * | 2006-08-04 | 2008-02-14 | Siemens Ag | Medizinische Bildgebungsvorrichtung und Verfahren zur Darstellung der Position eines interventionellen Instruments bei einer solchen Bildgebungsvorrichtung |
CN113347937A (zh) * | 2019-01-25 | 2021-09-03 | 伯恩森斯韦伯斯特(以色列)有限责任公司 | 参照系的配准 |
CN114209431A (zh) * | 2021-12-24 | 2022-03-22 | 杭州柳叶刀机器人有限公司 | 光学探针识别方法、装置、电子设备及存储介质 |
CN114209431B (zh) * | 2021-12-24 | 2023-11-21 | 杭州柳叶刀机器人有限公司 | 光学探针识别方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10108547B4 (de) | Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern | |
CN107468350B (zh) | 一种三维图像专用标定器、手术定位***及定位方法 | |
JP2950340B2 (ja) | 三次元データ組の登録システムおよび登録方法 | |
DE69922980T2 (de) | Verfahren und vorrichtung zur positionierung eines geräts in einem körper | |
DE69432961T2 (de) | Anordnung zur Bestimmung der gegenseitigen Lage von Körpern | |
EP0652726B1 (de) | Verfahren zur darstellung des inneren von körpern | |
DE60018247T2 (de) | System und Methode zur Verwendung mit bildgebenden Verfahren zur Erleichterung der Planung von chirurgischen Eingriffen | |
EP1946702B1 (de) | Abbildung anatomischer Strukturen | |
DE69534862T2 (de) | Chirurgische Navigationsanordnung einschliesslich Referenz- und Ortungssystemen | |
EP3076369B1 (de) | Verfahren und vorrichtung zum darstellen eines objektes | |
DE102019004235B4 (de) | System und verfahren zur bildbasierten registrierung und kalibrierung | |
WO2003105709A1 (de) | Verfahren und instrument zur chirurgischen navigation | |
DE102007057094A1 (de) | Systeme und Verfahren zur visuellen Verifizierung einer CT Registrierung und Rückkopplung | |
JP2007307399A (ja) | 定位手術処置装置および方法 | |
WO2014001536A1 (de) | Mobil handhabbare vorrichtung zur bearbeitung oder beobachtung eines körpers | |
DE4417944A1 (de) | Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie | |
JPH11276502A (ja) | フレームレス定位手術装置 | |
CN113316429A (zh) | 用于在坐标系之间配准和导航的***和方法 | |
DE19807884C2 (de) | Verfahren zur Kalibrierung einer Aufnahmevorrichtung zur Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte und Vorrichtung zur Durchführung des Verfahrens | |
EP4213755B1 (de) | Chirurgisches assistenzsystem | |
DE102008009266B4 (de) | Verfahren und Einrichtung zur Kalibrierung einer Instrumentenlokalisierungseinrichtung mit einer Bildgebungsvorrichtung | |
DE10109310A1 (de) | Vorrichtung und Verfahren zur dreidimensionalen Navigation von Biopsie-Sonden | |
WO2012152264A1 (de) | Vorrichtung und verfahren zur bestimmung der relativen position und orientierung von objekten | |
CN116999129A (zh) | 一种用于神经外科穿刺手术的定位导航***及方法 | |
DE202015009588U1 (de) | Motorisiertes vollfeldadaptives Mikroskop |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8139 | Disposal/non-payment of the annual fee |