DE102010018291B4 - Navigationssystem und Röntgensystem - Google Patents

Navigationssystem und Röntgensystem Download PDF

Info

Publication number
DE102010018291B4
DE102010018291B4 DE102010018291.5A DE102010018291A DE102010018291B4 DE 102010018291 B4 DE102010018291 B4 DE 102010018291B4 DE 102010018291 A DE102010018291 A DE 102010018291A DE 102010018291 B4 DE102010018291 B4 DE 102010018291B4
Authority
DE
Germany
Prior art keywords
camera
marker
navigation
ray
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102010018291.5A
Other languages
English (en)
Other versions
DE102010018291A1 (de
Inventor
Dr. Graumann Rainer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SIEMENS HEALTHINEERS AG, DE
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102010018291.5A priority Critical patent/DE102010018291B4/de
Publication of DE102010018291A1 publication Critical patent/DE102010018291A1/de
Application granted granted Critical
Publication of DE102010018291B4 publication Critical patent/DE102010018291B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Navigationssystem (8), mit mindestens einer Kamera (10a,b), und mit mindestens einem Navigationsmarker (12a,b) mit mindestens vier von der Kamera (10a,b) in mindestens einem Kamerabild (20a,b) identifizierbar erfassbaren Markerelementen (22a,b), wobei drei der Markerelemente (22a,b) eine Ebene (26) definieren und das vierte Markerelement (22a,b) außerhalb der Ebene (26) liegt, mit einer anhand der Lage (23) der Abbilder der Markerelemente (22a,b) im Kamerabild (20a,b) die Relativlage (z) des Navigationsmarkers (12a,b) zur Kamera (10a,b) ermittelnden Auswerteeinheit (16), bei dem die Kamera (10a,b) eine endoskopische oder laparoskopische Kamera ist.

Description

  • Die Erfindung betrifft ein Navigationssystem und ein mit einem Navigationssystem ausgerüstetes Röntgensystem.
  • An Patienten werden als medizinische Maßnahmen z.B. chirurgische Eingriffe durchgeführt. Hierbei wird es für die Durchführenden, z.B. Chirurgen, mehr und mehr wünschenswert, Navigationsunterstützung zu erhalten. Dies bedeutet, dass sowohl die Position und Orientierung des Patienten bzw. seiner Organe, Knochen oder ähnlichem, als auch Positionen und Orientierungen von Instrumenten, medizinischen Hilfsmitteln, medizinischen Geräten usw. in einem dreidimensionalen Koordinatensystem bekannt sind. Hierbei kann es wünschenswert sein, die Positionen absolut, z.B. im OP-Saal zu kennen, oder zumindest die Relativlagen von Patient und Instrument zu kennen. Sind die entsprechenden Positionen und Orientierungen bekannt, kann z.B. eine sogenannte navigationsunterstützte Chirurgie durchgeführt werden.
  • Das Problem der Bestimmung von Positionen und Orientierungen im Raum und deren Zuordnung zu Patienten- bzw. Bilddaten ist daher aus der navigationsunterstützten Chirurgie bekannt. Zur Lösung sind folgende Navigationssysteme bekannt:
  • An den zu ortenden Objekten werden Navigationsmarker - oder kurz „Marker“ - angebracht. Hierbei sind jeweils mehrere Markerelemente in geometrisch fixer Anordnung auf einem Träger oder Stativ zu einem Marker zusammengefasst. Bekannt ist die Verwendung von aktiven Markerelemente in Form von Leuchtdioden oder passiven Markerelementen in Form von infrarotreflektierenden Kugeln. Derartige Marker werden z.B. an einem chirurgischen Instrument befestigt, wobei die Relativposition zwischen Marker und Instrument oder z.B. dessen Arbeitsspitze bekannt bzw. gegeben ist. So entsteht eine eindeutige geometrische Beziehung zwischen z.B. der Instrumentenspitze und dem Marker. Die Position und Orientierung des Markers wiederum wird über optische Stereokameras detektiert. Über eine geometrische Triangulierung werden Ort und Richtung, d.h. Position und Orientierung des Markers im Bezugssystem der Stereokamera bestimmt. Eine bekannte Stereokamera weist z.B. zwei CCD-Kameras auf und ist als „Polaris“-System der Firma NDI bekannt. Marker benötigen hier jeweils 3 Markerelemente. Mit zwei Markern sind fünf Freiheitsgrade bestimmbar, nämlich drei Positionen und zwei Winkel. Eine Drehung um die Verbindungsachse der beiden Marker kann jedoch nicht bestimmt werden, hiergegen ist die Markeranordnung invariant. Ein dritter Marker dient damit der Bestimmung eines sechsten Freiheitsgrades und der Unterscheidung verschiedener Marker.
  • Aus DE 102 06 193 C1 , DE 11 2007 001 214 T5 , DE 102 46 147 A1 , WO 2007/ 128 377 A1 und US 2005 / 0 201 613 A1 sind gegebenenfalls für Navigationssysteme geeignete extrakorporale Kameras bekannt. WO 2009/ 047 335 A1 beschreibt ein CAD (Computer Aided Design) Modell für die intelligente und automatische Objekterkennung.
  • Alternativ zur eben genannten optischen Navigation ist eine sogenannte elektromagnetische Navigation durch entsprechende Navigationssysteme bekannt. Hier dient eine elektromagnetische Sensorspule als Navigationsmarker. Die optische Kamera wird ersetzt durch einen felderzeugenden Feldgenerator. In einem derartigen Navigationssystem wird Position und Orientierung der Sensorspule im Feld des Feldgenerators und damit in dessen Koordinatensystem bestimmt. Die Sensorspule als Navigationsmarker kann dabei wieder an einem Objekt angebracht werden, aber z.B. auch in einem Werkzeug oder in einem Implantat integriert sein.
  • Hinsichtlich des Röntgensystems befasst sich die Erfindung mit der röntgenologischen Unterstützung chirurgischer Eingriffe wiederum in Verbindung mit der Positionsbestimmung chirurgischer Instrumente bzw. Implantate und deren Einblendung in medizinische Bilddaten, die z.B. vom Röntgensystem erzeugt werden. Bekannt ist hier z.B. die Kombination aus einem Röntgengerät und dem oben genannten Navigationssystem mit optischer Stereo-Kamera in Form des Systems „C-Nav“ der Firma CAS-Innovations oder ähnlichen Systeme der Firma Brainlab.
  • Alternativ ist aus der DE 100 49 103 A1 - z.B. als sogenanntes „CAMC“-System (camera augmented mobile C-arm) der Fa. Siemens - ein Röntgengerät bekannt, bei dem eine optische Videokamera fest derart in das Röntgengerät integriert ist, dass ihre Blickrichtung derjenigen der Röntgenabbildung des Röntgengerätes entspricht. Dieses System erlaubt eine geometrisch exakte Überlagerung des z.B. von einem C-Bogen gewonnenen 2D-Röntgebildes mit dem Live-Kamera-Bild der Videokamera zur Unterstützung chirurgischer Eingriffe. Zunächst wird ein Röntgenbild zeitgleich mit einem Videobild des Patienten angefertigt. Das Videobild zeigt dann die sichtbare Oberfläche des Patienten und im Operationsgeld vorhandene Instrumente. Beide Bilder, Röntgenbild und Videobild, können ineinander überblendet, d.h. nach Wahl des Benutzers verschieden stark hervorgehoben werden.
  • Z.B. eine Instrumentenplatzierung, d.h. die Wahl einer Einstichstelle am Patienten erfolgt dann später alleine anhand des Live-Videobildes von Instrument und Patient, überlagert mit dem vorab aufgenommenen Videobild.
  • Zur Kontrolle, ob ein neues Röntgenbild angefertigt werden muss, wird z.B. ein Marker außen auf den Patienten aufgeklebt, der im Videobild und im Röntgenbild sichtbar ist. Verschiebt sich der Marker im Live-Videobild gegenüber der Position im vorher aufgenommenen Röntgenbild, ist von einer Patientenbewegung auszugehen und ein neues Röntgenbild wird angefertigt.
  • Die genannten Navigationssysteme sind mit einem hohen Geräteaufwand verbunden. Das CAMC-System bietet keine tatsächliche dreidimensionale Positions- und Orientierungsbestimmung von Markern im Sinne der oben genannten Navigationssysteme.
  • Aufgabe der vorliegenden Erfindung ist es, ein verbessertes Navigationssystem und ein verbessertes Röntgensystem anzugeben.
  • Hinsichtlich des Navigationssystems wird die Aufgabe gelöst durch ein Navigationssystem mit einer Kamera und mit einem Navigationsmarker, wobei der Navigationsmarker mindestens vier Markerelemente umfasst. Die Kamera liefert im Betrieb ein Kamerabild, wobei Kamera und Markerelemente so aufeinander abgestimmt sind, dass im Kamerabild die vier Markerelemente erfassbar und identifizierbar sind. „Erfassbar“ bedeutet in diesem Zusammenhang, dass diese im Kamerabild soweit erkennbar sind, dass deren Lage im Kamerabild erfassbar ist. Mit anderen Worten kann der Ort des Abbilds der Markerelemente im Kamerabild, z.B. relativ zu den Bildgrenzen, bestimmt werden. „Identifizierbar“ bedeutet, dass das Abbild jedes Markerelements im Kamerabild auch dem entsprechenden Markerelement zuordenbar ist. Der Marker ist so gestaltet, dass drei der Markerelemente eine Ebene definieren und das vierte Element außerhalb der genannten Ebene liegt. Damit drei Markerelemente eine Ebene definieren, definieren zwei Markerelemente eine Gerade, wobei das dritte Markerelement außerhalb der Geraden liegt. Mit anderen Worten dürfen die vier Markerelemente nicht in einer Ebene liegen.
  • Das Navigationssystem umfasst außerdem eine Auswerteeinheit. Diese ist so ausgestaltet, dass sie anhand der Lage der Markerelemente, bzw. deren Abbilder, im Kamerabild die Relativlage des Markers zur Kamera ermittelt.
  • Gemäß der Erfindung ist die Kamera eine endoskopische oder laparoskopische Kamera. Ein entsprechendes Navigationssystem könnte somit auch durch eine Kamera einer Endoskopiekapsel bei einer magnetischen Kapselendoskopie (MGCE) verwendet werden. Ein derartiges frei magnetisch im Patienten bewegbares Kapselendoskop ist z.B. aus der DE 101 42 253 C1 bekannt. Mit einer derartigen Kamera sind auch Einsätze des Navigationssystems innerhalb eines Patienten, d.h. innerhalb dessen Körpers möglich. Insbesondere in Kombination mit auf endoskopischen Instrumenten aufgedruckten Navigationsmarkern können so beispielsweise zusammen mit der Kamera in den Patienten eingeführte Instrumente in ihrer Relativposition zur endoskopischen Kamera geortet werden. Besonders in dieser Ausführungsform ist also eine optische Navigation innerhalb eines Patienten möglich, was mit bisherigen optischen Navigationssystemen unmöglich war bzw. aufgrund der benötigten zwei Kameras im Sinne einer Stereokamera bisher nicht praktikabel war. Die Kamera ist z.B. eine im sichtbaren oder Infrarotlichtbereich arbeitende Kamera, welche insbesondere im letzteren Fall mit einer entsprechenden Infrarotlichtquelle und infrarotreflektierenden Markerelementen kombiniert ist. Insbesondere in Verbindung mit einer Infrarotkamera ist in der Regel eine Infrarotlichtquelle, z.B. um das Kameraobjektiv herum, angebracht. Eine derartige Anordnung ist z.B. als passives Kamerasystem bzw. passive Kamera der Fa. Polaris bekannt, die mit passiven Markern, z.B. reflektierenden Kügelchen arbeitet. Im Gegensatz hierzu verwenden aktive System aktive Marker, d.h. solche, die aktiv Licht aussenden, z.B. mit Hilfe von aktiv angesteuerten LEDs, die von der Kamera detektiert werden. Die Navigationsmarker bzw. Markerelemente sind dann beispielsweise mit einer infrarotreflektierenden Oberfläche ausgestattet. Die Infrarotkamera verfügt dann über einen infrarotsensitiven Detektor. Auch sind hier zusätzliche Infrarotlichtquellen, z.B. an einem Röntgen-C-Bogen, denkbar.
  • Mit anderen Worten wird also gemäß der Erfindung z.B. an einem chirurgischen Instrument oder Implantat ein Marker mit n≥4 durch die Kamera in einem Bild erkennbar abbildbaren, also z.B. optisch sichtbaren, Markerelementen angebracht. Die Markerelemente weisen hierbei eine definierte und bekannte räumliche Struktur bzw. Relativanordnung zueinander auf. Mit anderen Worten sind also innerhalb des Markers Abstände und Winkel der Markerelemente zueinander bekannt, wobei die Marker nicht sämtlich in einer Ebene liegen dürfen. Im Gegensatz zur Stereokamera bei bekannten Navigationssystemen werden die Marker durch eine einfache bzw. einzelne, fest oder mobil z.B. in einem Behandlungsraum angebrachte, Videokamera aufgenommen. Die Kamera des Navigationssystems kann z.B. an einem Gerät oder in einem Behandlungsraum fest installiert sein oder mobil, z.B. auf einem verstellbaren Stativ gelagert sein. Die Kamera wird hierbei hinsichtlich vorhandener geometrischer Bildfehler korrigiert und bezüglich ihrer Abbildungseigenschaften (z.B. hinsichtlich eines verfügbaren Zooms) kalibriert.
  • Bei der Verwendung von n≥4 Markerelementen pro Navigationsmarker bzw. deren Erkennung im Kamerabild lässt sich die Position und die Orientierung des Navigationsmarkers, d.h. dessen Lage und Orientierung im Koordinatensystem der Kamera durch eine einfache Objekterkennung im Videobild bestimmen. Dies wird von der Auswerteeinheit durchgeführt. Ist der Navigationsmarker fest z.B. an einem Instrument in bekannter Relativposition zu diesem befestigt und die Geometrie des Instruments bekannt, dann lässt sich die Transformation vom Marker z.B. zur chirurgisch aktiven Instrumentenspitze durch eine Kalibrierprozedur eindeutig festlegen bzw. bestimmen.
  • Durch eine Bildverarbeitung des Kamerabildes wird eine schnelle Erkennung des Navigationsmarkers und damit eine Echtzeitpositionsmessung ermöglicht, da die Bestimmung der Position des Markers durch einfache geometrische Berechnungen erfolgt. Die Erkennung, d.h. Bestimmung der Position und Orientierung des Navigationsmarkers kann dann in Echtzeit durch stetige Aufnahme von Kamerabildern und deren Auswertung erfolgen, so dass mit Hilfe der Kamera eine kontinuierliche Verfolgung des Markers und damit z.B. des betreffenden Instrumentes erfolgen kann. Hierbei ist lediglich eine direkte und ununterbrochene Sichtlinie zwischen Kamera und Marker erforderlich.
  • Im Gegensatz zur Navigation bzw. Ortsermittlung der Lage eines Markers durch eine Stereokamera ist das erfindungsgemäß genutzte Vorgehen mit einer einzigen Kamera unter Umständen etwas ungenauer, reicht jedoch für die meisten Anwendungen aus. Der Verzicht auf die zweite Kamera muss durch Verwendung eines vierten Markerelements pro Marker im Vergleich zur Stereokamera ausgeglichen werden; dort sind drei Marker ausreichend. Im vorliegenden Verfahren müssen mindestens vier Markerelemente genutzt werden, wobei mehr als vier Markerelemente z.B. die Genauigkeit erhöhen oder Redundanzen nutzbar machen. Bei der bekannten Stereokamera reichen zwei Markerelemente aus, wenn es nicht darauf ankommt, den Drehwinkel um die eigene Achse zu bestimmen, also nur fünf Freiheitsgrade (DoF, Degrees of Freedom) gefordert sind. Sollen alle Parameter, also sechs DoF bestimmt werden, dann sind mindestens drei Markerelemente notwendig.
  • Die Marker bzw. Markerelemente sollen hinlänglich klein gehalten werden, so dass diese zwar im Kamerabild noch gut erkennbar sind, jedoch nicht so groß sind, dass sie z.B. signifikant anatomische Strukturen des Patienten verdecken. So kann gleichzeitig im Kamerabild eine entsprechende Beobachtung des Patienten durchgeführt werden, z.B. im Rahmen des o.g. CAMC-Verfahrens.
  • In einer bevorzugten Ausführungsform der Erfindung unterscheiden sich die Markerelemente innerhalb des Navigationsmarkers hinsichtlich ihrer Farbe und/oder Geometrie. Werden die unterschiedlichen Markerelemente, z.B. Kugeln, farblich oder geometrisch unterschiedlich gestaltet und eine Farbkamera verwendet, so wird die Zuordnung der Abbilder der jeweiligen Markerelemente zum tatsächlichen Markerelement signifikant vereinfacht. Die Geometrie als Unterscheidungsmerkmal zu verwenden ist grundsätzlich möglich, allerdings schwierig. Aus jeder Projektionsrichtung muss der Mittelpunkt des Markerelements bestimmbar sein, was insbesondere bei einer Kugelform besonders einfach bzw. eindeutig möglich ist.
  • In einer weiteren Ausführungsform umfasst das Navigationssystem mindestens zwei Navigationsmarker. Diese unterscheiden sich dann hinsichtlich der Farbe und/oder Geometrie und/oder geometrischen Relativanordnung ihrer Markerelemente. So können die unterschiedlichen Navigationsmarker im Kamerabild leicht unterschieden werden. Unterschiedliche Instrumente können so z.B. anhand von unterschiedlichen Navigationsmarkern unterschieden werden, wenn die entsprechenden Markeranordnungen unterschiedlich gestaltet und simultan durch die Kamera verfolgt werden. Mit anderen Worten kann sich die Unterscheidung bezüglich Farbe und Geometrie sowohl innerhalb eines Navigationsmarkers als auch zwischen unterschiedlichen Navigationsmarkern unterscheiden.
  • In Verbindung mit der o.g. Infrarotkamera könnten verschiedene Markerelemente z.B. mit verschieden reflektierenden Infrarotfiltern ausgestattet sein, um eine Identifikation des Markerelementes bzw. des Navigationsmarkers im Kamerabild zu vereinfachen. Für die Verwendung unterschiedlicher Infrarotfilter könnte dann auch die Kamera mit mehreren Infrarotchips ausgestattet sein, welche jeweils entsprechend auf unterschiedliche Infrarotfilter abgestimmt sind. Auch sind Kameras denkbar, die sowohl Sensorchips im sichtbaren als auch im Infrarotbereich, also mindestens zwei Chips, enthalten.
  • In einer bevorzugten Ausführungsform des Navigationssystems sind die Markerelemente dadurch gebildet, dass sie als Markierungen auf eine Oberfläche des Navigationsmarkers aufgebracht, z.B. aufgedruckt oder aufgeklebt sind. Hierbei muss die geometrische Oberflächengestaltung des Navigationsmarkers dann sicherstellen, dass die Markerelemente - wie oben erläutert - nicht in einer Ebene liegen. Mit anderen Worten ist der Navigationsmarker dann ein räumlich gestaltetes Gebilde mit einer entsprechenden Oberfläche, die die Markerelemente als z.B. farbigen Aufdruck aufweist. Wegen der Anforderung, dass die Marker stets von einer Kamera aus sichtbar sein müssen, ist diese Variante möglich, jedoch unter Umständen schwierig. Auch hier ist eine Ausbildung der Markerelemente als infrarot reflektierende Oberfläche denkbar.
  • Insbesondere kann in einer besonderen Ausgestaltung dieser Ausführungsform der Navigationsmarker einen integralen Teil z.B. eines Instrumentes bilden bzw. überhaupt durch das Instrument gebildet werden. Die Markerelemente sind nämlich dann direkt auf die Oberfläche des Instrumentes aufgedruckt. So bildet das Instrument bzw. dessen Oberfläche gleichzeitig den Navigationsmarker. Ein Navigationsmarker als separates Bauteil ist so nicht mehr nötig.
  • In einer weiteren Ausführungsform der Erfindung umfasst das Navigationssystem mindestens eine zweite Kamera, welche eine eigene Auswerteeinheit aufweist. Dies soll heißen, dass tatsächlich strenggenommen auch nur eine einzige Auswerteeinheit im Navigationssystem für mehrere Kameras vorhanden sein kann. Entscheidend ist, dass das Kamerabild jeder einzelnen Kamera jeweils für sich ausgewertet wird und aus jedem einzelnen Kamerabild die Relativlage des Markers zur jeweiligen Kamera ermittelt wird. Dies stellt einen wesentlichen Unterschied zur Stereokamera gemäß Stand der Technik dar, da hier jeweils mindestens zwei Kameras notwendig sind, um überhaupt eine einzige Position eines Markers bestimmen zu können.
  • Durch die Verwendung einer zweiten oder mehrerer weiterer Kameras z.B. an anderen Orten im Behandlungsraum, welche sämtlich auf das Behandlungsgebiet, also den potentiellen Aufenthaltsort von Navigationsmarkern, ausgerichtet sind, kann das Problem der notwendigen Sichtlinie zwischen Kamera und Marker entschärft werden. Hervorzuheben ist, dass die mehreren Kameras auch dann nicht im Sinne der oben genannten Stereokamera, d.h. im Sinne einer Triangulation zusammen arbeiten, sondern jeweils jede Kamera für sich als Einzelkamera anhand der Bildverarbeitung des einzelnen Kamerabildes die jeweilige Relativposition des Markers im Koordinatensystem der jeweiligen einzelnen Kamera ermittelt.
  • Die Relativpositionen der einzelnen Kameras zueinander können hier besonders einfach ermittelt werden. Hierzu fertigen die Kameras, deren Relativlage zueinander ermittelt werden soll, gleichzeitig ein Kamerabild desselben Markers an. Da aus jedem einzelnen Kamerabild die jeweilige Relativposition der Kamera zum Marker bekannt ist, ist so auch die Relativlage der Kameras zueinander bekannt.
  • Insbesondere ist ein derartiges Navigationssystem also „in vivo“ nutzbar.
  • Hinsichtlich des Röntgensystems wird die Aufgabe gelöst durch ein Röntgensystem mit einem im Betrieb ein Röntgenbild liefernden Röntgengerät und einem oben beschriebenen Navigationssystem. Die Kamera des Navigationssystems ist hierbei derart in das Röntgengerät integriert ist, das ihre Blickrichtung mit der Bildgebungsrichtung des Röntgengerätes zusammenfällt. Mit anderen Worten bilden Kamerabild und Röntgenbild einen im Röntgengerät befindlichen Patienten aus der gleichen Blickrichtung und mit der gleichen Projektionsgeometrie ab. Der Zentralstrahl des Röntgengerätes und die zentrale Abbildungsachse der Kamera fallen zusammen. Blickrichtung - und gegebenenfalls auch der Sichtwinkel - beider Abbildungen sind gleich oder zumindest ähnlich. Der Sichtwinkel der Kamera kann dabei aber auch größer dem Sichtwinkel des Röntgengerätes sein.
  • Insbesondere wird z.B. ein beliebiges Röntgengerät mit der oben genannten CAMC-Funktionalität - dort speziell nur für einen C-Bogen - ausgerüstet. Das CAMC-System kann z.B. zusammenarbeiten mit einem mobilen oder stationären Röntgen-C-Bogen, einem mobilen Röntgensystem, wie z.B. Siemens „Mobilett“ oder digitalen oder analogen Radiographie-Systemen.
  • Z.B. kann eine ohnehin im Röntgensystem vorhandene CAMC-Kamera als Kamera des oben genannten Navigationssystems verwendet werden und mit einer entsprechenden Auswerteeinheit nachgerüstet werden. Hinzuzunehmen sind dann noch die oben genannten Navigationsmarker mit Markerelementen.
  • Im erfindungsgemäßen Röntgensystem wird also durch die Verwendung der Kamera sowohl eine CAMC-Funktionalität ermöglicht, also die Möglichkeit der Bildüberlagerung zwischen einem Kamera- bzw. Videobild und einem 2D-Röntgenprojektionsbild. Mit anderen Worten erfolgt also eine Integration in CAMC. Gleichzeitig ist dank der Verwendung der Kamera im Navigationssystem auch die oben beschriebene 3D-Navigation, also Orts- und Lagebestimmung von Komponenten, mit Hilfe von Navigationsmarkern möglich.
  • Die Kalibrierung der Koordinatensysteme von Kamera und Röntgenbildgebung erfolgt einmalig bei der Herstellung eines erfindungsgemäßen Röntgengerätes, wie auch bei CAMC-Systemen üblich. Eine weitere Kalibrierung zu einem späteren Zeitpunkt ist hier nicht mehr nötig.
  • Durch die Erfindung kann also z.B. die gegenwärtig bekannte CAMC-Funktion zur Operationsunterstützung signifikant erweitert werden. Durch die Erfindung wird eine einfache Navigationsmethode in das Röntgensystem integriert, welche sowohl mit Videounterstützung als auch ohne Videounterstützung sowohl in zwei als auch in drei Dimensionen funktioniert, da die erworbenen Ortsinformationen der Marker in 3D vorliegen. Die Arbeit ohne Videounterstützung funktioniert dabei z.B. dann, wenn vorher ein 3D-Datensatz erzeugt wurde und das 2D-Röntgenbild dem 3D-Datensatz mittels 2D-/3D-Registrierung überlagert wurde.
  • Durch eine Doppelfunktion der Kamera als Lieferant des Videobildes für die CAMC-Anwendung einerseits und zur Gewinnung der Navigationsinformation im Navigationssystem andererseits ist eine inhärente bzw. einfache Registrierung zwischen Röntgen- und Navigationsfunktionalität sowie eine Online-Überwachung der Überlagerungsqualität möglich. Die Online-Überwachung gelingt z.B. mittels eines Markers, der auf dem Patienten aufgeklebt ist.
  • Die Integration des Navigationssystems erlaubt eine signifikante Erweiterung der Funktionalität eines bisherigen Röntgensystems.
  • In einer bevorzugten Ausführungsform der Erfindung ist das Röntgengerät ein C-Bogen-Röntgengerät. So wird die Navigationsfunktion tatsächlich in ein originäres CAMC-System integriert.
  • In einer weiteren Ausführungsform der Erfindung weist das Röntgensystem eine Auswerteeinheit auf, welche eine mit dem Navigationsmarker ortskorrelierte Positionsmarke anhand der durch das Navigationssystem ermittelten Relativlage zwischen Marker und Kamera ortsrichtig in das Röntgenbild einblendet. Die in einem CAMC-Röntgengerät ohnehin inhärent bzw. zwingend vorhandene Registrierung zwischen Kamerabild und Röntgenbild kann so genutzt werden. So können die anhand der zum Röntgensystem registrierten Kamera gewonnenen Navigationsinformationen bezüglich der Marker bzw. verbundener Instrumente demnach auch in das Röntgenbild eingeblendet bzw. diesem überlagert werden. Dies ist nützlich, wenn sich z.B. Instrumente bereits im Inneren des Patienten befinden, da beim bisherigen CAMC dann z.B. die im Patienten befindliche Instrumentenspitze nicht mehr in Echtzeit sichtbar war, so lange kein Röntgenbild angefertigt wurde. Die in der Kamera erkennbaren Marker müssen hierzu natürlich in deren Blickfeld außerhalb des Patienten verbleiben.
  • Liegen von dem Patienten prä- oder intraoperativ gewonnene 2D- oder Röntgen 3D-Bilddaten vor, so können diese ebenfalls am Röntgengerät registriert werden. Die aktuell durch das Navigationssystem gewonnenen 3D-Positionen der Marker bzw. Instrumente kann dann in die jeweiligen Bilddaten, z.B. das präoperative 3D-Volumen übertragen werden. Aktuell mit dem Röntgensystem gewonnene 2D-Röntgenbilder können dabei auch als Überwachung für mögliche Objektbewegungen, z.B. Patientenbewegungen verwendet werden. Hierzu kann z.B. - wie auch bei CAMC-Verfahren üblich - ein Marker auf die Hautoberfläche des Patienten, aufgeklebt und dessen Bewegung durch die Kamera verfolgt werden.
  • Wird die Kamera des Navigationssystems nicht wie bei CAMC üblich direkt am C-Bogen befestigt und registriert, so kann die eben erläuterte Vorgehensweise wie bei einer klassischen Navigation durchgeführt werden. Im Behandlungsraum wird anstelle einer klassisch bekannten Stereonavigationskamera die erfindungsgemäße singuläre Videokamera eingesetzt. Die - ggf. auch mehreren - Videokameras können dann strategisch günstiger platziert werden, und die Registrierung wie bei der klassischen optischen Navigation durchgeführt werden.
  • Mit dem entsprechend ausgerüsteten Röntgensystem, z.B. wenn das Röntgengerät ein C-Bogen ist, können zweite oder weitere Röntgenaufnahmen eines Patienten unter anderen Projektionswinkeln aufgenommen werden. Z.B. liegen dann zwei 2D-Röntgenbilder eines Patienten aus lateraler und AP(anteroposteriorer)-Position vor. So kann die aktuelle vom Navigationssystem ermittelte Instrumentenposition in beiden Röntgenbildern und damit sofort auch in einer zweiten Ebene angezeigt werden. Voraussetzung ist lediglich, dass die Projektionsgeometrie der zweiten Projektionsrichtung ebenfalls bekannt ist. Die Ermittlung der Projektionsposition kann z.B. über einen Winkelgeber bei einem isozentrischen C-Bogen erfolgen. Dies ist gegenüber der reinen CAMC-Funktionalität ein signifikanter Fortschritt, da Quasi-3D-Informationen, z.B. über die Eindringtiefe eines Instrumentes in einen Patienten vorliegen und auch visualisiert werden können.
  • Für eine weitere Beschreibung der Erfindung wird auf die Ausführungsbeispiele der Zeichnungen verwiesen. Es zeigen, jeweils in einer schematischen Prinzipskizze:
    • 1 ein erfindungsgemäßes Navigationssystem,
    • 2 ein Kamerabild des Navigationssystems aus 1,
    • 3 einen Navigationsmarker aus 1,
    • 4 ein erfindungsgemäßes Röntgensystem,
    • 5 Kamera- und Röntgenbilder des Röntgensystems aus 4.
  • 1 zeigt einen Patienten 2 auf einem Patiententisch 4, an welchem gerade chirurgischer Eingriff durchgeführt wird. Dieser erfolgt mittels eines medizinischen Instruments 6 bzw. dessen als Werkzeug ausgebildeter Spitze 7. Der Eingriff wird als navigationsunterstützte Chirurgie durchgeführt. Hierzu dient ein Navigationssystem 8 gemäß der Erfindung.
  • Das Navigationssystem 8 umfasst eine Kamera 10a in Form einer optischen Videokamera, sowie zwei Navigationsmarker 12a,b. Der Navigationsmarker 12a ist fest, also in bekannter Relativposition am Patienten 2 fixiert, so dass jede Bewegung des Patienten 2 auch zwangsweise zu einer Bewegung des Navigationsmarkers 12a führt. Der Navigationsmarker 12b ist fest am Instrument 6 angebracht, so dass sich jede Bewegung des Instruments 6 auch in einer Bewegung des Navigationsmarkers 12b niederschlägt. Insbesondere ist die gesamte Geometrie des Instruments 6, insbesondere die Relativlage der Spitze 7, in Relation zum Navigationsmarker 12b bekannt. Der Navigationsmarker 12a dient als Referenz und definiert ein Koordinatensystem 14a, welches als Referenz- bzw. Patientenkoordinatensystem dient. Der Navigationsmarker 12b dagegen definiert ein Instrumentenkoordinatensystem 14b.
  • Über dem Patienten 2 befindet sich ein Raumbereich, nämlich der Operationsbereich 13, in dem sich während des Eingriffs Instrumente 6 bzw. Navigationsmarker 12a,b befinden können, die für den Eingriff in diesem Moment relevant sind. Die Kamera besitzt eine Blickrichtung 11a als mittlere Bildrichtung, die zentral auf den Operationsbereich 13 gerichtet ist. Die Kamera besitzt ein Sichtfeld 15a, welches den gesamten Operationsbereich 13 erfasst.
  • Das Navigationssystem 8 umfasst außerdem eine Auswerteeinheit 16, welche mit der Kamera 10a bzw. deren Bildsensor 18 verbunden ist. Während des Betriebs des Navigationssystems 8 nimmt nun die Kamera 10a über den Bildsensor 18 ein Kamerabild 20a auf und übermittelt dieses an die Auswerteeinheit 16.
  • Das Kamerabild 20a ist vergrößert in 2 dargestellt. Im Kamerabild 20 sind jeweilige Abbilder von Patient 2, Patiententisch 4 und den beiden Navigationsmarkern 12a,b zusammen mit dem des Instruments 6 zu sehen. Vom Instrument 6 ist nur der außerhalb des Patienten 2 befindliche Teil zu sehen; der im Patienten 2 befindliche Teil mit der Spitze 7 ist in 2 lediglich gestrichelt angedeutet, jedoch nicht sichtbar.
  • 3 zeigt vergrößert den Navigationsmarker 12a. Der Navigationsmarker 12a weist vier Markerelemente 22a auf, der Navigationsmarker 12b vier Markerelemente 22b. Zwei der Markerelemente 22a definieren eine Gerade 24 im Raum, fallen also nicht zusammen. Ein drittes Markerelement 22a ist derart angeordnet, dass es außerhalb dieser Linie 24 liegt und so zusammen mit den erstgenannten beiden Markerelementen 22a eine Ebene 26 im Raum definiert. Das vierte Markerelement 22a liegt wiederum außerhalb dieser Ebene 26. Die jeweilige relative Raumlage der Markerelemente 22a zueinander beschreibt deren Relativanordnung 30, welche beispielsweise für verschiedene Navigationsmarker 12a,b unterschiedlich ist, um diese jeweils voneinander im Kamerabild 20 unterscheiden zu können.
  • Gemäß 1 wertet nun die Auswerteeinheit 16 das in 2 gezeigte Kamerabild 20a folgendermaßen aus: Zunächst werden die jeweiligen Abbilder der Markerelemente 22a bzw. 22b erkannt und mit den jeweiligen Markerelementen 22a,b identifiziert. Die Positionen bzw. Lagen 23 der Abbilder der Markerelemente 22a bzw. 22b im Kamerabild 20a werden erfasst.
  • Eine Lage 23 eines Abbildes ist z.B. gekennzeichnet durch die jeweiligen Abstände x und y des Abbildes zum Bildrand des Kamerabildes 20a, wie in 2 gezeigt.
  • Für jeden Navigationsmarker 12a und 12b ermittelt dann die Auswerteeinheit 16 die Ortsposition und Orientierung des jeweiligen Navigationsmarkers 12a,b im Koordinatensystem 14c der Kamera 10a. Mit anderen Worten werden so Transformationsmatrizen zwischen den Koordinatensystemen 14a,b und dem Koordinatensystem 14c ermittelt. Die einzelnen Koordinatensysteme 14a-c werden also zueinander ortsrichtig registriert. Dies geschieht mit bekannten, nicht näher erläuterten Verfahren der Bildverarbeitung in Echtzeit.
  • Insbesondere werden damit auch die Relativlagen zI und zR zwischen den Koordinatensysteme 14a,b der Navigationsmarker 12a,b und dem Koordinatensystem 14c der Kamera 10a ermittelt. Die jeweiligen Relativlagen ZI,R beschreiben damit jeweils Position und Orientierung, d.h. einen Referenzpunkt und eine vektorielle Ausrichtung der Koordinatensysteme 14a,b bzw. der Navigationsmarker 12a,b und damit von Patient 2 und Instrument 6 und dessen Spitze 7 im Koordinatensystem 14c.
  • Insbesondere ist damit die Relativlage zI der Spitze 7 des Instrumentes 6 im Koordinatensystem 14c bekannt, in welchem auch das Kamerabild 20a aufgenommen wurde. Gemäß dieser Information kann eine die Instrumentenspitze 7 anzeigende Ortsmarke 28 in das Kamerabild 20a eingeblendet werden.
  • 1 zeigt in einer alternativen Ausführungsform gestrichelt eine zweite Kamera 10b, deren Blickrichtung 11b ebenfalls auf den Operationsbereich 13 ausgerichtet ist. Das Sichtfeld 15b erfasst also in Gänze den Operationsbereich 13. Durch die andere räumliche Anordnung der Kamera 10b im Raum bzw. der Winkelabweichung der Blickrichtungen 11a,b ergibt sich folgender Vorteil: Wenn sich z.B. eine nicht gezeigte Hand eines Chirurgen störend zwischen der Kamera 10a und dem Navigationsmarker 12a befindet, so dass dieser im Kamerabild 20a der Kamera 10a nicht sichtbar ist, ist er aber im Kamerabild 20b der Kamera 10b sichtbar. Die Ortsverfolgung des Navigationsmarkers 12a kann so ununterbrochen fortgesetzt werden. Eine entsprechende Relativlage zI kann daher auch zwischen dem Navigationsmarker 12a und der Kamera 10b bzw. deren Koordinatensystem 14d ermittelt werden. Da auch die Relativlage der Kamerakoordinatensysteme 14c und 14d bekannt ist, sind somit wieder sämtliche Ortszusammenhänge in der in 1 gezeigten Situation eindeutig bekannt.
  • 4 zeigt ein erfindungsgemäßes Röntgensystem 34 mit einem Röntgengerät 36 in Form eines C-Bogens und dem oben bereits erläuterten Navigationssystem 8. Alternativ zu 1 wird hier die medizinische Maßnahme am Patienten 2 mit Röntgenunterstützung durchgeführt. Hierzu ist am Röntgensystem 34 ein Röntgenstrahler 38 und im Patiententisch 4 ein Röntgendetektor 40 integriert. Mit Hilfe des Röntgengerätes 36 kann am Patienten 2 ein gewisser Raumbereich in einem Röntgenbild 44 abgebildet werden. Der Raumbereich ergibt sich aus dem Röntgenkegel 42, der sich um dessen Bildgebungsrichtung 43 herum erstreckt.
  • Die Kamera 10a ist derart in das Röntgensystem 34 integriert, dass diese auf einen in der Nähe des Röntgenstrahlers 38 im Röntgenkegel 42 liegenden Spiegel 46 gerichtet ist. Die Blickrichtung 11a der Kamera 10a nach der Umlenkung durch den Spiegel 46 fällt mit der Bildgebungsrichtung 43 zusammen. Die Anordnung der Kamera 10a bzw. des Spiegels 46 erfolgt derart, dass Sichtfeld 15a mit dem Röntgenkegel 42 zusammenfällt bzw. diesen zumindest enthält. So ist sichergestellt, dass sämtliche im Röntgenbild 44 abgebildeten Durchleuchtungsinformation des Patienten 2 auch in Form der durchleuchteten Patientenoberfläche von der Kamera 10a abgebildet wird.
  • Mit anderen Worten gelingt es so, mit Hilfe des Röntgenbildes 44 die von der Kamera 10a im Kamerabild 20a aufgenommene Körperoberfläche bzw. -region des Patienten 2 zusätzlich röntgendurchsichtig darzustellen. Insbesondere können beide Bilder deckungsgleich dargestellt werden bzw. je nach Gewichtung ineinander überblendet werden.
  • 5a zeigt ein Kamerabild 20a, das mit dem Röntgensystem 34 gemäß 4 aufgenommen wurde. Das zu dem Kamerabild 20a gleichzeitig aufgenommene Röntgenbild 44 ist ortsrichtig in das Bild 20 eingeblendet. Im Bereich des Röntgenbildes 44 sind daher auch Knochenstrukturen 48 im Inneren des Patienten 2 sichtbar. Außerdem ist auch die Spitze 7 des Instruments 6 nun vollständig, nämlich aufgrund der Röntgendurchleuchtung und des Bildinhaltes des Röntgenbildes 44 sichtbar. 5b zeigt eine weitere Kombination aus Kamerabild 20 und Röntgenbild 44 welche derart gewonnen wurde, dass in 4 das Röntgengerät 36 bzw. der C-Bogen in Richtung des Pfeils 50 um 90° verschwenkt wurde. Auch hier ist wieder der Patient 2 von der Seite als Bildinhalt des Kamerabildes 20a sowie Knochenstrukturen 48 im Patienten 2 als Bildinhalt des Röntgenbildes 44 in überlagerter Darstellung sichtbar.
  • Auch hier ist jeweils wieder eine Ortsmarke 28 für die Position der Spitze 7 des Instruments 6 ortsrichtig in das Röntgenbild 44 und das Kamerabild 20 eingeblendet.
  • Bezugszeichenliste
  • 2
    Patient
    4
    Patiententisch
    6
    Instrument
    7
    Spitze
    8
    Navigationssystem
    10a,b
    Kamera
    11a,b
    Blickrichtung
    12a,b
    Navigationsmarker
    13
    Operationsbereich
    14a-d
    Koordinatensystem
    15a,b
    Sichtfeld
    16
    Auswerteeinheit
    18
    Bildsensor
    20a,b
    Kamerabild
    22a,b
    Markerelement
    23
    Lage
    24
    Gerade
    26
    Ebene
    28
    Ortsmarke
    30
    Relativanordnung
    34
    Röntgensystem
    36
    Röntgengerät
    38
    Röntgenstrahler
    40
    Röntgendetektor
    42
    Röntgenkegel
    43
    Bildgebungsrichtung
    44
    Röntgenbild
    46
    Spiegel
    48
    Knochenstruktur
    50
    Pfeil
    X,y
    Abstand
    ZI,R
    Relativlage

Claims (8)

  1. Navigationssystem (8), mit mindestens einer Kamera (10a,b), und mit mindestens einem Navigationsmarker (12a,b) mit mindestens vier von der Kamera (10a,b) in mindestens einem Kamerabild (20a,b) identifizierbar erfassbaren Markerelementen (22a,b), wobei drei der Markerelemente (22a,b) eine Ebene (26) definieren und das vierte Markerelement (22a,b) außerhalb der Ebene (26) liegt, mit einer anhand der Lage (23) der Abbilder der Markerelemente (22a,b) im Kamerabild (20a,b) die Relativlage (zI,R) des Navigationsmarkers (12a,b) zur Kamera (10a,b) ermittelnden Auswerteeinheit (16), bei dem die Kamera (10a,b) eine endoskopische oder laparoskopische Kamera ist.
  2. Navigationssystem (8) nach Anspruch 1, bei dem sich die Markerelemente (22a,b) innerhalb des Navigationsmarkers (12a,b) hinsichtlich ihrer Farbe und/oder Geometrie unterscheiden.
  3. Navigationssystem (8) nach einem der vorhergehenden Ansprüche, mit mindestens zwei Navigationsmarkern (12a,b), die sich hinsichtlich der Farbe und/oder Geometrie und/oder geometrischen Relativanordnung (30) ihrer Markerelemente (22a,b) unterscheiden.
  4. Navigationssystem (8) nach einem der vorhergehenden Ansprüche, bei dem die Markerelemente (22a,b) als Markierung auf eine Oberfläche des Navigationsmarkers (12a,b) aufgebracht sind.
  5. Navigationssystem (8) nach einem der vorhergehenden Ansprüche, mit mindestens einer zweiten Kamera (10a,b).
  6. Röntgensystem (34) mit einem mindestens ein Röntgenbild (44) liefernden Röntgengerät (36) und einem Navigationssystem (8) nach einem der vorhergehenden Ansprüche, bei dem die Kamera (10a,b) derart in das Röntgengerät (34) integriert ist, dass ihre Blickrichtung (11a,b) mit der Bildgebungsrichtung (43) des Röntgengerätes (36) zusammenfällt.
  7. Röntgensystem (34) nach Anspruch 6, bei dem das Röntgengerät (36) ein C-Bogen-Röntgengerät ist.
  8. Röntgensystem (34) nach Anspruch 6 oder 7, mit einer eine mit dem Navigationsmarker (12a,b) ortskorrelierte Ortsmarke (28) anhand der Relativlage (zI,R) ortsrichtig in das Röntgenbild (44) einblendenden Auswerteeinheit (16).
DE102010018291.5A 2010-04-26 2010-04-26 Navigationssystem und Röntgensystem Active DE102010018291B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010018291.5A DE102010018291B4 (de) 2010-04-26 2010-04-26 Navigationssystem und Röntgensystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010018291.5A DE102010018291B4 (de) 2010-04-26 2010-04-26 Navigationssystem und Röntgensystem

Publications (2)

Publication Number Publication Date
DE102010018291A1 DE102010018291A1 (de) 2011-10-27
DE102010018291B4 true DE102010018291B4 (de) 2018-12-20

Family

ID=44751409

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010018291.5A Active DE102010018291B4 (de) 2010-04-26 2010-04-26 Navigationssystem und Röntgensystem

Country Status (1)

Country Link
DE (1) DE102010018291B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11879854B2 (en) 2020-09-23 2024-01-23 Baker Hughes Oilfield Operations Llc Positioning of x-ray imaging system using an optical camera

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015208698A1 (de) * 2015-05-11 2016-11-17 Siemens Healthcare Gmbh Vorrichtung für ein Röntgensystem
DE102021104219A1 (de) 2021-02-23 2022-08-25 Nano4Imaging Gmbh Erkennung einer in biologisches Gewebe eingeführten Vorrichtung mit medizinischer Bildgebung

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10049103A1 (de) 1999-09-30 2001-07-12 Siemens Corp Res Inc Vorrichtung zur Überlagerung von Röntgen-Videobildern
DE10142253C1 (de) 2001-08-29 2003-04-24 Siemens Ag Endoroboter
DE10206193C1 (de) 2002-02-14 2003-07-03 Siemens Ag Vorrichtung und Verfahren zur Ausrichtung eines Röntgengerätes und eines Therapiegerätes relativ zueinander
DE10246147A1 (de) 2002-10-01 2004-04-15 Vr Magic Gmbh Mehrkamera-Trackingsystem
US20050201613A1 (en) 1998-10-23 2005-09-15 Hassan Mostafavi Single-camera tracking of an object
WO2007128377A1 (en) 2006-05-04 2007-11-15 Nassir Navab Virtual penetrating mirror device for visualizing virtual objects in endoscopic applications
DE112007001214T5 (de) 2006-05-16 2009-04-02 Surgiceye Gmbh Verfahren und Vorrichtung zur 3D-Akquisition, 3D-Visualisierung und computergeführten Operation mit Nuklearsonden
WO2009047335A1 (en) 2007-10-12 2009-04-16 Mvtec Software Gmbh Computer vision cad models

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050201613A1 (en) 1998-10-23 2005-09-15 Hassan Mostafavi Single-camera tracking of an object
DE10049103A1 (de) 1999-09-30 2001-07-12 Siemens Corp Res Inc Vorrichtung zur Überlagerung von Röntgen-Videobildern
DE10142253C1 (de) 2001-08-29 2003-04-24 Siemens Ag Endoroboter
DE10206193C1 (de) 2002-02-14 2003-07-03 Siemens Ag Vorrichtung und Verfahren zur Ausrichtung eines Röntgengerätes und eines Therapiegerätes relativ zueinander
DE10246147A1 (de) 2002-10-01 2004-04-15 Vr Magic Gmbh Mehrkamera-Trackingsystem
WO2007128377A1 (en) 2006-05-04 2007-11-15 Nassir Navab Virtual penetrating mirror device for visualizing virtual objects in endoscopic applications
DE112007001214T5 (de) 2006-05-16 2009-04-02 Surgiceye Gmbh Verfahren und Vorrichtung zur 3D-Akquisition, 3D-Visualisierung und computergeführten Operation mit Nuklearsonden
WO2009047335A1 (en) 2007-10-12 2009-04-16 Mvtec Software Gmbh Computer vision cad models

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11879854B2 (en) 2020-09-23 2024-01-23 Baker Hughes Oilfield Operations Llc Positioning of x-ray imaging system using an optical camera

Also Published As

Publication number Publication date
DE102010018291A1 (de) 2011-10-27

Similar Documents

Publication Publication Date Title
DE10108547B4 (de) Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
EP3076369B1 (de) Verfahren und vorrichtung zum darstellen eines objektes
EP1946702B1 (de) Abbildung anatomischer Strukturen
DE10215808B4 (de) Verfahren zur Registrierung für navigationsgeführte Eingriffe
DE60032475T2 (de) Navigationsführung über computergestützte fluoroskopische bildgebung
EP3393391B1 (de) Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich
DE102011007796B4 (de) Verfahren zur Ermittlung einer Zielposition für eine medizinische Maßnahme
WO2008058520A2 (de) Vorrichtung zur bereitstellung von bildern für einen operateur
EP1905355B1 (de) Beckenregistrierungsvorrichtung für die medizintechnische Navigation
WO2003105709A1 (de) Verfahren und instrument zur chirurgischen navigation
DE102010020284A1 (de) Bestimmung von 3D-Positionen und -Orientierungen von chirurgischen Objekten aus 2D-Röntgenbildern
EP1142536A1 (de) Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte
DE102004004620A1 (de) Verfahren zur Registrierung und Überlagerung von Bilddaten bei Serienaufnahmen in der medizinischen Bildgebung
DE10161160A1 (de) Verfahren zur Bestimmung der Orientierung und Relativposition eines medizinischen Instruments gegenüber einer Struktur im Körper eines atmenden Menschen oder Tieres
EP4213755B1 (de) Chirurgisches assistenzsystem
DE102018119343B4 (de) Verfahren zur Kalibrierung von Objekten in einem Referenzkoordinatensystem und Verfahren zum Tracking von Objekten
DE102010015060A1 (de) Vorrichtung zur Lagerung, Abtastung, tomographischen Darstellung eines Patienten und Durchführung einer Intervention und Verfahren zur Bestimmung der räumlichen Relation zwischen optischen Aufnahmen und tomographischen Darstellungen
DE102009025249A1 (de) Medizinsystem
DE102010018291B4 (de) Navigationssystem und Röntgensystem
EP1959391A1 (de) Bestimmung des dreidimensionalen Verlaufs des Randes einer anatomischen Struktur
EP1464285B1 (de) Perspektivische Registrierung und Visualisierung interner Körperbereiche
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
DE10235795B4 (de) Medizinische Vorrichtung
EP1470791B1 (de) Visualisierungsvorrichtung für kombinierte Patienten- und Objektbilddaten mit einer Eingabevorrichtung und Visualisierungsverfahren
DE102012217942A1 (de) Medizinisches Instrument, Medizinsystem und Verfahren zur Darstellung der Position einer Ortsmarke

Legal Events

Date Code Title Description
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE