DE10225077A1 - Trackingsystem - Google Patents

Trackingsystem

Info

Publication number
DE10225077A1
DE10225077A1 DE2002125077 DE10225077A DE10225077A1 DE 10225077 A1 DE10225077 A1 DE 10225077A1 DE 2002125077 DE2002125077 DE 2002125077 DE 10225077 A DE10225077 A DE 10225077A DE 10225077 A1 DE10225077 A1 DE 10225077A1
Authority
DE
Germany
Prior art keywords
sensor means
arrangement according
object tracking
tracking arrangement
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE2002125077
Other languages
English (en)
Other versions
DE10225077B4 (de
Inventor
Markus Schill
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vrmagic De GmbH
Original Assignee
VR MAGIC GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VR MAGIC GmbH filed Critical VR MAGIC GmbH
Priority to DE10225077A priority Critical patent/DE10225077B4/de
Publication of DE10225077A1 publication Critical patent/DE10225077A1/de
Application granted granted Critical
Publication of DE10225077B4 publication Critical patent/DE10225077B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V21/00Supporting, suspending, or attaching arrangements for lighting devices; Hand grips
    • F21V21/14Adjustable mountings
    • F21V21/26Pivoted arms
    • F21V21/28Pivoted arms adjustable in more than one plane
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2131/00Use or application of lighting devices or systems not provided for in codes F21W2102/00-F21W2121/00
    • F21W2131/20Lighting for medical use
    • F21W2131/205Lighting for medical use for operating theatres
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft eine Objektverfolgeanordnung mit einer Vielzahl von Sensormitteln zur Erfassung eines Objektes aus unterschiedlichen Richtungen und einem Auswertemittel zur Bestimmung der Position des Objektes relativ zu einer vorgegebenen Referenz im Ansprechen auf Sensormittelsignale. DOLLAR A Hierbei ist vorgesehen, dass zumindest ein Sensormittel relativ zu der vorgegebenen Referenz beweglich ist, Sensormittelpositionserfassungsmittel vorgesehen sind zur Erfassung der Sensormittelposition relativ zur Referenz und das Auswertemittel dazu ausgebildet ist, die Objektposition im Ansprechen auf die Sensormittelsignale und die Sensormittelpositionerfassungsmittelsignale zu bestimmen.

Description

  • Die vorliegende Erfindung betrifft das oberbegrifflich Beanspruchte. Damit befasst sich die vorliegende Erfindung mit der Nachverfolgung zu erfassender Objekte, das heißt sie betrifft ein Tracking-System.
  • Objektverfolgeanordnungen sind erforderlich und bekannt, um die Position bestimmter Objekte zu verfolgen. Dies gewinnt zunehmende Bedeutung etwa bei chirurgischen Eingriffen, wo die Position eines chirurgischen Instrumentes exakt erfasst werden muss, um diese zu dokumentieren oder, darüber hinausgehend, mittels automatischer oder halbautomatischer robotischer Systeme den Chirurgen zu unterstützen.
  • Aus der DE 196 39 615 C2 ist ein Reflektorenreferenzierungssystem für chirurgische und medizinische Instrumente, sowie ein Markersystem für neurochirurgisch zu behandelnde Körperpartien bekannt. Es wird dort vorgeschlagen, dass das Reflektorenreferenzierungssystem für chirurgische und medizinische Instrumente oder Behandlungsapparate mit mindestens zwei Kameras und einer mit den Kameras verbundenen Rechnereinheit mit einer Grafik-Bildschirmausgabe versehen ist, wobei eine Strahlungsquelle für Infrarotstrahlung und eine Reflektorengruppe mit mindestens zwei Reflektoren für diese Infrarotstrahlung vorgesehen ist, wobei die Reflektoren in einer nur für diese Reflektorengruppe charakteristischen Anordnung an den Instrumenten beziehungsweise Behandlungsapparaturen angebracht sind.
  • Die Kameras erfassen dabei den Bereich des Operationstisches, an dem die Behandlung stattfindet und können dreidimensional Raumkoordinaten von chirurgischen Instrumenten und Behandlungsapparaten erfassen, die mit Reflektoren versehen sind, welche Infrarotstrahlen reflektieren.
  • Aus der GB/A/2 345 538 ist ein optischer Nachverfolger mit einer monokularen Videocamera, mit einer Videobildfangkarte, einem Coumputer und einer dedizierten Software für die 3D- und 2D-Verfolgung hereinkommender Bilder bekannt, die verwendet wird, um den Computercursor zu steuern, das heißt, an Stelle einer Maus.
  • Ein visuelles Echtzeitserversystem für die laparoskopische Chirurgie ist von G.-Q. WEI und K. Arkter bekanntgemacht worden, vgl. DE 39 43 917.
  • Aus der US-Offenlegungsschrift US 2001/0008561 A1 ist ein Echtzeitcomputersichtsystem bekannt, das eines oder mehrere Objekte, die sich in einer Szene bewegen, unter Verwendung einer Vielorttechnik verfolgen, wobei nicht gesucht werden muss.
  • Die Objektverfolgung in Videosequenzen ist aus der WO 94/25930 bekannt.
  • Aus der US-PS 6,188,777 ist ein Verfahren einer Vorrichtung zur Personaldetektion und Nachverfolgung bekannt.
  • Wenn Objekte bei kritischen Anwendungen wie chirurgischen Eingriffen verfolgt werden, etwa um die Position eines Elektroskalpells vor dessen Erregung genau festzulegen, so muss die Positionserfassung schnell und exakt erfolgen. Dies gilt unter allen Umständen, auch dann, wenn die mit der Operation befasste Person oder ein anderes Mitglied des operierenden Teams in das Erfassungsfeld zwischen Sensor und zu erfassendem Objekt tritt. Darüber hinaus ist es wünschenswert, eine dauerhafte Kalibrierung zu schaffen, die dafür Sorge trägt, dass die Objektnachverfolgung während der gesamten Operationsdauer erschütterungssicher gewährleistet ist. Es ist wünschenswert, zumindest einigen dieser Erfordernisse wenigstens partiell besser genügen zu können.
  • Die Aufgabe dieser Erfindung besteht darin, Neues für die gewerbliche Anwendung bereitzustellen.
  • Die Lösung dieser Aufgabe wird in unabhängiger Form beansprucht. Bevorzugte Ausführungsformen finden sich in den Unteransprüchen.
  • Damit schlägt die vorliegende Erfindung gemäß einem ersten Grundgedanken eine Objektverfolgeanordnung mit einer Vielzahl von Sensormitteln zur Erfassung eines Objektes aus unterschiedlichen Richtungen und einem Auswertemittel zur Bestimmung der Position des Objektes relativ zu einer vorgegebenen Referenz, d. h. einem willkürlich festgelegten und/oder festlegbaren Raumpunkt, im Ansprechen auf Sensormittelsignale vor, bei welchem vorgesehen ist, dass zumindest ein Sensormittel relativ zu der vorgegebenen Referenz beweglich ist, Sensormittelpositionserfassungsmittel vorgesehen sind zur Erfassung der Sonsormittelposition relativ zur Referenz und das Auswertemittel dazu ausgebildet ist, die Objektposition im Ansprechen auf die Sensormittelsignale und die Sensormittelpositionerfassungsmittelsignale zu bestimmen.
  • Ein erster wesentlicher Aspekt der Erfindung ist damit darin zu sehen, dass die Sensormittel selbst beweglich sind und ihre Position mitausgewertet wird. Auf diese Weise wird einerseits erreicht, dass die Anordnungen gegen Erschütterungen, etwa durch gegen die Sensormittel wie Kameras, stoßende Personen in ihrer Verwendbarkeit gesichert ist, und es wird andererseits ermöglicht, die Sensormittel stets dicht bei den zu erfassenden Objekten zu halten. Dies wiederum erlaubt es, die Sensormittel so anzuordnen, dass sich nichts zwischen Sensormittel und zu erfassendem Objekt befindet und überdies eine präzise Bestimmung der Objektposition relativ zum Sensor möglich ist.
  • Die Objektverfolgeanordnung der vorliegenden Erfindung wird daher bevorzugt in geschlossenen Räumen, insbesondere in Operationssälen eingesetzt, wobei die Referenzposition raumfest sein kann. In alternativer Weise wäre auch möglich, eine Referenzierung vorzunehmen auf einen beweglichen Operationstisch oder dergleichen, was sinnvoll ist, wenn ein Patient auf einem Tisch fixiert behandelt wird, sei es bei einer - Bestrahlung, wo er relativ zu einer Strahlungsquelle verschoben werden muss, sei es bei anderen Anlässen.
  • In einer bevorzugten Variante sind mehrere per se identische Sensormittel vorgesehen und zumindest eines derselben ist relativ zu anderen Sensormitteln beweglich. Es sei aber darauf hingewiesen, daß bei bestimmten Sensormitteln, die auf per se identische Weise Objekte erfassen, gegebenenfalls andere Auslegungen möglich sind, etwa, wenn bei Kameras unterschiedliche Brennweiten für verschiedene Elemente vorgesehen werden und/oder insbesondere während der Objektverfolgung einstellbar sind. Insbesondere ist es bevorzugt, wenn zwei oder mehr Sensoren gemeinsam miteinander beweglich sind und zwar relativ zu mehreren anderen Sensoren. In einem solchen Fall können die beweglichen Sensoren nahe des Objektes angeordnet werden und haben dabei bevorzugt sehr gute Sicht auf diese, während mit den verbleibenden Sensoren als Sensormittelpositionserfassungsmittel die Position der beweglichen Sensoren erfasst wird.
  • Bevorzugt ist es, wenn die Sensoren die Objekte optisch erfassen, da in einem solchen Fall mit vergleichsweise preiswerten positionsempfindlichen Sensoren gearbeitet werden kann, wie CCD-Kameras, CMOS-Feldern oder anderen lichtempfindlichen Halbleitern. Die optische Objekterfassung wird bevorzugt zumindest teilweise im sichtbaren Bereich (VIS- Bereich) erfolgen, wobei insbesondere die Objektfarben berücksichtigt werden können. Dies erlaubt es, im Operationsfeld ohne zusätzliche IR-Quellen auszukommen, was besonders bevorzugt ist, weil durch die stets erforderliche helle Ausleuchtung des Operationsfeldes ohnehin eine starke Wärmebelastung des Bereiches gegeben ist. Die Objektfarbenberücksichtigung ermöglicht dabei zugleich weiter, dass unterschiedliche Objekte anhand ihrer unterschiedlichen Farben erkannt werden oder auf einfache Weise Marken auf Objekten aufgebracht werden und damit eine sehr schnelle Zuordnung und Erkennung möglich ist.
  • In einer bevorzugten Variante der Erfindung sind mehrere der objekterfassenden Sensoren vorgesehen, mit denen insbesondere durch Triangulation die Position des Objektes bestimmt werden kann. Das Vorsehen von drei oder mehr Sensoren hat dann den Vorteil, dass redundante Information erhalten werden kann, was auch die Bestimmung der Position mit höherer Präzision erleichtert und/oder die Robustheit verbessert. In einer bevorzugten Variante ist es ausreichend, wenn nicht die Position des gesamten Objektes bestimmt wird, sondern wenn lediglich die Position eines vorgegebenen Objektteils erfasst wird. Dass dabei das Objektteil eine Referenzmarke sein kann, ein Leuchtpunkt beziehungsweise eine Leuchtfläche und/oder ein Farbpunkt sei erwähnt. Die Bezugnahme auf derartige Referenzmarken erleichtert die Identifikation bei der Bilddatenauswertung.
  • Wenn, wie bevorzugt, die Objektposition mit einer Anzahl von Sensoren beziehungsweise Sensormitteln erfasst wird, die eine Überbestimmung erlauben, so ist es bevorzugt, die wahrscheinlichste Objektposition durch Gewichtung der Sensormittelsignale beziehungsweise der daraus ausgewerteten Größen zu erhalten. Die Gewichtung kann beispielsweise unter Berücksichtigung des Abstandes zwischen Objekt- und Sensormittel erfolgen, wobei typisch geringere Abstände zu einer höheren Gewichtung führen werden und/oder es können partielle Objektverdeckungen an bestimmten Sensormitteln erfasst werden. Liegt etwa eine kreisförmige Referenzmarke vor, die zu einer bestimmten Zeit aufgrund einer partiellen Objektverdeckung nur als Halbkreis erkannt wird, so ist zwar per se eine Objektpositionsbestimmung noch möglich, aber dennoch wird diese nicht so genau wie dort sein, wo die Sicht auf das Objekt ungehindert ist.
  • Besonders bevorzugt ist es, wenn die Objektverfolgungsanordnung der vorliegenden Erfindung die relative Sensormittelbeweglichkeit vorsieht, indem die beweglichen Sensormittel in beziehungsweise an einer beweglichen Beleuchtungsanordnung angeordnet werden. Insbesondere ist es möglich, die beweglichen Sensormittel wie CCD-Elemente oder dergleichen in einer Operationslampe anzuordnen. Es ist dann möglich, die Position der beweglichen Sensormittel dadurch zu erfassen, dass etwa die Rückseite der Operationsleuchte mit den verbleibenden Sensormitteln erfasst wird. Vorteilhaft ist dies, weil typische Operationsleuchten eine vergleichsweise große Ausdehnung besitzen, die für Zwecke der Triangulation einen hinreichend großen Sensormittelabstand daran befestigter Sensoren erlaubt, weil das Operationsfeld typisch nicht abgeschattet ausgeleuchtet wird, also eine hervorragende Sicht auf das Operationsfeld und damit die typisch zu verfolgenden Instrumente gewährleistet ist, und weil überdies diese Instrumente auch noch optimal ausgeleuchtet sind.
  • Das Sensormittelpositionserfassungsmittel kann, insbesondere, wenn die Sensormittel selbst in oder an einer OP-Leuchte angeordnet werden, durch Decoder realisiert sein, insbesondere Winkel- und/oder Linearpositionsdecoder, mit denen die Winkel- oder Linearpositionen der OP-Leuchte erfasst werden. In einem solchen Fall ist es nicht zwingend erforderlich, weitere Kameras außerhalb der OP-Leuchte bereitzustellen. Alternativ und/oder zusätzlich dazu ist es aber auch möglich, eine Vielzahl von Kameras oder anderen Sensormitteln im Operationssaal oder einem anderen Raum, in dem ein Objekt zu verfolgen ist, anzuordnen und dann einerseits mit diesen die Position der beweglichen Sensormittel zu erfassen und/oder zugleich die Objekte mitzuverfolgen.
  • Per se ist es ausreichend, wenn kaskadiert mit einem ersten Satz von als Sensormittelpositionserfassungsmitteln verwendeten Sensoren erfasst wird, wo die auf das Objekt unmittelbar gerichteten Sensoren befindlich sind, und dann das Objekt mit diesen verfolgt wird. Bevorzugt ist allerdings, wenn, zumindest zur Konsistenzkontrolle und/oder zur gegebenenfalls nur niedrig gewichteten Korrektur oder als Backup-System die Sensormittelpositionserfassungsmittel zugleich auch zur eigentlichen Objekterfassung herangezogen werden. In einem solchen Fall wird typisch, etwa wenn die als Sensormittelpositionserfassungsmittel verwendeten Sensoren an Wänden und/oder Decken angeordnet sind, ein höheres Gewicht auf die nahe beim Objekt befindlichen beweglichen Sensoren gelegt, um die Objektposition zu bestimmen.
  • Es sei darauf hingewiesen, dass erforderlichenfalls eine Sensormittelpositionserfassung mit mehr als zwei Stufen in Kaskadenanordnung vorgesehen werden kann. Dies ist etwa dann sinnvoll, wenn eine Raumüberwachung gegeben ist, die mit einer Vielzahl von fest installierten und fest ausgerichteten Kameras geschieht und innerhalb des Raumes ein größerer Bereich beweglich gebildet ist, etwa ein maschinell verschiebbarer Behandlungstisch, an welchem wiederum bewegliche Teile angeordnet sind. Auch wäre denkbar, die Sensormittel zur Objekterfassung zu integrieren in eine Brillenanordnung für den Chirurgen bei neurochirurgischen Eingriffen oder dergleichen.
  • Die mehrfache Kaskadierung ist auch in sehr großen Räumen sinnvoll, etwa in Fabrikhallen usw.
  • Die Erfindung wird im Folgenden nun beispielsweise anhand der Zeichnung beschrieben. In dieser zeigt:
  • Fig. 1 die Anordnung von Sensoren einer erfindungsgemäßen Objektverfolgeanordnung;
  • Fig. 2 eine schematische Darstellung der Signaleauswertung;
  • Fig. 3 eine schematische Anordnung der Sensormittel in einer Operationsleuchte.
  • Nach Fig. 1 umfasst eine allgemein mit 1 bezeichnete Objektverfolgeanordnung 1 eine Vielzahl von Sensormitteln 2 zur Erfassung eines Objektes 3 aus unterschiedlichen Richtungen und ein Auswertemittel 4 zur Bestimmung der Position des Objektes 3 relativ zu einer vorgegebenen Referenz 5 im Ansprechen auf Signale aus den Sensormitteln 2, wobei die Sensormittel 2 beweglich zur Referenz 5 an einer Operationsleuchte 6 angeordnet sind und Sensormittelpositionserfassungsmittel 7 vorgesehen sind, um die Position der Sensormittel 2 zu erfassen, und wobei das Auswertemittel 4 dazu ausgebildet ist, die Objektposition im Ansprechen auf die Signale aus den Sensormitteln 2 und auf die Signale aus dem Sensormittelpositionserfassungsmittel 7 zu bestimmen.
  • Die Objektverfolgeanordnung 1 dient dabei, wie anhand des Operationstisches 8 und des darauf befindlichen Patienten 9 angedeutet, zur Verfolgung medizinischer Instrumente als Objekte 3 während einer Operation. Sie ist demgemäß in einem Operationssaal angeordnet.
  • Die Sensormittel 2 umfassen eine Vielzahl von farbempfindlichen CCD-Kameras hinreichender hoher Auflösung und sind in festem Abstand zueinander in einer Operationsleuchte 6 angeordnet. Dabei sind sie mit dieser Operationsleuchte 6 über dem Patienten 9 beweglich angebracht, wobei die Lampe 6 etwa auf den Patienten 9 zu abgesenkt werden kann, wie durch Pfeil 10a angedeutet, um mehrere Drehachsen gedreht werden kann, wie durch Pfeile 10b und 10c angedeutet, sowie gekippt werden kann, wie durch Pfeil 10d angedeutet.
  • Nach Fig. 3 Sind die Sensormittel 2 als drei getrennte CCD- Felder 2a, 2b, 2c in den Randbereichen der Operationsleuchte 6 angeordnet und zwar auf Positionen zwischen den eigentlichen Leuchtmittelträgern 6a, 6b, 6c. Die Signale der Sensoren 2a, 2b, 2c werden, geeignet konditioniert und abgeschirmt, an die Auswerteeinheit 4 geführt.
  • Das Objekt 3, das als Skalpell 3 dargestellt ist, ist mit Farbpunkten 3a, 3b, 3c versehen, die seine Identifizierung und die Identifizierung seiner räumlichen Lage und Ausrichtung erlauben.
  • An das Auswertemittel 4 werden Signale aus den Sensormitteln 2 und den Sensormittelpositionserfassungsmitteln 7 gespeist, um dort, wie später mit Bezug auf Fig. 2 beschrieben werden wird, ausgewertet zu werden.
  • Als vorgegebene Referenz 5 dient im dargestellten Ausführungsbeispiel ein ortsfester Punkt 5 im Operationssaal, bezogen auf den X-, Y- und (nicht dargestellt) Z-Koordinaten bestimmt werden, d. h. die Referenz braucht nicht durch eine physisch wahrnehmbare, feste Marke definiert sein, sondern kann als ein fester, festgelegter Bezugspunkt bei der Koordinatenmessung dienen, der insbesondere bei jeder Grundkalibrierung willkürlich neu festlegbar sein kann. Es wird darauf hingewiesen, dass, während in den Fig. 1 und 2 nur auf Koordinaten X und Y Bezug genommen wird, bei typischen Anwendungen drei räumliche Koordinaten für die Erfassung eines jeden Objektpunktes bestimmt werden. Liegen auf einem Objekt größerer räumlicher Ausdehnung mehrere zu erfassende Objektpunkte kann somit auch dessen räumliche Winkellage erfasst werden. Dass anstelle kartesischer Koordinaten andere Koordinaten verwendbar sind, sei erwähnt.
  • Bei der Operationsleuchte 6 handelt es sich um eine herkömmliche Operationsleuchte, die jedoch, wie in Fig. 3 dargestellt, mit Sensormitteln versehen ist und auf der sich im Gehäusebereich auf der vom Leuchtfeld abgewandten Seite Referenzmarken 6d, 6e, 6f befinden, die besonders gut von den Sensormittelpositionserfassungsmitteln 7 erfassbar sind.
  • Die Sensormittelpositionserfassungsmittel 7a bis 7f sind an den Wänden und der Decke des Operationssaales fest angeordnet und weisen allgemein in Richtung auf den Operationstisch 8 und erfassen diesen sowie die Operationsleuchte 6, wobei durch geeignete Anordnung der Sensormittelpositionserfassungsmittel 7 an Wänden und Decke des Operationssaales sichergestellt ist, dass die Referenzmarken 6d, 6e, 6f auf der Operationsleuchte 6 in jeder möglichen Position derselben jeweils von wenigstens zwei Sensormittelpositionserfassungsmitteln erfaßbar ist, wie beispielsweise für 7a, 7b für die Referenzmarke 6d dargestellt. Dies ist durch die durchgezogenen Sichtfeldlinien, die von den Sensormitteln 7a, 7b zur Referenzmarke 6d ausgehen, ersichtlich. Überdies erfassen die Sensormittelpositionserfassungsmittel zumindest zum Teil auch die Referenzmarken 3a, 3b, 3c auf dem Objekt 3. Dies ist zumindest von einigen der Sensormittelpositionserfassungsmittel 7 möglich. Die Sensormittelpostionserfassungsmittel 7 sind dabei genau so wie die eigentlichen Sensormittel in der Operationsleuchte 6 als CCD-Kameras ausgebildet und weisen dieselbe, hohe Auflösung und Farbempfindlichkeit auf wie diese.
  • Fig. 2 zeigt die Beschaltung der Auswerteanordnung 4, die geeignet konditionierte Signale aus den Sensormitteln 7 und den Sensormitteln 2 empfängt.
  • Die Referenzmarken 3a, 3b, 3c auf dem Objekt 3 beziehungsweise die Referenzmarken 6d, 6e, 6f auf der Operationsleuchte 6 ergeben auf dem Array der CCD-Sensoren dedizierte, mit geeigneten Mitteln wie FPGA-Karten erkennbare Signaturen, anhand derer die Lage des Punktbildes auf dem Sensor bestimmt werden kann und einerseits zugeordnet werden kann, zu welchem Objekt die Markierung gehört, also beispielsweise zu einem Skalpell oder der Operationsleuchte, und andererseits erkennbar ist, wie gut die Markierung am Sensormittel erfasst wird, also mit welcher Größe und gegebenenfalls welcher partiellen Abschattung. Die Auswertestufe 4 ist in der Lage, dies durch geeignete, per se im Stand der Technik liegende Auswertung festzustellen. Es wird dann durch Triangulation und/oder andere, per se bekannte Verfahren in der Auswertestufe für Sensormittelpaare und Sensormittelpositionserfassungsmittelpaare unter Heranziehung einer einmal für die feststehenden Sensormittelpositionserfassungsmittel durchgeführten Kalibrierung und Kalibrierung bzw. Bestimmung der Abbildungseigenschaften der beweglichen Sensormittel bzw. Sensormittelpaare jeweils eine Position x, y, z sowie der zugeordneten, gewichtenden Qualität q der jeweiligen Erfassung bestimmt, soweit dies möglich ist. Wird ein Objekt mit einem Sensormittel nicht erfasst, wie dies für das Objekt 3 und das Sensormittel 7c der Fall ist, wird die Qualität der zugehörigen Erfassung auf null gesetzt.
  • Die Auswertestufe erhält damit durch Auswertung der Signale aus den CCD-Feldern und der paarweisen Verknüpfung einerseits einen Satz an Koordinaten des Objektes x_Obj_abs_(i), y_Obj_abs_(i) und z_Obj_abs_(i) mit zugehöriger Wichtung q_Obj_abs_(i), die aus den Signalen der Sensormittelpositionserfassungssignale hergeleitet sind. Weiter werden Koordinaten der Operationsleuchten-Referenzmarken und damit der mit dieser beweglichen Sensormittel bestimmt, die in Fig. 2 als x_Lamp_abs_(i), y_Lamp_abs_(i), z_Lamp_abs_(i), q_Lamp_abs_(i) bezeichnet sind. Diese Koordinaten entsprechen absoluten Positionen bezogen auf den Referenzpunkt 5, da die Wand- und deckenmontierten Sensormittel 7 ortsfest sind. Typisch wird aber die zugeordnete Qualität gering sein, da viele Sensormittel die Objekte nicht oder nicht vollständig und überdies nur aus großer Entfernung erfassen. Es sei aber darauf hingewiesen, dass die Überbestimmung zur Objekterfassung insbesondere im medizinischen Umfeld durch mehr Sensoren als erforderlich redundante Informationen liefert, was zur Messwertverbesserung führt und/oder vor Objektverlust bei Abschattung schützt und/oder die Robustheit verbessert und als per se nicht bekannt angesehen wird, weshalb auch hierin schon eine schutzwürdige Erfindung erblickt wird, unabhängig von einer Kaskadierung und ähnlichem.
  • Aus den Signalen der beweglichen Sensoren 2 werden dann andererseits gleichfalls durch paarweise Triangulation der ausgewerteten CCD-Array-Signale Koordinaten x_Objekt_relativ_(j), y_Objekt_relativ_(j), z_Objekt_relativ_(j) zusammen mit zugehörigen Qualitäten q_Objekt_relativ_(j) bestimmt. Die Qualität der Koordinaten x_Objekt_relativ_(j), y_Objekt_relativ_(j), z_Objekt_relativ_(j) wird typisch hoch sein, da die Sensoren dicht am Objekt angeordnet sind und typisch freie Sicht auf dieses haben werden.
  • In der Auswertestufe werden nun aus den absoluten Positionen der Lampe, wie sie aus den Sensoren 7 bestimmt ist und den sich daraus ergebenden Sensormittelpositionen der Sensoren 2 unter Heranziehung der relativen Koordinaten x_Objekt_relativ_(j), y_Objekt_relativ_(j), z_Objekt_relativ_(j) und der bestimmten jeweiligen Wichtung 9 die gewichtet gemittelten Koordinaten ∅_x-Objekt, ∅_y-Objekt, ∅_z-Objekt bestimmt. In diese mittleren Koordinaten gehen einerseits die sehr präzise bestimmten Koordinaten relativ zu den beweglichen Sensormitteln ein, wobei sich hier die Präzision aus der geringen Abschattung, der guten Ausleuchtung und dem geringen Abstand ergibt und andererseits die absolute Position der Lampe relativ zu den Sensormitteln, die fest im Raum angeordnet sind, wobei sich hier die Präzision und Genauigkeit durch die Berücksichtigung einer Vielzahl von Sensormitteln ergibt, so dass ein Fehler der Absolutbestimmung der Position der beweglichen Sensormittel durch Mittelung über eine Vielzahl unterschiedlicher Messwertpaare ebenfalls verringert ist. Die Gesamtpräzision der Anordnung ist damit sehr hoch und es besteht trotzdem zu keinem Zeitpunkt die Gefahr, dass durch eine vollständige Verdeckung etwa durch einen Operateur eine Positionsbestimmung unmöglich wird. Damit ist eine schnelle, präzise und, angesichts der vergleichsweise niedrigen Preise von CCD-Vorrichtungen dennoch preiswerte Positionserfassung möglich, die auch bei feinchirurgischen Eingriffen und dergleichen die erforderliche Präzision bietet.
  • Es sei darauf hingewiesen, daß es sich bei dem Skalpell, anders als dargestellt, insbesondere um ein roboterbewegtes Skalpell oder ein anderes automatisch oder halbautomatisch bewegtes Operationsinstrument wie eine Säge, einen Bohrer, ein Endoskop, einen Katheter oder ähnliches handeln kann, wobei der Roboter im Ansprechen auf Signale aus der Steuerung 4 beweglich sein kann. In einem solchen Fall ist die Präzision der Roboterbewegung von der Präzision und Geschwindigkeit der Objekterfassung abhängig.
  • Es sei erwähnt, dass auch durch Bildung von Triangulationsgruppen, die wenigstens ein bewegliches und ein unbewegliches Sensormittel umfassen, Koordinaten bestimmbar sind, und zwar sowohl für Objekte als auch Sensormittelpositionen. Es sei erwähnt, dass zur Bestimmung von unterschiedlichen Koordinaten eines Punktes jeweils ganz oder teilweise unterschiedliche Sensormittel heranziehbar sind.
  • Es sei erwähnt, daß anstelle der beschriebenen CCD-Kameras auch CMOS-Kameras o. ä. für alle oder einiger der Sensormittel einsetzbar sind.
  • Es sei weiter erwähnt, daß es möglich ist, zunächst erste Sensoren relativ zu anderen, temporär feststehenden zweiten Sensoren zu bewegen, dann unter Heranziehung der Sensorsignale der zweiten Sensoren zu bestimmen, wo die ersten Sensoren positioniert sind und dann andere, insbesondere die zweiten Sensoren zu bewegen, um so einen sukzessiven Wechsel zwischen bewegten und festen Sensoren zuzulassen.

Claims (20)

1. Objektverfolgeanordnung mit
einer Vielzahl von Sensormitteln zur Erfassung eines Objektes aus unterschiedlichen Richtungen und
einem Auswertemittel zur Bestimmung der Position des Objektes relativ zu einer vorgegebenen Referenz im Ansprechen auf Sensormittelsignale,
dadurch gekennzeichnet, daß
zumindest ein Sensormittel relativ zu der vorgegebenen Referenz beweglich ist,
Sensormittelpositionserfassungsmittel vorgesehen sind zur Erfassung der Sensormittelposition relativ zur Referenz
und das Auswertemittel dazu ausgebildet ist, die Objektposition im Ansprechen auf die Sensormittelsignale und die Sensormittelpositionerfassungsmittelsignale zu bestimmen.
2. Objektverfolgeanordnung nach dem vorhergehenden Anspruch zum Einsatz in geschlossenen Räumen, insbesondere in Operationssälen, insbesondere mit raumfesten Referenzen.
3. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß
zumindest eines der Sensormittel relativ zu anderen Sensormitteln beweglich ist,
und
insbesondere zwei oder mehr Sensoren separat und/oder gemeinsam miteinander zu dem oder den anderen Sensormitteln beweglich sind.
4. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Sensormittel zumindest partiell zur optischen Objekterfassung bestimmt sind.
5. Objektverfolgeanordnung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, daß die optische Objekterfassung zumindest partiell, insbesondere vollständig im VIS-Bereich erfolgt, insbesondere unter Objektfarbenberücksichtigung.
6. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Sensormittel positionsempfindliche Sensoren umfaßt, insbesondere Kameraelemente, lichtempfindliche Halbleiter und/oder CCD-Anordnungen.
7. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß wenigstens zwei das Objekt erfassende Sensoren vorgesehen sind.
6. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß wenigstens drei das Objekt insbesondere zur Lieferung redundanter Informationen erfassende Sensoren vorgesehen sind.
9. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Auswertemittel dazu ausgebildet ist, die Objektposition anhand der Position eines Objektteils zu bestimmen und/oder die Bestimmung anhand der Festlegung eines Objektteils vorzunehmen.
10. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Auswertemittel dazu ausgebildet ist, die Objektposition durch Triangulation zu erfassen.
11. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Auswertemittel dazu ausgebildet ist, die Objektposition unter Bezugnahme auf Referenzmarken wie Farb- und/oder Leuchtpunkte oder -flächen am Objekt zu erfassen.
12. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Auswertemittel dazu ausgebildet ist, die Objektposition mit einer eine Überbestimmung erlaubenden Anzahl von Sensormitteln zu erfassen.
13. Objektverfolgeanordnung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, daß das Auswertemittel dazu ausgebildet ist, eine wahrscheinliche Objektposition aus dem Signal der überbestimmenden Zahl von Sensormitteln unter Wichtung vorzunehmen.
14. Objektverfolgeanordnung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, daß das Auswertemittel dazu ausgebildet ist, die Wichtung unter Berücksichtigung des Objekt- Sensormittel-Abstandes und/oder partieller Objektverdeckung an bestimmten Sensormitteln vorzunehmen.
15. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß eine bewegliche Beleuchtungsanordnung sensormittelversehen ist, um so die relative Sensormittelbeweglichkeit zu erzielen.
16. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß zur Realisierung eines medizinischen Trackingsystems für operative Eingriffe und dgl. eine bewegliche Operationsleuchte sensormittelversehen ist.
17. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Sensormittelpositionserfassungsmittel einen Winkel- und/oder Linearpositionsdecoder umfaßt, der insbesondere die Winkel- und/oder Linearposition eines Sensormittelträgers zur Sensormittelpositionserfassung erfaßt.
18. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Sensormittelpositionserfassungsmittel optische Sensoren, insbesondere Kameras, insbesondere CCD- und/oder CMOS-Kameras umfaßt.
19. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß zumindest einige der Sensormittelpositionserfassungsmittel zugleich zumindest temporär zur Objekterfassung beschaltbar sind.
20. Objektverfolgeanordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß eine mehrstufige Sensormittelpositionserfassung vorgesehen ist.
DE10225077A 2002-06-05 2002-06-05 Objektverfolgeanordnung für medizinische Operationen Expired - Fee Related DE10225077B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10225077A DE10225077B4 (de) 2002-06-05 2002-06-05 Objektverfolgeanordnung für medizinische Operationen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10225077A DE10225077B4 (de) 2002-06-05 2002-06-05 Objektverfolgeanordnung für medizinische Operationen

Publications (2)

Publication Number Publication Date
DE10225077A1 true DE10225077A1 (de) 2003-12-24
DE10225077B4 DE10225077B4 (de) 2007-11-15

Family

ID=29594295

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10225077A Expired - Fee Related DE10225077B4 (de) 2002-06-05 2002-06-05 Objektverfolgeanordnung für medizinische Operationen

Country Status (1)

Country Link
DE (1) DE10225077B4 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005067807A1 (fr) * 2004-01-09 2005-07-28 Ecole Polytechnique Federale De Lausanne (Epfl) Systeme de navigation chirurgicale
EP1854425A1 (de) * 2006-05-11 2007-11-14 BrainLAB AG Medizintechnische Positionsbestimmung mit redundanten Positionserfassungseinrichtungen und Prioritätsgewichtung für die Positionserfassungseinrichtungen
EP1857069A1 (de) * 2006-05-16 2007-11-21 BrainLAB AG Medizintechnische Beckenpositionierungs- und Trackingvorrichtung
FR2951524A1 (fr) * 2009-10-19 2011-04-22 Maquet S A Dispositif d'eclairage et utilisation correspondante
WO2018046339A1 (de) * 2016-09-12 2018-03-15 Karl Leibinger Medizintechnik Gmbh & Co. Kg Operationsleuchte mit mitteln zur abstandsmessung
WO2021239873A1 (de) * 2020-05-29 2021-12-02 Karl Leibinger Medizintechnik Gmbh & Co. Kg System zur überwachung einer operationsleuchtenanordnung
US11291507B2 (en) 2018-07-16 2022-04-05 Mako Surgical Corp. System and method for image based registration and calibration

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4225112C1 (de) * 1992-07-30 1993-12-09 Bodenseewerk Geraetetech Einrichtung zum Messen der Position eines Instruments relativ zu einem Behandlungsobjekt
DE69003090T2 (de) * 1989-02-06 1994-02-10 Kreon Ind Lannemezan Sa Kalibrierungsverfahren eines dreidimensionalen formerfassungssystems und system zur durchführung des genannten verfahrens.
WO1994025930A1 (en) * 1993-04-30 1994-11-10 Philips Electronics Uk Limited Tracking objects in video sequences
DE19529950C1 (de) * 1995-08-14 1996-11-14 Deutsche Forsch Luft Raumfahrt Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie
WO1999038449A1 (en) * 1998-01-28 1999-08-05 Cosman Eric R Optical object tracking system
DE19639615C2 (de) * 1996-09-26 1999-10-14 Brainlab Med Computersyst Gmbh Reflektorenreferenzierungssystem für chirurgische und medizinische Instrumente, sowie Markersystem für neurochirurgisch zu behandelnde Körperpartien
GB2345538A (en) * 1998-11-06 2000-07-12 David James Optical tracker
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6288785B1 (en) * 1999-10-28 2001-09-11 Northern Digital, Inc. System for determining spatial position and/or orientation of one or more objects

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6405072B1 (en) * 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
US5924976A (en) * 1997-08-21 1999-07-20 Stelzer; Paul Minimally invasive surgery device
DE50201004D1 (de) * 2002-03-01 2004-10-21 Brainlab Ag Operationslampe mit Kamerasystem zur 3D-Referenzierung

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69003090T2 (de) * 1989-02-06 1994-02-10 Kreon Ind Lannemezan Sa Kalibrierungsverfahren eines dreidimensionalen formerfassungssystems und system zur durchführung des genannten verfahrens.
DE4225112C1 (de) * 1992-07-30 1993-12-09 Bodenseewerk Geraetetech Einrichtung zum Messen der Position eines Instruments relativ zu einem Behandlungsobjekt
WO1994025930A1 (en) * 1993-04-30 1994-11-10 Philips Electronics Uk Limited Tracking objects in video sequences
DE19529950C1 (de) * 1995-08-14 1996-11-14 Deutsche Forsch Luft Raumfahrt Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie
DE19639615C2 (de) * 1996-09-26 1999-10-14 Brainlab Med Computersyst Gmbh Reflektorenreferenzierungssystem für chirurgische und medizinische Instrumente, sowie Markersystem für neurochirurgisch zu behandelnde Körperpartien
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
WO1999038449A1 (en) * 1998-01-28 1999-08-05 Cosman Eric R Optical object tracking system
GB2345538A (en) * 1998-11-06 2000-07-12 David James Optical tracker
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6288785B1 (en) * 1999-10-28 2001-09-11 Northern Digital, Inc. System for determining spatial position and/or orientation of one or more objects

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005067807A1 (fr) * 2004-01-09 2005-07-28 Ecole Polytechnique Federale De Lausanne (Epfl) Systeme de navigation chirurgicale
EP1854425A1 (de) * 2006-05-11 2007-11-14 BrainLAB AG Medizintechnische Positionsbestimmung mit redundanten Positionserfassungseinrichtungen und Prioritätsgewichtung für die Positionserfassungseinrichtungen
US9125690B2 (en) 2006-05-11 2015-09-08 Brainlab Ag Medical position determination using redundant position detection means and priority weighting for the position detection means
EP1857069A1 (de) * 2006-05-16 2007-11-21 BrainLAB AG Medizintechnische Beckenpositionierungs- und Trackingvorrichtung
FR2951524A1 (fr) * 2009-10-19 2011-04-22 Maquet S A Dispositif d'eclairage et utilisation correspondante
WO2011048311A3 (fr) * 2009-10-19 2011-06-16 Maquet S.A. Dispositif d'eclairage et utilisation correspondante
CN109690184B (zh) * 2016-09-12 2021-01-05 卡尔·莱宾格医疗技术有限责任两合公司 具有用于测量距离的机构的手术灯
CN109690184A (zh) * 2016-09-12 2019-04-26 卡尔·莱宾格医疗技术有限责任两合公司 具有用于测量距离的机构的手术灯
WO2018046339A1 (de) * 2016-09-12 2018-03-15 Karl Leibinger Medizintechnik Gmbh & Co. Kg Operationsleuchte mit mitteln zur abstandsmessung
RU2741214C2 (ru) * 2016-09-12 2021-01-22 Карл Лайбингер Медицинтехник Гмбх Унд Ко. Кг Хирургический светильник со средствами для измерения расстояния
AU2017324194B2 (en) * 2016-09-12 2021-09-09 Karl Leibinger Medizintechnik Gmbh & Co. Kg Surgical light having means for measuring distance
US11293631B2 (en) 2016-09-12 2022-04-05 Karl Leibinger Medizintechnik Gmbh & Co. Kg Surgical light having means for measuring distance
EP3510323B1 (de) * 2016-09-12 2022-11-23 Karl Leibinger Medizintechnik GmbH & Co. KG Operationsleuchte mit mitteln zur abstandsmessung
US11291507B2 (en) 2018-07-16 2022-04-05 Mako Surgical Corp. System and method for image based registration and calibration
US11806090B2 (en) 2018-07-16 2023-11-07 Mako Surgical Corp. System and method for image based registration and calibration
WO2021239873A1 (de) * 2020-05-29 2021-12-02 Karl Leibinger Medizintechnik Gmbh & Co. Kg System zur überwachung einer operationsleuchtenanordnung

Also Published As

Publication number Publication date
DE10225077B4 (de) 2007-11-15

Similar Documents

Publication Publication Date Title
DE102018206406B3 (de) Mikroskopiesystem und Verfahren zum Betrieb eines Mikroskopiesystems
DE4134481C2 (de) Operationsmikroskop zur rechnergestützten, stereotaktischen Mikrochirurgie
DE102006005036B4 (de) Vorrichtung und Verfahren zur verbesserten Formcharakterisierung
DE112011102995B4 (de) Laserscanner oder Lasernachführungsgerät mit einem Projektor
DE202014011422U1 (de) Optisches Navigations- und Positionierungssystem
EP1933276B1 (de) Mehrbandtracking- und Kalibrier-System
EP1333306B1 (de) Stereo-Mikroskopieverfahren und Stereo-Mikroskopiesystem
DE102014019671B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera
WO2003105709A1 (de) Verfahren und instrument zur chirurgischen navigation
WO1996020421A1 (de) Mikroskop, insbesondere stereomikroskop und verfahren zum überlagern zweier bilder
WO2000066973A1 (de) Verfahren zur optischen formerfassung von gegenständen
WO2014067942A1 (de) Verfahren und vorrichtung zur bestimmung einer orientierung eines objekts
DE19817039A1 (de) Anordnung für die bildgeführte Chirurgie
EP1066497B1 (de) Verfahren zur bestimmung der position und drehlage eines objektes
WO2016134904A1 (de) Medizinisches instrumentarium
DE112020002467T5 (de) Augmentiertes optisches bildsystem zur verwendung in medizinischen verfahren
DE10246147B4 (de) Mehrkamera-Trackingsystem
DE10225077A1 (de) Trackingsystem
DE102014012693B4 (de) System und Verfahren sowie Computerprogramm zur Positions-und Lagebestimmung von Objekten
DE102011054730A1 (de) Chirurgisches Navigationssystem
EP1813911A1 (de) Positionsbestimmungssystem
DE102015106836B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels momentaner Bewegung und Vorrichtung hierzu
EP1255146A2 (de) Verfahren und Vorrichtung zum automatischen fokussieren eines optischen Gerätes
DE102014019669B4 (de) 16Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit vorgegebenen Bedingungen
DE102018206405B3 (de) Mikroskopiesystem sowie Verfahren zum Betrieb eines Mikroskopiesystems

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R082 Change of representative

Representative=s name: STT SOZIETAET THEWS & THEWS, DE

R081 Change of applicant/patentee

Owner name: VRMAGIC GMBH, DE

Free format text: FORMER OWNER: VR MAGIC GMBH, 68165 MANNHEIM, DE

Effective date: 20150123

R082 Change of representative

Representative=s name: STT SOZIETAET THEWS & THEWS, DE

Effective date: 20150123

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034000000