DE60130264T2 - Führungssystem - Google Patents

Führungssystem Download PDF

Info

Publication number
DE60130264T2
DE60130264T2 DE60130264T DE60130264T DE60130264T2 DE 60130264 T2 DE60130264 T2 DE 60130264T2 DE 60130264 T DE60130264 T DE 60130264T DE 60130264 T DE60130264 T DE 60130264T DE 60130264 T2 DE60130264 T2 DE 60130264T2
Authority
DE
Germany
Prior art keywords
display
probe
user
image
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60130264T
Other languages
English (en)
Other versions
DE60130264D1 (de
Inventor
Syed Nadeem Ahmed
Ralf Alfons Kockro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volume Interactions Pte Ltd
Original Assignee
Volume Interactions Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volume Interactions Pte Ltd filed Critical Volume Interactions Pte Ltd
Application granted granted Critical
Publication of DE60130264D1 publication Critical patent/DE60130264D1/de
Publication of DE60130264T2 publication Critical patent/DE60130264T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Processing Or Creating Images (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Iron Core Of Rotating Electric Machines (AREA)
  • Crystals, And After-Treatments Of Crystals (AREA)

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein Führungssystem, insbesondere, jedoch nicht ausschließlich, ein chirurgisches Navigationssystem zum Unterstützen eines Chirurgen bei der Durchführung einer Operation. Ferner betrifft die Erfindung ein Verfahren und eine Vorrichtung zum Steuern eines derartigen Systems.
  • HINTERGRUND DER ERFINDUNG
  • Bildführungssysteme haben in der Neurochirurgie weitgehend Einzug gehalten und nachweislich die Genauigkeit einer breiten Bereichs von chirurgischen Prozeduren erhöht und deren Invasivität verringert. Gegenwärtig beruhen bildgeführte chirurgische Systeme ("Navigationssysteme") auf einer Abfolge von Bildern, die aus vor der Operation (zum Beispiel mittels MR oder CT) erfassten Daten konstruiert werden und die in Bezug auf den Patienten in der körperlichen Welt mittels eines optischen Trackingsystems registriert werden. Dazu werden Detektier-Marker an der Haut des Patienten angeordnet, und diese werden mit deren auf den Bilddaten sichtbaren Entsprechungen korreliert. Während des chirurgischen Eingriffs werden die Bilder auf einem Schirm in 3 orthogonalen Ebenen durch das Bildvolumen dargestellt, während der Chirurg eine Sonde hält, die durch das Trackingsystem verfolgt wird. Wird die Sonde in das Operationsfeld eingeführt, so wird die Position der Sondenspitze als Icon, das auf den Bildern eingezeichnet wird, dargestellt. Durch Verknüpfen der präoperativen Bilddaten mit dem tatsächlichen Operationsraum liefern Navigationssysteme dem Chirurgen wertvolle Informationen über die exakte Position eines Werkzeugs in Bezug auf die umliegenden Strukturen und tragen dazu bei, den intraoperativen Status mit der präoperativen Planung in Zusammenhang zu bringen.
  • Trotz dieser Stärken sind die derzeitigen Navigationssysteme mit verschiedenen Unzulänglichkeiten behaftet.
  • Erstens muss der Chirurg während des Navigationsvorgangs auf den Computermonitor und von dem Operationsgeschehen weg blicken. Dies pflegt den Arbeitsfluss der Operation zu unterbrechen und resultiert in der Praxis oft darin, dass die Operation eine Arbeit für zwei Personen ist, wobei der Chirurg durch das Mikroskop auf das Operationsgeschehen blickt und sein Assistent auf den Monitor blickt und ihn instruiert.
  • Zweitens setzt die Interaktion mit den Bildern während des chirurgischen Eingriffs (z.B. Umschalten zwischen CT und MR, Ändern der Schirmbildfenster, Aktivieren von Markern oder segmentierten Strukturen aus der Planungsphase, Farb- und Kontrasteinstellungen) die Bedienung eines Tastatur, einer Maus oder einer Touchscreen voraus, was den Chirurgen ablenkt und mühsam ist, da die Geräte mit sterilen Tüchern umhüllt werden müssen. Wenngleich Steuervorrichtungen vom Sondentyp vorgeschlagen wurden (siehe Hinckley K., Pausch R., Goble C.J., Kassel N.F.: A Survey of Design Issues in Spatial Input, Proceedings of ACM UIST'94 Symposium an User Interface Software & Technology, S. 213–222; und Mackinlay J., Card S., Robertson G.: Rapid Controlled Movement Through a Virtual 3D Workspace, Comp. Grap., 24(4), 1990, 171–176), weisen alle Unzulänglichkeiten beim Gebrauch auf.
  • Drittens ist die Tatsache, dass der Chirurg die räumliche Orientierung der Bildfolge, einschließlich deren verstandesmäßig rekonstruierte 3D-Informationen, mit der Orientierung des Kopfes des Patienten, der während der Operation abgedeckt ist, in Zusammenhang bringen muss, ein allgemeines Problem aller derzeitigen Navigationssysteme, die Bilddaten als orthogonale 2D-Schnitte darstellen.
  • Ein System, das sich durch Kombinieren der Sicht auf den Patienten mit bloßem Auge mit den computergenerierten Bildern einer See-Through-Augmentation bedient, wird zur Zeit erforscht (siehe Blackwell M., O'Toole R.V., Morgan F., Gregor L.: Performance and Accuracy experiments with 3D and 2D Image overlay systems, Proceedings of MRCAS 95, Baltimore, USA, 1995, S. 312–317; und DiGioia, Anthony M., Branislav Jaramaz, Robert V. O'Toole, David A. Simon und Takeo Kanade: Medical Robotics And Computer Assisted Surgery in Orthopaedics, in Interactive Technology and the New Paradigm for Healthcare, herausgegeben von K. Morgan, R.M. Satava, H.B. Sieberg, R. Mattheus und J.P. Christensen, 88–90, IOS Press, 1995). Bei diesem System wird ein invertiertes Bild auf einem auf dem Kopf stehenden Monitor mittels eines halbdurchlässigen Spiegels über das Operationsgeschehen gelegt, um die Bilder zu kombinieren. Der Benutzer trägt ein Head-Tracking-System, während er den Spiegel und den sich darunter befindenden Patienten betrachtet. Allerdings berichten die Verfasser erhebliche Ungenauigkeiten zwischen dem virtuellen und dem realen Objekt.
  • Andere Systeme, die derzeit erforscht oder entwickelt werden, kombinieren computergenerierte Bilder mit dem Video des Operationsgeschehens, welches durch Kameras, die an festen Positionen in dem Operationssaal angeordnet sind, oder ein Head-Mounted-Display des Benutzers aufgenommen wird. Das kombinierte Signal wird dann in das HMD ("Head-Mounted-Display") eines Benutzers eingeschleust. Die drei Beispiele für derartige Projekte sind in Fuchs H., Mark A. Livingston, Ramesh Raskar, D'nardo Colucci, Kurtis Keller, Andrei State, Jessica R. Crawford, Raul Rademacher, Samuel H. Drake und Anthony A. Meyer, MD, Augmented Reality Visualization for Laparoscopic Surgery, Proceedings of First International Conference an Medical Image Computing and Computer-Assisted Intervention (MICCAI'98), 11.–13. Oktober 1998, Massachusetts Institute of Technology, Cambridge, MA, USA; Fuchs H., State A., Pisano E.D., Garrett W.F., Gentaro Hirota, Mark A. Livingston, Mary C. Whitton, Pizer S.M., (Towards) Performing Ultrasound-Guided Needle Biopsies from within a Head-Mounted Display, Proceedings of Visualization in Biomedical Computing 1996 (Hamburg, Deutschland, 22.–25. September 1996), S. 591–600; und in State, Andrei, Mark A. Livingston, Gentaro Hirota, William F. Garrett, Mary C. Whitton, Henry Fuchs und Etta D. Pisano (MD), Technologies for Augmented-Reality Systems: realizing Ultrasound-Guided Needle Biopsies, Proceedings of SIGGRAPH 96 (New Orleans, LA, 4.–9. August 1996), in Computer Graphics Processing, Annual Conference Series 1996, ACM SIGGRAPH, S. 439–446, offenbart.
  • Eine andere Methode (offenbart in Edwards P.J., Hawkes D.J., Hill D.L.G., Jewell D., Spink R., Strong A., Gleeson M.: Augmented reality in the stereo microscope for Otolaryngology and neurosurgical Guidance, Proceedings of MRCAS 95, Baltimore, USA, 1995, S. 8–15) bedient sich eines Operationsmikroskops als Vorrichtung für das Einblenden von 3D-Grafiken. Durch "Bildinjektion" stereoskopischer Strukturen in die optischen Kanäle des Mikroskops sieht der Chirurg das eingeblendete Bild über dem Operationsgeschehen. Bei dieser Methode werden einfache Gitternetze mit relativ geringer Auflösung über dem Operationsgeschehen eingeblendet, ohne irgendwelche interaktiven Fähigkeiten vorzusehen. Die Verfasser berichten über Schwierigkeiten hinsichtlich der stereoskopischen Wahrnehmung der eingeblendeten Daten in Zusammenhang mit der realen Ansicht.
  • Die internationale Patentanmeldung WO 99/60529 beschreibt ein "Virtual-Reality"-System, wobei der sensorische Raum des Benutzers mit einem numerisch definiertem Raum des Rechners in Übereinstimmung gebracht wird.
  • Das Displaysystem umfasst eine hochkant stehende Displayeinheit und eine reflektierende Oberfläche, die zwischen einem Benutzer und der Displayeinheit angeordnet ist, derart, dass beim Gebrauch ein virtuelles Bild der Displayeinheit und ein durch die Displayeinheit angezeigtes Bild in einem natürlichen Arbeitsbereich des Benutzers erzeugt wird.
  • Ferner umfasst das System Positionserfassungsmittel (Sende- und Empfangsmittel) zum Erfassen wahrgenommener Bewegung des virtuellen Bildes durch den Benutzer, wobei die Bewegung in Bewegung des durch die Displayeinheit angezeigten Bildes umgesetzt wird.
  • Das US-Patent 5,662,111 beschreibt ein System zur quantitativen Computergrafikbestimmung der Position einer Anatomie eines Patienten und von Positionen an zugeordneten Geräten, die nahe der Anatomie des Patienten angeordnet sind, in Zusammenhang mit den anatomischen Daten, beispielsweise aus CT- oder MR-Aufnahmen. Zwei Kameras werden in Bezug auf die Anatomie des Patienten und die zugeordneten Geräte derart angeordnet, dass die Sichtfelder der Kameras aus verschiedenen Richtungen gewählt werden. Körper-Marker werden vor dem Abbilden der Anatomie des Patienten in Bezug auf die Anatomie des Patienten positioniert, um Indexdaten in den Bildscannerdaten vorzusehen. Die Daten werden umgewandelt und kombiniert, um Anzeigedaten zu bilden, die in den Scannerdatenkoordinaten referenziert werden, um Displaysignale vorzusehen. Ein Computergrafikdisplay wird mit den kombinierten Displaydaten angesteuert, um zugleich ein Bild anzuzeigen, das aktuell für das chirurgische Instrument in Zusammenhang mit der Anatomie des Patienten repräsentativ ist.
  • Das Europäische Patent EP 607 000 beschreibt ein kopfgeführtes Stereodisplaysystem zum Generieren virtueller Bilder über einen breiten Bewegungsbereich des Kopfes des Betrachters und zum Mischen von Licht vom virtuellen Objekt und vom realen Objekt in einer natürlichen Anordnung. Das System umfasst eine Displayvorrichtung zum Erzeugen von Stereobildern, die durch ein Computermittel gerendert werden, das mit einem Spiegel derart gekoppelt ist, dass der Spiegel die Stereobilder zu einem Betrachter überträgt. Ein Trackingsystem steuert die Positionen des Spiegels, um die Stereobilder zu dem Betrachter zu übertragen, während sich der Betrachter bewegt.
  • Das US-Patent 5,729,475 beschreibt ein optisches System zum Überwachen der Position und Orientierung eines Objekts in einem Referenzrahmen. Das System umfasst mindestens vier Lichtsensoren, von denen jeder ein Signal erzeugt, einen optischen Scanner, der ein Volumen, welches das Objekt enthält, abtastet, einen Signalgenerator, einen Timer und eine Rechenvorrichtung, welche die Position und die Orientierung des Objekts auf der Grundlage der durch den Timer aufgezeichneten Zeiten und der Koordinaten der Lichtsensoren berechnet.
  • Wenngleich sie zur Führung des Benutzers gedacht sind, sind diese Methoden allesamt in ihrer Anwendung und Brauchbarkeit eingeschränkt.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Die vorliegende Erfindung zielt darauf ab, sich mit mindestens einem der oben genannten Probleme auseinander zu setzen und neue und zweckmäßige Navigationssysteme sowie Verfahren und Vorrichtungen zum Steuern derselben vorzuschlagen.
  • Die vorliegende Erfindung betrifft insbesondere ein System, das während eines chirurgischen Eingriffs verwendet werden kann. Allerdings ist die Anwendbarkeit der Erfindung nicht auf chirurgische Eingriffe beschränkt, und die unten besprochenen Systeme und Verfahren können im Kontext jedweder heiklen Operation und in der Praxis sowohl während einer Planungsphase wie auch einer intraoperativen Phase von Nutzen sein.
  • Der vorliegenden Erfindung liegt die Erkenntnis zu Grunde, dass es während des Navigationsvorgangs in einem Operationssaal entscheidend ist, in der Lage zu sein, problemlos und rasch mit einem chirurgischen Navigationssystem zu interagieren, beispielsweise um das Format der computergenerierten Bilder zu ändern. Darüber hinaus wäre es vorteilhaft, in der Lage zu sein, bestimmte chirurgische Prozeduren direkt am Operationssitus durch Zuhilfenahme der computergenerierten Bilder zu simulieren.
  • Allgemein schlägt die vorliegende Erfindung eine Sonde vor, die durch einen Benutzer gehalten werden soll, der eine Operation (z.B. einen chirurgischen Eingriff) innerhalb eines definierten Bereiches durchführt und dabei ein bildbasiertes Führungssystem mit einem Display zum Anzeigen computergenerierter Bilder (3D- und/oder 2D-Schnitte) des zu operierenden Subjekts verwendet. Die Sonde weist eine Position auf, die durch das System verfolgt wird und für den Benutzer sichtbar ist (beispielsweise da es das System dem Benutzer ermöglicht, die Sonde direkt zu sehen, oder aber da die computergenerierten Bilder ein Icon umfassen, welches ihre Position darstellt). Durch Bewegen der Sonde ist der Benutzer in der Lage, Informationen in das System einzugeben, um es zu steuern, beispielsweise um Änderungen der körperlichen Gestalt des Subjekts in dem durch den Computer angezeigten Bild herbeizuführen.
  • Die Erfindung schlägt ein Führungssystem zur Verwendung durch einen Benutzer vor, der eine Operation in einem definierten dreidimensionalen Bereich durchführt, wobei das System eine Datenverarbeitungsvorrichtung zum Generieren von Bildern des zu operierenden Subjekts in Koregistrierung mit dem Subjekt, ein Display zum Anzeigen der Bilder für den Benutzer, eine Sonde mit einer Position, die für den Benutzer sichtbar ist, und eine Trackingeinheit zum Verfolgen der Position der Sonde durch das System und Übertragen dieser Position an die Datenverarbeitungsvorrichtung umfasst,
    wobei die Datenverarbeitungsvorrichtung angeordnet ist, um, nachdem der Benutzer die Sonde zu einem Auswahlbereich bewegt, der außerhalb des definierten Bereiches und diesen umgebend angeordnet ist, eine oder mehrere virtuelle Tasten zu generieren, wobei jede der Tasten einer entsprechenden Anweisung an das System zugeordnet ist,
    wobei die Datenverarbeitungsvorrichtung angeordnet ist, um eine Auswahl einer beliebigen der virtuellen Tasten durch den Benutzer zu registrieren, wobei die Auswahl das Positionieren der Sonde in Bezug auf die scheinbare Position jener virtuellen Taste umfasst, und um das computergenerierte Bild basierend auf der Auswahl zu modifizieren.
  • Der definierte Bereich wird als "Bounding Box" bezeichnet, so dass der Benutzer in der Lage ist, die virtuellen Bereiche durch Bewegen der Sonde aus der Bounding Box heraus anzuzeigen. Dies bedeutet, dass das Maß an Bewegung, welches ein Benutzer ausführen muss, um zu bewirken, dass die virtuellen Tasten angezeigt werden, gering ist.
  • Um eine der virtuellen Tasten anzuzeigen, kann der Benutzer die Sonde zu einer Position innerhalb jener virtuellen Taste hinbewegen, jedoch kann er vorzugsweise eine Längsrichtung der Sonde in Richtung der gewünschten virtuellen Taste (z.B. zu der Mitte jener Taste mit einer bestimmten Toleranz) ausrichten. Diese letztere Möglichkeit bedeutet, dass die Sonde nur wenig bewegt werden muss, um zu einer der Tasten hin zu zeigen. Wenn diese Ausrichtung durchgeführt wurde, um zu einer der Tasten hin zu zeigen, kann der Benutzer einen gesonderten Bestätigungsbefehl eingeben (vorzugsweise mittels einer eigenen Dateneingabevorrichtung, die nicht durch die Hand des Benutzers, sondern zum Beispiel durch einen Fußschalter betätigt wird), um die Auswahl zu bestätigen. Um den Benutzer dabei zu unterstützen, die Sonde exakt auszurichten, kann eine Linie für den Benutzer angezeigt werden, die sich von der Sonde die Längsrichtung entlang erstreckt. Die Linie kann eine vordefinierte Länge oder eine durch den Benutzer geregelte Länge aufweisen (z.B. derart, dass der Benutzer eine virtuelle Taste nicht nur bloß über ihre Richtung, sondern auch über ihre Entfernung von der Sonde ansteuert).
  • Vorzugsweise werden die computergenerierten Bilder über das reale Bild des Subjekts gelegt und vorzugsweise in einem halbdurchsichtigen am Kopf befestigten Stereodisplay (HMD), das von einem Chirurgen zu tragen ist, angezeigt, derart, dass er oder sie die computergenerierten Bilder über der realen Sicht auf das zu operierende Subjekt liegend sieht, was durch das halbdurchsichtige Display (z.B. halbdurchsichtige Okulare) erreicht wurde. Das HMD wird mittels Tracking verfolgt, und der Computer generiert Bilder auf der Grundlage dieses Tracking, so dass, während sich der Chirurg bewegt, das reale und das computergenerierte Bild in Übereinstimmung bleiben.
  • Das System kann in zwei Betriebsarten verwendet werden. Erstens blickt während makroskopischer chirurgischer Eingriffe der Benutzer durch das Display in einem halbdurchsichtigen Modus und sieht stereoskopische Computergrafiken, die über das Operationsfeld gelegt wurden. Dies ermöglicht, dass der Chirurg "über die normale Sichtlinie hinaus" sehen kann, ehe ein Einschnitt gemacht wird, z.B. um die Position eines Tumors, der Schädelbasis oder anderer Zielstrukturen zu visualisieren.
  • Zweitens kann für mikroskopische chirurgische Eingriffe dasselbe Stereodisplay an (z.B. dem oberen Ende des Binokulars von) einem stereoskopischen Mikroskop befestigt werden, dessen Position verfolgt wird (als Alternative zum Tracking von Bewegungen des Benutzers). Die Computergrafiken in dem Display können mit den Vergrößerungs- und Fokusparametern des verfolgten Mikroskops verknüpft werden und daher eine "virtuelle" Sicht in das Operationsfeld einblenden.
  • Die 3D-Daten, die in dem Display dargestellt werden, können durch ein computerbasiertes neurochirurgisches Planungspaket namens VizDexter, welches bereits unter dem Namen VIVIAN veröffentlicht wurde und durch Volume Interactions aus Singapur entwickelt wurde, computergeneriert werden. VizDexter ermöglicht die Verwendung von multimodalen Bildern (CT und MR werden verschmolzen) in der Virtual-Reality-Umgebung des "Dextroscope" (wie beispielsweise in Kockro R.A., Serra L., Yeo T.T., Chumpon C., Sitoh Y.Y., Chua G.G., Ng Hern, Lee E., Lee Y.H., Nowinski W.L.: Planning Simulation of Neurosurgery in a Virtual Reality Environment, Neurosurgery Journal 46[1], 118–137, 2000.9, und in Serra L., Kockro R.A., Chua G.G., Ng H., Lee E., Lee Y.H., Chan C., Nowinski W.: Multimodal Volume-based Tumor Neurosurgery Planning in the Virtual Workbench, Proceedings of the First International Conference an Medical Image Computing and Computer-Assisted Inter vention (MICCAI), Massachusetts, Institute of Technology, Cambridge MA, USA, 11.–13. Oktober 1998, S. 1007–1016, offenbart wird.)
  • KURZE BESCHREIBUNG DER FIGUREN
  • Eine nicht einschränkende Ausführungsform der Erfindung wird nunmehr lediglich beispielhaft mit Bezugnahme auf die folgenden Figuren beschrieben. Es zeigen:
  • 1 ein System, das eine Ausführungsform der vorliegenden Erfindung ist, im Gebrauch während eines chirurgischen Eingriffs;
  • 2 die virtuelle Bounding Box und deren Beziehung in der Ausführungsform zu der Sonde und dem virtuellen Bedienfeld;
  • 3 das Bedienfeld, das durch die Ausführungsform generiert wird;
  • 4 ein Konzept kleiner Handgelenksbewegungen zum Bedienen von Tasten auf einem entfernten Bedienfeld bei der Ausführungsform;
  • 5 die Verwendung der virtuellen ausfahrbaren Sonde als Navigationswerkzeug bei der Ausführungsform; und
  • 6a6c die Verwendung des virtuellen ausfahrbaren Bohrers bei einer virtuellen Operation unter Verwendung der Ausführungsform.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORM
  • Vor der Durchführung eines chirurgischen Eingriffes mittels der Ausführungsform der Erfindung werden tomographische Aufnahmen des Patienten aufgenommen, beispielsweise mittels standardmäßiger CT- und/oder MR-Scanner. Die auf diese Weise generierte Bildserie wird zu der VR-Umgebung des Dextroscope übertragen, und die Daten werden koregistriert und als multimodales stereoskopisches Objekt angezeigt, auf die Weise, die in den das Dextroscope beschreibenden Publikationen, auf die oben verwiesen wurde, offenbart wird. Während der Planungssitzung in dem Dextroscope identifiziert der Benutzer relevante chirurgische Strukturen und zeigt diese als 3D-Objekte an (ein als Segmentierung bezeichneter Prozess). Darüber hinaus können Landmarken und Operationswege markiert werden. Vor der eigentlichen Operation werden die 3D-Daten an das Navigationssystem in dem OP (Operationssaal) übertragen.
  • Das System, das eine Ausführungsform der vorliegenden Erfindung ist, ist in 1 schematisch dargestellt, wobei die verschiedenen Elemente nicht maßstabgetreu dargestellt sind. Das System umfasst ein kopfgetragenes Stereo-LCD-Display (HMD) 1 (gegenwärtig wird ein SONY LDI 100 verwendet). Das Display kann von einem Benutzer getragen werden oder alternativ dazu an einem Operationsmikroskop 3, das auf einer Konstruktion 5 getragen wird, angebracht und damit verbunden werden. Das System umfasst ferner eine optische Trackingeinheit 7, welche die Position einer Sonde 9 sowie die Positionen des HMD 1 und des Mikroskops 3 verfolgt. Eine derartige Trackingeinheit 7 ist im Handel erhältlich (Northern Digital, Polaris). Ferner umfasst das System einen Computer 11, der in der Lage ist, stereoskopisches Grafik-Rendering in Echtzeit durchzuführen und die computergenerierten Bilder über das Kabel 13 an das HMD 1 zu übertragen. Ferner umfasst das System einen Fußschalter 15, der Signale über das Kabel 17 an den Computer 11 überträgt. Ferner werden die Einstellungen des Mikroskops 3 (wie unten besprochen) über das Kabel 19 an den Computer 11 übertragen. Das zu operierende Subjekt ist mit 21 bezeichnet.
  • Wir bedienen uns einer passiven Trackingeinheit 7, die durch Detektieren von drei reflektierenden kugelförmigen Marker, die an einem Objekt befestigt sind, funktioniert. Durch Kenntnis und Kalibrierung der Gestalt eines Objektes, das die Marker trägt (beispielsweise eine schreibstiftförmige Sonde 9), kann dessen exakte Position in dem 3D-Raum, der durch die beiden Kameras des Trackingsystems erfasst wird, bestimmt werden. Um das LCD-Display 1 zu verfolgen, wurden drei Marker entlang ihrem oberen frontseitigen Rand (nahe der Stirn der Person, welche das Display trägt) befestigt. Das Mikroskop 3 wird anhand von reflektierenden Marker verfolgt, die an einer individuell angefertigten Trägerkonstruktion angebracht sind, welche an dem Mikroskop 3 derart befestigt ist, dass eine freie Sichtlinie auf die Kameras des Navigationssystems während der meisten der Mikroskopbewegungen ermöglicht wird. Am oberen Ende des Binokulars ermöglicht eine zweite Trägerkonstruktion, das LCD-Display 1 während mikroskopischer chirurgischer Eingriffe anzubringen. Die Polaris-Trackingeinheit 7 und das Mikroskop 3 kommunizieren mit dem Computer 11 über dessen seriellen Port. An den anderen Computerport ist der Fußschalter 15 zur Interaktion mit der virtuellen Schnittstelle während der chirurgischen Prozedur angeschlossen.
  • Der Kopf des Patienten 21 wird mit Hilfe von Hautmarkern (Fiducials), die vor der Imaging-Prozedur an die Haut angeklebt werden und an der Haut bleiben, bis der chirurgische Eingriff beginnt, mit den präoperativen volumetrischen Daten abgeglichen (für gewöhnlich sind mindestens sechs Fiducials erforderlich). Während des präoperativen Planungsvorgangs im Dextroscope werden die Marker gekennzeichnet und markiert. Im Operationssaal wird eine Sonde, die durch das Trackingsystem verfolgt wird, verwendet, um auf die Fiducials in der realen Welt (an der Haut) hin zu zeigen, die den auf den Bildern markierten entsprechen. Dann werden die 3D-Daten anhand eines einfachen halbautomatisierten Registrierungsvorgangs mit dem Patienten abgeglichen. Der Registrierungsvorgang liefert eine Umwandlungsmatrix, welche die virtuelle Welt derart umwandelt, dass sie der realen Welt entspricht. Dieser Registrierungsvorgang ist bei den meisten modernen neurochirurgischen Navigationssystemen Standard.
  • Nach Abschluss des Vorgangs der Registrierung von Bild zu Patienten trägt der Chirurg das HMD 1 und betrachtet den Patienten 21 durch den halbdurchsichtigen Schirm des Displays 1, wo die stereoskopische Rekonstruktion der segmentierten Bilddaten angezeigt wird. Der Chirurg nimmt die 3D-Daten als direkt über den tatsächlichen Patienten gelegt wahr, und es können, beinahe vergleichbar mit einer Röntgenblickfähigkeit, die 3D-Strukturen, die "innerhalb" des Kopfes erscheinen, aus unterschiedlichen Winkeln betrachtet werden, während der Betrachter seine Position wechselt.
  • Zunächst werden wir die Verwendung des Systems ohne das Mikroskop 3 erläutern. Wir bezeichnen dies als "STAR" (See Through Augmented Reality). Wir zeigen die Projektion des rechten und des linken Auges des in dem Computer 11 generierten Stereobildes auf dem rechten bzw. dem linken LCD des HMD 1 an. Nach dem Kalibrieren der Größe des Kopfes des Patienten und seiner Entfernung zu dem HMD 1 generiert der Computer 11 ein Bild, das genau der Sicht des Chirurgen auf den realen Patienten 21 entspricht, wodurch der Chirurg die genaue Übereinstimmung zwischen seinen während der Planung entwickelten Operationskonzepten und dem tatsächlichen Patienten 21 nachvollziehen kann. Dank der Sicht auf die virtuelle Zielstruktur ist der Chirurg in der Lage, den idealen Hauteinschnitt, die ideale Craniotomie und den idealen Weg zu einer Läsion zu wählen, ohne auch nur ein einziges Mal von dem Operationsgeschehen wegblicken zu müssen. Die Anwendungsmöglichkeiten von STAR reichen über die Neurochirurgie hinaus, beispielsweise bis in die Gebiete der Schädel- und Gesichtschirurgie oder der orthopädischen Chirurgie hinein, wo rekonstruktives Arbeiten an Knochen unter der virtuellen Führung von augmentierten 3D-Daten, die während der Planungssitzung generiert wurden, exakter durchgeführt werden kann.
  • Der Benutzer sieht auch eine virtuelle Sonde, die der tatsächlichen schreibstiftförmigen und verfolgten Sonde 9 in der Hand des Chirurgen entspricht. Mit dieser Sonde aktiviert und steuert der Benutzer eine virtuelle 3D-Schnittstelle, welche die Interaktion mit den 3D-Daten ermöglicht. Die Sonde selbst kann auch, wie unten beschrieben wird, als einzigartiges Simulations- und Navigationswerkzeug dienen.
  • Nun wenden wir uns der Navigation mittels des Mikroskops 3 zu, einer Phase, die hier als "MAAR" (Microscope Assisted Augmented Reality) bezeichnet wird. In dieser Phase der Verwendung des Systems aus 1 ist das HMD 1 an der Trägerkonstruktion 5 oberhalb des Binokulars des Mikroskops befestigt und der See-Through-Modus des HMD 1 ausgeschaltet, so dass nur Bilder, die durch den Computer 11 bereitgestellt werden, zurückbleiben. Diese Bilder sind eine Kombination aus dem stereoskopischen Videoausgang des Mikroskops 3 (sowohl rechter als auch linker Kanal, die über das Kabel 19 zu dem Computer 11 übertragen werden) sowie den stereoskopischen, segmentierten 3D-Bilddaten, die durch den Computer 11 selbst generiert werden. Die Bilder werden in dem HMD 1 angezeigt, und deren jeweilige Signalstärke ist mittels eines Videomischers einstellbar. Um mittels der 3D-Daten in dem Display zu navigieren, müssen die Daten exakt mit der tatsächlichen Sicht durch das Mikroskop (oder dessen Videosignal) abgeglichen werden. Dazu bedient sich der Computer 11 einer Kenntnis der Einstellungen der Optik des Mikroskops 3, um das Generieren der 3D-Grafik zu unterstützen. Die Motorwerte des Mikroskops für Zoom und Fokus werden von dem Mikroskop über den seriellen Port (RS232-Schnittstelle) gelesen und zum Computer 11 übertragen. Dann werden die tatsächliche Vergrößerung und die Fokusebene mittels vorgegebener Formeln berechnet. Die Position und die Orientierung (Pose) des Mikroskops werden von dem optischen Trackingsystem bezogen. Dann generiert der Computer 11 ein computergeneriertes Bild, welches mit der Vergrößerung, der Fokusebene und der Betrachtungsposition des Mikroskops als stereoskopisches Bild der 3D-Bilddaten übereinstimmt. Dieses Bild wird in dem HMD 1 angezeigt. Da das exakte Bild online unter Verwendung der Funktionen der Mikroskopoptik generiert wird, kann der Chirurg komfortabel Zoom- und Fokuswerte intraoperativ ändern, ohne dass dadurch die Kamerakalibrierung oder die Systemleistung beeinträchtigt werden. Da das Mikroskop 3 in Echtzeit verfolgt wird, kann der Chirurg das Mikroskop 3 frei herum bewegen, um verschiedene Betrachtungspositionen zu erhalten. Durch Koppeln der Beschnittebene mit der Fokusebene des Mikroskops 3 kann der Benutzer durch Ändern der Fokuswerte des Mikroskops durch die virtuellen 3D-Bilddatenebenen schneiden.
  • Bei STAR wie auch bei MAAR ist durch Verwendung der verfolgten Sonde 9, die in den computergenerierten Bildern, die dem Benutzer in dem HMD 1 angezeigt werden, als virtuelle Sonde angezeigt wird, die Interaktion mit den virtuellen Objekten in Echtzeit möglich.
  • Festzuhalten ist, dass, wenngleich die Erfindung oben in Bezug auf die Bilder erläutert wird, die einem HMD 1 zugeführt werden, das von dem Mikroskop 3 lösbar ist, im Rahmen der Erfindung eine Alternative darin besteht, durch Verwendung eines LCD-basierten Systems zur "Injektion" von Bildern in die optischen Kanäle des Mikroskops die computergenerierten 3D-Daten direkt über die Sicht durch das Mikroskop 3 zu legen. In diesem Fall besteht kein Bedarf an einem getrennten HMD, um MAAR durchzuführen.
  • Während des Navigationsvorgangs mit entweder MAAR oder STAR sieht der Benutzer die 3D-Bilddaten des Patienten über dem realen Operationsgeschehen augmentiert. Insbesondere da die virtuellen Daten für gewöhnlich aus unterschiedlichen Bildstudien und deren 3D-Segmentierungen (beispielsweise Tumore, Blutgefäße, Teile der Schädelbasis, Marker und Landmarken) bestehen, muss der Benutzer in der Lage sein, während der Operation mit den Daten zu interagieren, um diese auf die Navigationsbedürfnisse anzupassen. Beispielsweise sind Tools erforderlich, um die Durchsichtigkeit von 3D-Daten zu deaktivieren/zu aktivieren oder zu regeln, Beschnittebenen einzustellen, Abstände zu messen oder Daten zu importieren. Gemäß der vorliegenden Erfindung kann der Chirurg auf diese Weise mit dem Computer 11 interagieren, um 3D-Daten, die in dem HMD 1 angezeigt werden, zu modifizieren, indem nur die passiv verfolgte schreibstiftförmige Sonde 9 und der Fußschalter 15 verwendet werden und somit die Verwendung von Tastatur und Maus im OP vermieden wird.
  • Wenn der Chirurg die verfolgte Sonde in die Nähe des Kopfes des Patienten bewegt, dann befindet sich die Sonde 9 innerhalb einer virtuellen Bounding Box, die wir um den Kopf des Patienten definiert haben. Dies ist in 2(a) veranschaulicht. Die Positionen der Marker sind mit 25 gekennzeichnet. Die Bounding Box (die sich im realen Raum und nicht im virtuellen Raum befindet) ist gestrichelt dargestellt und umgibt die Region-of-Interest, in welcher der chirurgische Eingriff stattfindet. In diesem Fall zeigen die computergenerierten Bilder dem Benutzer Bilddaten des Subjekts. Ferner wird eine virtuelle Sonde, die der Sonde 9 entspricht, in dem HMD 1 in einer den virtuellen 3D-Bilddaten realistisch entsprechenden Position angezeigt.
  • Wenn die Sonde für das Trackingsystem nicht sichtbar ist, d.h. seine reflektierenden Marker verborgen sind oder sie sich außerhalb des Tracking-Volumens befindet, verschwindet die virtuelle Sonde, und der Chirurg sieht nur die augmentierten Patientendaten auf dem HMD angezeigt. Dies ist in 2(c) veranschaulicht.
  • Wenn der Chirurg die Sonde 9 von dem Kopf des Patienten weg und aus der virtuellen Bounding Box hinaus bewegt, sie jedoch in Sichtweite des Trackingsystems hält (wie in 2(b) dargestellt ist), schaltet das Visualisierungssystem die Ansicht um, so dass der Benutzer nur ein computergeneriertes Bild sieht, bei dem es sich um ein Bedienfeld handelt. Dieses Bedienfeld ist in 3 dargestellt. Die virtuelle, von Hand gehaltene Sonde 27 wird dann mit einem Strahl 29, der von ihrer Spitze abgestrahlt wird, dargestellt, wodurch sie in der virtuellen Welt wie eine virtuelle Lasersonde aussieht. Die Tasten 31 auf dem Bedienfeld können durch Hinrichten des virtuellen Strahls auf diese ausgewählt werden. Nach der Auswahl können die Tasten mittels des Fußschalters betätigt (EIN/AUS geschaltet) werden.
  • Das Bedienfeld ist derart angeordnet, dass es, wenn es in Stereo betrachtet wird, in einem komfortablen Abstand von etwa 1,5 m von dem Benutzer zu sein scheint. Die virtuelle Sonde 27 selbst spiegelt die Bewegungen der realen Sonde 9 in der Hand des Chirurgen realistisch wider, was dazu führt, dass mit nur geringen Handgelenksbewegungen auf die virtuellen Tasten auf dem Bedienfeld hingezeigt werden kann.
  • In dem beschränkten Raum des Operationssaales, insbesondere beim Operieren mittels des Operationsmikroskops, ermöglicht das beschriebene Verfahren zur Interaktion dem Chirurgen, bequem und rasch auf eine breite Palette von navigationsbezogenen Tools zuzugreifen. Zwei Faktoren sind von Bedeutung: Erstens bedeutet die Tatsache, dass der virtuelle Raum, der das unverankerte Bedienfeld aktiviert, den Kopf des Patienten in einem nahen Abstand umgibt, dass es durch den Chirurgen mit einer einfachen Armbewegung in einer beliebigen Richtung von dem Kopf des Patienten weg erreicht werden kann (solange er noch in Sichtweite des Trackingsystems ist). Der zweite wichtige Faktor ist, dass, sobald das virtuelle Tool-Rack sichtbar ist, alle seine Tools durch kleine Handgelenksbewegungen statt größeren Bewegungen in der Luft, die durch die umliegenden OP-Einrichtungen gestört werden könnten, aktiviert werden können. Dies ist von Bedeutung, da dadurch dem Chirurgen ermöglicht wird, bequem, sogar mit den Armen aufliegend, zu navigieren und dabei die Daten in dem Display zu betrachten, ohne dass es notwendig wäre, seine Handbewegungen zur Hinblicken zu kontrollieren, und demnach ohne erhebliche Ablenkung von der Operationsarbeitsabfolge. Diese Wirkungsweise wird in 4 dargestellt, die einen Strahl zeigt, der von der Spitze der Sonde abgestrahlt wird.
  • Innerhalb des Feldes der virtuellen Schnittstelle hat der Chirurg Zugriff auf eine Reihe von Funktionalitäten, um die Darstellung der Daten zu modifizieren, beispielsweise:
    • – Ausblenden/Einblenden der verschiedenen Bilddarstellungsmodalitäten und/oder 3D-Objekte. Operieren in Weichgewebe erfordert zum Beispiel, einige mittels MR erstellte Segmentierungen (oder die Original-MR-Ebenen selbst) einzuschalten, während die mittels CT erstellten Strukturen während Arbeiten an Knochen eingeschaltet werden müssen.
    • – Ändern des Erscheinungsbildes der Daten auf monoplan/triplan/3D-Vollvolumen.
    • – Verknüpfen der Bilddaten mit der Sonde oder dem Mikroskop. Dies bedeutet, dass die online Beschnittebene (wenn die Daten als 3D-Volumen erscheinen), die Monoplane oder der Mittelpunkt eines triplanen Bildes entweder mit der Fokalebene des Mikroskops oder mit der virtuell ausfahrbaren Sonde (unten beschrieben), die in das Operationsfeld gebracht werden kann, verknüpft werden können.
    • – Aktivieren der virtuellen Sonde und ihres virtuellen Ausfahr- und Einfahrmerkmals, um intraoperative Simulations-Tools wie ein virtuelles Bohrer-Tool und ein virtuelles Wiederherstell-Tool, Mess-Tools oder Tools zum Simulieren von Gewebsretraktion oder dem Setzen von Klammern (siehe 2.6) zu steuern.
    • – Aktivieren einer Farb- und Durchsichtigkeitseinstellungstabelle.
    • – Umschalten zwischen dem MAAR- und dem STAR-System.
    • – Aktivieren von Tools zum Importieren und Registrieren intraoperativer Bilddaten, d.h. 3D-Ultraschall.
  • Wir haben ein Verfahren entwickelt, um die virtuelle Sonde zu einem Tool zu machen, welches das Navigieren und Simulieren einiger chirurgischer Schritte ermöglicht, während eine Interaktion mit den augmentierten Daten direkt in der Operationshöhle stattfindet.
  • Als Erstes beschreiben wir die neuartige Navigationsfunktion der Ausführungsform. Wenn volumetrische 3D-Daten mit der Sonde verknüpft werden (durch Auswahl derselben in dem virtuellen Tool-Rack, siehe oben), wird eine Beschnittebene orthogonal zu der Richtung der Spitze der Sonde generiert. Wenn der Chirurg die Sonde zu dem Operationsgeschehen bringt und den Fußschalter betätigt, wird die Linie, die sich von der Sonde weg erstreckt, virtuell verlängert, und die Ebene bewegt sich von der Spitze der Sonde weg (durch die Patientendaten schneidend), um der Länge der Linie zu entsprechen, solange der Fußschalter niedergedrückt wird. Sobald der Fußschalter losgelassen wird, bleibt die Ebene an der letzten Position. Wird der Fußschalter das nächste Mal betätigt, verkürzt sich die Linie und die Ebene bewegt sich dementsprechend zu der Spitze der Sonde hin, bis der Fußschalter losgelassen wird. Auf diese Weise kann die Schnittebene durch abwechselndes Betätigen des Fußschalters hinein und hinaus bewegt und verschiedene Teile der Daten können untersucht werden. In jeder Phase generiert der Computer 11 Daten basierend auf der Schnittebene, z.B. in Form eines monoplanen Schnitts des zu operierenden Subjekts. Die Länge der virtuellen Sondenverlängerung wird online angezeigt, um die Messung von Abständen in der Tiefe der Operationshöhle zu ermöglichen. Wenn die Daten gewählt werden, um als Monoplane zu erscheinen, ist diese getrennte Ebene auch orthogonal zu der Sonde und sie kann auf dieselbe Weise hinein und hinaus bewegt werden. Wenn die Daten in einem triplanen Modus erscheinen (d.h. als drei orthogonale Ebenen, die einander an einem Ursprung treffen), ist der triplane Ursprung mit der ausfahrbaren Sonde verknüpft.
  • Alternativ dazu und wahlweise können die durch den Computer 11 generierten Daten auch mit den Mikroskopeinstellungen verknüpft werden, und in diesem Fall wird die Schnittebene an der Fokusebene des Mikroskops angeordnet. Diese Ebene kann dann durch Verlängern der Linie von der Sonde und/oder durch Verwenden der Fokussiertaste an dem Mikroskop bewegt werden.
  • 5 zeigt ein computergeneriertes Bild, welches drei Arten von Gewebe kombiniert. Ein Knochen, der volumetrisch aus Computertomographie(CT)-Daten rekonstruiert wurde, ist weiß dargestellt und mit CT gekennzeichnet. Die Angiographie(MRA)-Daten, welche die Blutgefäße zeigen, sind in dem Bild in einer zweiten Farbe, beispielsweise Rot (Schwarz in dem Bild), dargestellt. Die Magnetresonanz-Bilddaten (MRI) zeigen das Weichgewebe (in Grau) und erscheinen im monoplanen Modus in einer Ebene orthogonal zu der virtuellen Sonde. Das computergenerierte Bild der MRI wird beschnitten, indem es mit der Fokalebene des Mikroskops verknüpft wird. Durch virtuelles Verlängern der Sonde wird die MRI-Ebene in die Tiefe des Operationsfeldes hineinbewegt, und der Benutzer kann das räumliche Ausmaß einer Läsion (in diesem Fall eines Jugularschwannoms) untersuchen.
  • Dieses Tool kann auch verwendet werden, um dem Chirurgen online die Entfernung zu chirurgisch wichtigen Landmarken zu liefern, die während der Planungsphase angeordnet wurden (für gewöhnlich bis zu drei oder vier). Beim Navigieren wird von der Spitze der Sonde weg eine eindeutig gefärbte Linie zur jeweiligen Landmarke hin angezeigt, und die Entfernung von jeder Landmarke wird neben der jeweiligen Linie angezeigt. Die Anzeige von Landmarken kann mittels des unverankerten Bedienfeldes EIN/AUS geschaltet werden.
  • Als Zweites beschreiben wir die neuartige Simulationsfunktion, die anhand der vorliegenden Ausführungsform durchgeführt werden kann. Das virtuelle Bohrer-Tool besteht aus einer virtuellen Kugel, die an der virtuellen Sonde befestigt ist und, wenn sie in die augmentierten virtuellen Daten eingeführt wird, als Bohrer dient, indem sie Voxel (3D-Pixel) in Echtzeit entfernt. Der kugelförmige Bohrer ist virtuell ausfahrbar und einfahrbar, durch abwechselndes Betätigen des Fußschalters, wie oben beschrieben wurde, wodurch die Länge einer Linie, die als sich zwischen der Sonde und dem kugelförmigen Bohrer erstreckend gezogen wurde, verändert wird. Demnach kann der Chirurg an jedwedem Punkt durch Bewegen der von Hand gehaltenen Sonde bohren. Die Kombination aus realen und computergenerierten Bildern, die von einem Benutzer zu sehen ist, ist in 6 dargestellt, wobei darin in 6a ein virtuelles Bild eines Schädels eines Patienten gemeinsam mit dem virtuellen Tool dargestellt ist, in 6b der tatsächliche Schädel des Patienten mit dem tatsächlichen Stift in der Hand des Chirurgen dargestellt ist, der in diesem Fall mit seiner Spitze auf dem realen Knochen oder leicht darüber angeordnet wäre, und in 6c die Ansicht des Benutzers durch das am Kopf getragene Display des Benutzers dargestellt ist, in welchem das virtuelle Bild aus 6a über das reale Bild aus 6b gelegt und damit in Koregistrierung ist und in welchem die sichtbare Aushöhlung in dem virtuellen Knochen mit der ausfahrbaren voxelentfernenden Kugel gebohrt wurde.
  • Ferner umfasst das System ein "Wiederherstell-Tool", das auf ähnliche Weise wie das Bohrer-Tool funktioniert, abgesehen davon, dass es die Voxel, die durch das Bohrer-Tool entfernt wurden, wiederherstellt.
  • Das intraoperative Simulations-Tool, das durch diese Ausführungsform bereitgestellt wird, ist besonders zweckmäßig während des minuziösen Arbeitens an Knochen der Schädelbasis. Es ermöglicht dem Chirurgen, die Entfernung von Knochen entlang mehrerer Richtungen durch Verwendung der exakt überlagerten 3D-CT-Daten zu simulieren. Der optimale Bohrweg in Bezug auf die umliegenden Strukturen kann, ehe die tatsächliche Arbeit am Knochen durchgeführt wird, virtuell erforscht und geübt werden. Während des tatsächlichen Bohrens kann man den überlagerten virtuell gebohrten Daten genau folgen. Neben dem Bohren kann die beschriebene ausfahrbare virtuelle Sonde auch verwendet werden, um andere chirurgische Eingriffe zu simulieren, beispielsweise um virtuell an den darübergelegten Daten Weichgewebe zu retrahieren oder Klammern oder Knochenschrauben zu setzen, ehe dies tatsächlich während des Eingriffs durchgeführt wird. Sie kann im Allgemeinen als Tool angesehen werden, welches ermöglicht, die augmentierten 3D-Daten direkt am Operationssitus zu untersuchen und zu manipulieren, um den tatsächlichen, nachfolgenden chirurgischen Schritt exakter und sicherer durchzuführen.
  • Wenngleich die Erfindung oben mit Bezugnahme auf nur eine einzige Ausführungsform erläutert wurde, sind im Rahmen der Erfindung verschiedene Modifikationen möglich, wie für Fachkundige naheliegend sein wird. Beispielsweise ist es möglich, wenngleich nicht vorzuziehen, die Darstellung der Linie aus der Anzeige von 6 wegzulassen und nur das Tool und die Sonde zu zeigen; die Linie würde konzeptuell immer noch existieren, jedoch als der regelbare Abstand zwischen der Sonde und dem Tool in der Längsrichtung des Tools.

Claims (11)

  1. Führungssystem zur Verwendung durch einen Benutzer, der eine Operation in einem definierten dreidimensionalen Bereich durchführt, wobei das System eine Datenverarbeitungsvorrichtung zum Generieren von Bildern des zu operierenden Subjekts (21) in Koregistrierung mit dem Subjekt (21), ein Display (1) zum Anzeigen der Bilder für den Benutzer, eine Sonde (9) mit einer Position, die für den Benutzer sichtbar ist, und eine Trackingeinheit (7) zum Verfolgen der Position der Sonde (9) durch das System und Übertragen dieser Position an die Datenverarbeitungsvorrichtung umfasst, dadurch gekennzeichnet, dass die Datenverarbeitungsvorrichtung angeordnet ist, um, nachdem der Benutzer die Sonde (9) zu einem Auswahlbereich bewegt, der außerhalb des definierten Bereiches und diesen umgebend angeordnet ist, eine oder mehrere virtuelle Tasten zu generieren, wobei jede der Tasten einer entsprechenden Anweisung an das System zugeordnet ist, wobei die Datenverarbeitungsvorrichtung angeordnet ist, um eine Auswahl einer beliebigen der virtuellen Tasten durch den Benutzer zu registrieren, wobei die Auswahl das Positionieren der Sonde (9) in Bezug auf die scheinbare Position jener virtuellen Taste umfasst, und um das computergenerierte Bild basierend auf der Auswahl zu modifizieren.
  2. System nach Anspruch 1, wobei die Datenverarbeitungsvorrichtung angeordnet ist, um Bilder des zu operierenden Subjekts (21) zu generieren, die über das Subjekt gelegt werden.
  3. System nach Anspruch 1 oder Anspruch 2, wobei die Positionierung der Sonde (9) das Ausrichten einer Längsachse der Sonde (9) mit der Taste umfasst.
  4. System nach Anspruch 3, wobei die Computervorrichtung (11) angeordnet ist, während die virtuellen Tasten angezeigt werden, um in dem Bild eine Linie zu umfassen, die sich von der Sonde (9) deren Längsachse entlang erstreckt.
  5. System nach einem beliebigen der vorhergehenden Ansprüche, wobei das Display (1) ausgebildet ist, um an dem Kopf eines Benutzers angebracht zu werden, wobei der Benutzer in der Lage ist, das zu operierende Subjekt (21) durch das Display (1) zu betrachten, um das computergenerierte Bild zu sehen, welches über ein reales Bild des Subjekts des Bildes gelegt wurde, wobei die Trackingeinheit (7) die Position des Displays (1) überwacht und die überwachte Position des Displays (1) zu der Verarbeitungsvorrichtung überträgt, die angeordnet ist, um das computergenerierte Bild gemäß der Position des Displays (1) zu modifizieren, um das computergenerierte Bild und das reale Bild stereoskopisch in Übereinstimmung zu halten.
  6. System nach einem beliebigen der vorhergehenden Ansprüche, wobei das Display (1) ausgebildet ist, um an einem Mikroskop (3) angebracht zu werden, wobei der Benutzer in der Lage ist, das Mikroskopbild durch das Display (1) zu betrachten, um dadurch das computergenerierte Bild über das Mikroskopbild gelegt zu sehen, wobei die Trackingeinheit (7) die Position des Mikroskops (3) überwacht und die überwachte Position des Mikroskops zu der Verarbeitungsvorrichtung überträgt, die angeordnet ist, um das computergenerierte Bild gemäß der Position des Mikroskops (3) zu modifizieren, um das computergenerierte Bild und das reale Bild stereoskopisch in Übereinstimmung zu halten.
  7. Verfahren zur Verwendung durch einen Benutzer, der mit einem oder mehreren realen Objekten in einem definierten dreidimensionalen Bereich mit Führung durch ein bildgeführtes System interagiert, zum Modifizieren des für den Benutzer durch das bildgeführte System angezeigten Bildes, wobei das System eine Datenverarbeitungsvorrichtung zum Generieren von Bildern der realen Objekte in Koregistrierung mit den realen Objekten, ein Display (1) zum Anzeigen der Bilder für den Benutzer, eine Sonde (9) mit einer Position, die für den Benutzer sichtbar ist, und eine Trackingeinheit (7) zum Verfolgen der Position der Sonde (9) durch das System und Übertragen dieser Position an die Datenverarbeitungsvorrichtung umfasst, wobei das Verfahren umfasst: Bewegen der Sonde (9) zu einem Auswahlbereich, der außerhalb des definierten Bereichs liegt und diesen umgibt, durch den Benutzer, Registrieren der Position der Sonde (9) innerhalb des Auswahlbereichs und daraufhin Generieren einer oder mehrere virtueller Tasten innerhalb des Bildes, wobei jede der Tasten einer entsprechenden Anweisung an das System zugeordnet ist, durch die Datenverarbeitungsvorrichtung, Auswählen einer der Tasten durch den Benutzer, wobei die Auswahl das Positionieren der Sonde (9) in Bezug auf die scheinbare Position jener virtuellen Taste umfasst, und Registrieren der Auswahl und Modifizieren des computergenerierten Bildes basierend auf der entsprechenden Anweisung durch die Datenverarbeitungsvorrichtung.
  8. Verfahren nach Anspruch 7, wobei die Datenverarbeitung Bilder des zu operierenden Subjekts (21) erzeugt, die über das Subjekt gelegt werden.
  9. Verfahren nach Anspruch 7, wobei, während die Datenverarbeitungsvorrichtung die virtuellen Tasten anzeigt, diese ferner eine Linie anzeigt, die sich von der Sonde (9) eine Längsachse dieser entlang erstreckt, wobei das Positionieren der Sonde das Ausrichten der Längsachse der Sonde (9) mit der Taste umfasst.
  10. Verfahren nach einem beliebigen der Ansprüche 7 bis 9, wobei das Display (1) an dem Kopf eines Benutzers angebracht ist, wobei der Benutzer in der Lage ist, das zu operierende Subjekt durch das Display (1) zu betrachten, um dadurch das computergenerierte Bild über das Mikroskopbild gelegt zu sehen, wobei die Trackingeinheit (7) die Position des Displays (1) überwacht und die überwachte Position des Displays (1) zu der Verarbeitungsvorrichtung überträgt, die das computergenerierte Bild gemäß der Position des Displays (1) modifiziert, um das computergenerierte Bild und das reale Bild stereoskopisch in Übereinstimmung zu halten.
  11. Verfahren nach einem beliebigen der Ansprüche 7 bis 9, wobei das Display (1) an einem Mikroskop (3) angebracht ist, wobei der Benutzer in der Lage ist, das Mikroskopbild durch das Display (1) zu betrachten, um dadurch das computergenerierte Bild über das Mikroskopbild gelegt zu sehen, wobei die Trackingeinheit (7) die Position des Mikroskops (3) überwacht und die überwachte Position des Mikroskops zu der Verarbeitungsvorrichtung überträgt, die das computergenerierte Bild gemäß der Position des Mikroskops (3) modifiziert, um das computergenerierte Bild und das reale Bild stereoskopisch in Übereinstimmung zu halten.
DE60130264T 2001-06-13 2001-06-13 Führungssystem Expired - Fee Related DE60130264T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/SG2001/000118 WO2002100284A1 (en) 2001-06-13 2001-06-13 A guide system

Publications (2)

Publication Number Publication Date
DE60130264D1 DE60130264D1 (de) 2007-10-11
DE60130264T2 true DE60130264T2 (de) 2008-05-21

Family

ID=20428952

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60130264T Expired - Fee Related DE60130264T2 (de) 2001-06-13 2001-06-13 Führungssystem

Country Status (9)

Country Link
US (1) US7493153B2 (de)
EP (1) EP1395194B1 (de)
JP (1) JP2005500096A (de)
AT (1) ATE371414T1 (de)
CA (1) CA2486520A1 (de)
DE (1) DE60130264T2 (de)
ES (1) ES2292593T3 (de)
TW (1) TW572749B (de)
WO (1) WO2002100284A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008023468A1 (de) * 2008-05-14 2009-11-19 Siemens Aktiengesellschaft Anordnung und Verfahren zur Bedienung von Geräten
DE102016106993A1 (de) * 2016-04-15 2017-10-19 Carl Zeiss Microscopy Gmbh Steuer- und Konfiguriereinheit sowie Verfahren zum Steuern und Konfigurieren eines Mikroskops

Families Citing this family (243)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US7190331B2 (en) * 2002-06-06 2007-03-13 Siemens Corporate Research, Inc. System and method for measuring the registration accuracy of an augmented reality system
FR2842977A1 (fr) * 2002-07-24 2004-01-30 Total Immersion Procede et systeme permettant a un utilisateur de melanger en temps reel des images de synthese avec des images video
AU2003257321A1 (en) * 2002-08-16 2004-03-03 Orthosoft Inc. Interface apparatus for passive tracking systems and method of use thereof
ES2231035B1 (es) * 2003-10-30 2006-07-01 Frontera Azul Systems, S.L. Sistema y procedimiento de comunicacion basada en realidad virtual.
WO2005045729A1 (de) * 2003-11-10 2005-05-19 Siemens Aktiengesellschaft System und verfahren zur durchführung und visualisierung von simulationen in einer erweiterten realität
US7815644B2 (en) * 2003-12-19 2010-10-19 Masini Michael A Instrumentation and methods for refining image-guided and navigation-based surgical procedures
JP4522129B2 (ja) * 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
US9155373B2 (en) * 2004-08-02 2015-10-13 Invention Science Fund I, Llc Medical overlay mirror
US20060173268A1 (en) * 2005-01-28 2006-08-03 General Electric Company Methods and systems for controlling acquisition of images
US9295379B2 (en) * 2005-04-18 2016-03-29 M.S.T. Medical Surgery Technologies Ltd. Device and methods of improving laparoscopic surgery
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US8179423B2 (en) * 2005-08-22 2012-05-15 Ricoh Company, Ltd. Image display system, an image display method, a coding method, and a printed matter for stereoscopic viewing
JP4794957B2 (ja) 2005-09-14 2011-10-19 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
WO2007046063A2 (en) * 2005-10-21 2007-04-26 Koninklijke Philips Electronics N.V. A method of and a system for interactive probing and annotating medical images using profile flags
US8219178B2 (en) 2007-02-16 2012-07-10 Catholic Healthcare West Method and system for performing invasive medical procedures using a surgical robot
US10893912B2 (en) 2006-02-16 2021-01-19 Globus Medical Inc. Surgical tool systems and methods
US10653497B2 (en) 2006-02-16 2020-05-19 Globus Medical, Inc. Surgical tool systems and methods
US10357184B2 (en) 2012-06-21 2019-07-23 Globus Medical, Inc. Surgical tool systems and method
IL181470A (en) * 2006-02-24 2012-04-30 Visionsense Ltd Method and system for navigation within a flexible organ in the human body
DE102006015349A1 (de) * 2006-04-03 2007-10-11 Siemens Ag Medizinisches Navigations- und Ortungssystem enthaltend ein Bediensystem und Verfahren zur Bedienung
JP4847184B2 (ja) * 2006-04-06 2011-12-28 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
US8314815B2 (en) 2006-04-12 2012-11-20 Nassir Navab Virtual penetrating mirror device for visualizing of virtual objects within an augmented reality environment
WO2007115824A2 (en) * 2006-04-12 2007-10-18 Nassir Navab Virtual penetrating mirror device for visualizing virtual objects in angiographic applications
WO2007128377A1 (en) * 2006-05-04 2007-11-15 Nassir Navab Virtual penetrating mirror device for visualizing virtual objects in endoscopic applications
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
EP1925962A1 (de) * 2006-11-21 2008-05-28 Swiss Medical Technology GmbH Stereo-Video-Mikroskopsystem
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US8401229B2 (en) 2007-09-04 2013-03-19 Objectvideo, Inc. Stationary target detection by exploiting changes in background model
JP5250251B2 (ja) * 2007-12-17 2013-07-31 イマグノーシス株式会社 医用撮影用マーカーおよびその活用プログラム
US9881520B2 (en) * 2008-01-08 2018-01-30 Immersion Medical, Inc. Virtual tool manipulation system
DE102008027832A1 (de) * 2008-06-11 2009-12-17 Vrmagic Gmbh Ophthalmoskop-Simulator
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
WO2010009915A1 (de) * 2008-07-21 2010-01-28 Siemens Aktiengesellschaft Verfahren und vorrichtung zum steuern eines systems
US8624836B1 (en) * 2008-10-24 2014-01-07 Google Inc. Gesture-based small device input
US20100240988A1 (en) * 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360 degree heads up display of safety/mission critical data
JP5476036B2 (ja) * 2009-04-30 2014-04-23 国立大学法人大阪大学 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法
US8876830B2 (en) 2009-08-13 2014-11-04 Zimmer, Inc. Virtual implant placement in the OR
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
DE102009058802B4 (de) 2009-12-18 2018-03-29 Airbus Operations Gmbh Anordnung zur kombinierten Darstellung eines realen und eines virtuellen Modells
US20110257482A1 (en) * 2010-04-16 2011-10-20 Brannon James K Laser Beam Collimation Apparatus
JP5704833B2 (ja) * 2010-05-10 2015-04-22 オリンパス株式会社 操作入力装置およびマニピュレータシステム
JP5675236B2 (ja) * 2010-09-10 2015-02-25 オリンパス株式会社 マニピュレータシステムの制御装置、マニピュレータシステム、及びマニピュレータシステムの制御方法
JP5597087B2 (ja) * 2010-10-04 2014-10-01 パナソニック株式会社 仮想物体操作装置
US8698843B2 (en) 2010-11-02 2014-04-15 Google Inc. Range of focus in an augmented reality application
CN103491867B (zh) * 2010-11-02 2016-01-20 科维蒂恩有限合伙公司 用于取向灵敏的显示装置的像观察应用和方法
US8890896B1 (en) 2010-11-02 2014-11-18 Google Inc. Image recognition in an augmented reality application
US9529424B2 (en) 2010-11-05 2016-12-27 Microsoft Technology Licensing, Llc Augmented reality with direct user interaction
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
WO2012095664A1 (en) * 2011-01-14 2012-07-19 Bae Systems Plc An apparatus for presenting an image and a method of presenting the image
EP2477059A1 (de) * 2011-01-14 2012-07-18 BAE Systems PLC Vorrichtung zur Darstellung eines Bildes und Verfahren zur Darstellung eines Bildes
KR101181366B1 (ko) * 2011-02-21 2012-09-17 한양대학교 산학협력단 수술 환부의 실시간 그래픽 표현 방법
EP2691946A4 (de) 2011-03-30 2015-09-23 Mordechai Avisar Verfahren und system zur simulation chirurgischer eingriffe
US9308050B2 (en) 2011-04-01 2016-04-12 Ecole Polytechnique Federale De Lausanne (Epfl) Robotic system and method for spinal and other surgeries
US8932063B2 (en) * 2011-04-15 2015-01-13 Ams Research Corporation BPH laser ablation simulation
JP5800616B2 (ja) * 2011-07-15 2015-10-28 オリンパス株式会社 マニピュレータシステム
US9886552B2 (en) * 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US9153195B2 (en) 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
WO2013028908A1 (en) 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
US20130257692A1 (en) 2012-04-02 2013-10-03 Atheer, Inc. Method and apparatus for ego-centric 3d human computer interface
US9020203B2 (en) 2012-05-21 2015-04-28 Vipaar, Llc System and method for managing spatiotemporal uncertainty
CN104271066B (zh) 2012-05-25 2017-10-24 外科手术室公司 具有不用手的控制的混合图像/场景再现器
US11793570B2 (en) 2012-06-21 2023-10-24 Globus Medical Inc. Surgical robotic automation with tracking markers
US11896446B2 (en) 2012-06-21 2024-02-13 Globus Medical, Inc Surgical robotic automation with tracking markers
US10842461B2 (en) 2012-06-21 2020-11-24 Globus Medical, Inc. Systems and methods of checking registrations for surgical systems
US11963755B2 (en) 2012-06-21 2024-04-23 Globus Medical Inc. Apparatus for recording probe movement
US11253327B2 (en) 2012-06-21 2022-02-22 Globus Medical, Inc. Systems and methods for automatically changing an end-effector on a surgical robot
US10874466B2 (en) 2012-06-21 2020-12-29 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US11589771B2 (en) 2012-06-21 2023-02-28 Globus Medical Inc. Method for recording probe movement and determining an extent of matter removed
US11974822B2 (en) 2012-06-21 2024-05-07 Globus Medical Inc. Method for a surveillance marker in robotic-assisted surgery
WO2013192598A1 (en) 2012-06-21 2013-12-27 Excelsius Surgical, L.L.C. Surgical robot platform
US11399900B2 (en) 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
US10231791B2 (en) 2012-06-21 2019-03-19 Globus Medical, Inc. Infrared signal based position recognition system for use with a robot-assisted surgery
US11395706B2 (en) 2012-06-21 2022-07-26 Globus Medical Inc. Surgical robot platform
US10646280B2 (en) 2012-06-21 2020-05-12 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US11045267B2 (en) 2012-06-21 2021-06-29 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11786324B2 (en) 2012-06-21 2023-10-17 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11298196B2 (en) 2012-06-21 2022-04-12 Globus Medical Inc. Surgical robotic automation with tracking markers and controlled tool advancement
US10799298B2 (en) 2012-06-21 2020-10-13 Globus Medical Inc. Robotic fluoroscopic navigation
US12004905B2 (en) 2012-06-21 2024-06-11 Globus Medical, Inc. Medical imaging systems using robotic actuators and related methods
US10350013B2 (en) 2012-06-21 2019-07-16 Globus Medical, Inc. Surgical tool systems and methods
US10136954B2 (en) 2012-06-21 2018-11-27 Globus Medical, Inc. Surgical tool systems and method
US11857266B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. System for a surveillance marker in robotic-assisted surgery
US11607149B2 (en) 2012-06-21 2023-03-21 Globus Medical Inc. Surgical tool systems and method
US11857149B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring and related methods
US10624710B2 (en) 2012-06-21 2020-04-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
US11864745B2 (en) 2012-06-21 2024-01-09 Globus Medical, Inc. Surgical robotic system with retractor
US11116576B2 (en) 2012-06-21 2021-09-14 Globus Medical Inc. Dynamic reference arrays and methods of use
US11317971B2 (en) 2012-06-21 2022-05-03 Globus Medical, Inc. Systems and methods related to robotic guidance in surgery
US10758315B2 (en) 2012-06-21 2020-09-01 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
US11864839B2 (en) 2012-06-21 2024-01-09 Globus Medical Inc. Methods of adjusting a virtual implant and related surgical navigation systems
IL221863A (en) * 2012-09-10 2014-01-30 Elbit Systems Ltd Digital video photography system when analyzing and displaying
US10241638B2 (en) 2012-11-02 2019-03-26 Atheer, Inc. Method and apparatus for a three dimensional interface
US9437036B2 (en) * 2012-12-04 2016-09-06 Samsung Medison Co., Ltd. Medical system, medical imaging apparatus, and method of providing three-dimensional marker
US9710968B2 (en) 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
TWI586327B (zh) * 2012-12-27 2017-06-11 Metal Ind Research&Development Centre Image projection system
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
CA2902550A1 (en) * 2013-02-26 2014-09-04 Butterfly Network, Inc. Transmissive imaging and related apparatus and methods
DE102013107041A1 (de) * 2013-04-18 2014-10-23 Carl Gustav Carus Management Gmbh Ultraschallsystem und Verfahren zur Kommunikation zwischen einem Ultraschallgerät und einer bidirektionalen Datenbrille
CN104224320B (zh) * 2013-06-19 2016-08-10 上海优益基医疗器械有限公司 一种基于手术导航的无线面配准工具及其实现方法
US9940750B2 (en) 2013-06-27 2018-04-10 Help Lighting, Inc. System and method for role negotiation in multi-reality environments
KR102097705B1 (ko) * 2013-09-10 2020-04-07 삼성디스플레이 주식회사 디스플레이 장치, 디스플레이 시스템 및 그 제어 방법
JP5851469B2 (ja) * 2013-09-26 2016-02-03 株式会社東芝 医用画像観察システム、及び医用画像観察装置
US9283048B2 (en) 2013-10-04 2016-03-15 KB Medical SA Apparatus and systems for precise guidance of surgical tools
WO2015061793A1 (en) * 2013-10-25 2015-04-30 The University Of Akron Multipurpose imaging and display system
JP2015100437A (ja) * 2013-11-22 2015-06-04 京セラメディカル株式会社 外科手術用ナビゲーションシステム
JP5611441B1 (ja) * 2013-11-29 2014-10-22 スキルアップジャパン株式会社 顕微鏡用映像処理装置、および医療用顕微鏡システム
US9558592B2 (en) * 2013-12-31 2017-01-31 Daqri, Llc Visualization of physical interactions in augmented reality
US9626801B2 (en) 2013-12-31 2017-04-18 Daqri, Llc Visualization of physical characteristics in augmented reality
WO2015107099A1 (en) 2014-01-15 2015-07-23 KB Medical SA Notched apparatus for guidance of an insertable instrument along an axis during spinal surgery
SG11201609827QA (en) * 2014-01-29 2016-12-29 Becton Dickinson Co Wearable electronic device for enhancing visualization during insertion of an invasive device
EP3104803B1 (de) 2014-02-11 2021-09-15 KB Medical SA Steriler griff zur kontrolle eines robotischen chirurgiesystems aus einem sterilen feld
WO2015126466A1 (en) * 2014-02-21 2015-08-27 The University Of Akron Imaging and display system for guiding medical interventions
US11547499B2 (en) 2014-04-04 2023-01-10 Surgical Theater, Inc. Dynamic and interactive navigation in a surgical environment
CN106659537B (zh) 2014-04-24 2019-06-11 Kb医疗公司 结合机器人手术***使用的手术器械固持器
EP3157446B1 (de) 2014-06-19 2018-08-15 KB Medical SA Systeme zur durchführung minimal invasiver chirurgischer eingriffe
WO2016008880A1 (en) 2014-07-14 2016-01-21 KB Medical SA Anti-skid surgical instrument for use in preparing holes in bone tissue
US10765438B2 (en) 2014-07-14 2020-09-08 KB Medical SA Anti-skid surgical instrument for use in preparing holes in bone tissue
US11103316B2 (en) 2014-12-02 2021-08-31 Globus Medical Inc. Robot assisted volume removal during surgery
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US20180020992A1 (en) * 2015-02-16 2018-01-25 Dimensions And Shapes, Llc Systems and methods for medical visualization
WO2016131903A1 (en) 2015-02-18 2016-08-25 KB Medical SA Systems and methods for performing minimally invasive spinal surgery with a robotic surgical system using a percutaneous technique
DE102015002729A1 (de) * 2015-02-27 2016-09-01 Carl Zeiss Meditec Ag Ophthalmologische Lasertherapievorrichtung und Verfahren zur Erzeugung cornealer Zugangsschnitte
EP3069679A1 (de) * 2015-03-18 2016-09-21 Metronor AS System zur präzisionsführung von chirurgischen eingriffen an einem patienten
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US20160287337A1 (en) * 2015-03-31 2016-10-06 Luke J. Aram Orthopaedic surgical system and method for patient-specific surgical procedure
US20160331584A1 (en) * 2015-05-14 2016-11-17 Novartis Ag Surgical tool tracking to control surgical system
US10409443B2 (en) * 2015-06-24 2019-09-10 Microsoft Technology Licensing, Llc Contextual cursor display based on hand tracking
CN106344152B (zh) * 2015-07-13 2020-04-28 中国科学院深圳先进技术研究院 腹部外科手术导航配准方法及***
US10646298B2 (en) 2015-07-31 2020-05-12 Globus Medical, Inc. Robot arm and methods of use
US10058394B2 (en) 2015-07-31 2018-08-28 Globus Medical, Inc. Robot arm and methods of use
US10080615B2 (en) 2015-08-12 2018-09-25 Globus Medical, Inc. Devices and methods for temporary mounting of parts to bone
EP3344179B1 (de) 2015-08-31 2021-06-30 KB Medical SA Robotische chirurgische systeme
US10034716B2 (en) 2015-09-14 2018-07-31 Globus Medical, Inc. Surgical robotic systems and methods thereof
US9771092B2 (en) 2015-10-13 2017-09-26 Globus Medical, Inc. Stabilizer wheel assembly and methods of use
WO2017066373A1 (en) 2015-10-14 2017-04-20 Surgical Theater LLC Augmented reality surgical navigation
ITUB20155830A1 (it) 2015-11-23 2017-05-23 R A W Srl "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
US11386556B2 (en) 2015-12-18 2022-07-12 Orthogrid Systems Holdings, Llc Deformed grid based intra-operative system and method of use
US10052170B2 (en) 2015-12-18 2018-08-21 MediLux Capitol Holdings, S.A.R.L. Mixed reality imaging system, apparatus and surgical suite
US11058378B2 (en) 2016-02-03 2021-07-13 Globus Medical, Inc. Portable medical imaging system
US10448910B2 (en) 2016-02-03 2019-10-22 Globus Medical, Inc. Portable medical imaging system
US10842453B2 (en) 2016-02-03 2020-11-24 Globus Medical, Inc. Portable medical imaging system
US11883217B2 (en) 2016-02-03 2024-01-30 Globus Medical, Inc. Portable medical imaging system and method
US10117632B2 (en) 2016-02-03 2018-11-06 Globus Medical, Inc. Portable medical imaging system with beam scanning collimator
US10866119B2 (en) 2016-03-14 2020-12-15 Globus Medical, Inc. Metal detector for detecting insertion of a surgical device into a hollow tube
EP3241518A3 (de) 2016-04-11 2018-01-24 Globus Medical, Inc Systeme und verfahren für chirurgische werkzeuge
JP2017191546A (ja) * 2016-04-15 2017-10-19 ミラマ サービス インク 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
CN105938665A (zh) * 2016-06-22 2016-09-14 扬州立兴科技发展合伙企业(有限合伙) 一种远程音视频手术示教***
JP6063599B1 (ja) * 2016-08-01 2017-01-18 林 俊輔 インプラント手術補助システムおよびインプラント手術補助方法
EP3285107B2 (de) * 2016-08-16 2024-02-28 Leica Instruments (Singapore) Pte. Ltd. Chirurgisches mikroskop mit gestensteuerung und verfahren für eine gestensteuerung eines chirurgischen mikroskops
US10973585B2 (en) 2016-09-21 2021-04-13 Alcon Inc. Systems and methods for tracking the orientation of surgical tools
US11839433B2 (en) * 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
US11039893B2 (en) 2016-10-21 2021-06-22 Globus Medical, Inc. Robotic surgical systems
EP3360502A3 (de) 2017-01-18 2018-10-31 KB Medical SA Robotische navigation von robotischen chirurgischen systemen
EP3351202B1 (de) 2017-01-18 2021-09-08 KB Medical SA Universelle instrumentenführung für chirurgische robotersysteme
JP2018114280A (ja) 2017-01-18 2018-07-26 ケービー メディカル エスアー ロボット外科用システムのための汎用器具ガイド、外科用器具システム、及びそれらの使用方法
US11460915B2 (en) * 2017-03-10 2022-10-04 Brainlab Ag Medical augmented reality navigation
US11071594B2 (en) 2017-03-16 2021-07-27 KB Medical SA Robotic navigation of robotic surgical systems
US9892564B1 (en) * 2017-03-30 2018-02-13 Novarad Corporation Augmenting real-time views of a patient with three-dimensional data
DE102017107489B3 (de) * 2017-04-07 2018-07-05 Carl Zeiss Microscopy Gmbh Mikroskopanordnung zur Aufnahme und Darstellung dreidimensionaler Bilder einer Probe
US11135015B2 (en) 2017-07-21 2021-10-05 Globus Medical, Inc. Robot surgical platform
US10861236B2 (en) 2017-09-08 2020-12-08 Surgical Theater, Inc. Dual mode augmented reality surgical system and method
JP6778242B2 (ja) 2017-11-09 2020-10-28 グローバス メディカル インコーポレイティッド 手術用ロッドを曲げるための手術用ロボットシステム、および関連する方法および装置
US11357548B2 (en) 2017-11-09 2022-06-14 Globus Medical, Inc. Robotic rod benders and related mechanical and motor housings
US11794338B2 (en) 2017-11-09 2023-10-24 Globus Medical Inc. Robotic rod benders and related mechanical and motor housings
US11134862B2 (en) 2017-11-10 2021-10-05 Globus Medical, Inc. Methods of selecting surgical implants and related devices
TWI642404B (zh) * 2017-12-06 2018-12-01 奇美醫療財團法人奇美醫院 Bone surgery navigation system and image navigation method for bone surgery
US20190175059A1 (en) 2017-12-07 2019-06-13 Medtronic Xomed, Inc. System and Method for Assisting Visualization During a Procedure
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
CN108536288A (zh) * 2018-03-27 2018-09-14 网易(杭州)网络有限公司 虚拟现实中交互操作的处理方法和装置
US10573023B2 (en) 2018-04-09 2020-02-25 Globus Medical, Inc. Predictive visualization of medical imaging scanner component movement
US11980507B2 (en) 2018-05-02 2024-05-14 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
GB2589458B (en) 2018-05-18 2022-08-24 Marion Surgical Inc A virtual reality surgical system including a surgical tool assembly with haptic feedback
WO2019245861A2 (en) 2018-06-19 2019-12-26 Tornier, Inc. Mixed reality-aided depth tracking in orthopedic surgical procedures
CN109003269B (zh) * 2018-07-19 2021-10-08 哈尔滨工业大学 一种能提高医生效率的医学影像病灶的标注提取方法
EP3852645A4 (de) 2018-09-12 2022-08-24 Orthogrid Systems, SAS Intraoperatives chirurgisches führungssystem mit künstlicher intelligenz und verwendungsverfahren
US11540794B2 (en) 2018-09-12 2023-01-03 Orthogrid Systesm Holdings, LLC Artificial intelligence intra-operative surgical guidance system and method of use
CN118200431A (zh) * 2018-09-21 2024-06-14 Lg电子株式会社 移动终端及其控制方法
US11337742B2 (en) 2018-11-05 2022-05-24 Globus Medical Inc Compliant orthopedic driver
US11278360B2 (en) 2018-11-16 2022-03-22 Globus Medical, Inc. End-effectors for surgical robotic systems having sealed optical components
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US10939977B2 (en) 2018-11-26 2021-03-09 Augmedics Ltd. Positioning marker
US11744655B2 (en) 2018-12-04 2023-09-05 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11602402B2 (en) 2018-12-04 2023-03-14 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11918313B2 (en) 2019-03-15 2024-03-05 Globus Medical Inc. Active end effectors for surgical robots
US11571265B2 (en) 2019-03-22 2023-02-07 Globus Medical Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11419616B2 (en) 2019-03-22 2022-08-23 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US20200297357A1 (en) 2019-03-22 2020-09-24 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11806084B2 (en) 2019-03-22 2023-11-07 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11382549B2 (en) 2019-03-22 2022-07-12 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11317978B2 (en) 2019-03-22 2022-05-03 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
WO2020205714A1 (en) * 2019-03-29 2020-10-08 Eagle View Imaging,Inc. Surgical planning, surgical navigation and imaging system
US11045179B2 (en) 2019-05-20 2021-06-29 Global Medical Inc Robot-mounted retractor system
US11628023B2 (en) 2019-07-10 2023-04-18 Globus Medical, Inc. Robotic navigational system for interbody implants
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11571171B2 (en) 2019-09-24 2023-02-07 Globus Medical, Inc. Compound curve cable chain
US11890066B2 (en) 2019-09-30 2024-02-06 Globus Medical, Inc Surgical robot with passive end effector
US11426178B2 (en) 2019-09-27 2022-08-30 Globus Medical Inc. Systems and methods for navigating a pin guide driver
US11864857B2 (en) 2019-09-27 2024-01-09 Globus Medical, Inc. Surgical robot with passive end effector
US11510684B2 (en) 2019-10-14 2022-11-29 Globus Medical, Inc. Rotary motion passive end effector for surgical robots in orthopedic surgeries
EP3809094B1 (de) * 2019-10-18 2024-04-17 Carl Zeiss Industrielle Messtechnik GmbH Verfahren und anordnung zum visualisieren von sensorsignalen eines optischen sensors eines koordinatenmessgeräts sowie verfahren und anordnung zum visualisieren eines sensors eines koordinatenmessgeräts
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11167140B2 (en) 2020-01-24 2021-11-09 Medtronic Xomed, Inc. System and method for therapy
US11167127B2 (en) 2020-01-24 2021-11-09 Medtronic Xomed, Inc. System and method for therapy
US11666755B2 (en) 2020-01-24 2023-06-06 Medtronic Xomed, Inc. System and method for therapy
US11623086B2 (en) 2020-01-24 2023-04-11 Medtronic Xomed, Inc. System and method for therapy
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) * 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11217020B2 (en) 2020-03-16 2022-01-04 Snap Inc. 3D cutout image modification
US11253216B2 (en) 2020-04-28 2022-02-22 Globus Medical Inc. Fixtures for fluoroscopic imaging systems and related navigation systems and methods
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11317973B2 (en) 2020-06-09 2022-05-03 Globus Medical, Inc. Camera tracking bar for computer assisted navigation during surgery
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
US11382713B2 (en) 2020-06-16 2022-07-12 Globus Medical, Inc. Navigated surgical system with eye to XR headset display calibration
US11877807B2 (en) 2020-07-10 2024-01-23 Globus Medical, Inc Instruments for navigated orthopedic surgeries
US11793588B2 (en) 2020-07-23 2023-10-24 Globus Medical, Inc. Sterile draping of robotic arms
CN111991080A (zh) * 2020-08-26 2020-11-27 南京哈雷智能科技有限公司 一种手术入口的确定方法和***
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
US11523785B2 (en) 2020-09-24 2022-12-13 Globus Medical, Inc. Increased cone beam computed tomography volume length without requiring stitching or longitudinal C-arm movement
US11911112B2 (en) 2020-10-27 2024-02-27 Globus Medical, Inc. Robotic navigational system
US11941814B2 (en) 2020-11-04 2024-03-26 Globus Medical Inc. Auto segmentation using 2-D images taken during 3-D imaging spin
US11717350B2 (en) 2020-11-24 2023-08-08 Globus Medical Inc. Methods for robotic assistance and navigation in spinal surgery and related systems
WO2022201736A1 (ja) * 2021-03-25 2022-09-29 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
US11857273B2 (en) 2021-07-06 2024-01-02 Globus Medical, Inc. Ultrasonic robotic surgical navigation
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
US11439444B1 (en) 2021-07-22 2022-09-13 Globus Medical, Inc. Screw tower and rod reduction tool
US12020358B2 (en) 2021-10-29 2024-06-25 Snap Inc. Animated custom sticker creation
US11995757B2 (en) 2021-10-29 2024-05-28 Snap Inc. Customized animation from video
US11918304B2 (en) 2021-12-20 2024-03-05 Globus Medical, Inc Flat panel registration fixture and method of using same

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5662111A (en) * 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation
US5394202A (en) * 1993-01-14 1995-02-28 Sun Microsystems, Inc. Method and apparatus for generating high resolution 3D images in a head tracked stereo display system
JP3409415B2 (ja) * 1994-01-24 2003-05-26 株式会社島津製作所 手術器具の位置表示装置
JP3744974B2 (ja) * 1995-07-20 2006-02-15 オリンパス株式会社 内視鏡下外科手術装置
US5729475A (en) * 1995-12-27 1998-03-17 Romanik, Jr.; Carl J. Optical system for accurate monitoring of the position and orientation of an object
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
JPH11197159A (ja) * 1998-01-13 1999-07-27 Hitachi Ltd 手術支援システム
SG77682A1 (en) * 1998-05-21 2001-01-16 Univ Singapore A display system
EP1115328A4 (de) * 1998-09-24 2004-11-10 Super Dimension Ltd Vorrichtung und verfahren zur bestimmung des ortes eines katheters während eines intrakorporalen medizinischen verfahrens
JP2001066511A (ja) * 1999-08-31 2001-03-16 Asahi Optical Co Ltd 顕微鏡
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
CA2486525C (en) * 2001-06-13 2009-02-24 Volume Interactions Pte. Ltd. A guide system and a probe therefor
US7491198B2 (en) * 2003-04-28 2009-02-17 Bracco Imaging S.P.A. Computer enhanced surgical navigation imaging system (camera probe)
US20060020204A1 (en) * 2004-07-01 2006-01-26 Bracco Imaging, S.P.A. System and method for three-dimensional space management and visualization of ultrasound data ("SonoDEX")

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008023468A1 (de) * 2008-05-14 2009-11-19 Siemens Aktiengesellschaft Anordnung und Verfahren zur Bedienung von Geräten
DE102016106993A1 (de) * 2016-04-15 2017-10-19 Carl Zeiss Microscopy Gmbh Steuer- und Konfiguriereinheit sowie Verfahren zum Steuern und Konfigurieren eines Mikroskops
WO2017178313A1 (de) 2016-04-15 2017-10-19 Carl Zeiss Microscopy Gmbh Steuer- und konfiguriereinheit sowie verfahren zum steuern und konfigurieren eines mikroskops

Also Published As

Publication number Publication date
WO2002100284A1 (en) 2002-12-19
ES2292593T3 (es) 2008-03-16
US20050203367A1 (en) 2005-09-15
US7493153B2 (en) 2009-02-17
JP2005500096A (ja) 2005-01-06
CA2486520A1 (en) 2002-12-19
ATE371414T1 (de) 2007-09-15
DE60130264D1 (de) 2007-10-11
TW572749B (en) 2004-01-21
EP1395194A1 (de) 2004-03-10
EP1395194B1 (de) 2007-08-29

Similar Documents

Publication Publication Date Title
DE60130264T2 (de) Führungssystem
CA2486525C (en) A guide system and a probe therefor
US5526812A (en) Display system for enhancing visualization of body structures during medical procedures
EP0685088B1 (de) Verfahren und vorrichtung zur planung und kontrolle eines chirurgischen eingriffs
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
DE69821072T2 (de) Echtzeit bildgesteuerte Positionierung von Verankerungseinheiten
CN109512514A (zh) 一种混合现实骨科微创手术导航***及使用方法
WO1998038908A1 (en) Imaging device and method
CA2523727A1 (en) Surgical navigation imaging system
DE102007054450A1 (de) Vorrichtung zur Bereitstellung von Bildern für einen Operateur
CN110169821B (zh) 一种图像处理方法、装置及***
DE102017108551A1 (de) Kopftragbare Darstellungsvorrichtung, Verfahren zum Betreiben derselben und medizinisch optisches Beobachtungssystem
Serra et al. The Brain Bench: virtual tools for stereotactic frame neurosurgery
WO2022171537A1 (de) Chirurgisches assistenzsystem und darstellungsverfahren
JPH07136175A (ja) 実時間医用装置および方法
Suthau et al. A concept work for Augmented Reality visualisation based on a medical application in liver surgery
DE19542605A1 (de) Anzeigesystem zur Verbesserung der Darstellung von Körperstrukturen während medizinischer Verfahren
Vogt et al. An AR system with intuitive user interface for manipulation and visualization of 3D medical data
Bichlmeier et al. Virtual window for improved depth perception in medical AR
Thoranaghatte et al. Landmark‐based augmented reality system for paranasal and transnasal endoscopic surgeries
Guan et al. Volume-based tumor neurosurgery planning in the Virtual Workbench
DE102020215559A1 (de) Verfahren zum Betreiben eines Visualisierungssystems bei einer chirurgischen Anwendung und Visualisierungssystem für eine chirurgische Anwendung
Raposio et al. An “augmented-reality” aid for plastic and reconstructive surgeons
Haase Neurosurgical tools and techniques-Modern image-guided surgery
Hawkes Virtual Reality and Augmented Reality in Medicine

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee