DE102016117263A1 - Optisches Beobachtungsgerätsystem - Google Patents

Optisches Beobachtungsgerätsystem Download PDF

Info

Publication number
DE102016117263A1
DE102016117263A1 DE102016117263.4A DE102016117263A DE102016117263A1 DE 102016117263 A1 DE102016117263 A1 DE 102016117263A1 DE 102016117263 A DE102016117263 A DE 102016117263A DE 102016117263 A1 DE102016117263 A1 DE 102016117263A1
Authority
DE
Germany
Prior art keywords
depth
image data
image
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102016117263.4A
Other languages
English (en)
Other versions
DE102016117263B4 (de
Inventor
Roland Guckler
Stefan Saur
Gerald Panitz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Meditec AG
Original Assignee
Carl Zeiss Meditec AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Meditec AG filed Critical Carl Zeiss Meditec AG
Priority to DE102016117263.4A priority Critical patent/DE102016117263B4/de
Publication of DE102016117263A1 publication Critical patent/DE102016117263A1/de
Application granted granted Critical
Publication of DE102016117263B4 publication Critical patent/DE102016117263B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • G02B21/20Binocular arrangements
    • G02B21/22Stereoscopic arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

Es werden ein optisches Beobachtungsgerätsystem und ein Darstellungsverfahren zu Verfügung gestellt, in dem – mittels eines optischen Beobachtungsgeräts (2) ein Bildes eines Beobachtungsbereiches (1) mit einem interessierenden Objekt (6) und das Bild repräsentierenden Bilddaten erzeugt werden, – mittels einer Topografie-Erfassungseinheit (60) aktuelle, den Bilddaten zugeordnete Topografiedaten des Beobachtungsbereiches (1) erfasst werden, – mittels einer Registrierungseinheit (61) die Bilddaten und von der Registrierungseinheit (61) empfangene Tiefenbilddaten des interessierenden Objekts (6) im Beobachtungsbereich (1) miteinander registriert werden und entsprechende Registrierungsdaten generiert werden, – mittels einer Auswertungseinheit (62) anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts (6) von der Oberfläche des Beobachtungsbereiches (1) ermittelt werden, – mittels einer Visualisierungseinheit (64), ein Visualisierungsbild generiert wird, in dem die empfangenen Abstände dargestellt sind, und – das Visualisierungsbild mittels einer Anzeigeeinheit (60) angezeigt wird.

Description

  • Die vorliegende Erfindung betrifft ein Optisches Beobachtungsgerätsystem, beispielsweise ein Operationsmikroskop-System, und insbesondere ein Operationsmikroskop-System für neurochirurgische Anwendungen. Die Erfindung betrifft weiterhin ein Darstellungsverfahren zum Darstellen von Tiefeninformationen, beispielsweise in einem Operationsmikroskop, insbesondere in einem Operationsmikroskop für neurochirurgische Anwendungen.
  • Eine Tumorresektion mittels Operationsmikroskop stellt eine generelle Herausforderung in der Chirurgie dar. Insbesondere bei der Resektion in funktionalen Gebieten muss die exakte dreidimensionale Morphologie des Tumors für den Chirurgen bekannt sein, um eine möglichst exakte Schnittgrenze zwischen funktionalem Gewebe und malignem Gewebe während einer Intervention wählen zu können.
  • Mit aktuell verfügbaren Navigationslösungen wird der Tumorrand, welcher basierend auf prä-operativen Daten berechnet wird, beispielsweise aus MRI-Untersuchungen, nur für die aktuelle Fokusebene bzw. Fokusschicht bzw. einzelne benachbarte Schichten durch das Okular im Operationsmikroskop angezeigt.
  • Für eine bessere Darstellung und Erkennung der dreidimensionalen Tumormorphologie muss der Chirurg eine entsprechende Morphologie entweder aus dem Gedächtnis abrufen oder er muss während der Intervention seinen gewohnten Blick durch das Okular des Operationsmikroskops aufgeben, um eine externe Visualisierungseinheit zu betrachten. Sowohl die vorab gelernte Morphologie als auch der kurzzeitige Blick an eine externe Visualisierungseinheit stellen Risiken für den Patienten dar, da der Operationsfluss unterbrochen wird.
  • Aus US 2001/0027272 A1 ist eine Navigationsvorrichtung zum Navigieren der Spitze eines Endoskops in Richtung auf ein Zielobjekt bekannt. Hierbei kann auf einem Monitorbild das Zielobjekt mit navigationsbezogenen Informationen markiert werden, wobei die navigationsbezogenen Informationen in Form eines Drahtmodels einem auf einem Display dargestellten Bild des Operationsbereichs überlagert werden. Wenn das Endoskop seinen Zielort erreicht, kann das Drahtmodell durch ein topographisches Abbild auf der Basis der dreidimensionalen Daten ersetzt werden. Statt des Drahtmodels können jedoch auch Konturlinien oder dergleichen Verwendung finden.
  • Aus WO 03/105709 A1 ist ein Navigationssystem bekannt, welches die Möglichkeit bietet, präoperative diagnostische Daten dem optischen Bild eines Operationsmikroskops zu überlagern.
  • Aus WO 95/25979 A1 ist ein Operationsmikroskop bekannt, mit dem registrierte Bilddaten einem Operationsfeldbild überlagert werden können. Dabei soll es möglich sein, eine Ebene, beispielsweise die Fokusebene, auszuwählen und die Bilddaten innerhalb dieser Ebene und auf der anderen Seite dieser Ebene zu visualisieren.
  • Aus DE 10 2005 050 918 A1 ist eine Vorrichtung zur Überwachung mikrochirurgischer Eingriffe mit einem Operationsmikroskop bekannt. Mittels einer Bilddarstellungseinheit werden 3D-Bilddaten und das mit dem Operationsmikroskop gewonnene Bild vollständig oder in Teilen nebeneinander oder einander lagerichtig überlagert visualisiert.
  • Aus DE 10 2011 085 176 A1 ist ein Verfahren zum Erzeugen eines Angiogramms zu Gefäßen bekannt, in dem ein 3D-Bilddatensatz zu den Gefäßen ermittelt wird, mittels einer Kamera ein 2D-Bilddatensatz ermittelt wird und der 3D-Bilddatensatz dem 2D-Bilddatensatz lage- und dimensionsrichtig überlagert wird.
  • Es ist Aufgabe der vorliegenden Erfindung ein vorteilhaftes optisches Beobachtungsgerätsystem und ein vorteilhaftes Darstellungsverfahren zum Darstellen von Tiefeninformationen zur Verfügung zu stellen.
  • Die oben genannte Aufgabe der vorliegenden Erfindung wird durch ein optisches Beobachtungsgerätsystem nach Patentanspruch 1 und durch ein Darstellungsverfahren nach Patentanspruch 9 gelöst. Die abhängigen Ansprüche enthalten weitere, vorteilhafte Ausgestaltungen der Erfindung.
  • Ein erfindungsgemäßes optisches Beobachtungsgerätsystem umfasst:
    • – Ein optisches Beobachtungsgerät zum Erzeugen eines Bildes eines Beobachtungsbereiches mit einem interessierenden Objekt und von das Bild repräsentierenden Bilddaten.
    • – Eine Schnittstellenanordnung mit einem Datenausgang zum Ausgeben der Bilddaten an eine Registrierungseinheit, welche Registrierungsdaten generiert, die eine Registrierung von Tiefenbilddaten mit den Bilddaten repräsentieren.
  • Als Tiefenbilddaten kommen bspw. mittels Magnetresonanztomografie (MRT), Computertomografie (CT), Positronen-Emissions-Tomografie (PET) oder anderer Tomografieverfahren gewonnene 3D-Bilder des interessierenden Objekts oder aus solchen 3D-Bildern für das interessierende Objekt gewonnene Tiefendaten in Betracht.
  • Die Registrierungseinheit kann Teil des optischen Beobachtungsgerätesystems sein, oder sie kann eine externe Registrierungseinheit sein, bspw. als Teil eines externen Navigationssystems. Sie ist zum Empfang des mit dem optischen Beobachtungsgerät erzeugten Bildes mit dem Datenausgang verbunden und dazu ausgebildet, die Tiefenbilddaten und das mit dem optischen Beobachtungsgerät erzeugte Bild miteinander zu registrieren und entsprechende Registrierungsdaten auszugeben. Im Rahmen einer Bildregistrierung wird eines der zu registrierenden Bilder als Referenzbild herangezogen und das andere Bild mittels einer Transformation in seiner Position und Orientierung (rigide Transformation) und/oder in seiner Skalierung (nicht-rigide Transformation) derart an das Referenzbild angepasst, dass eine bestmögliche Übereinstimmung der Bildinhalte erreicht wird. Auch wenn Bewegungen des interessierenden Objekts oder innerhalb des interessierenden Objekts vorkommen können (wie beispielsweise der sog. Brainshift, falls es sich bei dem interessierenden Objekt um einen Gehirnabschnitt handelt) ist es vorteilhaft, die Registrierung anhand einer nicht-rigiden Transformation vorzunehmen. Beispielsweise können für die Berücksichtigung des Brainshifts Markierungselemente (sog. Fiducial Markers) auf den betreffenden Gehirnabschnitt aufgebracht werden, die sowohl in den Tiefenbilddaten als auch in den Bilddaten abgebildet sind. Im Rahmen einer nicht rigiden Registrierung können die in den Tiefenbilddaten abgebildeten Markierungselemente dann mit den in den Bilddaten abgebildeten Markierungselementen zur Deckung gebracht werden.
  • Außerdem umfasst die Schnittstellenanordnung einen Dateneingang zum Empfang der Tiefenbilddaten des interessierenden Objekts, zum Empfang von den Bilddaten zugeordneten Topografiedaten von einer Topografie-Erfassungseinheit sowie zum Empfang der Registrierungsdaten von der Registrierungseinheit. Der Dateneingang kann dabei durch einen einzigen, zum Empfang all der genannten Daten genutzten Dateneingang realisiert sein oder durch getrennte Dateneingänge, wobei jeder Dateneingang nur bestimmte der genannten Daten empfängt.
  • Die Topografie-Erfassungseinheit kann Teil des optischen Beobachtungsgerätesystems sein oder als ein externes Gerät ausgeführt sein. Sie kann bspw. einen stereoskopischen Sensor und/oder einen Laserscanner und/oder einen Sensor zur Laufzeitmessung von Lichtpulsen, etwa eine Time-of-Flight-Kamera (TOF-Kamera), und/oder eine Vorrichtung zur strukturierten Beleuchtung umfassen. Wenn die Topografie-Erfassungseinheit Teil des optischen Beobachtungsgerätesystems ist, kann der stereoskopische Sensor zum Beispiel zwei in das optische Beobachtungsgerät integrierte Kameras umfassen. Die Topografie-Erfassungseinheit kann aber auch auf einem der folgenden Topografieverfahren beruhen: DFD (depth from defocus), in dem aus dem Grad der Defokussierung auf den Abstand von der Fokusebene geschlossen wird, SFM (structure from motion), SLAM (simultaneous localization and mapping).
  • Außerdem umfasst ein erfindungsgemäßes optisches Beobachtungsgerätsystem:
    • – Eine Auswertungseinheit, die dazu ausgebildet ist, anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts von der Oberfläche des Beobachtungsbereiches zu ermitteln und die ermittelten Abstände auszugeben. Es werden somit relative Abstände ermittelt und ausgegeben. Die Auswertungseinheit kann eine speziell für den beschrieben Zweck konstruierte Einheit sein bspw. in Form einer anwendungsspezifischen integrierten Schaltung (ASIC, Application Specific Integrated Circuit), oder in Form von Software, die auf einem Prozessor des optischen Beobachtungsgerätsystems oder auf einem Computer, bspw. auf einem handelsüblichen PC, läuft.
    • – Eine mit der Auswertungseinheit zum Empfang der Abstände verbundene Visualisierungseinheit. Die Visualisierungseinheit ist dazu ausgebildet, ein Visualisierungsbild zu generieren, in dem die empfangenen Abstände dargestellt sind. Außerdem ist die Visualisierungseinheit dazu ausgebildet, das Visualisierungsbild zur Anzeige auf einer Anzeigeeinheit auszugeben. Die Anzeigeeinheit kann dabei Teil des optischen Beobachtungsgerätesystems oder eine externe Anzeigeeinheit sein.
  • Die Visualisierungseinheit kann wie die Auswertungseinheit eine speziell für den beschrieben Zweck konstruierte Einheit sein bspw. in Form einer anwendungsspezifischen integrierten Schaltung oder in Form von Software, die auf einem Prozessor des optischen Beobachtungsgerätsystems oder auf einem Computer, bspw. auf einem handelsüblichen PC, läuft. Insbesondere können die Software für die Auswertungseinheit und die Software für die Visualisierungseinheit auf demselben Prozessor oder Computer laufen. Grundsätzlich kann die Visualisierung der Abstände sowohl als transparente als auch als opake Überlagerung erfolgen. Die Abstände können auch lediglich lokal begrenzt angezeigt werden, um das Sichtfeld der untersuchenden Person, beispielsweise eines Operateurs, nicht unnötig zu beschränken.
  • Das Anzeigen des Visualisierungsbildes kann bspw. im Einblick des optischen Beobachtungsgerätes erfolgen. Falls der Einblick von wenigstens einem Okular gebildet wird, kann die Anzeigeeinheit wenigstens ein im optischen Beobachtungsgerät angeordnetes Display, mit dem ein Überlagerungsbild in den optischen Strahlengang des optischen Beobachtungsgerätes eingeblendet werden kann, umfassen. Das Visualisierungsbild braucht dann nur die Abstände darzustellen und als Überlagerungsbild in den Strahlengang eingeblendet zu werden. Im Okular sind dem Bild des Beobachtungsobjekts dann die Abstände überlagert. Wenn die Darstellung in einem elektronischen Einblick des optischen Beobachtungsgeräts oder auf einem externen Display erfolgen soll, kann die Visualisierungseinheit zum Empfang der das Bild des Beobachtungsbereiches repräsentierenden Bilddaten auch mit dem optischen Beobachtungsgerät verbunden sein. Außerdem kann sie dann dazu ausgelegt sein, ein Visualisierungsbild zu generieren, in dem sowohl das empfangene Bild des Beobachtungsbereiches als auch die empfangenen Abstände dargestellt sind. Mit anderen Worten, es kann eine elektronische Überlagerung der Bilddaten und der empfangenen Abstände erfolgen. Das auf diese Weise sowohl die Bilddaten als auch die Abstände darstellende Visualisierungsbild kann dann in einem elektronischen Einblick oder in einem externen Display des optischen Beobachtungsgerätes, etwa einem Head Mounted Display (HMD), als Anzeigeeinheit dargestellt werden.
  • Bei dem optischen Beobachtungsgerät kann es sich bspw. um ein Operationsmikroskop oder ein Endoskop handeln, bei dem Beobachtungsbereich dann beispielsweise um Gewebe, insbesondere Gewebe mit einem Tumor als interessierendem Objekt. Die Registrierungseinheit dient dann dazu, bspw. präoperativ (etwa mittels CT oder MRT) von dem Tumor gewonnene Tiefenbilddaten und das mit dem Operationsmikroskop oder Endoskop erzeugte Bild miteinander zu registrieren und so die Tiefenbilddaten des Tumors auf den aktuellen Beobachtungsbereich bzw. die aktuelle Operationsszene zu registrieren.
  • Das oben in Zusammenhang mit Tumorresektion beschriebene Problem der unzureichenden Visualisierungsmöglichkeit eines Tumors während eines operativen Eingriffs kann mit Hilfe des mit einem Operationsmikroskop oder einem Endoskop als optischem Beobachtungsgerät ausgestatteten erfindungsgemäßen optisches Beobachtungsgerätsystems durch eine Darstellung der Abstände im Visualisierungsbild gelöst werden. So kann die gesamte Morphologie des Tumors beispielsweise in Form von Tiefenlinien (insbesondere Iso-Tiefenlinien, sog. Isobathen) dargestellt werden, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches repräsentieren und damit einen relativen Abstand zur Oberfläche. Die Visualisierungseinheit ist dann dazu ausgelegt, die empfangenen Abstände im Visualisierungsbild als Tiefenlinien darzustellen, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches repräsentieren. Die Tiefenlinien können dann bspw. direkt in das optische Beobachtungsgerät, etwa in das Okular eines Operationsmikroskops, eingeblendet werden, wobei die Linien durchgezogen, gestrichelt, punktiert oder in einer beliebigen Kombination davon dargestellt werden können. Zusätzlich oder alternativ kann die Visualisierungseinheit dazu ausgelegt sein, bestimmte Tiefenbereiche unterhalb der Oberfläche des Beobachtungsbereiches farblich und/oder in verschiedenen Graustufen zu markieren. So können bspw. zur besseren Unterscheidung einzelne charakteristische Tiefenbereiche farblich oder durch unterschiedliche Graustufen codiert werden.
  • Bei Verwendung der Erfindung muss der Chirurg seinen gewohnten Blick durch das Okular des Operationsmikroskops nicht aufgeben, um die Tiefen des Tumors unter der Gewebeoberfläche zu erfahren. Er muss sich auch nicht auf eine vorab gelernte Morphologie verlassen. Dies verbessert den Operationsfluss und reduziert die oben Risiken für den Patienten. Denkbar ist auch jegliche Form einer Überblendung von Tiefenlinien bzw. opaker Darstellung mit der aktuellen Operationsszene bzw. dem Beobachtungsbereich um ein realistisches "Look-and-Feel" zu ermöglichen. Vorteilhafterweise können für sichtbare bzw. für nicht sichtbare Bereiche des Beobachtungsbereiches unterschiedliche Visualisierungsparameter gewählt werden.
  • Insgesamt hat das erfindungsgemäße optisches Beobachtungsgerätsystem den Vorteil, dass es eine verbesserte Darstellung der Gesamtmorphologie eines Beobachtungsobjektes innerhalb eines Beobachtungsbereichs, beispielsweise eine verbesserte Darstellung der Gesamtmorphologie von malignem Gewebe innerhalb einer Operationsszene, ermöglicht.
  • Erfindungsgemäß wird außerdem Darstellungsverfahren zum Darstellen von Tiefeninformationen zu einem interessierenden Objekt in einem mit einem optischen Beobachtungsgerät beobachteten Beobachtungsbereich, bspw. eines Gewebebereiches mit einem Tumor als interessierendem Objekt, zur Verfügung gestellt, in dem
    • – mittels des optischen Beobachtungsgeräts, das bspw. ein Operationsmikroskop oder ein Endoskop sein kann, ein Bildes des Beobachtungsbereiches und das Bild repräsentierenden Bilddaten erzeugt werden,
    • – mittels einer Topografie-Erfassungseinheit aktuelle, den Bilddaten zugeordnete Topografiedaten des Beobachtungsbereiches erfasst werden,
    • – mittels einer Registrierungseinheit, die zur rigiden oder nicht rigiden Registrierung ausgelegt sein kann, die Bilddaten und von der Registrierungseinheit empfangene Tiefenbilddaten des interessierenden Objekts miteinander registriert werden und entsprechende Registrierungsdaten generiert werden,
    • – mittels einer Auswertungseinheit anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts von der Oberfläche des Beobachtungsbereiches ermittelt werden,
    • – mittels einer Visualisierungseinheit ein Visualisierungsbild generiert wird, in dem die empfangenen Abstände dargestellt sind, und
    • – das Visualisierungsbild mittels einer Anzeigeeinheit angezeigt wird.
  • Die empfangenen Abstände können im Visualisierungsbild als bspw. als Tiefenlinien dargestellt werden, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches repräsentieren. Außerdem können bestimmte Tiefenbereiche unterhalb der Oberfläche des Beobachtungsbereiches farblich markiert werden. Bspw. können solche Bereiche, die zwischen zwei benachbarten Tiefenlinien liegen, eingefärbt werden.
  • Das Visualisierungsbild kann bspw. mittels wenigstens eines Displays in den Strahlengang des optischen Beobachtungsgerätes eingeblendet werden, so dass im Okular dem Bild des Beobachtungsbereiches die Abstandsinformationen über die Abstände verschiedener Bereiche des interessierenden Objekts von der Oberfläche des Beobachtungsbereiches überlagert sind. Die Visualisierung im Okular des Operationsmikroskops kann zum Beispiel als perspektivisch korrekte Überlagerung oder als Bild im Bild (PiP – Picture in Picture) am Rande des Sichtfeldes, um das Verdecken von relevanten Bildinformationen zu minimieren, erfolgen. Die Visualisierungseinheit kann aber auch ein Visualisierungsbild generieren, in dem sowohl das Bild des Beobachtungsbereiches als auch die Abstände dargestellt sind, so dass eine elektronische Überlagerung der Bilddaten und der empfangenen Abstände in einem elektronischen Einblick des optischen Beobachtungsgerätes oder einem externen Display, bspw. einem HMD, dargestellt werden können.
  • In dem Darstellungsverfahren können die Tiefenbilddaten bspw. mittels eines Tomografieverfahrens gewonnen werden. Außerdem können die Tiefenbilddaten vor der Durchführung des Darstellungsverfahrens gewonnen werden. Falls das Darstellungsverfahren im Rahmen einer Operation zum Einsatz kommt können die Tiefenbilddaten also bspw. mittels des Tomografieverfahrens präoperativ gewonnen werden.
  • Zum Registrieren der Bilddaten mit den Tiefenbilddaten kann im Rahmen des Darstellungsverfahren entweder eine eigens zur Durchführung des Verfahrens zur Verfügung gestellte Registrierungseinheit Verwendung finden oder eine externe Registrierungseinheit wie bspw. eine Registrierungseinheit eines Navigationssystems.
  • Das erfindungsgemäße Darstellungsverfahren kann mit Hilfe des zuvor beschriebenen erfindungsgemäßen optischen Beobachtungsgerätsystems durchgeführt werden. Es hat somit grundsätzlich die Vorteile wie das zuvor beschriebene erfindungsgemäße optische Beobachtungsgerätsystem. Durch die Miteinbeziehung aktueller Topografieinformationen können die Tiefeninformationen sowie deren Visualisierung den aktuellen Gegebenheiten angepasst werden. Außerdem können, falls das optische Beobachtungsgerät ein Operationsmikroskop oder ein Endoskop und der Beobachtungsbereich mit dem interessierenden Objekt ein Gewebebereich mit einem Tumor ist, intraoperative Bilddaten dazu verwendet werden, eine mögliche geographische Abweichung von prä- und intraoperativen Daten für die Visualisierung der Tiefeninformationen zu kompensieren. Dazu können verschiedene Bildverarbeitungsalgorithmen und/oder verschiedene Beleuchtungsmodi und/oder Marker, z.B. Kontrastmittel, zum Einsatz kommen.
  • Grundsätzlich können die Tiefenbilddaten mit Hilfe eines Navigationsgerätes gewonnen werden. Konkret können die Tiefeninformationen mittels MRI (Magnetresonanztomografie), CT (Computertomografie) oder Ähnlichem erfasst werden. Das Navigationsgerät kann die Daten segmentieren, also beispielsweise in einem Gewebebereich Knochen oder Tumorgewebe zuordnen, und kann sie entweder als Rohdaten oder bereits rechnerisch auf die optische Achse des optischen Beobachtungsgeräts korrigiert liefern. In einer Ausprägung davon stellt das Navigationsgerät die gesamten Tiefenbilddaten des Beobachtungsbereiches über eine Schnittstelle für die Auswertungseinheit bereit. In einer anderen Ausprägung sendet das optische Beobachtungsgerät basierend auf der aktuellen Fokusebene "virtuelle Tiefen" (Abstand des verstellbaren Bildfokus relativ zum optischen Beobachtungsgerät) in einem definierten Wertebereich an das Navigationsgerät. Diese sendet dann für die empfangenen virtuellen Tiefen die jeweilige Kontur der Tiefenbilddaten an die Auswertungseinheit.
  • Die Erfindung stellt außerdem ein Computerprogrammprodukt zum Darstellen von Tiefeninformationen zu einem interessierenden Objekt unter Verwendung von Bilddaten, Tiefenbilddaten und Topografiedaten des interessierenden Objekts zur Verfügung. Das Computerprogrammprodukt beinhaltet gespeicherte Anweisungen zum Durchführen der folgenden Schritte:
    • – Registrieren der Bilddaten und der Tiefenbilddaten des interessierenden Objekts und Generieren entsprechender Registrierungsdaten,
    • – Ermitteln der Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts von der Oberfläche des Beobachtungsbereiches anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten und
    • – Generieren und Ausgeben eines Visualisierungsbildes, in dem die Abstände dargestellt sind.
  • Weitere Merkmale, Eigenschaften und Vorteile der vorliegenden Erfindung werden im Folgenden anhand von Ausführungsbeispielen unter Bezugnahme auf die beigefügten Figuren näher beschrieben. Alle bisher und im Folgenden beschriebenen Merkmale sind dabei sowohl einzeln als auch in einer beliebigen Kombination miteinander vorteilhaft. Die im Folgenden beschriebenen Ausführungsbeispiele dienen lediglich der Erläuterung der Erfindung und sollen den Gegenstand der Erfindung nicht auf die einzelnen Ausführungsbeispiele beschränken.
  • 1 zeigt schematisch den Aufbau eines Operationsmikroskops.
  • 2 zeigt schematisch Beispiel für ein Vario-Objektiv.
  • 3 zeigt schematisch eine chirurgische Operationsszene mit Tiefenvorschaukarte.
  • 4 zeigt schematisch die chirurgische Operationsszene aus 3 in einer Schnittansicht.
  • 5 zeigt schematisch ein Operationsmikroskop-System als ein Ausführungsbeispiel für ein erfindungsgemäßes optisches Beobachtungsgerätsystem.
  • Nachfolgend wird mit Bezug auf die 1 und 2 ein Beispiel für den grundsätzlichen Aufbau eines Operationsmikroskops 2 erläutert.
  • Das in 1 gezeigte Operationsmikroskop 2 umfasst als wesentliche Bestandteile ein einem Objektfeld 3 zuzuwendendes Objektiv 5, das insbesondere als achromatisches oder apochromatisches Objektiv ausgebildet sein kann. Im vorliegenden Ausführungsbeispiel besteht das Objektiv 5 aus zwei miteinander verkitteten Teillinsen, die ein achromatisches Objektiv bilden. Im Falle eines Apochromatischen Objektivs besteht dieses aus drei Teillinsen. Das Objektfeld 3 wird in der Brennebene des Objektivs 5 angeordnet, so dass es vom Objektiv 5 nach Unendlich abgebildet wird. Mit anderen Worten, ein vom Objektfeld 3 ausgehendes divergentes Strahlenbündel 7 wird bei seinem Durchgang durch das Objektiv 5 in ein paralleles Strahlenbündel 9 umgewandelt.
  • Beobachterseitig des Objektivs 5 ist ein Vergrößerungswechsler 11 angeordnet, der entweder wie im dargestellten Ausführungsbeispiel als Zoom-System zur stufenlosen Änderung des Vergrößerungsfaktors oder als so genannter Galilei-Wechsler zur stufenweisen Änderung des Vergrößerungsfaktors ausgebildet sein kann. In einem Zoom-System, das bspw. aus einer Linsenkombination mit drei Linsen aufgebaut ist, können die beiden objektseitigen Linsen verschoben werden, um den Vergrößerungsfaktor zu variieren. Tatsächlich kann das Zoom-System aber auch mehr als drei Linsen, bspw. vier oder mehr Linsen aufweisen, wobei die äußeren Linsen dann auch fest angeordnet sein können. In einem Galilei-Wechsler existieren dagegen mehrere feste Linsenkombinationen, die unterschiedliche Vergrößerungsfaktoren repräsentieren und im Wechsel in den Strahlengang eingebracht werden können. Sowohl ein Zoom-System, als auch ein Galilei-Wechsler wandeln ein objektseitiges paralleles Strahlenbündel in ein beobachterseitiges paralleles Strahlenbündel mit einem anderen Bündeldurchmesser um. Der Vergrößerungswechsler 11 ist im vorliegenden Ausführungsbeispiel bereits Teil des binokularen Strahlengangs des Operationsmikroskops 2, d.h. er weist eine eigene Linsenkombination für jeden stereoskopischen Teilstrahlengang 9A, 9B des Operationsmikroskops 2 auf. Das Einstellen eines Vergrößerungsfaktors mittels des Vergrößerungswechslers 11 erfolgt im vorliegenden Ausführungsbeispiel über ein motorisch angetriebenes Stellglied (nicht dargestellt), das zusammen mit dem Vergrößerungswechsler 11 Teil einer Vergrößerungswechseleinheit zum Einstellen des Vergrößerungsfaktors ist.
  • An den Vergrößerungswechsler 11 schließt sich beobachterseitig eine Schnittstellenanordnung 13A, 13B an, über die externe Geräte an das Operationsmikroskop 2 angeschlossen werden können und die im vorliegenden Ausführungsbeispiel Strahlteilerprismen 15A, 15B umfasst. Grundsätzlich können aber auch andere Arten von Strahlteilern Verwendung finden, bspw. teildurchlässige Spiegel. Die Schnittstellen 13A, 13B dienen im vorliegenden Ausführungsbeispiel zum Auskoppeln eines Strahlenbündels aus dem Strahlengang des Operationsmikroskops 2 (Strahlteilerprisma 15B) bzw. zum Einkoppeln eines Strahlenbündels in den Strahlengang des Operationsmikroskops 2 (Strahlteilerprisma 15A).
  • Das Strahlteilerprisma 15A in dem Teilstrahlengang 9A dient im vorliegenden Ausführungsbeispiel dazu, mit Hilfe eines Displays 37, bspw. einer Digital Mirror Device (DMD) oder eines LCD-Displays, und einer zugehörigen Optik 39 über das Strahlteilerprisma 15A Informationen oder Daten für einen Betrachter in den Teilstrahlengang 9A des Operationsmikroskops 1 einzuspiegeln. Im anderen Teilstrahlengang 9B ist an der Schnittstelle 13B ein Kameraadapter 19 mit einer daran befestigten Kamera 21 angeordnet, die mit einem elektronischen Bildsensor 23, bspw. mit einem CCD-Sensor oder einem CMOS-Sensor, ausgestattet ist. Mittels der Kamera 21 kann ein elektronisches und insbesondere ein digitales Bild des Gewebebereichs 3 aufgenommen werden. Als Bildsensor kann insbesondere auch ein Hyperspektralsensor Verwendung finden, in dem nicht nur drei Spektralkanäle (bspw. rot, grün und blau) vorhanden sind, sondern eine Vielzahl von Spektralkanälen.
  • An die Schnittstelle 13 schließt sich im dargestellten Beispiel beobachterseitig ein Binokulartubus 27 an. Dieser weist zwei Tubusobjektive 29A, 29B auf, welche das jeweilige parallele Strahlenbündel 9A, 9B auf eine Zwischenbildebene 31 fokussieren, also das Beobachtungsobjekt 3 auf die jeweilige Zwischenbildebene 31A, 31B abbilden. Die in den Zwischenbildebenen 31A, 31B befindlichen Zwischenbilder werden schließlich von Okularlinsen 35A, 35B wiederum nach Unendlich abgebildet, so dass ein Betrachter das Zwischenbild mit entspanntem Auge betrachten kann. Außerdem erfolgt im Binokulartubus mittels eines Spiegelsystems oder mittels Prismen 33A, 33B eine Vergrößerung des Abstandes zwischen den beiden Teilstrahlenbündeln 9A, 9B, um diesen an den Augenabstand des Betrachters anzupassen. Mit dem Spiegelsystem oder den Prismen 33A, 33B erfolgt zudem eine Bildaufrichtung. Statt die Zwischenbilder mittels Okularen zu betrachten, besteht auch die Möglichkeit, die Zwischenbilder mittels in der Zwischenbildebene angeordneter Bildsensoren, die bspw. als CCD-Sensoren oder CMOS-Sensoren ausgebildet sein können, aufzunehmen und die aufgenommenen Bilder elektronisch auf Displays darzustellen. Die elektronische Darstellung ermöglicht eine freiere Positionierung des Betrachters relativ zum Beobachtungsobjekt. Die Displays können bspw. in einem am Operationsmikroskop vorhandenen Einblick angeordnet sein, oder sie können in einem vom Operationsmikroskop losgelösten Head Mounted Display (HMD) wie etwa einer Datenbrille angeordnet sein.
  • Das Operationsmikroskop 2 ist außerdem mit einer Beleuchtungsvorrichtung ausgestattet, mit der der das Objektfeld 3 mit zumeist breitbandigem Beleuchtungslicht beleuchtet werden kann. Hierzu weist die Beleuchtungsvorrichtung im vorliegenden Ausführungsbeispiel eine Weißlichtquelle 41, etwa eine Halogenglühlampe oder eine Gasentladungslampe, auf. Aber auch Lumineszenzstrahler wie bspw. Leuchtdioden (LEDs) oder organische Leuchtdioden (OLEDs) kommen als Lichtquellen in Frage. Hierbei kann das Weißlicht auch durch eine Kombination mehrerer farbiger Lumineszenzstrahler generiert werden. Das von der Weißlichtquelle 41 ausgehende Licht wird über einen Umlenkspiegel 43 oder ein Umlenkprisma in Richtung auf das Objektfeld 3 gelenkt, um dieses auszuleuchten. In der Beleuchtungsvorrichtung ist weiterhin eine Beleuchtungsoptik 45 vorhanden, die für eine gleichmäßige Ausleuchtung des gesamten beobachteten Objektfeldes 3 sorgt.
  • Es sei darauf hingewiesen, dass der in 1 dargestellte Beleuchtungsstrahlengang stark schematisiert ist und nicht notwendigerweise den tatsächlichen Verlauf des Beleuchtungsstrahlengangs wiedergibt. Grundsätzlich kann der Beleuchtungsstrahlengang als sogenannte Schrägbeleuchtung ausgeführt sein, die der schematischen Darstellung in 1 am nächsten kommt. In einer solchen Schrägbeleuchtung verläuft der Strahlengang in einem relativ großen Winkel (6° oder mehr) zur optischen Achse des Objektivs 5 und kann, wie in 1 dargestellt, vollständig außerhalb des Objektivs verlaufen. Alternativ besteht jedoch auch die Möglichkeit, den Beleuchtungsstrahlengang der Schrägbeleuchtung durch einen Randbereich des Objektivs 5 hindurch verlaufen zu lassen. Eine weitere Möglichkeit zur Anordnung des Beleuchtungsstrahlengangs ist die sogenannte 0°-Beleuchtung, bei der der Beleuchtungsstrahlengang durch das Objektiv 5 hindurch verläuft und zwischen den beiden Teilstrahlengängen 9A, 9B, entlang der optischen Achse des Objektivs 5 in Richtung auf das Objektfeld 3 in das Objektiv eingekoppelt wird. Schließlich besteht auch die Möglichkeit, den Beleuchtungsstrahlengang als sogenannte koaxiale Beleuchtung auszuführen, in der ein erster und ein zweiter Beleuchtungsteilstrahlengang vorhanden sind. Die Teilstrahlengänge werden über einen oder mehrere Strahlteiler parallel zu den optischen Achsen der Beobachtungsteilstrahlengänge 9A, 9B in das Operationsmikroskop eingekoppelt, so dass die Beleuchtung koaxial zu den beiden Beobachtungsteilstrahlengängen verläuft.
  • In dem in 1 dargestellten Operationsmikroskop kann auf die Beleuchtung Einfluss genommen werden. Bspw. kann ein Filter 47 in den Beleuchtungsstrahlengang eingebracht werden, der von dem breiten Spektrum der Weißlichtquelle 41 nur einen schmalen Spektralbereich passieren lässt, bspw. einen Spektralbereich, mit dem Fluoreszenz eines im Objektfeld 3 befindlichen Fluoreszenzfarbstoffes angeregt werden kann. Zur Beobachtung der Fluoreszenz können in die Beobachtungs-Teilstrahlengänge Filter 37A, 37B eingebracht werden, die den zur Fluoreszenzanregung verwendeten Spektralbereich herausfiltern um die Fluoreszenz beobachten zu können.
  • Die Beleuchtungsvorrichtung kann zudem mit einer Einheit zum Wechsel der Beleuchtungslichtquelle ausgestattet sein. Diese ist in 1 durch ein System zum Austausch der Weißlichtquelle 41 durch eine Laser 49 angedeutet. Mit einem Laser als Lichtquelle, insbesondere mit einem Infrarotlaser, wird in Verbindung mit einem geeigneten Bildsensor 23 bspw. Laser-Doppler-Imaging oder Laser-Speckle-Imaging ermöglicht. Die Einheit zum Wechsel der Beleuchtungslichtquelle ist im vorliegenden Ausführungsbeispiel motorisch angetrieben und kann mittels geeigneter Steuerdaten von der Pathologieeinheit 70 aus gesteuert werden
  • In der in 1 gezeigten Ausführungsvariante des Operationsmikroskops 2 besteht das Objektiv 5 lediglich aus einer Achromatlinse mit fixer Objektschnittweite (Abstand der objektseitigen Brennebene vom Scheitel der ersten objektseitigen Linsenfläche des Objektivs 5). Es kann jedoch auch ein Objektivlinsensystem aus mehreren Linsen Verwendung finden, insbesondere ein so genanntes Vario-Objektiv, mit dem sich der Arbeitsabstand des Operationsmikroskops 2, d.h. die Objektschnittweite, variieren lässt. Auch vom Vario-Objektiv 50 wird das in der Brennebene angeordnete Objektfeld 3 nach Unendlich abgebildet, so dass beobachterseitig ein paralleles Strahlenbündel vorliegt.
  • Ein Beispiel für ein Vario-Objektiv ist schematisch in 2 dargestellt. Das Vario-Objektiv 50 umfasst ein Positivglied 51, also ein optisches Element mit positiver Brechkraft, das in 2 schematisch als Konvexlinse dargestellt ist. Darüber hinaus umfasst das Vario-Objektiv 50 ein Negativglied 52, also ein optisches Element mit negativer Brechkraft, das in 2 schematisch als Konkavlinse dargestellt ist. Das Negativglied 52 befindet sich zwischen dem Positivglied 51 und dem Objektfeld 3. Im dargestellten Vario-Objektiv 50 ist das Negativglied 52 fix angeordnet, wohingegen das Positivglied 51 wie durch den Doppelpfeil 53 angedeutet entlang der optischen Achse OA verschiebbar angeordnet ist. Wenn das Positivglied 51 in die in 2 gestrichelt dargestellte Position verschoben wird, verlängert sich die Schnittweite, so dass sich der Arbeitsabstand des Operationsmikroskops 2 vom Objektfeld 3 ändert.
  • Obwohl in 2 das Positivglied 51 verschiebbar ausgestaltet ist, besteht grundsätzlich auch die Möglichkeit, das Negativglied 52 statt des Positivglieds 51 entlang der optischen Achse OA bewegbar anzuordnen. Das Negativglied 52 bildet jedoch häufig die Abschlusslinse des Vario-Objektivs 50. Ein feststehendes Negativglied 52 bietet daher den Vorteil, dass das Innere des Operationsmikroskops 2 leichter gegen äußere Einflüsse abgedichtet werden kann. Weiterhin sei angemerkt, dass, obwohl das Positivglied 51 und das Negativglied 52 in 2 lediglich als Einzellinsen dargestellt sind, jedes dieser Glieder statt in Form einer Einzellinse auch in Form einer Linsengruppe oder eines Kittglieds realisiert sein kann, bspw. um das Vario-Objektiv achromatisch oder apochromatisch auszubilden.
  • Die 3 zeigt schematisch eine chirurgische, beispielsweise eine neurochirurgische Operationsszene 1. Der durch das Operationsmikroskop 2 mikroskopisch dargestellte Beobachtungsbereich 1 bzw. die Operationsszene umfasst zu entfernendes Gewebe 12, beispielsweise im Rahmen einer Tumorresektion zu entfernendes Tumorgewebe. Die Finger des Chirurgen sind mit der Bezugsziffer 8 gekennzeichnet, das verwendete Operationsbesteck mit der Bezugsziffer 4. Während der Operation wird mit Hilfe des erfindungsgemäßen Darstellungsverfahrens eine Tumortiefenvorschaukarte 10 in das mit dem Operationsmikroskop 2 gewonnene Bild des Beobachtungsbereichs 1 eingeblendet. Dies erfolgt vorliegend mit Hilfe von Iso-Tiefenlinien und/oder durch farbliche Codierung. Die Iso-Tiefenlinien stellen dabei nicht eine bestimmte Tiefe in Bezug auf eine Fokusebene dar, sondern einen relativen Abstand in Bezug auf die Oberfläche des Gewebebereiches 12, wie dies in 4 in einer schematischen Seitenansicht der Operationsszene 1 dargestellt ist.
  • Die 4 zeigt die Oberfläche des Gewebes 12 sowie den Tumor 6 und die Tumortiefenvorschaukarte 10. Die in der Karte dargestellten Iso-Tiefenlinien repräsentieren dabei jeweils die Tiefe eines bestimmten Bereichs des Tumors 6 unter der Oberfläche des Gewebes 12, wie dies durch die Pfeile in der Figur angedeutet ist. Ebenfalls dargestellt ist in 4 die Fokusebene 16 des Operationsmikroskops 2, wobei die Lage der Fokusebene 16 der Lage des Bodens 17 des Operationssitus entspricht. Zu Erläuterungszwecken ist der Tumor 6 in 4 symmetrisch dargestellt.
  • Wie in 4 zu erkennen ist, weist die Tumortiefenvorschaukarte 10, deren Iso-Tiefenlinien 18 die jeweiligen Abstände des Tumors von der Oberfläche des Gewebes 12 repräsentieren, nicht die Symmetrie des Tumors auf. Sie unterscheidet sich somit erheblich von einer Tiefenvorschaukarte, welche mit ihren Iso-Tiefenlinien die jeweiligen Abstände des Tumors von der Fokusebene 6 zeigt. Eine solche Tumortiefenvorschaukarte würde in 4 die Symmetrie des Tumors wiedergeben. Der wesentliche Unterschied zwischen den beiden Tumortiefenvorschaukarten liegt jedoch nicht in der Symmetriebetrachtung, sondern darin, dass die Iso-Tiefenlinien dem Chirurgen unmittelbar anzeigen können, wie tief ein Einschnitt in das Gewebe zu erfolgen hat. Anhand der in 4 dargestellten Tiefenvorschaukarte, deren Iso-Tiefenlinie 18 die Abstände von der Oberfläche des Gewebes 12 repräsentieren, kann der behandelnde Chirurg direkt erkennen, wie tief er in das Gewebe 12 einschneiden muss. Wäre in der Tiefenvorschaukarte dagegen der Abstand des Tumors von der Fokusebene 16 in Form von Iso-Tiefenlinien dargestellt, könnte der Chirurg lediglich für diejenigen Gewebebereiche, die mit der Fokusebene 16 zusammenfallen und die im vorliegenden Beispiel durch den Boden 17 des Operationssitus gebildet werden, die Einschnitttiefe unmittelbar aus den Iso-Tiefenlinien 18 ablesen. Für andere Gewebebereiche müsste die Fokusebene verschoben werden, um die Einschnitttiefe dann aus den neugenerierten Iso-Tiefenlinien ablesen zu können. Die vorliegende Erfindung bietet daher den Vorteil, dass auch ohne Verlagern der Fokusebene 16 alle Iso-Tiefenlinien der Tumortiefenvorschaukarte 10 die benötigte Einschnitttiefe repräsentieren, sodass dem Chirurgen ein unmittelbares Hilfsmittel für die Entscheidung über die jeweiligen Einschnitttiefen zur Verfügung gestellt wird.
  • Statt der Iso-Tiefenlinien können grundsätzlich auch andere Techniken zum Repräsentieren der Tiefe des Tumors unterhalb der Oberfläche des Gewebes 12 herangezogen werden. Insbesondere können dabei grundsätzlich Techniken aus dem Bereich der Augmented Reality zur Fusionierung von Bilddaten verwendet werden. Dies ermöglicht eine nahtlose und realitätsgetreue Einblendung von Abstandsinformationen in die Operationsszene.
  • 5 zeigt als ein Ausführungsbeispiel für das erfindungsgemäße optische Beobachtungsgerätesystem ein Operationsmikroskop-System 68, mit dem sich die mit Bezug auf 4 beschriebene Tumortiefenvorschaukarte generieren und auf einer Anzeigeeinheit darstellen lässt. Statt der Tiefenvorschaukarte kann auch jede andere geeignete Darstellung der Tiefeninformationen, d.h. der Abstände des Tumors von der Oberfläche des Gewebes 12, mit der Vorrichtung realisiert werden.
  • Das Operationsmikroskop-System 68 umfasst ein Operationsmikroskop 2, mit dem ein visuelles Bild einer Operationsszene, d.h. eines Beobachtungsbereiches 1 mit einem Tumor 6, gewonnen wird. Das Operationsmikroskop 2 erzeugt zudem das Bild repräsentierende elektronische Bilddaten und gibt diese aus. Zum Generieren der elektronischen Bilddaten kann beispielsweise die Kamera 21 aus 1 Verwendung finden.
  • Weiterhin umfasst das Operationsmikroskop-System 68 eine Schnittstellenanordnung 63 mit einem Datenausgang 63A und einem Dateneingang 63B. Über den Datenausgang 63A werden Bilddaten, die das mit dem Operationsmikroskop 2 gewonnene Bild repräsentieren, an eine Registrierungseinheit 61 ausgeben. Über den Dateneingang 63B werden aktuelle Topografiedaten des Beobachtungsbereichs 1 von einer Topografie-Erfassungseinheit 60 sowie Tiefenbilddaten des Tumors 6 im Beobachtungsbereich 1 von einem Tomografiesystem 66 empfangen.
  • Die Topografie-Erfassungseinheit 60 kann auf einem geeigneten Sensor, beispielsweise einem stereoskopischen Sensor, einem Laserscanner, einem Time-of-Flight-Sensor oder auf strukturierter Beleuchtung beruhen. Ein stereoskopischer Sensor kann zum Beispiel zwei in dem Operationsmikroskop 2 integrierte Kameras, ähnlich der Kamera 21 aus 1, umfassen. Durch die Miteinbeziehung aktueller Topografieinformationen können die Tiefeninformationen sowie deren Visualisierung auch den aktuellen Gegebenheiten angepasst werden. Insbesondere können auftretende Deformationen berücksichtigt werden.
  • Die Tiefenbilddaten sind im vorliegenden Ausführungsbeispiel 3D-Daten, die mittels eines Tomografieverfahrens von der Lage des Tumors 6 unterhalb des Gewebes 12 gewonnen worden sind.
  • Die vom Tomografiesystem 66 generierten Tiefenbilddaten liegen auch in der Registrierungseinheit 61 vor. Mittels der Registrierungseinheit 61 werden die präoperativ gewonnenen 3D-Daten mit den vom Datenausgang 63A des Operationsmikroskop-Systems 68 erhaltenen Bilddaten unter Zuhilfenahme einer geeigneten rigiden oder nichtrigiden Transformation registriert, sodass eine optimale Übereinstimmung der 3D-Daten mit den Bilddaten vorliegt. Von der Registrierungseinheit 61 werden dann Registrierungsdaten, welche die Registrierung der 3D-Daten mit den Bilddaten repräsentieren, ausgegeben die von dem Dateneingang 63B der Schnittstellenanordnung 63 empfangen werden.
  • Mit der Schnittstellenanordnung 63 ist eine Auswertungseinheit 62 verbunden, an welche die Schnittstelleneinheit 63 die empfangenen Registrierungsdaten, die empfangenen Topografiedaten des Beobachtungsbereichs 1 und die empfangenen Tiefenbilddaten weitergibt. Die Tiefenbilddaten können der Auswertungseinheit 62 komplette 3D-Informationen des Tumors 6 bereitstellen. Alternativ besteht die Möglichkeit, dass das Operationsmikroskop-System 68 basierend auf der jeweils aktuellen Fokusebene „virtuelle Tiefen“ in einem definierten Wertebereich an ein Navigationsgerät sendet, und das Navigationsgerät dann für die gesendeten „virtuelle Tiefen“ die jeweilige Konturlinie des Tumors 6 als Tiefenbilddaten an die Auswertungseinheit 62 ausgibt.
  • Die Auswertungseinheit 62 ermittelt auf der Basis der Topografiedaten, der 3D-Daten des Tumors 6 und der von der Registrierungseinheit 61 zur Verfügung gestellten Registrierungsdaten die Abstände der von den 3D-Daten erfassten Tiefenbereiche von der Gewebeoberfläche 12 und gibt die ermittelten Abstände aus. Aufgrund der Registrierung sind die Positionen des Tumors 6 im Gewebe 12 und die Topografie der Oberfläche des Gewebes 12 im selben Koordinatensystem bekannt, sodass die Abstände des Tumors von der Oberfläche des Gewebes berechnet werden können.
  • Mit der Auswertungseinheit 62 ist zum Empfangen der ermittelten Abstände eine Visualisierungseinheit 64 verbunden. Die Visualisierungseinheit 64 dient dazu, ein Visualisierungsbild zu generieren, in dem die empfangenen Abstände, beispielsweise in Form der in 4 gezeigten Tiefenkarte 10 dargestellt sind. Das Visualisierungsbild wird dann von der Visualisierungseinheit 64 beispielsweise an das Display 37 aus 1 ausgegeben, wo die Tumortiefenvorschaukarte 10 mit den Iso-Tiefenlinien 18 in den Strahlengang des Operationsmikroskops 2 eingeblendet wird und mittels des Strahlteilers 13A dem Bild des Beobachtungsbereiches 1 überlagert wird, so dass im Okular sowohl die Operationsszene 1 als auch die die Tiefe des Tumors 6 unterhalb der Gewebeoberfläche 12 angebenden Iso-Tiefenlinien 18 der Tumortiefenvorschaukarte 10 zu sehen sind.
  • Im vorliegenden Ausführungsbeispiel erfolgt eine Visualisierung der Abstände jedoch nicht nur im Okular des Operationsmikroskops 2, wobei das Display 37 als Anzeigeeinheit dient, sondern auch auf einem externen Monitor 67 und ein Head Mounted Display (HMD), welches im vorliegenden Ausführungsbeispiel durch eine Datenbrille 65 repräsentiert ist.
  • Um ein Visualisierungsbild für den Monitor 67 und/oder die Datenbrille 65 generieren zu können, ist die Visualisierungseinheit 64 im vorliegenden Ausführungsbeispiel auch mit der Kamera 21 aus dem in 1 dargestellten Operationsmikroskop 2 verbunden. Die Visualisierungseinheit 64 kann daher das den Beobachtungsbereich 1 darstellende Bild bzw. die von der Kamera 21 von diesem Bild generierten Bilddaten empfangen. Die ein elektronisches Bild des Beobachtungsbereich 1 repräsentierenden Bilddaten werden dann von der Visualisierungseinheit 64 mit den von der Auswertungseinheit 62 generierten und ausgegebenen Abständen kombiniert, sodass ein elektronisches Bild entsteht, welches sowohl den Beobachtungsbereich 1 als auch die Iso-Tiefenlinien 18 der Tumortiefenvorschaukarte 10 (oder eine andere geeignete Darstellung der Abstandsinformationen) enthält. Dieses elektronische Bild wird dann an den externen Monitor 67 und/oder das HMD, im vorliegenden Ausführungsbeispiel also an die Datenbrille 65, ausgegeben.
  • Die Tiefenvorschaukarte kann als linienhafte Anzeige der Iso-Tiefenlinien realisiert sein, wobei die Linien solide, gestrichelt, punktiert oder in einer beliebigen Kombination davon ausgestaltet sind. Die Anzeige der Tiefenvorschaukarte kann aber auch mittels einer opaken Darstellung erfolgen. Möglich ist zudem auch jegliche Form einer Überblendung von Iso-Tiefenlinien bzw. opaker Darstellung mit der aktuellen Beobachtungsszene bzw. Operationsszene um ein realistisches "Look-and-Feel" zu ermöglichen. Für sichtbare bzw. nicht sichtbare Bereiche des malignen Gewebes können unterschiedliche Visualisierungsparameter gewählt werden. In einer weiteren Ausprägung können die Tiefeninformationen auch lokal begrenzt angezeigt werden, um das Sichtfeld des Operateurs nicht über Gebühr zu beschränken.
  • Die vorliegende Erfindung wurde zu Erläuterungszwecken anhand von Ausführungsbeispielen beschrieben. Ein Fachmann versteht jedoch, dass von den dargestellten Ausführungsbeispielen abgewichen werden kann. So sind in dem in 5 gezeigten Ausführungsbeispiel für das optische Beobachtungsgerätsystem die Registrierungseinheit, die Topografie-Erfassungseinheit und das Tomografiesystem nicht Teil des optischen Beobachtungsgerätsystems. In anderen möglichen Ausführungsformen der Erfindung können die Registrierungseinheit und/oder die Topografie-Erfassungseinheit und/oder das Tomografiesystem Teil des optischen Beobachtungsgerätsystems sein. Die Erfindung soll daher nicht durch die dargestellten Ausführungsbeispiele beschränkt sein, sondern lediglich durch die beigefügten Ansprüche.
  • Bezugszeichenliste
  • 1
    Operationsszene
    2
    Operationsmikroskop
    3
    Operationsfeld
    4
    Operationsbesteck
    5
    Objektiv
    6
    Tumor
    7
    divergentes Strahlenbündel
    8
    Finger des Chirurgen
    9
    Strahlenbündel
    9A, 9B
    stereoskopischer Teilstrahlengang
    10
    Tumortiefenvorschaukarte
    11
    Vergrößerungswechsler
    12
    Gewebe
    13A, 13B
    Schnittstellenanordnung
    15A, 15B
    Strahlteilerprisma
    16
    Fokusebene
    17
    Boden
    18
    Iso-Tiefenlinie
    19
    Kameraadapter
    21
    Kamera
    23
    Bildsensor
    27
    Binokulartubus
    29A, 29B
    Tubusobjektiv
    31A, 31B
    Zwischenbildebene
    33A, 33B
    Prisma
    35A, 35B
    Okularlinse
    37
    Display
    39
    Optik
    40A, 40B
    Spektralfilter
    41
    Weißlichtquelle
    43
    Umlenkspiegel
    45
    Beleuchtungsoptik
    47
    Spektralfilter
    49
    Laser
    50
    Vario-Objektiv
    51
    Positivglied
    52
    Negativglied
    53
    Verschiebeweg
    60
    Topografie-Erfassungseinheit
    61
    Registrierungseinheit
    62
    Auswertungseinheit
    63
    Schnittstellenanordnung
    63A
    Datenausgang
    63B
    Dateneingang
    64
    Visualisierungseinheit
    65
    Datenbrille
    66
    Tomografiesystem
    67
    Monitor
    68
    optisches Beobachtungsgerätsystem
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2001/0027272 A1 [0005]
    • WO 03/105709 A1 [0006]
    • WO 95/25979 A1 [0007]
    • DE 102005050918 A1 [0008]
    • DE 102011085176 A1 [0009]

Claims (19)

  1. Optisches Beobachtungsgerätsystem (68), mit: – einem optischen Beobachtungsgerät (2) zum Erzeugen eines Bildes eines Beobachtungsbereiches (1) mit einem interessierenden Objekt (6) und von das Bild repräsentierenden Bilddaten; – eine Schnittstellenanordnung (63) mit einem Datenausgang (63A) zum Ausgeben der Bilddaten an eine Registrierungseinheit (61), welche Registrierungsdaten generiert, die eine Registrierung von Tiefenbilddaten mit den Bilddaten repräsentieren, einem Dateneingang (63B) zum Empfang der Tiefenbilddaten des interessierenden Objekts (6), zum Empfang von den Bilddaten zugeordneten Topografiedaten von einer Topografie-Erfassungseinheit (60) sowie zum Empfang der Registrierungsdaten von der Registrierungseinheit (61); – eine Auswertungseinheit (62), die dazu ausgebildet ist, anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts (6) von der Oberfläche (12) des Beobachtungsbereiches (1) zu ermitteln und die ermittelten Abstände auszugeben, – einer mit der Auswertungseinheit (62) zum Empfang der Abstände verbundene Visualisierungseinheit (64), wobei die Visualisierungseinheit (64) dazu ausgebildet ist, ein Visualisierungsbild zu generieren, in dem die empfangenen Abstände dargestellt sind, und das Visualisierungsbild zur Anzeige auf einer Anzeigeeinheit (37, 65, 67) auszugeben.
  2. Optisches Beobachtungsgerätsystem (68) nach Anspruch 1, in dem die Registrierungseinheit (61) Teil des optischen Beobachtungsgerätesystems ist.
  3. Optisches Beobachtungsgerätsystem (68) nach Anspruch 1 oder Anspruch 2, in dem die Topografie-Erfassungseinheit (60) Teil des optischen Beobachtungsgerätesystems ist.
  4. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 3, in dem die Anzeigeeinheit (37, 65, 67) Teil des optischen Beobachtungsgerätesystems (68) ist.
  5. Optisches Beobachtungsgerätsystem (68) nach Anspruch 4, in dem die Anzeigeeinheit wenigstens ein im optischen Beobachtungsgerät angeordnetes Display (37) umfasst mit dem ein Überlagerungsbild in den optischen Strahlengang des optischen Beobachtungsgerätes eingeblendet werden kann.
  6. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 5, in dem die Anzeigeeinheit einen Monitor umfasst.
  7. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 6, in dem die Visualisierungseinheit (64) zum Empfang der das Bild des Beobachtungsbereiches (1) repräsentierenden Bilddaten mit dem optischen Beobachtungsgerät (2) verbunden ist und dazu ausgelegt ist, ein Visualisierungsbild zu generieren, in dem sowohl das empfangene Bild des Beobachtungsbereiches (1) als auch die empfangenen Abstände dargestellt sind.
  8. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 7, in dem die Topografie-Erfassungseinheit (60) einen stereoskopischen Sensor und/oder einen Laserscanner und/oder einen Sensor zur Laufzeitmessung von Lichtpulsen und/oder eine Vorrichtung zur strukturierten Beleuchtung umfasst und/oder auf einem DFD-Verfahren, und/oder auf einem SFM-Verfahren und/oder auf einem SLAM-Verfahren beruht.
  9. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 8, in dem die Registrierungseinheit (61) Teil eines Navigationsgerätes ist.
  10. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 9, in dem die Visualisierungseinheit (64) dazu ausgelegt ist, die empfangenen Abstände im Visualisierungsbild als Tiefenlinien darzustellen, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches (1) repräsentieren.
  11. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 9, in dem die Visualisierungseinheit (64) dazu ausgelegt ist, bestimmte Tiefenbereiche unterhalb der Oberfläche des Beobachtungsbereiches (1) farblich und/oder in verschiedenen Graustufen zu markieren.
  12. Optisches Beobachtungsgerätsystem (68) nach einem der vorangehenden Ansprüche, in dem das optische Beobachtungsgerät ein Operationsmikroskop (2) oder ein Endoskop ist.
  13. Darstellungsverfahren zum Darstellen von Tiefeninformationen zu einem interessierenden Objekt (6) in einem mit einem optischen Beobachtungsgerät (2) beobachteten Beobachtungsbereich (1), in dem – mittels des optischen Beobachtungsgeräts (2) ein Bildes des zu Beobachtungsbereiches (1) und das Bild repräsentierenden Bilddaten erzeugt werden, – mittels einer Topografie-Erfassungseinheit (60) aktuelle, den Bilddaten zugeordnete Topografiedaten des Beobachtungsbereiches (1) erfasst werden, – mittels einer Registrierungseinheit (61) die Bilddaten und von der Registrierungseinheit (61) empfangene Tiefenbilddaten des interessierenden Objekts (6) im Beobachtungsbereich (1) miteinander registriert werden und entsprechende Registrierungsdaten generiert werden, – mittels einer Auswertungseinheit (62) anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts (6) von der Oberfläche des Beobachtungsbereiches (1) ermittelt werden, – mittels einer Visualisierungseinheit (64) ein Visualisierungsbild generiert wird, in dem die empfangenen Abstände dargestellt sind, und – das Visualisierungsbild mittels einer Anzeigeeinheit (60) angezeigt wird.
  14. Darstellungsverfahren nach Anspruch 13, in dem die gesamten Tiefenbilddaten von einem Navigationsgerät für die Auswertungseinheit (62) bereitgestellt werden.
  15. Darstellungsverfahren nach Anspruch 13, in dem das das optische Beobachtungsgerät (2) basierend auf der aktuellen Fokusebene virtuelle Tiefen in einem definierten Wertebereich an ein Navigationsgerät sendet, und das Navigationsgerät für empfangenen die virtuellen Tiefen die jeweiligen Konturen der Tiefenbilddaten an die Auswertungseinheit (62) sendet.
  16. Darstellungsverfahren nach einem der Ansprüche 13 bis 15, in dem die Tiefenbilddaten vor der Durchführung des Darstellungsverfahrens gewonnen werden.
  17. Darstellungsverfahren nach einem der Ansprüche 13 bis 16, in dem die empfangenen Abstände im Visualisierungsbild als Tiefenlinien dargestellt werden, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches (1) repräsentieren, und/oder bestimmte Tiefenbereiche unterhalb der Oberfläche des Beobachtungsbereiches (1) farblich markiert werden.
  18. Darstellungsverfahren nach einem der Ansprüche 13 bis 17, in dem die Visualisierungseinheit (64) ein Visualisierungsbild generiert, in dem sowohl das empfangene Bild des Beobachtungsbereiches (1) als auch die empfangenen Abstände dargestellt sind.
  19. Computerprogrammprodukt zum Darstellen von Tiefeninformationen zu einem interessierenden Objekt (6) unter Verwendung von Bilddaten, Tiefenbilddaten und Topografiedaten des interessierenden Objekts (6), welches Anweisungen zum Durchführen der folgenden Schritte beinhaltet: – Registrieren der Bilddaten und der Tiefenbilddaten des interessierenden Objekts (6) und Generieren entsprechender Registrierungsdaten, – Ermitteln der Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts (6) von der Oberfläche des Beobachtungsbereiches (1) anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten und – Generieren und Ausgeben eines Visualisierungsbildes, in dem die Abstände dargestellt sind.
DE102016117263.4A 2016-09-14 2016-09-14 Optisches Beobachtungsgerätsystem Active DE102016117263B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016117263.4A DE102016117263B4 (de) 2016-09-14 2016-09-14 Optisches Beobachtungsgerätsystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016117263.4A DE102016117263B4 (de) 2016-09-14 2016-09-14 Optisches Beobachtungsgerätsystem

Publications (2)

Publication Number Publication Date
DE102016117263A1 true DE102016117263A1 (de) 2018-03-15
DE102016117263B4 DE102016117263B4 (de) 2024-05-29

Family

ID=61247125

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016117263.4A Active DE102016117263B4 (de) 2016-09-14 2016-09-14 Optisches Beobachtungsgerätsystem

Country Status (1)

Country Link
DE (1) DE102016117263B4 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018110641B3 (de) 2018-05-03 2019-07-25 Carl Zeiss Meditec Ag Mikroskopieverfahren zur Abbildung eines Objekts sowie Mikroskop
WO2021151780A1 (de) * 2020-01-31 2021-08-05 Carl Zeiss Meditec Ag Methode zum kennzeichnen eines bereiches eines tumors
CN113936063A (zh) * 2020-12-30 2022-01-14 诡谷子人工智能科技(深圳)有限公司 一种双光路成像装置及图像深度检测方法、存储介质
DE102020129739A1 (de) 2020-11-11 2022-05-12 Karl Storz SE & Co. KG Intellectual Property Endoskopische und/oder exoskopische Bildgebungsvorrichtung zur spektralen Bildgebung und Verfahren zu deren Betrieb
AT526091B1 (de) * 2022-12-06 2023-11-15 Swarovski Optik Ag & Co Kg Fernoptische Vorrichtung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995025979A1 (en) 1994-03-24 1995-09-28 Philips Electronics N.V. Operating microscope
US20010027272A1 (en) 1999-03-30 2001-10-04 Olympus Optical Co., Ltd. Navigation apparatus and surgical operation image acquisition/display apparatus using the same
WO2003105709A1 (de) 2002-06-13 2003-12-24 Möller-Wedel GmbH Verfahren und instrument zur chirurgischen navigation
DE102005050918A1 (de) 2005-10-24 2007-01-11 Siemens Ag Vorrichtung zur Überwachung mikrochirurgischer Eingriffe mit einem Operationsmikroskop
DE102011085176A1 (de) 2011-10-25 2013-04-25 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Erzeugen eines Angiogramms

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006017003A1 (de) 2006-04-11 2007-10-18 Friedrich-Alexander-Universität Erlangen-Nürnberg Endoskop zur Tiefendatenakquisition
DE102012220115A1 (de) 2012-11-05 2014-05-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung
DE102014210121A1 (de) 2014-05-27 2015-08-27 Carl Zeiss Meditec Ag Operationsmikroskop und bildgeführtes Chirurgiesystem sowie Verfahren zu deren Betrieb
DE102014107443A1 (de) 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Mikroskop-System mit Tiefenvorschau

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995025979A1 (en) 1994-03-24 1995-09-28 Philips Electronics N.V. Operating microscope
US20010027272A1 (en) 1999-03-30 2001-10-04 Olympus Optical Co., Ltd. Navigation apparatus and surgical operation image acquisition/display apparatus using the same
WO2003105709A1 (de) 2002-06-13 2003-12-24 Möller-Wedel GmbH Verfahren und instrument zur chirurgischen navigation
DE102005050918A1 (de) 2005-10-24 2007-01-11 Siemens Ag Vorrichtung zur Überwachung mikrochirurgischer Eingriffe mit einem Operationsmikroskop
DE102011085176A1 (de) 2011-10-25 2013-04-25 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Erzeugen eines Angiogramms

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018110641B3 (de) 2018-05-03 2019-07-25 Carl Zeiss Meditec Ag Mikroskopieverfahren zur Abbildung eines Objekts sowie Mikroskop
US11143857B2 (en) 2018-05-03 2021-10-12 Carl Zeiss Meditec Ag Microscope and microscopy method for imaging an object involving changing size of depth-of-field region
WO2021151780A1 (de) * 2020-01-31 2021-08-05 Carl Zeiss Meditec Ag Methode zum kennzeichnen eines bereiches eines tumors
DE102020129739A1 (de) 2020-11-11 2022-05-12 Karl Storz SE & Co. KG Intellectual Property Endoskopische und/oder exoskopische Bildgebungsvorrichtung zur spektralen Bildgebung und Verfahren zu deren Betrieb
DE102020129739B4 (de) 2020-11-11 2023-03-02 Karl Storz Se & Co. Kg Endoskopische und/oder exoskopische Bildgebungsvorrichtung zur spektralen Bildgebung, Endoskop und/oder Exoskop mit einer Bildgebungsvorrichtung
CN113936063A (zh) * 2020-12-30 2022-01-14 诡谷子人工智能科技(深圳)有限公司 一种双光路成像装置及图像深度检测方法、存储介质
AT526091B1 (de) * 2022-12-06 2023-11-15 Swarovski Optik Ag & Co Kg Fernoptische Vorrichtung
AT526091A4 (de) * 2022-12-06 2023-11-15 Swarovski Optik Ag & Co Kg Fernoptische Vorrichtung

Also Published As

Publication number Publication date
DE102016117263B4 (de) 2024-05-29

Similar Documents

Publication Publication Date Title
DE102016117263B4 (de) Optisches Beobachtungsgerätsystem
EP2950130A1 (de) Mikroskop-system mit tiefenvorschau
EP1333306B1 (de) Stereo-Mikroskopieverfahren und Stereo-Mikroskopiesystem
US20160357003A1 (en) Surgical microscope for generating an observation image of an object region
DE102017108371B4 (de) Medizinisch-optisches Darstellungssystem und Verfahren zum Betreiben desselben
DE102015103426B4 (de) Mikroskopsystem und Verfahren zum automatisierten Ausrichten eines Mikroskops
CH693619A5 (de) Bilddarstellende Einrichtung und Verfahren zum Bilddarstellen.
CN110638527A (zh) 基于光学相干层析增强现实的手术显微成像***
DE10027166A1 (de) Stereoskopmikroskop
WO2014060412A1 (de) Stereoskopisches abbildungssystem
DE102017105941B3 (de) Operationsmikroskop mit einem Bildsensor und einem Display und Verfahren zum Betrieb eines Operationsmikroskops
DE102007054450A1 (de) Vorrichtung zur Bereitstellung von Bildern für einen Operateur
DE102014103044A1 (de) Chirurgisches Assistenzsystem
DE102018106651A1 (de) Visualisierungssystem und Verfahren zum Erzeugen von holographischen Darstellungen aus optischen Signalen
DE102014201571A1 (de) Modul für die Dateneinspiegelung in einer Visualisierungsvorrichtung
DE102017110816A1 (de) Optisches Beobachtungsgerät und Verfahren zum effizienten Ausführen eines automatischen Fokussieralgorithmus
DE102014010350A1 (de) Augenchirurgiesystem
DE102013009817A1 (de) Mikroskopiesystem zur Beobachtung von Fluoreszenz in der Ophthalmologie
DE102018110806A1 (de) Operationsmikroskop mit einer Beleuchtungsvorrichtung
DE102014114013B4 (de) Medizinisch optisches Beobachtungsgerät und Verfahren zur Kontrastierung von polarisationsdrehendem Gewebe
DE102015100765A1 (de) Operationsmikroskop und Verfahren zum Hervorheben von Augenlinsenstücken
DE3623394C2 (de) Operationsmikroskop
WO2021219473A1 (de) Medizinisch optisches system, datenverarbeitungssystem, computerprogramm und nichtflüchtiges computerlesbares speichermedium
DE102018125422A1 (de) Prüfvorrichtung für eine Stereo-Bilderfassungsvorrichtung
DE102018123781B4 (de) Verfahren zum Durchführen einer Shading-Korrektur und optisches Beobachtungsgerätesystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division