DE102007028731A1 - Vorrichtung und Verfahren zur Zuordnung von Daten - Google Patents
Vorrichtung und Verfahren zur Zuordnung von Daten Download PDFInfo
- Publication number
- DE102007028731A1 DE102007028731A1 DE102007028731A DE102007028731A DE102007028731A1 DE 102007028731 A1 DE102007028731 A1 DE 102007028731A1 DE 102007028731 A DE102007028731 A DE 102007028731A DE 102007028731 A DE102007028731 A DE 102007028731A DE 102007028731 A1 DE102007028731 A1 DE 102007028731A1
- Authority
- DE
- Germany
- Prior art keywords
- objects
- records
- data
- module
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/74—Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Veterinary Medicine (AREA)
- Radar, Positioning & Navigation (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Electromagnetism (AREA)
- Heart & Thoracic Surgery (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Data Mining & Analysis (AREA)
- Image Processing (AREA)
Abstract
Bei dieser Vorrichtung und dem dazugehörigen Verfahren werden dreidimensionale Bilddaten von Örtlichkeiten erfasst und Objekte/Geräte separiert, wobei aus den vorliegenden und zuordenbaren Datensätzen Bewegungsabläufe ermittelt werden sowie in Bedienfunktionen steuernd eingegriffen werden kann.
Description
- Die Erfindung bezieht sich auf eine Vorrichtung bzw. ein Verfahren zur Zuordnung, insbesondere von objektorientierten Daten.
- Ein Umfeld in einem Operationssaal ist geprägt durch eine Vielzahl von Gerätesystemen, die permanent oder zeitweise für diagnostische Zwecke oder Eingriffe an Patienten herangezogen werden. Dabei ist die Kenntnis einer zeitabhängigen Position eines Objektes/Gerätesystems und der diese Einheiten bedienenden Personen sowie deren Lauf und Verschiebewege von großem Interesse, um beispielsweise partiell einen Ablauf eines operativen Eingriffs zu gestalten. Eine Positionierung der Gerätesysteme ist abhängig von den beteiligten Personen, verbunden mit der Kenntnis wann und wo Geräte bei Patienten benötigt werden müssen. Eine Kollision, eine falsche Einstellung oder Führung wird weitestgehend durch Einhaltung von Bedienungsvorschriften der Gerätehersteller und durch die beteiligten Personen vermieden.
- Der Erfindung liegt die Aufgabe zugrunde, einen Weg zu zeigen, Personen und/oder Geräten Daten zuzuordnen.
- Die Aufgabe wird durch die im Patentanspruch 1 oder 7 angegebenen Merkmale gelöst.
- Bei der Vorrichtung und einem dazugehörigen Verfahren zur Erfassung von dreidimensionalen Objekten werden zu erstellten Datensätzen von erfassten Objekten jeweils abrufbare ergänzende Datensätze hinzugefügt, sodass in Bewegungsabläufe und/oder Bedienfunktionen der Objekte steuernd eingegriffen werden kann.
- Vorteilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.
- Die Erfindung bringt den Vorteil mit sich, dass z. B. von Geräten, Geräteeinheiten, Personen, Körperteilen oder Organen jeweils deren Position erfasst und diese jeweils identifiziert werden.
- Die Erfindung bringt den Vorteil mit sich, dass eine mögliche Kollision von Geräten und Objekten aufgrund der jeweiligen Verschiebungs- und Laufwege erkannt und vermieden wird.
- Die Erfindung bringt den Vorteil mit sich, dass aufgrund der erstellten Datensätze aus einer dreidimensionalen Aufnahme und den zu den Identifikationsdaten abrufbaren Datensätzen beispielsweise von Gerätesystemen eine Ausrichtung dieser zum Patienten und diesen behandelnden Personen möglich ist.
- Die Erfindung bringt den Vorteil mit sich, dass die Position und Lage des Patienten auf einem OP-Tisch erfasst wird und eine dazu optimale Positionierung eines Diagnose- oder medizinischen Gerätes eingestellt werden kann.
- Die Erfindung bringt den Vorteil mit sich, dass eine Navigation von Komponenten identifizierter Geräteeinheiten durchführbar ist.
- Die Erfindung bringt den Vorteil mit sich, dass eine telemedizinische Anwendung von Geräten möglich ist.
- Die Erfindung bringt den Vorteil mit sich, dass mit einer Radio Frequency Identification RFID Technologie eine einfache Zuordnung von Daten zu Geräten oder Personen möglich ist.
- Die Erfindung bringt den Vorteil mit sich, dass aufgrund einer schnellen Positionserkennung von Objekten in einen möglichen Positionierungsvorgang von Geräten/Objekten steuernd eingegriffen werden kann.
- Die Erfindung bringt den Vorteil mit sich, dass auf der Basis einer Optimierung der Verschiebewege und Einsatzbereiche von Geräten oder Geräteeinheiten eine Optimierung des Arbeitsablaufes möglich ist.
- Die Erfindung bringt den Vorteil mit sich, dass sie zur Navigation von Geräten, Instrumenten, Robotern oder in bildgebundenen Systemen Verwendung findet.
- Die Erfindung soll im Folgenden mittels eines in den Zeichnungen dargestellten Ausführungsbeispieles näher erläutert werden.
- Dabei zeigen:
-
1 eine schematische Darstellung und -
2 ein Ablaufdiagramm. - In
1 ist eine schematische Darstellung einer Vorrichtung zur objektorientierten Datenzuordnung zu Objekten gezeigt. Unter Objekte sind hier z. B. Personen, Teile eines Körpers, Diagnosegeräte, Geräte für eine medizinisch orientierte Anwendung zusammengefasst. Zur Aufnahme einer zu erfassenden Örtlichkeit wie beispielsweise einen Operationssaal ist mindestens eine Aufnahmeeinheit Kn vorgesehen. An oder bei den Aufnahmeeinheiten kann eine Aufnahmeeinheit zur Oberflächenbildaufnahme PMD/CCD angeordnet sein. Eine Vielzahl von Aufnahmeeinheiten kann eine Mehrdeutigkeit oder einen schwer einsehbaren Bereich zusätzlich erfassen. Die angesprochenen Aufnahmeeinheiten können dabei auch direkt an medizinischen Geräten angeordnet sein, um z. B. deren Führung zu ermöglichen. Die Aufnahmeeinheiten zur Oberflächenaufnahme PMD/CCD können als die so genannten Photonic Mixer Devices in Verbindung mit einer hoch auflösenden CCD/CMOS Technologie ausgebildet sein. Die Daten des von den Aufnahmeeinheiten Kn, PMD/CCD erfassten Umfeldes werden mindestens einem ersten Modul RB zugeleitet und in erste Datensätze zusammengefasst. In diesem ersten Modul RB ist ein erstes System zur Erzeugung einer dreidimensionalen 3D Bildaufnahme, die auch als Oberflächenbild bezeichnet wird, angeordnet. Das Oberflächenbild liegt dann als ein erster Datensatz vor. Das erste Modul RB kann auch direkt an den Photonic Mixer Device angeordnet sein. Mittels mindestens eines zweiten Moduls RFID werden die den Objekten OB1, OBn, G1, Gn zugeordneten Kennungen erfasst. Den erkannten und/oder separierten Objekten OB1, OB2, ..., OBn oder Geräten G1, G2, ..., Gn werden die auf den Transpondern hinterlegten Identifikationsdaten zugeordnet und in zweiten Datensätzen hinterlegt. In einem vierten Modul ZM werden die zweiten Datensätze mit den ersten Datensätzen aus dem ersten Modul RB verknüpft. - Optional kann ein drittes System in einem dritten Modul OBK zur Objekterkennung hinzugefügt werden. Mit diesem dritten Modul OBK werden die Daten der über die Aufnahmeeinheiten K1, K2, ..., Kn, PMD/CCD optisch erfassten Gegenstände einer Prozedur zur Objekterkennung unterzogen und in einem dritten Datensatz abgespeichert. Anhand der abgespeicherten ersten, zweiten und dritten Datensätze können die Objekte/Geräte erkannt und identifiziert werden. Nach ihrer Identifizierung können dann diese Objekte durch zusätzliche ergänzende Datensätze, in denen zum Beispiel deren räumliche Ausmaße und relative Bewegungs- sowie Bedienmöglichkeiten zusammengefasst sind, ergänzt werden.
- In dem ersten Modul RB ist in Verbindung mit den Aufnahmeeinheiten PMD/CCD oder Kn eine Verarbeitungseinheit zur Erstellung von dreidimensionalen Bildern oder Videos angeordnet. Diese Bilder oder Aufnahmesequenzen werden mit dem Photonic Mixer Device in Verbindung mit einer hoch auflösenden Charge Coupled Device CCD Kamera-Chip-Technologie erstellt. Ein niedrig auflösendes Entfernungsbild mit einer Pixelanzahl von z. B. 100×200 Bildpunkten wird mit hoch aufgelösten Aufnahmen von Kamerabildern, wie z. B. 1 MBit CCD Chip, alternativ auch ein Chip in CMOS-Technologie, ortsgetreu hardwaremäßig überlagert. Die Entfernungsbilder werden pixelweise beispielswei se auf Basis von Infrarotlaufzeitmessungen ermittelt. Die Fusion eines ersten Bildes, ein hoch auflösendes optisches CCD-Bildes mit einem zweiten Bild, einem PMD-Tiefenbild, ergibt ein hoch aufgelöstes 3D Bild bzw. Video mit einer Tiefenauflösung. Zur Fusion benötigt man beispielsweise ein Prisma sowie einen Infrarotfilter; die Fusion der beiden Bilder erfolgt nach Kalibrierung mittels einer Soft- oder Hardware, welche die beiden gleich großen Bilder miteinander fusioniert. Beide Bildkomponenten, das erste hoch auflösende optische CCD Bild und das zweite PMD-Tiefenbild werden in den Aufnahmeeinheiten Kn aufgenommen und wie oben beschrieben entweder direkt oder in nachgeordneten Modulen objektorientiert verarbeitet. Durch die Fusion des ersten und zweiten Bildes werden hoch auflösende 3D-Real-Time-Bilder erzeugt.
- Für eine höhere Auflösung einer Örtlichkeit können auch mehrere Aufnahmeeinheiten der beschriebenen Art ein Abbild der Örtlichkeit erstellen und zu einem detaillierteren dreidimensionalen Bild verknüpft werden.
- In dem zweiten Modul RFID ist mindestens ein Radio Frequency Identification RFID Lesegerät mit zugehöriger Antenne angeordnet. Mit diesem Lesegerät können auf Transpondern gespeicherte Daten erfasst werden. Diese Transponder können z. B. in einem RFID-Etikett, Smart Tag, Smart Label, RFID-Chip, RFID-Tag oder Funketikett integriert sein. Ein Radio Frequency Identification RFID-System ermöglicht eine Lokalisierung und Identifikation mittels Funkerkennung. Aus Transponder die an oder in Objekten oder Geräten angeordnet sind, können berührungslos und ohne Sichtkontakt Daten ausgelesen werden. Je nach passiver oder aktiver Ausführung des Transponders, benutztem Frequenzband oder Sendeleistung können unterschiedliche Distanzen überbrückt werden. Die Datenübertragung zwischen Transponder und Lesegerät findet mittels elektromagnetischer Wellen statt. Bei niedrigen Frequenzen geschieht dies induktiv über ein Nahfeld, bei höheren über ein elektromagnetisches Fernfeld. Durch ein Ortungssystem, bezogen auf die Örtlichkeit, oder über ein globales Positionssystem GPS kann eine räumliche Zuordnung des Transponders erfolgen.
- In dem vierten Modul ZM werden die vorliegenden ersten, zweiten und/oder dritten Datensätze aus dem ersten und zweiten Modul RB, RFID und/oder dritten Modul OBK miteinander verknüpft. Diese Daten können durch die im externen Datenspeicher DB abgespeicherten ergänzenden Datensätze vervollständigt werden. Aufgrund dieser Verknüpfung sind zu den jeweiligen Objekten OBn, Gn Daten über deren Positionierung, deren räumliche Ausmaße sowie weitere technische Daten, wie z. B. Bedienfunktionen bekannt. Diese Daten der verknüpften Datensätze werden miteinander in Beziehung gesetzt. In einer dem vierten Modul ZM nachgeordneten Managementeinheit MEE können Verwendungsprofile, Verschiebewege oder Endpositionen von Objekten/Geräten sowie ein Zusammenwirken von beteiligten Objekten/Geräten erstellt und steuernd in deren Einstellungen oder Positionierungen eingegriffen werden. So kann es bei einem Unterschreiten von vorgebaren Schwellwerten zu einem Stopp in einem Bewegungsablauf eines beteiligten Gerätes kommen.
- In
2 ist ein Ablaufdiagramm für die Zuordnung von objektorientierten Daten zu einem 3D Bild und dessen weitere Verwendung wiedergegeben. Wie oben beschrieben, erfolgt eine räumliche Erfassung der Objekte und/oder Geräte mittels der Aufnahmeeinheiten K1, K2, Kn, PMD, CCD. In dem ersten Modul RB werden die Daten der Entfernungsbilder des Photonen-Misch-Detektors PMD mit den CCD/CMOS Bilder zusammengefügt. In dem vierten Modul ZM werden den Objekten/Geräten jeweils Identifikationsdaten und vorhandene weitere Betriebsdaten beziehungsweise Steuerdaten zugeordnet. Optional können Bilderkennungsdaten aus dem dritten Modul OBK abgerufen und mit der 3D Darstellung aus dem ersten Modul verbunden werden. Steuerdaten für Positionsänderungen, Betriebseinstellungen von identifizierten Objekten/Geräte werden von der Managementeinheit MEE überprüft und Steuersignale an die steuerbaren Objekte/Geräte bzw. Einheiten abgegeben. -
- RB
- erstes Modul
- RFID
- zweites Modul
- OBK
- drittes Modul
- ZM
- viertes Modul
- MEE
- Managementeinheit
- PMD
- Photonic Mixer Device
- CCD
- Charge-coupled Device
- 3D
- dreidimensionales Bild
- OB1, OB2, OB3, Gn
- Objektl/Gerät1, Objekt2/Gerät2
- K1, K2, Kn
- Aufnahmeeinheit1, Aufnahmeeinheit2, ...
- DB
- Datenbanken
Claims (9)
- Vorrichtung zur Erfassung von dreidimensionalen Objekten (OBn, Gn), wobei zu erstellten Datensätzen von erfassten Objekten (OBn, Gn) jeweils abrufbare ergänzende Datensätze hinzufügbar sind, sodass in Bewegungsabläufe und/oder Bedienfunktionen der Objekte (OBm, Gm) steuernd eingegriffen werden kann.
- Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass ein erstes Modul (RB) zur Erstellung von dreidimensionalen Bilddaten von dreidimensionalen Objekten (OBn, Gn) in ersten Datensätzen vorgesehen ist.
- Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass ein zweites Modul (RFID) zum Empfang von Identifikationsdaten von Objekten (OBn, Gn) vorgesehen ist, wobei die auf Transpondern hinterlegten Identifikationsdaten erfasst und in zweiten Datensätzen zwischengespeichert werden.
- Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass ein drittes Modul (OBK) zur optischen Objekterkennung vorgesehen ist, wobei die ermittelten Daten in dritten Datensätzen zusammengefasst werden und/oder mit den ersten und zweiten Datensätzen aus dem ersten und/oder zweiten Modul (RB, RFID) im vierten Modul (ZM) verknüpft werden.
- Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass eine Speichereinheit (DB) mit ergänzenden Datensätzen vorgesehen ist, wobei die ergänzenden Datensätze Verwendungsprofile, Verschiebewege und Bedienfunktionen der Objekte/Geräte (OBn, Gn) wiedergeben.
- Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass eine Managementeinheit (MEE) zur Ermittlung von Steuerdaten aus den ersten, zweiten, dritten und ergänzenden Datensätzen vorgesehen ist, um in Bewegungsabläufe und Bedienfunktionen der Objekte steuernd einzugreifen.
- Verfahren zum Erfassen von dreidimensionalen Objekten (OBn, Gn), wobei zu erstellten Datensätzen von erfassten Objekten (OBn, Gn) jeweils abrufbare ergänzende Datensätze hinzufügbar sind, sodass in Bewegungsabläufe und/oder Bedienfunktionen der Objekte (OBm, Gm) steuernd mittels Steuersignalen eingegriffen werden kann.
- Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass Identifikationsdaten von Objekten und/oder Geräten empfangen werden, wobei die auf Transpondern hinterlegten Identifikationsdaten erfasst werden.
- Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass aus den ersten, zweiten, dritten und ergänzenden Datensätzen Steuerdaten ermittelt werden, so dass in Bewegungsabläufe und Bedienfunktionen der Objekte steuernd eingegriffen werden kann.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007028731A DE102007028731A1 (de) | 2007-06-21 | 2007-06-21 | Vorrichtung und Verfahren zur Zuordnung von Daten |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007028731A DE102007028731A1 (de) | 2007-06-21 | 2007-06-21 | Vorrichtung und Verfahren zur Zuordnung von Daten |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102007028731A1 true DE102007028731A1 (de) | 2009-01-02 |
Family
ID=40075825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102007028731A Withdrawn DE102007028731A1 (de) | 2007-06-21 | 2007-06-21 | Vorrichtung und Verfahren zur Zuordnung von Daten |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102007028731A1 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014212632A1 (de) * | 2014-06-30 | 2015-12-31 | Trumpf Medizin Systeme Gmbh + Co. Kg | Verfahren zum Überwachen eines Betriebs eines Medizingeräts |
US9987093B2 (en) | 2013-07-08 | 2018-06-05 | Brainlab Ag | Single-marker navigation |
DE102020114416A1 (de) | 2020-05-29 | 2021-12-02 | Karl Leibinger Medizintechnik Gmbh & Co. Kg | System zur Überwachung einer Operationsleuchtenanordnung |
DE102020114418A1 (de) | 2020-05-29 | 2021-12-02 | Karl Leibinger Medizintechnik Gmbh & Co. Kg | System zur Überwachung einer Operationsleuchtenanordnung |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004058911A1 (de) * | 2003-12-19 | 2005-07-21 | Stryker Leibinger Gmbh & Co. Kg | Reaktives Arbeitsablaufsystem und -verfahren |
EP1719472A1 (de) * | 2005-05-04 | 2006-11-08 | BrainLAB AG | Vorrichtungen und Verfahren zur automatischen Verifikation, Kalibrierung und Vermessung von Instrumenten für computer-assistierte Chirurgie |
DE102005029903A1 (de) * | 2005-06-25 | 2007-01-04 | Universitätsklinikum Hamburg-Eppendorf | Verfahren und Vorrichtung zur 3D-Navigation auf Schichtbildern |
-
2007
- 2007-06-21 DE DE102007028731A patent/DE102007028731A1/de not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004058911A1 (de) * | 2003-12-19 | 2005-07-21 | Stryker Leibinger Gmbh & Co. Kg | Reaktives Arbeitsablaufsystem und -verfahren |
EP1719472A1 (de) * | 2005-05-04 | 2006-11-08 | BrainLAB AG | Vorrichtungen und Verfahren zur automatischen Verifikation, Kalibrierung und Vermessung von Instrumenten für computer-assistierte Chirurgie |
DE102005029903A1 (de) * | 2005-06-25 | 2007-01-04 | Universitätsklinikum Hamburg-Eppendorf | Verfahren und Vorrichtung zur 3D-Navigation auf Schichtbildern |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9987093B2 (en) | 2013-07-08 | 2018-06-05 | Brainlab Ag | Single-marker navigation |
DE102014212632A1 (de) * | 2014-06-30 | 2015-12-31 | Trumpf Medizin Systeme Gmbh + Co. Kg | Verfahren zum Überwachen eines Betriebs eines Medizingeräts |
DE102014212632B4 (de) | 2014-06-30 | 2023-05-04 | Trumpf Medizin Systeme Gmbh + Co. Kg | Verfahren zum Überwachen eines Betriebs eines Medizingeräts |
DE102020114416A1 (de) | 2020-05-29 | 2021-12-02 | Karl Leibinger Medizintechnik Gmbh & Co. Kg | System zur Überwachung einer Operationsleuchtenanordnung |
DE102020114418A1 (de) | 2020-05-29 | 2021-12-02 | Karl Leibinger Medizintechnik Gmbh & Co. Kg | System zur Überwachung einer Operationsleuchtenanordnung |
WO2021239874A1 (de) | 2020-05-29 | 2021-12-02 | Karl Leibinger Medizintechnik Gmbh & Co. Kg | System zur überwachung einer operationsleuchtenanordnung |
WO2021239873A1 (de) | 2020-05-29 | 2021-12-02 | Karl Leibinger Medizintechnik Gmbh & Co. Kg | System zur überwachung einer operationsleuchtenanordnung |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19961971B4 (de) | Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments | |
EP3108282B1 (de) | Operationsmikroskop und erzeugung eines beobachtungsbildes eines objektbereichs in einem operationsmikroskop | |
DE69322202T2 (de) | System und Verfahren zur Verbesserung von endoskopischer Chirurgie | |
EP3152614B1 (de) | Operationsmikroskop mit dateneinheit und verfahren zum überlagern von bildern | |
DE212010000184U1 (de) | System zum Scannen eines menschlichen Körpers | |
EP3332730B1 (de) | Verfahren und trackingsystem zum nachverfolgen eines medizinischen objekts | |
EP3156967B1 (de) | Verfahren und vorrichtung zum erstellen einer mikroskopiepanoramadarstellung | |
EP2926733A1 (de) | Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung | |
DE102008037424A1 (de) | Verbessertes System und Verfahren für auf Volumen basierende Registrierung | |
WO2013001031A2 (de) | Verfahren und vorrichtung zum darstellen eines objektes | |
EP2082687A1 (de) | Überlagerte Darstellung von Aufnahmen | |
DE19511713A1 (de) | Verfahren und Vorrichtung zur automatischen Bildaufnahme von Gesichtern | |
DE10160530B4 (de) | Verfahren und Anlage zur Magnetresonanz-Bildgebung | |
DE102018133441A1 (de) | Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs | |
DE102007028731A1 (de) | Vorrichtung und Verfahren zur Zuordnung von Daten | |
WO2010119085A1 (de) | Verfahren und system zum erkennen eines objektes, und verfahren und system zum erzeugen einer markierung in einer bildschirmdarstellung mittels eines berührungslos gestik-gesteuerten bildschirmzeigers | |
DE102014102425B4 (de) | Mikroskopsystem und Mikroskopieverfahren unter Verwendung digitaler Marker | |
DE102014212632A1 (de) | Verfahren zum Überwachen eines Betriebs eines Medizingeräts | |
DE102015114513A1 (de) | Medizinische Bildbearbeitungsvorrichtung, Verfahren und Programm | |
DE102020200959A1 (de) | Aufnahme eines Panoramadatensatzes eines Untersuchungsobjektes mittels eines beweglichen medizinischen Röntgengerätes | |
DE102009010592B4 (de) | Verfahren und Vorrichtung zum Aufnehmen und Auswerten von digitalen Bilddaten mit einem Operationsmikroskop | |
WO2016012556A1 (de) | Bilderzeugungsapparat und -verfahren mit kombination von funktionaler bildgebung und ultraschallbildgebung | |
DE102014210051A1 (de) | Verfahren und Vorrichtung zur Bestimmung einer Oberflächentopographie eines Körpers | |
DE10125971A1 (de) | Verfahren zur Entfernungsmessung ausgedehnter Objekte in Verbindung mit einer optischen Betrachtungseinrichtung und Mikroskop zur Durchführung desselben | |
DE102008006516A1 (de) | Röntgeneinrichtung und Verfahren für eine Röntgeneinrichtung zur Ermittlung der Position und/oder der Orientierung eines in einen Körper eines Lebewesens eingeführten medizinischen Objektes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8139 | Disposal/non-payment of the annual fee |