DE102005046416A1 - Anordnung zum Erfassen eines Objekts - Google Patents

Anordnung zum Erfassen eines Objekts Download PDF

Info

Publication number
DE102005046416A1
DE102005046416A1 DE102005046416A DE102005046416A DE102005046416A1 DE 102005046416 A1 DE102005046416 A1 DE 102005046416A1 DE 102005046416 A DE102005046416 A DE 102005046416A DE 102005046416 A DE102005046416 A DE 102005046416A DE 102005046416 A1 DE102005046416 A1 DE 102005046416A1
Authority
DE
Germany
Prior art keywords
detection result
data set
coordinate data
arrangement
dimensions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102005046416A
Other languages
English (en)
Inventor
Jan Dr. Boese
Martin Dr. Kleen
Andreas Meyer
Marcus Dr. Pfister
Norbert Rahn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102005046416A priority Critical patent/DE102005046416A1/de
Priority to US11/529,681 priority patent/US20070083103A1/en
Publication of DE102005046416A1 publication Critical patent/DE102005046416A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/20Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring contours or curvatures, e.g. determining profile
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die Erfindung betrifft eine Anordnung mit einer 3-D-Vorrichtung (3), wobei die 3-D-Vorrichtung zum Erfassen eines Objekts (7) und Erzeugen eines das Objekt wenigstens teilweise in wenigstens drei Dimensionen repräsentierenden 3-D-Erfassungsergebnisses ausgebildet ist.Die Anordnung weist auch eine 2-D-Vorrichtung (5) auf, wobei die 2-D-Vorrichtung zum Erfassen des Objekts und Erzeugen eines das Objekt in wenigstens zwei Dimensionen repräsentierenden 2-D-Erfassungsergebnisses ausgebildet ist. Das 2-D-Erfassungsergebnis repräsentiert das Objekt (7) wenigstens teilweise, insbesondere eine Aufsicht auf das Objekt, eine Durchsicht durch das Objekt oder einen Schnitt durch das Objekt (7).
Die Erfindung ist dadurch gekennzeichnet, dass die 3-D-Vorrichtung (3) und die 2-D-Vorrichtung (5) jeweils derart insbesondere mechanisch und/oder elektrisch miteinander verbunden sind, dass ein einem Objektort entsprechender Teil des 3-D-Erfassungsergebnisses einem demselben Objektort entsprechenden Teil des 2-D-Erfassungsergebnisses zugeordnet werden kann.

Description

  • Die Erfindung betrifft eine Anordnung mit einer 3D-Vorrichtung, wobei die 3D-Vorrichtung zum Erfassen eines Objekts und Erzeugen eines das Objekt wenigstens teilweise in wenigstens drei Dimensionen repräsentierenden 3D-Erfassungsergebnisses ausgebildet ist. Die Anordnung weist auch eine 2D-Vorrichtung auf, wobei die 2D-Vorrichtung zum Erfassen des Objekts und Erzeugen eines das Objekt in wenigstens zwei Dimensionen repräsentierenden 2D-Erfassungsergebnisses ausgebildet ist. Das 2D-Erfassungsergebnis repräsentiert das Objekt wenigstens teilweise, insbesondere eine Aufsicht auf das Objekt, eine Durchsicht durch das Objekt oder einen Schnitt durch das Objekt.
  • Aus dem Stand der Technik sind 3D-Vorrichtungen in Form von Computer-Tomographen, Magnet-Resonanz-Tomographen, Positron-Emissions-Computer-Tomographen oder Single-Photon-Emissions-Computer-Tomographen bekannt. Solche 3D-Vorrichtungen können ein Objekt, beispielsweise einen Patienten, in 3 räumlichen Dimensionen erfassen. Aus dem Erfassungsergebnis kann dann eine durch einen Benutzer auswählbare Schnitt- oder Durchsichtdarstellung ausgewählt werden, welche beispielsweise für eine Intervention benötigt wird.
  • Der Vorgang des Erfassens und insbesondere eines anschließenden Auswertens durch einen Benutzer, beispielsweise einen Arzt, nimmt bei aus dem Stand der Technik bekannten 3D-Vorrichtungen derart viel Zeit in Anspruch, dass ein solches Erfassen und Auswerten regelmäßig vor einer Intervention oder in kritischen Phasen der Intervention nach aufwändiger Umlagerung des Patienten oder zur Kontrolle nach der Intervention durchgeführt wird. Während der Intervention müssen dann 2D-Erfassungsergebnisse, welche beispielsweise mit einer C-Bogen-Röntgenvorrichtung erzeugt wurden, durch einen Benutzer, beispielsweise einen Arzt mental mit den Erfassungsergebnis sen der 3D-Vorrichtung in Übereinstimmung gebracht werden, um das 2D-Erfassungsergebnis mit dem 3D-Erfassungsergebnis zu vergleichen.
  • Der Erfindung liegt somit das Problem zu Grunde, dass das von einer 3D-Vorrichtung erzeugte 3D-Erfassungsergebnis und das beispielsweise während einer Intervention gewonnene durch eine 2D-Vorrichtung, beispielsweise eine C-Bogen-Röntgenanlage, erzeugte 2D-Erfassungsergebnis durch einen Benutzer nur schwierig miteinander vergleichbar sind, um beispielsweise ein jeweils durch ein Erfassungsergebnis repräsentiertes Organ, ein Gefäß oder dergleichen wieder aufzufinden.
  • Das vorgenannte Problem wird durch eine Anordnung der eingangs genannten Art gelöst, bei welcher die 3D-Vorrichtung und die 2D-Vorrichtung jeweils derart insbesondere mechanisch miteinander verbunden sind, dass ein einem Objektort entsprechender Teil des ersten Erfassungsergebnisses einem demselben Objektort entsprechenden Teil des zweiten Erfassungsergebnisses zugeordnet werden kann.
  • Ein 3D-Erfassungsergebnis kann ein 3D-Datensatz sein, welcher ein Objekt wenigstens teilweise in wenigstens drei Dimensionen repräsentiert. Beispielsweise kann ein 3D-Datensatz ein Objekt in wenigstens 3 räumlichen Dimensionen repräsentieren. Ein 4D-Datensatz kann ein Objekt in 3 räumlichen und in einer weiteren, zeitabhängigen Dimension repräsentieren. Das Objekt ist im Falle eines 4D-Datensatzes somit zusätzlich in Abhängigkeit von der Zeit erfasst worden.
  • Ein 2D-Erfassungsergebnis kann ein 2D-Datensatz sein, welcher das Objekt wenigstens teilweise repräsentiert. Beispielsweise kann der 2D-Datensatz eine Aufsicht auf das Objekt, eine Durchsicht durch das Objekt oder einen Schnitt durch das Objekt repräsentieren. In einem anderen Ausführungsbeispiel kann ein 3D-Datensatz ein Objekt in wenigstens drei Dimensionen repräsentieren, wobei zwei Dimensionen ortsabhängig und somit räumlich, und eine Dimension zeitlich und somit zeitabhängig ist.
  • Weiter bevorzugt kann ein 3D-Datensatz Daten enthalten, welche einer Vielzahl von Voxel-Objektpunkten entsprechen und die Voxel-Objektpunkte zusammen wenigstens teilweise das Objekt in wenigstens drei Dimensionen repräsentieren. Dabei repräsentiert ein Voxel-Objektpunkt einen Ort in einem Objekt.
  • Ein 2D-Datensatz kann Daten enthalten, welche einer Vielzahl von Pixeln einer Abbildung eines Objekts entsprechen, wobei die Pixel zusammen die Abbildung eines Objekts wenigstens teilweise repräsentieren.
  • Ein Objekt kann dadurch wenigstens teilweise repräsentiert werden, dass ein Teil des Objekts, bei einem Patienten beispielsweise ein Organ oder ein Gefäß repräsentiert ist. Teilweises Repräsentieren eines Objekts kann alternativ oder zusätzlich dazu durch eine räumliche Beabstandung von zueinander benachbarten Erfassungspunkten gegeben sein.
  • Eine mechanische Verbindung der 2D-Vorrichtung mit der 3D-Vorrichtung kann beispielsweise eine starre Verbindung zwischen einem Gehäuseteil der 2D-Vorrichtung und einem Gehäuseteil der 3D-Vorrichtung sein. Alternativ dazu ist auch eine lösbare starre Verbindung zwischen den vorbezeichneten Gehäuseteilen vorgesehen.
  • Beispielsweise kann die Anordnung in einer bevorzugten Ausführungsform eine durch die 3D-Vorrichtung und durch die 2D-Vorrichtung gemeinsam nutzbare Aufnahmevorrichtung mit einer Aufnahmefläche zum Aufnehmen eines Objekts, insbesondere eines Patienten aufweisen. Die Aufnahmevorrichtung ist ausgebildet, das Objekt wahlweise der 3D-Vorrichtung zum Erfasstwerden durch die 3D-Vorrichtung, oder der 2D-Vorrichtung zum Erfasstwerden durch die 2D-Vorrichtung zuzuführen. Weiter bevorzugt kann die Aufnahmevorrichtung ausgebildet sein, die 3D-Vorrichtung mit der 2D-Vorrichtung mechanisch miteinander zu verbinden. Die Aufnahmevorrichtung bildet in dieser Ausführungsform vorteilhaft ein Verbindungsstück, welches zwischen der 3D-Vorrichtung und der 2D-Vorrichtung angeordnet ist.
  • In einer alternativen Ausführungsform können die 3D-Vorrichtung und die 2D-Vorrichtung jeweils mit einem Boden, beispielsweise einem Fußboden oder einer Verbindungsplattenboden verbunden sein, welcher ein starres Verbindungsstück bilden kann. Die Aufnahmevorrichtung kann Bestandteil der 3D-Vorrichtung oder der 2D-Vorrichtung sein.
  • Bevorzugt ist die Aufnahmevorrichtung ausgebildet, die Aufnahmefläche an eine vorbestimmte erste Position im Erfassungsbereich der 3D-Vorrichtung, oder wahlweise an eine vorbestimmte zweite Position im Erfassungsbereich der 2D-Vorrichtung zu bewegen.
  • An diesen relativ zueinander bekannten Positionen kann vorteilhaft ein Kalibieren der Anordnung erfolgen.
  • Durch die Aufnahmevorrichtung kann ein Objekt vorteilhaft an jeweils vorbestimmte Positionen in den Erfassungsbereichen der vorbezeichneten Vorrichtungen zugeführt werden, so dass einem Objektort entsprechende Teile der Erfassungsergebnisse einander zugeordnet werden können.
  • In einer bevorzugten Ausführungsform ist die Aufnahmevorrichtung ausgebildet, an mindestens einer vorbestimmten Position der Aufnahmefläche ein Kalibriersignal zu erzeugen. Dadurch wird vorteilhaft ein Zuordnen von Erfassungsorten, welche jeweils den selben Objektort repräsentieren, in einfacher Weise ermöglicht.
  • Bevorzugt ist die Aufnahmevorrichtung ausgebildet, die Aufnahmefläche durch Translationsbewegen und/oder Rotationsbewegen dem Erfassungsbereich der 3D-Vorrichtung oder wahlweise dem Erfassungsbereich der 2D-Vorrichtung zuzuführen.
  • Weiter bevorzugt ist die Aufnahmevorrichtung ausgebildet, die Aufnahmefläche um wenigstens eine räumliche Achse zu schwenken. Dadurch kann vorteilhaft ein Objekt, welches mit der Aufnahmefläche insbesondere starr verbunden ist, durch die 2D-Vorrichtung in einem Erfassungswinkel erfasst werden, welcher einem Erfassungswinkel einer Erfassung durch die 3D-Vorrichtung entspricht.
  • Weiter bevorzugt kann die Aufnahmevorrichtung ausgebildet sein, die Aufnahmefläche um zwei oder drei, insbesondere zueinander orthogonale räumliche Achsen zu schwenken.
  • In einer bevorzugten Ausführungsform ist die 2D-Vorrichtung mit der 3D-Vorrichtung elektrisch verbunden.
  • Bevorzugt weist die Anordnung einen Koordinatenspeicher auf, welcher jeweils mit der 3D-Vorrichtung und der 2D-Vorrichtung verbunden ist. Die 2D-Vorrichtung und die 3D-Vorrichtung sind jeweils ausgebildet, einen einem Objektort entsprechenden Objekt-Koordinaten-Datensatz zu erzeugen und den Objekt-Koordinaten-Datensatz in den Koordinatenspeicher abzuspeichern. Dadurch kann vorteilhaft ein Kalibrieren der Anordnung erfolgen.
  • Weiter bevorzugt weist die Anordnung eine Zuordnungseinheit mit einem Eingang für ein Kalibriersignal auf, wobei die Zuordnungseinheit ausgebildet ist, einen von der 3D-Vorrichtung erzeugten 3D-Objekt-Koordinaten-Datensatz dem von der 3D-Vorrichtung erzeugten 2D-Objekt-Koordinaten-Datensatz in Abhängigkeit eines eingangsseitig empfangenen Kalibriersignal zuzuordnen.
  • Dadurch wird ein Kalibrieren der Anordnung weiter vorteilhaft vereinfacht.
  • In einer vorteilhaften Ausführungsvariante weist die Anordnung einen Magnetfeld-Navigator auf, welcher ausgebildet ist, ein Magnetfeld mit einer räumlichen Ausrichtung zu erzeugen. Die räumliche Ausrichtung des Magnetfeldes ist in Abhängigkeit von einer Benutzerinteraktion derart änderbar, dass ein magnetisierbares oder magnetisiertes Objekt, insbesondere ein distales Katheterende eines Katheters, in einem Wirkbereich des Magnetfelds diesem entsprechend räumlich ausgerichtet werden kann.
  • Der Magnetfeld-Navigator ist bevorzugt mit dem Koordinatenspeicher mindestens mittelbar verbunden und ausgebildet, einen in dem Koordinatenspeicher abgespeicherten Objekt-Koordinaten-Datensatz auszulesen und eine Position des magnetisierbaren oder magnetisierten Objekts im Verhältnis zu dem ausgelesenen Objekt-Koordinaten-Datensatz auszugeben.
  • Alternativ zu dieser Ausführungsform kann der Magnetfeld-Navigator den Objektort des magnetisierbaren oder magnetisierten Objektes in Form von Koordinaten erzeugen, welche den durch den 2D-Objekt-Koordinaten-Datensatz oder dem 3D-Objekt-Koordinaten-Datensatz entsprechen.
  • Durch den Magnetfeld-Navigator kann vorteilhaft ein Katheterende an eine Position bewegt werden, welche einer vorbestimmten Position entspricht, die durch ein 3D-Erfassungsergebnis repräsentiert wird.
  • Ein Magnetfeld-Navigator kann vorteilhaft ein Magnetfeld-Navigator der Fa. Stereotaxis sein.
  • In einer vorteilhaften Ausführungsform kann die Anordnung einen Positionssensor aufweisen, welcher ausgebildet ist, die Position eines ortgebenden Objekts – beispielsweise eines Katheterendes – zu erfassen. Der Positionssensor ist bevorzugt mit dem Koordinatenspeicher mindestens mittelbar verbunden und ausgebildet, einen in dem Koordinatenspeicher abgespeicherten Objekt-Koordinaten-Datensatz auszulesen und eine Position des ortgebenden Objekts im Verhältnis zu dem ausgelesenen Objekt-Koordinaten-Datensatz auszugeben.
  • Alternativ zu dieser Ausführungsform kann der Positionssensor den Objektort des ortgebenden Objekts in Form von Koordinaten erzeugen, welche den durch den 2D-Objekt-Koordinaten-Datensatz oder dem 3D-Objekt-Koordinaten-Datensatz entsprechen.
  • Ein Positionssensor kann vorteilhaft ein Positionssensor der Fa. Biosense Webster sein.
  • In einer bevorzugten Ausführungsform weist die Anordnung eine Bildwiedergabeeinheit auf, welche mit der Zuordnungseinheit mindestens mittelbar verbunden ist. Die Anordnung ist ausgebildet, die durch das 2D-Erfassungsergebnis und durch das 3D-Erfassungsergebnis jeweils repräsentierten Objekte auf wenigstens eine Bildwiedergabeeinheit räumlich und/oder zeitlich gemeinsam darzustellen.
  • Die Erfindung betrifft auch ein Verfahren zum Erfassen eines Objekts, bevorzugt mit einer Anordnung der vorbezeichneten Art.
  • Das Verfahren umfasst die folgenden Schritte:
    • – wenigstens teilweises Erfassen eines Objekts in wenigstens drei Dimensionen und Erzeugen eines das Objekt wenigstens teilweise in wenigstens drei Dimensionen repräsentierenden 3D-Erfassungsergebnisses,
    • – Erzeugen eines einem Objektort entsprechenden 3D-Objekt-Koordinaten-Datensatzes,
    • – Abspeichern des 3D-Objekt-Koordinaten-Datensatzes,
    • – wenigstens teilweises Erfassen eines Objekts in wenigstens zwei Dimensionen und Erzeugen eines das Objekt in wenigstens zwei Dimensionen repräsentierenden 2D-Erfassungsergebnisses, wobei das 2D-Erfassungsergebnis das Objekt wenigstens teilweise, insbesondere eine Aufsicht auf das Objekt, eine Durchsicht durch das Objekt oder einen Schnitt durch das Objekt repräsentiert,
    • – Erzeugen eines einem Objektort entsprechenden 2D-Objekt-Koordinaten-Datensatzes, Abspeichern des 2D-Objekt-Koordinaten-Datensatzes,
    • – Zuordnen des 3D-Objekt-Koordinaten-Datensatz zu dem 2D-Objekt-Koordinaten-Datensatz in Abhängigkeit von einem Kalibriersignal.
  • Ein 2D-Objekt-Koordinaten-Datensatz kann einen Objektort in zwei oder drei räumlichen Dimensionen repräsentieren.
  • In einer weiter bevorzugten Ausführungsform weist das Verfahren zusätzlich den folgenden Schritt auf:
    • – gemeinsames Darstellen, insbesondere räumlich oder zeitlich gemeinsames Darstellen oder beides der durch das 2D-Erfassungsergbnis und durch das 3D-Erfassungsergebnis jeweils repräsentierten Objekte auf wenigstens einer Bildwiedergabeeinheit.
  • Ein räumlich gemeinsames Darstellen kann ein Darstellen in einem gemeinsamen Raum oder in einer gemeinsamen Ebene sein. Es können auch zueinander verschiedene Objektteile in einem gemeinsamen Raum oder in einer gemeinsamen Ebene dargestellt werden.
  • Die Erfindung wird nun im Folgenden anhand von Figuren erläutert.
  • 1 zeigt schematisch ein Ausführungsbeispiel einer Anordnung mit einer 3D-Vorrichtung, einer 2D-Vorrichtung und einer Aufnahmefläche, und
  • 2 zeigt schematisch ein Ausführungsbeispiel einer Anordnung mit einer 3D-Vorrichtung und einer 2D-Vorrichtung und einem Magnetfeld-Navigator.
  • 1 zeigt schematisch eine Anordnung 1 mit einer 3D-Vorrichtung 3, eine 2D-Vorrichtung 5 und einer Aufnahmevorrichtung 13.
  • Die 3D-Vorrichtung 3, beispielsweise ein SPECT-Scanner (SPECT = Single-Photon-Emissions-Computer-Tomograph) ist ausgebildet, ein Objekt 7 zu erfassen und ein das Objekt 7 wenigstens teilweise in drei Dimensionen repräsentierendes 3D-Erfassungsergebnis zu erzeugen. Die 3D-Vorrichtung kann auch ausgebildet sein, einen Erfassungsort entsprechenden 3D-Objekt-Koordinaten-Datensatz zu erzeugen und diesen ausgangsseitig auszugeben.
  • Das 3D-Erfassungsergebnis kann ein 3D-Datensatz sein, welcher durch eine Vielzahl von Voxel-Bildpunkten gebildet ist, welche zusammen wenigstens teilweise das Objekt 7 repräsentiert.
  • Der 3D-Datensatz kann auch den Objekt-Koordinaten-Datensatz enthalten, welche den durch die 3D-Vorrichtung erfassten Erfassungsort des Objekts 7 repräsentiert.
  • Die 2D-Vorrichtung, beispielsweise eine C-Bogen-Röntgenvorrichtung, ist zum Erfassen des Objekts und Erzeugen eines das Objekt in wenigstens zwei Dimensionen repräsentierenden 2D-Erfassungsergebnisses ausgebildet. Das 2D-Erfassungsergebnis repräsentiert das Objekt wenigstens teilweise, insbesondere eine Aufsicht auf das Objekt, eine Durchsicht durch das Objekt oder einen Schnitt durch das Objekt.
  • Die Aufnahmevorrichtung 13 weist eine Aufnahmefläche 15 und eine Schwenkverbindung 19 auf. Die Aufnahmefläche 15 ist über die Schwenkverbindung 19 mit der Aufnahmevorrichtung 13 verbunden. Die Aufnahmevorrichtung 13 ist ausgebildet, die Aufnahmefläche 15 in Abhängigkeit von einem eingangsseitig empfangenen Benutzerinteraktionssignal um eine Schwenkachse 17 zu schwenken. Dargestellt ist die Aufnahmefläche 15 in einer Schwenkposition 15'.
  • Die Aufnahmefläche 15 ist ausgebildet, ein Objekt 7, beispielsweise einen Patienten aufzunehmen.
  • In der in 1 dargestellten Ausführungsform ist die Aufnahmevorrichtung 13 ausgebildet, die Aufnahmefläche 15 um eine weitere – in dieser Abbildung nicht dargestellte – Schwenkachse zu schwenken. Die weitere Schwenkachse ist senkrecht zu der Schwenkachse 17 angeordnet. Die weitere Schwenkachse bewirkt, dass die Aufnahmefläche 15 in der Schwenkposition 15' in einer Ebene verläuft, welche im Verhältnis zu der Ebene, welche durch die Aufnahmefläche 15 in der zurückgeschwenkten Position beschrieben ist, geneigt ist.
  • Beispielsweise kann die Aufnahmevorrichtung 13 die Aufnahmefläche 15 im Bereich eines Schwenkwinkels von 180 Grad hin- und herschwenken.
  • Die Anordnung 1 weist auch eine Zuordnungsvorrichtung 25 auf, welche über eine bidirektionale Verbindungsleitung 43 mit der Aufnahmevorrichtung 13 verbunden ist. Die Zuordnungsvorrichtung 25 ist über einen Datenbus 41 mit der 2D-Vorrichtung 5 verbunden und über einen Datenbus 39 mit der 3D-Vorrichtung 3 verbunden.
  • Die Anordnung 1 weist auch einen Koordinatenspeicher 27 auf, welcher über eine Verbindungsleitung 33 mit der Zuordnungsvorrichtung 25 verbunden ist.
  • Die Anordnung 1 weist auch eine Bildwiedergabeeinheit 29 auf. Die Bildwiedergabeeinheit 29 weist eine berührungsempfindliche Oberfläche 31 auf, wobei die berührungsempfindliche Oberfläche 31 über eine Verbindungsleitung 37 mit der Zuordnungseinheit 25, und die Bildwiedergabeeinheit 29 über eine Verbindungsleitung 35 mit der Zuordnungseinheit 25 verbunden ist. Die Bildwiedergabeeinheit 29 kann beispielsweise ein TFT-Display sein (TFT = Thin Film Transistor).
  • Die berührungsempfindliche Oberfläche 31 ist ausgebildet, in Abhängigkeit von einem Berühren der berührungsempfindlichen Oberfläche 31 ein Berührungssignal zu erzeugen, welches einem Berührungsort der berührungsempfindlichen Oberfläche 31 ent spricht, und dieses ausgangsseitig über die Verbindungsleitung 37 auszugeben. Dargestellt ist auch eine Hand eines Benutzers 62, welche durch Berühren der berührungsempfindlichen Oberfläche 31 ein Berührungssignal mittelbar erzeugen kann.
  • Die Funktionsweise der Anordnung 1 wird nun wie folgt erläutert:
    Die 3D-Vorrichtung 3 kann den erzeugten 3D-Objekt-Koordinaten-Datensatz über den Datenbus 39 an die Zuordnungsvorrichtung 25 senden.
  • Dargestellt sind auch Objekt-Koordinaten 11, welche durch den Erfassungsort des Objekts 7 repräsentieren, an welchem das Objekt 7 durch die 3D-Vorrichtung erfasst worden ist.
  • Die Zuordnungsvorrichtung 25 ist ausgebildet, den über den Datenbus 39 empfangenen Objekt-Koordinaten-Datensatz über die Verbindungsleitung 33 ausgangsseitig auszugeben und in dem Koordinatenspeicher 27 abzuspeichern.
  • Die Aufnahmevorrichtung 13 kann in Abhängigkeit von einer Schwenkposition der Aufnahmefläche 15 ein Kalibriersignal erzeugen. Die Aufnahmevorrichtung 13 kann nun ein Kalibriersignal erzeugen, welches der Schwenkposition der Aufnahmefläche 15 im Erfassungsbereich der 3D-Vorrichtung entspricht, und dieses Kalibriersignal über die Verbindungsleitung 43 an die Zuordnungseinheit 25 senden. Diese Zuordnungseinheit 25 kann in Abhängigkeit von dem über die Verbindungsleitung 43 empfangenen Kalibriersignal den einen Erfassungsort repräsentierenden, über den Datenbus 39 empfangenen Objekt-Koordinaten-Datensatz über die Verbindungsleitung 33 an den Koordinatenspeicher 27 senden und dort abspeichern.
  • Die Aufnahmevorrichtung 13 kann nun – beispielsweise in Abhängigkeit von einem von der berührungsempfindlichen Oberfläche 31 erzeugten Berührungssignal – die Aufnahmefläche 15 in die Schwenkposition 15- schwenken und somit das auf der Auf nahmefläche 15 befindliche Objekt 7 entlang der Schwenkrichtung 23 in die Objektposition 7- und somit in den Erfassungsbereich der 2D-Vorrichtung 5 bringen. Eine resultierende Bewegung des Objekts 7 ist durch den Bewegungsrichtungspfeil 21 dargestellt.
  • Die 2D-Vorrichtung 5, beispielsweise eine C-Bogen-Röntgenvorrichtung, ist zum Erfassen eines Objekts und Erzeugen eines das Objekt in wenigstens zwei Dimensionen repräsentierenden 2D-Erfassungsergebnisses ausgebildet. In dieser Ausführungsform repräsentiert das 2D-Erfassungsergebnis beispielsweise eine Durchsicht durch das Objekt 7. Die 2D-Vorrichtung ist ausgebildet, das 2D-Erfassungsergebnis, beispielsweise einen 2D-Datensatz, welcher eine Vielzahl von Pixel-Bildpunkten aufweist, welche zusammen die Durchsicht durch das Objekt 7 repräsentieren, über den Datenbus 41 ausgangsseitig ausgeben.
  • Die Aufnahmevorrichtung 13 kann nun ein der Schwenkposition der Aufnahmefläche 15' entsprechendes Kalibriersignal erzeugen und dieses über die Verbindungsleitung 43 an die Zuordnungseinheit 25 senden. Die 2D-Vorrichtung ist ausgebildet, einen einem Erfassungsort des Objekts in der Schwenkposition 7' entsprechenden 2D-Objekt-Koordinaten-Datensatz erzeugen und diesen ausgangsseitig über den Datenbus 41 an die Zuordnungseinheit 25 zu senden.
  • Die Zuordnungseinheit 25 kann in Abhängigkeit von dem über die Verbindungsleitung 43 empfangenen, die Schwenkposition 15' repräsentierenden, Kalibriersignal den über den Datenbus 41 empfangenen 2D-Objekt-Koordinaten-Datensatz über die Verbindungsleitung 33 an den Koordinatenspeicher 27 senden und dort abspeichern.
  • Mit den in dem Koordinatenspeicher 27 abgespeicherten Objekt-Koordinaten-Datensätzen kann nun ein Zuordnen eines 2D-Erfassungsergebnisses, repräsentiert durch einen 2D-Datensatz zu einem 3D-Erfassungsergebnis, repräsentiert durch einen 3D-Datensatz durch die Zuordnungseinheit 25 erfolgen. Die Zuord nungseinheit 25 kann somit anhand der in dem Koordinatenspeicher 27 abgespeicherten Objekt-Koordinaten-Datensätze genau einem Objektort entsprechende Anteile des 2D-Datensatzes und des 3D-Datensatzes zueinander zuordnen und ein entsprechendes Zuordnungsergebnis erzeugen.
  • Die Zuordnungseinheit 25 kann das Zuordnungsergebnis ausgangsseitig ausgeben und über die Verbindungsleitung 35 an die Bildwiedergabeeinheit 29 zum gemeinsamen Darstellen auf der Bildwiedergabeeinheit 29 senden.
  • 2 zeigt ein Ausführungsbeispiel einer Anordnung 2 mit einer bereits in 1 beschriebenen 3D-Vorrichtung 3, einer bereits in 1 beschriebenen 2D-Vorrichtung 5, einer Aufnahmevorrichtung 13 mit einer Aufnahmefläche 15, welche ebenfalls bereits in 1 beschrieben worden sind.
  • Die Anordnung 2 zeigt auch eine Bildwiedergabeeinheit 29, welche ebenfalls in 1 bereits beschrieben ist und in diesem Ausführungsbeispiel in Anordnung 2 über einen Schwenkarm 52 mit einem Laufwagen 54 verbunden ist. Der Laufwagen 54 ist ausgebildet, entlang einer Längsachse 55 auf Schienen 56 hin- und herbewegt zu werden.
  • Die 2D-Vorrichtung ist in diesem Ausführungsbeispiel eine C-Bogen-Röntgenvorrichtung mit einem Standfuß 60.
  • Die Aufnahmevorrichtung 13 kann ein sich auf der Aufnahmefläche 15 befindendes Objekt, beispielsweise einen Patienten, wahlweise in den Erfassungsbereich der 2D-Vorrichtung 5, oder in den Erfassungsbereich der 3D-Vorrichtung 3 schwenken.
  • Die 3D-Vorrichtung 3 ist in einer Erfassungsposition dargestellt. Dargestellt ist auch eine Parkposition 3' der 3D-Vorrichtung.
  • Zusätzlich zu der in 1 dargestellten Anordnung 1 weist die Anordnung 2 einen Magnetfeld-Navigator auf. Der Magnet feld-Navigator weist einen Magnetfeldkopf 46 und eine Magnetfeldkopf 45 auf. Der Magnetfeldkopf 46 ist schwenkbar gelagert und kann auf einer Laufschiene 48 in die Schwenkposition 46' geschwenkt werden. Der Magnetfeldkopf 45 ist schwenkbar gelagert und kann auf einer Laufschiene 48 in die Schwenkposition 45' geschwenkt werden.
  • Die Magnetfeldköpfe 45 und 46 sind jeweils ausgebildet, ein Magnetfeld mit einer räumlichen Ausrichtung zu erzeugen. Der Magnetfeld-Navigator kann die räumliche Ausrichtung des Magnetfeldes in Abhängigkeit von einem Benutzerinteraktionssignal, beispielsweise einem von der berührungsempfindlichen Oberfläche 31 in 1 erzeugten Berührungssignal ändern.
  • Der Magnetfeld-Navigator kann mit dem in 1 dargestellten Koordinatenspeicher 27 verbunden sein und ist ausgebildet, in dem Koordinatenspeicher 27 abgespeicherte Objekt-Koordinaten-Datensätze auszulesen und einen Objektort eines magnetisierbaren oder magnetisierten Objektes, welches sich in dem ausgerichteten Magnetfeld befindet, im Verhältnis zu dem ausgelesenen Objekt-Koordinaten-Datensatz auszugeben.
  • Der Magnetfeld-Navigator kann diesen Datensatz, welcher den Objektort des magnetisierbaren Objektes repräsentiert, an die in 1 dargestellte Zuordnungseinheit 25 zum Darstellen auf der in 1 dargestellten Bildwiedergabeeinheit 29 senden.
  • Dargestellt sind auch das Abstandsmaß 58, welches 500 Zentimeter beträgt und das Abstandsmaß 57, welches 455 Zentimeter beträgt.

Claims (10)

  1. Anordnung (1) mit einer 3D-Vorrichtung (3), wobei die 3D-Vorrichtung (3) zum Erfassen eines Objekts (7) und Erzeugen eines das Objekt wenigstens teilweise in wenigstens drei Dimensionen repräsentierenden 3D-Erfassungsergebnisses ausgebildet ist und mit einer 2D-Vorrichtung (5), wobei die 2D-Vorrichtung (5) zum Erfassen des Objekts (7) und Erzeugen eines das Objekt (7) in wenigstens zwei Dimensionen repräsentierenden 2D-Erfassungsergebnisses ausgebildet ist, wobei das 2D-Erfassungsergebnis das Objekt (7) wenigstens teilweise, insbesondere eine Aufsicht auf das Objekt (7), eine Durchsicht durch das Objekt (7) oder einen Schnitt durch das Objekt (7) repräsentiert, dadurch gekennzeichnet, dass die 3D-Vorrichtung (3) und die 2D-Vorrichtung (5) jeweils derart insbesondere mechanisch und/oder elektrisch miteinander verbunden sind, dass ein einem Objektort entsprechender Teil des 3D-Erfassungsergebnisses einem demselben Objektort entsprechenden Teil des 2D-Erfassungsergebnisses zugeordnet werden kann.
  2. Anordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Anordnung einen Koordinatenspeicher (27) aufweist, welcher jeweils mit der 3D-Vorrichtung (3) und der 2D-Vorrichtung (5) mindestens mittelbar verbunden ist und die 2D-Vorrichtung (3) und die 3D-Vorrichtung (5) jeweils ausgebildet sind, einen einem Erfassungsort des Erfassungsergebnisses entsprechenden Objekt-Koordinaten-Datensatz zu erzeugen und den Objekt-Koordinaten-Datensatz zum Abspeichern in dem Koordinatenspeicher ausgangsseitig auszugeben.
  3. Anordnung nach Anspruch 2, dadurch gekennzeichnet, dass die Anordnung eine Zuordnungseinheit (25) mit einem Eingang für ein Kalibriersignal aufweist, wobei die Zuordnungs einheit (25) ausgebildet ist, den von der 3D-Vorrichtung (3) erzeugten Objekt-Koordinaten-Datensatz dem von der 2D-Vorrichtung (5) erzeugten Objekt-Koordinaten-Datensatz in Abhängigkeit eines eingangsseitig empfangenen Kalibriersignals zuzuordnen.
  4. Anordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Anordnung eine durch die 3D-Vorrichtung (3) und durch die 2D-Vorrichtung (5) gemeinsam nutzbare Aufnahmevorrichtung (13) mit einer Aufnahmefläche (15) zum Aufnehmen eines Objekts (7), insbesondere eines Patienten aufweist, wobei die Aufnahmevorrichtung (13) ausgebildet ist, die Aufnahmefläche (15) wahlweise an eine erste vorbestimmte Position im Erfassungsbereich der 3D-Vorrichtung (3) oder an eine zweite vorbestimmte Position im Erfassungsbereich der 2D-Vorrichtung (5) zu bewegen.
  5. Anordnung nach Anspruch 4, dadurch gekennzeichnet, dass die Aufnahmevorrichtung ausgebildet ist, an mindestens einer vorbestimmten Position der Aufnahmefläche ein Kalibriersignal zu erzeugen.
  6. Anordnung nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass die Aufnahmevorrichtung (13) ausgebildet ist, durch Translationsbewegen und/oder Rotationsbewegen der Aufnahmefläche (15) das Objekt (7) zuzuführen.
  7. Anordnung nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass die Aufnahmevorrichtung (13) ausgebildet ist, die Aufnahmefläche (15) um wenigstens eine räumliche Achse zu schwenken.
  8. Anordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Anordnung einen Magnetfeld-Navigator (45, 46) aufweist, welcher ausgebildet ist, ein Magnetfeld mit einer räumlichen Ausrichtung zu erzeugen, wobei die räumliche Ausrichtung des Magnetfeldes in Abhängigkeit von einer Benutzerinteraktion derart änderbar ist, dass ein magnetisierbares oder permanentmagnetisches Objekt, insbesondere im Bereich eines distalen Katheterendes, in einem Wirkbereich des Magnetfelds diesem entsprechend räumlich ausgerichtet werden kann, und der Magnetfeldnavigator (45, 46) mit dem Koordinatenspeicher (27) mindestens mittelbar verbunden und ausgebildet ist, einen in dem Koordinatenspeicher (27) abgespeicherten Objekt-Koordinaten-Datensatz auszulesen und eine Position des magnetisierbaren oder permanentmagnetischen Objekts im Verhältnis zu dem ausgelesenen Objekt-Koordinatendatensatz auszugeben.
  9. Verfahren zum Erfassen eines Objekts, insbesondere mit einer Anordnung gemäß einem der vorhergehenden Ansprüche, umfassend die folgenden Schritte: – wenigstens teilweises Erfassen eines Objekts (7) in wenigstens drei Dimensionen und Erzeugen eines das Objekt wenigstens teilweise in wenigstens drei Dimensionen repräsentierenden 3D-Erfassungsergebnisses, – Erzeugen eines einem Objektort entsprechenden 3D-Objekt-Koordinaten-Datensatzes, – Abspeichern des 3D-Objekt-Koordinaten-Datensatzes, – wenigstens teilweises Erfassen eines Objekts (7) in wenigstens zwei Dimensionen und Erzeugen eines das Objekt (7) in wenigstens zwei Dimensionen repräsentierenden 2D-Erfassungsergebnisses, wobei das 2D-Erfassungsergebnis das Objekt (7) wenigstens teilweise, insbesondere eine Aufsicht auf das Objekt (7), eine Durchsicht durch das Objekt oder einen Schnitt durch das Objekt repräsentiert, – Erzeugen eines einem Objektort entsprechenden 2D-Objekt-Koordinaten-Datensatzes, Abspeichern des 2D-Objekt-Koordinaten-Datensatzes und – Zuordnen des 3D-Objekt-Koordinaten-Datensatz zu dem 2D-Objekt-Koordinaten-Datensatz in Abhängigkeit von einem Kalibriersignal.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass das Verfahren zusätzlich den folgenden Schritt aufweist: – gemeinsames Darstellen, insbesondere räumlich und/oder zeitlich gemeinsames Darstellen der durch das 2D-Erfassungsergebnis und durch das 3D-Erfassungsergebnis jeweils repräsentierten Objekte auf wenigstens einer Bildwiedergabeeinheit.
DE102005046416A 2005-09-28 2005-09-28 Anordnung zum Erfassen eines Objekts Ceased DE102005046416A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102005046416A DE102005046416A1 (de) 2005-09-28 2005-09-28 Anordnung zum Erfassen eines Objekts
US11/529,681 US20070083103A1 (en) 2005-09-28 2006-09-28 Arrangement for acquiring an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005046416A DE102005046416A1 (de) 2005-09-28 2005-09-28 Anordnung zum Erfassen eines Objekts

Publications (1)

Publication Number Publication Date
DE102005046416A1 true DE102005046416A1 (de) 2007-04-05

Family

ID=37852579

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005046416A Ceased DE102005046416A1 (de) 2005-09-28 2005-09-28 Anordnung zum Erfassen eines Objekts

Country Status (2)

Country Link
US (1) US20070083103A1 (de)
DE (1) DE102005046416A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011097537A2 (en) * 2010-02-04 2011-08-11 University Of Florida Research Foundation,Inc. Sample point-based, blob-like, closed-surface delineation approach

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5740802A (en) * 1993-04-20 1998-04-21 General Electric Company Computer graphic and live video system for enhancing visualization of body structures during surgery
US5999840A (en) * 1994-09-01 1999-12-07 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets
WO2004000120A1 (en) * 2002-06-24 2003-12-31 Raytherapy Positioning Ab Patient representation in medical machines
GB2391125A (en) * 2002-07-19 2004-01-28 Mirada Solutions Ltd Registration of multi-modality data in imaging
US20040024262A1 (en) * 1999-05-11 2004-02-05 Jariwala Chetan P Alkylated fluorochemical oligomers and use thereof in the treatment of fibrous substrates

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6279579B1 (en) * 1998-10-23 2001-08-28 Varian Medical Systems, Inc. Method and system for positioning patients for medical treatment procedures
US7313429B2 (en) * 2002-01-23 2007-12-25 Stereotaxis, Inc. Rotating and pivoting magnet for magnetic navigation
US7366562B2 (en) * 2003-10-17 2008-04-29 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
GB0007018D0 (en) * 2000-03-22 2000-05-10 Akguen Ali Magnetic resonance imaging apparatus and method
US6537196B1 (en) * 2000-10-24 2003-03-25 Stereotaxis, Inc. Magnet assembly with variable field directions and methods of magnetically navigating medical objects
US7774046B2 (en) * 2003-03-13 2010-08-10 Stereotaxis, Inc. Magnetic navigation system
DE10358735B4 (de) * 2003-12-15 2011-04-21 Siemens Ag Kathetereinrichtung umfassend einen Katheter, insbesondere einen intravaskulären Katheter

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5740802A (en) * 1993-04-20 1998-04-21 General Electric Company Computer graphic and live video system for enhancing visualization of body structures during surgery
US5999840A (en) * 1994-09-01 1999-12-07 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets
US20040024262A1 (en) * 1999-05-11 2004-02-05 Jariwala Chetan P Alkylated fluorochemical oligomers and use thereof in the treatment of fibrous substrates
WO2004000120A1 (en) * 2002-06-24 2003-12-31 Raytherapy Positioning Ab Patient representation in medical machines
GB2391125A (en) * 2002-07-19 2004-01-28 Mirada Solutions Ltd Registration of multi-modality data in imaging

Also Published As

Publication number Publication date
US20070083103A1 (en) 2007-04-12

Similar Documents

Publication Publication Date Title
DE69721045T2 (de) Vorrichtung und verfahren zur darstellung von ultraschallbildern
DE10114099B4 (de) Verfahren zum Detektieren der dreidimensionalen Position eines in einen Körperbereich eingeführten medizinischen Untersuchungsinstruments, insbesondere eines in ein Gefäß eingeführten Katheters
DE4225112C1 (de) Einrichtung zum Messen der Position eines Instruments relativ zu einem Behandlungsobjekt
EP2309925B1 (de) Röntgenbild-aufnahmesystem und röntgenbild-aufnahmeverfahren zur aufnahme von bilddaten mit röntgengeräten für eine volumenrekonstruktion
DE102004030836A1 (de) Verfahren zur Bilddarstellung eines in einen sich rhythmisch oder arhythmisch bewegenden Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments, insbesondere eines Katheters
DE19725137A1 (de) Medizinisches Untersuchungsgerät mit Mitteln zur Erfassung von Patienten- und/oder Gerätebewegungen
DE102013110580A1 (de) Verfahren zum optischen Abtasten und Vermessen einer Szene
DE102005036322A1 (de) Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion
DE10051244A1 (de) Röntgenfreies intravaskuläres Lokalisierungs- und Bildgebungsverfahren
DE19958443A1 (de) Bedieneinrichtung
DE212012000054U1 (de) Geräte, Aufbau, Schaltungen und Systeme zum Beurteilen, Einschätzen und/oder Bestimmen relativer Positionen, Ausrichtungen, Orientierungen und Rotationswinkel eines Teils eines Knochens und zwischen zwei oder mehreren Teilen eines oder mehrerer Knochen
DE10201644A1 (de) Registrierungsprozedur bei projektiver intraoperativer 3D-Bildgebung
WO2007014966A1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE10243162B4 (de) Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt
DE102006014902A1 (de) Bildverarbeitungseinrichtung zur erweiterten Darstellung von dreidimensionalen Bilddatensätzen
DE102006049575A1 (de) Erfassungsvorrichtung zum Erfassen eines Objekts in bis zu drei Dimensionen mittels Röntgenstrahlen in zueinander verschiedenen Erfassungsrichtungen
DE102011083634B4 (de) Vorrichtung und Verfahren für eine Bilddarstellung
DE102005046416A1 (de) Anordnung zum Erfassen eines Objekts
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102014210051A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Oberflächentopographie eines Körpers
DE102006051782B4 (de) Verfahren zur Kalibrierung einer Röntgendiagnostikeinrichtung mit einem C-Bogen
DE102007051479A1 (de) Verfahren und Vorrichtung zur Darstellung von Bilddaten mehrerer Bilddatensätze während einer medizinischen Intervention
DE102017215074A1 (de) Verfahren und Auswahleinheit zum Auswählen eines virtuellen Objekts oder eines Bildparameterwerts
DE102020215559A1 (de) Verfahren zum Betreiben eines Visualisierungssystems bei einer chirurgischen Anwendung und Visualisierungssystem für eine chirurgische Anwendung
DE102019204361A1 (de) Erhöhung der Genauigkeit einer Positionierung eines beweglichen medizinischen Röntgengerätes relativ zu einem Untersuchungsobjekt mittels eines Kamerasystems

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
8131 Rejection