DE102010020287A1 - Method for detecting position of investigation object during treatment of fracture, involves determining object position based on set of diagram parameter values determined around correspondence between acquired and virtual image data - Google Patents
Method for detecting position of investigation object during treatment of fracture, involves determining object position based on set of diagram parameter values determined around correspondence between acquired and virtual image data Download PDFInfo
- Publication number
- DE102010020287A1 DE102010020287A1 DE102010020287A DE102010020287A DE102010020287A1 DE 102010020287 A1 DE102010020287 A1 DE 102010020287A1 DE 102010020287 A DE102010020287 A DE 102010020287A DE 102010020287 A DE102010020287 A DE 102010020287A DE 102010020287 A1 DE102010020287 A1 DE 102010020287A1
- Authority
- DE
- Germany
- Prior art keywords
- image data
- virtual
- data
- parameter values
- volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000010586 diagram Methods 0.000 title abstract description 9
- 238000011835 investigation Methods 0.000 title abstract description 7
- 208000010392 Bone Fractures Diseases 0.000 title description 6
- 206010017076 Fracture Diseases 0.000 title 1
- 238000004590 computer program Methods 0.000 claims abstract description 9
- 238000013507 mapping Methods 0.000 claims description 80
- 238000003384 imaging method Methods 0.000 claims description 66
- 239000011159 matrix material Substances 0.000 claims description 15
- 230000005855 radiation Effects 0.000 claims description 14
- 230000003287 optical effect Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 8
- 238000006073 displacement reaction Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 claims description 4
- 238000002059 diagnostic imaging Methods 0.000 claims description 3
- 230000005670 electromagnetic radiation Effects 0.000 claims description 2
- 239000003550 marker Substances 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims 1
- 230000008859 change Effects 0.000 description 19
- 210000000988 bone and bone Anatomy 0.000 description 13
- 238000012360 testing method Methods 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 10
- 238000011524 similarity measure Methods 0.000 description 10
- 230000001419 dependent effect Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 7
- 230000001225 therapeutic effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000002560 therapeutic procedure Methods 0.000 description 5
- 238000003909 pattern recognition Methods 0.000 description 4
- 210000000689 upper leg Anatomy 0.000 description 4
- 238000002591 computed tomography Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 239000007943 implant Substances 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000035515 penetration Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000003325 tomography Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000002626 targeted therapy Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000008733 trauma Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/08—Auxiliary means for directing the radiation beam to a particular spot, e.g. using light beams
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4405—Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4429—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
- A61B6/4435—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
- A61B6/4441—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/254—User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/54—Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
- G01R33/56—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
- G01R33/5608—Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/54—Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
- G01R33/56—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
- G01R33/565—Correction of image distortions, e.g. due to magnetic field inhomogeneities
- G01R33/56509—Correction of image distortions, e.g. due to magnetic field inhomogeneities due to motion, displacement or flow, e.g. gradient moment nulling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
- G06T2207/10121—Fluoroscopy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
- G06T2207/10124—Digitally reconstructed radiograph [DRR]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Radiology & Medical Imaging (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- High Energy & Nuclear Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Lagebestimmung eines Untersuchungsobjekts. Die Erfindung betrifft insbesondere ein Verfahren und eine Vorrichtung, das bzw. die eine Lagebestimmung abhängig von vorab aufgenommenen dreidimensionalen (3D) Volumendaten des Untersuchungsobjekts erlaubt.The invention relates to a method and a device for determining the position of an examination subject. In particular, the invention relates to a method and a device which permits a position determination as a function of pre-recorded three-dimensional (3D) volume data of the examination object.
Die dreidimensionale Bild- oder Objekterfassung ist in der medizinischen Technik weit verbreitet. 3D-Volumendaten dienen häufig zur Vorbereitung von therapeutischen und/oder chirurgischen Maßnahmen. Ein Anwendungsbeispiel ist die Traumarekonstruktion, beispielsweise zur Behandlung von Knochenbrüchen, bei der anhand vorab aufgenommener 3D-Volumendaten des Untersuchungsobjekts weitere Behandlungsschritte geplant werden können. Wenn eine 3D-Bildgebung bei oder unmittelbar vor einer Therapie, und während das Untersuchungsobjekt bereits für die Therapie positioniert ist, durchgeführt wird, ist die Lage des Untersuchungsobjekts bei der Erfassung der 3D-Volumendaten bekannt. Dies erlaubt es, die 3D-Volumendaten unmittelbar zur Therapie heranzuziehen. Jedoch kann eine derartige in-situ-3D-Bildgebung aus zeitlichen Gründen oder aufgrund der damit einhergehenden Strahlenbelastung unerwünscht sein. Aus diesen Gründen kann es wünschenswert sein, vorab aufgenommene 3D-Volumendaten des Untersuchungsobjekts später erneut zu verwenden.Three-dimensional image or object detection is widely used in medical technology. 3D volume data are often used to prepare for therapeutic and / or surgical procedures. An example of an application is the trauma construction, for example for the treatment of bone fractures, in which further treatment steps can be planned on the basis of pre-recorded 3D volume data of the examination subject. When 3D imaging is performed at or just prior to therapy, and while the subject is already positioned for therapy, the location of the subject under examination is known upon acquisition of the 3D volume data. This allows the 3D volume data to be used directly for therapy. However, such in-situ 3D imaging may be undesirable for time reasons or due to the associated radiation exposure. For these reasons, it may be desirable to reuse pre-recorded 3D volume data of the subject later.
Für eine zuverlässige Verwendung von vorab aufgenommenen 3D-Volumendaten kann es erforderlich sein, eine räumliche Zuordnung der 3D-Volumendaten zur Lage des Untersuchungsobjekts zu einem späteren Zeitpunkt, beispielsweise während eines Eingriffs, zu bestimmen. Beispielsweise kann es für eine zielgerichtete Therapie einer Knochenfraktur, deren Lage und Verlauf vorab in 3D-Volumendaten aufgenommen wurde, erforderlich sein, die Lage des Untersuchungsobjekts vor Beginn eines Eingriffs mit den 3D-Volumendaten in Beziehung zu setzen.For a reliable use of pre-recorded 3D volume data, it may be necessary to determine a spatial allocation of the 3D volume data to the position of the examination subject at a later time, for example during an intervention. For example, for targeted therapy of a bone fracture whose location and history have been pre-recorded in 3D volume data, it may be necessary to relate the location of the examination subject to the 3D volume data prior to beginning an intervention.
Eine Möglichkeit, 3D-Volumendaten mit einer Lage des Untersuchungsobjekts zu einem späteren Zeitpunkt in Beziehung zu setzen, besteht in der so genannten Registrierung unter Verwendung von Marken. Dabei können eine oder mehrere Marken an dem Untersuchungsobjekt angebracht werden. Die Marken, beispielsweise verschiedenfarbige Kugeln, werden mit einem Stereokamerasystem aufgenommen. Die Position der Untersuchungsobjekts wird durch eine Bildauswertung ermittelt. Eine derartige markenbasierte Registrierung kann zusätzlichen apparativen Aufwand erfordern, der aus Kostengründen unerwünscht sein kann. Die Marken müssen gegebenenfalls über einen längeren Zeitraum an wohldefinierten Positionen an dem Untersuchungsobjekt angebracht bleiben.One way to correlate 3D volume data with a location of the examination object at a later time is by the so-called registration using marks. One or more marks can be attached to the examination object. The marks, for example, different colored balls, are recorded with a stereo camera system. The position of the examination object is determined by an image analysis. Such a mark-based registration may require additional equipment, which may be undesirable for cost reasons. If necessary, the marks must remain attached to the object to be examined at well-defined positions for a longer period of time.
Ein Verfahren, bei dem die Bewegung eines Untersuchungsobjekts basierend auf einer 2D/3D-Registrierung verfolgt wird, ist in der
Aufgabe der Erfindung ist es, ein Verfahren und eine Vorrichtung anzugeben, das bzw. die es erlaubt, die Lage eines Untersuchungsobjekts mit vorab aufgenommenen 3D-Volumendaten in Beziehung zu setzen. Insbesondere liegt der Erfindung die Aufgabe zugrunde, ein derartiges Verfahren und eine derartige Vorrichtung anzugeben, bei dem bzw. bei der die Beziehung zwischen der Lage des Untersuchungsobjekts mit den vorab aufgenommenen 3D-Volumendaten abhängig von 2D-Bilddaten erfolgen kann, ohne die Stellung der zum Erfassen der 2D-Bilddaten verwendeten Datenerfassungseinrichtung relativ zu dem Untersuchungsobjekt genau kennen zu müssen.The object of the invention is to specify a method and a device which allow the position of an examination subject to be related to pre-recorded 3D volume data. In particular, the invention has for its object to provide such a method and apparatus in which or in which the relationship between the position of the examination object with the pre-recorded 3D volume data can be dependent on 2D image data, without the position of the Detecting the 2D image data used data acquisition device relative to the examination object to know exactly.
Erfindungsgemäß werden ein Verfahren, ein Computerprogramm und eine Vorrichtung angegeben, wie sie in den unabhängigen Ansprüchen definiert sind. Die abhängigen Ansprüche definieren bevorzugte oder vorteilhafte Ausführungsformen der Erfindung.The invention provides a method, a computer program and a device as defined in the independent claims. The dependent claims define preferred or advantageous embodiments of the invention.
Bei einem Verfahren zum Bestimmen einer Lage eines Untersuchungsobjekts nach einem Aspekt der Erfindung wird ein Satz von 2D-Bilddaten, der das Untersuchungsobjekt repräsentiert, mit einer Datenerfassungseinrichtung erfasst. Eine Lage des Untersuchungsobjekts wird abhängig von 3D-Volumendaten des Untersuchungsobjekts und den erfassten 2D-Bilddaten ermittelt. Zum Ermitteln der Lagen werden virtuelle 2D-Bilddaten aus den 3D-Volumendaten abhängig von Abbildungsparametern rechnerisch ermittelt. Die Abbildungsparameter beschreiben eine Abbildung zwischen Voxel-Koordinatentripeln eines durch die 3D-Volumendaten repräsentierten Volumens und Pixel-Koordinatentupeln von 2D-Bilddaten. Die virtuellen 2D-Bilddaten werden für mehrere Sätze von Abbildungsparameterwerten der Abbildungsparameter ermittelt, um eine Übereinstimmung zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten zu erhöhen. Die Lage des Untersuchungsobjekts wird abhängig von wenigstens einem Satz von Abbildungsparameterwerten ermittelt.In a method for determining a position of an examination object according to an aspect of the invention, a set of 2D image data representing the examination subject is detected with a data acquisition device. A position of the examination subject is determined depending on 3D volume data of the examination subject and the acquired 2D image data. To determine the positions, virtual 2D image data from the 3D volume data are computationally determined as a function of imaging parameters. The mapping parameters describe an image between voxel coordinate triplets of volume represented by the 3D volume data and pixel coordinate tuples of 2D image data. The 2D virtual image data is acquired for a plurality of sets of imaging parameter values of the imaging parameters to increase a match between the 2D virtual image data and the acquired 2D image data. The location of the examination subject is determined depending on at least one set of mapping parameter values.
Bei dem Verfahren kann die Lage des Untersuchungsobjekts durch einen Vergleich von aus den 3D-Volumendaten rechnerisch ermittelten virtuellen 2D-Bilddaten und dem tatsächlich erfassten Satz von 2D-Bilddaten ermittelt werden. Durch Wählen von verschiedenen Sätzen von Abbildungsparameterwerten können verschiedene Positionen und/oder Orientierungen des durch die 3D-Volumendaten repräsentierten Volumens ausgetestet und so die tatsächliche Lage des Untersuchungsobjekts bei der Erfassung der 2D-Bilddaten ermittelt werden. Das Erfassen eines einzigen Satzes von 2D-Bilddaten, der genau eine 2D-Abbildung des Untersuchungsobjekts repräsentiert, kann für die Ermittlung der Lage ausreichen. Es ist jedoch nicht ausgeschlossen, dass auch mehrere Sätze von 2D-Bilddaten erfasst werden können, um die Lage des Untersuchungsobjekts zu einem Zeitpunkt oder mehrere unterschiedliche Lagen des Untersuchungsobjekts zu unterschiedlichen Zeitpunkten zu ermitteln. Im Vergleich zu einer vollständigen erneuten 3D-Bildgebung kann Zeit eingespart und eine Strahlenbelastung verringert werden. Die Lage des Objekts kann bei dem Verfahren auch implizit ermittelt werden, beispielsweise durch Speichern des zuletzt eingestellten Satzes von Abbildungsparameterwerten oder von daraus abgeleiteten Größen. In the method, the position of the examination object can be determined by a comparison of virtual 2D image data computationally determined from the 3D volume data and the actually acquired set of 2D image data. By choosing different sets of imaging parameter values, different positions and / or orientations of the volume represented by the 3D volume data can be tested out and thus the actual position of the examination subject in the acquisition of the 2D image data can be determined. Capturing a single set of 2D image data that represents exactly one 2D image of the examination subject may be sufficient for determining the location. However, it is not excluded that also several sets of 2D image data can be detected in order to determine the position of the examination subject at one time or several different positions of the examination subject at different times. Time can be saved and radiation exposure reduced compared to full 3D imaging. The position of the object can also be determined implicitly in the method, for example by storing the last set of mapping parameter values or variables derived therefrom.
Die Abbildungsparameter können Einträge einer Projektionsmatrix umfassen. Mit Projektionsmatrizen lassen sich Abbildungen von Voxel-Koordinatentripeln in Pixel-Koordinatentupel bei der 2D-Röntgenbildgebung gut beschreiben. Die virtuellen 2D-Bilddaten können für die mehreren Sätze von Abbildungsparameterwerten durch eine radiographische Projektion ermittelt werden. Auf diese Weise lassen sich verschiedene Lagen des durch die 3D-Volumendaten repräsentierten Volumens bei der 2D-Röntgenbildgebung rechnerisch simulieren.The mapping parameters may include entries of a projection matrix. Projection matrices are a good way to describe mappings of voxel coordinate triples in pixel coordinate tuples in 2D X-ray imaging. The 2D virtual image data may be determined for the multiple sets of imaging parameter values by a radiographic projection. In this way, different positions of the volume represented by the 3D volume data can be mathematically simulated in the 2D X-ray imaging.
Die Lage des Untersuchungsobjekts kann abhängig von einem Satz von Abbildungsparameterwerten ermittelt werden, für den die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten vorgegebene Ähnlichkeitskriterien erfüllen. Verschiedene Ähnlichkeitsmaße können verwendet werden, beispielsweise Kreuzkorrelationen, wechselseitige Entropie, wechselseitige Information, Gradienten-Kreuzkorrelationen, Zählraten von Bildsignaldifferenzen, Musterintensitäten und dergleichen, um das Erfüllen von Ähnlichkeitskriterien zu überprüfen. Auf diese Weise kann die Ähnlichkeit zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten quantifiziert werden. Es können diejenigen Werte von Abbildungsparametern ermittelt werden, für die die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten gut, insbesondere am besten, übereinstimmen. Aus diesen Werten kann die Lage des Untersuchungsobjekts ermittelt werden.The location of the examination subject may be determined depending on a set of imaging parameter values for which the 2D virtual image data and the acquired 2D image data satisfy predetermined similarity criteria. Various similarity measures may be used, for example, cross-correlations, mutual entropy, mutual information, gradient cross-correlations, count rates of image signal differences, pattern intensities, and the like to verify compliance with similarity criteria. In this way, the similarity between the virtual 2D image data and the acquired 2D image data can be quantified. It is possible to determine those values of imaging parameters for which the 2D virtual image data and the acquired 2D image data agree well, in particular best. From these values, the position of the examination subject can be determined.
Die mehreren Sätze von Abbildungsparameterwerten können so bestimmt werden, dass sie die Abbildung zwischen den Voxel-Koordinatentripeln und den Pixel-Koordinatentupeln für mehrere unterschiedliche Lagen des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einem Strahlenbündel beschreiben. Auf diese Weise können unterschiedliche Lagen des Volumens relativ zu Strahlen eines Strahlenbündels ausgetestet werden. Das durch die 3D-Volumendaten repräsentierte Volumen kann gewissermaßen relativ zu einer Strahlungsquelle und einem Detektor der Datenerfassungseinrichtung translatorisch verschoben und/oder rotiert werden, um jeweils die resultierenden virtuellen 2D-Bilddaten zu ermitteln und schließlich mit den erfassten 2D-Bilddaten möglichst gut zur Deckung zu bringen.The plurality of sets of mapping parameter values may be determined to describe the mapping between the voxel coordinate triples and the pixel coordinate tuples for a plurality of different layers of the volume represented by the 3D volume data relative to a ray bundle. In this way, different layers of the volume can be tested relative to rays of a beam. The volume represented by the 3D volume data can, as it were, be translated and / or rotated relative to a radiation source and a detector of the data acquisition device in order respectively to determine the resulting virtual 2D image data and finally coincide as well as possible with the acquired 2D image data bring.
Die mehreren Sätze von Abbildungsparameterwerten können derart bestimmt werden, dass die unterschiedlichen Lagen sich in einer Orientierung des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einem vorgegebenen Strahl, beispielsweise dem Zentralstrahl, des Strahlenbündels unterscheiden. Alternativ oder zusätzlich können sich die unterschiedlichen Lagen in einem lateralen Versatz des durch die 3D-Volumendaten repräsentierten Volumens relativ zu dem Zentralstrahl des Strahlenbündels oder zu einer Bildebene unterscheiden. Alternativ oder zusätzlich können sich die unterschiedlichen Lagen in einem Abstand des durch die 3D-Volumendaten repräsentierten Volumens von dem Fokus des Strahlenbündels oder der Bildebene unterscheiden. Auf diese Weise können verschiedene Lagen des durch die 3D-Volumendaten repräsentierten Volumens ausgetestet werden, die den mit verschiedenen Datenerfassungseinrichtungen realisierbaren Änderungen von Relativpositionen entsprechen.The plurality of sets of mapping parameter values may be determined such that the different layers differ in an orientation of the volume represented by the 3D volume data relative to a given beam, for example the central beam, of the beam. Alternatively or additionally, the different layers may differ in a lateral offset of the volume represented by the 3D volume data relative to the central ray of the ray bundle or to an image plane. Alternatively or additionally, the different layers may differ from the focus of the beam or the image plane at a distance of the volume represented by the 3D volume data. In this way, different layers of the volume represented by the 3D volume data can be tested, which correspond to the changes of relative positions that can be realized with different data acquisition devices.
Wenigstens ein Satz von Abbildungsparameterwerten kann abhängig von einer Benutzereingabe bestimmt werden. Auf diese Weise kann der Benutzer kontrollieren, welche verschiedenen Lagen des durch die 3D-Volumendaten repräsentierten Volumens simuliert werden sollen.At least one set of mapping parameter values may be determined depending on a user input. In this way, the user can control which different layers of the volume represented by the 3D volume data should be simulated.
Die Benutzereingabe kann über eine Eingabeeinrichtung der Datenerfassungseinrichtung erfolgen. Die aus der Benutzereingabe resultierende Änderung der Abbildungsparameterwerte kann derart sein, dass sie einer aus dieser Benutzereingabe resultierenden Änderung der Relativposition und Relativorientierung zwischen dem Untersuchungsobjekt und der Datenerfassungseinrichtung entspricht, die resultiert, wenn mit der Eingabeeinrichtung der Betrieb der Datenerfassungseinrichtung gesteuert wird. Auf diese Weise kann der Benutzer intuitiv und mit einer ihm bekannten Steuerung den Parameterraum austesten.The user input can take place via an input device of the data acquisition device. The change in the mapping parameter values resulting from the user input may be such that it corresponds to a change in the relative position and relative orientation between the examination subject and the data acquisition device resulting from this user input, which results when combined with the Input device, the operation of the data acquisition device is controlled. In this way, the user can intuitively test the parameter space with a controller known to him.
Alternativ oder zusätzlich zu einer benutzerdefinierten Variation der Abbildungsparameterwerte kann bei der iterativen rechnerischen Ermittlung von virtuellen 2D-Bilddaten wenigstens ein Satz von Abbildungsparameterwerten automatisch bestimmt werden. Dazu kann bei einer Ausführungsform abhängig von einem Vergleich der für einen Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten mit den erfassten 2D-Bilddaten automatisch überprüft werden, ob ein vorgegebenes Gütekriterium erfüllt ist. Falls das Gütekriterium nicht erfüllt ist, beispielsweise falls ein Ähnlichkeitsmaß zwischen den erfassten 2D-Bilddaten und den für den Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten kleiner als eine vorgegebene Schranke ist, kann automatisch ein weiterer Satz von Abbildungsparameterwerten derart ermittelt werden, dass ein Ähnlichkeitsmaß zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten erhöht wird. Dies erlaubt eine rechnergestützte Automatisierung bei der Ermittlung neuer Werte der Abbildungsparameter.Alternatively or in addition to a user-defined variation of the mapping parameter values, in the iterative computational determination of virtual 2D image data, at least one set of mapping parameter values may be automatically determined. For this purpose, in one embodiment, depending on a comparison of the virtual 2D image data determined for a set of mapping parameter values with the acquired 2D image data, it can be automatically checked whether a predefined quality criterion is fulfilled. If the quality criterion is not met, for example, if a similarity measure between the acquired 2D image data and the virtual 2D image data determined for the set of mapping parameter values is less than a predetermined bound, another set of mapping parameter values may be automatically determined such that a similarity measure between the 2D virtual image data and the acquired 2D image data. This allows computer-aided automation in the determination of new values of the imaging parameters.
An dem Untersuchungsobjekt kann wenigstens eine Marke vorgesehen sein, die in den erfassten 2D-Bilddaten und den virtuellen 2D-Bilddaten sichtbar ist. Abhängig von Lagen der Marke in den erfassten 2D-Bilddaten und den für einen Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten kann abhängig von einer Benutzereingabe oder automatisch ein neuer Satz von Abbildungsparameterwerten ermittelt werden. Marken, wie beispielsweise Implantate, können starke Signaturen in den erfassten 2D-Bilddaten hinterlassen, die zur Ermittlung der Lage des Untersuchungsobjekts genutzt werden können.At least one mark may be provided on the examination object which is visible in the acquired 2D image data and the virtual 2D image data. Depending on a location of the mark in the acquired 2D image data and the virtual 2D image data determined for a set of mapping parameter values, a new set of mapping parameter values may be determined depending on a user input or automatically. Markers, such as implants, can leave strong signatures in the captured 2D image data that can be used to determine the location of the examination subject.
Die erfassten 2D-Bilddaten und die virtuellen 2D-Bilddaten können über eine optische Ausgabeeinrichtung ausgegeben werden. Dies erlaubt es einem Benutzer, die Güte der erreichten Übereinstimmung abzuschätzen und/oder eine benutzerdefinierte Änderung der Abbildungsparameterwerte vorzunehmen.The captured 2D image data and the virtual 2D image data may be output via an optical output device. This allows a user to estimate the quality of the match achieved and / or make a user-defined change in the mapping parameter values.
Die erfassten 2D-Bilddaten und die virtuellen 2D-Bilddaten können gleichzeitig und kodiert, beispielsweise farbkodiert und/oder polarisationskodiert, über die optische Ausgabeeinrichtung ausgegeben werden. Beispielsweise können die erfassten 2D-Bilddaten in einer ersten Farbe, z. B. rot, und die virtuellen 2D-Bilddaten in einer zweiten Farbe, z. B. grün, ausgegeben werden. Aus der Homogenität des bei einer Überlagerung resultierenden Farbtons kann der Benutzer die Güte der erreichten Übereinstimmung abschätzen.The acquired 2D image data and the virtual 2D image data can be output simultaneously and coded, for example color-coded and / or polarization-coded, via the optical output device. For example, the captured 2D image data may be in a first color, e.g. Red, and the virtual 2D image data in a second color, e.g. B. green, are output. From the homogeneity of the hue resulting from an overlay, the user can estimate the quality of the achieved match.
Weitere 2D-Bilddaten, die das Untersuchungsobjekt repräsentieren und von den 2D-Bilddaten verschieden sind, können mit der Datenerfassungseinrichtung erfasst werden. Vorteilhaft werden die weiteren 2D-Bilddaten nach einer Änderung der Relativlage zwischen Untersuchungsobjekt und Datenerfassungseinrichtung erfasst. Weitere virtuelle 2D-Bilddaten können aus den 3D-Volumendaten basierend auf weiteren Abbildungsparameterwerten rechnerisch ermittelt werden. Die Ermittlung der weiteren Abbildungsparameterwerte kann wie oben beschrieben derart durchgeführt werden, dass mehrere Lagen des durch die 3D-Volumendaten repräsentierten Volumens ausgetestet werden. Durch Zusammenführen der Ergebnisse, die aus einem Vergleich der virtuellen 2D-Bilddaten und der erfassten 2D-Bilddaten einerseits und der weiteren virtuellen 2D-Bilddaten und der weiteren erfassten 2D-Bilddaten andererseits gewonnen werden, kann die Genauigkeit der Lagebestimmung erhöht werden. Falls sich das Untersuchungsobjekt zwischen der Erfassung der 2D-Bilddaten und der weiteren 2D-Bilddaten unkontrolliert verschoben hat, kann durch die Erfassung der weiteren 2D-Bilddaten erneut die Lage des Untersuchungsobjekts ermittelt werden.Further 2D image data, which represent the examination object and are different from the 2D image data, can be acquired with the data acquisition device. Advantageously, the further 2D image data are acquired after a change in the relative position between the examination object and the data acquisition device. Additional 2D virtual image data may be computationally determined from the 3D volume data based on further mapping parameter values. The determination of the further mapping parameter values can be carried out as described above in such a way that several layers of the volume represented by the 3D volume data are tested out. By combining the results obtained from comparing the virtual 2D image data and the acquired 2D image data on the one hand and the other virtual 2D image data and the other acquired 2D image data on the other hand, the accuracy of the orientation can be increased. If the object to be examined has shifted uncontrolled between the acquisition of the 2D image data and the further 2D image data, the position of the examination object can be determined again by the acquisition of the further 2D image data.
Aus den virtuellen 2D-Bilddaten und den weiteren virtuellen 2D-Bilddaten kann eine stereoskopische Darstellung erzeugt werden. Gleichzeitig kann aus den erfassten 2D-Bilddaten und den weiteren erfassten 2D-Bilddaten eine stereoskopische Darstellung der erfassten 2D-Bilddaten erzeugt werden. Dazu werden die weiteren 2D-Bilddaten nach einer Relativdrehung zwischen Datenerfassungseinrichtung und Untersuchungsobjekt um einen vorgegebenen Winkel erfasst. Die weiteren Abbildungsparameterwerte, auf deren Basis die weiteren virtuellen 2D-Bilddaten ermittelt werden, können abhängig von den Abbildungsparameterwerten, auf deren Basis die virtuellen 2D-Bilddaten ermittelt werden, so festgelegt werden, dass sie die Relativdrehung berücksichtigen. Die stereoskopische Darstellung der virtuellen 2D-Bilddaten und der erfassten 2D-Bilddaten erleichtert es dem Benutzer aufgrund der darin enthaltenen Tiefeninformationen, die Güte der erreichten Übereinstimmung zwischen virtuellen und erfassten 2D-Bilddaten abzuschätzen und/oder Änderungen der Werte der Abbildungsparameter benutzerdefiniert vorzunehmen.From the virtual 2D image data and the other virtual 2D image data, a stereoscopic display can be generated. At the same time, a stereoscopic representation of the acquired 2D image data can be generated from the acquired 2D image data and the further acquired 2D image data. For this purpose, the further 2D image data are acquired after a relative rotation between the data acquisition device and the examination object by a predetermined angle. The further mapping parameter values, on the basis of which the further virtual 2D image data are determined, can be set to take account of the relative rotation, depending on the mapping parameter values on the basis of which the virtual 2D image data are determined. The stereoscopic representation of the 2D virtual image data and the captured 2D image data facilitates the user, on the basis of the depth information contained therein, to estimate the quality of the achieved match between virtual and captured 2D image data and / or to make user-defined changes to the values of the imaging parameters.
Die weiteren Abbildungsparameterwerte können abhängig von den zur rechnerischen Ermittlung der virtuellen 2D-Bilddaten verwendeten Abbildungsparameterwerten bestimmt werden. Falls eine Änderung der Relativlage zwischen Untersuchungsobjekt und Datenerfassungseinrichtung zwischen der Erfassung der 2D-Bilddaten und der weiteren 2D-Bilddaten bekannt ist, kann diese Änderung der Relativlage als Zwangsbedingung für die Ermittlung der virtuellen 2D-Bilddaten und der weiteren virtuellen 2D-Bilddaten berücksichtigt werden. So kann die Genauigkeit der Lagebestimmung erhöht werden.The further mapping parameter values can be determined as a function of the mapping parameter values used for the computational determination of the virtual 2D image data. If a change in the relative position between the examination object and the data acquisition device between the detection of the 2D image data and the further 2D image data is known, this change in the relative position can be described as Forced condition for determining the virtual 2D image data and the other virtual 2D image data are taken into account. Thus, the accuracy of the orientation can be increased.
Eine geometrische Verzeichnung der erfassten 2D-Bilddaten kann bei einem Vergleich der erfassten 2D-Bilddaten und der virtuellen 2D-Bilddaten berücksichtigt werden. Dazu kann eine Verzeichnungskorrektur der erfassten 2D-Bilddaten vorgenommen werden. Alternativ oder zusätzlich können die virtuellen 2D-Bilddaten rechnerisch verzeichnet werden. Auf diese Weise können Verzeichnungseffekte bei der Beurteilung der Übereinstimmung zwischen virtuellen und erfassten 2D-Bilddaten berücksichtigt werden.A geometric distortion of the acquired 2D image data can be taken into account when comparing the acquired 2D image data and the virtual 2D image data. For this purpose, a distortion correction of the captured 2D image data can be performed. Alternatively or additionally, the virtual 2D image data can be computationally recorded. In this way, distortion effects can be taken into account when assessing the correspondence between virtual and captured 2D image data.
Die Datenerfassungseinrichtung kann eine Vorrichtung zur Röntgenbildgebung sein oder eine sonstige Bildaufnahmevorrichtung, beispielsweise eine photographische oder ultraschallbasierte Bildaufnahmevorrichtung, umfassen. Beispielsweise kann die Datenerfassungseinrichtung eine Röntgenquelle und einen Röntgenflächendetektor umfassen. Die Datenerfassungseinrichtung kann als C-Arm-Gerät ausgebildet sein.The data acquisition device may be a device for X-ray imaging or another image acquisition device, for example a photographic or ultrasound-based image acquisition device. By way of example, the data acquisition device may comprise an X-ray source and an X-ray surface detector. The data acquisition device can be designed as a C-arm device.
Wenigstens zwei Sätze von Abbildungsparameterwerten können so bestimmt werden, dass die virtuellen 2D-Bilddaten für unterschiedliche Lagen eines Röntgendetektors relativ zu einer Strahlungsquelle der Datenerfassungseinrichtung ermittelt werden. Auf diese Weise können, falls die Lage des Röntgendetektors relativ zu der Strahlungsquelle nicht mit hoher Genauigkeit bekannt ist, verschiedene Lagen des Detektors relativ zu der Strahlungsquelle ausgetestet werden.At least two sets of mapping parameter values may be determined such that the 2D virtual image data is determined for different layers of an X-ray detector relative to a radiation source of the data acquisition device. In this way, if the position of the X-ray detector relative to the radiation source is not known with high accuracy, different positions of the detector relative to the radiation source can be tested out.
Nach einem weiteren Aspekt der Erfindung wird ein Computerprogramm angegeben, das eine Befehlsfolge umfasst, die bei Ausführung durch eine elektronische Recheneinrichtung einer Vorrichtung zur medizinischen Bildgebung die Vorrichtung zur Durchführung des Verfahrens nach einem Aspekt oder Ausführungsbeispiel der Erfindung veranlasst. Das Computerprogramm kann beispielsweise in den Speicher eines Steuer- und Auswerterechners einer Bildgebungsvorrichtung, beispielsweise eines C-Arm-Systems, geladen werden. Das Computerprogramm kann als Quellcode oder als eine kompilierte Befehlsfolge vorliegen. Durch das Computerprogramm kann die Vorrichtung programmmäßig zur Durchführung des Verfahrens eingerichtet werden.According to another aspect of the invention, there is provided a computer program comprising a sequence of instructions that, when executed by an electronic computing device of a medical imaging device, cause the device to perform the method according to one aspect or embodiment of the invention. The computer program can be loaded, for example, into the memory of a control and evaluation computer of an imaging device, for example a C-arm system. The computer program may be present as source code or as a compiled instruction sequence. The computer program allows the device to be set up in a program to carry out the method.
Die 2D-Bilddaten können unter Verwendung elektromagnetischer Strahlung, insbesondere optisch, erfasst werden. Die virtuellen 2D-Bilddaten können abhängig von der zum Erfassen der 2D-Bilddaten verwendeten Technik rechnerisch ermittelt werden. Insbesondere können die virtuellen 2D-Bilddaten so ermittelt werden, dass berücksichtigt wird, wie abhängig von der zum Erfassen der 2D-Bilddaten verwendeten Technik Voxelwerte der 3D-Bilddaten in Pixelwerte der 2D-Bilddaten eingehen. Falls beispielsweise die 2D-Bilddaten mit einer Kamera, die im sichtbaren Spektralbereich des elektromagnetischen Spektrums sensitiv ist, erfasst werden, werden die virtuellen 2D-Bilddaten vorteilhaft rechnerisch aus den 3D-Bilddaten so ermittelt, dass sie eine Abbildung der Oberfläche des Untersuchungsobjekts repräsentieren. Falls Infrarotstrahlung zum Erfassen der 2D-Bilddaten eingesetzt wird, wird bei der rechnerischen Ermittlung der virtuellen 2D-Bilddaten entsprechend die Eindringtiefe bzw. ortsabhängige Abschwächung dieser Strahlung in dem Untersuchungsobjekt berücksichtigt.The 2D image data can be detected using electromagnetic radiation, in particular optically. The virtual 2D image data may be computationally determined depending on the technique used to acquire the 2D image data. In particular, the virtual 2D image data can be determined in such a way that it is taken into account how voxel values of the 3D image data enter pixel values of the 2D image data depending on the technique used to acquire the 2D image data. For example, if the 2D image data is acquired with a camera sensitive in the visible spectral region of the electromagnetic spectrum, the 2D virtual image data is advantageously computationally determined from the 3D image data to represent an image of the surface of the examination subject. If infrared radiation is used to acquire the 2D image data, the penetration depth or location-dependent attenuation of this radiation in the examination object is correspondingly taken into account in the computational determination of the virtual 2D image data.
Nach einem weiteren Aspekt der Erfindung wird ein Datenträger angegeben, auf dem ein eine Befehlsfolge umfassendes Computerprogramm gespeichert ist, das bei Ausführung durch eine Recheneinrichtung einer Vorrichtung zur medizinischen Bildgebung die Vorrichtung zur Durchführung des Verfahrens nach einem Aspekt oder Ausführungsbeispiel der Erfindung veranlasst. Der Datenträger kann beispielsweise eine CD-ROM, eine DVD, ein Magnetband, ein Flash-Speicher oder ein USB-Stick sein, auf welchem das Computerprogramm als elektronisch lesbare Steuerinformationen gespeichert ist. Wenn diese Steuerinformationen von dem Datenträger gelesen und von einer Recheneinrichtung der Vorrichtung ausgeführt werden, kann das Verfahren nach den verschiedenen Aspekten oder Ausführungsformen von der Vorrichtung automatisch durchgeführt werden.According to a further aspect of the invention, a data carrier is specified on which a computer program comprising a command sequence is stored which, when executed by a computing device of a medical imaging device, causes the device to carry out the method according to one aspect or embodiment of the invention. The data carrier can be, for example, a CD-ROM, a DVD, a magnetic tape, a flash memory or a USB stick, on which the computer program is stored as electronically readable control information. When this control information is read from the volume and executed by a computing device of the device, the method according to the various aspects or embodiments of the device may be performed automatically.
Nach einem weiteren Aspekt der Erfindung wird eine Vorrichtung zum Erfassen einer Lage eines Untersuchungsobjekts angegeben. Die Vorrichtung umfasst eine Erfassungseinrichtung zum Erfassen eines Satzes von 2D-Bilddaten des Untersuchungsobjekts, eine Speichereinrichtung zum Speichern von 3D-Volumendaten des Untersuchungsobjekts und eine Recheneinrichtung. Die Recheneinrichtung ist mit der Speichereinrichtung und der Erfassungseinrichtung gekoppelt und eingerichtet, um die Lage des Untersuchungsobjekts abhängig von 3D-Volumendaten des Untersuchungsobjekts und den erfassten 2D-Bilddaten zu bestimmen. Die Recheneinrichtung ist eingerichtet, um virtuelle 2D-Bilddaten aus den 3D-Volumendaten abhängig von Abbildungsparametern, die eine Abbildung zwischen Voxel-Koordinatentripeln eines durch die 3D-Volumendaten repräsentierten Volumens und Pixel-Koordinatentupeln von 2D-Bilddaten beschreiben, rechnerisch zu ermitteln. Die Recheneinrichtung ist weiterhin eingerichtet, um die virtuellen 2D-Bilddaten für mehrere Sätze von Abbildungsparameterwerten zu ermitteln, um eine Übereinstimmung zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten zu erhöhen, und um die Lage des Untersuchungsobjekts abhängig von wenigstens einem Satz von Abbildungsparameterwerten zu ermitteln.According to a further aspect of the invention, a device for detecting a position of an examination subject is specified. The apparatus comprises a detection device for detecting a set of 2D image data of the examination subject, a memory device for storing 3D volume data of the examination subject and a computing device. The computing device is coupled to the memory device and the detection device and configured to determine the position of the examination object as a function of the 3D volume data of the examination subject and the acquired 2D image data. The computing device is configured to computationally determine 2D virtual image data from the 3D volume data depending on imaging parameters describing an image between voxel coordinate triples of a volume represented by the 3D volume data and pixel coordinate tuples of 2D image data. The computing device is further configured to provide the virtual 2D image data for multiple sets determine mapping parameter values to increase a match between the virtual 2D image data and the acquired 2D image data, and to determine the location of the examination subject depending on at least one set of mapping parameter values.
Die Vorrichtung erlaubt, verschiedene Positionen und/oder Orientierungen des durch die 3D-Volumendaten repräsentierten Volumens auszutesten und so die tatsächliche Lage des Untersuchungsobjekts bei der Erfassung der 2D-Bilddaten zu ermitteln. Die Vorrichtung erlaubt weiterhin, intrinsische Parameter der Datenerfassungseinrichtung zu ermitteln. Das Erfassen eines einzigen Satzes von 2D-Bilddaten kann für das Ermitteln der Lage ausreichen. Im Vergleich zu einer erneuten vollständigen 3D-Bildgebung kann Zeit eingespart und eine Strahlenbelastung verringert werden.The device allows to test different positions and / or orientations of the volume represented by the 3D volume data and thus to determine the actual position of the examination subject in the acquisition of the 2D image data. The device further allows to determine intrinsic parameters of the data acquisition device. Capturing a single set of 2D image data may be sufficient for determining the location. Compared to a new complete 3D imaging, time can be saved and radiation exposure reduced.
Die Vorrichtung kann zur Durchführung des Verfahrens nach einem der Aspekte oder nach einer der Ausführungsformen eingerichtet sein.The apparatus may be arranged to perform the method according to one of the aspects or according to one of the embodiments.
Ausführungsformen der Erfindung sind geeignet, um die Lage eines Untersuchungsobjekts aus vorab aufgenommenen 3D-Volumendaten und erfassten 2D-Bilddaten zu ermitteln. Anwendungsfelder liegen insbesondere in der medizinischen Technik.Embodiments of the invention are suitable for determining the position of an examination object from pre-recorded 3D volume data and acquired 2D image data. Applications are in particular in medical technology.
Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die Zeichnung detailliert erläutert.Hereinafter, embodiments of the invention will be explained in detail with reference to the drawings.
Die Merkmale der nachfolgend beschriebenen Ausführungsbeispiele können miteinander kombiniert werden, sofern dies nicht ausdrücklich anders angegeben ist.The features of the embodiments described below may be combined with each other unless expressly stated otherwise.
Im Folgenden werden Ausführungsbeispiele der Erfindung im Kontext einer 2D-Röntgenbildgebung beschrieben. Die Verfahren und Vorrichtungen nach Ausführungsbeispielen der Erfindung können jedoch ebenso auf anderen Gebieten angewendet werden, bei denen eine Zuordnung von vorab erfassten 3D-Volumendaten eines Untersuchungsobjekts zu einer Lage des Untersuchungsobjekts zu einem späteren Zeitpunkt erfolgen soll.In the following, embodiments of the invention will be described in the context of a 2D X-ray imaging. However, the methods and apparatuses according to embodiments of the invention may also be applied to other fields in which an assignment of pre-acquired 3D volume data of an examination subject to a position of the examination subject at a later time is to take place.
Die Recheneinrichtung
Die Recheneinrichtung
Die virtuellen 2D-Bilddaten sind von der Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einer Bildebene und einem Strahlenfokus bei der digitalen Röntgenbildrekonstruktion abhängig. Mit Lage wird hier die Gesamtheit translatorischer und rotatorischer Freiheitsgrade bezeichnet. Die Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu der Bildebene und dem Strahlenfokus kann beispielsweise durch die Position eines Volumenmittelpunkts des Volumens relativ zu dem Strahlenfokus (drei Koordinaten) und eine Rotation des Volumens relativ zu einem Zentralstrahl eines Strahlenbündels (drei Winkel) bestimmt sein. Die Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu charakteristischen Punkten eines Strahlenbündels bei der radiographischen Projektion kann durch Abbildungsparameter beschrieben werden. Sofern hier auf eine Bestimmung der Lage oder ein Ausgeben lageabhängiger Information Bezug genommen wird, versteht es sich, dass die Information über die Lage nicht in Form von kartesischen und Winkel-Koordinaten vorliegen muss, sondern auch implizit, beispielsweise als ermittelter Satz von Abbildungsparameterwerten, vorliegen kann.The 2D virtual image data depends on the location of the volume represented by the 3D volume data relative to an image plane and a beam focus in the digital X-ray image reconstruction. With position here the totality of translational and rotational degrees of freedom is called. The location of the volume represented by the 3D volume data relative to the image plane and the beam focus may be determined, for example, by the position of a volume center of the volume relative to the beam focus (three coordinates) and a rotation of the volume relative to a beam central beam (three angles) be. The location of the volume represented by the 3D volume data relative to characteristic points of a beam in the radiographic projection may be described by imaging parameters. Whenever reference is made to determining the location or outputting location-dependent information, it should be understood that the information about the location need not be in the form of Cartesian and angular coordinates, but is also implicit, for example, as a determined set of mapping parameter values can.
Die Abbildungsparameter bestimmen, in welches Bildpunkt-Koordinatentupel der ermittelten 2D-Bilddaten Voxel-Koordinatentripel der 3D-Volumendaten für eine gegebene Lage der 3D-Volumendaten abgebildet werden. Die Abbildungsparameter können beispielsweise Einträge einer Projektionsmatrix sein. Indem Werte der Abbildungsparameter verändert werden, können virtuelle 2D-Bilddaten für mehrere verschiedene Lagen des durch die 3D-Volumendaten repräsentierten Volumens ermittelt werden. So können verschiedene Positionen und/oder Orientierungen des durch die 3D-Volumendaten repräsentierten Volumens relativ zu der Röntgenquelle
Die Werte der Abbildungsparameter können abhängig von der zur Datenerfassung verwendeten Datenerfassungseinrichtung gewählt werden. Falls beispielsweise wie bei der Vorrichtung
Allgemein sind die Matrixelemente der Projektionsmatrix Mi so definiert, dass für einen Satz i von virtuellen 2D-Bilddaten
Werte der Abbildungsparameter können auf verschiedene Weisen geändert werden. Bei einer Ausführungsform kann die Recheneinrichtung
Bei einer weiteren Ausführungsform können die Werte der Abbildungsparameter abhängig von einer Benutzereingabe eingestellt werden. Dazu ist die Recheneinrichtung
Das Eingabegerät
Um einem Benutzer einen Vergleich der erfassten 2D-Bilddaten und der virtuellen 2D-Bilddaten zu erleichtern, kann die Recheneinrichtung
Zusätzlich zur überlagerten Darstellung der erfassten 2D-Bilddaten und der virtuellen 2D-Bilddaten kann die Recheneinrichtung
Unabhängig davon, ob die Werte der Abbildungsparameter benutzerdefiniert und/oder automatisch eingestellt werden, können zusätzliche Maßnahmen vorgesehen sein, um die Ermittlung der Werte der Abbildungsparameter, für die die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten gut übereinstimmen, zu erleichtern.Regardless of whether the values of the mapping parameters are user - defined and / or automatically set, additional measures may be provided to determine the values of the Imaging parameters for which the 2D virtual image data and the acquired 2D image data match well.
Alternativ oder zusätzlich kann eine oder können mehrere Marken eingesetzt werden, die eine deutliche Signatur in den erfassten 2D-Bilddaten aufweisen. Die Marken können anatomisch oder nicht-anatomisch sein. Beispielsweise kann ein Implantat, z. B. ein Nagel oder eine Platte, an dem Abschnitt des Untersuchungsobjekts P als nicht-anatomische Marke dienen, die in den erfassten 2D-Bilddaten erkennbar ist. Anhand der Signatur der Marke kann das benutzerdefinierte oder automatische Auffinden der Werte der Abbildungsparameter, für die die virtuellen 2D-Bilddaten die erfassten 2D-Bilddaten gut approximieren, erleichtert werden.Alternatively or additionally, one or more marks may be used which have a clear signature in the acquired 2D image data. The marks can be anatomical or non-anatomical. For example, an implant, for. A nail or a plate, on which portion of the examination subject P serve as a non-anatomical marker recognizable in the captured 2D image data. Based on the signature of the mark, the user-defined or automatic finding of the values of the imaging parameters, for which the virtual 2D image data closely approximates the acquired 2D image data, can be facilitated.
Mit der Vorrichtung
Mit den Vorrichtungen und Verfahren nach verschiedenen Ausführungsformen können aus den 3D-Volumendaten
Bei
Bei
Bei
Bei
Bei
Bei
Falls bei
Beispielsweise können auch Koordinaten eines benutzerdefiniert gewählten Punkts der 3D-Volumendaten relativ zu einem Labor-Koordinatensystem oder Koordinatensystem der Datenerfassungseinrichtung ermittelt und ausgegeben werden. Die Ausgabe der Lageinformation kann beispielsweise auch derart erfolgen, dass dem Benutzer die Lage des von ihm gewählten Punkts unmittelbar, beispielsweise mit einem optischen Signal, angezeigt wird. Bei einer Ausführungsform kann das Röntgengerät als Antwort auf die ermittelte Lage automatisch derart positioniert werden, dass der von dem Benutzer in den 3D-Volumendaten gewählte Punkt bei der nächsten Datenerfassung zentral und aus einer gewünschten Richtung abgebildet wird. Auf diese Weise kann das Röntgengerät beispielsweise automatisch so positioniert werden, dass eine Bruchlinie anschließend in einer orthogonalen Draufsicht aufgenommen wird. Bei einer Ausführungsform kann die Lage eines weiteren Instruments, beispielsweise eines therapeutischen Instruments, im Raum erfasst werden. Die Ausgabe der Lage des Untersuchungsobjekts kann so erfolgen, dass eine Relativlage zwischen dem weiteren Instrument und der Position des benutzerdefiniert in den 3D-Volumendaten gewählten Punkts ermittelt und angezeigt wird. Der Benutzer kann das weitere Instrument an der von ihm in den 3D-Volumendaten vorgewählten Stelle positionieren, indem er den ausgegebenen relativen Abstand minimiert.For example, coordinates of a user-selected point of the 3D volume data relative to a laboratory coordinate system or coordinate system of the data acquisition device can also be determined and output. The output of the position information can, for example, also be such that the user is immediately informed of the position of the point he has selected, for example with an optical signal. In one embodiment, the X-ray device may be automatically positioned in response to the detected location such that the point selected by the user in the 3D volume data is mapped centrally and from a desired direction at the next data acquisition. In this way, for example, the X-ray device can be automatically positioned such that a break line is subsequently recorded in an orthogonal plan view. In one embodiment, the location of another instrument, such as a therapeutic instrument, may be detected in space. The output of the position of the examination subject can be made such that a relative position between the further instrument and the position of the user-defined point selected in the 3D volume data is determined and displayed. The user can position the further instrument at the location preselected by it in the 3D volume data by minimizing the output relative distance.
Für die praktische Anwendung, insbesondere bei Einsatz der Vorrichtungen und Verfahren nach verschiedenen Ausführungsformen in Verbindung mit therapeutischen Instrumenten, kann es vorteilhaft sein, von einem zusätzlichen dritten Koordinatensystem, einem so genannten Weltkoordinatensystem, auszugehen, zu dem alles in Beziehung gesetzt wird. Der Patient liegt in diesem Weltkoordinatensystem. Die Lage von therapeutischen Instrumenten ist ebenfalls in Bezug auf das Weltkoordinatensystem definiert. Es kann ein Navigationssystem vorgesehen sein, mit dem die Lage von therapeutischen Instrumenten in dem Weltkoordinatensystem erfasst wird. Im allgemeinen Fall wird durch eine Registrierung der Bezug der 3D-Volumendaten zu dem Weltkoordinatensystem hergestellt. Bei Ausführungsformen können, wie beispielhaft beschrieben wurde, die 3D-Volumendaten auch direkt in dem Weltkoordinatensystem angeordnet sein. Dies kann erreicht werden, indem das Koordinatensystem der 3D-Volumendaten gleichzeitig als das Weltkoordinatensystem definiert wird.For practical application, in particular when using the devices and methods according to various embodiments in connection with therapeutic instruments, it may be advantageous to start from an additional third coordinate system, a so-called world coordinate system, to which everything is related. The patient lies in this world coordinate system. The location of therapeutic instruments is also defined in terms of the world coordinate system. A navigation system can be provided, with which the position of therapeutic instruments in the world coordinate system is detected. In the general case, registering establishes the reference of the 3D volume data to the world coordinate system. In embodiments, as exemplarily described, the 3D volume data may also be located directly in the world coordinate system. This can be accomplished by simultaneously defining the coordinate system of the 3D volume data as the world coordinate system.
Unter Bezugnahme auf
Bei dem Verfahren
Bei
Bei
Falls bei
Die unter Bezugnahme auf
Sowohl bei der benutzerdefinierten als auch bei der automatischen Veränderung der Abbildungsparameterwerte können die Abbildungsparameterwerte so verändert werden, dass verschiedene Lagen des durch die 3D-Volumendaten repräsentierten Volumens systematisch und intuitiv ausgetestet werden können, wie unter Bezugnahme auf
Bei
Bei
Bei
Mit den Schritten
Optional können bei
Unter Bezugnahme auf die Figuren wurden Ausführungsformen beschrieben, bei denen die Lage eines Untersuchungsobjekts durch Vergleichen mehrerer Sätze von rechnerisch ermittelten, virtuellen 2D-Bilddaten mit einem einzigen Satz von erfassten 2D-Bilddaten ermittelt werden kann. Die Verfahren und Vorrichtungen können auch zur Lageermittlung eingesetzt werden, wenn mehrere Sätze von 2D-Bilddaten erfasst werden. Bei einer Ausführungsform können zeitsequentiell mehrere Sätze von 2D-Bilddaten erfasst werden. Mit den unter Bezugnahme auf die Figuren beschriebenen Prozeduren kann jeweils die Lage des Untersuchungsobjekts ermittelt werden. So kann beispielsweise während eines therapeutischen Eingriffs die Lage wiederholt bestimmt werden, auch wenn das Untersuchungsobjekt zwischen den verschiedenen Datenerfassungen unkontrolliert bewegt wurde. Bei Ausführungsformen kann auch die Relativlage zwischen Untersuchungsobjekt und Datenerfassungseinrichtung zwischen der Erfassung unterschiedlicher Sätze von 2D-Bilddaten kontrolliert verändert werden. Für jeden der Sätze von 2D-Bilddaten können mit den beschriebenen Prozeduren Werte von Abbildungsparametern ermittelt derart ermittelt werden, dass die entsprechenden virtuellen 2D-Bilddaten die verschiedenen Sätze von erfassten 2D-Bilddaten gut approximieren. Die für die unterschiedlichen Sätze von 2D-Bilddaten ermittelten Werte der Abbildungsparameter können zusammengeführt werden, um eine Lagebestimmung mit höherer Genauigkeit durchzuführen. Bei Ausführungsformen können 2D-Bilddaten und weitere 2D-Bilddaten so erfasst werden, dass sie zu einer stereoskopischen Darstellung kombiniert werden können. Dazu kann beispielsweise eine entsprechende Projektion in unterschiedliche Augen des Benutzers erfolgen. Es können zugeordnete virtuelle 2D-Bilddaten und weitere virtuelle 2D-Bilddaten ermittelt werden, die ebenfalls zu einer stereoskopischen Darstellung kombiniert werden können. Die Tiefeninformation erleichtert einem Benutzer die Überprüfung, ob eine gewünschte Übereinstimmung zwischen erfassten und virtuellen 2D-Bilddaten erreicht ist.With reference to the figures, embodiments have been described in which the location of an examination object can be determined by comparing a plurality of sets of computationally determined virtual 2D image data with a single set of acquired 2D image data. The methods and apparatus can also be used for position determination when multiple sets of 2D image data are acquired. In one embodiment, multiple sets of 2D image data may be sequentially captured in time. With the procedures described with reference to the figures, the position of the examination object can be determined in each case. Thus, for example, during a therapeutic procedure, the position can be repeatedly determined, even if the examination object was moved uncontrollably between the various data acquisitions. In embodiments, the relative position between the examination object and the data acquisition device can also be changed in a controlled manner between the detection of different sets of 2D image data. For each of the sets of 2D image data, using the procedures described, values of imaging parameters can be determined such that the corresponding virtual 2D image data closely approximates the different sets of captured 2D image data. The values of the imaging parameters determined for the different sets of 2D image data can be merged to perform a higher accuracy orientation. In embodiments, 2D image data and other 2D image data may be captured so that they can be combined into a stereoscopic image. For this purpose, for example, a corresponding projection can be made in different eyes of the user.
Während unter Bezugnahme auf die Figuren Ausführungsbeispiele detailliert beschrieben wurden, können bei weiteren Ausführungsformen Abwandlungen dieser Ausführungsbeispiele realisiert werden. Während Ausführungsbeispiele im Kontext von C-Arm-Geräten beschrieben wurden, können Vorrichtungen und Verfahren nach Ausführungsformen der Erfindung auch bei anderen Geräten eingesetzt werden, bei denen ein Satz von 2D-Bilddaten oder wenige Sätze von 2D-Bilddaten erfasst werden, und bei denen die Lage des Untersuchungsobjekts bestimmt werden soll.While exemplary embodiments have been described in detail with reference to the figures, in further embodiments, modifications of these embodiments can be realized. While embodiments have been described in the context of C-arm devices, devices and methods in accordance with embodiments of the invention may also be used with other devices that capture a set of 2D image data or a few sets of 2D image data, and in which US Pat Location of the examination object to be determined.
Ausführungsbeispiele der Erfindung erlauben die Ermittlung der Position eines Untersuchungsobjekts abhängig von einem Satz von erfassten 2D-Bilddaten und vorab erfassten 3D-Volumendaten und bieten aktuelle 3D-Informationen, ohne dass die 3D-Volumendaten erneut aufgenommen werden müssen. Anwendungsfelder bestehen beispielsweise bei der medizinischen Technik.Embodiments of the invention allow the determination of the position of an examination object depending on a set of acquired 2D image data and pre-acquired 3D volume data and provide current 3D information without having to resume the 3D volume data. Application fields exist, for example, in medical technology.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Vorrichtung zur LagebestimmungDevice for determining the position
- 22
- C-Arm-GerätC-arm device
- 33
- C-ArmC-Arm
- 3'3 '
- C-Arm in weiterer StellungC-arm in another position
- 44
- RöntgenquelleX-ray source
- 55
- RöntgendetektorX-ray detector
- 66
- Strahlenkonuscone beam
- 6'6 '
- weiterer Strahlenkonusfurther radiation cone
- 77
- C-Arm-AntriebC-arm drive
- 88th
- Bewegung des C-ArmsMovement of the C-arm
- 99
- Patiententischpatient table
- 1010
- Steuereinrichtungcontrol device
- 1111
- Recheneinrichtungcomputing device
- 1212
- Ausgabeeinrichtungoutput device
- 1313
- Speichereinrichtungmemory device
- 1414
- Eingabeeinrichtunginput device
- 1515
- Abschnitt der EingabeeinrichtungSection of the input device
- 15a15a
- Abschnitt der EingabeeinrichtungSection of the input device
- 1616
- Gelenkjoint
- 2020
- Markebrand
- 2121
- 3D-Volumendaten3D volume data
- 22 22
- Oberschenkelthigh
- 2323
- Knochenbone
- 2424
- Bruchliniebreakline
- 2626
- 2D-Bilddaten2D image data
- 2727
- Unterschenkel in erfassten 2D-BilddatenLower leg in captured 2D image data
- 2828
- Knochen in erfassten 2D-BilddatenBones in captured 2D image data
- 2929
- Bruchlinie in erfassten 2D-BilddatenFracture line in captured 2D image data
- 3030
- Verfahrenmethod
- 31–3831-38
- Verfahrensschrittesteps
- 4040
- Fokusfocus
- 4141
- Strahlen eines StrahlenkonusRays of a ray cone
- 4242
- Geräte-KoordinatensystemDevice coordinate system
- 42a42a
- Zentralstrahlcentral beam
- 4343
- Bildebeneimage plane
- 4444
- Abstanddistance
- 45–4745-47
- Koordinatenachsen des VolumensCoordinate axes of the volume
- 4848
- Knochen in virtuellen 2D-BilddatenBones in virtual 2D image data
- 4949
- Bruchlinie in virtuellen 2D-BilddatenFracture line in virtual 2D image data
- 5050
- Fokusfocus
- 5151
- Strahlen eines StrahlenkonusRays of a ray cone
- 5252
- Geräte-KoordinatensystemDevice coordinate system
- 52a52a
- Zentralstrahlcentral beam
- 5353
- Bildebeneimage plane
- 5454
- Abstanddistance
- 55–5755-57
- Koordinatenachsen des VolumensCoordinate axes of the volume
- 5858
- Knochen in virtuellen 2D-BilddatenBones in virtual 2D image data
- 5959
- Bruchlinie in virtuellen 2D-BilddatenFracture line in virtual 2D image data
- 6060
- Verfahrenmethod
- 61–6361-63
- Verfahrensschrittesteps
- 7070
- Verfahrenmethod
- 71–7571-75
- Verfahrensschrittesteps
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102004004603 A1 [0005] DE 102004004603 A1 [0005]
Zitierte Nicht-PatentliteraturCited non-patent literature
- Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1–4 [0046] Aodong Shen and Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), pp. 1-4 [0046]
- Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1–4 [0066] Aodong Shen and Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), pp. 1-4 [0066]
Claims (21)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010020287.8A DE102010020287B4 (en) | 2010-05-12 | 2010-05-12 | Method, data carrier with computer program stored thereon and device for determining the position of an examination object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010020287.8A DE102010020287B4 (en) | 2010-05-12 | 2010-05-12 | Method, data carrier with computer program stored thereon and device for determining the position of an examination object |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102010020287A1 true DE102010020287A1 (en) | 2011-11-17 |
DE102010020287B4 DE102010020287B4 (en) | 2018-11-08 |
Family
ID=44859572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102010020287.8A Active DE102010020287B4 (en) | 2010-05-12 | 2010-05-12 | Method, data carrier with computer program stored thereon and device for determining the position of an examination object |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102010020287B4 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012200661A1 (en) * | 2012-01-18 | 2013-07-18 | Siemens Aktiengesellschaft | Method for determining image pick-up parameters for fluoroscopy recording of image of patient, involves analyzing digitally reconstructed radiograph image data in terms of expected attenuation of object penetrating X-rays |
WO2014008613A1 (en) * | 2012-07-12 | 2014-01-16 | Ao Technology Ag | Method for generating a graphical 3d computer model of at least one anatomical structure in a selectable pre-, intra-, or postoperative status |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6144759A (en) * | 1997-02-14 | 2000-11-07 | U.S. Philips Corporation | Method of determining the transformation between an object and its three-dimensional representation, and device for carrying out the method |
DE102004004603A1 (en) | 2004-01-29 | 2005-08-18 | Siemens Ag | Medical imaging patient movement compensation procedure registers first image with known calibration and compares subsequent images to determine differences for compensation |
US20060281971A1 (en) * | 2005-06-14 | 2006-12-14 | Siemens Corporate Research Inc | Method and apparatus for minimally invasive surgery using endoscopes |
DE102006055934A1 (en) * | 2006-11-27 | 2008-06-12 | Siemens Ag | Evaluation method for a number of two-dimensional projection images of a three-dimensional examination object |
US20100002839A1 (en) * | 2008-07-04 | 2010-01-07 | Kabushiki Kaisha Toshiba | X-ray imaging apparatus that displays analysis image with taken image, x-ray imaging method, and image processing apparatus |
-
2010
- 2010-05-12 DE DE102010020287.8A patent/DE102010020287B4/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6144759A (en) * | 1997-02-14 | 2000-11-07 | U.S. Philips Corporation | Method of determining the transformation between an object and its three-dimensional representation, and device for carrying out the method |
DE102004004603A1 (en) | 2004-01-29 | 2005-08-18 | Siemens Ag | Medical imaging patient movement compensation procedure registers first image with known calibration and compares subsequent images to determine differences for compensation |
US20060281971A1 (en) * | 2005-06-14 | 2006-12-14 | Siemens Corporate Research Inc | Method and apparatus for minimally invasive surgery using endoscopes |
DE102006055934A1 (en) * | 2006-11-27 | 2008-06-12 | Siemens Ag | Evaluation method for a number of two-dimensional projection images of a three-dimensional examination object |
US20100002839A1 (en) * | 2008-07-04 | 2010-01-07 | Kabushiki Kaisha Toshiba | X-ray imaging apparatus that displays analysis image with taken image, x-ray imaging method, and image processing apparatus |
Non-Patent Citations (1)
Title |
---|
Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1-4 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012200661A1 (en) * | 2012-01-18 | 2013-07-18 | Siemens Aktiengesellschaft | Method for determining image pick-up parameters for fluoroscopy recording of image of patient, involves analyzing digitally reconstructed radiograph image data in terms of expected attenuation of object penetrating X-rays |
DE102012200661B4 (en) | 2012-01-18 | 2019-01-03 | Siemens Healthcare Gmbh | Method and device for determining image acquisition parameters |
WO2014008613A1 (en) * | 2012-07-12 | 2014-01-16 | Ao Technology Ag | Method for generating a graphical 3d computer model of at least one anatomical structure in a selectable pre-, intra-, or postoperative status |
Also Published As
Publication number | Publication date |
---|---|
DE102010020287B4 (en) | 2018-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102010020781B4 (en) | Determination and verification of the coordinate transformation between an X-ray system and a surgical navigation system | |
DE102015208929B3 (en) | Method for 2D-3D registration, computing device and computer program | |
EP2189940B1 (en) | Calculation of indicator body elements and pre-indicator trajectories | |
EP2119397B1 (en) | Determining calibration information for an x-ray machine | |
DE102011078212B4 (en) | Method and device for displaying an object | |
EP0880109B1 (en) | Method for determining the transformation between an object and its three dimensional representation and device for carrying out this method | |
EP1894538B1 (en) | Method and device for determining the position of pelvic planes | |
DE102005029242B4 (en) | Method for recording and evaluating image data of an examination object and associated device | |
DE102006012945B4 (en) | A method of virtual layer positioning in a 3D volume data set and medical imaging system | |
DE10301075B4 (en) | Patient positioning through video imaging | |
DE102014218557B4 (en) | User interface and method for automated positioning of a patient table relative to a medical device | |
DE102016210131A1 (en) | Position an examination object for an imaging procedure | |
DE102007013807A1 (en) | Image acquisition, image processing and image visualization system for assisting the navigation of interventional tools when performing CT- and MRI-guided interventions | |
DE112004002435B4 (en) | Determination of patient-related information on the position and orientation of MR images by individualizing a body model | |
DE102012201798A1 (en) | Method for planning X-ray imaging by using X-ray imaging device for imaging examination zone of e.g. heart of human patient for treatment of heart disease, involves determining irradiated region of object based on attitude parameters | |
DE102006007254A1 (en) | Determining three-dimensional movement of object for medical imaging, by using two-dimensional movement of markers in two or more radiographic images | |
DE102011076930A1 (en) | Method and device for adapting the representation of volume data of an object | |
EP1348394A1 (en) | Planning or navigation assistance by generic obtained patient data with two-dimensional adaptation | |
DE102016215831A1 (en) | Automatic generation of synthetic projections | |
DE102017203438A1 (en) | A method for image support of a minimally invasive intervention with an instrument in an intervention area of a patient performing person, X-ray device, computer program and electronically readable data carrier | |
EP1498851A1 (en) | Determination of a three-dimensional body shape, especially an anatomic structure, from two-dimensional projection images | |
WO2011120795A1 (en) | Method for ascertaining the three-dimensional volume data, and imaging apparatus | |
DE102010020287B4 (en) | Method, data carrier with computer program stored thereon and device for determining the position of an examination object | |
DE102012200686A1 (en) | Method for positioning X-ray device, involves acquiring image data set by imaging device, where image data set has examination area of examination object, and coordinates are obtained inside image data set for determining positioning data | |
DE102019214302A1 (en) | Method for registering an X-ray image data set with a navigation system, computer program product and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R016 | Response to examination communication | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: A61B0019000000 Ipc: A61B0034200000 |
|
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHCARE GMBH, DE Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE |
|
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHINEERS AG, DE Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE |