WO2015000877A1 - Lichtmikroskopisches verfahren der lokalisationsmikroskopie zur lokalisierung von punktobjekten - Google Patents

Lichtmikroskopisches verfahren der lokalisationsmikroskopie zur lokalisierung von punktobjekten Download PDF

Info

Publication number
WO2015000877A1
WO2015000877A1 PCT/EP2014/063918 EP2014063918W WO2015000877A1 WO 2015000877 A1 WO2015000877 A1 WO 2015000877A1 EP 2014063918 W EP2014063918 W EP 2014063918W WO 2015000877 A1 WO2015000877 A1 WO 2015000877A1
Authority
WO
WIPO (PCT)
Prior art keywords
sample
lateral
determined
depth
field
Prior art date
Application number
PCT/EP2014/063918
Other languages
English (en)
French (fr)
Inventor
Jonas FÖLLING
Original Assignee
Leica Microsystems Cms Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Microsystems Cms Gmbh filed Critical Leica Microsystems Cms Gmbh
Priority to JP2016522575A priority Critical patent/JP6714508B2/ja
Priority to US14/901,740 priority patent/US10234672B2/en
Publication of WO2015000877A1 publication Critical patent/WO2015000877A1/de

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • G01N21/6456Spatial resolved fluorescence measurements; Imaging
    • G01N21/6458Fluorescence microscopy
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/16Microscopes adapted for ultraviolet illumination ; Fluorescence microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/58Optics for apodization or superresolution; Optical synthetic aperture systems

Definitions

  • the invention relates to a light microscopic method for the localization of
  • Point objects in a sample in which the sample arranged in an object space is imaged onto a detector by means of imaging optics having a depth of field of predetermined axial z-dimension along their optical axis in the object space, and the point objects contained in the sample within the depth of field can be located by determining lateral x / y positions of the point objects in the direction perpendicular to the optical axis based on a sample image produced by imaging the sample on the detector.
  • the new method has in common that the sample structures to be imaged with
  • Point objects so-called markers are prepared, which have two distinguishable states, namely a "bright” state and a "dark” state.
  • the bright state is a fluorescent state
  • the dark state is a non-fluorescent state.
  • photoswitchable or photoactivatable fluorescence molecules are used.
  • DE 10 2006 021 317 B3 inherent
  • the density of the markers forming this active subset is to be selected such that the average spacing of adjacent markers in the bright and thus light-microscopically imageable state is greater than that
  • the markers forming the active subset are formed on a spatially resolving light detector, e.g. a CCD camera, so that a light distribution in the form of a light spot is detected by each punctiform marker whose size is determined by the resolution limit of the optics.
  • a spatially resolving light detector e.g. a CCD camera
  • the high-resolution overall image resulting from this overall representation reflects the distribution of the markers.
  • the number of raw data frames is in the range of several tens of thousands, and this range varies widely, because for complex structures far more images must be taken than for simpler structures to resolve the structures.
  • axial direction is meant the direction along the optical axis of the imaging optics, ie the main propagation direction of the light.
  • Three-dimensional localizations are known from so-called particle-tracking experiments, as described in Kajo et. al., 1994, Biophysical Journal, 67, Holtzer et. al., 2007, Applied Physics Letters, 90 and Toprak et al., 2007, Nano Letters, 7 (7). They have also been used in imaging techniques based on the switching and localization of single molecules described above. Reference is made to Huang et al, 2008, Science, 319 and Juette et al., 2008, Nature Methods. The prior art also refers to Pavani et al., 2009, PNAS, 106.
  • a localization of a point-shaped object in the z-direction can in principle be carried out by evaluating the change in a detected on the detection surface of the camera light spot, which is visible when the point object moves out of the detection surface to the optically conjugate focus or focal plane.
  • a point object is to be understood as an object whose dimensions are smaller than the diffraction-related resolution limit of the imaging optics, in particular of the detection objective.
  • the detection lens images such an object into the image space in the form of a three-dimensional focus light distribution.
  • the focus light distribution generates a light spot on the detection surface of the camera, which is characterized by the so-called "point-spread function", ie point imaging function or PSF for short Now moving the point object in the z-direction through the focus, ie perpendicular to the focus plane, Thus, the size and shape of the PSF changes, and if the detection signal corresponding to the detected light spot is analyzed with respect to the size and shape of the PSF, conclusions can be drawn about the actual z position of the object.
  • point-spread function ie point imaging function or PSF
  • the PSF changes when the point object is moved out of the focus plane so that the distance of the point object to the focus plane can be determined.
  • the change of the PSF is symmetrical to both sides of the focus plane, so that it can not be decided on which side of the focus plane the point object is within the depth of field.
  • Double helix method (see Pavani et al.) These methods have in common that for localizing the point object in the z direction of the light spot generated on a detector is analyzed to determine a characteristic and assigned to this characteristic a z position of the point object This assignment is made on the basis of an assignment information determined in advance, which relates the parameter to the z-position of the point object
  • Astigmatism method takes into account a size, which the shape of the light spot
  • Extents of two light spots in relation to each other which originate from one and the same light spot and are generated on detection surfaces whose associated sharpness planes are offset in the object space in the z-direction to each other.
  • aberrations are chromatic aberrations, spherical aberrations or lateral field distortions, i. Aberrations that lead to distortion of the PSF in a plane perpendicular to the optical axis.
  • lateral field distortion is coma.
  • the object of the invention is to develop a light microscopic method for the localization of point objects of the type mentioned so that lateral field distortions are reliably corrected with the least possible technical effort.
  • the invention solves this problem according to claim 1, characterized in that the
  • Depth of field is, moved and with axially shifted depth of field, the sample by means of the imaging optics again imaged on the detector and another sample image is generated; on the basis of this further sample image, the lateral x / y positions of the point objects are again determined; lateral x / y position deviations between the lateral x / y values determined on the basis of the different sample images Positions of the same point objects are determined; and correction information is generated in dependence on the determined lateral x / y position deviations, on the basis of which the lateral x / y positions of the point objects, which have been determined on the basis of at least one of the different sample images, are corrected.
  • the invention selects a way in which the correction of aberrations from the analysis the localized positions themselves. Also, no additional calibration or a measurement intended specifically for the determination of optical errors is required, as a result of which the technical complexity is considerably reduced.
  • the solution according to the invention provides for a shift of the depth of field of focus along the optical axis of the imaging optics such that there is a certain overlap along the optical axis between the original depth of field and the shifted depth of field in the object space.
  • This overlap is achieved in that the axial z-displacement, by which the depth of field is moved along the optical axis, smaller than the axial z-dimension of the
  • the z-adjustment path is, for example, in the range of 5 to 90%, 10 to 80%, 15 to 70%, 20 to 60% or 25 to 50% of the axial z-dimension of the depth of field. It goes without saying that these ranges of values are only to be understood as examples.
  • the displacement of the depth of field according to the invention about the axial z-displacement, which is smaller than the axial extent of the depth of field, is thus to be understood that the two depth of field considered, namely the original and the shifted depth of field, along the optical axis, the above-mentioned overlap exhibit.
  • the invention also covers a sequence of shifts in the depth of field in which, in a single step, the depth of field is shifted by an adjustment path that is greater than the extension of the depth of field, provided that the sequence of steps as a whole results in that between the considered Depth of field areas the ultimately desired axial overlap is realized.
  • the invention proposes to record not only a single sample image of a given three-dimensional structure of point objects, but at least one further sample image with a depth of field displaced along the optical axis so that one and the same point objects are imaged in different z-positions of the depth of field. Due to the lateral field distortion to be corrected according to the invention, the point objects mentioned in the two sample images have position deviations in their lateral x / y positions as a function of their respective z position. From these lateral x / y position deviations, correction information can now be generated which is a measure of the lateral field distortion. This correction information can then be used to correct the aberrations of the lateral x / y positions of the point objects.
  • the depth of field according to the invention in the object space means an area in the z-direction about the central focal or focal plane within which a point object on the detector generates a light spot which is still sharp enough to localize the object Point object can be evaluated. It is not necessary to fully exploit this maximum possible depth of field. So it may be useful, depending on the desired
  • the light spots generated on the detector need not necessarily be strictly separated from each other spatially.
  • suitable algorithmic methods such as are known from the literature as multi-fit methods or maximum-likelihood methods, it is also possible to analyze overlapping light distributions in such a way that the positions of the point objects can be determined.
  • the method according to the invention is not only suitable for correcting aberrations caused by the optical elements of the imaging optics.
  • the invention also makes it possible to correct for optical disturbances caused by the sample itself.
  • optical perturbations are often dependent on the location where they occur in the sample or on the ambient temperature. They are thus difficult to control with conventional methods in which, for example, optical correction elements are appropriately controlled with considerable technical outlay. This is all the more so since these conventional methods usually provide an iterative correction of aberrations in which the sample is recorded repeatedly and must therefore not change.
  • the signal detected by the detector constantly changes due to the flashing individual molecules, so that as a rule no sample image is exactly the same as the other one.
  • the lateral x / y position of a point object is to be understood in the following to mean a position which is approximately in the direction of the x axis with reference to a Cartesian coordinate system in which the z axis lies parallel to the optical axis of the imaging optics and / or measured in the direction of the y-axis, wherein the x-axis and the y-axis are arranged perpendicular to the y-axis.
  • At least one reference plane lying perpendicular to the optical axis is defined within the depth of field of the field
  • Depth of field remains stationary relative to the depth of field.
  • One of the sample images is defined as a reference image, based on this
  • Reference image of a comparison structure is defined, which represents at least one of those point objects, which are arranged when recording the reference image in the reference plane of the depth of field.
  • the comparison structure is then identified in the at least one other sample image. Based on the different sample images, the lateral x / y position of the comparison structure is determined in each case.
  • the lateral x / y positional deviation between the lateral x / y positions of the reference structure determined on the basis of the different sample images is determined.
  • the correction information is determined depending on the
  • Comparison structure determined lateral x / y position deviation generated.
  • the reference plane is, for example, the central focal or focus plane within the depth of field.
  • the latter is moved along the optical axis as the depth of field moves, thus scanning the object space as it were.
  • a comparison structure is defined, which is also present in the other sample images, but there in different z-positions and thus - due to the lateral field distortion - in other x / y positions within of the associated depth of field.
  • Comparative structure can be so reliably determine the lateral x / y position deviations depending on the z-position.
  • the depth of field is axially displaced in several steps.
  • the lateral x / y positional deviation of the comparison structure determined on the basis of the associated sample image is determined relative to the lateral x / y position of the comparison structure determined on the basis of the reference image.
  • an assignment function is generated, the function values of which in each case indicate the lateral x / y position deviation of the associated comparison structure determined in the respective step as a function of its axial z position along the optical axis.
  • the assignment function represents a correction rule which, as a function of the distance of a point object from the reference plane, provides for a correction of the lateral x / y position, which is exactly the result of the lateral field distortion
  • Values of the assignment function that lie between the function values determined by the stepwise shift of the depth of field can be determined, for example, by interpolation. In this way, a continuous assignment function can be determined, although only a few discreetly determined function values are present due to the stepwise shifting of the depth of field.
  • the lateral x / y positions of the point objects are corrected by image processing directly in the associated sample image. This has the advantage that the corrected positions of the point objects are immediately displayed to the user without having to go through the correction of previously stored positions and a sample image newly generated on the basis of the corrected positions.
  • the comparison structure is identified in the at least one other sample image as a function of the image brightness detected on the detector, i. under
  • This embodiment is particularly advantageous if the x / y positions determined with the depth of field shifted are not only used for correcting positions that are previously subject to aberrations, but at the same time are used to generate a high-resolution overall localization image. As a result, disturbing brightness differences in the overall localization image can be avoided.
  • Depth of field in the z-direction in total to be adjusted by a distance that is greater than the extent of the depth of field. If, in this case, the sample images generated in individual steps are combined to form an overall localization image after the positions of the point objects have been corrected, this covers an area in the z direction which is greater than the depth of field. Thus, in particular, complex three-dimensional structures can be imaged in high-resolution.
  • the axial z-displacement is detected by means of a sensor. This ensures that the axial z-displacement, which is included in the correction of the lateral x / y positions of the point objects, is always known exactly.
  • the shifting of the depth of field relative to the sample can take place in that either the sample is moved relative to the imaging optics or the imaging optics are moved relative to the sample along the optical axis.
  • the invention is not limited thereto.
  • Point object along the optical axis determined by determining a characteristic of the point object in the respective sample image representing light spot and this characteristic is assigned the z-position based on a predetermined assignment information.
  • a variable is taken into consideration which, as in the aforementioned astigmatism method, characterizes the shape of the light spot representing the point object.
  • a characteristic which, as in the case of the known bi-plane method, relates the extents of two light spots which originate from the same light spot and are generated on detection spots whose associated sharpness planes are present in the object space z-direction are offset from each other.
  • the z-positions of the point objects determined in the sample image are compared with the z-positions of the same point objects determined in the further sample image as a function of the predetermined axial z-displacement. Depending on this
  • Comparison z-correction information is then generated, based on which the z-positions of the point objects determined in dependence on the assignment information are corrected.
  • This embodiment circumvents the problem that the assignment information determined in advance of the actual light-microscopic measurement, which is an association between the parameter determined in the measurement and the axial z-position of the
  • Point object allows, often so inaccurate that a precise determination of the z-position is difficult.
  • the (inaccurate) assignment information can be corrected in this case.
  • a light microscopic device for locating point objects according to claim 14 is provided.
  • Fig. 1 is a schematic representation of a light microscopic
  • Fig. 2 is two schematic sectional views, one showing a distortion-free PSF and the other showing a coma-distorted PSF in object space; 3 is a schematic representation showing a three-dimensional,
  • Fig. 4 is two schematic representations corresponding to Fig. 3, showing the tubular structure with coma;
  • Fig. 5 is a schematic representation showing an X-shaped structure
  • Fig. 6 is a schematic diagram showing the X-shaped structure and its image in a first step of an exemplary method according to the invention
  • Fig. 7 is a schematic diagram showing the X-shaped structure and its image in a second step of the method
  • Fig. 8 is a schematic diagram showing the X-shaped structure and its image in a third step of the method
  • Fig. 9 is a schematic diagram showing the X-shaped structure and its image in a fourth step of the method.
  • Fig. 10 is a schematic view showing the X-shaped structure and its image in a fifth step of the method
  • FIG. 11 is a graph showing lateral x-positions of a comparison structure in the steps shown in FIGS. 6 to 10; FIG. and
  • FIG. 1 shows, in a purely schematic representation, a light-microscopic device 10 with imaging optics 12, which images a sample 14 onto a detector 16.
  • the sample 14 is arranged on a sample carrier 28.
  • the imaging optics 12 has a depth of focus range 18 which has an axial extent t along an optical axis O.
  • the optical axis O is parallel to an axis z of a Cartesian coordinate system whose further axes x and y are arranged perpendicular to the optical axis O.
  • the device 10 further comprises a control unit 20, which controls the overall operation of
  • control unit 20 has computing means which perform the calculations and evaluations required for localization.
  • the control unit 80 further controls a piezoactuator 22, with which the imaging optics 12 can be moved along the optical axis O to the depth of field 78 along the optical axis O, ie to move in the z-direction.
  • a coupled to the control unit 20 sensor 24 detects the z-displacement, by which the imaging optics 12 and thus the depth of field are moved within the object space.
  • the sample 14 contains a plurality of point objects 26 formed by fluorescent markers adhered to the structures to be imaged. During the microscopic image, the point objects 26 are individually imaged onto the detector 16 as light spots. The light spots thus generated are evaluated to locate the point objects 26 in the control unit 20.
  • the device 10 serves to locate the point objects 26 contained in the sample 14 in the object space 28.
  • the control unit 20 of the device 10 determines both the z position of the respective point object along the optical axis O and the lateral x / y position in a plane perpendicular to the optical axis O plane.
  • FIG. 2 illustrates how the coma produces a distortion of the respective one
  • Point object associated PSF leads in three-dimensional space.
  • the ideal case of a defect-free PSF 30 is shown, which is radially symmetrical along its longitudinal axis designated z 'in FIG.
  • the longitudinal axis z 'of the PSF 30 is intended to be parallel to the optical axis O and thus to the z-axis of the coordinate system shown in FIG.
  • the coma now leads to a distortion of the PSF 30, by which the radial symmetry of the PSF 30 is broken, as shown in the right part of Figure 2.
  • This breaking of the radial symmetry results in a lateral shift of the center of gravity of the PSF 30 in the x-y plane.
  • the lateral center of gravity shift is dependent on the z-position.
  • the coma leads to the fact that the centers of gravity of the PSFs assigned to the individual point objects are no longer in the same x / y position at different z positions. A corresponding effect is obtained when one instead of the coma
  • FIG. 3 shows the image of a three-dimensional tubular structure 32 extending along the z-axis.
  • the structure 32 is to be colored with a suitable dye whose
  • Molecules are localized in the manner explained above.
  • the determined and stored position information then becomes a high-resolution image
  • Figure 4 illustrates the effect of lateral field distortion.
  • lateral field distortion results in molecular positions that are located in different z-positions but in the same x / y position being erroneously set to different x / y positions, as the left-hand part of Figure 4 shows .
  • a deviation from the original circular shape can be seen in the two-dimensional projection, as the right-hand part of FIG. 4 shows.
  • FIG. 5 shows in the left-hand part of the figure an X-shaped structure 32 which extends, for example, in the x-z plane.
  • the X-shaped structure 32 is intended to be colored with a suitable dye forming the point objects 26 (see Fig. 1) to be located. For locating these dyes, their positions are determined within the depth of field 18 shown in FIG. 5 as a rectangular area.
  • the resulting, high-resolution image is shown in the right part of FIG.
  • the right figure part shows the image space optically conjugate to the object space shown in the left figure part.
  • the imaging optics 12 causes an image field distortion in the x-direction alone.
  • the resulting image distorted in the x-direction is shown by solid lines.
  • the image that would result in an ideal image without image field distortion shown in phantom.
  • FIGS. 6 to 10 show how the depth of focus range 18 is shifted in several steps by a z-adjustment path ⁇ in the object space along the optical axis O in order to carry out the correction according to the invention of the lateral x / y positions of the point objects 26.
  • FIGS. 6 to 10 The method illustrated in FIGS. 6 to 10 is based on the following consideration.
  • point objects which lie within the depth of field 18 in the same x-position but in different z-positions are displayed in different x-positions in the image produced by the imaging optics 12.
  • Depth of field 18 to define in which the x-position mapping between object space and image space is by definition correct.
  • This z-position within the depth of field 34 thus forms a reference position.
  • the central focus plane 34 of FIG. 1 In the present embodiment, the central focus plane 34 of FIG. 1
  • Depth of Field 18 was used as such a reference plane.
  • the aim of the sequence of steps shown in FIGS. 6 to 10 is to generate an assignment function as correction information which, depending on the distance of a point object from the reference plane 34, provides for a correction of the x position which just compensates for the mislocalization due to the lateral field distortion x-direction compensates.
  • the assignment function is generated in the present exemplary embodiment by generating not only one image of the X-shaped structure 32, but a total of five images, each with a depth of field 18 shifted by ⁇ .
  • the exemplary correction method begins in step 1 according to FIG. 6, in which the sharpness plane 34 of the depth of field 18 acting as a reference plane is located within the object space along the optical axis O in the position z1.
  • the right-hand part of FIG. 6 shows the high-resolution image resulting from this arrangement.
  • step 2 of Figure 7 the imaging optics 12 and thus their
  • the resultant image by ⁇ in comparison with the image produced in the previous step 1
  • the X-shaped structure 32 for all z-positions except z2 is distorted in the z-direction, as can again be seen from the ideal structure shown in dashed lines
  • the distortion in the high-resolution image changes with the shifting of the depth of field range 18, since the X-shaped structure changes its position within the depth of field 34.
  • the depth of field 18 is successively shifted by the predetermined z-displacement ⁇ along the optical axis O in each case.
  • the reference plane 34 scans the X-shaped structure 32 in the object space along the optical axis O.
  • the part of the X-shaped structure 32 located in the reference plane 34 in step 3 is considered
  • Comparison structure selected. This comparison structure is then also identified in the other images generated in steps 1, 2, 4 and 5. Then, the lateral x-position of the comparison structure is determined based on the individual images generated in the various steps. Since the comparison structure was in different z-positions when taking the individual images relative to the depth-of-focus region 18, different x-positions result from image to image as a result of the image field distortion in the x-direction. These are shown in the graph of Figure 1 1 for the individual steps 1 to 5.
  • the desired assignment function is finally obtained by plotting the lateral x-position deviations of the comparison structure determined in steps 1, 2, 4 and 5 against the x-position of the comparison structure determined in step 3 against the associated z-positions. This is shown in the graph of FIG.
  • the five function values of the assignment function assigned to steps 1 to 5 can then be used as interpolation points in order, for example, to generate intermediate values by way of interpolation in order finally to obtain a continuous assignment function.
  • the lateral position deviations for all z positions can be specified to produce a distortion-free, high-resolution image.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Microscoopes, Condenser (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

Beschrieben ist ein lichtmikroskopisches Verfahren der Lokalisationsmikroskopie zur Lokalisierung von Punktobjekten (26) in einer Probe (14), bei dem die Probe (14) mittels einer Abbildungsoptik (12) auf einen Detektor (16) abgebildet wird; und die in der Probe (14) enthaltenen Punktobjekte (26) innerhalb des Schärfentiefenbereichs (18) lokalisiert werden, indem auf Grundlage eines Probenbildes, das durch die Abbildung der Probe (14) auf dem Detektor (16) erzeugt wird, laterale x/y-Positionen der Punktobjekte (26) in Richtung senkrecht zur optischen Achse (O) ermittelt werden, wobei der Schärfentiefenbereich (18) in dem Objektraum relativ zur Probe (14) längs der optischen Achse (O) mindestens einmal um einen vorbestimmten axialen z-Verstellweg (Δz) verschoben und bei axial verschobenem Schärfentiefenbereich (18) die Probe (14) erneut auf den Detektor (16) abgebildet und ein weiteres Probenbild erzeugt wird; auf Grundlage des weiteren Probenbildes erneut die lateralen x/y-Positionen der Punktobjekte (26) ermittelt werden; laterale x/y- Positionsabweichungen zwischen den auf Grundlage der verschiedenen Probenbilder ermittelten lateralen x/y-Positionen der jeweils selben Punktobjekte (26) ermittelt werden; und in Abhängigkeit der ermittelten lateralen x/y-Positionsabweichungen eine Korrekturinformation erzeugt wird, an Hand der die lateralen x/y-Positionen der Punktobjekte (26) korrigiert werden.

Description

Lichtmikroskopisches Verfahren der Lokalisationsmikroskopie zur Lokalisierung von
Punktobjekten
Die Erfindung betrifft ein lichtmikroskopisches Verfahren zur Lokalisierung von
Punktobjekten in einer Probe, bei dem die in einem Objektraum angeordnete Probe mittels einer Abbildungsoptik, die in dem Objektraum einen Schärfentiefenbereich vorbestimmter axialer z-Ausdehnung längs ihrer optischen Achse hat, auf einen Detektor abgebildet wird, und die in der Probe enthaltenen Punktobjekte innerhalb des Schärfentiefenbereichs lokalisiert werden, indem auf Grundlage eines Probenbildes, das durch die Abbildung der Probe auf dem Detektor erzeugt wird, laterale x/y-Positionen der Punktobjekte in Richtung senkrecht zur optischen Achse ermittelt werden.
In jüngerer Vergangenheit wurden lichtmikroskopische Abbildungsverfahren entwickelt, mit denen sich basierend auf einer sequentiellen, stochastischen Lokalisierung von einzelnen Markern, insbesondere Fluoreszenzmolekülen, Probenstrukturen darstellen lassen, die kleiner sind als die beugungsbedingte Auflösungsgrenze klassischer Lichtmikroskope.
Solche Verfahren sind beispielsweise beschrieben in WO 2006/127692 A2; DE 10 2006 021 317 B3; WO 2007/128434 A1 , US 2009/0134342 A1 ; DE 10 2008 024 568 A1 ; WO
2008/091296 A2;„Sub-diffraction-limit imaging by stochastic optical reconstruction microscopy (STORM)", Nature Methods 3, 793-796 (2006), M. J. Rust, M. Bates, X. Zhuang; „Resolution of Lambda/10 in fluorescence microscopy using fast Single molecule photo- switching", Geisler C. et al, Appl. Phys. A, 88, 223-226 (2007). Dieser neue Zweig der Mikroskopie wird auch als Lokalisierungsmikroskopie bezeichnet. Die angewandten
Verfahren sind in der Literatur z.B. unter den Bezeichnungen (F)PALM ((Fluorescence) Photoactivation Localization Microscopy), PALMIRA (PALM with Independently Running Acquisition), GSD(IM) (Ground State Depletion Individual Molecule Return) Microscopy) oder (F)STORM ((Fluorescence) Stochastic Optical Reconstruction Microscopy) bekannt.
Den neuen Verfahren ist gemein, dass die abzubildenden Probenstrukturen mit
Punktobjekten, sogenannten Markern präpariert werden, die über zwei unterscheidbare Zustände verfügen, nämlich einen„hellen" Zustand und einen„dunklen" Zustand. Werden beispielsweise Fluoreszenzfarbstoffe als Marker verwendet, so ist der helle Zustand ein fluoreszenzfähiger Zustand und der dunkle Zustand ein nicht fluoreszenzfähiger Zustand. In bevorzugten Ausführungsformen werden, wie z.B. in der WO 2008/091296 A2 und der WO 2006/127692 A2, photoschaltbare oder photoaktivierbare Fluoreszenzmoleküle verwendet. Alternativ können, wie z.B. in der DE 10 2006 021 317 B3, inhärente
Dunkelzustände von Standard-Fluoreszenzmolekülen genutzt werden.
Zur Abbildung von Probenstrukturen mit einer Auflösung, die höher als die klassische Auflösungsgrenze der Abbildungsoptik ist, wird nun wiederholt eine kleine Teilmenge der Marker in den hellen Zustand überführt. Dabei ist im einfachsten Falle die Dichte der diese aktive Teilmenge bildenden Marker so zu wählen, dass der mittlere Abstand benachbarter Marker im hellen und damit lichtmikroskopisch abbildbaren Zustand größer als die
Auflösungsgrenze der Abbildungsoptik ist. Die die aktive Teilmenge bildenden Marker werden auf einem räumlich auflösenden Lichtdetektor, z.B. eine CCD-Kamera, abgebildet, so dass von jedem punktförmigen Marker eine Lichtverteilung in Form eines Lichtflecks erfasst wird, dessen Größe durch die Auflösungsgrenze der Optik bestimmt ist.
Auf diese Weise wird eine Vielzahl von Rohdaten-Einzelbildern aufgenommen, in denen jeweils eine andere aktive Teilmenge abgebildet ist. In einem Bildauswerteprozess werden dann in jedem Rohdaten-Einzelbild die Schwerpunktpositionen der Lichtverteilungen bestimmt, die die im hellen Zustand befindlichen, punktförmigen Marker darstellen. Die aus den Rohdaten-Einzelbildern ermittelten Schwerpunktpositionen der Lichtverteilungen werden dann in einer Gesamtdarstellung in Form eines Gesamtbild-Datensatzes
zusammengetragen. Das durch diese Gesamtdarstellung entstehende hochaufgelöste Gesamtbild spiegelt die Verteilung der Marker wider.
Für eine repräsentative Wiedergabe der abzubildenden Probenstruktur müssen ausreichend viele Markersignale detektiert werden. Da jedoch die Anzahl an auswertbaren Markern in der jeweils aktiven Teilmenge limitiert ist, müssen sehr viele Rohdaten-Einzelbilder
aufgenommen werden, um die Probenstruktur vollständig abzubilden. Typischerweise liegt die Anzahl an Rohdaten-Einzelbildern in einem Bereich von einigen Zehntausend, wobei dieser Bereich stark variiert, da für komplexe Strukturen weit mehr Bilder aufgenommen werden müssen als für einfachere Strukturen, um die Strukturen auflösen zu können.
Neben der vorstehend beschriebenen lateralen Positionsbestimmung der Marker in der Objektebene (im Folgenden auch als x-y-Ebene bezeichnet) kann auch eine Positionsbestimmung in axialer Richtung (im Folgenden auch als z-Richtung bezeichnet) erfolgen. Mit axialer Richtung ist dabei die Richtung längs der optischen Achse der Abbildungsoptik, also die Hauptausbreitungsrichtung des Lichtes gemeint.
Dreidimensionale Lokalisierungen sind aus so genannten„Particle-Tracking' -Experimenten bekannten, wie sie in Kajo et. al., 1994, Biophysical Journal, 67, Holtzer et. al., 2007, Applied Physics Letters, 90 und Toprak et al., 2007, Nano Letters, 7(7) beschrieben sind. Sie wurden auch schon in bildgebenden Verfahren angewandt, die auf dem oben beschriebenen Schalten und Lokalisieren von Einzelmolekülen basieren. Hierzu wird auf Huang et al, 2008, Science, 319 und Juette et al., 2008, Nature Methods, verwiesen. Zum Stand der Technik wird ferner auf Pavani et al., 2009, PNAS, 106, verwiesen.
Eine Lokalisierung eines punktförmigen Objektes in z-Richtung kann grundsätzlich dadurch erfolgen, dass man die Veränderung eines auf der Detektionsfläche der Kamera erfassten Lichtflecks auswertet, die sichtbar wird, wenn sich das Punktobjekt aus der zur Detektionsfläche optisch konjugierten Schärfen- oder Fokalebene herausbewegt. Dabei ist im Folgenden unter einem Punktobjekt ein Objekt zu verstehen, dessen Abmessungen kleiner als die beugungsbedingte Auflösungsgrenze der Abbildungsoptik, insbesondere des Detektionsobjektivs sind. In diesem Fall bildet das Detektionsobjektiv ein solches Objekt in Form einer dreidimensionalen Fokuslichtverteilung in den Bildraum ab. Die Fokuslichtverteilung erzeugt auf der Detektionsfläche der Kamera einen Lichtfleck, der durch die sogenannte „Point-Spread-Function", also Punktabbildungsfunktion oder kurz PSF, charakterisiert ist. Wird nun das Punktobjekt in z-Richtung durch den Fokus, d.h. senkrecht zur Schärfenebene bewegt, so ändern sich Größe und Form der PSF. Analysiert man das dem erfassten Lichtfleck entsprechende Detektionssignal im Hinblick auf Größe und Form der PSF, so kann man dadurch Rückschlüsse auf die tatsächliche z-Position des Objekts erhalten.
Befindet sich das Punktobjekt zu weit von der Schärfenebene entfernt, so ist der auf der Detektionsfläche der Kamera erzeugte Lichtfleck so verschwommen, dass das
entsprechende Messsignal innerhalb des üblichen Messrauschens nicht mehr wahrnehmbar ist. Es gibt also in dem Objektraum in z-Richtung einen Bereich um die zentrale Fokal-oder Schärfenebene, innerhalb dessen ein Punktobjekt auf der Detektionsfläche einen Lichtfleck erzeugt, der noch scharf genug ist, um zur Lokalisierung des Punktobjektes in z-Richtung ausgewertet werden zu können. Dieser die Schärfenebene enthaltende Bereich in z- Richtung wird im Folgenden als„Schärfentiefenbereich" bezeichnet.
Bei einer dreidimensionalen Lokalisierung besteht allerdings das grundsätzliche Problem, dass die von einem Punktobjekt herrührende PSF bezüglich der Detektionsfläche
symmetrisch ist. Dies bedeutet, dass sich die PSF zwar ändert, wenn das Punktobjekt aus der Schärfenebene heraus bewegt wird, so dass sich der Abstand des Punktobjektes zur Schärfenebene bestimmen lässt. Jedoch ist die Änderung der PSF symmetrisch zu beiden Seiten der Schärfenebene, so dass sich nicht entscheiden lässt, auf welcher Seite der Schärfenebene sich das Punktobjekt innerhalb des Schärfentiefenbereichs befindet.
Es sind verschiedene Verfahren bekannt, wie mit dem vorstehend erläuterten Problem umgegangen werden kann. Beispiele sind Verfahren, die in Fachkreisen als „Astigmatismusverfahren" (die oben genannten Dokumente Kajo et al., Holtzer et al. und Huang et al.),„Bi-Plane-Verfahren" (vgl. Toprak et al. und Juette et al.) und
„Doppelhelixverfahren" (vgl. Pavani et al.) bezeichnet werden. Diesen Verfahren ist gemein, dass zur Lokalisierung des Punktobjektes in z-Richtung der auf einem Detektor erzeugte Lichtfleck zur Bestimmung einer Kenngröße analysiert wird und dieser Kenngröße eine z- Position des Punktobjektes zugeordnet wird. Diese Zuordnung erfolgt anhand einer im Vorfeld bestimmten Zuordnungsinformation, welche die Kenngröße mit der z-Position des Punktobjektes in Beziehung setzt. Als Kenngröße kommt beispielsweise wie in dem
Astigmatismusverfahren eine Größe in Betracht, welche die Form des Lichtflecks
charakterisiert, oder, wie im Falle des Bi-Plane-Verfahrens eine Größe, welche die
Ausdehnungen zweier Lichtflecke miteinander in Beziehung setzt, die von ein- und demselben Lichtfleck herrühren und auf Detektionsflächen erzeugt werden, deren zugeordnete Schärfenebenen im Objektraum in z-Richtung zueinander versetzt sind.
In der Lokalisierungsmikroskopie, bei der Auflösungen von weit unter 100 nm, teilweise sogar bis in den Bereich weniger nm erzielt werden, stellen nun optische Abbildungsfehler, die zwangsläufig in jeder Abbildungsoptik auftreten, ein erhebliches Problem dar. Während in der klassischen, beugungsbegrenzten Mikroskopie, in der im Objektraum gemessene Auflösungen etwa im Bereich von 250 nm erreicht werden, die Abbildungsfehler durch exakte Linsenfertigung oder zusätzliche Korrekturelemente hinreichend minimiert werden können, ist dies bisher in der Lokalisierungsmikroskopie nicht ohne weiteres möglich. Dort ist die Auflösung so hoch, dass die verbleibenden Abbildungsfehler von erheblicher
Relevanz sind. Beispiele für solche Abbildungsfehler sind chromatische Aberrationen, sphärische Aberrationen oder laterale Bildfeldverzerrungen, d.h. Abbildungsfehler, die zu einer Verzerrung der PSF in einer Ebene senkrecht zur optischen Achse führen. Ein Beispiel für eine laterale Bildfeldverzerrung ist die Koma.
Aufgabe der Erfindung ist es, ein lichtmikroskopisches Verfahren zur Lokalisierung von Punktobjekten eingangs genannter Art so weiterzubilden, dass laterale Bildfeldverzerrungen mit möglichst geringem technischen Aufwand zuverlässig korrigiert werden.
Die Erfindung löst diese Aufgabe gemäß Anspruch 1 dadurch, dass der
Schärfentiefenbereich, innerhalb dessen die Punktobjekte lokalisiert werden, in dem
Objektraum relativ zur Probe längs der optischen Achse mindestens einmal um einen vorbestimmten axialen z-Verstellweg, der kleiner als die axiale Ausdehnung des
Schärfentiefenbereichs ist, verschoben und bei axial verschobenem Schärfentiefenbereich die Probe mittels der Abbildungsoptik erneut auf den Detektor abgebildet und ein weiteres Probenbild erzeugt wird; auf Grundlage dieses weiteren Probenbildes erneut die lateralen x/y-Positionen der Punktobjekte ermittelt werden; laterale x/y-Positionsabweichungen zwischen den auf Grundlage der verschiedenen Probenbilder ermittelten lateralen x/y- Positionen der jeweils selben Punktobjekte ermittelt werden; und in Abhängigkeit der ermittelten lateralen x/y-Positionsabweichungen eine Korrekturinformation erzeugt wird, anhand der die lateralen x/y-Positionen der Punktobjekte, die auf Grundlage mindestens eines der verschiedenen Probenbilder ermittelt worden sind, korrigiert werden.
Im Unterschied zu herkömmlichen Lösungen, in denen versucht wird, die Abbildungsfehler allein durch apparative Maßnahmen, insbesondere durch die möglichst fehlerfreie Fertigung der in der Abbildungsoptik verwendeten optischen Elemente, zu korrigieren, wählt die Erfindung einen Weg, bei dem die Korrektur der Abbildungsfehler aus der Analyse der lokalisierten Positionen selbst erfolgt. Auch wird keine zusätzliche Kalibrierung oder eine eigens zur Bestimmung von optischen Fehlern vorgesehene Messung benötigt, wodurch der technische Aufwand erheblich reduziert wird.
Die erfindungsgemäße Lösung sieht eine Verschiebung des Schärfentiefenbereichs längs der optischen Achse der Abbildungsoptik derart vor, dass es zwischen dem ursprünglichen Schärfentiefenbereich und dem verschobenen Schärfentiefenbereich in dem Objektraum eine gewisse Überlappung längs der optischen Achse gibt. Diese Überlappung wird dadurch erreicht, dass der axiale z-Verstellweg, um den der Schärfentiefenbereich längs der optischen Achse bewegt wird, kleiner als die axiale z-Ausdehnung des
Schärfentiefenbereichs ist. Dabei liegt der z-Verstellweg beispielsweise im Bereich von 5 bis 90%, 10 bis 80%, 15 bis 70%, 20 bis 60% oder 25 bis 50% der axialen z-Ausdehnung des Schärfentiefenbereichs. Es versteht sich von selbst, dass diese Wertebereiche nur beispielhaft zu verstehen sind.
Die erfindungsgemäße Verschiebung des Schärfentiefenbereichs um den axialen z- Verstellweg, der kleiner ist als die axiale Ausdehnung des Schärfentiefenbereichs, ist demnach so zu verstehen, dass die beiden betrachteten Schärfentiefenbereiche, nämlich der ursprüngliche und der verschobene Schärfentiefenbereich, längs der optischen Achse die vorstehend genannte Überlappung aufweisen. Dies bedeutet, dass die Erfindung auch eine Schrittfolge von Verschiebungen in dem Schärfentiefenbereich abdeckt, bei der in einem einzelnen Schritt der Schärfentiefenbereich um einen Verstellweg verschoben wird, der größer als die Ausdehnung des Schärfentiefenbereichs ist, sofern die Schrittfolge insgesamt dazu führt, dass zwischen den betrachteten Schärfentiefenbereichen die letztlich gewünschte axiale Überlappung realisiert ist.
Die Erfindung sieht vor, von einer gegebenen dreidimensionalen Struktur von Punktobjekten nicht nur ein einziges Probenbild aufzunehmen, sondern mit einem längs der optischen Achse verschobenen Schärfentiefenbereich mindestens ein weiteres Probenbild, so dass ein- und dieselben Punktobjekte in verschiedenen z-Positionen des Schärfentiefenbereichs abgebildet werden. Durch die erfindungsgemäß zu korrigierende laterale Bildfeldverzerrung weisen die genannten Punktobjekte in den beiden Probenbildern in Abhängigkeit ihrer jeweiligen z- Position Positionsabweichungen in ihren lateralen x/y-Positionen auf. Aus diesen lateralen x/y-Positionsabweichungen lässt sich nun eine Korrekturinformation erzeugen, die ein Maß für die laterale Bildfeldverzerrung ist. Diese Korrekturinformation kann dann genutzt werden, um die mit dem Abbildungsfehler behafteten lateralen x/y-Positionen der Punktobjekte zu korrigieren.
Wie schon eingangs erwähnt, ist unter dem erfindungsgemäßen Schärfentiefenbereich in dem Objektraum ein Bereich in z-Richtung um die zentrale Fokal- oder Schärfenebene zu verstehen, innerhalb dessen ein Punktobjekt auf dem Detektor einen Lichtfleck erzeugt, der noch scharf genug ist, um zur Lokalisierung des Punktobjektes ausgewertet werden zu können. Dabei ist es nicht erforderlich, diesen maximal möglichen Schärfentiefenbereich voll auszuschöpfen. So kann es sinnvoll sein, in Abhängigkeit der gewünschten
Lokalisierungsgenauigkeit den Schärfentiefenbereich bewusst zu verkleinern und somit schon recht verschwommene, aber an sich noch auswertbare Lichtflecken von der
Auswertung auszunehmen. Zur Bestimmung der lateralen x/y-Positionen müssen die auf dem Detektor erzeugten Lichtflecken nicht notwendigerweise räumlich strikt voneinander getrennt sein. Über geeignete algorithmische Verfahren, wie sie beispielsweise aus der Literatur als multi-fit-Verfahren oder maximum-likelihood-Verfahren bekannt sind, lassen sich auch überlappende Lichtverteilungen dahingehend analysieren, dass die Positionen der Punktobjekte bestimmt werden können.
Das erfindungsgemäße Verfahren ist nicht nur geeignet, diejenigen Abbildungsfehler zu korrigieren, die durch die optischen Elemente der Abbildungsoptik verursacht werden.
Vielmehr ermöglicht es die Erfindung auch, optische Störungen zu korrigieren, die durch die Probe selbst verursacht werden. Solche optische Störungen sind häufig vom Ort, an dem sie in der Probe auftreten, oder von der Umbebungstemperatur abhängig. Sie sind somit mit herkömmlichen Verfahren, in denen etwa optische Korrekturelemente mit erheblichem technischen Aufwand geeignet angesteuert werden, nur schwer kontrollierbar. Dies gilt umso mehr als diese herkömmlichen Verfahren in der Regel eine iterative Korrektur der Abbildungsfehler vorsehen, bei der die Probe wiederholt aufgenommen wird und sich deshalb nicht verändern darf. Demgegenüber ändert sich in der Lokalisierungsmikroskopie das von dem Detektor erfasste Signal durch die blinkenden Einzelmoleküle ständig, so dass in der Regel kein Probenbild exakt dem anderen gleicht.
Unter der lateralen x/y-Position eines Punktobjektes ist im Folgenden eine Position zu verstehen, die etwa unter Bezugnahme auf ein kartesisches Koordinatensystem, bei dem die z-Achse parallel zur optischen Achse der Abbildungsoptik liegt, in Richtung der x-Achse und/oder in Richtung der y-Achse gemessen wird, wobei die x-Achse und die y-Achse senkrecht zu der y-Achse angeordnet sind.
Vorzugsweise wird innerhalb des Schärfentiefenbereichs mindestens eine senkrecht zur optischen Achse liegende Referenzebene definiert, die bei Verschieben des
Schärfentiefenbereichs ortsfest relativ zu dem Schärfentiefenbereich bleibt. Eines der Probenbilder wird dabei als Referenzbild festgelegt, wobei auf Grundlage dieses
Referenzbildes eine Vergleichsstruktur definiert wird, die mindestens eines derjenigen Punktobjekte repräsentiert, die bei Aufnahme des Referenzbildes in der Referenzebene des Schärfentiefenbereichs angeordnet sind. Die Vergleichsstruktur wird dann in dem mindestens einen anderen Probenbild identifiziert. Auf Grundlage der verschiedenen Probenbilder wird jeweils die laterale x/y-Position der Vergleichsstruktur ermittelt.
Anschließend wird die laterale x/y-Positionsabweichung zwischen den auf Grundlage der verschiedenen Probenbilder ermittelten lateralen x/y-Positionen der Referenzstruktur bestimmt. Schließlich wird die Korrekturinformation in Abhängigkeit der für die
Vergleichsstruktur ermittelten lateralen x/y-Positionsabweichung erzeugt.
Die Referenzebene ist beispielsweise die zentrale Fokal- oder Schärfenebene innerhalb des Schärfentiefenbereichs. Diese wird mit Verschieben des Schärfentiefenbereichs längs der optischen Achse bewegt und tastet so gleichsam den Objektraum ab. Anhand eines der Probenbilder, das als Referenzbild festgelegt wird, wird eine Vergleichsstruktur definiert, die auch in den anderen Probenbildern vorhanden ist, dort jedoch in unterschiedlichen z- Positionen und damit - bedingt durch die laterale Bildfeldverzerrung - auch in anderen x/y- Positionen innerhalb des zugehörigen Schärfentiefenbereichs. Mit Hilfe der
Vergleichsstruktur lassen sich so die lateralen x/y-Positionsabweichungen in Abhängigkeit der z-Position zuverlässig ermitteln.
Vorzugsweise wird der Schärfentiefenbereich in mehreren Schritten axial verschoben. In jedem dieser Schritte wird die auf Grundlage des zugehörigen Probenbildes ermittelte laterale x/y-Positionsabweichung der Vergleichsstruktur gegenüber der lateralen x/y- Position der auf Grundlage des Referenzbildes ermittelten Vergleichsstruktur ermittelt. Als Korrekturinformation wird eine Zuordnungsfunktion erzeugt, deren Funktionswerte jeweils die in dem jeweiligen Schritt ermittelte laterale x/y-Positionsabweichung der zugehörigen Vergleichsstruktur abhängig von deren axialer z-Position längs der optischen Achse angeben. Die Zuordnungsfunktion stellt eine Korrekturvorschrift dar, die in Abhängigkeit des Abstandes eines Punktobjektes von der Referenzebene eine Korrektur der lateralen x/y- Position vorsieht, die genau die durch die laterale Bildfeldverzerrung entstandene
Fehllokalisierung dieses Punktobjektes ausgleicht. Werte der Zuordnungsfunktion, die zwischen den durch die schrittweise Verschiebung des Schärfentiefenbereichs ermittelten Funktionswerten liegen, können beispielsweise durch Interpolation bestimmt werden. Auf diese Weise kann eine stetige Zuordnungsfunktion ermittelt werden, obgleich durch das schrittweise Verschieben des Schärfentiefenbereichs nur einige diskret ermittelte Funktionswerte vorliegen.
In einer möglichen Ausführungsform werden die lateralen x/y-Positionen der Punktobjekte durch Bildverarbeitung direkt in dem zugehörigen Probenbild korrigiert. Dies hat den Vorteil, dass dem Benutzer die korrigierten Positionen der Punktobjekte unmittelbar angezeigt werden, ohne den Umweg über die Korrektur zuvor gespeicherter Positionen und ein auf Grundlage der korrigierten Positionen neu erzeugtes Probenbild gehen zu müssen.
Vorzugsweise wird die Vergleichsstruktur in dem mindestens einen anderen Probenbild in Abhängigkeit der auf dem Detektor erfassten Bildhelligkeit identifiziert, d.h. unter
Berücksichtigung der Gesamtzahl der auf dem Detektor erzeugten Lichtflecken, die zu dieser Struktur beitragen. Diese Ausführungsform ist insbesondere dann von Vorteil, wenn die bei verschobenem Schärfentiefenbereich ermittelten x/y-Positionen nicht nur zur Korrektur zuvor mit Abbildungsfehlern behafteter Positionen genutzt werden, sondern zugleich zur Erzeugung eines hochaufgelösten Gesamtlokalisierungsbildes herangezogen werden. Dadurch können störende Helligkeitsunterschiede in dem Gesamtlokalisierungsbild vermieden werden.
Die Summe der einzelnen axialen z-Verstellwege ist im Wesentlichen gleich der axilen z- Ausdehnung des Schärfentiefenbereichs. Es ist jedoch ebenso möglich, den
Schärfentiefenbereich in z-Richtung insgesamt um eine Strecke zu verstellen, die größer als die Ausdehnung des Schärfentiefenbereichs ist. Setzt man in diesem Fall die in einzelnen Schritten erzeugten Probenbilder nach der Korrektur der Positionen der Punktobjekte zu einem Gesamtlokalisierungsbild zusammen, so deckt dieses in z-Richtung einen Bereich ab, der größer als der Schärfentiefenbereich ist. Somit lassen sich insbesondere komplexe dreidimensionale Strukturen hochaufgelöst abbilden.
Vorzugsweise wird der axiale z-Verstellweg mittels eines Sensors erfasst. Dadurch ist sichergestellt, dass der axiale z-Verstellweg, der in die Korrektur der lateralen x/y-Positionen der Punktobjekte eingeht, stets genau bekannt ist.
Das Verschieben des Schärfentiefenbereichs relativ zur Probe kann dadurch erfolgen, dass entweder die Probe relativ zu der Abbildungsoptik oder aber die Abbildungsoptik relativ zu der Probe längs der optischen Achse bewegt wird. Die Erfindung ist hierauf jedoch nicht beschränkt. So ist es beispielsweise ebenso möglich, eine deformierbare Linse, einen deformierbaren Spiegel, einen räumlichen Lichtmodulator oder dergleichen zu verwenden, um den Schärfentiefenbereich in dem Objektraum längs der optischen Achse der Abbildungsoptik zu verschieben. Im Prinzip ist es möglich, den
Schärfentiefenbereich auf beliebige Art und Weise zu verschieben.
In einer besonders bevorzugten Ausführungsform wird die z-Position des jeweiligen
Punktobjektes längs der optischen Achse ermittelt, indem eine Kenngröße eines das Punktobjekt in dem jeweiligen Probenbild darstellenden Lichtflecks ermittelt und dieser Kenngröße die z-Position anhand einer vorbestimmten Zuordnungsinformation zugeordnet wird. Als Kenngröße kommt beispielsweise eine Größe in Betracht, die wie in dem eingangs genannten Astigmatismus-Verfahren die Form des das Punktobjekt darstellenden Lichtflecks charakterisiert. Alternativ kann auch eine Kenngröße genutzt werden, die, wie im Falle des bekannten Bi-Plane-Verfahrens, die Ausdehnungen zweier Lichtflecke miteinander in Beziehung setzt, die von ein- und demselben Lichtfleck herrühren und auf Detektionsflecken erzeugt werden, deren zugeordnete Schärfenebenen im Objektraum in z-Richtung zueinander versetzt sind.
Vorzugsweise werden die in dem Probenbild ermittelten z-Positionen der Punktobjekte mit den in dem weiteren Probenbild in Abhängigkeit des vorbestimmten axialen z-Verstellwegs ermittelten z-Positionen derselben Punktobjekte verglichen. In Abhängigkeit dieses
Vergleichs wird dann eine z-Korrekturinformation erzeugt, anhand der die in Abhängigkeit der Zuordnungsinformation ermittelten z-Positionen der Punktobjekte korrigiert werden. Diese Ausgestaltung umgeht das Problem, dass sich die im Vorfeld der eigentlichen lichtmikroskopischen Messung bestimmte Zuordnungsinformation, die eine Zuordnung zwischen der in der Messung ermittelten Kenngröße und der axialen z-Position des
Punktobjektes ermöglicht, häufig so ungenau ist, dass eine präzise Bestimmung der z- Position schwierig ist. Anhand der z-Korrekturinformation kann in diesem Fall die (von vornherein ungenaue) Zuordnungsinformation korrigiert werden.
Nach einem weiteren Aspekt der Erfindung ist eine lichtmikroskopische Einrichung zur Lokalisierung von Punktobjekten gemäß Anspruch 14 vorgesehen.
Die Erfindung wird im Folgenden anhand der Figuren näher erläutert. Darin zeigen:
Fig. 1 eine schematische Darstellung einer lichtmikroskopischen
Einrichtung nach der Erfindung;
Fig. 2 zwei schematische Schnittdarstellungen, von denen eine Darstellung eine verzerrungsfreie PSF und die andere Darstellung eine durch Koma verzerrte PSF im Objektraum zeigt; Fig. 3 zwei schematische Darstellungen, die eine dreidimensionale,
röhrenartige Struktur ohne Koma zeigen;
Fig. 4 zwei schematische Darstellungen entsprechend Figur 3, welche die röhrenartigen Struktur mit Koma zeigen;
Fig. 5 eine schematische Darstellung, die eine X-förmige Struktur
zusammen mit einem Schärfentiefenbereich und deren Bild zeigt;
Fig. 6 eine schematische Darstellung, welche die X-förmige Struktur und deren Bild in einem ersten Schritt eines beispielhaften Verfahrens nach der Erfindung zeigt;
Fig. 7 eine schematische Darstellung, welche die X-förmige Struktur und deren Bild in einem zweiten Schritt des Verfahrens zeigt;
Fig. 8 eine schematische Darstellung, welche die X-förmige Struktur und deren Bild in einem dritten Schritt des Verfahrens zeigt;
Fig. 9 eine schematische Darstellung, welche die X-förmige Struktur und deren Bild in einem vierten Schritt des Verfahrens zeigt;
Fig. 10 eine schematische Darstellung, welche die X-förmige Struktur und deren Bild in einem fünften Schritt des Verfahrens zeigt;
Fig. 1 1 einen Graphen, der laterale x-Positionen einer Vergleichsstruktur in den in den Figuren 6 bis 10 dargestellten Schritten zeigt; und
Fig. 12 einen Graphen, der eine erfindungsgemäße Zuordnungsfunktion zeigt, deren Funktionswerte laterale x- Positionsabweichungen in Abhängigkeit der z-Position angeben.
Figur 1 zeigt in einer rein schematischen Darstellung eine lichtmikroskopische Einrichtung 10 mit einer Abbildungsoptik 12, die eine Probe 14 auf einen Detektor 16 abbildet. Die Probe 14 ist auf einem Probenträger 28 angeordnet.
Die Abbildungsoptik 12 hat einen Schärfentiefenbereich 18, der längs einer optischen Achse O eine axiale Ausdehnung t aufweist. Im Folgenden soll davon ausgegangen werden, dass die optische Achse O parallel zu einer Achse z eines kartesischen Koordinatensystems liegt, deren weitere Achsen x und y senkrecht zur optischen Achse O angeordnet sind.
Die Einrichung 10 umfasst ferner eine Steuereinheit 20, die den Gesamtbetrieb der
Einrichung 10 steuert. Insbesondere verfügt die Steuereinheit 20 über Rechenmittel, welche die zur Lokalisierung erforderlichen Berechnungen und Auswertungen vornimmt. Die Steuereinheitt 80 steuert ferner einen Piezoaktor 22 an, mit dem sich die Abbildungsoptik 12 längs der optischen Achse O bewegen lässt, um den Schärfentiefenbereich 78 längs der optischen Achse O, d.h. in z-Richtung zu verschieben. Ein mit der Steuereinheit 20 gekoppelter Sensor 24 erfasst den z-Verstellweg, um den die Abbildungsoptik 12 und damit der Schärfentiefenbereich innerhalb des Objektraums verschoben werden.
Die Probe 14 enthält eine Vielzahl von Punktobjekten 26, die durch fluoreszierende Marker gebildet sind, die an den abzubildenden Strukturen haften. Während der mikroskopischen Aufnahme werden die Punktobjekte 26 einzeln als Lichtflecke auf den Detektor 16 abgebildet. Die so erzeugten Lichtflecke werden zur Lokalisierung der Punktobjekte 26 in der Steuereinheit 20 ausgewertet.
Die Einrichtung 10 nach Figur 1 dient dazu, die in der Probe 14 enthaltenen Punktobjekte 26 in dem Objektraum 28 zu lokalisieren. Hierzu ermittelt die Steuereinheit 20 der Einrichtung 10 sowohl die z-Position des jeweiligen Punktobjektes längs der optischen Achse O als auch die laterale x/y-Position in einer senkrecht zur optischen Achse O liegenden Ebene.
Im folgenden wird erläutert, wie eine laterale Bildfeldverzerrung, wie sie beispielsweise durch eine Koma verursacht wird, erfindungsgemäß korrigiert wird.
Dabei soll zunächst unter Bezugnahme auf die Figuren 2 bis 4 veranschaulicht werden, wie sich eine laterale Bildverzerrung auf die Genauigkeit auswirkt, mit der Punktobjekte 26 in lateraler Richtung lokalisiert werden.
In Figur 2 ist veranschaulicht, wie die Koma zu einer Verzerrung der dem jeweiligen
Punktobjekt zugeordneten PSF im dreidimensionalen Raum führt. Dabei ist in dem linken Teilbild der Figur 2 zunächst der Idealfall einer fehlerfreien PSF 30 dargestellt, die radialsymmetrisch längs ihrer in Figur 2 mit z' bezeichneten Längsachse ist. Die Längsachse z' der PSF 30 soll dabei parallel zur optischen Achse O und damit zur z-Achse des in Figur 2 dargestellten Koordinatensystems liegen.
Die Koma führt nun zu einer Verzerrung der PSF 30, durch welche die Radialsymmetrie der PSF 30 gebrochen wird, wie in dem rechten Teilbild der Figur 2 dargestellt ist. Diese Brechunung der Radialsymmetrie führt zu einer lateralen Verschiebung des Schwerpunktes der PSF 30 in der x-y-Ebene. Wie der Figur 2 unmittelbar zu entnehmen ist, ist die laterale Schwerpunktsverschiebung abhängig von der z-Position.
Die Koma führt also dazu, dass die Schwerpunkte der den einzelnen Punktobjekten zugeordneten PSFs an verschiedenen z-Positionen nicht mehr in der gleichen x/y-Position liegen. Einen entsprechenden Effekt erhält man, wenn man anstelle der Koma eine
Verkippung der PSF im Raum betrachtet.
Liegen nun also Abbildungsfehler vor, die den vorstehend genannten Effekt der
Schwerpunktverschiebung zur Folge haben, so führt dies im hochaufgelösten Probenbild zu Bildfehlern, wie ein Vergleich der Figur 3 und 4 zeigt. Figur 3 zeigt dabei das Bild einer dreidimensionalen, röhrenartigen Struktur 32, die sich längs der z-Achse erstreckt. Die Struktur 32 soll beispielsweise mit einem geeigneten Farbstoff gefärbt sein, dessen
Moleküle in der eingangs erläuterten Weise lokalisiert werden. Aus den ermittelten und gespeicherten Positionsinformationen wird dann ein hochaufgelöstes Bild
zusammengesetzt. Dies ist in dem rechten Teilbild nach Figur 3 für eine beispielhafte zwiedimensionale Projektion aller im dreidimensionalen Raum
lokalisierten Punktobjekte veranschaulicht. In dieser zweidimensionalen Projektion ist die betrachtete Struktur durch einen Kreis dargestellt.
Während Figur 3 den fehlerfreien Fall zeigt, veranschaulicht Figur 4 die Auswirkung einer lateralen Bildfeldverzerrung. Demnach führt die laterale Bildfeldverzerrung dazu, dass Molekülpositionen, die zwar in unterschiedlichen z-Positionen, aber an sich in der gleichen x/y-Position liegen, fälschlicherweise an verschiedene x/y-Positionen gesetzt werden, wie das linke Teilbild der Figur 4 zeigt. Somit ist in der zweidimensionalen Projektion eine Abweichung von der ursprünglichen Kreisform zu sehen, wie das rechte Teilbild der Figur 4 zeigt.
Unter Bezugnahme auf die Figuren 5 bis 12 wird im Folgenden beispielhaft erläutert, wie die vorstehend beschriebene laterale Bildfeldverzerrung erfindungsgemäß korrigiert wird.
Figur 5 zeigt in dem linken Figurenteil eine X-förmige Struktur 32, die sich beispielhaft in der x-z-Ebene erstreckt. Die X-förmige Struktur 32 soll mit einem geeigneten Farbstoff gefärbt sein, welche die zu lokalisierenden Punktobjekte 26 (vgl. Fig. 1 ) bilden. Zur Lokalisierung dieser Farbstoffe werden deren Positionen innerhalb des in Figur 5 als rechteckige Fläche dargestellten Schärfentiefenbereichs 18 ermittelt. Das daraus entstehende, hochaufgelöste Bild ist in dem rechten Teil der Figur 5 dargestellt. Somit zeigt der rechte Figurenteil den Bildraum, der zu dem in dem linken Figurenteil dargestellten Objektraum optisch konjugiert ist.
Im Folgenden wird der Einfachheit halber angenommen, dass die Abbildungsoptik 12 eine Bildfeldverzerrung allein in x-Richtung verursacht. Das resultierende, in x-Richtung verzerrte Bild ist mit durchgezogenen Linien dargestellt. Demgegenüber ist das Bild, das bei einer idealen Abbildung ohne Bildfeldverzerrung entstünde, gestrichelt dargestellt.
In Figur 5 ist ferner die zentrale Schärfen- oder Fokalebene des Schärfen-tiefenbereichs 18 mit 34 bezeichnet. Dabei ist darauf hinzuweisen, dass sowohl in dem linken als auch in dem rechten Teil der Figur 5 (und auch in den weiteren Figuren 5 bis 10) die gleichen
Bezugszeichen angegeben sind, obgleich der linke Figurenteil den Objektraum und der rechte Figurenteil den hierzu optisch konjugierten Bildraum darstellt. In den Figuren 6 bis 10 ist gezeigt, wie der Schärfentiefenbereich 18 in mehreren Schritten jeweils um einen z-Verstellweg Δζ in dem Objektraum längs der optischen Achse O verschoben wird, um die erfindungsgemäße Korrektur der lateralen x/y-Positionen der Punktobjekte 26 vorzunehmen.
Das in den Figuren 6 bis 10 dargestellte Verfahren beruht auf folgender Überlegung. In Folge der lateralen Bildfeldverzerrung in x-Richtung werden Punktobjekte, die innerhalb des Schärfentiefenbereichs 18 zwar in der gleichen x-Position, jedoch in unterschiedlichen z- Positionen liegen, in dem durch die Abbildungsoptik 12 erzeugten Bild in unterschiedlichen x-Positionen dargestellt. Jedoch ist es möglich, eine z-Position innerhalb des
Schärfentiefenbereichs 18 zu definieren, bei der die x-Positionszuordnung zwischen Objektraum und Bildraum definitionsgemäß korrekt ist. Diese z-Position innerhalb des Schärfentiefenbereichs 34 bildet somit eine Referenzposition. Die x-y-Ebene, die sich im Objektraum an dieser z-Position befindet, definiert dementsprechend eine Referenzebene. In dem vorliegenden Ausführungsbeispiel wird die zentrale Schärfenebene 34 des
Schärfentiefenbereichs 18 als eine solche Referenzebene herangezogen. Die in den Figuren 6 bis 10 gezeigte Schrittfolge hat nun zum Ziel, eine Zuordnungsfunktion als Korrekturinformation zu erzeugen, die in Abhängigkeit des Abstandes eines Punktobjektes von der Referenzebene 34 eine Korrektur der x-Position vorsieht, die gerade die durch die laterale Bildfeldverzerrung entstandene Fehllokalisierung in x-Richtung ausgleicht.
Die Zuordnungsfunktion wird in dem vorliegenden Ausführungsbeispiel dadurch erzeugt, dass nicht nur ein Bild der X-förmigen Struktur 32, sondern insgesamt fünf Bilder mit jeweils um Δζ verschobenem Schärfentiefenbereich 18 erzeugt werden.
Das beispielhafte Korrekturverfahren beginnt in Schritt 1 nach Figur 6, in dem sich die als Referenzebene fungierende Schärfenebene 34 des Schärfentiefenbereichs 18 innerhalb des Objektraums längs der optischen Achse O in der Position z1 befindet. Der rechte Teil der Figur 6 zeigt das aus dieser Anordnung resultierende hochaufgelöste Bild.
Anschließend wird in Schritt 2 nach Figur 7 die Abbildungsoptik 12 und damit deren
Schärfentiefenbereich 18 um den bekannten z- Verstellweg Δζ (= z2 - z^längs der optischen Achse verschoben, so dass die als Referenzebene dienende Schärfenebene 34 in die Position z2 gelangt. Wiederum wird in dieser Anordnung ein hochaufgelöstes Bild erzeugt, wobei die in z-Richtung lokalisierten Positionen entsprechend um den Betrag Δζ korrigiert werden, um das resultierende Bild im Vergleich zu dem in dem vorhergenden Schritt 1 erzeugten Bild nicht um Δζ zu verschieben. In dem so entstandenen Bild ist die X-förmige Struktur 32 für alle z-Positionen ausser z2 in z-Richtung verzerrt dargestellt ist, wie wiederum anhand der gestrichelt dargestellten Idealstruktur zu erkennen ist. Wie der Vergleich der Figuren 6 und 7 zeigt, ändert sich die Verzerrung in dem hochaufgelösten Bild mit dem Verschieben des Schärfentiefenbereichs 18, da die X-förmige Struktur ihre Lage innerhalb des Schärfentiefenbereichs 34 ändert.
Wie in den Figuren 8 bis 10 gezeigt, wird anschließend in weiteren Schritten 3, 4 und 5 der Schärfentiefenbereich 18 sukzessive jeweils um den vorbestimmten z-Verstellweg Δζ längs der optischen Achse O verschoben. Daduch tastet die Referenzebene 34 gleichsam die X- förmige Struktur 32 in dem Objektraum längs der optischen Achse O ab.
Nach der Erzeugung der fünf hochaufgelösten Bilder wird beispielsweise der Teil der X- förmigen Struktur 32, der sich in Schritt 3 in der Referenzebene 34 befindet, als
Vergleichsstruktur gewählt. Diese Vergleichsstruktur wird anschließend auch in den anderen, in den Schritten 1 , 2, 4 und 5 erzeugten Bildern identifiziert. Dann wird die laterale x-Position der Vergleichsstruktur auf Grundlage der einzelnen, in den verschiedenen Schritten erzeugten Bilder ermittelt. Da sich die Vergleichsstruktur bei der Aufnahme der einzelnen Bilder relativ zu dem Schärfentiefenbereich 18 in verschiedenen z-Positionen befunden hat, ergeben sich in Folge der Bildfeldverzerrung in x-Richtung von Bild zu Bild unterschiedliche x-Positionen. Diese sind in dem Graphen nach Figur 1 1 für die einzelnen Schritte 1 bis 5 dargestellt.
Die gewünschte Zuordnungsfunktion erhält man schließlich, indem man die in den Schritten 1 , 2, 4 und 5 ermittelten lateralen x-Positionsabweichungen der Vergleichsstruktur gegenüber der in Schritt 3 ermittelten x-Position der Vergleichsstruktur gegen die zugehörigen z-Positionen aufträgt. Dies ist in dem Graphen nach Figur 12 dargestellt. Die den Schritten 1 bis 5 zugeordneten fünf Funktionswerte der Zuordnungsfunktion können dann als Stützstellen genutzt werden, um z.B. im Wege einer Interpolation Zwischenwerte zu erzeugen, um schließlich eine stetige Zuordnungsfunktion zu erhalten. Mit einer solchen Zuordnungsfunktion können die lateralen Positionsabweichungen für alle z-Positionen angegeben werden, um eine verzerrungsfreies, hochaufgelöstes Bild zu erzeugen.
Bezugszeichenliste
10 Lichtmikroskopische Einrichtung
12 Abbildungsoptik
14 Probe
16 Detektor
18 Schärfentiefenbereich
20 Steuereinheit
22 Verstelleinheit
24 Sensor
26 Punktobjekte
28 Probenträger
30 PSF
32 röhrenartige Struktur
32 X-förmige Struktur
34 Referenzebene

Claims

Ansprüche
Lichtmikroskopisches Verfahren der Lokalisationsmikroskopie zur Lokalisierung von Punktobjekten (26) in einer Probe (14), bei dem
die in einem Objektraum angeordnete Probe (14) mittels einer Abbildungsoptik (12), die in dem Objektraum einen Schärfentiefenbereich (18) vorbestimmter axialer z- Ausdehnung (t) längs ihrer optischen Achse (O) hat, auf einen Detektor (16) abgebildet wird; und
die in der Probe (14) enthaltenen Punktobjekte (26) innerhalb des
Schärfentiefenbereichs (18) lokalisiert werden, indem auf Grundlage eines
Probenbildes, das durch die Abbildung der Probe (14) auf dem Detektor (16) erzeugt wird, laterale x/y-Positionen der Punktobjekte (26) in Richtung senkrecht zur optischen Achse (O) ermittelt werden;
dadurch gekennzeichnet, dass
der Schärfentiefenbereich (18), innerhalb dessen die Punktobjekte (26) lokalisiert werden, in dem Objektraum relativ zur Probe (14) längs der optischen Achse (O) mindestens einmal um einen vorbestimmten axialen z-Verstellweg (Δζ), der kleiner als die axiale Ausdehnung (t) des Schärfentiefenbereichs (18) ist, verschoben und bei axial verschobenem Schärfentiefenbereich (18) die Probe (14) mittels der
Abbildungsoptik (12) erneut auf den Detektor (16) abgebildet und ein weiteres Probenbild erzeugt wird;
auf Grundlage dieses weiteren Probenbildes erneut die lateralen x/y-Positionen der Punktobjekte (26) ermittelt werden;
laterale x/y-Positionsabweichungen zwischen den auf Grundlage der verschiedenen Probenbilder ermittelten lateralen x/y-Positionen der jeweils selben Punktobjekte (26) ermittelt werden; und
in Abhängigkeit der ermittelten lateralen x/y-Positionsabweichungen eine
Korrekturinformation erzeugt wird, an Hand der die lateralen x/y-Positionen der Punktobjekte (26), die auf Grundlage mindestens eines der verschiedenen
Probenbilder ermittelten worden sind, korrigiert werden.
2. Lichtmikroskopisches Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass innerhalb des Schärfentiefenbereichs (18) mindestens eine senkrecht zur optischen Achse (O) liegende Referenzebene (34) definiert wird, die bei Verschieben des Schärfentiefenbereichs (18) ortsfest relativ zu dem Schärfentiefenbereich (18) bleibt; eines der Probenbilder als Referenzbild festgelegt und auf Grundlage des
Referenzbildes eine Vergleichsstruktur definiert wird, die mindestens eines derjenigen Punktobjekte (26) repräsentiert, die bei Aufnahme des Referenzbildes in der
Referenzebene (34) des Schärfentiefenbereichs (18) angeordnet sind;
die Vergleichsstruktur in dem mindestens einen anderen Probenbild identifiziert wird; auf Grundlage der verschiedenen Probenbilder jeweils die laterale x/y-Position der Vergleichsstruktur ermittelt wird;
die laterale x/y-Positionsabweichung zwischen den auf Grundlage der verschiedenen Probenbilder ermittelten lateralen x/y-Positionen der Referenzstruktur bestimmt wird; und
die Korrekturinformation in Abhängigkeit der für die Vergleichsstruktur ermittelten lateralen x/y-Positionsabweichung erzeugt wird.
3. Lichtmikroskopisches Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Schärfentiefenbereich (18) in mehreren Schritten axial verschoben wird, in jedem dieser Schritte die auf Grundlage des zugehörigen Probenbildes ermittelte laterale x/y-Positionsabweichung der Vergleichsstruktur gegenüber der lateralen x/y- Position der auf Grundlage des Referenzbildes ermittelten Vergleichsstruktur ermittelt wird, und
als Korrekturinformation eine Zuordnungsfunktion erzeugt wird, deren Funktionswerte jeweils die in dem jeweiligen Schritt ermittelte laterale x/y-Positionsabweichung der zugehörigen Vergleichsstruktur abhängig von deren axialer z-Position längs der optischen Achse (O) angeben.
4. Lichtmikroskopisches Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass Werte der Zuordnungsfunktion, die zwischen den durch die schrittweise Verschiebung des Schärfentiefenbereichs (18) ermittelten Funktionswerten liegen, durch
Interpolation bestimmt werden.
5. Lichtmikroskopisches Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die lateralen x/y-Positionen der Punktobjekte (26) durch Bildverarbeitung direkt in dem zugehörigen Probenbild korrigiert werden.
6. Lichtmikroskopisches Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die lateralen x/y-Positionen der Punktobjekte (26) in einem aus dem zugehörigen Probenbild gewonnenen Datensatz korrigiert werden und auf Grundlage dieses korrigierten Datensatzes ein korrigiertes Probenbild erzeugt wird.
7. Lichtmikroskopisches Verfahren nach einem der Ansprüche 2 bis 6, dadurch
gekennzeichnet, dass die Vergleichsstruktur in dem mindestens einen anderen Probenbild in Abhängigkeit der auf dem Detektor (16) erfassten Bildhelligkeit identifiziert wird.
8. Lichtmikroskopisches Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die lateralen x/y-Positionsabweichungen nach einem
Korrelationsverfahren ermittelt werden.
9. Lichtmikroskopisches Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Summe der einzelnen axialen z- Verstellwege (Δζ) im Wesentlichen gleich der axialen z-Ausdehnung (t) des Schärfentiefenbereichs (18) ist.
10. Lichtmikroskopisches Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der axiale z-Verstellweg (Δζ) mittels eines Sensors (24) erfasst wird.
1 1. Lichtmikroskopisches Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schärfentiefenbereich (18) in dem Objektraum relativ zur Probe (14) längs der optischen Achse (O) um den axialen z-Verstellweg (Δζ) verschoben wird, indem die Probe (14) relativ zu der Abbildungsoptik (12) oder die Abbildungsoptik (12) relativ zu der Probe (14) längs der optischen Achse (O) verschoben wird.
12. Lichtmikroskopisches Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die z-Position des jeweiligen Punktobjektes (26) längs der optischen Achse (O) ermittelt wird, indem eine Kenngröße eines das Punktobjekt (26) in dem jeweiligen Probenbild darstellenden Lichtflecks ermittelt und dieser Kenngröße die z-Position an Hand einer vorbestimmten Zuordnungsinformation zugeordnet wird.
13. Lichtmikroskopisches Verfahren nach Anspruch 12, dadurch gekennzeichnet,
dass die in dem Probenbild ermittelten z-Positionen der Punktobjekte (26) mit den in dem weiteren Probenbild in Abhängigkeit des vorbestimmten axialen z-Verstellwegs (Δζ) ermittelten z-Positionen derselben Punktobjekte (26) verglichen werden; und in Abhängigkeit dieses Vergleichs eine z-Korrekturinformation erzeugt wird, an Hand der die in Abhängigkeit der Zuordnungsinformation ermittelten z-Positionen der Punktobjekte (26) korrigiert werden.
14. Lichtmikroskopisches Einrichtung (10) zur Lokalisierung von Punktobjekten (26) in einer Probe, mit
einer Abbildungsoptik (12), die in einem Objektraum einen Schärfentiefenbereich (18) vorbestimmter axialer z-Ausdehnung (t) längs ihrer optischen Achse (O) hat, einem Detektor (16), auf den die Abbildungsoptik (12) eine in dem Objektraum angeordnete Probe (14) abbildet; und
einer Steuereinheit (20), die in der Probe (26) enthaltene Punktobjekte (26) innerhalb des Schärfentiefenbereichs (18) lokalisiert, indem sie auf Grundlage eines
Probenbildes, das die Abbildungsoptik (12) auf dem Detektor (16) erzeugt, laterale x/y- Positionen der Punktobjekte (26) in Richtung senkrecht zur optischen Achse (O) ermittelt;
dadurch gekennzeichnet, dass
eine durch die Steuereinheit (20) angesteuerte Verstelleinheit (22) den
Schärfentiefenbereich (18), innerhalb dessen die Punktobjekte (26) lokalisiert werden, in dem Objektraum relativ zur Probe (14) längs der optischen Achse (O) mindestens einmal um einen vorbestimmten axialen z-Verstellweg (Δζ), der kleiner als die axiale Ausdehnung (t) des Schärfentiefenbereichs (18) ist, verschiebt und die
Abbildungsoptik (12) bei axial verschobenem Schärfentiefenbereich (18) die Probe (14) erneut auf den Detektor (16) abbildet und ein weiteres Probenbild erzeugt;
die Steuereinheit (20) auf Grundlage des weiteren Probenbildes erneut die lateralen x/y-Positionen der Punktobjekte (26) ermittelt;
die Steuereinheit (20) laterale x/y-Positionsabweichungen zwischen den auf
Grundlage der verschiedenen Probenbilder ermittelten lateralen x/y-Positionen der jeweils selben Punktobjekte (26) ermittelt; und
die Steuereinheit (20) in Abhängigkeit der ermittelten lateralen x/y- Positionsabweichungen eine Korrekturinformation erzeugt, an Hand der die
Steuereinheit (20) die lateralen x/y-Positionen der Punktobjekte (26), die auf
Grundlage mindestens eines der verschiedenen Probenbilder ermittelten worden sind, korrigiert.
15. Lichtmikroskopische Einrichtung (10) nach Anspruch 14, gekennzeichnet durch einen Sensor (24) zum Erfassen des axialen z-Verstellwegs des Schärfentiefenbereichs (18).
PCT/EP2014/063918 2013-07-01 2014-07-01 Lichtmikroskopisches verfahren der lokalisationsmikroskopie zur lokalisierung von punktobjekten WO2015000877A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016522575A JP6714508B2 (ja) 2013-07-01 2014-07-01 試料内の複数の点物体を局在化するための局在顕微鏡検査の光学顕微鏡的方法、並びに試料内の複数の点物体を局在化するための光学顕微鏡装置
US14/901,740 US10234672B2 (en) 2013-07-01 2014-07-01 Light-microscopic method of localization microscopy for localizing point objects

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013106895.2 2013-07-01
DE102013106895.2A DE102013106895B4 (de) 2013-07-01 2013-07-01 Lichtmikroskopisches Verfahren zur Lokalisierung von Punktobjekten

Publications (1)

Publication Number Publication Date
WO2015000877A1 true WO2015000877A1 (de) 2015-01-08

Family

ID=51033216

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2014/063918 WO2015000877A1 (de) 2013-07-01 2014-07-01 Lichtmikroskopisches verfahren der lokalisationsmikroskopie zur lokalisierung von punktobjekten

Country Status (4)

Country Link
US (1) US10234672B2 (de)
JP (1) JP6714508B2 (de)
DE (1) DE102013106895B4 (de)
WO (1) WO2015000877A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013016368B4 (de) * 2013-09-30 2024-05-16 Carl Zeiss Microscopy Gmbh Lichtmikroskop und Mikroskopieverfahren zum Untersuchen einer mikroskopischen Probe
LU92620B1 (de) * 2014-12-19 2016-06-20 Leica Microsystems Rastermikroskop
EP3382439A4 (de) * 2015-11-27 2019-12-11 Nikon Corporation Mikroskop, beobachtungsverfahren und bildverarbeitungsprogramm
EP3538941A4 (de) 2016-11-10 2020-06-17 The Trustees of Columbia University in the City of New York Schnelles hochauflösendes bildgebungsverfahren für grosse proben
DE102017104736B9 (de) * 2017-03-07 2020-06-25 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und Vorrichtung zum räumlichen Messen nanoskaliger Strukturen
JP6932036B2 (ja) * 2017-07-31 2021-09-08 シスメックス株式会社 細胞撮像方法、細胞撮像装置、粒子撮像方法および粒子撮像装置
DE102017129519B4 (de) * 2017-12-12 2020-08-06 Technische Universität Ilmenau Anordnung und Verfahren zur simultanen Messung der Fluoreszenz einzelner Schichten in einem Schichtsystem, beispielsweise dem Augenhintergrund
DE102018132875A1 (de) * 2018-12-19 2020-06-25 Abberior Instruments Gmbh Fluoreszenzlichtmikroskopie mit erhöhter axialer Auflösung
CN111382592B (zh) * 2018-12-27 2023-09-29 杭州海康威视数字技术股份有限公司 活体检测方法和设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006127692A2 (en) 2005-05-23 2006-11-30 Hess Harald F Optical microscopy with phototransformable optical labels
DE102006021317B3 (de) 2006-05-06 2007-10-11 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und Fluoreszenzlichtmikroskop zum räumlich hochauflösenden Abbilden einer Struktur einer Probe
WO2008091296A2 (en) 2006-08-07 2008-07-31 President And Fellows Of Harvard College Sub-diffraction limit image resolution and other imaging techniques
WO2009085218A1 (en) * 2007-12-21 2009-07-09 President And Fellows Of Harvard College Sub-diffraction limit image resolution in three dimensions
DE102008024568A1 (de) 2008-05-21 2009-12-03 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren zum räumlich hochauflösenden Abbilden einer interessierenden Struktur einer Probe
DE102010017630A1 (de) * 2010-06-29 2011-12-29 Leica Microsystems Cms Gmbh Verfahren und Einrichtung zur lichtmikroskopischen Abbildung einer Probenstruktur
DE102010036709A1 (de) * 2010-07-28 2012-02-02 Leica Microsystems Cms Gmbh Einrichtung und Verfahren zur mikroskopischen Bildaufnahme einer Probenstruktur
EP2592461A2 (de) * 2011-11-11 2013-05-15 Leica Microsystems CMS GmbH Mikroskopische Einrichtung und Verfahren zur dreidimensionalen Lokalisierung von punktförmigen Objekten in einer Probe

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DD154643A1 (de) * 1980-11-20 1982-04-07 Peter Schwensow Vorrichtung zur mikroskopischen beobachtung mit erweitertem schaerfentiefebereich
DD261224A1 (de) * 1985-04-29 1988-10-19 Univ Berlin Humboldt Verfahren zur tiefenscharfen abbildung raeumlicher objekte
DE3752214D1 (de) * 1986-04-09 1998-10-15 Zeiss Carl Fa Strahlungsmodulierendes Mikroskop mit Rückfaltung
EP0546071B1 (de) * 1990-08-31 1995-12-27 Commonwealth Scientific And Industrial Research Organisation Interferenzmikroskop
DE19502472A1 (de) * 1995-01-27 1996-08-01 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Aufnehmen eines Objektes
US6472671B1 (en) 2000-02-09 2002-10-29 Jean I. Montagu Quantified fluorescence microscopy
JP2000251823A (ja) * 1999-02-25 2000-09-14 Jeol Ltd 走査型荷電粒子ビーム装置における試料傾斜観察方法
JP4103302B2 (ja) 2000-05-15 2008-06-18 株式会社日立製作所 キャピラリアレイを用いた電気泳動装置及びそれに用いられるサンプルプレートアセンブリ
DE10039520A1 (de) * 2000-08-08 2002-02-21 Leica Microsystems Vorrichtung zur Untersuchung und Manipulation von mikroskopischen Objekten
DE10257423A1 (de) 2002-12-09 2004-06-24 Europäisches Laboratorium für Molekularbiologie (EMBL) Mikroskop
US7639419B2 (en) * 2003-02-21 2009-12-29 Kla-Tencor Technologies, Inc. Inspection system using small catadioptric objective
EP1804107B1 (de) * 2004-09-22 2018-10-24 Nikon Corporation Mikroskopsystem und bildverarbeitungsverfahren
WO2007067999A2 (en) * 2005-12-09 2007-06-14 Amnis Corporation Extended depth of field imaging for high speed object analysis
JP4812443B2 (ja) 2006-01-27 2011-11-09 オリンパス株式会社 走査型共焦点レーザ顕微鏡
US8217992B2 (en) * 2007-01-11 2012-07-10 The Jackson Laboratory Microscopic imaging techniques
WO2009115108A1 (en) * 2008-03-19 2009-09-24 Ruprecht-Karls-Universität Heidelberg A method and an apparatus for localization of single dye molecules in the fluorescent microscopy
US7772569B2 (en) * 2008-04-01 2010-08-10 The Jackson Laboratory 3D biplane microscopy
US7675045B1 (en) * 2008-10-09 2010-03-09 Los Alamos National Security, Llc 3-dimensional imaging at nanometer resolutions
US8693742B2 (en) * 2008-12-17 2014-04-08 The Regents Of The University Of Colorado Three-dimensional single-molecule fluorescence imaging beyond the diffraction limit using a double-helix point spread function
DE102009043744A1 (de) 2009-09-30 2011-03-31 Carl Zeiss Microlmaging Gmbh Verfahren und Mikroskop zur dreidimensional auflösungsgesteigerten Mikroskopie
US8620065B2 (en) * 2010-04-09 2013-12-31 The Regents Of The University Of Colorado Methods and systems for three dimensional optical imaging, sensing, particle localization and manipulation
DE102010044013A1 (de) * 2010-11-16 2012-05-16 Carl Zeiss Microimaging Gmbh Tiefenauflösungsgesteigerte Mikroskopie
DE102012200344A1 (de) * 2012-01-11 2013-07-11 Carl Zeiss Microscopy Gmbh Mikroskopsystem und Verfahren für die 3-D hochauflösende Mikroskopie
DE102012201003B4 (de) 2012-01-24 2024-07-25 Carl Zeiss Microscopy Gmbh Mikroskop und Verfahren für die hochauflösende 3-D Fluoreszenzmikroskopie

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006127692A2 (en) 2005-05-23 2006-11-30 Hess Harald F Optical microscopy with phototransformable optical labels
DE102006021317B3 (de) 2006-05-06 2007-10-11 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und Fluoreszenzlichtmikroskop zum räumlich hochauflösenden Abbilden einer Struktur einer Probe
WO2007128434A1 (de) 2006-05-06 2007-11-15 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und fluoreszenzlichtmikroskop zum räumlich hochauflösenden abbilden einer struktur einer probe
US20090134342A1 (en) 2006-05-06 2009-05-28 Stefan Hell High spatial resolution imaging of a structure of interest in a specimen
WO2008091296A2 (en) 2006-08-07 2008-07-31 President And Fellows Of Harvard College Sub-diffraction limit image resolution and other imaging techniques
WO2009085218A1 (en) * 2007-12-21 2009-07-09 President And Fellows Of Harvard College Sub-diffraction limit image resolution in three dimensions
DE102008024568A1 (de) 2008-05-21 2009-12-03 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren zum räumlich hochauflösenden Abbilden einer interessierenden Struktur einer Probe
DE102010017630A1 (de) * 2010-06-29 2011-12-29 Leica Microsystems Cms Gmbh Verfahren und Einrichtung zur lichtmikroskopischen Abbildung einer Probenstruktur
DE102010036709A1 (de) * 2010-07-28 2012-02-02 Leica Microsystems Cms Gmbh Einrichtung und Verfahren zur mikroskopischen Bildaufnahme einer Probenstruktur
EP2592461A2 (de) * 2011-11-11 2013-05-15 Leica Microsystems CMS GmbH Mikroskopische Einrichtung und Verfahren zur dreidimensionalen Lokalisierung von punktförmigen Objekten in einer Probe

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
GEISLER C. ET AL.: "Resolution of Lambda/10 in fluorescence microscopy using fast single molecule photoswitching", APPL. PHYS. A, vol. 88, 2007, pages 223 - 226
HOLTZER, APPLIED PHYSICS LETTERS, 2007, pages 90
HUANG ET AL., SCIENCE, 2008, pages 319
JUETTE ET AL., NATURE METHODS, 2008
KAJO, BIOPHYSICAL JOURNAL, 1994, pages 67
M. J. RUST; M. BATES; X. ZHUANG: "Sub-diffraction-limit imaging by stochastic optical reconstruction microscopy (STORM", NATURE METHODS, vol. 3, 2006, pages 793 - 796
PAVANI ET AL., PNAS, 2009, pages 106
TOPRAK ET AL., NANO LETTERS, vol. 7, no. 7, 2007

Also Published As

Publication number Publication date
US10234672B2 (en) 2019-03-19
US20160370570A1 (en) 2016-12-22
DE102013106895B4 (de) 2015-09-17
JP2016525225A (ja) 2016-08-22
DE102013106895A1 (de) 2015-01-08
JP6714508B2 (ja) 2020-06-24

Similar Documents

Publication Publication Date Title
DE102013106895B4 (de) Lichtmikroskopisches Verfahren zur Lokalisierung von Punktobjekten
DE102013114860B3 (de) Verfahren und Vorrichtung zur Bestimmung der Orte einzelner Moleküle einer Substanz in einer Probe
EP2592461B1 (de) Mikroskopische Einrichtung und Verfahren zur dreidimensionalen Lokalisierung von punktförmigen Objekten in einer Probe
DE102012023024B4 (de) Lichtmikroskop und Mikroskopieverfahren
DE10063276C2 (de) Scanmikroskop
WO2017013054A1 (de) Lichtblattmikroskop zum gleichzeitigen abbilden mehrerer objektebenen
DE102016119263B4 (de) Verfahren zum räumlich hochauflösenden Bestimmen des Orts eines vereinzelten, mit Anregungslicht zur Emission von Lumineszenzlicht anregbaren Moleküls in einer Probe
EP2538262B1 (de) Verfahren und lichtmikroskopische Einrichtung zur bildlichen Darstellung einer Probe
EP3047325A1 (de) Laserscanningmikroskop und verfahren zur korrektur von abbildungsfehlern insbesondere in der hochauflösenden scanning-mikroskopie
DE102013208415B4 (de) Mikroskop und Verfahren für die 3D-hochauflösende Lokalisierungsmikroskopie
DE102014109687A1 (de) Positionsbestimmung eines Objekts im Strahlengang einer optischen Vorrichtung
DE102011053232B4 (de) Mikroskopische Einrichtung und mikroskopisches Verfahren zur dreidimensionalen Lokalisierung von punktförmigen Objekten
EP2807515B1 (de) Mikroskop und verfahren für die hochauflösende 3-d fluoreszenzmikroskopie
WO2012013586A1 (de) Einrichtung und verfahren zur mikroskopischen bildaufnahme einer probenstruktur
WO2013045078A1 (de) Verfahren zur variation des scanfeldes eines laser-scanning-mikroskops
DE102018207821A1 (de) Verfahren zur Bereitstellung eines Übersichtsbildes
EP1287398A1 (de) Mikroskop mit autofokussiereinrichtung
DE102019100184A1 (de) Hochauflösende Scanning-Mikroskopie
DE102010017630B4 (de) Verfahren und Einrichtung zur lichtmikroskopischen Abbildung einer Probenstruktur
WO2014147257A1 (de) Lichtmikroskopisches verfahren zur lokalisierung von punktobjekten
DE102019201916A1 (de) Verfahren und Vorrichtung zur Inspektion von Nano-und Mikrostrukturen
EP3988989B1 (de) Verfahren und mikroskop mit einer einrichtung zum erfassen von verlagerungen einer probe gegenüber einem objektiv
DE102011001091B4 (de) Verfahren und Einrichtung zur mikroskopischen Bildaufnahme einer Probenstruktur
DE102017105719A1 (de) Multi-Pinhole-Lichtrastermikroskop und -mikroskopieverfahren
DE102019116114B3 (de) Mikroskop und Verfahren zum Betrieb eines Mikroskops

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14734152

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016522575

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14901740

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14734152

Country of ref document: EP

Kind code of ref document: A1