-
Die Erfindung betrifft ein lichtmikroskopisches Verfahren zur Lokalisierung von Punktobjekten in einer Probe, bei dem die in einem Objektraum angeordnete Probe mittels einer Abbildungsoptik, die in dem Objektraum einen Schärfentiefenbereich vorbestimmter axialer z-Ausdehnung längs ihrer optischen Achse hat, auf einen Detektor abgebildet wird, und die in der Probe enthaltenen Punktobjekte innerhalb des Schärfentiefenbereichs lokalisiert werden, indem auf Grundlage eines Probenbildes, das durch die Abbildung der Probe auf dem Detektor erzeugt wird, laterale x/y-Positionen der Punktobjekte in Richtung senkrecht zur optischen Achse ermittelt werden.
-
In jüngerer Vergangenheit wurden lichtmikroskopische Abbildungsverfahren entwickelt, mit denen sich basierend auf einer sequentiellen, stochastischen Lokalisierung von einzelnen Markern, insbesondere Fluoreszenzmolekülen, Probenstrukturen darstellen lassen, die kleiner sind als die beugungsbedingte Auflösungsgrenze klassischer Lichtmikroskope. Solche Verfahren sind beispielsweise beschrieben in
WO 2006/127692 A2 ;
DE 10 2006 021 317 B3 ;
WO 2007/128434 A1 ,
US 2009/0134342 A1 ;
DE 10 2008 024 568 A1 ;
WO 2008/091296 A2 ;
„Sub-diffraction-limit imaging by stochastic optical reconstruction microscopy (STORM)", Nature Methods 3, 793–796 (2006), M. J. Rust, M. Bates, X. Zhuang;
„Resolution of Lambda/10 in fluorescence microscopy using fast single molecule photo-switching", Geisler C. et al, Appl. Phys. A, 88, 223–226 (2007). Dieser neue Zweig der Mikroskopie wird auch als Lokalisierungsmikroskopie bezeichnet. Die angewandten Verfahren sind in der Literatur z.B. unter den Bezeichnungen (F)PALM ((Fluorescence) Photoactivation Localization Microscopy), PALMIRA (PALM with Independently Running Acquisition), GSD(IM) (Ground State Depletion Individual Molecule Return) Microscopy) oder (F)STORM ((Fluorescence) Stochastic Optical Reconstruction Microscopy) bekannt.
-
Den neuen Verfahren ist gemein, dass die abzubildenden Probenstrukturen mit Punktobjekten, sogenannten Markern präpariert werden, die über zwei unterscheidbare Zustände verfügen, nämlich einen „hellen“ Zustand und einen „dunklen“ Zustand. Werden beispielsweise Fluoreszenzfarbstoffe als Marker verwendet, so ist der helle Zustand ein fluoreszenzfähiger Zustand und der dunkle Zustand ein nicht fluoreszenzfähiger Zustand.
-
In bevorzugten Ausführungsformen werden, wie z.B. in der
WO 2008/091296 A2 und der
WO 2006/127692 A2 , photoschaltbare oder photoaktivierbare Fluoreszenzmoleküle verwendet. Alternativ können, wie z.B. in der
DE 10 2006 021 317 B3 , inhärente Dunkelzustände von Standard-Fluoreszenzmolekülen genutzt werden.
-
Zur Abbildung von Probenstrukturen mit einer Auflösung, die höher als die klassische Auflösungsgrenze der Abbildungsoptik ist, wird nun wiederholt eine kleine Teilmenge der Marker in den hellen Zustand überführt. Dabei ist im einfachsten Falle die Dichte der diese aktive Teilmenge bildenden Marker so zu wählen, dass der mittlere Abstand benachbarter Marker im hellen und damit lichtmikroskopisch abbildbaren Zustand größer als die Auflösungsgrenze der Abbildungsoptik ist. Die die aktive Teilmenge bildenden Marker werden auf einem räumlich auflösenden Lichtdetektor, z.B. eine CCD-Kamera, abgebildet, so dass von jedem punktförmigen Marker eine Lichtverteilung in Form eines Lichtflecks erfasst wird, dessen Größe durch die Auflösungsgrenze der Optik bestimmt ist.
-
Auf diese Weise wird eine Vielzahl von Rohdaten-Einzelbildern aufgenommen, in denen jeweils eine andere aktive Teilmenge abgebildet ist. In einem Bildauswerteprozess werden dann in jedem Rohdaten-Einzelbild die Schwerpunktpositionen der Lichtverteilungen bestimmt, die die im hellen Zustand befindlichen, punktförmigen Marker darstellen. Die aus den Rohdaten-Einzelbildern ermittelten Schwerpunktpositionen der Lichtverteilungen werden dann in einer Gesamtdarstellung in Form eines Gesamtbild-Datensatzes zusammengetragen. Das durch diese Gesamtdarstellung entstehende hochaufgelöste Gesamtbild spiegelt die Verteilung der Marker wider.
-
Für eine repräsentative Wiedergabe der abzubildenden Probenstruktur müssen ausreichend viele Markersignale detektiert werden. Da jedoch die Anzahl an auswertbaren Markern in der jeweils aktiven Teilmenge limitiert ist, müssen sehr viele Rohdaten-Einzelbilder aufgenommen werden, um die Probenstruktur vollständig abzubilden. Typischerweise liegt die Anzahl an Rohdaten-Einzelbildern in einem Bereich von einigen Zehntausend, wobei dieser Bereich stark variiert, da für komplexe Strukturen weit mehr Bilder aufgenommen werden müssen als für einfachere Strukturen, um die Strukturen auflösen zu können.
-
Neben der vorstehend beschriebenen lateralen Positionsbestimmung der Marker in der Objektebene (im Folgenden auch als x-y-Ebene bezeichnet) kann auch eine Positionsbestimmung in axialer Richtung (im Folgenden auch als z-Richtung bezeichnet) erfolgen. Mit axialer Richtung ist dabei die Richtung längs der optischen Achse der Abbildungsoptik, also die Hauptausbreitungsrichtung des Lichtes gemeint.
-
Dreidimensionale Lokalisierungen sind aus so genannten „Particle-Tracking"-Experimenten bekannten, wie sie in Kajo et. al., 1994, Biophysical Journal, 67, Holtzer et. al., 2007, Applied Physics Letters, 90 und Toprak et al., 2007, Nano Letters, 7(7) beschrieben sind. Sie wurden auch schon in bildgebenden Verfahren angewandt, die auf dem oben beschriebenen Schalten und Lokalisieren von Einzelmolekülen basieren. Hierzu wird auf Huang et al, 2008, Science, 319 und Juette et al., 2008, Nature Methods, verwiesen. Zum Stand der Technik wird ferner auf Pavani et al., 2009, PNAS, 106, verwiesen.
-
Eine Lokalisierung eines punktförmigen Objektes in z-Richtung kann grundsätzlich dadurch erfolgen, dass man die Veränderung eines auf der Detektionsfläche der Kamera erfassten Lichtflecks auswertet, die sichtbar wird, wenn sich das Punktobjekt aus der zur Detektionsfläche optisch konjugierten Schärfen- oder Fokalebene herausbewegt. Dabei ist im Folgenden unter einem Punktobjekt ein Objekt zu verstehen, dessen Abmessungen kleiner als die beugungsbedingte Auflösungsgrenze der Abbildungsoptik, insbesondere des Detektionsobjektivs sind. In diesem Fall bildet das Detektionsobjektiv ein solches Objekt in Form einer dreidimensionalen Fokuslichtverteilung in den Bildraum ab. Die Fokuslichtverteilung erzeugt auf der Detektionsfläche der Kamera einen Lichtfleck, der durch die sogenannte „Point-Spread-Function“, also Punktabbildungsfunktion oder kurz PSF, charakterisiert ist. Wird nun das Punktobjekt in z-Richtung durch den Fokus, d.h. senkrecht zur Schärfenebene bewegt, so ändern sich Größe und Form der PSF. Analysiert man das dem erfassten Lichtfleck entsprechende Detektionssignal im Hinblick auf Größe und Form der PSF, so kann man dadurch Rückschlüsse auf die tatsächliche z-Position des Objekts erhalten.
-
Befindet sich das Punktobjekt zu weit von der Schärfenebene entfernt, so ist der auf der Detektionsfläche der Kamera erzeugte Lichtfleck so verschwommen, dass das entsprechende Messsignal innerhalb des üblichen Messrauschens nicht mehr wahrnehmbar ist. Es gibt also in dem Objektraum in z-Richtung einen Bereich um die zentrale Fokal- oder Schärfenebene, innerhalb dessen ein Punktobjekt auf der Detektionsfläche einen Lichtfleck erzeugt, der noch scharf genug ist, um zur Lokalisierung des Punktobjektes in z-Richtung ausgewertet werden zu können. Dieser die Schärfenebene enthaltende Bereich in z-Richtung wird im Folgenden als „Schärfentiefenbereich“ bezeichnet.
-
Bei einer dreidimensionalen Lokalisierung besteht allerdings das grundsätzliche Problem, dass die von einem Punktobjekt herrührende PSF bezüglich der Detektionsfläche symmetrisch ist. Dies bedeutet, dass sich die PSF zwar ändert, wenn das Punktobjekt aus der Schärfenebene heraus bewegt wird, so dass sich der Abstand des Punktobjektes zur Schärfenebene bestimmen lässt. Jedoch ist die Änderung der PSF symmetrisch zu beiden Seiten der Schärfenebene, so dass sich nicht entscheiden lässt, auf welcher Seite der Schärfenebene sich das Punktobjekt innerhalb des Schärfentiefenbereichs befindet.
-
Es sind verschiedene Verfahren bekannt, wie mit dem vorstehend erläuterten Problem umgegangen werden kann. Beispiele sind Verfahren, die in Fachkreisen als
„Astigmatismusverfahren" (die oben genannten Dokumente Kajo et al., Holtzer et al. und Huang et al.), „Bi-Plane-Verfahren" (vgl. Toprak et al. und Juette et al.) und „Doppelhelixverfahren" (vgl. Pavani et al.) bezeichnet werden. Diesen Verfahren ist gemein, dass zur Lokalisierung des Punktobjektes in z-Richtung der auf einem Detektor erzeugte Lichtfleck zur Bestimmung einer Kenngröße analysiert wird und dieser Kenngröße eine z-Position des Punktobjektes zugeordnet wird. Diese Zuordnung erfolgt anhand einer im Vorfeld bestimmten Zuordnungsinformation, welche die Kenngröße mit der z-Position des Punktobjektes in Beziehung setzt. Als Kenngröße kommt beispielsweise wie in dem Astigmatismusverfahren eine Größe in Betracht, welche die Form des Lichtflecks charakterisiert, oder, wie im Falle des Bi-Plane-Verfahrens eine Größe, welche die Ausdehnungen zweier Lichtflecke miteinander in Beziehung setzt, die von ein- und demselben Lichtfleck herrühren und auf Detektionsflächen erzeugt werden, deren zugeordnete Schärfenebenen im Objektraum in z-Richtung zueinander versetzt sind.
-
In der Lokalisierungsmikroskopie, bei der Auflösungen von weit unter 100 nm, teilweise sogar bis in den Bereich weniger nm erzielt werden, stellen nun optische Abbildungsfehler, die zwangsläufig in jeder Abbildungsoptik auftreten, ein erhebliches Problem dar. Während in der klassischen, beugungsbegrenzten Mikroskopie, in der im Objektraum gemessene Auflösungen etwa im Bereich von 250 nm erreicht werden, die Abbildungsfehler durch exakte Linsenfertigung oder zusätzliche Korrekturelemente hinreichend minimiert werden können, ist dies bisher in der Lokalisierungsmikroskopie nicht ohne weiteres möglich. Dort ist die Auflösung so hoch, dass die verbleibenden Abbildungsfehler von erheblicher Relevanz sind. Beispiele für solche Abbildungsfehler sind chromatische Aberrationen, sphärische Aberrationen oder laterale Bildfeldverzerrungen, d.h. Abbildungsfehler, die zu einer Verzerrung der PSF in einer Ebene senkrecht zur optischen Achse führen. Ein Beispiel für eine laterale Bildfeldverzerrung ist die Koma.
-
Aufgabe der Erfindung ist es, ein lichtmikroskopisches Verfahren zur Lokalisierung von Punktobjekten eingangs genannter Art so weiterzubilden, dass laterale Bildfeldverzerrungen mit möglichst geringem technischen Aufwand zuverlässig korrigiert werden.
-
Die Erfindung löst diese Aufgabe gemäß Anspruch 1 dadurch, dass der Schärfentiefenbereich, innerhalb dessen die Punktobjekte lokalisiert werden, in dem Objektraum relativ zur Probe längs der optischen Achse mindestens einmal um einen vorbestimmten axialen z-Verstellweg, der kleiner als die axiale Ausdehnung des Schärfentiefenbereichs ist, verschoben und bei axial verschobenem Schärfentiefenbereich die Probe mittels der Abbildungsoptik erneut auf den Detektor abgebildet und ein weiteres Probenbild erzeugt wird; auf Grundlage dieses weiteren Probenbildes erneut die lateralen x/y-Positionen der Punktobjekte ermittelt werden; laterale x/y-Positionsabweichungen zwischen den auf Grundlage der verschiedenen Probenbilder ermittelten lateralen x/y-Positionen der jeweils selben Punktobjekte ermittelt werden; und in Abhängigkeit der ermittelten lateralen x/y-Positionsabweichungen eine Korrekturinformation erzeugt wird, anhand der die lateralen x/y-Positionen der Punktobjekte, die auf Grundlage mindestens eines der verschiedenen Probenbilder ermittelt worden sind, korrigiert werden.
-
Im Unterschied zu herkömmlichen Lösungen, in denen versucht wird, die Abbildungsfehler allein durch apparative Maßnahmen, insbesondere durch die möglichst fehlerfreie Fertigung der in der Abbildungsoptik verwendeten optischen Elemente, zu korrigieren, wählt die Erfindung einen Weg, bei dem die Korrektur der Abbildungsfehler aus der Analyse der lokalisierten Positionen selbst erfolgt. Auch wird keine zusätzliche Kalibrierung oder eine eigens zur Bestimmung von optischen Fehlern vorgesehene Messung benötigt, wodurch der technische Aufwand erheblich reduziert wird.
-
Die erfindungsgemäße Lösung sieht eine Verschiebung des Schärfentiefenbereichs längs der optischen Achse der Abbildungsoptik derart vor, dass es zwischen dem ursprünglichen Schärfentiefenbereich und dem verschobenen Schärfentiefenbereich in dem Objektraum eine gewisse Überlappung längs der optischen Achse gibt. Diese Überlappung wird dadurch erreicht, dass der axiale z-Verstellweg, um den der Schärfentiefenbereich längs der optischen Achse bewegt wird, kleiner als die axiale z-Ausdehnung des Schärfentiefenbereichs ist. Dabei liegt der z-Verstellweg beispielsweise im Bereich von 5 bis 90%, 10 bis 80%, 15 bis 70%, 20 bis 60% oder 25 bis 50% der axialen z-Ausdehnung des Schärfentiefenbereichs. Es versteht sich von selbst, dass diese Wertebereiche nur beispielhaft zu verstehen sind.
-
Die erfindungsgemäße Verschiebung des Schärfentiefenbereichs um den axialen z-Verstellweg, der kleiner ist als die axiale Ausdehnung des Schärfentiefenbereichs, ist demnach so zu verstehen, dass die beiden betrachteten Schärfentiefenbereiche, nämlich der ursprüngliche und der verschobene Schärfentiefenbereich, längs der optischen Achse die vorstehend genannte Überlappung aufweisen. Dies bedeutet, dass die Erfindung auch eine Schrittfolge von Verschiebungen in dem Schärfentiefenbereich abdeckt, bei der in einem einzelnen Schritt der Schärfentiefenbereich um einen Verstellweg verschoben wird, der größer als die Ausdehnung des Schärfentiefenbereichs ist, sofern die Schrittfolge insgesamt dazu führt, dass zwischen den betrachteten Schärfentiefenbereichen die letztlich gewünschte axiale Überlappung realisiert ist.
-
Die Erfindung sieht vor, von einer gegebenen dreidimensionalen Struktur von Punktobjekten nicht nur ein einziges Probenbild aufzunehmen, sondern mit einem längs der optischen Achse verschobenen Schärfentiefenbereich mindestens ein weiteres Probenbild, so dass ein- und dieselben Punktobjekte in verschiedenen z-Positionen des Schärfentiefenbereichs abgebildet werden.
-
Durch die erfindungsgemäß zu korrigierende laterale Bildfeldverzerrung weisen die genannten Punktobjekte in den beiden Probenbildern in Abhängigkeit ihrer jeweiligen z-Position Positionsabweichungen in ihren lateralen x/y-Positionen auf. Aus diesen lateralen x/y-Positionsabweichungen lässt sich nun eine Korrekturinformation erzeugen, die ein Maß für die laterale Bildfeldverzerrung ist. Diese Korrekturinformation kann dann genutzt werden, um die mit dem Abbildungsfehler behafteten lateralen x/y-Positionen der Punktobjekte zu korrigieren.
-
Wie schon eingangs erwähnt, ist unter dem erfindungsgemäßen Schärfentiefenbereich in dem Objektraum ein Bereich in z-Richtung um die zentrale Fokal- oder Schärfenebene zu verstehen, innerhalb dessen ein Punktobjekt auf dem Detektor einen Lichtfleck erzeugt, der noch scharf genug ist, um zur Lokalisierung des Punktobjektes ausgewertet werden zu können. Dabei ist es nicht erforderlich, diesen maximal möglichen Schärfentiefenbereich voll auszuschöpfen. So kann es sinnvoll sein, in Abhängigkeit der gewünschten Lokalisierungsgenauigkeit den Schärfentiefenbereich bewusst zu verkleinern und somit schon recht verschwommene, aber an sich noch auswertbare Lichtflecken von der Auswertung auszunehmen. Zur Bestimmung der lateralen x/y-Positionen müssen die auf dem Detektor erzeugten Lichtflecken nicht notwendigerweise räumlich strikt voneinander getrennt sein. Über geeignete algorithmische Verfahren, wie sie beispielsweise aus der Literatur als multi-fit-Verfahren oder maximum-likelihood-Verfahren bekannt sind, lassen sich auch überlappende Lichtverteilungen dahingehend analysieren, dass die Positionen der Punktobjekte bestimmt werden können.
-
Das erfindungsgemäße Verfahren ist nicht nur geeignet, diejenigen Abbildungsfehler zu korrigieren, die durch die optischen Elemente der Abbildungsoptik verursacht werden. Vielmehr ermöglicht es die Erfindung auch, optische Störungen zu korrigieren, die durch die Probe selbst verursacht werden. Solche optische Störungen sind häufig vom Ort, an dem sie in der Probe auftreten, oder von der Umbebungstemperatur abhängig. Sie sind somit mit herkömmlichen Verfahren, in denen etwa optische Korrekturelemente mit erheblichem technischen Aufwand geeignet angesteuert werden, nur schwer kontrollierbar. Dies gilt umso mehr als diese herkömmlichen Verfahren in der Regel eine iterative Korrektur der Abbildungsfehler vorsehen, bei der die Probe wiederholt aufgenommen wird und sich deshalb nicht verändern darf. Demgegenüber ändert sich in der Lokalisierungsmikroskopie das von dem Detektor erfasste Signal durch die blinkenden Einzelmoleküle ständig, so dass in der Regel kein Probenbild exakt dem anderen gleicht.
-
Unter der lateralen x/y-Position eines Punktobjektes ist im Folgenden eine Position zu verstehen, die etwa unter Bezugnahme auf ein kartesisches Koordinatensystem, bei dem die z-Achse parallel zur optischen Achse der Abbildungsoptik liegt, in Richtung der x-Achse und/oder in Richtung der y-Achse gemessen wird, wobei die x-Achse und die y-Achse senkrecht zu der y-Achse angeordnet sind.
-
Vorzugsweise wird innerhalb des Schärfentiefenbereichs mindestens eine senkrecht zur optischen Achse liegende Referenzebene definiert, die bei Verschieben des Schärfentiefenbereichs ortsfest relativ zu dem Schärfentiefenbereich bleibt. Eines der Probenbilder wird dabei als Referenzbild festgelegt, wobei auf Grundlage dieses Referenzbildes eine Vergleichsstruktur definiert wird, die mindestens eines derjenigen Punktobjekte repräsentiert, die bei Aufnahme des Referenzbildes in der Referenzebene des Schärfentiefenbereichs angeordnet sind. Die Vergleichsstruktur wird dann in dem mindestens einen anderen Probenbild identifiziert. Auf Grundlage der verschiedenen Probenbilder wird jeweils die laterale x/y-Position der Vergleichsstruktur ermittelt. Anschließend wird die laterale x/y-Positionsabweichung zwischen den auf Grundlage der verschiedenen Probenbilder ermittelten lateralen x/y-Positionen der Referenzstruktur bestimmt. Schließlich wird die Korrekturinformation in Abhängigkeit der für die Vergleichsstruktur ermittelten lateralen x/y-Positionsabweichung erzeugt.
-
Die Referenzebene ist beispielsweise die zentrale Fokal- oder Schärfenebene innerhalb des Schärfentiefenbereichs. Diese wird mit Verschieben des Schärfentiefenbereichs längs der optischen Achse bewegt und tastet so gleichsam den Objektraum ab. Anhand eines der Probenbilder, das als Referenzbild festgelegt wird, wird eine Vergleichsstruktur definiert, die auch in den anderen Probenbildern vorhanden ist, dort jedoch in unterschiedlichen z-Positionen und damit – bedingt durch die laterale Bildfeldverzerrung – auch in anderen x/y-Positionen innerhalb des zugehörigen Schärfentiefenbereichs. Mit Hilfe der Vergleichsstruktur lassen sich so die lateralen x/y-Positionsabweichungen in Abhängigkeit der z-Position zuverlässig ermitteln.
-
Vorzugsweise wird der Schärfentiefenbereich in mehreren Schritten axial verschoben. In jedem dieser Schritte wird die auf Grundlage des zugehörigen Probenbildes ermittelte laterale x/y-Positionsabweichung der Vergleichsstruktur gegenüber der lateralen x/y-Position der auf Grundlage des Referenzbildes ermittelten Vergleichsstruktur ermittelt. Als Korrekturinformation wird eine Zuordnungsfunktion erzeugt, deren Funktionswerte jeweils die in dem jeweiligen Schritt ermittelte laterale x/y-Positionsabweichung der zugehörigen Vergleichsstruktur abhängig von deren axialer z-Position längs der optischen Achse angeben. Die Zuordnungsfunktion stellt eine Korrekturvorschrift dar, die in Abhängigkeit des Abstandes eines Punktobjektes von der Referenzebene eine Korrektur der lateralen x/y-Position vorsieht, die genau die durch die laterale Bildfeldverzerrung entstandene Fehllokalisierung dieses Punktobjektes ausgleicht.
-
Werte der Zuordnungsfunktion, die zwischen den durch die schrittweise Verschiebung des Schärfentiefenbereichs ermittelten Funktionswerten liegen, können beispielsweise durch Interpolation bestimmt werden. Auf diese Weise kann eine stetige Zuordnungsfunktion ermittelt werden, obgleich durch das schrittweise Verschieben des Schärfentiefenbereichs nur einige diskret ermittelte Funktionswerte vorliegen.
-
In einer möglichen Ausführungsform werden die lateralen x/y-Positionen der Punktobjekte durch Bildverarbeitung direkt in dem zugehörigen Probenbild korrigiert. Dies hat den Vorteil, dass dem Benutzer die korrigierten Positionen der Punktobjekte unmittelbar angezeigt werden, ohne den Umweg über die Korrektur zuvor gespeicherter Positionen und ein auf Grundlage der korrigierten Positionen neu erzeugtes Probenbild gehen zu müssen.
-
Vorzugsweise wird die Vergleichsstruktur in dem mindestens einen anderen Probenbild in Abhängigkeit der auf dem Detektor erfassten Bildhelligkeit identifiziert, d.h. unter Berücksichtigung der Gesamtzahl der auf dem Detektor erzeugten Lichtflecken, die zu dieser Struktur beitragen. Diese Ausführungsform ist insbesondere dann von Vorteil, wenn die bei verschobenem Schärfentiefenbereich ermittelten x/y-Positionen nicht nur zur Korrektur zuvor mit Abbildungsfehlern behafteter Positionen genutzt werden, sondern zugleich zur Erzeugung eines hochaufgelösten Gesamtlokalisierungsbildes herangezogen werden. Dadurch können störende Helligkeitsunterschiede in dem Gesamtlokalisierungsbild vermieden werden.
-
Die Summe der einzelnen axialen z-Verstellwege ist im Wesentlichen gleich der axilen z-Ausdehnung des Schärfentiefenbereichs. Es ist jedoch ebenso möglich, den Schärfentiefenbereich in z-Richtung insgesamt um eine Strecke zu verstellen, die größer als die Ausdehnung des Schärfentiefenbereichs ist. Setzt man in diesem Fall die in einzelnen Schritten erzeugten Probenbilder nach der Korrektur der Positionen der Punktobjekte zu einem Gesamtlokalisierungsbild zusammen, so deckt dieses in z-Richtung einen Bereich ab, der größer als der Schärfentiefenbereich ist. Somit lassen sich insbesondere komplexe dreidimensionale Strukturen hochaufgelöst abbilden.
-
Vorzugsweise wird der axiale z-Verstellweg mittels eines Sensors erfasst. Dadurch ist sichergestellt, dass der axiale z-Verstellweg, der in die Korrektur der lateralen x/y-Positionen der Punktobjekte eingeht, stets genau bekannt ist.
-
Das Verschieben des Schärfentiefenbereichs relativ zur Probe kann dadurch erfolgen, dass entweder die Probe relativ zu der Abbildungsoptik oder aber die Abbildungsoptik relativ zu der Probe längs der optischen Achse bewegt wird. Die Erfindung ist hierauf jedoch nicht beschränkt. So ist es beispielsweise ebenso möglich, eine deformierbare Linse, einen deformierbaren Spiegel, einen räumlichen Lichtmodulator oder dergleichen zu verwenden, um den Schärfentiefenbereich in dem Objektraum längs der optischen Achse der Abbildungsoptik zu verschieben. Im Prinzip ist es möglich, den Schärfentiefenbereich auf beliebige Art und Weise zu verschieben.
-
In einer besonders bevorzugten Ausführungsform wird die z-Position des jeweiligen Punktobjektes längs der optischen Achse ermittelt, indem eine Kenngröße eines das Punktobjekt in dem jeweiligen Probenbild darstellenden Lichtflecks ermittelt und dieser Kenngröße die z-Position anhand einer vorbestimmten Zuordnungsinformation zugeordnet wird. Als Kenngröße kommt beispielsweise eine Größe in Betracht, die wie in dem eingangs genannten Astigmatismus-Verfahren die Form des das Punktobjekt darstellenden Lichtflecks charakterisiert. Alternativ kann auch eine Kenngröße genutzt werden, die, wie im Falle des bekannten Bi-Plane-Verfahrens, die Ausdehnungen zweier Lichtflecke miteinander in Beziehung setzt, die von ein- und demselben Lichtfleck herrühren und auf Detektionsflecken erzeugt werden, deren zugeordnete Schärfenebenen im Objektraum in z-Richtung zueinander versetzt sind.
-
Vorzugsweise werden die in dem Probenbild ermittelten z-Positionen der Punktobjekte mit den in dem weiteren Probenbild in Abhängigkeit des vorbestimmten axialen z-Verstellwegs ermittelten z-Positionen derselben Punktobjekte verglichen. In Abhängigkeit dieses Vergleichs wird dann eine z-Korrekturinformation erzeugt, anhand der die in Abhängigkeit der Zuordnungsinformation ermittelten z-Positionen der Punktobjekte korrigiert werden.
-
Diese Ausgestaltung umgeht das Problem, dass sich die im Vorfeld der eigentlichen lichtmikroskopischen Messung bestimmte Zuordnungsinformation, die eine Zuordnung zwischen der in der Messung ermittelten Kenngröße und der axialen z-Position des Punktobjektes ermöglicht, häufig so ungenau ist, dass eine präzise Bestimmung der z-Position schwierig ist. Anhand der z-Korrekturinformation kann in diesem Fall die (von vornherein ungenaue) Zuordnungsinformation korrigiert werden.
-
Nach einem weiteren Aspekt der Erfindung ist eine lichtmikroskopische Einrichung zur Lokalisierung von Punktobjekten gemäß Anspruch 14 vorgesehen.
-
Die Erfindung wird im Folgenden anhand der Figuren näher erläutert. Darin zeigen:
-
1 eine schematische Darstellung einer lichtmikroskopischen Einrichtung nach der Erfindung;
-
2 zwei schematische Schnittdarstellungen, von denen eine Darstellung eine verzerrungsfreie PSF und die andere Darstellung eine durch Koma verzerrte PSF im Objektraum zeigt;
-
3 zwei schematische Darstellungen, die eine dreidimensionale, röhrenartige Struktur ohne Koma zeigen;
-
4 zwei schematische Darstellungen entsprechend 3, welche die röhrenartigen Struktur mit Koma zeigen;
-
5 eine schematische Darstellung, die eine X-förmige Struktur zusammen mit einem Schärfentiefenbereich und deren Bild zeigt;
-
6 eine schematische Darstellung, welche die X-förmige Struktur und deren Bild in einem ersten Schritt eines beispielhaften Verfahrens nach der Erfindung zeigt;
-
7 eine schematische Darstellung, welche die X-förmige Struktur und deren Bild in einem zweiten Schritt des Verfahrens zeigt;
-
8 eine schematische Darstellung, welche die X-förmige Struktur und deren Bild in einem dritten Schritt des Verfahrens zeigt;
-
9 eine schematische Darstellung, welche die X-förmige Struktur und deren Bild in einem vierten Schritt des Verfahrens zeigt;
-
10 eine schematische Darstellung, welche die X-förmige Struktur und deren Bild in einem fünften Schritt des Verfahrens zeigt;
-
11 einen Graphen, der laterale x-Positionen einer Vergleichsstruktur in den in den 6 bis 10 dargestellten Schritten zeigt; und
-
12 einen Graphen, der eine erfindungsgemäße Zuordnungsfunktion zeigt, deren Funktionswerte laterale x-Positionsabweichungen in Abhängigkeit der z-Position angeben.
-
1 zeigt in einer rein schematischen Darstellung eine lichtmikroskopische Einrichtung 10 mit einer Abbildungsoptik 12, die eine Probe 14 auf einen Detektor 16 abbildet. Die Probe 14 ist auf einem Probenträger 28 angeordnet.
-
Die Abbildungsoptik 12 hat einen Schärfentiefenbereich 18, der längs einer optischen Achse O eine axiale Ausdehnung t aufweist. Im Folgenden soll davon ausgegangen werden, dass die optische Achse O parallel zu einer Achse z eines kartesischen Koordinatensystems liegt, deren weitere Achsen x und y senkrecht zur optischen Achse O angeordnet sind.
-
Die Einrichung 10 umfasst ferner eine Steuereinheit 20, die den Gesamtbetrieb der Einrichung 10 steuert. Insbesondere verfügt die Steuereinheit 20 über Rechenmittel, welche die zur Lokalisierung erforderlichen Berechnungen und Auswertungen vornimmt. Die Steuereinheitt 80 steuert ferner einen Piezoaktor 22 an, mit dem sich die Abbildungsoptik 12 längs der optischen Achse O bewegen lässt, um den Schärfentiefenbereich 78 längs der optischen Achse O, d.h. in z-Richtung zu verschieben. Ein mit der Steuereinheit 20 gekoppelter Sensor 24 erfasst den z-Verstellweg, um den die Abbildungsoptik 12 und damit der Schärfentiefenbereich innerhalb des Objektraums verschoben werden.
-
Die Probe 14 enthält eine Vielzahl von Punktobjekten 26, die durch fluoreszierende Marker gebildet sind, die an den abzubildenden Strukturen haften. Während der mikroskopischen Aufnahme werden die Punktobjekte 26 einzeln als Lichtflecke auf den Detektor 16 abgebildet. Die so erzeugten Lichtflecke werden zur Lokalisierung der Punktobjekte 26 in der Steuereinheit 20 ausgewertet.
-
Die Einrichtung 10 nach 1 dient dazu, die in der Probe 14 enthaltenen Punktobjekte 26 in dem Objektraum 28 zu lokalisieren. Hierzu ermittelt die Steuereinheit 20 der Einrichtung 10 sowohl die z-Position des jeweiligen Punktobjektes längs der optischen Achse O als auch die laterale x/y-Position in einer senkrecht zur optischen Achse O liegenden Ebene.
-
Im folgenden wird erläutert, wie eine laterale Bildfeldverzerrung, wie sie beispielsweise durch eine Koma verursacht wird, erfindungsgemäß korrigiert wird. Dabei soll zunächst unter Bezugnahme auf die 2 bis 4 veranschaulicht werden, wie sich eine laterale Bildverzerrung auf die Genauigkeit auswirkt, mit der Punktobjekte 26 in lateraler Richtung lokalisiert werden.
-
In 2 ist veranschaulicht, wie die Koma zu einer Verzerrung der dem jeweiligen Punktobjekt zugeordneten PSF im dreidimensionalen Raum führt. Dabei ist in dem linken Teilbild der 2 zunächst der Idealfall einer fehlerfreien PSF 30 dargestellt, die radialsymmetrisch längs ihrer in 2 mit z‘ bezeichneten Längsachse ist. Die Längsachse z‘ der PSF 30 soll dabei parallel zur optischen Achse O und damit zur z-Achse des in 2 dargestellten Koordinatensystems liegen.
-
Die Koma führt nun zu einer Verzerrung der PSF 30, durch welche die Radialsymmetrie der PSF 30 gebrochen wird, wie in dem rechten Teilbild der 2 dargestellt ist. Diese Brechunung der Radialsymmetrie führt zu einer lateralen Verschiebung des Schwerpunktes der PSF 30 in der x-y-Ebene. Wie der 2 unmittelbar zu entnehmen ist, ist die laterale Schwerpunktsverschiebung abhängig von der z-Position.
-
Die Koma führt also dazu, dass die Schwerpunkte der den einzelnen Punktobjekten zugeordneten PSFs an verschiedenen z-Positionen nicht mehr in der gleichen x/y-Position liegen. Einen entsprechenden Effekt erhält man, wenn man anstelle der Koma eine Verkippung der PSF im Raum betrachtet.
-
Liegen nun also Abbildungsfehler vor, die den vorstehend genannten Effekt der Schwerpunktverschiebung zur Folge haben, so führt dies im hochaufgelösten Probenbild zu Bildfehlern, wie ein Vergleich der 3 und 4 zeigt. 3 zeigt dabei das Bild einer dreidimensionalen, röhrenartigen Struktur 32, die sich längs der z-Achse erstreckt. Die Struktur 32 soll beispielsweise mit einem geeigneten Farbstoff gefärbt sein, dessen Moleküle in der eingangs erläuterten Weise lokalisiert werden. Aus den ermittelten und gespeicherten Positionsinformationen wird dann ein hochaufgelöstes Bild zusammengesetzt. Dies ist in dem rechten Teilbild nach 3 für eine beispielhafte zwiedimensionale Projektion aller im dreidimensionalen Raum lokalisierten Punktobjekte veranschaulicht. In dieser zweidimensionalen Projektion ist die betrachtete Struktur durch einen Kreis dargestellt.
-
Während 3 den fehlerfreien Fall zeigt, veranschaulicht 4 die Auswirkung einer lateralen Bildfeldverzerrung. Demnach führt die laterale Bildfeldverzerrung dazu, dass Molekülpositionen, die zwar in unterschiedlichen z-Positionen, aber an sich in der gleichen x/y-Position liegen, fälschlicherweise an verschiedene x/y-Positionen gesetzt werden, wie das linke Teilbild der 4 zeigt. Somit ist in der zweidimensionalen Projektion eine Abweichung von der ursprünglichen Kreisform zu sehen, wie das rechte Teilbild der 4 zeigt.
-
Unter Bezugnahme auf die 5 bis 12 wird im Folgenden beispielhaft erläutert, wie die vorstehend beschriebene laterale Bildfeldverzerrung erfindungsgemäß korrigiert wird.
-
5 zeigt in dem linken Figurenteil eine X-förmige Struktur 32, die sich beispielhaft in der x-z-Ebene erstreckt. Die X-förmige Struktur 32 soll mit einem geeigneten Farbstoff gefärbt sein, welche die zu lokalisierenden Punktobjekte 26 (vgl. 1) bilden. Zur Lokalisierung dieser Farbstoffe werden deren Positionen innerhalb des in 5 als rechteckige Fläche dargestellten Schärfentiefenbereichs 18 ermittelt. Das daraus entstehende, hochaufgelöste Bild ist in dem rechten Teil der 5 dargestellt. Somit zeigt der rechte Figurenteil den Bildraum, der zu dem in dem linken Figurenteil dargestellten Objektraum optisch konjugiert ist.
-
Im Folgenden wird der Einfachheit halber angenommen, dass die Abbildungsoptik 12 eine Bildfeldverzerrung allein in x-Richtung verursacht. Das resultierende, in x-Richtung verzerrte Bild ist mit durchgezogenen Linien dargestellt. Demgegenüber ist das Bild, das bei einer idealen Abbildung ohne Bildfeldverzerrung entstünde, gestrichelt dargestellt.
-
In 5 ist ferner die zentrale Schärfen- oder Fokalebene des Schärfentiefenbereichs 18 mit 34 bezeichnet. Dabei ist darauf hinzuweisen, dass sowohl in dem linken als auch in dem rechten Teil der 5 (und auch in den weiteren 5 bis 10) die gleichen Bezugszeichen angegeben sind, obgleich der linke Figurenteil den Objektraum und der rechte Figurenteil den hierzu optisch konjugierten Bildraum darstellt.
-
In den 6 bis 10 ist gezeigt, wie der Schärfentiefenbereich 18 in mehreren Schritten jeweils um einen z-Verstellweg ∆z in dem Objektraum längs der optischen Achse O verschoben wird, um die erfindungsgemäße Korrektur der lateralen x/y-Positionen der Punktobjekte 26 vorzunehmen.
-
Das in den 6 bis 10 dargestellte Verfahren beruht auf folgender Überlegung. In Folge der lateralen Bildfeldverzerrung in x-Richtung werden Punktobjekte, die innerhalb des Schärfentiefenbereichs 18 zwar in der gleichen x-Position, jedoch in unterschiedlichen z-Positionen liegen, in dem durch die Abbildungsoptik 12 erzeugten Bild in unterschiedlichen x-Positionen dargestellt. Jedoch ist es möglich, eine z-Position innerhalb des Schärfentiefenbereichs 18 zu definieren, bei der die x-Positionszuordnung zwischen Objektraum und Bildraum definitionsgemäß korrekt ist. Diese z-Position innerhalb des Schärfentiefenbereichs 34 bildet somit eine Referenzposition. Die x-y-Ebene, die sich im Objektraum an dieser z-Position befindet, definiert dementsprechend eine Referenzebene. In dem vorliegenden Ausführungsbeispiel wird die zentrale Schärfenebene 34 des Schärfentiefenbereichs 18 als eine solche Referenzebene herangezogen. Die in den 6 bis 10 gezeigte Schrittfolge hat nun zum Ziel, eine Zuordnungsfunktion als Korrekturinformation zu erzeugen, die in Abhängigkeit des Abstandes eines Punktobjektes von der Referenzebene 34 eine Korrektur der x-Position vorsieht, die gerade die durch die laterale Bildfeldverzerrung entstandene Fehllokalisierung in x-Richtung ausgleicht.
-
Die Zuordnungsfunktion wird in dem vorliegenden Ausführungsbeispiel dadurch erzeugt, dass nicht nur ein Bild der X-förmigen Struktur 32, sondern insgesamt fünf Bilder mit jeweils um ∆z verschobenem Schärfentiefenbereich 18 erzeugt werden.
-
Das beispielhafte Korrekturverfahren beginnt in Schritt 1 nach 6, in dem sich die als Referenzebene fungierende Schärfenebene 34 des Schärfentiefenbereichs 18 innerhalb des Objektraums längs der optischen Achse O in der Position z1 befindet. Der rechte Teil der 6 zeigt das aus dieser Anordnung resultierende hochaufgelöste Bild.
-
Anschließend wird in Schritt 2 nach 7 die Abbildungsoptik 12 und damit deren Schärfentiefenbereich 18 um den bekannten z-Verstellweg ∆z (= z2 – z1) längs der optischen Achse verschoben, so dass die als Referenzebene dienende Schärfenebene 34 in die Position z2 gelangt. Wiederum wird in dieser Anordnung ein hochaufgelöstes Bild erzeugt, wobei die in z-Richtung lokalisierten Positionen
-
entsprechend um den Betrag ∆z korrigiert werden, um das resultierende Bild im Vergleich zu dem in dem vorhergenden Schritt 1 erzeugten Bild nicht um ∆z zu verschieben. In dem so entstandenen Bild ist die X-förmige Struktur 32 für alle z-Positionen ausser z2 in z-Richtung verzerrt dargestellt ist, wie wiederum anhand der gestrichelt dargestellten Idealstruktur zu erkennen ist. Wie der Vergleich der 6 und 7 zeigt, ändert sich die Verzerrung in dem hochaufgelösten Bild mit dem Verschieben des Schärfentiefenbereichs 18, da die X-förmige Struktur ihre Lage innerhalb des Schärfentiefenbereichs 34 ändert.
-
Wie in den 8 bis 10 gezeigt, wird anschließend in weiteren Schritten 3, 4 und 5 der Schärfentiefenbereich 18 sukzessive jeweils um den vorbestimmten z-Verstellweg ∆z längs der optischen Achse O verschoben. Daduch tastet die Referenzebene 34 gleichsam die X-förmige Struktur 32 in dem Objektraum längs der optischen Achse O ab.
-
Nach der Erzeugung der fünf hochaufgelösten Bilder wird beispielsweise der Teil der X-förmigen Struktur 32, der sich in Schritt 3 in der Referenzebene 34 befindet, als Vergleichsstruktur gewählt. Diese Vergleichsstruktur wird anschließend auch in den anderen, in den Schritten 1, 2, 4 und 5 erzeugten Bildern identifiziert. Dann wird die laterale x-Position der Vergleichsstruktur auf Grundlage der einzelnen, in den verschiedenen Schritten erzeugten Bilder ermittelt. Da sich die Vergleichsstruktur bei der Aufnahme der einzelnen Bilder relativ zu dem Schärfentiefenbereich 18 in verschiedenen z-Positionen befunden hat, ergeben sich in Folge der Bildfeldverzerrung in x-Richtung von Bild zu Bild unterschiedliche x-Positionen. Diese sind in dem Graphen nach 11 für die einzelnen Schritte 1 bis 5 dargestellt.
-
Die gewünschte Zuordnungsfunktion erhält man schließlich, indem man die in den Schritten 1, 2, 4 und 5 ermittelten lateralen x-Positionsabweichungen der Vergleichsstruktur gegenüber der in Schritt 3 ermittelten x-Position der Vergleichsstruktur gegen die zugehörigen z-Positionen aufträgt. Dies ist in dem Graphen nach 12 dargestellt. Die den Schritten 1 bis 5 zugeordneten fünf Funktionswerte der Zuordnungsfunktion können dann als Stützstellen genutzt werden, um z.B. im Wege einer Interpolation Zwischenwerte zu erzeugen, um schließlich eine stetige Zuordnungsfunktion zu erhalten. Mit einer solchen Zuordnungsfunktion können die lateralen Positionsabweichungen für alle z-Positionen angegeben werden, um eine verzerrungsfreies, hochaufgelöstes Bild zu erzeugen.
-
Bezugszeichenliste
-
- 10
- Lichtmikroskopische Einrichtung
- 12
- Abbildungsoptik
- 14
- Probe
- 16
- Detektor
- 18
- Schärfentiefenbereich
- 20
- Steuereinheit
- 22
- Verstelleinheit
- 24
- Sensor
- 26
- Punktobjekte
- 28
- Probenträger
- 30
- PSF
- 32
- röhrenartige Struktur
- 32
- X-förmige Struktur
- 34
- Referenzebene
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- WO 2006/127692 A2 [0002, 0004]
- DE 102006021317 B3 [0002, 0004]
- WO 2007/128434 A1 [0002]
- US 2009/0134342 A1 [0002]
- DE 102008024568 A1 [0002]
- WO 2008/091296 A2 [0002, 0004]
-
Zitierte Nicht-Patentliteratur
-
- „Sub-diffraction-limit imaging by stochastic optical reconstruction microscopy (STORM)“, Nature Methods 3, 793–796 (2006), M. J. Rust, M. Bates, X. Zhuang [0002]
- „Resolution of Lambda/10 in fluorescence microscopy using fast single molecule photo-switching“, Geisler C. et al, Appl. Phys. A, 88, 223–226 (2007) [0002]
- „Particle-Tracking“-Experimenten bekannten, wie sie in Kajo et. al., 1994, Biophysical Journal, 67, Holtzer et. al., 2007, Applied Physics Letters, 90 und Toprak et al., 2007, Nano Letters, 7(7) beschrieben sind. Sie wurden auch schon in bildgebenden Verfahren angewandt, die auf dem oben beschriebenen Schalten und Lokalisieren von Einzelmolekülen basieren. Hierzu wird auf Huang et al, 2008, Science, 319 und Juette et al., 2008, Nature Methods, verwiesen. Zum Stand der Technik wird ferner auf Pavani et al., 2009, PNAS, 106 [0009]
- „Astigmatismusverfahren“ (die oben genannten Dokumente Kajo et al., Holtzer et al. und Huang et al.), „Bi-Plane-Verfahren“ (vgl. Toprak et al. und Juette et al.) und „Doppelhelixverfahren“ (vgl. Pavani et al.) [0013]