DE102004051508B4 - Method for automatic generation of laser cut lines in laser microdissection - Google Patents

Method for automatic generation of laser cut lines in laser microdissection Download PDF

Info

Publication number
DE102004051508B4
DE102004051508B4 DE102004051508A DE102004051508A DE102004051508B4 DE 102004051508 B4 DE102004051508 B4 DE 102004051508B4 DE 102004051508 A DE102004051508 A DE 102004051508A DE 102004051508 A DE102004051508 A DE 102004051508A DE 102004051508 B4 DE102004051508 B4 DE 102004051508B4
Authority
DE
Germany
Prior art keywords
image
laser
objects
cut
cutting line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Revoked
Application number
DE102004051508A
Other languages
German (de)
Other versions
DE102004051508A1 (en
Inventor
Frank Sieckmann
Gerhard Johannsen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Microsystems CMS GmbH
Original Assignee
Leica Microsystems CMS GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34584752&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE102004051508(B4) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Leica Microsystems CMS GmbH filed Critical Leica Microsystems CMS GmbH
Priority to PCT/EP2004/052600 priority Critical patent/WO2005040762A1/en
Priority to EP04791269A priority patent/EP1676116B8/en
Priority to US10/576,453 priority patent/US9217694B2/en
Priority to DE102004051508A priority patent/DE102004051508B4/en
Priority to JP2006536088A priority patent/JP2007509334A/en
Publication of DE102004051508A1 publication Critical patent/DE102004051508A1/en
Application granted granted Critical
Publication of DE102004051508B4 publication Critical patent/DE102004051508B4/en
Revoked legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N1/00Sampling; Preparing specimens for investigation
    • G01N1/28Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q
    • G01N1/2813Producing thin layers of samples on a substrate, e.g. smearing, spinning-on
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/32Micromanipulators structurally combined with microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N1/00Sampling; Preparing specimens for investigation
    • G01N1/28Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q
    • G01N1/2813Producing thin layers of samples on a substrate, e.g. smearing, spinning-on
    • G01N2001/2833Collecting samples on a sticky, tacky, adhesive surface
    • G01N2001/284Collecting samples on a sticky, tacky, adhesive surface using local activation of adhesive, i.e. Laser Capture Microdissection

Abstract

Verfahren zur Laser-Mikrodissektion, bei dem zu einem auszuschneidenden Objekt in einem mikroskopischen Präparat eine Soll-Schnittlinie definiert und anschließend das Objekt mittels einer Relativbewegung zwischen Laserstrahl und Präparat ausgeschnitten wird, wobei ein elektronisches Bild zumindest eines Bildausschnittes des Präparats aufgenommen wird und der Bildausschnitt bildanalytisch bearbeitet wird, wobei mindestens ein auszuschneidendes Objekt ermittelt wird
dadurch gekennzeichnet,
dass die Objektkontur automatisch ermittelt wird,
dass aus der Objektkontur die Soll-Schnittlinie um das mindestens eine auszuschneidende Objekt automatisch bestimmt wird und dass das Objekt entlang der bestimmten Soll-Schnittlinie mittels des Laserstrahls ausgeschnitten wird.
Method for laser microdissection, in which a desired cutting line is defined for an object to be excised in a microscopic specimen and then the object is cut out by means of a relative movement between the laser beam and the specimen, an electronic image of at least one image section of the specimen being recorded and the image section being image-analytically is processed, wherein at least one object to be cut out is determined
characterized,
that the object contour is determined automatically,
in that the target cut line around the at least one object to be cut out is automatically determined from the object contour, and that the object is cut out along the determined set cut line by means of the laser beam.

Figure 00000001
Figure 00000001

Description

Die Erfindung betrifft ein Verfahren mit den Merkmalen des Oberbegriffs des Anspruchs 1. Die Unteransprüche geben vorteilhafte Ausgestaltungen an.The The invention relates to a method having the features of the preamble of claim 1. The dependent claims indicate advantageous embodiments.

Laser-Mikrodissektions-Systeme dienen der Extraktion von ausgewählten mikroskopischen Objekten in biologischen Präparaten mittels eines von einem Laser erzeugten Laser-Strahls. Das in ausreichender Menge extrahierte Material (die gesammelten Dissektate) wird anschließend weiteren biochemischen Analyseschritten zugeführt. Die Laser-Mikrodissektions-Systeme werden derzeit überwiegend im medizinisch-biologischen Bereich eingesetzt.Laser microdissection systems serve the extraction of selected ones microscopic objects in biological preparations by means of one of a Laser generated laser beam. The extracted in sufficient quantity Material (the collected dissectates) will be further biochemical analysis steps supplied. The laser microdissection systems are currently predominant used in the medical-biological field.

Das Prospekt der Fa. PALM, „PALM MicroBeam IP-MS + Metafer P", Februar 2003, offenbart ein Mikrodissektionssystem zur automatischen Detektion von bestimmten Zellen. Die Schnittlinien um die aufgefundenen Zellen werden auf dem Monitorbild mit dem Cursor markiert oder es werden vorgegebene Schnittlinienmuster (z.B. Kreise) wiederholt.The Prospectus of the company PALM, "PALM MicroBeam IP-MS + Metafer P ", February 2003, discloses a microdissection system for automatic Detection of specific cells. The cut lines around the found ones Cells are highlighted on the monitor screen with the cursor or it predetermined intersection patterns (e.g., circles) are repeated.

Ein Verfahren zur Laser-Mikrodissektion und ein solches Laser-Mikrodissektions-System beschreiben beispielsweise die DE 100 43 506 C1 und die DE 100 18 251 C2 . Ein solches Laser-Mikrodissektions-System setzt sich aus mehreren, präzise aufeinander abgestimmten Komponenten zusammen. Die zentrale Komponente ist ein in vielen Funktionen motorisiertes Mikroskop mit einem elektronisch verstellbaren x-y-Tisch zur Aufnahme des zu bearbeitenden Präparats. Der in einer Lasereinheit erzeugte Laserstrahl wird über ein optisches System mit integrierter Strahlablenkung in den Strahlengang des Mikroskops eingekoppelt und wird zum Schneiden durch das Mikroskopobjektiv auf unterschiedliche Stellen des ortsfesten Präparats gelenkt. In einer anderen Ausführungsform wird der Laserstrahl ortsfest ge halten und das Präparat mittels des x-y-Tisches relativ dazu bewegt. Alle Steuerfunktionen werden von einem geeignet ausgelegten Programm, das auf einem angeschlossenen Computer läuft, ausgeführt. Über eine an das Mikroskop adaptierte Kamera wird der im Mikroskop sichtbare Bildausschnitts des Präparats auf den Computer-Bildschirm zur Darstellung gebracht. Durch Ziehen der Computer-Maus kann der Benutzer ausgewählte Präparatbereiche mit einer Zeichenlinie umranden, die nachfolgend als Soll-Schnittlinie bezeichnet wird. Jede so gezeichnete Linie ist gekennzeichnet durch eine Folge von x-y-Punktkoordinaten, die relativ zu den Bildschirmkoordinaten definiert sind. Nach Auslösung des Schneidbefehls wird der Laserstrahl durch eine geeignete x-y-Abbildungsvorrichtung so gesteuert, dass die zuvor definierte Zeichenlinie auf das Präparat derart abgebildet wird, dass eine maßstabsgetreue, affine Abbildung der Bildschirmlinie auf dem Präparat abgefahren wird. Mit geeignet eingestelltem Laserstrahl wird somit ein Ausschneiden der vorher manuell markierten Objekte erreicht. Wie in der DE 100 18 251 C2 beschrieben, erlaubt das System für die Weiterverarbeitung das selektive Sammeln der Dissektate in einem standardisierten kleinen Behälter unterhalb der Schnittebene, wobei mehrere Behälter zur Auswahl stehen und automatisch in die Auffangposition gefahren werden können.A method for laser microdissection and such a laser microdissection system describe, for example, the DE 100 43 506 C1 and the DE 100 18 251 C2 , Such a laser microdissection system is composed of several, precisely matched components. The central component is a motorized microscope in many functions with an electronically adjustable xy table for holding the preparation to be processed. The laser beam generated in a laser unit is coupled via an optical system with integrated beam deflection in the beam path of the microscope and is directed for cutting through the microscope objective to different locations of the stationary preparation. In another embodiment, the laser beam is kept stationary ge and moves the preparation by means of the xy-table relative thereto. All control functions are performed by a suitably designed program running on a connected computer. By means of a camera adapted to the microscope, the image section of the specimen that is visible in the microscope is displayed on the computer screen. By dragging the computer mouse, the user can surround selected regions of preparation with a line of characters, hereinafter referred to as the desired cutting line. Each line drawn in this way is characterized by a sequence of xy point coordinates, which are defined relative to the screen coordinates. After triggering the cutting command, the laser beam is controlled by a suitable xy imaging device so that the previously defined character line is imaged onto the specimen such that a true-to-scale, affine image of the screen line on the specimen is traced. With suitably adjusted laser beam thus cutting out the previously manually marked objects is achieved. Like in the DE 100 18 251 C2 described, allows the system for further processing the selective collection of the dissected in a standardized small container below the cutting plane, with multiple containers are available for selection and can be automatically moved to the collection position.

Das bekannte Verfahren zur Laser-Mikrodissektion weist jedoch den Nachteil auf, dass die vom Benutzer vorgenommene Markierung der auszuschneidenden Objekte aufwendig, zeitintensiv und fehlerträchtig ist. Dies gilt insbesondere dann, wenn eine relativ umfangreiche Menge an Dissektaten für die nachfolgenden Analyseschritte erforderlich ist. Hier spielen insbesondere Ermüdungserscheinungen und andere Einflüsse auf den Benutzer eine nicht unerhebliche Rolle.The However, known methods for laser microdissection has the disadvantage on that the user made mark of the cut out Objects consuming, time-consuming and error prone. This is especially true then, if a relatively large amount of dissectates for the subsequent analysis steps is required. In particular, fatigue and others play here influences on the user a not insignificant role.

Es ist daher Aufgabe der vorliegenden Erfindung, ein Verfahren zur Laser-Mikrodissektion anzugeben, welches möglichst fehlerfrei einen hohen Präparate-Durchsatz ermöglicht.It is therefore an object of the present invention, a method for Laser microdissection indicate which, if possible error-free high drug throughput allows.

Diese Aufgabe wird gelöst durch ein gattungsgemäßes Verfahren zur Laser- Mikrodissektion mit den kennzeichnenden Merkmalen des Anspruchs 1. Bei dem Verfahren wird zunächst ein elektronisches Bild (Grauwertbild oder Farbbild) zumindest eines Bildausschnittes des Präparats aufgenommen., Danach wird der Bildausschnitt bildanalytisch bearbeitet, wobei das auszuschneidende Objekt und dessen Objektkontur bildanalytisch ermittelt wird. Anschließend wird aus der Objektkontur die Soll-Schnittlinie um das auszuschneidende Objekt automatisch bestimmt. Anschließend wird das Objekt entlang der Soll-Schnittlinie mittels eines Laserstrahls ausgeschnitten. These Task is solved by a generic method for laser microdissection with the characterizing features of claim 1. In the method will be first an electronic image (gray scale image or color image) of at least one Picture section of the preparation recorded., Then the image section is processed by image analysis, wherein the object to be cut out and its object contour are image-analytical is determined. Subsequently the object contour becomes the desired cutting line around the object to be cut out automatically determined. Subsequently the object is along the desired cutting line by means of a laser beam cut out.

Dabei werden aus der automatisch bestimmten Soll-Schnittlinie ebenfalls automatisch Steuersignale für eine Relativbewegung zwischen Laserstrahl und Präparat abgeleitet. Daraufhin wird die Laserschnittlinie automatisch, ohne Eingriff des Benutzers, erzeugt.In this case, the automatically determined desired cutting line also automatically control signals derived for a relative movement between laser beam and specimen. The laser cut line is then automatically generated without user intervention.

Die Erfindung löst die angesprochenen Nachteile durch konsequente Anwendung von bildanalytischen Methoden und einem wesentlich erhöhten Automatisierungsgrad des Mikroskops. Die Automatisierung betrifft in erster Linie die Positionierung des zu untersuchenden Präparatebereichs über den elektronisch verstellbaren Tisch.The Invention solves the mentioned disadvantages by consistent application of image-analytical methods and a significantly increased Degree of automation of the microscope. The automation concerns in First of all, the positioning of the specimen area to be examined via the electronically adjustable table.

Für einen besonders hohen Automatisierungsgrad und eine deutliche Erhöhung des Probendurchsatzes wird in einer weiteren Ausgestaltung des Verfahrens im zugeordneten Applikationsprogramm eine sogenannte Mäanderfunktion definiert, die im Routinebetrieb für den korrekten Vorschub des Tisches mit dem Präparat sorgt. Dabei wird das Präparat automatisch mäanderförmig, Bildfeld für Bildfeld verfahren, so dass schrittweise ein vom Benutzer gewählter Präparatebereich vollständig mit der Kamera erfasst wird. Im Einstellmodus des Systems lassen sich zum einen die Grenzen des interessierenden Präparatebereichs sowie die Vergrößerung des Mikroskopobjektivs definieren, welches das Bildfeld in seiner Größe festlegt. Zum anderen lassen sich Art und Einstellungen eines Fokussier-Systems definieren, mit dessen Hilfe während der automatischen Vorschubbewegung des Tisches für die notwendige Schärfeeinstellung der zu bearbeitenden Bilder gesorgt wird. In Verbindung mit der Mäanderfunktion erlaubt dieses Verfahren eine vollautomatische Bearbeitung des Präparates, ohne dass ein Eingriff durch den Benutzer erforderlich ist,For one particularly high degree of automation and a significant increase in Sample throughput is in a further embodiment of the method in the assigned application program a so-called meander function defined in routine operation for the correct feed of the Table with the preparation provides. At the same time the drug becomes automatically meandering, image field for image field procedure, so that gradually a user-selected preparation area Completely captured with the camera. Leave in the setting mode of the system on the one hand, the limits of the specimen area of interest as well as the enlargement of the Define microscope objective, which defines the image field in size. On the other hand, the type and settings of a focusing system can be defined, with his help during the automatic feed movement of the table for the necessary sharpness adjustment the images to be processed are taken care of. In conjunction with the Mäanderfunktion this procedure allows a fully automatic processing of the preparation, without requiring any intervention by the user,

Nach jedem automatischen Erreichen einer neuen Präparateposition wird mit der Kamera ein Bild aufgenommen. Jedes aufgenommene Bild wird mit bildanalytischen Methoden daraufhin untersucht, ob Objekte enthalten sind, deren charakteristische Merkmale mit zuvor eingelernten Merkmalen übereinstimmen, wobei der Übereinstimmungsgrad einstellbar ist. Bei ausreichender Übereinstimmung wird das Objekt erkannt und markiert. Für alle erkannten Objekte erfolgt über eine automatische Konturberechnung die Erzeugung einer individuellen und geschlossenen Begrenzungslinie. Diese Begrenzungslinie wird durch eine Matrixtransformation formerhaltend so ,aufgeweitet', dass sie das Objekt in einem größeren Abstand als Soll-Schnittlinie umschließt. Diese Vorgehensweise erlaubt es, die endliche Schnittdicke des Laserstrahls zu berücksichtigen. Jede so gewonnene Soll-Schnittlinie ist gekennzeichnet durch eine Folge von x-y-Punktkoordinaten, die relativ zu den Bildschirmkoordinaten definiert sind. Durch eine geeignete x-y-Abbildungsvorschrift wird eine maßstabsgetreue, affine Abbildung der Schnittlinie generiert, die zur entsprechenden Auslenkung des Laserstrahls benötigt wird.To every automatic reaching of a new preparation position is with the Camera taken a picture. Each captured image is analyzed with image Methods are then examined to see if objects are included characteristic features match previously learned characteristics, where the degree of agreement is adjustable. If there is sufficient agreement, the object becomes recognized and marked. For all detected objects are over an automatic contour calculation the generation of an individual and closed boundary. This boundary becomes by formatting a matrix transformation so that it expands the object at a greater distance as desired cutting line encloses. This procedure allows the finite slice thickness of the laser beam to take into account. each thus obtained desired cutting line is characterized by a sequence of x-y point coordinates, the are defined relative to the screen coordinates. By a suitable x-y mapping rule becomes a true-to-scale, Affine illustration of the cut line generated, corresponding to the Deflection of the laser beam needed becomes.

Nach Bearbeitung des vorliegenden Bildes in der beschriebenen Art, wird mit Hilfe der automatischen Vorschubbewegung des Tisches das Präparat auf das nächste Bildfeld positioniert und analysiert. Ein wählbares Auffangbehältnis wird automatisch in die Auffangposition gefahren. Dieser Vorgang wiederholt sich solange, bis der definierte Präparatebereich abgearbeitet oder eine zuvor eingestellte Zahl von Objekten ausgeschnitten wurde. Nach dem Schneiden hinterlässt jedes ausgeschnittene Objekt ein Loch im Präparat genau dann, wenn der Ausschneidevorgang vollständig erfolgreich war. Das Loch entspricht in etwa der Fläche des zuvor detektierten Objektes (innerhalb der Konturlinie) ohne die Laserschnittdicken-Erweiterung. Daher ist ein Flächenvergleich des per Bildanalyse detektierten Schnittlochs mit der Fläche des zuvor detektierten Objektes ein probates Mittel für die binäre Beurteilung des Schnittes.To Processing of the present image in the manner described is by means of automatic advancing movement of a table drug the next Image field positioned and analyzed. An optional collection container becomes automatically moved to the collection position. This process is repeated until the defined preparation area has been processed or a previously set number of objects has been cut. After cutting leaves every cut object a hole in the specimen if and only if the Cut completely was successful. The hole roughly corresponds to the area of the previous one detected object (within the contour line) without the laser cut thickness extension. Therefore, a surface comparison of the cut hole detected by image analysis with the area of the previously detected object is an effective means for the binary assessment of the cut.

Der Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass nach einmal erfolgter Einstellung das System ohne weitere Überwachung durch einen Benutzer arbeitet. Das angegebene Verfahren führt damit zu einem deutlich gesteigerten Probendurchsatz bei gleichzeitiger Erhöhung der Robustheit und Zuverlässigkeit. Da die einmal erprobten Merkmals-Datensätze gespeichert werden können, führt dies zu absolut reproduzierbaren Bedingungen bei der Verwendung gleichartiger Präparate. Gerade bei statistischen Messungen ist diese Reproduzierbarkeit unbedingte Voraussetzung für einen guten Vertrauensbereich der Ergebnisse.Of the Advantage of the method according to the invention is that once the system is set without further supervision works by a user. The specified procedure leads to this a significantly increased sample throughput while increasing the Robustness and reliability. Because the once-tried feature records are saved can be does this to absolutely reproducible conditions when using similar Preparations. Especially with statistical measurements, this reproducibility unconditional requirement for a good confidence of the results.

Durch die Verwendung mehrerer Merkmals-Datensätze ist es zudem möglich, unterschiedliche Objekttypen innerhalb eines Präparates in einem Arbeitsgang zu erkennen und auszuschneiden. Da für das Auffangen der Dissektate mehrere Behältnisse unterhalb der Schnittebene zur Auswahl stehen, lassen sich unterschiedliche Objekttypen auch in verschiedenen Behältnissen sammeln.By the use of multiple feature records also makes it possible to have different Object types within a specimen to recognize and cut in one operation. As for the catch the dissected several containers below the cutting plane to choose from, can be different Collect object types also in different containers.

Das System kann die Merkmals-Datensätze natürlich auch über einen Datenbankserver und/oder ein beliebiges Netzwerk (LAN = Local Area Network, WLAN = Wireless Local Area Network (Funknetz), Bluetooth, TCP/IP, Internet), aber auch über beliebige Medien in gedruckter oder elektronischer Form verteilen oder einlesen. Damit wird die Synchronisation mehrere Laser-Mikrodissektions-Systeme in einem Netzwerkverbund ermöglicht. Gerade bei statistisch vorgegebenen umfangreichen Prüfmengen, die unter Zeitdruck erfolgen müssen, erlaubt das Clustern und synchronisieren mehrerer Laser-Mikrodissektions-Systeme über ein Netzwerk mittels gleichgeschalteter Merkmals-Datensätzen die Lösung dieser Aufgabe.Of course, the system can also store the feature records via a database server and / or any network (LAN = Local Area Network, WLAN = Wireless Local Area Network, Bluetooth, TCP / IP, Internet), but also via any media in distributed or read in printed or electronic form. This enables the synchronization of multiple laser microdissection systems in a network network. Especially with statistically specified extensive test quantities that take place under time pressure To clone and synchronize multiple laser microdissection systems over a network using the same feature data sets allows the solution of this task.

Das Verfahren wird nachfolgend anhand der schematischen Zeichnung ausführlicher beschrieben. Es zeigen:The Method will be described in more detail below with reference to the schematic drawing described. Show it:

1.1: Merkmalsraum zur Klassifizierung der Objekte 1.1 : Feature space for classifying the objects

1.2: Flussdiagramm des Verfahrensablaufs 1.2 : Flowchart of the procedure

1.3: Zusammenfassen von Objekten in sogenannten Clustern 1.3 : Combining objects in so-called clusters

1.4: Cluster mit innenliegendem Loch 1.4 : Cluster with internal hole

1.5: Bildausschnitt mit Binärobjekt 1.5 : Image section with binary object

1.6: vier mit unterschiedlichen Grauwerten gelabelte Objekte 1.6 : four objects labeled with different gray values

1.7: Freeman-Code und Objekt mit Codierung der Randpixel 1.7 : Freeman code and object encoding border pixels

2: Laser-Mikrodissektions-Vorrichtung zur Durchführung des Verfahrens 2 : Laser microdissection device for carrying out the method

Um Objekte in einem Bild automatisch zu klassifizieren, kann man bildanalytische Verfahren einsetzten. Bildanalytisch gestützte Analysen basieren gewöhnlich auf einer Merkmalsanalyse. Bei dieser Vorgehensweise nutzt man die Tatsache, dass jedes Objekt über eine gewisse Anzahl individueller Merkmale erkannt und klassifiziert werden kann. Merkmale können z.B. Größen wie Fläche, Umfang, Durchmesser, Masse, Textur, Farbe, Form etc. sein. Indem man einen geeigneten Satz von Merkmalen auswählt, kann man ein Objekt klassifizieren und gegen andere Objekte abgrenzen.Around To automatically classify objects in an image, one can use image analytic Use procedure. Image analysis based analyzes are usually based on a feature analysis. In this approach one uses the fact that every object over a certain number of individual characteristics are recognized and classified can be. Features can e.g. Sizes like Area, Circumference, diameter, mass, texture, color, shape, etc. By doing one selects an appropriate set of features, one can classify an object and demarcate against other objects.

Diesen geeigneten Satz von Merkmalen trägt man gewöhnlich in einem n-dimensionalen Merkmalsraum auf. In 1.1 wurde exemplarisch ein Merkmalsraum mit den Merkmalen Farbe, Fläche und Durchmesser gewählt. Objekte mit „wenig" Farbe und einem kleinen Durchmesser und einer kleinen Fläche werden dann z.B. durch den Merkmals-Cluster 27, der ein „Objekt 3" beschreibt, klassifiziert. Dagegen wird „Objekt 2", das durch den Merkmals-Cluster 26 erfasst wird, dadurch unterschieden, dass es viel Farbe und einen geringen Durchmesser sowie eine kleine Fläche hat. „Objekt 1", das durch den Merkmals-Cluster 25 beschrieben wird, hingegen verfügt über weniger Farbe und einen großen Durchmesser sowie eine große Fläche. Gemäß 1.1 können wir also drei Objekte unterscheiden.This appropriate set of features is usually applied in an n-dimensional feature space. In 1.1 By way of example, a feature space with the characteristics color, area and diameter was selected. Objects with "little" color and a small diameter and a small area then become eg through the feature cluster 27 which classifies as "object 3." By contrast, "object 2" is defined by the feature cluster 26 is distinguished by the fact that it has a lot of color and a small diameter and a small area. "Object 1", which is through the feature cluster 25 However, it has less color and a large diameter and a large area. According to 1.1 So we can distinguish three objects.

Figure 00070001
Tab 1.1: (Beispiel) Objektklassifikation anhand von Objektmerkmalen
Figure 00070001
Tab 1.1: (Example) Object classification based on object features

Es kann vorkommen, dass sich die Merkmalsbereiche von zwei Objekten überschneiden und sich daher keine eindeutige Zuordnung der Merkmale zu dem einen oder dem anderen Objekt treffen lässt. In diesem Fall kann eine eindeutige Zuordnung durch Hinzunahme von weiteren, neuen Merkmalen erwirkt werden.It It can happen that the feature areas of two objects overlap and therefore no clear assignment of the features to the one or the other object. In this case, a clear assignment by adding further, new features be obtained.

Objektmerkmale werden durch bildanalytische Berechnungen ermittelt. Der vollständige Ablauf einschließlich der Ermittlung der Objektmerkmale lässt sich in verschiedene Teilschritte zerlegen. Das Flussdiagramm einer vorteilhaften Ausgestaltung des Verfahrens ist in 1.2 gezeigt. Es zeigt folgende Schritte 1 bis 8:Object features are determined by image analysis calculations. The complete procedure, including the determination of the object features, can be broken down into different sub-steps. The flowchart of an advantageous embodiment of the method is in 1.2 shown. It shows the following steps 1 to 8:

1. Bildaufnahme:1. image recording:

Zunächst wird das Bild mittels einer geeigneten Vorrichtung, z.B. einem Mikroskop mit adaptierter Kamera aufgenommen, wobei die Kamera eine analoge oder eine digitale Kamera sein kann. Je nach Art der zu klassifizierenden Objekte kann eine Farb- oder eine Grauwertkamera zum Einsatz kommen.First, will the image by means of a suitable device, e.g. a microscope taken with an adapted camera, the camera being an analog or a digital camera. Depending on the type of classification Objects can be a color or gray scale camera used.

2. Shading-Korrektur:2. Shading correction:

Dieses Bild kann dann zunächst automatisch shading-korrigiert werden, d.h. dieser Schritt ist optional. Dabei wird der Tatsache Rechnung getragen, dass die Bildqualität durch eine nichthomogene Ausleuchtung des Bildfeldes bereits durch die Beleuchtung verfälscht wird. Dieses Problem wird im vorliegenden Fall gelöst durch die automatische Verwendung eines Shadingbildes, welches zuvor automatisch oder manuell erfasst und abgespeichert wurde. Dabei fährt der Objektträgertisch an eine sogenannte Leerposition, die sich dadurch auszeichnet, dass das System an dieser Stelle ein unverfälschtes Bild der Beleuchtungsverteilung mit unbelegtem Objektträger aufnehmen kann. Dieses Bild ist unverfälscht, da sich zwischen Objektiv und Beleuchtungsquelle kein biologisches Material auf dem Objektträger befindet. Dieses Korrekturbild wird dann später auf alle unter den gleichen optischen Bedingungen aufgenommenen Bilder angewendet zum Zwecke der automatischen Korrektur des Shading-Einflusses durch die Inhomogenität der Präparat-Ausleuchtung.This Picture can then first automatically shaded-corrected, i. this step is optional. there is taken into account the fact that the image quality by a non-homogeneous illumination of the image field already by the Lighting falsified becomes. This problem is solved in the present case the automatic use of a shading image, which was previously automatic or manually recorded and saved. It drives the Slide table to a so-called empty position, which is characterized in that the system at this point an unadulterated picture of the illumination distribution with blank slide can record. This picture is unadulterated, being between lens and illumination source no biological material is located on the slide. This correction image will be later on all under the same images taken for the purpose of optical conditions the automatic correction of the shading influence by the inhomogeneity of the preparation illumination.

3. Graubildverarbeitung:3. Gray image processing:

Dem Schema in 1.2 entsprechend schließt sich nun der Schritt „Grauwertbearbeitung" an, wobei auch die besagte Shading-Korrektur bereits als Grauwertbearbeitung verstanden werden könnte. In diesem Schritt werden zunächst kleinere Artefakte im Bild durch Grauwertmorphologie beseitigt.The scheme in 1.2 Accordingly, the step "grayscale processing" now follows, whereby the said shading correction could already be understood as grayscale processing In this step, smaller artifacts in the image are first eliminated by grayscale morphology.

4. Schwellenwert und Übergang zum Binärbild:4. Threshold and transition to the binary image:

Es sind verschiedene bildanalytische Verfahren zur Schwellenwert-Bestimmung bekannt. Um ein möglichst robustes Verfahren zu bekommen, kann der optimale Schwellenwert für den Übergang vom Grauwertbild zum Binärbild, was üblicherweise als Segmentation bezeichnet wird, vorzugsweise durch eine sogenannte Entropiemaximierung ermittelt werden. Die Idee bei der Entropiemaximierung ist die Ermittlung eines Schwellwertes (Threshold) im Grauwerthistogramm des Bildes derart, dass sich das durch die Anwendung dieses Schwellwertes ergebene Binärbild eine möglichst große Entropie aufweist. Wie z.B. aus H. Rohling, "Einführung in die Informations- und Codierungstheorie", Teubner Verlag 1995, bekannt, ist der Entropiegehalt das Maß für den Informationsgehalt eines Bildes. Durch die Bestimmung des Schwellwertes mittels Entropiemaximierung bekommt man daher ein Binärbild mit maximal möglichem Informationsgehalt.It Various image analytical methods for threshold determination are known. To one as possible To get robust procedure can be the optimal threshold for the transition from the gray value image to the binary image, what usually is referred to as segmentation, preferably by a so-called Entropiemaximierung be determined. The idea of entropy maximization is the determination of a Threshold in the gray scale histogram of the image in such a way that this is the result of the application of this threshold value devoted binary image one possible size Has entropy. Such as. from H. Rohling, "Introduction in the information and Coding Theory " Teubner Verlag 1995, the entropy content is the measure of the information content a picture. By determining the threshold value by means of entropy maximization So you get a binary image with maximum possible Information content.

Dieses Verfahren eignet sich gut für die automatische Segmentation, also die automatische Extraktion von Bildobjekten aus einem Bild. Einzelheiten zur Segmentation werden in Grundlehrbüchern zur Bildverarbeitung beschrieben, beispielsweise in dem Buch von Sierra, J., „Image Analysis and Mathematical Morphology", Academic Press, 1988.This Procedure is good for the automatic segmentation, ie the automatic extraction of Picture objects from a picture. Details of the segmentation will be in basic textbooks for image processing, for example in the book of Sierra, J., "Image Analysis and Mathematical Morphology ", Academic Press, 1988.

Bei dem vorgestellten Verfahren ist die Segmentation von Bildobjekten eine Voraussetzung für die Berechnung der Laserschnittlinie, d.h. der Linie, entlang derer der Laser bei dem Laser-Mikrodissektions-Verfahren geführt wird. Bei schwierig zu segmentierenden Bildobjekten kann der Benutzer zudem auch auf manuelle Weise einen Schwellenwert zur Binärbilderzeugung angeben, indem er für jeden Farbkanal getrennt einen Schwellenwert festlegt.at the presented method is the segmentation of image objects a requirement for the calculation of the laser cut line, i. the line along which the laser is guided in the laser microdissection method. For difficult to segment image objects, the user can also manually set a threshold for binary imaging specify by asking for sets each channel separately a threshold.

5. Binärbildverarbeitung:5. Binary image processing:

Gemäß 1.2 schließt sich nun als weiterer Schritt die Binärbildverarbeitung an. Hier werden kleinere Artefakte (Einzelpixel, kleine Pixelkluster etc.) aus dem Bild entfernt. Diese Vorgehensweise soll erfindungsgemäß dazu führen, dass kleine Objekte mit einem Durchmesser, der für das Laserschnitt-Verfahren zu klein ist, vor dem Schneiden eliminiert werden. Dabei ist der Wert, ab welchem ein Objekt für das Laserschnittverfahren als zu klein erachtet wird, einstellbar. Hierbei kann die bildanalytisch bekannte Morphologie genutzt werden. Die bildanalytische Morphologie wird ausführlich behandelt in Serra, J., „Image Analysis and Mathematical Morphology", Academic Press, 1988. Im beschriebenen Verfahren wird speziell die Erosion als spezieller bildmorphologischer Filter eingesetzt. Durch Wahl der Größe des morphologischen Operators (SE = strukturierendes Element, Begriff aus der mathematischen Morphologie) oder aber äquivalent durch die Anzahl der Zyklen, mit der ein SE bestimmter Größe auf das Binärbild angewendet wird, kann der Benutzer einstellen, welche Teilchengrößen vor dem Laserschnitt ausgeschlossen werden sollen. Zudem kann man unter Ausnutzung der Möglichkeiten der bildanalytischen Morphologie auch ganz bestimmte Formen, also nicht nur Objektgrößen, sondern auch Objekte mit bestimmten Formen, aus dem Bild herausfiltern. So gelingt z.B. das Ignorieren von lanzettartigen kleinen Objekten, während kleine runde Objekte ungefiltert dem Schneideprozeß zugeführt werden.According to 1.2 now joins the binary image processing as a further step. Here smaller artifacts (single pixels, small Pixelkletter etc.) are removed from the picture. According to the invention, this procedure should lead to small objects with a diameter, which is too small for the laser cutting method, being eliminated before cutting. The value from which an object is considered to be too small for the laser cutting process is adjustable. Here, the image-analytically known morphology can be used. The image-analytical morphology is discussed in detail in Serra, J., "Image Analysis and Mathematical Morphology", Academic Press, 1988. In the described method, especially the erosion is used as a special morphological image filter by selecting the size of the morphological operator (SE = structuring element , Term from the mathematical morphology) or equivalent by the number of cycles that a SE of a certain size is applied to the binary image, the user can adjust, which particle sizes should be excluded before the laser cut. In addition, taking advantage of the possibilities of image-analytical morphology, it is also possible to filter out very specific shapes, ie not only object sizes but also objects with specific shapes, from the image. Thus, for example, the ignoring of lancet-like small objects, while small round objects are unfiltered fed to the cutting process.

6. Segmentation und Bestimmung der Objektmerkmale:6. Segmentation and determination the object characteristics:

In diesem Analyseschritt werden zunächst die Objektmerkmale jedes segmentierten Objekts ermittelt (sogenannte Merkmalsextraktion). Die Merkmale, die zur Objektklassifizierung herangezogen werden, werden aus dem Binärbild bestimmt und nachfolgend Klassifikationsmerkmale genannt. Zu den klassifizierbaren Merkmalen gehören alle Merkmale, die derzeit mittels Bildanalyse gemessen werden können oder die aus a priori Wissen abgeleitet werden können sowie jegliche Linearkombination der Parameter. Merkmale sind z.B. Fläche, konvexe Fläche, äquivalenter Durchmesser, Länge, Breite, Winkel, Orientierung, Rundheit, Längen-Breiten-Verhältnis, Ausbauchung, Farbwerte in RGB-Metrik oder jeder anderen Farbmetrik, Kurvenlänge, Kurvenbreite, horizontale und vertikale Projektion, Textur, Energie etc.In This analysis step will be first determines the object features of each segmented object (so-called Feature extraction). The characteristics used for object classification are determined from the binary image and subsequently Called classification features. To the classifiable characteristics belong all features that can currently be measured by image analysis or which can be derived from a priori knowledge as well as any linear combination the parameter. Features are e.g. Area, convex area, equivalent Diameter length, Width, angle, orientation, roundness, length-to-width ratio, bulge, Color values in RGB metric or any other colorimetric, curve length, curve width, horizontal and vertical projection, texture, energy etc.

Als ein sehr wichtiges Merkmal stellt sich die Position des sogenannten FCP, des Feature Count Points (ein wohl definierter Startpunkt zur Beschreibung der Lage eines Objektes), dar. Unter dem FCP versteht man ein ausgezeichnetes Randpixel im Binärbild, z.B. jenes Pixel, welches das unterste, rechteste Pixel im Binärobjekt ist oder aber jenes, welches das oberste, am weitesten links liegende Pixel ist. Es dient gewissermaßen als Startpunkt für die Kontur um jedes Binärobjekt.When a very important feature is the position of the so-called FCP, the Feature Count Points (a well-defined starting point for the Description of the location of an object), dar. Under the FCP understands you get an excellent edge pixel in the binary image, e.g. that pixel, which is the lowest, rightmost pixel in the binary object or is that, which is the top, left most pixel. It serves in a sense as Starting point for the contour around each binary object.

Nach der Vermessung der Objekte im Binärbild liegt eine Liste mit den Merkmalen aller Objekte vor.To the measurement of the objects in the binary image is a list with the characteristics of all objects.

Figure 00100001
Tab 1.2: (Beispiel) Merkmale die zu allen Binärbildobjekten gemessen wurden
Figure 00100001
Table 1.2: (Example) Characteristics measured for all binary image objects

7. Objektklassifizierung7. Object classification

Der nächste Schritt besteht in einem Vergleich der extrahierten Objektmerkmale mit den vorgegebenen Klassifikationsmerkmalen. Dazu werden die Kombinationen der gemessenen Objektmerkmale der mit dem Laser auszuschneidenden Objekte mit den Werten der Klassifikationsmerkmale auf Übereinstimmung geprüft. Auf diese Weise werden die gewünschten, auszuschneidenden Objekte von den nicht gewünschten Objekten unterschieden. Da für die gewünschten Objekte des gleichen Typs eine Anzahl charakterisierender Merkmale festgelegt wurde und da für Objekte eines anderen Typs andere Merkmale festgelegt wurden, können alle Objekte eindeutig einen solchen Typ zugeordnet werden oder als Ausschuss, also nicht brauchbar, klassifiziert werden. Die nicht brauchbaren Objekte werden dann ausgesondert und damit auch nicht ausgeschnitten.Of the next Step consists in a comparison of the extracted object features with the given classification characteristics. These are the combinations the measured object features of the cut out with the laser Objects with the values of the classification characteristics to match checked. In this way, the desired, distinguished objects from the unwanted objects. Therefore the desired Objects of the same type have a number of characterizing features was set and there for Objects of a different type other features may have been set Objects are uniquely assigned to such a type or as scrap, so not useful, classified. The unusable Objects are then rejected and thus not cut out.

Nachfolgend wird ein Beispiel hierzu gegeben:

Figure 00110001
Tab 1.3: (Beispiel) Objektidentifikation über Merkmalsbereiche Here is an example:
Figure 00110001
Tab 1.3: (Example) Object identification via feature areas

In Tab 1.3 ist wird jede gemessene Objektfläche mit einem Flächenwertebereich verglichen. Im Beispiel wird ein Objekt dann identifiziert, wenn seine gemessene Fläche innerhalb der vorgegebenen Vergleichswerte oder Grenzwerte liegt. Ist der Vergleich Wahr, ist also die gemessene Fläche (z.B. 10 μm2) innerhalb des Wertebereichs [5 μm2, 500 μm2], so wird das Objekt akzeptiert und letztlich durch den Laser ausgeschnitten. Formal lässt sich also sagen:
wenn Fgemessen ∈ Wertebereich ⇒ dann Teilchen ausschneiden,
wenn Fgemessen

Figure 00120001
Wertebereich ⇒ dann Teilchen nicht ausschneiden,
wobei F die Fläche des Objekts bedeutet. Natürlich kann der Benutzer auch andere Kriterien zum Ausschneiden definieren.In Table 1.3, each measured object area is compared with an area value area. In the example, an object is identified if its measured area lies within the specified comparison values or limit values. If the comparison is true, ie if the measured area (eg 10 μm 2 ) is within the value range [5 μm 2 , 500 μm 2 ], then the object is accepted and finally cut out by the laser. Formally, one can say:
if F measured ∈ value range ⇒ then cut out particles,
when F measured
Figure 00120001
Value range ⇒ then do not cut out particles,
where F is the area of the object. Of course, the user may also define other criteria for clipping.

So können natürlich auch Objekte, die sich nicht im Wertebereich befinden, per Laser ausgeschnitten werden:
wenn Fgemessen

Figure 00120002
Wertebereich ⇒ dann Teilchen ausschneiden
wenn Fgemessen ∈ Wertebereich ⇒ dann Teilchen nicht ausschneidenOf course, objects that are not in the value range can also be cut out by laser:
when F measured
Figure 00120002
Value range ⇒ then cut out particles
if F measured ∈ value range ⇒ then particles do not cut

Führt man folgende Schreibweise ein
FW = F ist im Wertebereich; FW = F nicht ist im Wertebereich,
so wird deutlich, dass man jede Kombination von gemessenen Merkmalen, jeweils mit einem individuellen Wertebereich versehen, dazu verwenden kann, ein Kriterium festzulegen, welches es erlaubt, bestimmte Objekte in dem Präparat für das Ausschneiden zu identifizieren.
Introduce the following notation
FW = F is in the value range; FW = F is not in the range of values,
it thus becomes clear that any combination of measured features, each with an individual range of values, can be used to establish a criterion which allows certain objects in the preparation to be identified for cutting out.

Figure 00130001
Tab 1.4: (Beispiel) Verschiedene Merkmale im Wertebereich, der zuvor definiert wurde
Figure 00130001
Table 1.4: (example) Various characteristics in the range of values previously defined

Somit könnte man die Ausschneidebedingung definieren als
Ausschneiden wenn FW + RW + LW + CW,
oder aber
Ausschneiden wenn FW + RW + LW + CW.
Thus one could define the clipping condition as
Cut out if FW + RW + LW + CW,
or but
Cut if FW + RW + LW + CW.

Letzteres bedeutet, dass ein Objekt vom Laser dann ausgeschnitten wird, wenn die Fläche des gemessenen Objekts innerhalb des Wertebereichs liegt, die Rundheit und die Länge jeweils außerhalb der entsprechenden Wertebereiche liegen und zugleich die Farbe des Objekts innerhalb des Wertebereiches liegt.The latter means that an object is cut out by the laser when the area of the measured object lies within the value range, the roundness and the length each outside the corresponding value ranges lie and at the same time the color of the Object is within the value range.

Da auf diese Weise sehr viele individuelle, gemessene Merkmale mit ihren zugehörigen Wertebereichen verglichen werden können und viele Merkmale kombiniert werden können, ist nahezu jedes Objekt im Bild eindeutig durch einen bestimmten Satz von Merkmalen identifizierbar.There In this way, many individual, measured characteristics with their associated Ranges of values can be compared and many features combined can be almost every object in the picture is unique by a given one Set of features identifiable.

Es können zudem verschiedene Objekttypen erkannt werden und in verschiedenen Auffangbehältern individuell gesammelt werden. Z.B. können zwei Objekttypen individuell unterschieden werden mittels
Objekt 1: Ausschneiden wenn FW1 + RW1 und
Objekt 2: Ausschneiden wenn FW2 + RW2
falls W1 nicht gleich W2. Da das System verschiedene Auffangbehälter für das Schnittgut besitzt, können verschiedene Objekte auch individuell gesammelt werden.
In addition, different types of objects can be recognized and collected individually in different collection containers. For example, two types of objects can be individually distinguished by means of
Object 1: Cut out if FW1 + RW1 and
Object 2: Cut out if FW2 + RW2
if W1 does not equal W2. Since the system has different collection containers for the clippings, different objects can also be collected individually.

8. Automatische Schnittlinienbestimmung für den Laser:8. Automatic cutting line determination for the Laser:

Wenn die für das Ausschneiden vorgesehenen Objekte identifiziert wurden, wird im letzten Schritt gemäß 1.2 das Ausschneiden vorbereitet. Zunächst wird bildanalytisch die Objektkontur jedes identifizierten Objektes bestimmt. Diese Objektkontur wird in xy-Koordinaten auf dem Präparat angegeben, an denen mit dem Laser geschnitten werden soll. Auf diese Weise wird vom System automatisch eine Schnittlinie bestimmt.When the objects intended to be cut have been identified, the last step according to 1.2 prepared the cutting. First, the object contour of each identified object is determined by image analysis. This object contour is specified in xy coordinates on the specimen where the laser is to be cut. In this way the system automatically determines a cutting line.

Vor der automatischen Schnittlinienbestimmung können die identifizierten Objekte jedoch noch selektiv weiteren Prozess-Schritten unterworfen werden, wie nachfolgend beschrieben. Beispielsweise werden eng beieinanderliegende Gruppen von Objekten im Bild geclustert, d.h. zu einer gemeinsam auszuschneidenden Objektgruppe zusammengefasst, wie in 1.3 dargestellt. Hier bilden vier dicht zusammenliegende Objekte 34 ein Cluster 35. Für diesen Cluster wird dann eine gemeinsame außen umschließende Außenschnittlinie 36 bestimmt. Dadurch wird erfindungsgemäß verhindert, dass der Laser während des Schneidens benachbarte Präparatobjekte „durchschneidet", da diese Objekte zu dicht an dem Objekt liegen, welches zurzeit gerade ausgeschnitten wird (vergleiche 1.3). Auch hier kann man die Morphologie einsetzen: Im vorliegenden Ausführungsbeispiel wird eine Clusterung durch Schließen erreicht, wobei unter n-maligem Schließen in der Bildanalyse die sequentielle Ausführung von n Dilatationen, gefolgt von n Erosionen, gemeint ist. Dieses Prinzip ist bekannt von Schnaider, siehe http://www.zgdv.de/zgdv/departments/z2/Z2Staff/schnaide/local_images/ME200 3-02. pdf.However, prior to automatic cut line determination, the identified objects may still be selectively subjected to further process steps, as described below. For example, closely spaced groups of objects in the image are clustered, ie grouped together into a collection to be cut out together, as in 1.3 shown. Here are four closely related objects 34 a cluster 35 , For this cluster then a common outer enclosing outer cut line 36 certainly. As a result, according to the invention, the laser is prevented from "cutting through" neighboring specimen objects during cutting, since these objects are too close to the object which is currently being cut straight away (cf. 1.3 ). Again, one can use the morphology: In the present embodiment, a clustering is achieved by closing, where n-times closing in the image analysis is meant the sequential execution of n dilatations, followed by n erosions. This principle is known from Schnaider, see http://www.zgdv.de/zgdv/departments/z2/Z2Staff/schnaide/local_images/ME200 3-02. pdf.

Wie in 1.4 dargestellt, können außerdem auch können innere „Löcher" in Clustern von für das Schneiden vorgesehenen Objekten beim Schnitt extra behandelt werden. Hier ergibt sich ein Loch 37 dadurch, dass mehrere Objekte 34 zwar geclustert werden, jedoch im Inneren dieses entstandenen Clusters 35 ein gewisser Bereich, also das Loch 37, frei ist, also ohne Objekte, die es auszuschneiden gilt. Es wird eine innenliegende Innenschnittlinie 38 und eine äußere Außenschnittlinie 36 bestimmt. Die Reihenfolge der Schnitte ist dann so, dass zuerst das Loch entlang der Innenschnittlinie 36 ausgeschnitten wird und dann erst der eigentliche Cluster 35 entlang der Außenschnittlinie 36 ausgeschnitten wird. Damit wird erreicht, dass der „Reinheitsgrad" ausgeschnittener Bereiche nicht durch das Material der innerhalb liegenden „Löcher" verringert wird.As in 1.4 In addition, internal "holes" in clusters of objects intended for cutting can also be treated separately during the cut, resulting in a hole 37 in that several objects 34 Although clustered, but inside this resulting cluster 35 a certain area, so the hole 37 , is free, so without objects to cut it out. It will be an inside cut line 38 and an outer outer cut line 36 certainly. The order of the cuts is then such that first the hole along the inner cut line 36 is cut out and then only the actual cluster 35 along the outer cut line 36 is cut out. This ensures that the "purity" of cut-out areas is not reduced by the material of the inside "holes".

Durch Vergleich der Objektposition mit der Bildrandposition kann zudem festgestellt werden, ob ein klassifiziertes Objekt den Rand des Videobildes touchiert oder nicht. Auf diese Weise wird erfindungsgemäß verhindert, dass der Laser unvollständige Objekte, die durch den Bildrand „abgeschnitten" werden, ebenso unvollständig ausschneidet. So kann das System folgende Option, z. B. mittels Software-Auswahl oder Wahlschalter, dem Benutzer anbieten:
Wenn Objekt Bildrand berührt dann Objekt nicht ausschneiden!
By comparing the object position with the image edge position can also be determined whether a classified object touches the edge of the video image or not. In this way, according to the invention, the laser is also prevented from incompletely cutting off incomplete objects that are "cut off" by the edge of the image, so that the system can offer the user the following option, for example by means of software selection or selector switch:
If object touched edge of picture then do not cut object!

Diese Option ist vorzugsweise durch den Benutzer wahlweise aktivierbar und abschaltbar.These Option is preferably selectively activated by the user and can be switched off.

Darüber hinaus ist es mit dem erfindungsgemäßen Verfahren möglich, die segmentierten Objekte verschiedenen Objekttypen zuzuordnen. Dazu werden für die unterschiedlichen Typen von Objekten im Präparat unterschiedliche Gruppen von Klassifikationsmerkmalen vordefiniert. Bei Übereinstimmung der Objektmerkmale eines Objekts mit einer bestimmten Gruppe von Klassifikationsmerkmalen wird das Objekt klassifiziert und auf diese Weise dem durch die Klassifikationsmerkmale definierten Objekttyp zugeordnet. In einer besonderen Ausgestaltung weist das System einen visuellen Lernmodus auf, in dem ein Benutzer ohne umfangreiche Kenntnisse von bildanalytischen Methoden neue oder andere Kriterien zum Ausschneiden definieren kann. Dazu wählt der Benutzer lediglich mit der Computermaus am Bildschirm die von ihm gewünschten Objekte bzw. Objekttypen aus und das System bestimmt zu den ausgewählten Objekten bzw. Objekttypen automatisch die Klassifikationsmerkmale.Moreover, it is possible with the method according to the invention to assign the segmented objects to different types of objects. For this purpose, different groups of classification characteristics are predefined for the different types of objects in the preparation. If the object features of an object match a specific group of classification features, the object is classified and assigned in this way to the object type defined by the classification features. In a particular embodiment, the system has a visual learning mode in which a user, without extensive knowledge of image analysis methods, defines new or different criteria for cutting can. To do this, the user only selects the objects or object types desired by him with the computer mouse on the screen, and the system automatically determines the classification features for the selected objects or object types.

Schnittlinienbestimmung:Line determination:

In einer möglichen Ausführungsform des Verfahrens wird der Laser mittels einer Ablenkeinheit für die Richtungen x, y über das Präparat geführt und schneidet auf diese Weise Bereiche aus dem Präparat aus. In einer anderen Ausführungsform wird der Laserstrahl ortsfest gehalten und der x-y-Tisch verfahren. Eine Kombination von Tischbewegung und Laserstrahlführung ist auch möglich. Um eine bestimmte Schnittfigur zu bekommen, wird der Laser relativ zu dem Präparat längs einer Kurve geführt. Die Kurve ist durch eine Schar von x, y Koordinaten gekennzeichnet.In a possible embodiment of the method is the laser by means of a deflection unit for the directions x, y over the drug guided and cuts out areas of the preparation in this way. In another embodiment the laser beam is held stationary and the x-y table is moved. A combination of table movement and laser beam guidance is also possible. To get a specific cut, the laser becomes relative to the preparation along one Curve led. The curve is characterized by a bevy of x, y coordinates.

Da das Präparat oder ein Ausschnitt des Präparates per Kamera auf dem Monitor zu sehen ist und da eine Abbildungsvorschrift existiert, welche die Pixelkoordinaten des Bildes auf entsprechende Koordinaten der Laserbewegung abbildet, können in das Monitorbild eingezeichnete Kurven in einen Laserschnitt umgesetzt werden. Dazu werden die Koordinaten der Kurve im Monitorbild durch eine affine Abbildung auf die Laserbewegung übertragen.There the drug or a section of the preparation by camera on the monitor and there is a mapping rule exists which the pixel coordinates of the image on appropriate Coordinates of the laser movement can be drawn in the monitor image Curves are converted into a laser cut. These are the coordinates the curve in the monitor image transmitted by an affine image on the laser movement.

Das heißt es gibt eine lineare fu:V → V für einen Vektor u∊Vmit u:V → V That means there is a linear one f u : V → V for a vector uεV With u: V → V

Somit wird sich jeder Punkt auf dem Bild mittels der linearen Abbildung auf einen Punkt auf dem Präparat abgebildet, der durch den Laser bzw. durch die Laserablenkeinheit erreicht werden kann. Es gilt

Figure 00170001
Wobei (x', y') die Laserposition und (x, y) die Bildkoordinatenposition und (xT, yT) ein linearer Verschiebungsvektor ist.Thus, each point on the image is imaged by means of the linear image onto a point on the specimen which can be reached by the laser or by the laser deflection unit. It applies
Figure 00170001
Where (x ', y') is the laser position and (x, y) is the image coordinate position and (x T , y T ) is a linear displacement vector.

Diese Tatsache wird nun erfindungsgemäß dazu verwendet, um ein automatisches Ausschneiden der zuvor identifizierten und klassifizierten Präparatobjekte zu erreichen.These The fact is now used according to the invention to automatically cut out the previously identified and classified preparation objects to reach.

Dazu wird im ersten Schritt die Objektkontur um jedes einzelne identifizierte und klassifizierte Präparatobjekt ermittelt. Um die Objektkontur zu berechnen, kann man sich des sog. Freeman-Codes oder Kettencodes bedienen.To In the first step, the object contour is identified around each one and classified specimen object determined. To calculate the object contour, you can use the so-called. Operating Freeman codes or chain codes.

Zur Erläuterung der Vorgehensweise zur Ermittlung einer Konturlinie ist in 1.5 exemplarisch ein einziges Binärobjekt eingezeichnet. Die Pixel des Bildausschnittes in 1.5 sind gemäß ihrer x, y Koordinaten gekennzeichnet. Die Größe des Testbildes in 1.5 ist 11 × 8 Pixel. Das Binärobjekt ist durch grau eingefärbte Quadrate, welche die Bildpixel darstellen, gekennzeichnet. Die Außenkontur der grauen Quadrate (= Pixel)) kennzeichnet den äußeren Objektrand. Diesen Rand gilt es zu bestimmen, denn er ist Grundlage für die spätere Bestimmung der Laserschnittlinie. Würde der Laser, entsprechend abgebildet, entlang der Koordinatenfolge {{7, 1}, {8, 1}, {9, 2}, ... {6, 3}, {7, 2}} der grauen Pixel geführt werden, so würde das Objekt ausgeschnitten.To explain the procedure for determining a contour line is in 1.5 an example of a single binary object drawn. The pixels of the image section in 1.5 are marked according to their x, y coordinates. The size of the test image in 1.5 is 11 × 8 pixels. The binary object is indicated by gray colored squares representing the image pixels. The outer contour of the gray squares (= pixels) indicates the outer edge of the object. This edge has to be determined, because it is the basis for the later determination of the laser cutting line. Would the laser, as shown, along the coordinate sequence {{7, 1}, {8, 1}, {9, 2}, ... {6, 3}, {7, 2}} of the gray pixels are performed so the object would be cut out.

Als Startpunkt für das Ausschneiden wurde der oberste, linkste Binärobjektpunkt gewählt, Punkt {7, 1}. Dieser Aufpunkt wird im Folgenden allgemein Feature Count Point (FCP) genannt. Ein FCP ist immer der Startpunkt und hat wie jedes Pixel eine x-y-Koordinate. Im Folgenden wird für jedes Binärbildobjekt der zu jedem Objekt zugehörige oberste, linkste Konturpixel als Feature Count Point FCP definiert. Es kann natürlich jedes Konturpixel als FCP definiert werden, wichtig ist hier nur eine einheitliche Festlegung.The starting point for the cut was the uppermost, leftmost binary object point, point {7, 1}. This point is hereafter referred to as Feature Count Point (FCP). An FCP is always the starting point and, like every pixel, has an xy coordinate. In the following, for each binary image object, the uppermost, leftmost contour pixel associated with each object is defined as Feature Count Point FCP. Of course it can be any Contour pixels are defined as FCP, important here is only a uniform determination.

Um die Laserschnittlinie aus einem Bild automatisch zu bestimmen, muss zunächst ein Binärbild vorliegen, in welchem die Bildobjekte von Interesse als binäres Muster vorliegen. Wenn ein solches Binärbild vorliegt, so haben alle Bildobjekte den gleichen Grauwert.Around to automatically determine the laser cut line from an image must first a binary image in which the image objects of interest as a binary pattern available. If such a binary image is present, all image objects have the same gray value.

Um die Konturlinie für den Laserschnitt zu bestimmen, werden die Binärobjekte in dem Binärbild zunächst gelabelt, d.h. jedes Objekt bekommt einen individuellen, konstanten Grauwert zugewiesen, der allen seinen Pixeln zugeordnet wird, z.B. Grauwert 3 für alle Pixel eines Objekts usw.. Gewissermaßen wird hier aus dem Binärbild wieder ein Grauwertbild erzeugt, in dem alle Pixel, die zu einem zusammenhängenden Objekt gehören, einen einheitlichen, eindeutigen Grauwert bekommen. In 1.6 sind vier Objekte 28, 29, 30 und 31 dargestellt, die jeweils durch eine zusammenhängende Pixelmenge dargestellt werden. Durch das Label bekam jedes Objekt, welches zuvor in dem Binärbild einen einheitlichen Grauwert hatte, nun einen individuellen Grauwert.In order to determine the contour line for the laser cut, the binary objects in the binary image are first labeled, ie each object is assigned an individual, constant gray value, which is assigned to all its pixels, eg gray value 3 For all pixels of an object, etc. In a sense, a greyscale image is created here from the binary image, in which all pixels which belong to a connected object receive a uniform, unambiguous gray value. In 1.6 are four objects 28 . 29 . 30 and 31 represented, each represented by a contiguous amount of pixels. The label now gave each object, which previously had a uniform gray value in the binary image, an individual gray value.

In 1.6 bekam z.B. das Objekt 29 den Grauwert 2. Dieses Objekt wurde also mit dem Grauwert 2 gelabelt.In 1.6 For example, got the object 29 the gray value 2 , So this object was grayed out 2 labeled.

Im nächsten Schritt werden für alle Objekte die Außenpixel, also jene Pixel, welche am Außenrand des Objektes liegen, bestimmt. Dazu werden zunächst alle Löcher in einem Objekt geschlossen. Dabei werden als Loch diejenigen Pixel bezeichnet, die vollständig von Pixeln mit anderen Grauwerten umschlossen sind. Ein solches Beispiel ist in 1.6 mit dem Objekt 31 gezeigt. Dieses Objekt 31 weist ein solches innenliegendes Loch auf, das in diesem Beispiel aus zwei zusammenhängenden Pixeln besteht. Ob ein Objekt Löcher hat, lässt sich über die Eulerzahl feststellen: E = K – Lmit
E = Eulerzahl; K = Anzahl der Objekte; L = Anzahl der Löcher
In the next step, the outer pixels, ie those pixels that lie on the outer edge of the object, are determined for all objects. For this purpose, first all holes in an object are closed. The term hole refers to those pixels that are completely surrounded by pixels with other gray values. One such example is in 1.6 with the object 31 shown. This object 31 has such an internal hole, which in this example consists of two contiguous pixels. Whether an object has holes can be determined by the Euler number: E = K - L With
E = Euler number; K = number of objects; L = number of holes

Die Eulerzahl ist ein topologisches Merkmal und ändert sich deshalb bei einfachen Transformationen nicht. Werden zunächst vor der Transformation alle Löcher innerhalb der einzelnen Objekte des Bildes geschlossen, d.h. L = 0 und E = K, treten auch bei der Abbildung des Bildes auf die Laserschnittlinie keine Lochkonturen mehr auf.The Euler number is a topological feature and therefore changes with simple ones Not transformations. Be first before the transformation all holes closed within the individual objects of the image, i. L = 0 and E = K, also occur in the image of the image on the laser cut line no more hole contours.

Danach kann die Außenkontur jedes Bildobjektes, welches keine Löcher mehr hat, leicht bestimmt werden. Hierzu ist festzustellen, dass jedes Pixel, welches ganz innerhalb eines Objektes liegt, vollständig von Objektpixeln des gleichen Grauwertes umgeben ist. Jedes Pixel, welches nicht vollständig von Objektpixeln gehört, muss daher zum Außenrand des Objektes gehören, wenn das Objekt keine Löcher hat. Dieses Kriterium wird für jedes Pixel überprüft und auf diese Weise die Randpixel bestimmt.After that can the outer contour every image object that has no more holes can be easily determined. It should be noted that every pixel, which is completely within of an object is complete surrounded by object pixels of the same gray value. Every pixel, which is not complete heard of object pixels, must therefore to the outer edge belong to the object, if the object has no holes Has. This criterion is used for every pixel checked and up this way determines the edge pixels.

Die Randpixel zu einem Objekt werden gemäß der Freeman-Vorschrift kodiert und in die dem Objekt zugeordnete Werteliste abgespeichert. Dabei wird zur Richtungskodierung eine 8er-Umgebung verwendet, d.h. jedes Pixel ist von 8 anderen Pixeln umgeben. Prinzipiell kann man auch eine 4er-Umgebung verwenden, bei der entweder die 4 diagonalen oder die 4 nicht diagonalen Pixel berücksichtigt werden. Eine 8er-Umgebung ergibt eine höhere Genauigkeit, während eine 4er Umgebung schneller berechnet werden kann.The Edge pixels to an object are encoded according to the Freeman rule and stored in the value list associated with the object. there For directional coding, an 8-environment is used, i. each Pixel is surrounded by 8 other pixels. In principle, you can too use a 4-seater environment where either the 4 diagonal or taking into account the 4 non-diagonal pixels become. An 8-environment gives a higher accuracy, while a 4er environment can be calculated faster.

In 1.7a) ist eine solche 8er-Umgebung für einen Freeman-Code gezeigt. Der Zentralpixel ist jeweils von 8 Nachbarpixeln umgeben. Die Freeman-Notation gibt nun jedem Nachbarpixel, das eine bestimmte Schrittrichtung repräsentiert, eine eindeutige Zahl. Danach durchläuft man die Objektkontur von einem FCP aus anfangend.In 1.7a) such an 8 environment is shown for a Freeman code. The central pixel is surrounded by 8 neighboring pixels. The Freeman notation now gives each neighbor pixel, which represents a certain step direction, a unique number. Then you go through the object contour starting from a FCP.

In 1.7.b) sind die Randpixel eines Objektes dargestellt. In diesem Beispiel ist der FCP das äußerst linke, oberste Pixel. Dieser Punkt ist der Startpunkt. Von diesem Punkt aus bestimmt man die nächste Pixelposition z.B. im Uhrzeigersinn. Entsprechend dem Freeman-Code, wie in 1.7a) dargestellt, findet man den nächsten Pixel auf Position 3. Von diesem Pixel aus betrachtet den nächsten Pixel an Position 3, von diesem aus betrachtet den nächsten Pixel auf Position 5 usw..In 1.7.b) the edge pixels of an object are shown. In this example, the FCP is the left most, highest pixel. This point is the starting point. From this point you determine the next pixel position, eg clockwise. According to the Freeman code, as in 1.7a) the next pixel is located at position 3, from this pixel the next pixel at position 3, from this pixel the next pixel at position 5 etc.

Indem jede Objektkontur vollständig, von dem jeweiligen FCP ausgehend, abgeschritten wird, bekommt man einen Freeman-Code in Form einer Zahlenkette, welche die Kontur des jeweiligen Objekts vollständig beschreibt. Indem zusätzlich für jedes Objekt die Koordinaten des FCP gespeichert werden, sind alle Objekte im Bild vollständig in Kontur und Position beschreibbar. 1.7c) zeigt die entsprechende Schreibweise des Freeman-Codes für die Randpixel des in 1.7b) dargestellten Objektes. Durch dieses Kodierungsverfahren wird als Zwischenergebnis eine Liste mit Konturdaten zu allen Objekten erzeugt, welche die jeweilige Position des FCP umfasst, von dem aus eine Objektkontur beschrieben werden muss.By stepping each object contour completely, starting from the respective FCP, one gets a Freeman code in the form of a number string, which fills the contour of the respective object constantly describes. By additionally storing the coordinates of the FCP for each object, all objects in the image are completely writable in contour and position. 1.7c) shows the corresponding notation of the Freeman code for the edge pixels of in 1.7b) represented object. As a result of this coding method, a list is generated with contour data for all objects which includes the respective position of the FCP from which an object contour must be described.

Figure 00200001
Tab 1.5: (Beispiel) Bestimmung des Laserschnittcodes durch Verwendung eines Konturanalyseverfahrens
Figure 00200001
Tab 1.5: (Example) Determination of the laser cut code by using a contour analysis method

Aus dem Freeman-Code und den FCP-Koordinaten wird die exakte x-y-Position eines jeden Pixels berechnet. Damit ist die Laserschnittlinie zunächst vollständig beschrieben. Grundsätzlich sind jedoch auch andere Kodierungverfahren möglich.Out the Freeman code and FCP coordinates will be the exact x-y position of each Pixels calculated. Thus, the laser cutting line is first completely described. in principle However, other coding methods are possible.

Wird eine Freeman-Codierung wie in 1.7. verwendet, so ergibt sich folgende Umrechnungstabelle für die jeweils nächste Pixelposition in x, y:

Figure 00210001
Tab 1.6: (Beispiel) Umrechnung des Freeman-Codes in konkrete Pixelkoordinaten Will a Freeman encoding as in 1.7. used, the following conversion table results for the next pixel position in x, y:
Figure 00210001
Tab 1.6: (Example) Conversion of the Freeman code into specific pixel coordinates

Dabei werden zu Beginn die Startwerte des FCP eingesetzt: x Last = x FCP y Last = y FCP The starting values of the FCP are used at the beginning: x Last = x FCP y Last = y FCP

Anschließend wird dem Freeman-Code an der Kontur entlang gefolgt. Am Ende dieser Prozedur liegt der Laserschnittcode für jedes identifizierte und klassifizierte Bildobjekt einzeln vor, welcher mittels der Transformation

Figure 00220001
von den Bildkoordinaten auf die entsprechenden Laserkoordinaten übertragen wird. Der Translationsvektor {x T, y T} kann die Laserschnittlinie verschieben.Then follow the Freeman code along the contour. At the end of this procedure, the laser cut code is present for each identified and classified image object, which is transformed by means of the transformation
Figure 00220001
is transferred from the image coordinates to the corresponding laser coordinates. The translation vector {x T , y T } can shift the laser cut line.

Durch die Art der Abbildung wird außerdem die gefundene Laserschnittlinie, die das Objekt umgibt, skaliert. Dies wird genutzt, um Objekte mit geringerer Auflösung (niedriger vergrößerndes Objektiv) bildanalytisch auszuwerten und dann, nach einer manuellen oder automatischen Umschaltung des Mikroskops auf eine höhere Auflösung (= höher vergrößerndes Objektiv), die klassifizierten Objekte per Laserstrahl auszuschneiden. Da die Laserschnittlinie als Vektorbeschreibung vorliegt, gelingt eine nahezu verlustlose Skalierung der Laserschnittlinien, die bei niedriger Vergrößerung gefunden wurden, auf das Bild mit höherer Auflösung.By the type of picture becomes as well the found laser cut line surrounding the object scales. This is used to lower-resolution objects (lower magnifying Objectively) and then, after a manual or automatic switching of the microscope to a higher resolution (= higher magnifying Lens) to cut out the classified objects by laser beam. Since the laser cut line exists as a vector description, succeed a nearly lossless scaling of the laser cutting lines, which at low magnification found were, on the picture with higher Resolution.

Da mit einer Umschaltung auf eine höhere Vergrößerung eine Verkleinerung des Bildfeldes einhergeht, liegen manche der Schnittlinien außerhalb des aktuellen Bildfeldes und sind daher zunächst nicht mehr mit dem Laserstrahl erreichbar. Da jedoch die Laserschnittlinienpositionen außerhalb des aktuellen Sehfeldes bekannt sind, können sie durch eine automatische Verstellung der Mikroskoptischposition repositioniert werden. Dies wird erreicht durch den Einsatz geeigneter Mittel, wie beispielsweise eines automatischen Tisches, eines automatischen Objektivwechsels etc.There with a switch to a higher one Magnification one Reduction of the image field goes along, are some of the cut lines outside the current image field and are therefore initially no longer with the laser beam reachable. However, because the laser cut line positions outside of the current field of vision, they can by an automatic Adjustment of the microscope stage position are repositioned. This is achieved by the use of suitable means, such as an automatic table, an automatic lens change Etc.

Bei sehr hohen Vergrößerungen und kleinen Objekten wird bei Bedarf die Tischpositionierungsgenauigkeit durch den zusätzlichen Einsatz von Piezo-Translatoren für die x- und y-Richtung des Tisches verbessert. Dabei kann gleichwirkend auch die Verstellung der Präparat-Halterung mittels Piezo-Translatoren erfolgen. Da der Laserstrahl über eine Ablenkeinheit in der Auflichtachse abgelenkt wird und dabei schneidet und außerdem zuvor die auszuschneidenden Objekte automatisch in Ihrer Position ermittelt wurden, gelingt durch Kombination von Tischbewegung zum Anfahren der optimalen Schneidposition (in der Nähe der optischen Achse) und Laserschnitt entlang der automatisch gefundenen Laserschnittlinie per Ablenkeinheit ein hochpräzises und schnelles Ausschneiden der automatisch gefundenen Objekte.at very high magnifications and small objects, if necessary, the table positioning accuracy through the additional Use of piezo translators for the Improved x and y direction of the table. It can be equally effective also the adjustment of the specimen holder using piezo translators respectively. Because the laser beam over a deflecting unit is deflected in the incident light axis and thereby cuts and also before that automatically determine the objects to be cut out in your position were successful by combining table movement to start the optimal cutting position (near the optical axis) and laser cutting along the automatically found laser cutting line by means of a deflection unit a high-precision and quickly cutting out the automatically found objects.

Durch eine günstige Kombination von gleichzeitiger Bewegung des Laserstrahls mittels der Ablenkeinheit in der Auflichtachse, der „normalen" Mikroskoptischbewegung und der gegebenenfalls vorhandenen feineren Auflösung durch den zusätzlichen Einsatz von Piezo-Translatoren können die automatisch gefundenen Laserschnittlinien zudem schneller angefahren werden. Dabei wird der eigentliche Schneideprozess durch die Ablenkeinheit in der Auflichtachse vorgenommen, während die Grob- und Feinpositionierung der Objekte durch geeignete automatische Bewegungen der beteiligten Aktoren (= Piezo-Translatoren) für die x-y-Positionierung vorgenommen werden.By a cheap one Combination of simultaneous movement of the laser beam by means of the deflection unit in the incident light axis, the "normal" microscope stage movement and optionally existing finer resolution through the additional Use of piezo translators can The automatically found laser cutting lines also hit faster become. The actual cutting process is done by the deflection unit in the incident light axis, while the coarse and fine positioning of the objects involved by suitable automatic movements Actuators (= piezo-translators) for the x-y positioning is made.

Dabei wird das Problem der notwendigen Refokussierung nach Umschalten in einen anderen Auflösungsmodus, d.h. auf ein anderes Objektiv, durch den Einsatz eines Autofokus gelöst. Die erforderliche Geschwindigkeit wird durch den Einsatz eines Piezofokus am Objektiv erzielt, d.h. das Objektiv wird per Piezo-Translator vertikal bewegt.there becomes the problem of necessary refocusing after switching in a different resolution mode, i.e. to another lens, through the use of auto-focus solved. The required speed is achieved by using a piezo focus achieved at the lens, i. The lens is made by piezo-translator moved vertically.

Weitere Ausführungsmöglichkeiten einer Fokussierung bestehen in dem manuellen Scharfstellen oder aber durch Verwendung von Schrittmotoren zur elektronisch gesteuerten Fokussierung über die vertikale Z-Achse des Mikroskops. Der Vorteil der schnellen automatischen Fokussierung liegt erfindungsgemäß darin, das ein optimaler Laserschnitt durchgeführt werden kann, wenn der Laser stets in der gewünschten Schnittebene, d.h. Präperat-Ebene, fokussiert wird.Further design options Focusing is in the manual focus or by using stepper motors for electronically controlled Focusing about the vertical Z-axis of the microscope. The advantage of the fast automatic focusing is according to the invention is that an optimal Laser cut done when the laser is always in the desired cutting plane, i. Preperat level, focused becomes.

Bei vollautomatischen Prozessen wie der automatischen Laserschnittlinien-Bestimmung mit dem anschließenden Ausschneiden einer großen Anzahl von Objekten ist eine automatische und schnelle Fokussierung unerläßlich.at fully automatic processes such as the automatic laser cutting line determination with the subsequent Cut out a big one Number of objects is an automatic and fast focusing essential.

Berücksichtigung der Schnittbreite des Lasers:Consideration of the cutting width the laser:

Da der Schnitt eines Laserstrahls eine gewisse, nicht zu vernachlässigende Breite hat, führt ein Schneiden direkt an der Außenkante eines Objektes dazu, dass Teile des Objektrandes mit verbrennen. Dies führt zu unerwünschten Artefakten in der nachfolgenden Analyse. Diese biologischen Artefakte entstehen dadurch, dass die Verbrennung der Randstruktur zu einer Veränderung der molekularen Struktur in den Randbereichen der Objekte führt. Da in den meisten Fällen aber die Objekte ausgeschnitten und gesammelt werden, um deren Eigenschaften in sich anschließenden biochemischen Analyse-Schritten (beispielsweise mittels PCR) zu bestimmen, sind Verbrennungen in den Randbereichen eines Objektes zu vermeiden. Dies wird dadurch erreicht, dass der ausschneidende Laserstrahl in einem gewissen, einstellbaren Abstand so um das Objekt herum geführt wird, dass keine Verbrennungsartefakte auftreten können.Since the cut of a laser beam has a certain, not negligible, width, cutting directly on the outer edge of an object causes parts of the object edge to burn with it. This leads to undesirable artifacts in the subsequent analysis. These biological artifacts arise because the combustion of the edge structure leads to a change in the molecular structure in the edge regions of the objects. Since in most cases, however, the objects are cut out and collected to their properties in subsequent biochemical analysis steps (for example by means of PCR), burns in the edge areas of an object should be avoided. This is achieved by guiding the cutting laser beam around the object at a certain, adjustable distance so that no combustion artifacts can occur.

Ausführungsbeispiel 1:Embodiment 1

Ein Ausführungsbeispiel ist die Anwendung mathematischer Morphologie auf das Binärbild, welches als Zwischenverarbeitungsschritt auf dem Wege der Bestimmung der Laserschnittlinie entsteht. Da das Binärbild vor der Bestimmung des Laserschnittlinienprofils entsteht, also vor der Berechnung der Schnittlinie mittels Freeman-Code und Umsetzung auf x-y-Koordinaten (wie weiter oben beschrieben), wirkt sich eine Manipulation des Binärbildes auf die Konturbestimmung aus.One embodiment is the application of mathematical morphology to the binary image, which is called Intermediate processing step by way of determining the laser cut line arises. Because the binary image arises before the determination of the laser cut line profile, ie before calculating the section line using Freeman code and implementation on x-y coordinates (as described above), one affects Manipulation of the binary image on the contour determination.

Indem man das Binärbild dilatiert (Dilatation = morphologischer Bildverarbeitungsschritt) werden die Binärobjekte vergrößert. Um eine möglichst symmetrische Vergrößerung zu erreichen, wird als strukturierendes Element SE ein symmetrisches Element genommen, welches maßstabsgetreu und richtungsunabhängig dilatiert. Das kann beispielsweise ein sogenanntes Diskelement (siehe z.B. Sierra) sein. Um das Objekt zu verzerren, kann auch ein anderes SE genommen werden, welches die benötigten morphologischen Anforderungen erfüllt. Darüber hinaus kann die Dilatation zyklisch mehrmals auf die Bildobjekte angewendet werden, wobei sich sich jedesmal jedes Bildobjekt im Binärbild um einen bestimmten Pixelbetrag vergrößert.By doing one the binary picture dilated (dilation = morphological image processing step) become the binary objects increased. Around one possible symmetrical magnification too reach, is as a structuring element SE a symmetric Element taken to scale and directionally dilated. This may for example be a so-called disk element (see e.g. Sierra). Another way to distort the object SE, which meets the required morphological requirements Fulfills. About that In addition, the dilation can be repeated cyclically on the image objects be applied, each time each image object in the binary image increased by a certain amount of pixels.

Durch Wahl eines geeigneten SE wird erreicht, dass sich bei jedem Anwendungszyklus das Objekt nur um etwa ein Pixel in jede Richtung ausdehnt. Das bedeutet, der Objektdurchmesser vergrößert sich um ca. 2 Pixel bei jeder Anwendung (Zyklus) eines einigen Dilatationsschrittes mit dieser SE.By Choosing a suitable SE is achieved at every application cycle extends the object by only one pixel in each direction. The means the object diameter increases by about 2 pixels each application (cycle) of a single dilation step with this SE.

Ferner kann man durch Kalibrierung der Bildpixel die Größe eines Pixels in μm ermitteln. Bei den gewöhnlich verwendeten quadratischen Pixeln ist daher
dx Pixel = dy Pixel = Größe eines Pixels nach der Kalibrierung.
Furthermore, one can determine the size of a pixel in μm by calibration of the image pixels. The commonly used square pixels are therefore
dx pixels = dy pixels = size of a pixel after calibration.

Da der Laserstrahl eine bekannte Schnittbreite besitzt, kann nun die benötigte Objektvergrößerung, d.h. die Anzahl der Dilatationsschritte, die benötigt werden, um den Laserstrahl in einem sicheren Abstand um das Objekt zu führen, bestimmt werden.There the laser beam has a known cutting width, can now needed Object magnification, i. the number of dilatation steps needed to make the laser beam in a safe distance to guide the object to be determined.

Beispiel:Example:

  • Laserstrahl – Schnittquerschnitt Ls = 8 μmLaser beam - cross section L s = 8 μm
  • Pixelgröße (kalibriert) Pk = 1 μmPixel size (calibrated) P k = 1 μm
  • Objektvergrößerung pro Dilatation Dz=1 = 2 Pixel (z = Zyklenanzahl)Object magnification per dilation D z = 1 = 2 pixels (z = number of cycles)
  • Benötigter Abstand des Lasers vom Objekt LAbstand = Ls/2 = 4 μm Required distance of the laser from the object L distance = L s / 2 = 4 μm
  • Benötigte Zyklenanzahl für die Dilatationen ZD um gewünschten Laserabstand zu erreichen Required number of cycles for the dilations Z D to achieve desired laser distance
  • ZD = LAbstand/Pk = 4 Dilatationszyklen Z D = L distance / P k = 4 Dilatationszyklen

D.h. nach 4 Dilatationszyklen wird eine virtuelle Objektgröße erreicht, deren Außenkontur den Laser in dem korrekten Abstand vom eigentlichen Objekt (vor der künstlichen Aufblähung) um das Objekt führen würde. Indem die Laserschnittlinien auf Basis der durch Dilatation entsprechend vergrößerten, virtuellen Objekte berechnet werden (wie oben beschrieben), bekommt beim Schnitt der Laserstrahl die gewünschte Entfernung vom Objektrand und schneidet das Objekt sicher und ohne Verbrennung der Objektrandbereiche aus.That after 4 dilation cycles a virtual object size is reached, its outer contour the laser at the correct distance from the actual object (before the artificial one bloating) lead around the object would. By adjusting the laser cut lines based on by dilation enlarged, virtual objects are calculated (as described above), gets when cutting the laser beam the desired distance from the object edge and cuts the object safely and without burning the object edge areas out.

Ausführungsbeispiel 2:Embodiment 2:

In einem weiteren Ausführungsbeispiel wird die Vektorisierung der Schnittlinie zugrundegelegt, die zuvor nach dem oben benannten Verfahren zur automatischen Laserschnittlinienbestimmung errechnet wurde.In a further embodiment is based on the vectorization of the cut line, previously according to the above-mentioned method for automatic laser cutting line determination was calculated.

Nun wird jeder Punkt der Laserschnittlinie einer Skalierungstransformation unterzogen. Dies erfolgt derart, dass die gewünschte Vergrößerung der Laserschnittlinie erreicht wird und der Laserstrahl in sicherem Abstand um das Objekt herum geführt werden kann, um sicherzustellen, dass es unbeschädigt ausgeschnitten wird.Now each point of the laser cut line undergoes a scaling transformation. This is done in such a way that the desired magnification of the laser cutting line is achieved and the laser beam in safe Distance can be guided around the object to ensure that it is cut undamaged.

Im folgenden wird angenommen, dass die Laserschnittlinie bereits durch vorherige Bestimmung (automatisch oder manuell) bekannt ist. Die Laserschnittlinie besteht aus einer Schar von Punkten Pi mit Koordinaten (xi, yi) welche die Laserschnittlinie vollständig beschreiben. Bei Skalierung gilt für jeden Punkt P xi' = sx·x yi' = sy·yi wobei sx und sy Skalierungsfaktoren sind. In Vektornotation wird dies beschrieben als

Figure 00270001
wobei Pi der i-te Originalpunkt und Pi' der i-te skalierte Punkt der Laserschnittlinie ist. Somit lautet die Skalierungsgleichung Pi' = S·Pi für alle Punkte i aus dem Intervall [0, k] der Laserschnittlinie. Durch diese Vorgehensweise wird die Laserschnittlinie so skaliert, dass das Objekt in sicherem Abstand geschnitten werden kann. Die durch diese Art der Skalierung bedingten Abstände der einzelnen Konturpunkte werden dadurch ausgeglichen, das der Laserstrahl in Geraden von Punkt Pi zu Punkt Pi+1, schneidet. Bei starken Vergrößerungen wird also die kontinuierlich verlaufende Laserschnittlinie durch ein Polygon angenähert, indem die einzelnen Punkte Pi durch gerade Abschnitte der Laserschnittlinie verbunden werden.In the following it is assumed that the laser cut line is already known by prior determination (automatic or manual). The laser cut line consists of a set of points Pi with coordinates (x i , y i ) which completely describe the laser cut line. When scaling applies to each point P x i '= sx x y i '= sy · y i where sx and sy are scaling factors. In vector notation this is described as
Figure 00270001
where P i is the ith original point and P i 'is the ith scaled point of the laser cut line. Thus the scaling equation is P i '= S · P i for all points i from the interval [0, k] of the laser cut line. By doing so, the laser cut line is scaled so that the object can be cut at a safe distance. The distances of the individual contour points due to this type of scaling are compensated by the laser beam intersecting in straight lines from point P i to point P i + 1 . At high magnifications, therefore, the continuous laser cutting line is approximated by a polygon by the individual points P i are connected by straight sections of the laser cutting line.

Ferner können Abbildungsverzerrungen (Abberationen) durch eine geeignete ortsabhängige Adaption der Skalierungsmatrix kompensiert werden, also: Pi' = S·Pi Furthermore, aberrations (aberrations) can be compensated by a suitable location-dependent adaptation of the scaling matrix, ie: P i '= S · P i

Transformation der LaserschnittlinienTransformation of the laser cutting lines

Um die Schnittlinien an unterschiedliche Gegebenheiten anzupassen, wird ausgenutzt, dass die automatisch errechnete Laserschnittlinie als eine Schar von Punkten Pi = P (x i, yi) vorliegt. Indem man diese Punkte in eine neue Punkteschar transformiert, erreicht man beliebige Verzerrungen, Verschiebungen und Rotationen der Laserschnittlinie zum Zwecke der Kompensation von Fehlern beim Laserschnitt. Damit könnten beispielsweise Abbildungsfehler der den Laserstrahl abbildenden Optik kompensiert werden.In order to adapt the cutting lines to different conditions, use is made of the fact that the automatically calculated laser cutting line is present as a family of points P i = P (x i , y i ). By transforming these points into a new set of points, one achieves any distortions, shifts and rotations of the laser cut line for the purpose of compensating errors in the laser cut. This could be compensated, for example, aberrations of the laser beam imaging optics.

Im folgenden werden beispielhaft verschiedene Kompensationsverfahren beschrieben.in the The following are examples of different compensation methods described.

Fehlerkompensation oder Manipulation durch TranslationError compensation or Manipulation by translation

Die Schnittlinie wird um dx und dy verschoben. Die Werte für dx, dy ergeben sich aus den jeweils ermittelten Fehlern, bzw. aus den gewünschten Laserschnittlinienmanipulationen xi' = xi + dx Yi' = Yi + dy

Figure 00280001
oder kurz Pi' = Pi + T The cut line is shifted by dx and dy. The values for dx, dy result from the respectively determined errors or from the desired laser cut line manipulations x i '= x i + dx Y i '= Y i + dy
Figure 00280001
or short P i '= P i + T

Verzerrungen können durch adaptive Translation, eben durch eine Ortsabhängigkeit des Translationswertes, kompensiert werden Pi' = Pi + Ti Distortions can be compensated by adaptive translation, ie by a positional dependence of the translation value P i '= P i + T i

Durch diese Maßnahme können z.B. kleine Abweichungen in der Genauigkeit der Mikroskoptisch – Repositionierung gezielt kompensiert werden.By This measure can e.g. small deviations in the accuracy of the microscope stage - repositioning be specifically compensated.

Fehlerkompensation oder Manipulation durch SkalierungError compensation or Manipulation by scaling

Die Schnittlinie wird um sx und sy skaliert. Die Werte für sx, sy ergeben sich aus den jeweils ermittelten Fehlern, bzw. aus den gewünschten Laserschnittlinienmanipulationen xi' = sx·xi Yi' = sy·yi

Figure 00290001
oder kurz Pi' = S·Pi The section line is scaled by sx and sy. The values for sx, sy result from the respectively determined errors or from the desired laser cut line manipulations x i '= sx x i Y i '= sy · y i
Figure 00290001
or short P i '= S · P i

Verzerrungen können durch adaptive Skalierung, eben durch eine Ortsabhängigkeit des Skalierungswertes, kompensiert werden: Pi' = Pi + T Distortions can be compensated by adaptive scaling, just by a location-dependent scaling value: P i '= P i + T

Durch diese Maßnahme werden z.B. Verzerrungen durch Linsenfehler kompensiert. Es ergeben sich die folgenden Möglichkeiten der Laserschnittlinienbeeinflussung

Figure 00290002
Tab 1.7: Möglichkeiten zur Skalierung der Laserschnittlinie in x Richtung (y entsprechend) By this measure, for example, distortions are compensated by lens aberration. This results in the following possibilities of laser cut line influencing
Figure 00290002
Table 1.7: Possibilities for scaling the laser cutting line in the x direction (y correspondingly)

Fehlerkompensation oder Manipulation durch RotationError compensation or Manipulation by rotation

Die Schnittlinie wird um einen Winkel Θ gedreht. Der Wert für Θ ergibt sich aus den jeweils gewünschten Laserschnittlinienmanipulationen xi' = xi·cos(Θ) – yi·sin(Θ) yi' = xi·sin(Θ) + yi·cos(Θ)

Figure 00300001
oder kurz Pi' = R·Pi The cutting line is rotated by an angle Θ. The value for Θ results from the respectively desired laser cut line manipulations x i '= x i · Cos (Θ) - y i * Sin (Θ) y i '= x i · Sin (Θ) + y i * Cos (Θ)
Figure 00300001
or short P i '= R · P i

Verzerrungen können durch adaptive Drehung einzelner Laserschnittlinienpunke, eben durch eine Ortsabhängigkeit des Drehwinkels, kompensiert werden Pi' = Ri·Pi Distortions can be compensated for by adaptive rotation of individual laser intersecting points, precisely by a positional dependence of the angle of rotation P i '= R i · P i

Durch diese Maßnahme werden z.B. Rotationsfehler kompensiert.By This measure are used e.g. Rotation error compensated.

Manipulation der Laserschnittlinie durch die Komposition von TransformationenManipulation of the laser cutting line through the composition of transformations

Die oben genannten Manipulationen zur Anpassung der berechneten Laserschnittlinie an die Gegebenheiten oder aber zum Zwecke der Fehlerkorrektur oder aber aus sonstigen Anpassungsgründen können auch durch die Komposition verschiedener Transformationen erreicht werden. Der Vorteil liegt in der erhöhten Geschwindigkeit, mit der komplexe Laserschnittlinien berechnet und manipuliert werden können.The above-mentioned manipulations for adapting the calculated laser cutting line to the Gege but also for the purpose of error correction or for other reasons of adaptation can also be achieved by the composition of various transformations. The advantage lies in the increased speed with which complex laser cutting lines can be calculated and manipulated.

In einer vorteilhaften Ausgestaltung einer für die Ausübung des Verfahrens geeigneten Laser-Mikrodissektions-Vorrichtung weist diese eine geeignete Benutzerschnittstelle auf, die dem Benutzer eine leichte und für ihn transparente Manipulation komplexer Abbildungen von Laserschnittmustern ermöglicht.In an advantageous embodiment of a suitable for the exercise of the method Laser microdissection device has this a suitable user interface giving the user a light and transparent manipulation allows complex images of laser cut patterns.

Dazu müssen die Transformationen in die 3 × 3 Matrixschreibweise überführt werden. Es gilt nunmehr für die TransformationenTo have to the transformations in the 3 × 3 Matrix notation be transferred. It now applies to the transformations

Translation:

Figure 00310001
Translation:
Figure 00310001

Skalierung:

Figure 00310002
scaling:
Figure 00310002

Rotation:

Figure 00310003
Rotation:
Figure 00310003

Kompositionsbeispiele:Composition Examples:

  • Pi' = T1·T2·Pi (zwei Translationen werden ausgeführt) P i '= T 1 * T 2 · P i (two translations are executed)
  • Pi' = S1·S2·Pi (zwei Skalierungen werden ausgeführt) P i '= S 1 · S 2 · P i (two scales are executed)
  • Pi' = R1·R2·Pi (zwei Rotationen werden ausgeführt) P i '= R 1 · R 2 · P i (two rotations are executed)
  • Pi' = S1·T1·R1·Pi (Rotation, Translation, Skalierung wird ausgeführt) P i '= S 1 * T 1 · R 1 · P i (Rotation, translation, scaling is executed)

Durch Kombination der Transformationen kann die zuvor automatisch gefundene oder bereits auf anderem Wege bekannte Laserschnittlinie, wenn sie nur bekannt ist als eine Schar von Punkten mit Pi = P (xi, yi), in beliebiger Weise rotiert, skaliert und verschoben werden. Insbesondere lassen sich gleiche Schnittmuster wiederholen, um so ein Array von gleichartigen Schnittmustern auszuschneiden.By combining the transformations, the laser scan line previously automatically found or already otherwise known, if only known as a family of points with P i = P (x i , y i ), can be arbitrarily rotated, scaled and shifted. In particular, similar patterns can be repeated to cut out an array of similar patterns.

Es ist ferner möglich, die einzelnen Transformationen per Matrixmultiplikation zu kombinieren (wobei die Kombinationsreihenfolge im allgemeinen nicht kommutativ ist).It is also possible to combine the individual transformations by matrix multiplication (where the combination order is generally not commutative is).

Die Darstellung der Laserschnittlinie als eine Punkteschar ermöglicht also die Nutzung aller bekannten Operationen aus der Linearen Algebra um die Laserschnittmuster auf einfachste Weise und in einer für dem Benutzer in höchstem Maße verständliche und transparente Weise darzustellen.The representation of the laser cutting line as a point share thus allows the use of all known Linear algebra operations to represent the laser pattern in the simplest way and in a way that is highly understandable and transparent to the user.

2 zeigt ein Laser-Mikro-Dissektionsgerät zur Durchführung des erfindungsgemäßen Verfahrens, welches in dieser beispielhaften Ausgestaltung beim Schneiden einen Laserstrahl über eine festgehaltene Probe bewegt. In einer anderen Ausführungsform (nicht dargestellt) wird der Laserstrahl ortsfest gehalten und das Präparat relativ dazu bewegt. 2 shows a laser micro-dissection apparatus for performing the method according to the invention, which moves a laser beam over a recorded sample in this exemplary embodiment during cutting. In another embodiment (not shown) the laser beam is held stationary and the preparation is moved relative thereto.

Das Laser-Mikro-Dissektionsgerät umfasst ein Mikroskop 1 mit einem verfahrbaren x-y-Tisch 2, auf dem ein Präparatehalter 3 angeordnet ist. In dieser Ausführungsform wird ein aufrechtes Mikroskop verwendet. Es ist jedoch auch möglich, dafür einen Aufbau mit einem inversen Mikroskop zu benutzen.The laser micro-dissection device includes a microscope 1 with a movable xy-table 2 on which a specimen holder 3 is arranged. In this embodiment, an upright microscope is used. However, it is also possible to use a setup with an inverted microscope.

An der Unterseite des Präparatehalters 3 befindet sich ein Präparat 4, aus dem ein Objekt ausgeschnitten werden soll. Unter dem x-y-Tisch 2 sind ein Beleuchtungssystem 5 und ein Kondensor 11 angeordnet, der das Präparat 4 beleuchtet. Der x-y-Tisch 2 wird in dieser Ausführungsform während des Schneidvorgangs horizontal, also in x-Richtung und in y-Richtung, nicht verfahren. Unterhalb des Präparats 4 ist mindestens ein Auffangbehältnis 19 zum Auffangen des ausgeschnittenen Dissektats angeordnet.At the bottom of the specimen holder 3 there is a preparation 4 from which an object is to be cut out. Under the xy table 2 are a lighting system 5 and a condenser 11 arranged the preparation 4 illuminated. The xy table 2 is not moved in this embodiment during the cutting process horizontally, ie in the x-direction and in the y-direction. Below the preparation 4 is at least one collecting container 19 arranged to catch the excised cut.

Von einem Laser 6, in diesem Beispiel ein UV-Laser, geht ein Laserstrahl 7 aus, der in einen Beleuchtungsstrahlengang 20 eingekoppelt wird. In dem Beleuchtungsstrahlengang 20 ist eine Laser-Scan-Einrichtung 22 angeordnet. Der Laserstrahl 7 durchläuft die Laser-Scan-Einrichtung 22 und gelangt über ein optisches System 13 zu einem Objektiv 9, das den Laserstrahl 7 auf das Präparat 4 fokussiert. Das optische System 13 ist mit Vorteil als dichromatischer Teiler ausgeführt, durch den ein von dem Präparat 4 durch das Objektiv 9 ausgehender Abbildungsstrahlengang 21 zu mindestens einem Okular 12 gelangt.From a laser 6 , in this example a UV laser, goes a laser beam 7 out into a lighting beam path 20 is coupled. In the illumination beam path 20 is a laser scanning device 22 arranged. The laser beam 7 goes through the laser scanning device 22 and passes through an optical system 13 to a lens 9 that the laser beam 7 on the drug 4 focused. The optical system 13 is carried out with advantage as a dichromatic divider, through which one of the preparation 4 through the lens 9 outgoing imaging beam path 21 to at least one eyepiece 12 arrives.

Die Einstellung der Laser-Scan-Einrichtung 22 und damit die Verstellung des Laserstrahls 7 auf dem Präparat 4 erfolgt in dieser Ausführungsform mit einem der Laser-Scan-Einrichtung 22 zugeordneten Motor 23, einer Steuerungseinheit 24 und einem Rechner 16. Der Motor 23 ist mit der Steuerungseinheit 24 verbundenen, welche die Steuersignale zur Ansteuerung des Motors 23 liefert. Die Steuerungseinheit 24 ist mit dem Rechner 16 verbunden, an den ein Monitor 18 angeschlossen ist. Auf dem Monitor 18 wird ein von einer Kamera 17 aufgenommener Bildausschnitt des Präparats 4 dargestellt. Mittels einer Rechner-Maus (nicht dargestellt) oder einer anderen beliebigen Cursorsteuerungseinrichtung kann auf dem Monitor 18 in dem Kamerabild eine gewünschte Soll-Schnittlinie definiert werden. Der Rechner 16 ist außerdem mit der Laserlichtquelle 6 verbunden und liefert dieser nur dann Triggersignale zum Auslösen von Laserimpulsen, wenn ein Schnitt durchgeführt wird.The setting of the laser scanning device 22 and thus the adjustment of the laser beam 7 on the preparation 4 takes place in this embodiment with one of the laser scanning device 22 associated engine 23 , a control unit 24 and a calculator 16 , The motor 23 is with the control unit 24 connected to the control signals for controlling the motor 23 supplies. The control unit 24 is with the calculator 16 connected to the a monitor 18 connected. On the monitor 18 becomes one of a camera 17 recorded image section of the preparation 4 shown. By means of a computer mouse (not shown) or any other cursor control device can on the monitor 18 in the camera image a desired desired cutting line can be defined. The computer 16 is also with the laser light source 6 connected and provides this trigger signals to trigger laser pulses only when a cut is performed.

Die Laser-Scan-Einrichtung 22 selbst dient als Schnittlinien-Steuerungseinheit, die während des Schneidvorgangs eine Relativbewegung zwischen dem Laserstrahl 7 und dem Präparat 4 erzeugt. Die Fokussierung des Laserstrahls 7 kann durch manuelles Verfahren des x-y-Tisches 2 in der Höhe bei gleichzeitiger visueller Kontrolle des Kamerabildes durch einen Benutzer erfolgen. Bedienungsfreundlicher ist jedoch eine Ausführungsform der Vorrichtung, die eine Autofokus-Vorrichtung (nicht dargestellt) für den Laserstrahl 7 umfasst.The laser scanning device 22 itself serves as a cutting line control unit, which during the cutting process, a relative movement between the laser beam 7 and the drug 4 generated. The focusing of the laser beam 7 can by manually moving the xy table 2 in height with simultaneous visual control of the camera image by a user. However, more convenient is an embodiment of the device comprising an autofocus device (not shown) for the laser beam 7 includes.

Durch Ansteuerung der Laser-Scan-Einrichtung 22 erscheint der Laserstrahl 7 am Ausgang der Laser-Scan-Einrichtung 22 unter verschiedenen Ablenkwinkeln. Dabei kann der Laserstrahl 7 durch Variation des Ablenkwinkels auf beliebige Positionen auf dem Präparat 4 geführt werden, die innerhalb des Sehfeldes des Objektivs 10 liegen.By controlling the laser scanning device 22 the laser beam appears 7 at the output of the laser scanning device 22 under different deflection angles. In this case, the laser beam 7 by varying the deflection angle to any position on the preparation 4 be guided within the field of view of the lens 10 lie.

Auf dem Rechner 16 ist eine Bildanalyse-Software installiert, mit welcher das von der Kamera 17 aufgenommene Bild bearbeitet und mindestens ein auszuschneidendes Objekt entsprechend dem erfindungsgemäßen Verfahren automatisch in dem Bild ermittelt wird. Danach wird zu dem Objekt automatisch eine Soll-Schnittlinie, die das Objekt umgibt, ermittelt.On the calculator 16 is an image analysis software installed with which the camera 17 processed image and at least one auszuschneidendes object according to the inventive method is automatically determined in the image. Thereafter, a target cutting line surrounding the object is automatically determined for the object.

Die Schnittbreite eines Lasers in einer Probe hängt ab von den Laserparametern, wie z.B. Laserleistung und Apertur des Laserstrahls 7. Entsprechend der aktuellen eingestellten Schnittbreite wird zu der verfahrensgemäß automatisch bestimmten Soll-Schnittlinie eine Anzahl von Sollpositionen des Laserstrahls auf der Probe 4 berechnet, wobei die aneinander gereihten Sollpositionen des Laserstrahls 7 die gewünschte Soll-Schnittlinie ergeben.The cutting width of a laser in a sample depends on the laser parameters, such as laser power and aperture of the laser beam 7 , In accordance with the current set cutting width, a number of setpoint positions of the laser beam on the sample are automatically determined for the nominal cutting line determined automatically according to the method 4 calculated, wherein the juxtaposed desired positions of the laser beam 7 give the desired nominal cutting line.

Dann werden auf der Probe 4 nacheinander die Sollpositionen mit der Laser-Scan-Einrichtung 22 angefahren. Jedes Mal, wenn die Sollposition des Laserstrahls 7 auf der Probe 4 mittels der Laser-Scan-Einrichtung 22 vorbereitet bzw. eingestellt wurde, liefert der Rechner 16 Triggersignale zum Auslösen von Laserpulsen an die Laserlichtquelle 6. Auf diese Weise wird schrittweise der Laserschnitt im Präparat erzeugt.Then be on the test 4 successively the desired positions with the laser scanning device 22 at hazards. Every time the target position of the laser beam 7 on the test 4 by means of the laser scanning device 22 has been prepared or set, provides the calculator 16 Trigger signals for triggering laser pulses to the laser light source 6 , In this way, the laser cut is gradually produced in the preparation.

Nach Beendigung der Laserschnitts ist das Dissektat von dem umgebenden Präparat 4 vollständig getrennt und fällt in dieser Anordnung unter Einwirkung der Schwerkraft in das darunter angeordnete Auffangbehältnis 19.After completion of the laser cut, the dissectate is from the surrounding preparation 4 completely separated and falls in this arrangement under the action of gravity in the collecting receptacle arranged underneath 19 ,

Spezielle Ausgestaltungen des VerfahrensSpecific Embodiments of the method

Nachfolgend werden noch verschiedene spezielle Ausgestaltungen des Verfahrens angegeben.following are still various special embodiments of the method specified.

Eine weitere Ausgestaltung des Verfahrens ist dadurch gekennzeichnet, dass zusätzlich eine automatische Shadingkorrektur vorgesehen ist mit folgenden Schritten:

  • – Manuelle oder automatische Positionierung des Mikroskoptisches an einer Position, die entweder als DEFAULT-Position vorprogrammiert oder alternativ zuvor eingelernt wurde, die es erlaubt, ein Leerbild, also ein Bild der inhomogenen Beleuchtung, aufzunehmen;
  • – Abspeichern dieses Shadingkorrekturbildes als reversibles Bilddatenformat (TIF = Tagged Image File (Bildformat), BMP = Bitmap (Bildformat) etc.);
  • – und Anwendung des gespeicherten Shadingbildes auf die nachfolgenden Bilder, in denen Objekte erkannt werden sollen und wobei diese Objekte per Laserstrahl ausgeschnitten werden sollen, zum Zwecke der Beseitigung der durch die inhomogene Beleuchtung hervorgerufenen Bildverfälschung.
A further embodiment of the method is characterized in that in addition an automatic shading correction is provided with the following steps:
  • - Manual or automatic positioning of the microscope stage at a position that was either pre-programmed as DEFAULT position or alternatively previously learned, which allows to record a blank image, ie a picture of inhomogeneous lighting;
  • Storing this shading correction image as a reversible image data format (TIF = Tagged Image File, BMP = Bitmap, etc.);
  • And application of the stored shading image to the subsequent images in which objects are to be detected and wherein these objects are to be cut out by laser beam, for the purpose of eliminating the image distortion caused by the inhomogeneous illumination.

Eine weitere Ausgestaltung des Verfahrens ist dadurch gekennzeichnet, dass zusätzlich eine automatische und manuelle Objektdetektion von auszuschneidenden Objekten vorgesehen ist. Dazu wird mittels eines geeigneten Verfahrens ein möglichst günstiger Schwellenwert in das Histogramm gelegt und damit ein optimales Binärbild erzeugt, welches ein Größtmass an Informationen über die per Laser auszuschneidenden Objekte enthält. Beispielsweise kann durch ein Entropiemaximierungsverfahren der optimale Schwellenwert für eine automatische Binärbilderzeugung bestimmt werden. Alternativ kann der Schwellwert für die Binärbilderzeugung auch manuell eingestellt werden.A further embodiment of the method is characterized in that that in addition an automatic and manual object detection of cut out Objects is provided. This is done by means of a suitable method one possible better Threshold into the histogram, creating an optimal binary image, which is a maximum measure information about contains the laser cut out objects. For example, through an entropy maximization method the optimal threshold for automatic Binärbilderzeugung be determined. Alternatively, the threshold for binary imaging also be set manually.

Die Schwellenwerte können auf Datenträgern gespeichert und wieder aufgerufen werden, so dass eine wiederholte Objektbinärisierung für das Laserschnittverfahren vorgenommen werden kann.The Thresholds can on data carriers saved and called again, making a repeated Objektbinärisierung for the Laser cutting process can be made.

Eine weitere Ausgestaltung des Verfahrens ist dadurch gekennzeichnet, dass zusätzlich eine Beseitigung von kleineren Objekten, die mit dem Laser nicht ausgeschnitten werden sollen, vorgesehen ist. Dazu können folgende Schritte vorgesehen sein:

  • – kleinere Objekte werden durch bildanalytische Morphologie, im speziellen durch Erosion, aus dem Binärbild entfernt;
  • – über die Anzahl der Erosionszyklen wird ein Maß für die Größe der Objekte eingestellt, die aus dem Laserschneidverfahren ausgeschlossen werden sollen;
  • – durch formgebende Faktoren, also durch Ausnutzung der Morphologie der verwendeten bildanalytischen Operatoren, werden bestimmte Objektformen von dem Laserschneidverfahren ausgeschlossen, indem man diese Objekte aus dem Binärbild filtert.
A further embodiment of the method is characterized in that additionally an elimination of smaller objects, which are not to be cut out with the laser, is provided. For this purpose, the following steps can be provided:
  • Smaller objects are removed from the binary image by image-analytical morphology, in particular erosion;
  • - the number of erosion cycles sets a measure of the size of the objects to be excluded from the laser cutting process;
  • - By shaping factors, so by taking advantage of the morphology of the image-analytical operators used, certain object shapes are excluded from the laser cutting process by filtering these objects from the binary image.

Eine weitere Ausgestaltung des Verfahrens zeichnet sich dadurch aus, dass zusätzlich ein Durchschneidens zu eng benachbarter Objekte im Präparat verhindert wird. Dazu werden zu eng benachbarte Bildobjekte, die per Laser ausgeschnitten werden sollen, zu einem Cluster zusammengefasst. Dies erfolgt derart, dass der Laserschnitt um alle Teilchen außen herum geführt wird und somit der gesamte, zusammenhängende Bereich aus Objekten von Interesse ausgeschnitten wird. Somit wird kein Objekt von Interesse „durchschnitten". Dabei wird mathematische Morphologie eingesetzt, um die Außenkonturlinie für den Laserschnitt zu bestimmen.A further embodiment of the method is characterized by that in addition a cutting through to closely adjacent objects in the preparation prevented becomes. These are too closely adjacent image objects, the laser should be cut out into a cluster. This is done in such a way that the laser cut around all particles outside guided and thus the entire, contiguous area of objects of interest is cut out. Thus, no object of interest is "cut through." This becomes mathematical Morphology used to make the outer contour line for laser cutting to determine.

In einer weiteren Ausgestaltung des Verfahrens werden in den gewünschten Clustern eingeschlossene Objekte oder Bereiche, die sogenannten Löcher, von den Clustern separiert. Dazu sind folgende Schritte vorgesehen:

  • – es werden mehrere Schnittlinien, im speziellen zwei Schnittlinien, berechnet, derart, das n Schnittlinien das Loch oder die Löcher umschließen und m Schnittlinien das Objekt oder die Objekte von Interesse umschließen;
  • – es wird eine bestimmte Schnittreihenfolge benutzt, um die Löcher von den Objekten von Interesse, also den Clustern, zu trennen.
In a further embodiment of the method, objects or regions enclosed in the desired clusters, the so-called holes, are separated from the clusters. For this purpose, the following steps are provided:
  • A number of cutting lines, in particular two cutting lines, are calculated such that the n cutting lines enclose the hole or holes and m cutting lines enclose the object or objects of interest;
  • - It is used a certain order of cuts to the holes of the objects of interest, ie separate the clusters.

In Mikro-Dissektionssystemen basierend auf einem umgekehrten Mikroskop, in denen das ausgeschnittene Objekt bzw. der Cluster nach dem Laserschneiden auf der Präparat-Halterung bzw. auf einem Träger, z.B. einem Objektträger oder einer Petrischale, liegen bleibt, können die im Cluster eingeschlossenen Löcher auch nach dem Ausschneiden des eigentlichen Clusters noch ausgeschnitten werden. Wird jedoch mit einem Mikro-Dissektionssystem basierend auf einem aufrechten Mikroskop geschnitten, werden zunächst die innen liegenden Löcher und dann die eigentlichen Cluster ausgeschnitten.In Micro-dissection systems based on an inverted microscope, in which the cut object or cluster after laser cutting on the preparation holder or on a support, e.g. a slide or a petri dish, can remain lying in the cluster holes also cut out after cutting out the actual cluster become. However, using a micro-dissection system based on a First cut the upright holes and then cut out the actual clusters.

Als besonders vorteilhaft erweist es sich, wenn die Löcher in anderen Auffangbehältern als die eigentlich interessierenden Objekte gesammelt werden. Auf die Weise werden die Löcher als „Abfall" entsorgt und der Reinheitsgrad der Proben erhöht. Ebenso kann es sich bei den Löchern um Objekte oder Bereiche handeln, die selbst für weitere Analysen noch interessant sind und daher separat gesammelt werden.When it proves particularly advantageous if the holes in other collection containers as the objects of interest are collected. On the way the holes become disposed of as "waste" and the Purity of samples increased. Likewise, it can be at the holes to act on objects or areas that are even interesting for further analysis and are therefore collected separately.

Eine weitere Ausgestaltung des Verfahrens zeichnet sich dadurch aus, dass zusätzlich ein automatisches Erfassen und Ausschneiden verschiedener Objekte im Präparat auf Basis einer Merkmalsextraktion vorgesehen ist. Dabei sind folgende Schritten möglich:

  • – Die Merkmale einer Schar von Objekten werden in einem Bild vermessen werden, so dass eine Lasermikrodissektion möglich wird;
  • – Die Merkmale der gemessenen Objekte werden mit vorgegebenen Wertebereichen, welche individuell zu jedem Merkmal vorgegeben werden, verglichen.
A further embodiment of the method is characterized in that in addition an automatic detection and excision of various objects in the preparation based on a feature extraction is provided. The following steps are possible:
  • - The characteristics of a group of objects are measured in an image, so that a laser microdissection is possible;
  • The features of the measured objects are compared with predetermined value ranges, which are specified individually for each feature.

Für den Routinebetrieb im Labor erweist es sich als vorteilhaft, wenn die Wertebereiche, die zum Erkennen und Klassifizieren der Objekte herangezogen werden, in jeglicher Weise gespeichert und geladen und somit ausgetauscht werden können. Hierbei kommen als Speichermedium alle elektronischen Datenträger, Netzwerke, das Internet, geschriebene Dokumente, gesprochene Kommandos etc. in Frage. Die Wertebereiche, die zum Erkennen und Klassifizieren der Objekte herangezogen werden, können in Datenbanken gespeichert und geladen werden. Zusätzlich können die Wertebereiche, die zum Erkennen und Klassifizieren der Objekte herangezogen werden, durch externe Manipulation in Datenbanken oder durch externe Programme geändert und angepasst werden.For routine operation In the laboratory, it proves to be advantageous if the value ranges, which are used to recognize and classify the objects, stored and loaded in any way and thus exchanged can be. Here come as a storage medium all electronic media, networks, the internet, written documents, spoken commands etc. in question. The ranges of values for recognizing and classifying of the objects can be stored in databases and loaded. additionally can the ranges of values used to recognize and classify the objects be used by external manipulation in databases or changed by external programs and adapted.

In einer besonders vorteilhaften Ausgestaltung können die Wertebereiche, die zum Erkennen und Klassifizieren der Objekte herangezogen werden, auch dazu dienen, mehrere automatische Laserschneidsysteme, welche automatisch Laserschnittlinien bestimmen und welche über ein Daten-Netzwerk zu einem System-Cluster verbunden sind, zu synchronisieren. Dies geschieht derart, dass alle automatischen Laserschneidsysteme unter gleichen Bedingungen arbeiten. Der System-Cluster kann dabei über ein lokales Netzwerk, LAN, WLAN, Bluetooth, Internet, Intranet etc. erfolgen.In In a particularly advantageous embodiment, the value ranges, the be used for recognizing and classifying the objects, also serve several automatic laser cutting systems, which automatically determine laser cutting lines and which one over Data network too a system cluster are connected to synchronize. this happens such that all automatic laser cutting systems are the same Conditions work. The system cluster can do this via a Local network, LAN, WLAN, Bluetooth, Internet, Intranet etc. respectively.

Weiterhin kann ein beliebiger Vergleichsformalismus angewendet werden, mit dem Ziel, durch eine Kombination der Einzelvergleiche der gemessenen Objektmerkmalsdaten mit den individuell vorgegebenen Wertebereichen eine eindeutige Identifizierung eines Präparatobjektes zu erreichen.Farther Any comparative formalism can be used with the goal, by a combination of the individual comparisons of the measured Object characteristic data with the individually specified value ranges to achieve a clear identification of a specimen object.

Dabei können verschiedene Objekte anhand individueller Merkmalsdatensätze erkannt werden. Es ist weiterhin vorteilhaft, dass in einem Arbeitsgang verschiedene Objekte aus dem Präparat ausgeschnitten werden können und in individuell und automatisch bereitgestellten Auffangbehältern für das Schnittgut gesammelt werden.there can different objects detected on the basis of individual feature data sets become. It is also advantageous that in one operation different objects from the drug can be cut out and in individually and automatically provided collecting containers for the clippings to be collected.

In einer weiteren vorteilhaften Ausgestaltung des Verfahrens werden Objekte, die den Bildrand „berühren", per Bildanalyse identifiziert und dann nicht von dem Laser ausgeschnitten. Somit wird verhindert, dass ein unvollständiges Objekt bzw. ein unvollständiger Cluster ausgeschnitten wird. Vielmehr wird erreicht, das immer nur vollständig im Bild befindliche Objekte mit dem Laser ausgeschnitten werden.In a further advantageous embodiment of the method Objects that "touch" the edge of the picture via image analysis identified and then not cut out by the laser. Consequently prevents an incomplete object or an incomplete cluster is cut out. Rather, it is achieved, always only completely in the Image objects are cut out with the laser.

Durch den zusätzlichen Einsatz mikroskopischer und/oder kameratechnischer Kontrastierverfahren wird durch ein bildgebendes Verfahren, z.B. mittels einer Kamera, ein Präparateauschnitt so geeignet dargeboten, dass auf Basis dieses Bildes unter Verwendung von Bildanalyse die Laserschnittline automatisch bestimmt werden kann.By the additional Use of microscopic and / or camera technique contrasting by an imaging method, e.g. by means of a camera, a Präparateauschnitt so suitably presented that based on this image using from image analysis the laser cutting line will be automatically determined can.

Weiterhin wird durch Einblenden der automatisch gefundenen Schnittlinien mittels einer Abbildungsvorrichtung eine Kontrolle der Ergebnisse ermöglicht. Die Ergebnisse werden direkt im Kamerabild des Laserschneidsystems oder als Einspiegelung im visuellen Mikroskopbild dargestellt.Farther is by fading in the automatically found cut lines using an imaging device allows control of the results. The results are displayed directly in the camera image of the laser cutting system or as reflection in the visual microscope image.

Bei der Merkmalsklassifikation der Objekte werden die Objektkonturen über eine Kodierung der geometrischen Kontur der Objekte beschrieben. Dies erfolgt derart, dass die Konturbeschreibung, die aus einer Bildanalyse automatisch oder teilautomatisch erfolgt, direkt auf die Sollschnittlinie und damit die Laserschnittkoordinaten abgebildet werden kann.at In the feature classification of the objects, the object contours are defined using a Coding of the geometric contour of the objects described. This takes place in such a way that the contour description, which results from an image analysis automatically or semi-automatically, directly to the target cutting line and thus the laser cutting coordinates can be mapped.

In einer weiteren Ausgestaltung des Verfahrens ist für die Objektklassifizierung ein Lernverfahren vorgesehen, welches die benötigten Wertebereiche zur Klassifikation der Objekte, die per Laser ausgeschnitten werden sollen, automatisch oder manuell erfassen kann. Dieses Lernverfahren ist derart aufgebaut, dass die Wertebereiche mittels einer Software eingegeben werden oder mittels einer geeigneten Markierung des Objektes, z.B. durch einen Mausklick im Bild des Präparats, automatisch erfasst werden.In Another embodiment of the method is for object classification a learning method provided, which the required value ranges for classification the objects to be laser cut out automatically or can capture manually. This learning method is structured in such a way that the value ranges are entered by means of software or by means of a suitable marking of the object, e.g. by a mouse click in the image of the product, be automatically detected.

Objekte, die den Bildrand berühren, können nicht vollständig per Laser ausgeschnitten werden. Außerdem besteht wegen der unvollständigen Form die Gefahr der Fehl-Klassifikation. Sie werden daher bei Bedarf ignoriert, indem bei der Objektidentifikation überprüft wird, ob ein Objekt den Bildrand berührt oder nicht. Dann wird das Objekt in Abhängigkeit des Analyseergebnisses vor den weiteren Prozess-Schritten ausgeblendet Eine Unabhängigkeit von der Laserwellenlänge wird erreicht, indem die automatische Klassifikation und die Berechnung der Laserschnittlinie durch den Einsatz von laserwellenlängen-unabhängigen, bildgebenden Verfahren erreicht wird. Beispielsweise wird dafür ein Mikroskopbild mit breitbandiger Beleuchtung, z. B. im sichtbaren Spektralbereich, aufgenommen und verarbeitet.objects that touch the edge of the picture, can not completely be cut out by laser. Besides, because of the incomplete form the danger of misclassification. They will therefore be required ignored by checking in the object identification, whether an object the Image border touched or not. Then the object becomes dependent on the analysis result hidden from further process steps An independence from the laser wavelength is achieved by the automatic classification and the calculation the laser cutting line through the use of laser wavelength independent, imaging process is achieved. For example, it becomes a microscope image with broadband lighting, z. In the visible spectral range, recorded and processed.

Durch geeignete Skalierung der Laserschnittlinie wird erreicht, dass die Objekt-Klassifikation und die Laserschnittlinienbestimmung bei niedriger Vergrößerung vorgenommen werden kann. Dadurch steht ein größeres Sehfeld zur Verfügung, welches mehr Objekte zu detektieren gestattet. Dadurch kann dann der eigentliche Ausschneideprozess bei einer höheren Vergrößerung vorgenommen werden.By appropriate scaling of the laser cut line is achieved that the Object classification and laser cutting line determination at lower Magnification made can be. As a result, a larger field of view is available, which allowed to detect more objects. This can then be the actual Cutting process at a higher Magnification made become.

Durch den Einsatz von Piezoaktoren für die x-y-Verschiebung des Präparats wird die Genauigkeit des Laserschnittes erhöht. Zusätzlich erweist es sich als vorteilhaft, wenn durch die Verwendung von x-y-Verstelleinrichtungen das Objekt und dessen Laserschnittlinie in der Nähe der optischen Achse positioniert werden, um so optimale Schneidbedingungen zu bekommen. Dabei wird der Ausschneideprozess von der Ablenkeinheit in der Auflichtachse des Mikroskops vorgenommen, während der Tisch die auszuschneidenden Objekte automatisch nahe der optischen Achse positioniert. Durch den Einsatz einer geeigneten Linearkombination von Bewegungen durch Mikroskoptisch, x-y-Piezotranslator und Ablenkeinheit für den Laserschnitt wird eine Vergrößerung der Schnittgeschwindigkeit bei gleichzeitiger Erhöhung der Schnittpräzision erzielt.By the use of piezo actuators for the x-y shift of the preparation the accuracy of the laser cut is increased. In addition, it proves to be advantageous if by the use of x-y adjustment the object and its laser cut line positioned near the optical axis to get optimal cutting conditions. It will the cutting process of the deflection unit in the incident light axis the microscope made while the table automatically cuts the objects to be cut near the optical Axis positioned. By using a suitable linear combination of Movement through microscope stage, x-y piezotranslator and deflection unit for the Laser cut will be an enlargement of the Cutting speed achieved while increasing the cutting precision.

Durch den Einsatz eines Autofokus wird der schneidende Laserstrahl immer in die optimale Schnittposition gebracht wird und daher ein automatisierter Auschneideprozess von beliebig vielen Objekten ohne Überwachung durch einen Benutzer ermöglicht. Die Geschwindigkeit des Systems wird weiterhin durch den Einsatz eines Autofokus in Verbindung mit einem z-Piezotranslator und/oder einen z-Galvanoantrieb wesentlich erhöht. Dabei wird durch den z- Piezotranslator und/oder den z-Galvanoantrieb das Objektiv direkt in z-Richtung verstellt. Auf diese Weise kann ein automatisierter Auschneideprozess von beliebig vielen Objekten ohne Überwachung durch einen Benutzer erfolgen.By the use of auto-focus always becomes the cutting laser beam is brought into the optimal cutting position and therefore an automated Cutting process of any number of objects without monitoring enabled by a user. The speed of the system will continue through the use of a Autofocus in conjunction with a z-piezotranslator and / or a z-galvano drive significantly increased. This is done by the z-piezotranslator and / or the z-galvano drive the lens adjusted directly in the z-direction. In this way, an automated cutting process of any many objects without monitoring done by a user.

Eine weitere Ausgestaltung des Verfahrens weist zusätzlich eine automatische Veränderung des Abstands der Laserschnittlinie vom Objekt zum Zwecke des artefaktfreien Ausschneidens auf. Dazu werden die Koordinaten der einzelnen Punkte der Soll-Schnittlinie durch eine geeignete bildanalytische Bearbeitung der Bildobjekte vor der eigentlichen Laser-Schnittlinienbestimmung so bearbeitet, dass die bearbeitete Soll-Schnittlinie in größerem Abstand vom segmentierten Objekt verläuft. Vorzugsweise erfolgt dazu eine Dilatation des Binärbildes des segmentierten Objektes vor der Schnittlinienberechnung, so dass ein determiniertes Vergrößern des Objektes um die gewünschte Anzahl von Pixeln durchgeführt wird. Die vergrößerten Objekte dienen sodann als Grundlage der Laser-Schnittlinienberechnung wie vorab beschrieben.A Another embodiment of the method additionally has an automatic change the distance of the laser cut line from the object for the purpose of the artifact-free Cut to. This will be the coordinates of each point the desired cutting line by a suitable image-analytical processing the image objects are processed before the actual laser cut line determination, that the machined target cutting line is at a greater distance from the segmented Object runs. Preferably, a dilation of the binary image takes place for this purpose of the segmented object before the cutting line calculation, so that a determinate enlargement of the Object around the desired Number of pixels performed becomes. The enlarged objects then serve as the basis of the laser cutting line calculation as described in advance.

Die Koordinaten der einzelnen Punkte der Laserschnittlinie werden durch eine geeignete Skalierungstransformation vergrößert, so dass beim eigentlichen Laserschnitt der Laserstrahl in gesicherter Entfernung um das Objekt herumgeführt wird. Dazu wird der Laserabstand durch ein Softwareinterface durch den Benutzer eingestellt, um z.B. dem Benutzer das Testen von Systemeinstellungen zu erlauben, insbesondere in Hinblick auf die Prozessautomatisierung. Der Laserabstand wird automatisch berechnet und eingestellt wird, um so vollautomatische Prozesse zu ermöglichen.The Coordinates of the individual points of the laser cutting line are through a suitable scaling transformation is increased so that the actual Laser cut the laser beam at a secured distance around the object entrained becomes. For this, the laser distance through a software interface by set the user to e.g. the user to test system settings especially with regard to process automation. The laser distance will be automatically calculated and adjusted to enable fully automatic processes.

Eine weitere Ausgestaltung des Verfahrens weist zusätzlich einen Ausgleich von Abbildungsfehlern (z.B. Verzerrungen) bei der Abbildung des Lasers auf das Präparat auf. Dazu wird der Skalierungsfaktor ortsabhängig formuliert. Alternativ oder zusätzlich wird jeder Laserschnittlinien-Konturpunkt individuell so verzerrt, dass eine Kompensation von Abbildungsfehlern des Mikroskopsystems und der Kameraoptik, also aller Abbildungselemente, erfolgt. Auf diese Weise wird die ermittelte Soll-Schnittlinie präzise und ohne Abbildungsfehler in eine Laserschnittlinie umgesetzt.A further embodiment of the method additionally has a compensation of aberrations (eg distortions) in the imaging of the laser on the preparation. For this, the scaling factor is location dependent formulated. Alternatively or additionally, each laser cutting line contour point is individually distorted in such a way that a compensation of aberrations of the microscope system and of the camera optics, ie of all imaging elements, takes place. In this way, the determined nominal cutting line is converted into a laser cutting line precisely and without aberrations.

Eine weitere Ausgestaltung des Verfahrens weist zusätzlich eine Manipulation, Linearkombination und Fehlerkompensation der Laserschnittlinien, die zuvor automatisch oder manuell oder von einem Datenträger eingelesen wurden, auf. Dazu sind folgende Schritte möglich: Zur Kompensation eines lateralen Fehlers bei den nach obigem Verfahren errechneten Laserschnittlinien wird eine Matrixtransformation zum Zwecke der Translation aller Laserschnittlinienpunkte um einen bestimmten Betrag in x und y Richtung angewendet. Weiterhin kann auf die nach obigem Verfahren errechneten Laserschnittlinien eine Matrixtransformation zum Zwecke der Skalierung aller Laserschnittlinienpunkte um einen bestimmten Betrag in x- und y-Richtung angewendet werden. Alternativ oder zusätzlich wird auf die nach obigem Verfahren errechneten Laserschnittlinien eine Matrixtransformation zum Zwecke der Rotation aller Laserschnittlinienpunkte um einen bestimmten Betrag in x- und y- Richtung angewendet.A Further embodiment of the method additionally has a manipulation, linear combination and error compensation of the laser cutting lines, previously automatic or manually or from a data carrier. The following steps are possible: To compensate for a lateral error in the above method calculated laser cut lines becomes a matrix transformation for Purpose of translation of all laser cut point points around a given one Amount applied in x and y direction. Furthermore, on the after above, laser cut lines calculated a matrix transformation for the purpose of scaling all laser intersection points by one certain amount in x and y direction are applied. Alternatively or additionally on the calculated according to the above method laser cutting lines a matrix transformation for the purpose of rotating all laser intersection points around one determined amount in the x and y direction.

In einer speziellen Ausgestaltung wird auf die nach obigem Verfahren errechneten Laserschnittlinien eine beliebige Kombination von Matrixtransformationen zum Zwecke der schrittweisen Translation und/oder Skalierung und/oder Rotation aller Laserschnittlinienpunkte um einen bestimmten Betrag in x- und y-Richtung angewendet.In a special embodiment is based on the above method calculated laser cutting lines any combination of matrix transformations for the purposes of stepwise translation and / or scaling and / or Rotation of all laser intersection points by a certain amount applied in x and y direction.

Durch Einsatz von Matrixtransformationen werden, speziell der Translationsmatrix, ungenaue Mikroskoptisch-Repositionierungen (= Wiederauffinden von Mikroskoptisch-Positionen) kompensiert. Dazu wird die ermittelte Laserschnittlinie um einem bestimmten Betrag dx, dy, welcher dem Ungenauigkeitsbetrag der Mikroskoptisch-Repositionierung entspricht, korrigiert. Die Kompensationen werden durch direkte Manipulation der Koordinatenmatrix eines Laserschnittlinien-Musters durchgeführt, also ohne aktive Tischbewegung, sondern werden allein durch die Ablenkeinheit des Lasers in der Auflichtachse des Mikroskops bewerkstelligt.By Use of matrix transformations, especially the translation matrix, inaccurate microscope stage repositioning (= retrieval of Microscope positions) compensated. For this purpose, the determined Laser cut line by a certain amount dx, dy, which the Inaccuracy amount of the microscope stage repositioning corresponds corrected. The compensations are made by direct manipulation the coordinate matrix of a laser cut pattern, ie without active table movement, but be alone by the deflection unit of the laser in the incident light axis of the microscope accomplished.

Durch Wiederholen beliebig vieler Laserschnittlinien-Muster wird ein Array von Laserschnittlinien per zyklisch wiederholter Matrixtransformation in beliebigen Mustern erzeugt. Dies ermöglicht eine statistische Entnahme großer, gleichartig geformter Proben aus einem Präparat.By Repeating any number of laser cut line patterns becomes an array of laser cutting lines by cyclically repeated matrix transformation generated in any patterns. This allows a statistical sampling greater, similarly shaped samples from a preparation.

Die Manipulationsfaktoren, Linearkombinationen und Fehlerkompensationsfaktoren können in einer geeigneten Weise auf elektronischen Datenträgern oder in Datenbanken etc. abgespeichert und wieder aufgerufen werden. Damit kann ein benutzerspezifisches Geräteprofil abgelegt und beliebig wieder aufgerufen werden.The Manipulation factors, linear combinations and error compensation factors can in a suitable manner on electronic data carriers or stored in databases etc. and called again. This allows a user-specific device profile to be stored and arbitrary be called again.

Claims (24)

Verfahren zur Laser-Mikrodissektion, bei dem zu einem auszuschneidenden Objekt in einem mikroskopischen Präparat eine Soll-Schnittlinie definiert und anschließend das Objekt mittels einer Relativbewegung zwischen Laserstrahl und Präparat ausgeschnitten wird, wobei ein elektronisches Bild zumindest eines Bildausschnittes des Präparats aufgenommen wird und der Bildausschnitt bildanalytisch bearbeitet wird, wobei mindestens ein auszuschneidendes Objekt ermittelt wird dadurch gekennzeichnet, dass die Objektkontur automatisch ermittelt wird, dass aus der Objektkontur die Soll-Schnittlinie um das mindestens eine auszuschneidende Objekt automatisch bestimmt wird und dass das Objekt entlang der bestimmten Soll-Schnittlinie mittels des Laserstrahls ausgeschnitten wird.Method for laser microdissection, in which a desired cutting line is defined for an object to be excised in a microscopic specimen and then the object is cut out by means of a relative movement between the laser beam and the specimen, an electronic image of at least one image section of the specimen being recorded and the image section being image-analytically is processed, wherein at least one auszuschneidendes object is determined, characterized in that the object contour is automatically determined that from the object contour, the desired cutting line is automatically determined by the at least one object auszuschneidende and that the object along the determined nominal cutting line by means of the laser beam is cut out. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das elektronische Bild mittels eines kameratechnischen Kontrastierverfahrens oder eines Mikroskopie-Kontrastierverfahrens für die nachfolgende bildanalytische Bearbeitung vorbereitet wird.Method according to claim 1, characterized in that that the electronic image by means of a camera contrasting technique or a microscopy contrasting method for subsequent image analysis Processing is prepared. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Ermitteln eines oder mehrerer Objekte durch Segmentation des elektronischen Bildes erfolgt, – indem auf der Basis des elektronischen Bildes eine Grauwert-Schwelle definiert wird, – und indem das elektronische Bild durch Vergleich mit der Grauwert-Schwelle in ein Binärbild überführt wird, in welchem nur noch die segmentierten Objekte enthalten sind.Method according to claim 1, characterized in that that determining one or more objects by segmentation of the object electronic picture, - on the basis of the electronic Image a gray value threshold is defined - and by comparing the electronic image with the gray value threshold is converted into a binary image, in which only contain the segmented objects. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Schwellenwert manuell eingestellt wird oder durch ein Entropiemaximierungsverfahren automatisch bestimmt wird.Method according to claim 3, characterized the threshold is set manually or by an entropy maximization method automatically determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das elektronische Bild entweder ein Graubild oder ein Farbbild ist.Method according to claim 1, characterized in that that the electronic image is either a gray image or a color image is. Verfahren nach Anspruch 3, dadurch gekennzeichnet, – dass zur Ermittlung des auszuschneidenden Objekts bestimmte Klassifikationsmerkmale definiert werden, welche das Objekt charakterisieren, – dass bildanalytisch die tatsächlich vorhandenen Objektmerkmale des segmentierten Objekts aus dem Bild bestimmt und mit den Klassifikationsmerkmalen verglichen werden, – und dass bei Übereinstimmung der Objektmerkmale mit den Klassifikationsmerkmalen das Objekt klassifiziert wird.Method according to claim 3, characterized - that to Determining the object to be cut out certain classification characteristics defining which characterize the object, - that image analytic actually existing object features of the segmented object determined from the image and compared with the classification characteristics, - and that at agreement the object features with the classification characteristics classified the object becomes. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass für verschiedene Objekttypen jeweils individuelle Merkmalsdatensätze mit Klassifikationsmerkmalen definiert werden.Method according to Claim 6, characterized that for Different object types each have their own characteristic data sets Classification characteristics are defined. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Definition der Klassifikationsmerkmale in einem Lernverfahren automatisch oder manuell erfolgt, indem die Klassifikationsmerkmale interaktiv eingegeben werden oder mittels einer geeigneten Markierung des Objektes, z.B. durch einen Mausklick, automatisch erfasst werden.Method according to Claim 6, characterized that the definition of classification features in a learning process done automatically or manually by the classification features entered interactively or by means of a suitable marker of the object, e.g. be detected automatically with a mouse click. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass zu den klassifizierten Objekten die Soll-Schnittlinie automatisch bestimmt wird und dass nicht klassifizierte Objekte von der Bestimmung einer Soll-Schnittlinie ausgeschlossen werden.Method according to Claim 6, characterized that for the classified objects the target cutting line automatically is determined and that unclassified objects from the determination a desired cutting line are excluded. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass zu mindestens einem Klassifikationsmerkmal ein Wertebereich definiert wird.Method according to Claim 6, characterized that at least one classification feature is a range of values is defined. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass Objekte, die an den Rand des Bildausschnittes angrenzen oder nur teilweise im Bildausschnitt sichtbar sind, durch Merkmalsvergleich identifiziert werden und dann von der Bestimmung einer Soll-Schnittlinie ausgeschlossen werden.Method according to Claim 6, characterized objects that are adjacent to the edge of the image section or only partially visible in the image section, by feature comparison be identified and then by the determination of a desired cutting line be excluded. Verfahren nach Anspruch 1, dadurch gekennzeichnet, – dass mehrere, zusammenliegende Objekte zu einem sogenannten Cluster zusammengefasst werden, – und dass eine einzige gemeinsame Soll-Schnittlinie, die das Cluster umschließt, automatisch bestimmt wird.Method according to claim 1, characterized in that - that several, merging together objects into a so-called cluster become, - and that a single common target cutting line, which is the cluster encloses automatically determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, – dass in einem zusätzlichen Verfahrensschritt die automatisch bestimmte Soll-Schnittlinie durch eine mathematische Transformation automatisch auf eine Laserschnittlinie abgebildet wird, – und dass diese Laserschnittlinie in eine Relativbewegung zwischen Laserstrahl und Präparat umgesetzt wird, wodurch ein Laserschnitt entsteht.Method according to claim 1, characterized in that - that in an additional Process step through the automatically determined target cutting line a mathematical transformation automatically on a laser cut line is pictured, - and that this laser cutting line in a relative movement between the laser beam and preparation is implemented, creating a laser cut. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass die Relativbewegung und somit der Laserschnitt entweder interaktiv von einem Benutzer oder automatisch ausgelöst wird.Method according to claim 13, characterized in that that the relative movement and thus the laser cut either interactive is triggered by a user or automatically. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass die automatische Erzeugung der Laserschnittlinie mit folgenden Verfahrensschritten vorgenommen wird: – bildanalytische Bestimmung der Außenkontur des auszuschneidenden Objekts oder Clusters, – Umsetzung der Außenkontur in einen numerischen Code, der die Soll-Schnittlinie angibt, – und Transformieren der Soll-Schnittlinie in die Laserschnittlinie.Method according to claim 13, characterized in that that the automatic generation of the laser cutting line with the following Procedural steps is carried out: - Image analytical determination the outer contour the object or cluster to be cut, - Implementation the outer contour into a numeric code indicating the desired cutting line, - and transform the desired cutting line in the laser cutting line. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass als numerischer Code ein Freeman-Code oder ein Kettencode angegeben wird.Method according to claim 15, characterized in that that the numeric code is a Freeman code or a chain code becomes. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zusätzlich eine automatische Shadingkorrektur vorgesehen ist mit folgenden Schritten: – Aufnehmen eines Leerbildes, das heißt eines Bildes ohne Präparat; – Abspeichern dieses Bildes als Shadingkorrekturbild; – und Verrechnen des Shadingkorrekturbildes mit den nachfolgend aufgenommenen Bildern.Method according to claim 1, characterized in that that in addition An automatic shading correction is provided with the following steps: - Take up a blank picture, that is a picture without a preparation; - Save this image as shading correction image; - and calculating the shading correction image with the pictures taken below. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bestimmte unerwünschte Objekte, die nicht ausgeschnitten werden sollen, durch bildanalytische Morphologie aus dem Binärbild entfernt werden.Method according to claim 1, characterized in that that certain undesirable Objects that should not be cut out by image analytic Morphology from the binary image be removed. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein Durchschneiden benachbarter Objekte mit einem definierten Abstand im Präparat verhindert wird.Method according to claim 1, characterized in that that a cutting of adjacent objects with a defined Distance in the preparation is prevented. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass mindestens ein von einem Cluster umschlossener Bereich, der nicht zu dem gewünschten Cluster gehört, separat ausgeschnitten wird.Method according to claim 12, characterized in that that at least one area enclosed by a cluster, the not to the desired one Heard cluster is cut separately. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Kontrolle der Ergebnisse des Verfahrens die automatisch gefundenen Soll-Schnittlinien mittels einer Abbildungsvorrichtung in das elektronische Bild eingeblendet werden.Method according to claim 1, characterized in that that to control the results of the procedure the automatic found desired cutting lines by means of an imaging device into the electronic picture. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Skalierung der Laserschnittlinie in Abhängigkeit von der Vergrößerung des Bildes vorgenommen wird.Method according to claim 1, characterized in that that a scaling of the laser cut line in dependence from the enlargement of the Image is made. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein definierter Abstand der Laserschnittlinie vom Objekt eingestellt wird, um das Objekt vor Beschädigung durch Laserbestrahlung zu schützen.Method according to claim 1, characterized in that that set a defined distance of the laser cut line from the object will damage the object from damage protected by laser irradiation. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass durch Modifikation der Soll-Schnittlinie ungenaue Mikroskoptisch-Repositionierungen kompensiert werden.Method according to claim 1, characterized in that that by modification of the desired cutting line inaccurate microscope stage repositioning be compensated.
DE102004051508A 2003-10-21 2004-10-21 Method for automatic generation of laser cut lines in laser microdissection Revoked DE102004051508B4 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/EP2004/052600 WO2005040762A1 (en) 2003-10-21 2004-10-21 Method for automatic production of laser cutting lines in laser micro-dissection
EP04791269A EP1676116B8 (en) 2003-10-21 2004-10-21 Method for automatic production of laser cutting lines in laser micro-dissection
US10/576,453 US9217694B2 (en) 2003-10-21 2004-10-21 Method for automatically generating laser cutting lines in laser microdissection processes
DE102004051508A DE102004051508B4 (en) 2003-10-21 2004-10-21 Method for automatic generation of laser cut lines in laser microdissection
JP2006536088A JP2007509334A (en) 2003-10-21 2004-10-21 Automatic generation method of laser cutting line in laser micro incision

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10349411.1 2003-10-21
DE10349411 2003-10-21
DE102004051508A DE102004051508B4 (en) 2003-10-21 2004-10-21 Method for automatic generation of laser cut lines in laser microdissection

Publications (2)

Publication Number Publication Date
DE102004051508A1 DE102004051508A1 (en) 2005-06-16
DE102004051508B4 true DE102004051508B4 (en) 2006-09-21

Family

ID=34584752

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004051508A Revoked DE102004051508B4 (en) 2003-10-21 2004-10-21 Method for automatic generation of laser cut lines in laser microdissection

Country Status (1)

Country Link
DE (1) DE102004051508B4 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004022484B4 (en) 2004-05-07 2007-12-20 P.A.L.M. Microlaser Technologies Ag microscope stage
DE102004023262B8 (en) * 2004-05-11 2013-01-17 Carl Zeiss Microimaging Gmbh Method for processing a mass by means of laser irradiation and control system
US7993585B2 (en) * 2005-07-14 2011-08-09 Battelle Memorial Institute Biological and chemical monitoring
AT502855B1 (en) * 2005-11-30 2009-10-15 Oridis Biomed Forschungs Und E METHOD AND DEVICE FOR THE AUTOMATIC NON-DESTRUCTIVE ANALYSIS OF A VARIETY OF BIOLOGICAL SAMPLES
DE102005061561A1 (en) * 2005-12-22 2007-06-28 P.A.L.M. Microlaser Technologies Ag Microdessection method for separation of e.g. individual cells, of e.g. biological preparation, involves cutting preparation through laser irradiation to divide cut layer into low cut and non cut sections, where non cut section is removed
DE102006009564B4 (en) * 2006-02-28 2014-05-15 Carl Zeiss Microscopy Gmbh Method for processing a mass by means of a laser beam and corresponding device
DE102007016301A1 (en) * 2007-04-04 2008-10-09 P.A.L.M. Microlaser Technologies Gmbh Laser microdissection method and laser microdissection device
FI20085343A0 (en) * 2008-04-22 2008-04-22 Wallac Oy Method and apparatus for punching sample cards
DE102013217532A1 (en) * 2013-09-03 2015-03-05 Siemens Aktiengesellschaft Microdissection apparatus and method for isolating cells of a predetermined cell type
DE102014200448A1 (en) 2014-01-13 2015-07-16 Leica Microsystems Cms Gmbh Method for analyzing a sample with a microscope
CN111862071B (en) * 2020-07-29 2024-03-05 南通大学 Method for measuring CT value of lumbar 1 vertebral body based on CT image

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3836716A1 (en) * 1988-10-28 1990-05-03 Zeiss Carl Fa METHOD FOR EVALUATING CELL IMAGES
DE4211904A1 (en) * 1991-04-09 1992-11-19 Werner Maier Ascertaining type list for liquid sample examintion - using imaging pick=up and localising appts. for recognising and locating object within registered image data to enable automatic output from identifying appts.
DE19629141A1 (en) * 1996-07-19 1998-04-16 Bayer Ag Method and device for screening molecules for their individual binding behavior to at least one predetermined ligand
DE19815400A1 (en) * 1998-04-06 1999-10-14 Max Planck Gesellschaft Device and method for taking samples from polymeric carrier materials
DE69510925T2 (en) * 1994-03-01 2000-02-17 Us Gov Health & Human Serv INSULATION OF CELL MATERIAL BY MICROSCOPIC DISPLAY
WO2001033190A2 (en) * 1999-11-04 2001-05-10 Arcturus Engineering, Inc. Automated laser capture microdissection
WO2001073398A1 (en) * 2000-03-27 2001-10-04 P.A.L.M. Microlaser Technologies Ag Method for working a mass by means of laser radiation and a control system therefor
DE10043506C1 (en) * 2000-09-01 2001-12-06 Leica Microsystems Laser micro dissection of tissue samples for culture uses a laser beam to cut border around section, leaving connecting strip which is cut using single, focused laser impulse which is wider than previous cut, so that section falls out
DE10018251C2 (en) * 2000-04-13 2003-08-14 Leica Microsystems Laser cutting device with microscope

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3836716A1 (en) * 1988-10-28 1990-05-03 Zeiss Carl Fa METHOD FOR EVALUATING CELL IMAGES
DE4211904A1 (en) * 1991-04-09 1992-11-19 Werner Maier Ascertaining type list for liquid sample examintion - using imaging pick=up and localising appts. for recognising and locating object within registered image data to enable automatic output from identifying appts.
DE69510925T2 (en) * 1994-03-01 2000-02-17 Us Gov Health & Human Serv INSULATION OF CELL MATERIAL BY MICROSCOPIC DISPLAY
DE19629141A1 (en) * 1996-07-19 1998-04-16 Bayer Ag Method and device for screening molecules for their individual binding behavior to at least one predetermined ligand
DE19815400A1 (en) * 1998-04-06 1999-10-14 Max Planck Gesellschaft Device and method for taking samples from polymeric carrier materials
WO2001033190A2 (en) * 1999-11-04 2001-05-10 Arcturus Engineering, Inc. Automated laser capture microdissection
WO2001073398A1 (en) * 2000-03-27 2001-10-04 P.A.L.M. Microlaser Technologies Ag Method for working a mass by means of laser radiation and a control system therefor
DE10018251C2 (en) * 2000-04-13 2003-08-14 Leica Microsystems Laser cutting device with microscope
DE10043506C1 (en) * 2000-09-01 2001-12-06 Leica Microsystems Laser micro dissection of tissue samples for culture uses a laser beam to cut border around section, leaving connecting strip which is cut using single, focused laser impulse which is wider than previous cut, so that section falls out

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Prospekt Fa. P.A.L.M. (2003), PAL 11 Microbeam IP-US + Metafer P *

Also Published As

Publication number Publication date
DE102004051508A1 (en) 2005-06-16

Similar Documents

Publication Publication Date Title
EP1676116B1 (en) Method for automatic production of laser cutting lines in laser micro-dissection
EP1745270B2 (en) Method for machining a material by using laser irradiation, and control system
EP1946173B1 (en) Sample manipulation device
EP2870500B1 (en) Method for preparing for and carrying out the recording of image stacks of a sample from various orientation angles
EP1969340B1 (en) Microdissection method and microdissection system
EP3298380B1 (en) Method and examination system for examining and processing a microscopic sample
EP2920577B1 (en) Device and method for microscopy on a plurality of samples
DE102004051508B4 (en) Method for automatic generation of laser cut lines in laser microdissection
EP1562709B1 (en) Sample holder for a reception device receiving biological objects and microscope system designed to operate using one such sample holder
DE102005024063B3 (en) Method for optical scanning sample involves recording of individual image whereby in each case, it is evaluated by means of adaptive sensor unit with respect to contrast totally or partly
DE10018251A1 (en) Laser micro-dissection microscope has preparation table fixed in two axes under slice-action laser beam guided by wedge-shaped glass panels
EP1985987B1 (en) Laser micro-dissection procedure and device
WO2015000879A1 (en) Laser microdissection system and examination method for samples containing nucleic acid
EP2378341A1 (en) Method for collision-free positioning of a micromanipulation tool
EP1178344A1 (en) Method and apparatus for image restitution in scanning microscopy and scanning microscope
WO2014191383A1 (en) Method for laser microdissection and laser microdissection system
DE112015006181B4 (en) Charged particle beam device, alignment method for charged particle beam device, alignment program and storage medium
WO2015128447A1 (en) Laser micro-dissection system and laser micro-dissection method
EP1209504A2 (en) Method and device for scanning microscopic objects with a scanning system
WO2009015775A1 (en) Method and apparatus for treating a biological object with laser radiation
DE102020100587A1 (en) Method for checking a dissection process in a laser microdissection system and means for carrying it out
DE102013209964B4 (en) Laser microdissection system with user information unit and method for laser microdissection
DE102016105946A1 (en) Sample processing arrangement with laser microdissection system, communication device and manufacturing system

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: LEICA MICROSYSTEMS CMS GMBH, 35578 WETZLAR, DE

8363 Opposition against the patent
R011 All appeals rejected, refused or otherwise settled
R037 Decision of examining division or of federal patent court revoking patent now final