DE102016107900B4 - Verfahren und Vorrichtung zur Kantenermittlung eines Messobjekts in der optischen Messtechnik - Google Patents

Verfahren und Vorrichtung zur Kantenermittlung eines Messobjekts in der optischen Messtechnik Download PDF

Info

Publication number
DE102016107900B4
DE102016107900B4 DE102016107900.6A DE102016107900A DE102016107900B4 DE 102016107900 B4 DE102016107900 B4 DE 102016107900B4 DE 102016107900 A DE102016107900 A DE 102016107900A DE 102016107900 B4 DE102016107900 B4 DE 102016107900B4
Authority
DE
Germany
Prior art keywords
image data
measurement object
edge position
edge
light illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016107900.6A
Other languages
English (en)
Other versions
DE102016107900A1 (de
Inventor
Dominik Seitz
Nils Haverkamp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE102016107900.6A priority Critical patent/DE102016107900B4/de
Priority to US15/496,321 priority patent/US10360684B2/en
Priority to CN201710293320.4A priority patent/CN107339939B/zh
Publication of DE102016107900A1 publication Critical patent/DE102016107900A1/de
Application granted granted Critical
Publication of DE102016107900B4 publication Critical patent/DE102016107900B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zur Kantenermittlung eines Messobjekts (54) in der optischen Messtechnik, mit den Schritten:- Erfassen von ersten Bilddaten des Messobjekts (54) bei einer Auflicht-Beleuchtung (56);- Erfassen von zweiten Bilddaten des Messobjekts (54) bei einer Durchlicht-Beleuchtung (58);- Ermitteln einer ersten vorläufigen Kantenposition einer Kante (62) des Messobjekts (54) durch Auswertung der ersten Bilddaten;- Ermitteln einer zweiten vorläufigen Kantenposition der Kante (62) des Messobjekts (54) durch Auswertung der zweiten Bilddaten; und- Ermitteln der Kantenposition des Messobjekts (54) durch Mittelwertbildung zwischen der ersten und zweiten vorläufigen Kantenposition, wobei die Mittelwertbildung die Bildung eines gewichteten Mittels aufweist, wobei die Gewichtung abhängig ist von einer Abmessung des Messobjekts (54) parallel zu einer optischen Achse eines optischen Sensors (38), mit dem die ersten und zweiten Bilddaten erfasst werden, und/oder von einer Neigung einer Fläche (60) des Messobjekts (54) relativ zu der optischen Achse.

Description

  • Die vorliegende Erfindung betrifft zwei Verfahren zur Kantenermittlung eines Messobjekts in der optischen Messtechnik. Des Weiteren betrifft die vorliegende Erfindung ein optisches Koordinatenmessgerät sowie zwei Computerprogramme zur Ausführung der erfindungsgemäßen Verfahren.
  • Koordinatenmessgeräte, wie sie beispielsweise aus der DE 10 2012 103 554 A1 bekannt sind, dienen dazu, beispielsweise im Rahmen einer Qualitätssicherung Werkstücke zu überprüfen oder die Geometrie eines Werkstücks vollständig im Rahmen eines sogenannten „Reverse Engineering“ zu ermitteln. Darüber hinaus sind vielfältige weitere Anwendungsmöglichkeiten denkbar.
  • In Koordinatenmessgeräten können verschiedene Arten von Sensoren zur Anwendung kommen, um das zu vermessende Werkstück zu erfassen. Beispielsweise sind hierzu taktil messende Sensoren bekannt, wie sie von der Anmelderin unter der Produktbezeichnung „VAST XT“ oder „VAST XXT“ vertrieben werden. Hierbei wird die Oberfläche des zu vermessenden Werkstücks mit einem Taststift abgetastet, dessen Koordinaten im Messraum ständig bekannt sind. Ein derartiger Taststift kann auch entlang der Oberfläche eines Werkstücks bewegt werden, so dass in einem solchen Messvorgang im Rahmen eines sogenannten „Scanning-Verfahrens“ eine Vielzahl von Messpunkten in festgelegten bzw. bekannten zeitlichen Abständen erfasst werden können.
  • Darüber hinaus ist es bekannt, optische Sensoren einzusetzen, die ein berührungsloses Erfassen der Koordinaten eines Werkstücks ermöglichen. Die vorliegende Erfindung betrifft ein solches Koordinatenmessgerät mit einem optischen Sensor sowie ein zugehöriges Verfahren zur optischen Vermessung. Ein Beispiel für einen optischen Sensor ist der unter der Produktbezeichnung „ViScan“ von der Anmelderin vertriebene optische Sensor. Ein derartiger optischer Sensor kann in verschiedenen Arten von Messaufbauten oder Koordinatenmessgeräten verwendet werden. Beispiele für solche Koordinatenmessgeräte sind die von der Anmelderin vertriebenen Produkte „O-SELECT“ und „O-INSPECT“.
  • Für eine exakte Messung ist bei optischen Koordinatenmessgeräten eine entsprechende Beleuchtung des zu vermessenden Werkstücks zwingend notwendig. Neben einer sogenannten Durchlicht-Beleuchtung, bei der sich die Lichtquelle relativ zu dem optischen Sensor hinter dem Werkstück befindet, kann alternativ dazu eine sogenannte Auflicht-Beleuchtung verwendet werden, um das Werkstück bzw. Messobjekt auf seiner dem optischen Sensor zugewandten Oberseite zu beleuchten. Eine exakt auf das Messobjekt abgestimmte Beleuchtung ist insbesondere deshalb von immenser Wichtigkeit, da hierdurch der für die optische Erkennung des Messobjekts notwendige Kontrast von hell nach dunkel verbessert wird. Bei der erwähnten optischen Vermessung des Messobjekts wird das Messobjekt nämlich auf dem optischen Sensor abgebildet, also eine 2D-Projektion des Messobjekts auf der Sensorebene erzeugt.
  • Bei der Durchlicht-Beleuchtung erscheinen Bereiche auf dem optischen Sensor hell, die nicht vom Messobjekt verdeckt werden. Umgekehrt erscheinen Bereiche, die vom Messobjekt verdeckt werden, auf dem optischen Sensor dunkel.
  • Bei der Auflicht-Beleuchtung, insbesondere bei der Hellfeld-Auflicht-Beleuchtung, erscheinen Bereiche des Messobjekts, die das darauf einfallende Licht reflektieren, als helle Bereiche und Bereiche, die kein Licht reflektieren, als dunkle Bereiche.
  • Um die räumliche Koordinaten (2D oder 3D-Koordinaten) des Messobjekts erfassen zu können, müssen zunächst die Kanten bzw. die Position der Kanten des Messobjekts ermittelt werden. Bei den von dem optischen Sensor erfassten Bilddaten handelt es sich vorzugsweise um ein oder mehrere Graustufen-Bild(er). Die Kanten des Messobjekts, die für metrologische Zwecke ausgewertet werden sollen, werden dabei physikalisch bedingt nicht als binärer Sprung zwischen hell und dunkel auf dem optischen Sensor abgebildet, sondern als Graustufenverlauf zwischen hell und dunkel. Die Breite dieses Verlaufs wird durch verschiedene Faktoren, wie zum Beispiel die Lage des Messobjekts in der Schärfenebene oder auch die Qualität/NA des Messobjektivs beeinflusst.
  • Die messtechnische Herausforderung besteht nun darin, aus den von dem optischen Sensor erfassten Bilddaten die tatsächliche Position einer oder mehrerer Kanten des Messobjekts zu ermitteln. Genauer gesagt besteht die Herausforderung darin, den Graustufenverlauf, welcher von den Kanten des Messobjekts in den Bilddaten erzeugt wird, geeignet zu interpretieren bzw. dasjenige Kriterium anzuwenden, bei dem die aus dem Graustufenverlauf ermittelte Kantenlage der physikalischen Kantenlage am Messobjekt entspricht. Üblicherweise werden dazu voll- oder teilautomatisierte, softwarebasierte Auswertungsverfahren zur Interpretation der Bilddaten und Ermittlung der Kante gewählt. Bekannte Kantendetektionsalgorithmen sind beispielsweise Canny-Algorithmus und Laplace-Filter. Weitere bekannte Kantenoperatoren sind Sobel-Operator, Scharr-Operator, Prewitt-Operator und Roberts-Operator.
  • Es hat sich jedoch gezeigt, dass die oben beschriebene Art der Bildauswertung und Kantendetektion zu systematischen Fehlern führen kann. Zwar war diese Art von systematischem Fehler bis dato meist von geringerer Relevanz. Aufgrund neuerer Messmethoden und immer höherer geforderter Messgenauigkeit gewinnt diese Art der Messabweichung jedoch zunehmend mehr an Bedeutung. Ein geeigneter und kostengünstiger Weg zur Vermeidung dieser Art von systematischem Messfehler konnte bisher jedoch nicht gefunden werden.
  • Die DE 10 2009 039 254 A1 zeigt eine Vorrichtung zum Inspizieren etikettierter Gefäße. Diese Vorrichtung weist eine Beleuchtungseinrichtung sowie mindestens eine Kamera auf. Die Beleuchtungseinrichtung umfasst mindestens zwei getrennt ansteuerbare Leuchtschirme, die auf umfänglich im Wesentlichen entgegengesetzte Bereiche des zu inspizierenden Etiketts gerichtet werden, um diese selektiv im Durchlicht bzw. Auflicht zu bestrahlen.
  • Wiegers, L., Pfeifer, T.: „Automatisierte Bild- & Beleuchtungsoptimierung in der technischen Auflichtsichtprüfung", in: 47. Internationales Wissenschaftliches Kolloquium, Technische Universität Illmenau, Fakultät für Maschinenbau, 23.-26.09.2002 zeigt ein weiteres bekanntes Verfahren zur Bild- und Beleuchtungsoptimierung.
  • Vor diesem Hintergrund ist es eine Aufgabe der vorliegenden Erfindung, ein Verfahren sowie eine Vorrichtung zur Kantenermittlung eines Messobjekts in der optischen Messtechnik zur Verfügung zu stellen, welche die oben genannten Nachteile überwinden. Dabei ist es insbesondere eine Aufgabe, die systematischen Messfehler, welche bei der Kanteninterpretation während der optischen, metrologischen Auswertung von Bilddaten auftreten, soweit wie möglich zu minimieren.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein Verfahren gemäß Anspruch 1 mit den folgenden Schritten vorgeschlagen:
    • - Erfassen von ersten Bilddaten des Messobjekts bei einer Auflicht-Beleuchtung;
    • - Erfassen von zweiten Bilddaten des Messobjekts bei einer Durchlicht-Beleuchtung; und
    • - Ermitteln einer ersten vorläufigen Kantenposition einer Kante des Messobjekts durch Auswertung der ersten Bilddaten;
    • - Ermitteln einer zweiten vorläufigen Kantenposition der Kante des Messobjekts durch Auswertung der zweiten Bilddaten; und
    • - Ermitteln der Kantenposition des Messobjekts durch Mittelwertbildung zwischen der ersten und zweiten vorläufigen Kantenposition, wobei die Mittelwertbildung die Bildung eines gewichteten Mittels aufweist, wobei die Gewichtung abhängig ist von einer Abmessung des Messobjekts parallel zu einer optischen Achse eines optischen Sensors, mit dem die ersten und zweiten Bilddaten erfasst werden, und/oder von einer Neigung einer Fläche des Messobjekts relativ zu der optischen Achse.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein Verfahren gemäß Anspruch 3 mit den folgenden Schritten vorgeschlagen:
    • - Erfassen von ersten Bilddaten des Messobjekts bei einer Auflicht-Beleuchtung;
    • - Erfassen von zweiten Bilddaten des Messobjekts bei einer Durchlicht-Beleuchtung;
    • - Bildung von synthetisierten Bilddaten durch eine Synthese der ersten und zweiten Bilddaten, wobei sowohl die ersten als auch die zweiten Bilddaten vor der Bildung der synthetisierten Bilddaten normiert werden; und
    • - Ermitteln einer Position einer Kante des Messobjekts auf Basis der synthetisierten Bilddaten.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird ein Koordinatenmessgerät gemäß Anspruch 11 vorgeschlagen, mit:
    • - einem optischen Sensor zur Erfassung von Bilddaten eines Messobjekts;
    • - einer ersten Beleuchtungseinrichtung zur Erzeugung einer Auflicht-Beleuchtung des Messobjekts;
    • - einer zweiten Beleuchtungseinrichtung zur Erzeugung einer Durchlicht-Beleuchtung des Messobjekts; und
    • - einer Steuerungseinrichtung, welche dazu eingerichtet ist, das Messobjekt mit Hilfe der ersten Beleuchtungseinrichtung zu beleuchten und dabei mit Hilfe des optischen Sensors erste Bilddaten zu erfassen, und das Messobjekt mit Hilfe der zweiten Beleuchtungseinrichtung zu beleuchten und dabei mit Hilfe des optischen Sensors zweite Bilddaten zu erfassen, und wobei die Steuerungseinrichtung dazu eingerichtet ist, eine erste vorläufige Kantenposition einer Kante des Messobjekts durch Auswertung der ersten Bilddaten zu ermitteln, eine zweite vorläufige Kantenposition der Kante des Messobjekts durch Auswertung der zweiten Bilddaten zu ermitteln, und die Kantenposition des Messobjekts durch Mittelwertbildung zwischen der ersten und zweiten vorläufigen Kantenposition zu ermitteln, wobei die Mittelwertbildung die Bildung eines gewichteten Mittels aufweist, wobei die Gewichtung abhängig ist von einer Abmessung des Messobjekts parallel zu einer optischen Achse eines optischen Sensors, mit dem die ersten und zweiten Bilddaten erfasst werden, und/oder von einer Neigung einer Fläche des Messobjekts relativ zu der optischen Achse.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird ein Koordinatenmessgerät gemäß Anspruch 12 vorgeschlagen, mit:
    • - einem optischen Sensor zur Erfassung von Bilddaten eines Messobjekts;
    • - einer ersten Beleuchtungseinrichtung zur Erzeugung einer Auflicht-Beleuchtung des Messobjekts;
    • - einer zweiten Beleuchtungseinrichtung zur Erzeugung einer Durchlicht-Beleuchtung des Messobjekts; und
    • - einer Steuerungseinrichtung, welche dazu eingerichtet ist, das Messobjekt mit Hilfe der ersten Beleuchtungseinrichtung zu beleuchten und dabei mit Hilfe des optischen Sensors erste Bilddaten zu erfassen, und das Messobjekt mit Hilfe der zweiten Beleuchtungseinrichtung zu beleuchten und dabei mit Hilfe des optischen Sensors zweite Bilddaten zu erfassen, und wobei die Steuerungseinrichtung dazu eingerichtet ist, synthetisierte Bilddaten durch eine Synthese der ersten und zweiten Bilddaten zu bilden, wobei sowohl die ersten als auch die zweiten Bilddaten vor der Bildung der synthetisierten Bilddaten normiert werden, und wobei die Steuerungseinrichtung dazu eingerichtet ist, eine Position einer Kante des Messobjekts auf Basis der synthetisierten Bild-daten zu ermitteln.
  • Ferne werden zwei Computerprogramme mit jeweils einem Programmcode vorgeschlagen, der dazu ausgebildet ist, die oben genannten Verfahren mit Hilfe des genannten Koordinatenmessgeräts auszuführen, wenn der Programmcode in der Steuereinrichtung des Koordinatenmessgeräts ausgeführt wird.
  • Durch Messungen von kalibrierten Strukturen konnte gezeigt werden, dass die oben genannten, systematischen Messfehler, welche bei der optischen, metrologischen Kanteninterpretation häufig auftreten, dazu führen, dass die ermittelte Kantenposition im Vergleich zu der tatsächlichen Kantenposition grundsätzlich etwas zu weit „im Hellen“ liegt. Der von einer Kante des Messobjekts in den Bilddaten verursachte Graustufenverlauf von hell nach dunkel wird meist fälschlicherweise derart interpretiert, dass die ermittelte Kantenposition im Vergleich zu der realen Kantenposition etwas zu weit im hellen Bereich erscheint. Dieser Messfehler ist abhängig von der Art der Beleuchtung. Es hat sich beispielsweise gezeigt, dass eine kreisförmige Struktur mit Durchmesser 160 µm bei einer Durchlicht-Beleuchtung, bei der die kreisförmige Struktur selbst dunkel erscheint und der Bereich darum herum hell erscheint, um ca. 500 nm zu groß gemessen wird. Umgekehrt hat es sich gezeigt, dass dieselbe kreisförmige Struktur bei einer Auflicht-Beleuchtung, bei der die kreisförmige Struktur selbst hell erscheint und der Bereich darum herum dunkel erscheint, um 500 nm zu klein gemessen wird. Es versteht sich, dass dies nicht nur für kreisförmige Strukturen oder exakt kalibrierte Strukturen gilt.
  • Insgesamt hat es sich also herausgestellt, dass eine gewisse Art der Symmetrie der Messabweichungen bei einer Auflicht-Beleuchtung im Vergleich zu einer Durchlicht-Beleuchtung existiert. Ebenso hat es sich gezeigt, dass diese Art der Messabweichungen unabhängig vom Nenndurchmesser des Messobjekts ist, wobei als Nenndurchmesser die Größe des Messobjekts in der zweidimensionalen Messebene gemeint ist. Ein Fehler bei der Kalibrierung des Abbildungsmaßstabes oder ein Einfluss eventueller Wellenlängenunterschiede der Beleuchtungsarten konnte ebenfalls ausgeschlossen werden.
  • Die vorliegende Erfindung beruht daher auf der Idee, die oben genannten systematischen Messfehler bei der optischen Kanteninterpretation dadurch auszugleichen, dass sowohl Bilddaten des Messobjekts bei einer Auflicht-Beleuchtung erfasst werden als auch Bilddaten des Messobjekts bei einer Durchlicht-Beleuchtung erfasst werden. Erstgenannte Bilddaten werden vorliegend zur einfachen Unterscheidung als „erste Bilddaten“ bezeichnet. Die zweitgenannten Bilddaten, welche bei der Durchlicht-Beleuchtung erfasst werden, werden vorliegend als „zweite Bilddaten“ bezeichnet.
  • Die Kantenposition wird erfindungsgemäß basierend auf einer Auswertung ermittelt, in der sowohl die ersten als auch die zweiten Bilddaten verwendet werden. Aufgrund der Verwendung beider Bilddaten, also sowohl der bei Auflicht erfassten Bilddaten als auch der bei Durchlicht erfassten Bilddaten lassen sich die genannten Messfehler ausgleichen, da hierbei die Symmetrie der Messfehler bei einer Auflicht-Beleuchtung im Vergleich zu einer Durchlichtbeleuchtung ausgenutzt bzw. ausgemittelt werden kann.
  • In dem oben beschriebenen Beispiel erscheint die zu vermessende Struktur bei Durchlicht zu groß und bei Auflicht um exakt denselben oder zumindest nahezu denselben Betrag zu klein. Nutzt man bei der Auswertung also beide Bildinformationen, lässt sich die Kantenposition des Messobjekts sehr viel exakter als auf die ansonsten herkömmliche Art und Weise (mit den üblichen Kantendetektions-Algorithmen) ermitteln.
  • Gemäß der ersten Variante des Verfahrens gemäß der vorliegenden Erfindung weist der Verfahrensschritt des Ermittelns der Kantenposition des Messobjekts folgende Schritte auf: (i) Ermitteln einer ersten vorläufigen Kantenposition der Kante des Messobjekts durch Auswertung der ersten Bilddaten; (ii) Ermitteln einer zweiten vorläufigen Kantenposition der Kante des Messobjekts durch Auswertung der zweiten Bilddaten; und (iii) Ermitteln der Kantenposition des Messobjekts durch Mittelwertbildung zwischen der ersten und zweiten vorläufigen Kantenposition.
  • In dieser ersten Variante wird also zunächst die Kantenposition in dem ersten Bild ermittelt, welches bei Auflicht-Beleuchtung aufgenommen wurde. Separat davon wird dann die Kantenposition in dem zweiten Bild ermittelt, welches bei Durchlicht-Beleuchtung aufgenommen wurde. Anschließend wird zwischen den so ermittelten Kantenpositionen (vorliegend bezeichnet als erste und zweite „vorläufige Kantenposition“) ein Mittelwert gebildet.
  • Die Mittelwertbildung weist die Bildung eines gewichteten Mittels auf, wobei die Gewichtung dieses Mittels abhängig ist von einer Abmessung des Messobjekts parallel zu einer optischen Achse eines optischen Sensors, mit dem die ersten und zweiten Bilddaten erfasst werden, und/oder abhängig von einer Neigung einer Fläche des Messobjekts relativ zu der optischen Achse ist.
  • Die bei Kanten des Messobjekts, welche nicht parallel zur optischen Achse des optischen Sensors verlaufen, natürlicherweise auftretenden Abbildungsunterschiede bei Auflicht-Beleuchtung im Vergleich zur Durchlicht-Beleuchtung lassen sich somit ebenso ausgleichen. Es versteht sich jedoch, dass zur Definition der Gewichtung das Wissen zumindest über die Grobform des Messobjekts vorausgesetzt ist. Dies ist jedoch in der Praxis meist der Fall.
  • Es kann auch ein arithmetischer Mittelwert gebildet werden. Für das oben genannte Beispiel der Vermessung einer kreisförmigen Struktur mit Durchmesser 160 µm würde dies dann zu einem exakten Ergebnis der letztendlich ermittelten Kantenposition führen. Die Mittelwertbildung würde die jeweiligen Messfehler, die in diesem Beispielfall bei Durchlicht-Beleuchtung eine um 500 nm zu große Messung des Kreisstruktur-Durchmessers ergab und bei Auflicht eine um 500 nm zu kleine Messung des Kreisstruktur-Durchmessers ergab, zu einem exakten Ausgleich der Fehler auf null führen.
  • Selbst wenn sich die Messfehler bei Auflicht und Durchlicht nicht exakt symmetrisch zueinander verhalten, erzeugt diese Art von Mittelwertbildung zwischen der auf Basis der ersten Bilddaten gefundenen Kantenposition und der auf Basis der zweiten Bilddaten gefundenen Kantenposition dennoch eine Verbesserung der Genauigkeit, da gezeigt werden konnte, dass die interpretierte Kantenlage in beiden Fällen jeweils zu weit im hellen Bereich des Kantenübergangs ermittelt wird und diese Effekte bei einer Auflicht-Beleuchtung und einer Durchlicht-Beleuchtung entsprechend entgegengesetzt zueinander sind, da die hellen und dunklen Bereiche in einem bei Auflicht erzeugten Bild komplementär zu den hellen und dunklen Bereichen in einem bei Durchlicht erzeugten Bild sind.
  • Gemäß der zweiten Variante des erfindungsgemäßen Verfahrens weist der Verfahrensschritt des Ermittelns der Kantenposition des Messobjekts folgende Schritte auf: (i) Bildung von synthetisierten Bilddaten durch eine Synthese der ersten und zweiten Bilddaten; und (ii) Ermitteln der Kantenposition des Messobjekts auf Basis der synthetisierten Bilddaten.
  • Im Gegensatz zu der weiter oben erläuterten ersten Verfahrensvariante, in der die beiden Bilddaten zunächst separat voneinander ausgewertet werden, um in jedem der beiden Bilder die Kantenposition separat zu bestimmen und dann zu mitteln, werden die Datensätze der beiden Bilder in der vorliegenden Ausgestaltung zunächst vereint zu einem synthetisierten Datensatz, um dann die Kantenposition des Messobjekts in dem synthetisierten Datensatz zu ermitteln. Beide Bilddaten, also sowohl die ersten als auch die zweiten Bilddaten werden dazu zunächst normiert. Diese Normierung umfasst eine Normierung des Dynamikbereichs der ersten Bilddaten und des Dynamikbereichs der zweiten Bilddaten auf einen gleichen gemeinsamen Wert.
  • Unter einem Dynamikbereich von Bilddaten wird vorliegend der Quotient oder die Differenz aus größtem und kleinstem von Rauschen bzw. Körnung unterscheidbaren Grauwert verstanden. Zur Eliminierung des Rauschens und kleineren Sensordefekten werden die Bilddaten daher vor der Normierung vorzugsweise derart gefiltert, dass eventuelle Grauwert-Anomalien bzw. Grauwert-Ausreißer hinausgefiltert werden, beispielsweise durch einen Gauß-Filter. Die in den Bilddaten verbleibenden Grauwerte werden dann insoweit normiert, dass die verbleibenden maximalen Grauwerte sowohl in den ersten Bilddaten als auch in den zweiten Bilddaten auf einen gemeinsamen maximalen Wert und die minimalen Grauwerte in beiden Bilddaten auf einen gemeinsamen minimalen Wert gesetzt werden. Die Grauwerte der übrigen Pixel, welche zwischen den normierten maximalen bzw. minimalen Grauwerten liegen, werden in beiden Bilddaten entsprechend skaliert.
  • Somit entstehen, abgesehen von den erwähnten systematischen Messfehlern, exakte Komplementärbilder. Mit anderen Worten: das normierte, unter Auflicht-Beleuchtung aufgenommene erste Bild des Messobjekts ist eine Komplementärbild zu dem normierten bei Durchlicht-Beleuchtung aufgenommenen zweiten Bild des Messobjekts. Abweichungen von diesem Komplementär-Verhalten ergeben sich nur noch durch die erwähnten systematischen Messfehler oder Asymmetrien bzw. Kantenschrägstellungen des Messobjekts relativ zur optischen Achse.
  • In der zuletzt genannten, zweiten Verfahrensvariante, welche sich die Synthese der ersten und zweiten Bilddaten zunutze macht, wird die Kantenposition des Messobjekts vorzugsweise dadurch ermittelt, dass in den synthetisierten Bilddaten Positionen identifiziert werden, an denen Grauwerte in den normierten ersten Bilddaten den Grauwerten in den normierten zweiten Bilddaten entsprechen. Vorzugsweise wird zur Bildung der synthetisierten Bilddaten pixelweise die Differenz der Grauwerte zwischen den Pixeln der normierten ersten Bilddaten und den an den entsprechenden Bildpositionen angeordneten Pixeln der normierten zweiten Bilddaten gebildet. Diese Grauwert-Differenz wird pixelweise für alle entsprechenden Pixel in den ersten und zweiten Bilddaten gebildet. Die Position der Kante des Messobjekts kann dann dort angenommen werden, wo die Grauwerte des so erhaltenen synthetisierten Differenz-Bildes null oder zumindest annähernd null sind.
  • Es versteht sich jedoch, dass die Bildung des synthetisierten Bildes streng genommen gar nicht notwendig ist, da das oben genannte Kriterium der Identifikation von Pixelpositionen, an denen die Grauwert-Differenz beider Bilddaten gleich null ist, einer Identifikation von Pixelpositionen, an denen die Grauwerte in beiden Bilddaten gleich groß sind, gleichkommt. Die Bildung von synthetisierten Bilddaten ist für diese Art von Auswertung daher nicht zwingend notwendig.
  • Gemäß einer weiteren Ausgestaltung weist das erfindungsgemäße Verfahren folgende weitere Schritte auf: (i) Wenden des Messobjekts um eine horizontale Achse; (ii) Erfassen von dritten Bilddaten des gewendeten Messobjekts bei einer Auflicht-Beleuchtung; (iii) Erfassen von vierten Bilddaten des gewendeten Messobjekts bei einer Durchlicht-Beleuchtung; (iv) Ermitteln einer weiteren Position der Kante des Messobjekts basierend auf einer Auswertung, in der sowohl die dritte als auch die vierten Bilddaten verwendet werden; und (v) Vergleichen der Kantenposition des Messobjekts, welche basierend auf den ersten und zweiten Bilddaten ermittelt wurde, mit der weiteren Kantenposition des Messobjekts, welche basierend auf den dritten und vierten Bilddaten ermittelt wurde.
  • In dieser Ausgestaltung werden von dem Messobjekt also sowohl in der ursprünglichen Position zwei Bilder (erste und zweite Bilddaten) erfasst als auch in der um vorzugsweise 180° gewendeten Position des Messobjekts zwei Bilder (dritte und vierte Bilddaten) erfasst. Für beide Positionen des Messobjekts wird jeweils ein Bild bei Auflicht-Beleuchtung (erste und dritte Bilddaten) und ein Bild bei Durchlicht-Beleuchtung (zweite und vierte Bilddaten) erzeugt. Die Kantenposition wird dann basierend auf einer der oben genannten Varianten einmal unter Verwendung der ersten und zweiten Bilddaten ermittelt und separat dazu unter Verwendung der dritten und vierten Bilddaten ermittelt. Die beiden dabei ermittelten Kantenpositionen werden dann miteinander verglichen. Dieser Vergleich ermöglicht es, zu prüfen, ob die sich an die ermittelte Kante anschließende Fläche parallel zu der optischen Achse verläuft oder nicht. Falls eine solche Fläche nämlich relativ zur optischen Achse geneigt ist, ergibt sich notwendigerweise ein Unterschied der Kantenposition, welche basierend auf den ersten und zweiten Bilddaten ermittelt wurde, im Vergleich zu der Kantenposition, welche auf Basis der dritten und vierten Bilddaten ermittelt wurde (vorliegend als „weitere Position der Kante des Messobjekts“ bezeichnet).
  • Es versteht sich, dass die Ermittlung der weiteren Kantenposition auf Basis der dritten und vierten Bilddaten auf die gleiche Weise erfolgen kann wie dies oben anhand der Kantenfindung auf Basis der ersten und zweiten Bilddaten beschrieben wurde, nämlich entweder durch separate Ermittlung der Kantenpositionen in den dritten Bilddaten sowie in den vierten Bilddaten und anschließende Mittelung zwischen den so separat ermittelten, vorläufigen Kantenpositionen, oder durch Bildung von synthetisierten Bilddaten und Ermitteln der Kantenposition des Messobjekts auf Basis der synthetisierten Bilddaten.
  • Um herauszufinden, ob die Fläche, welche sich an die zu ermittelnde Kante des Messobjekts anschließt, parallel zu der optischen Achse des Sensors verläuft oder geneigt dazu ist, können in oben beschriebenem Szenario auch die beiden bei Auflicht-Beleuchtung aufgenommenen Bilddaten sowie die beiden bei Durchlicht-Beleuchtung aufgenommenen Bilddaten jeweils miteinander verglichen werden. In diesem Fall würden man also die ersten Bilddaten mit den dritten Bilddaten vergleichen und die zweiten Bilddaten mit den vierten Bilddaten vergleichen. Genauer gesagt wird dann die auf Basis der ersten Bilddaten ermittelte Kantenposition mit der Kantenposition verglichen, welche auf Basis der dritten Bilddaten ermittelt wurde. Ebenso wird die auf Basis der zweiten Bilddaten ermittelte Kantenposition mit der Kantenposition verglichen, welche auf Basis der vierten Bilddaten ermittelt wurde. Die sich aus diesen beiden Vergleichen jeweils ergebenden Unterschiede sind notwendigerweise ausschließlich bedingt durch die Geometrie des Messobjekts.
  • Die zuletzt genannte Ausgestaltung des erfindungsgemäßen Verfahrens würde also folgende weitere Schritte umfassen: (i) Ermitteln einer ersten vorläufigen Kantenposition der Kante des Messobjekts durch Auswertung der ersten Bilddaten; (ii) Ermitteln einer zweiten vorläufigen Kantenposition der Kante des Messobjekts durch Auswertung der zweiten Bilddaten; (iii) Wenden des Messobjekts um eine horizontale Achse; (iv) Erfassen von dritten Bilddaten des gewendeten Messobjekts bei einer Auflicht-Beleuchtung; (v) Erfassen von vierten Bilddaten des gewendeten Messobjekts bei einer Durchlicht.-Beleuchtung; (vi) Ermitteln einer dritten vorläufigen Kantenposition der Kante des Messobjekts durch Auswertung der dritten Bilddaten; (vii) Ermitteln einer vierten vorläufigen Kantenposition der Kante des Messobjekts durch Auswertung der vierten Bilddaten; (viii) Vergleichen der ersten vorläufigen Kantenposition mit der dritten vorläufigen Kantenposition; und (ix) Vergleichen der zweiten vorläufigen Kantenposition mit der vierten vorläufigen Kantenposition.
  • Gemäß einer weiteren Ausgestaltung weist das erfindungsgemäße Verfahren vorzugsweise zusätzlich folgenden Schritt auf: Bestimmen von räumlichen Koordinaten des Messobjekts basierend auf der ermittelten Kante des Messobjekts.
  • Das beschriebene Vorgehen zur Kantenidentifikation wird also vorzugsweise nicht nur für eine, sondern für mehrere, besonders bevorzugt für alle Kanten des Messobjekts durchgeführt. Sobald die Umrisskanten des Messobjekts identifiziert sind, können dann die räumlichen Koordinaten des Messobjekts bestimmt werden. Es versteht sich, dass dazu, wie schon zur Ermittlung der Kantenposition, den Bilddaten ein entsprechend normiertes Punkteraster zugewiesen wird, anhand dessen sich die Pixeldaten in SI-Daten umrechnen lassen, so dass sich die in den Bilddaten vorkommenden Pixelabstände in reale Abstände umrechnen lassen und einem bekannten Bezugskoordinatensystem zugewiesen werden können.
  • Bei der Auflicht-Beleuchtung handelt es sich vorzugsweise um eine Hellfeld-Auflicht-Beleuchtung. Bei der Durchlicht-Beleuchtung handelt es sich vorzugsweise um eine Hellfeld-Durchlicht-Beleuchtung.
  • Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen. Ebenso versteht es sich, dass die vorstehend genannten Ausgestaltungen, welche vorwiegend in Bezug auf das erfindungsgemäße Verfahren beschrieben wurden, in entsprechender Weise auch für die erfindungsgemäße Vorrichtung gelten bzw. in dieser realisiert sein können.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen:
    • 1A eine perspektivische Ansicht eines Ausführungsbeispiels eines Koordinatenmessgeräts;
    • 1B eine schematische Darstellung eines optischen Sensors mit dazugehöriger Beleuchtungseinrichtung, welche in dem in 1A dargestellten Koordinatenmessgerät zum Einsatz kommen kann, wobei die schematische Darstellung eine Draufsicht von unten auf den optischen Sensor und die dazugehörige Beleuchtungseinrichtung darstellt;
    • 2 ein schematisches Ablaufdiagramm zur Veranschaulichung eines ersten Ausführungsbeispiels des erfindungsgemäßen Verfahrens;
    • 3 ein schematisches Ablaufdiagramm zur Veranschaulichung eines zweiten Ausführungsbeispiels des erfindungsgemäßen Verfahrens;
    • 4 ein schematisches Ablaufdiagramm zur Veranschaulichung eines dritten Ausführungsbeispiels des erfindungsgemäßen Verfahrens;
    • 5A u. 5B ein bei einer Auflicht-Beleuchtung und einer Durchlicht-Beleuchtung aufgenommenes Bild einer beispielhaften Teststruktur;
    • 6A u. 6B die in den 5A und 5B gezeigten Bilder mit einer angedeuteten, darin ermittelten Kante;
    • 7A u. 7B eine Prinzipskizze zur schematischen Veranschaulichung der Auflicht-Beleuchtung und Durchlicht-Beleuchtung eines beispielhaften Messobjekts; und
    • 8A u. 8B eine Prinzipskizze zur schematischen Veranschaulichung der Auflicht-Beleuchtung und Durchlicht-Beleuchtung des beispielhaft gezeigten Messobjekts, wobei das Messobjekt im Vergleich zu der in den 7A und 7B gezeigten Situation um 180° gewendet ist.
  • 1A zeigt ein Koordinatenmessgerät gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Koordinatenmessgerät ist darin in seiner Gesamtheit mit der Bezugsziffer 10 bezeichnet.
  • Das Koordinatenmessgerät 10 weist eine Werkstückaufnahme 12 auf, auf der das zu vermessende Werkstück bzw. Messobjekt platziert werden kann. Diese Werkstückaufnahme 12 ist auf einem Messtisch 14 angeordnet. Je nach Ausführungsform des Koordinatenmessgeräts kann es sich hierbei um einen fixen, also unbeweglichen Messtisch handeln. In der in 1A dargestellten Ausführungsform handelt es sich jedoch um einen Messtisch 14, welcher mit Hilfe einer Positioniereinrichtung 16 entlang zweier orthogonal zueinander ausgerichteter Koordinatenachsen 18, 20 in der Messtischebene linear verfahrbar ist. Die erste Koordinatenachse 18 wird normalerweise als X-Achse und die zweite Koordinatenachse 20 als Y-Achse bezeichnet.
  • Der Messtisch 14 ist bei dem in 1 gezeigten Ausführungsbeispiel des Koordinatenmessgeräts 10 in einer sogenannten Kreuztischbauweise realisiert. Er weist eine entlang der ersten Koordinatenachse 18 (X-Achse) linear verfahrbaren X-Tisch 22 auf, auf dessen Oberseite die Werkstückaufnahme 12 angeordnet ist. Der X-Tisch 22 liegt wiederum auf einem parallel dazu angeordneten Y-Tisch 24 auf, mit Hilfe dessen die Werkstückaufnahme 12 entlang der zweiten Koordinatenachse 20 (Y-Achse) linear verfahrbar ist. Der Y-Tisch 24 wiederum ist auf einer massiven Basisplatte 26 angeordnet, welche häufig auch als Grundplatte 26 bezeichnet wird. Die Basisplatte 26 dient als Trägerstruktur für den Messtisch 14 und ist meist integriert mit einem Maschinengestell 28 verbunden.
  • Das Maschinengestell 28 weist zusätzlich zu dem die Basisplatte 26 stützenden unteren Teil auch einen oberen Teil 28' auf, welcher meist, aber nicht zwingend notwendigerweise mit dem unteren Teil des Maschinengestells 28 integriert verbunden ist. Dieser obere Teil 28' des Maschinengestells 28 wird häufig auch als Z-Säule bezeichnet.
  • Bei dem in 1A gezeigten Ausführungsbeispiel des Koordinatenmessgeräts 10 ist an der Z-Säule 28' ein sogenannter Z-Schlitten 30 linear verschiebbar angebracht. Dieser Z-Schlitten 30 ist vorzugsweise mit Hilfe einer Linearführung innerhalb eines Schlittengehäuses 32 geführt, das mit der Z-Säule 28 fix verbunden ist. Der Z-Schlitten 30 ist somit entlang einer dritten Koordinatenachse 34, welche meist als Z-Achse bezeichnet wird, orthogonal zu dem Messtisch 14 bzw. orthogonal zu den beiden anderen Koordinatenachsen 18, 20 verfahrbar. Auf der dem Messtisch 14 zugewandten Unterseite des Z-Schlittens 30 ist ein Messkopf 36 angeordnet. Je nach Ausführungsform des Koordinatenmessgeräts 10 weist der Messkopf 36 einen oder mehrere Sensoren auf. In dem vorliegenden Fall weist der Messkopf 36 einen optischen Sensor 38 auf, mit Hilfe dessen sich das zu vermessende Messobjekt, welches auf der Werkstückaufnahme 12 platziert ist, optisch erfassen lässt. Mit Hilfe dieses optischen Sensors 38 lassen sich Bilddaten des Messobjekts erfassen. Hierzu wird vorzugsweise eine Kamera mit hochauflösender Optik verwendet. Unter Bilddaten werden vorliegend allgemein Bilder oder Bildsequenzen des Messobjekts verstanden.
  • Das Koordinatenmessgerät 10 weist ferner eine erste Beleuchtungseinrichtung 40 (siehe 1B) zur Erzeugung einer Auflicht-Beleuchtung des Messobjekts auf. Mit Hilfe dieser ersten Beleuchtungseinrichtung 40 wird das auf dem Messtisch 14 bzw. auf der Werkstückaufnahme 12 platzierte Messobjekt während der Erfassung der Bilddaten in geeigneter Weise beleuchtet. Die Beleuchtung mit Hilfe der ersten Beleuchtungseinrichtung 40 erfolgt, wie dies für Auflicht-Beleuchtungen typisch ist, aus Sicht des Messobjekts von der Objektivseite aus, also von der Seite des optischen Sensors 38. Die Beleuchtungseinrichtung 40 weist dazu eines oder mehrere Leuchtmittel auf, welche vorzugsweise um den optischen Sensor 38 herum angeordnet sind. Es versteht sich, dass die in 1B schematisch dargestellte Anordnung der Leuchtmittel der Beleuchtungseinrichtung 40 lediglich eine von vielen Möglichkeiten ist.
  • Ferner weist das Koordinatenmessgerät 10 noch eine zweite Beleuchtungseinrichtung 42 zur Erzeugung einer Durchlicht-Beleuchtung des Messobjekts auf. Die Beleuchtung durch diese zweite Beleuchtungseinrichtung 42 erfolgt, wie dies für Durchlicht-Beleuchtungen typisch ist, vom optischen Sensor 38 aus gesehen von hinter dem Messobjekt. Die Beleuchtungseinrichtung 42 ist daher vorzugsweise in den Messtisch 14 integriert oder unter diesem angeordnet. Die Werkstückaufnahme 12 ist aus diesem Grund vorzugsweise lichtdurchlässig.
  • Das Koordinatenmessgerät 10 weist ferner Bedien- und Schaltinstrumente 44 auf, mit denen ein Bediener den optischen Sensor 38 sowie die Werkstückaufnahme 12 manuell steuern bzw. positionieren kann.
  • Eine Steuereinheit bzw. Steuerungseinrichtung 46 (beide Begriffe werden vorliegend äquivalent verwendet) ist gemäß des in 1A gezeigten Ausführungsbeispiels in einem Aufnahmebehälter 48 angeordnet, welche an der Z-Säule 28' angebracht ist. Diese Steuereinheit 46 dient der Steuerung einer Vielzahl von Komponenten des Koordinatenmessgeräts 10. Unter anderem ist sie auch dazu eingerichtet, die erfindungsgemäßen Verfahren auszuführen. Diesbezüglich ist in der Steuereinheit 46 vorzugsweise eine entsprechende Software mit einem Programmcode installiert, der dazu ausgebildet ist, die erfindungsgemäßen Verfahren auszuführen, wenn der Programmcode in der Steuereinheit 46 ausgeführt wird.
  • Es versteht sich, dass das in 1A gezeigte Koordinatenmessgerät 10 lediglich eines von vielen möglichen Ausführungsbeispielen eines Koordinatenmessgeräts ist, in welchem die vorliegende Erfindung implementierbar ist. Der Messtisch 14 kann grundsätzlich auch unbeweglich ausgestaltet sein. Auch die Art und Weise wie der Messkopf 36 am Maschinengestell 28 aufgehängt ist, lässt sich grundsätzlich anders ausführen. Insbesondere die Kinematik, mit Hilfe dessen der Messkopf 36 und das Messobjekt relativ zueinander bewegt werden, kann konstruktiv anders ausgeführt sein. Für die vorliegende Erfindung jedoch notwendige Komponenten des Koordinatenmessgeräts 10 sind insbesondere der optische Sensor 38, die beiden Beleuchtungseinrichtungen 40, 42 sowie die Steuerungseinrichtung 46, deren Funktion nachfolgend näher erläutert wird.
  • Das erfindungsgemäße Verfahren, welches vorzugsweise software- und/oder hardwarebasiert in der Steuerungseinrichtung 46 des Koordinatenmessgeräts 10 implementiert ist, ist in einer Ausführungsvariante in 2 schematisch in einem Ablaufdiagramm dargestellt. Hierbei wird in einem ersten Verfahrensschritt S10.1 das zu vermessende Messobjekt zunächst auf der Werkstückaufnahme 12 positioniert und dann mit Hilfe der ersten Beleuchtungseinrichtung 40 ein an das Messobjekt individuell angepasstes Auflicht-Beleuchtungsszenario erzeugt. Im Schritt S12.1 werden dann mit Hilfe des optischen Sensors 38 erste Bilddaten des so beleuchteten Messobjekts erfasst. Diese unter Auflicht-Beleuchtung aufgenommenen Bilddaten des Messobjekts werden im Schritt 14.1 in der Steuerungseinrichtung 46 ausgewertet.
  • Die Steuerungseinrichtung 46 ist dazu eingerichtet, die ersten Bilddaten derart auszuwerten, dass sich darin die Position und Lage einer oder mehrerer Kanten des Messobjekts ermitteln lassen. Diese Art der Auswertung zur Kantenermittlung des Messobjekts ist in der optischen Messtechnik der übliche Messschritt, welcher der anschließenden Ermittlung der räumlichen Koordinaten des Messobjekts vorgeschaltet ist. Üblicherweise werden hierzu in der Bildverarbeitung gängige Kantendetektionsalgorithmen eingesetzt, wie zum Beispiel der Canny-Edge-Filter.
  • Ergebnis des Verfahrensschritts S14.1 ist also eine ermittelte Kantenposition des Messobjekts. Wenngleich in der Praxis meist nicht nur die Position einer Kante eines Messobjekts zu ermitteln ist, sondern meist mehrere oder alle Kanten des Messobjekts zu ermitteln sind, wird vorliegend der Einfachheit halber nur von der Ermittlung einer Kantenposition gesprochen, da dies der denkbar einfachste Fall ist.
  • Die Schritte S10.1 - S14.1 werden anschließend in modifizierter Form wiederholt (siehe Verfahrensschritte S10.2 - S14.2). Die Verfahrensschritte S10.2 - S14.2 sind insofern modifiziert, als dass das Messobjekt nun nicht mehr bei einer Auflicht-Beleuchtung optisch erfasst wird, sondern bei einer Durchlicht-Beleuchtung. Im Schritt S10.2 wird mit Hilfe der zweiten Beleuchtungseinrichtung 42 eine Durchlicht-Beleuchtung des Messobjekts erzeugt. Im Schritt S12.2 werden zweite Bilddaten des Messobjekts mit Hilfe des optischen Sensors 38 erfasst. Diese zweiten, bei Durchlicht-Beleuchtung erfassten Bilddaten werden wiederum in der Steuerungseinrichtung 46 entsprechend ausgewertet. Im Verfahrensschritt S14.2 wird, ähnlich wie im Verfahrensschritt S14.1, die Kantenposition des Messobjekts ermittelt, nun jedoch anhand der im Schritt 12.2 erfassten zweiten Bilddaten.
  • Da die in den Schritten S14.1 und S14.2 ermittelten Kantenpositionen im Folgenden weiterverarbeitet bzw. ausgewertet werden, werden diese vorliegend als „erste vorläufige Kantenposition“ (Ergebnis aus Schritt S14.1) und „zweite vorläufige Kantenposition“ (Ergebnis aus Schritt S14.2) bezeichnet.
  • Es versteht sich, dass die Verfahrensschritte S10.2 - S14.2 auch vor den Verfahrensschritten S10.1 - S14.1 erfolgen können, da es grundsätzlich egal ist, ob das Messobjekt zunächst im Auflicht-Beleuchtungsszenario oder im Durchlicht-Beleuchtungsszenario optisch erfasst wird. Diese Schritte sind daher in 2 schematisch parallel zueinander dargestellt.
  • Im Verfahrensschritt S16 wird dann die „endgültige“ Kantenposition bestimmt, und zwar durch Mittelwertbildung zwischen der im Verfahrensschritt S14.1 ermittelten ersten vorläufigen Kantenposition und der im Verfahrensschritt S14.2 ermittelten zweiten vorläufigen Kantenposition. Vorzugsweise geschieht dies anhand der Bildung eines arithmetischen Mittels zwischen beiden vorläufigen Kantenpositionen. Je nach Dicke und/oder Geometrie des Messobjekts können die beiden Bilddaten bzw. die beiden vorläufigen Kantenpositionen auch unterschiedlich gewichtet werden. Wie oben bereits erwähnt, wird durch diese Art der Mittelwertbildung ein systematischer Fehler bei der Kanteninterpretation ausgemittelt bzw. reduziert.
  • Im letzten Schritt S18 werden dann die Koordinaten des Messobjekts auf Basis der zuvor detektierten Kantenpositionen ermittelt.
  • 5A zeigt eine Abbildung einer beispielhaften Kalibrierstruktur, welche bei einer Auflicht-Beleuchtung aufgenommen wurde. 5B zeigt die entsprechende Abbildung der Kalibrierstruktur, welche bei der Durchlicht-Beleuchtung aufgenommen wurde.
  • Die in 5A hell erscheinenden Strukturen erscheinen in 5B dunkel und umgekehrt. Dies ist insbesondere darauf zurückzuführen, dass bei einer Hellfeld-Auflicht-Beleuchtung Bereiche des Messobjekts hell erscheinen, die das darauf einfallende Licht reflektieren, wohingegen Bereiche, die kein Licht reflektieren, als dunkel erscheinen. Umgekehrt erscheinen bei der Durchlicht-Beleuchtung Bereiche auf dem optischen Sensor 38 hell, die nicht von dem Messobjekt verdeckt werden, wohingegen Bereiche, die von dem Messobjekt verdeckt werden, auf dem optischen Sensor 38 dunkel erscheinen.
  • Die 6A und 6B veranschaulichen schematisch den in solchen Fällen typischerweise auftretenden Fehler, welcher systematischer Natur ist. Es hat sich nämlich herausgestellt, dass die herkömmlichen Kantendetektionsalgorithmen, welche eine physikalisch falsche bzw. den zu vermessenden Kantengeometrien nicht angepasste Kantenverlaufsinterpretation anwenden, die Kante typischerweise zu weit „im Hellen“ lokalisieren. Der Durchmesser des kleineren Rings 50 wird daher bei Auflicht-Beleuchtung (siehe 6A) typischerweise etwas zu groß gemessen. Der größere Ring 52 wird dagegen bei Auflicht-Beleuchtung (siehe 6A) typischerweise zu klein gemessen. Umgekehrt wird der Durchmesser des kleineren Rings 50' bei Durchlicht-Beleuchtung typischerweise zu klein gemessen und der Durchmesser des größeren Rings 52' typischerweise etwas zu groß gemessen (siehe 6B).
  • Durch das anhand von 2 beschriebene erfindungsgemäße Verfahren werden diese Messfehler ausgemittelt und somit deutlich verringert. Bei der in den 5A, 5B und 6A, 6B dargestellten Kalibrierstruktur handelt sich beispielsweise um eine Struktur, in der der kleinere Kreis 50 einen tatsächlichen Durchmesser von 120 µm hat und der größere Kreis 52 einen tatsächlichen Durchmesser von 160 µm hat. Die einzelne Auswertung der Bilddaten bei Auflicht (6A) bzw. Durchlicht (6B) ergaben bei einem Versuch der Anmelderin jedoch folgende Ergebnisse: D120,AI = 120.7 µm; D120,DI = 119.5 µm; D160,AI = 159.4 µm; D160,DI = 160.7 µm, wobei AI für Auflicht und DI für Durchlicht steht. Die im Verfahrensschritt S16 durchgeführte Mittelwertbildung würde in diesem Fall also dann ermittelte Durchmesser von D120 = (120.7 µm + 199.5 µm) : 2 = 120.1 µm und D160 = (159.4 µm + 160.7 µm) : 2 = 160.05 µm ergeben. Die mit Hilfe des erfindungsgemäßen Verfahrens ermittelten Durchmesser der Kreise 50 und 52 der Kalibrierstruktur hätten somit lediglich eine Messabweichung von 100 nm bzw. 50 nm. Im Vergleich zu den aus den einzelnen Bildern ermittelten Durchmessern bzw. Kantenpositionen, welche eine Messabweichung im Bereich von 400-700 nm haben, ist dies also eine deutliche Verbesserung.
  • Das in 3 schematisch dargestellte Ausführungsbeispiel des erfindungsgemäßen Verfahrens folgt dem gleichen Lösungsgedanken, nämlich ebenfalls des Ausmittelns der systematischen Messfehler durch eine Auswertung, bei der sowohl die bei Auflicht erfassten Bilddaten (erste Bilddaten) als auch die bei Durchlicht erfassten Bilddaten (zweite Bilddaten) verwendet werden. Allerdings werden bei dieser Ausführungsform nicht zunächst in beiden Bilddaten separat vorläufige Kantenpositionen ermittelt, welche anschließend gemittelt werden. Stattdessen werden die Bilddaten normiert, synthetisiert und anschließend die Kantenposition in den synthetisierten Bilddaten ermittelt.
  • Im Einzelnen geschieht dies wie folgt: die Schritte S100.1, S100.2, S102.1 und S102.2 entsprechen den Schritten S10.1, S10.2, S12.1 und S12.2 des Verfahrens gemäß des ersten Ausführungsbeispiels. Auch hier werden sowohl erste als auch zweite Bilddaten des Messobjekts, einmal bei Auflicht-Beleuchtung und einmal bei Durchlicht-Beleuchtung erfasst.
  • In den Schritten S104.1 und S104.2 werden die ersten und zweiten Bilddaten jeweils normiert. Beide Bilddaten werden dabei auf den gleichen Dynamikbereich normiert, so dass der in den ersten Bilddaten vorgenommene minimale Grauwert auch dem in den zweiten Bilddaten vorkommenden minimalen Grauwert entspricht, und der in den ersten Bilddaten vorkommende maximale Grauwert auch dem in den zweiten Bilddaten vorkommenden maximalen Grauwert entspricht. Vor oder gleichzeitig mit dieser Normierung werden Grauwert-Ausreißer, welche aufgrund von Rauschen, Körnung oder kleineren Defekten des optischen Sensors 38 auftreten, herausgefiltert.
  • Nach den Verfahrensschritten S104.1 und S104.2 entsprechen die normierten ersten Bilddaten, welche bei Auflicht erzeugt wurden, im Wesentlichen der Invertierung der normierten zweiten Bilddaten, welche bei Durchlicht erzeugt wurden.
  • Im Verfahrensschritt S106 werden die normierten ersten und die normierten zweiten Bilddaten dann entweder synthetisiert, wobei durch Differenzbildung der beiden Bilddaten synthetisierte Bilddaten gebildet werden, oder es erfolgt ein Vergleich der Grauwerte der normierten ersten und zweiten Bilddaten miteinander.
  • In dem ersten Fall wird in Schritt S108 die Kantenposition dadurch ermittelt, indem Positionen in den synthetisierten Bilddaten ermittelt werden, an denen die Grauwerte der synthetisierten Differenz-Bilddaten null oder zumindest annähernd null sind. Es versteht sich, dass die Ermittlung der exakten Position hierbei vorzugsweise durch eine geeignete Interpolation erfolgt.
  • In dem zweiten geschilderten Fall wird in Schritt S108 die Kantenposition dadurch ermittelt, dass Positionen identifiziert werden, an denen die Grauwerte sowohl in den normierten ersten Bilddaten als auch in den normierten zweiten Bilddaten einander entsprechen. Es versteht sich, dass beide Alternativen exakt das gleiche Ergebnis liefern sollten, da die Suche nach Positionen mit Grauwerten gleicher Größe in beiden normierten Bilddaten der Suche von Positionen, an denen die Grauwerte in den synthetisierten Differenz-Bilddaten null sind, entspricht.
  • Im letzten optionalen Verfahrensschritt S110 werden, wie auch im Verfahrensschritt S18 gemäß des ersten Ausführungsbeispiels, die Koordinaten (2D oder 3D-Koordinaten) des Messobjekts auf Basis der ermittelten Kantenpositionen berechnet.
  • 4 zeigt schematisch ein drittes Ausführungsbeispiel des erfindungsgemäßen Verfahrens. In diesem Ausführungsbeispiel werden nicht wie zuvor „nur“ zwei Bilddaten des Messobjekts erfasst, sondern insgesamt vier Bilddaten. Zunächst werden allerdings wie zuvor in den Verfahrensschritten S10.1, S12.1, S14.1 bzw. S10.2, S12.2, S14.2 die ersten und zweiten Bilddaten des Messobjekts erfasst und anschließend die erste und zweite vorläufige Kantenposition anhand dieser beiden Bilddaten jeweils separat ermittelt, wie dies anhand des Beispiels in 2 weiter oben erläutert wurde. Zusätzlich werden in den Verfahrensschritten S10.3, S12.3, S14.3 bzw. S10.4, S12.4, S14.4 dann dritte und vierte Bilddaten des Messobjekts erfasst und separat zueinander ausgewertet. In diesen dritten und vierten Bilddaten wird das Messobjekt in äquivalenter Weise wie in den ersten und zweiten Bilddaten jeweils einmal bei Auflicht-Beleuchtung und einmal bei Durchlicht-Beleuchtung optisch erfasst, allerdings nunmehr in einer um 180° um eine horizontale Achse des Messobjekts gewendeten Position.
  • Die 7A, 7B, 8A und 8B zeigen Prinzipskizzen, in denen die jeweiligen Beleuchtungsverhältnisse und Positionen des Messobjekts schematisiert dargestellt sind. Ein beispielhaftes Messobjekt ist darin in seinem Querschnitt dargestellt und mit der Bezugsziffer 54 bezeichnet. Die Beleuchtung ist schematisiert anhand von Pfeilen 56, 58 dargestellt. Die Bezugsziffer 56 bezeichnet die Auflicht-Beleuchtung. Die Bezugsziffer 58 bezeichnet die Durchlicht-Beleuchtung. Der optische Sensor 38 (in 7 und 8 nicht dargestellt) würde also in diesen Skizzen jeweils oberhalb des Messobjekts 54 positioniert sein. 7A zeigt daher die Beleuchtungsverhältnisse und Position des Messobjekts 54 bei Aufnahme der ersten Bilddaten. 7B zeigt die Beleuchtungsverhältnisse und Position des Messobjekts 54 bei Aufnahme der zweiten Bilddaten. 8A zeigt die Beleuchtungsverhältnisse und Position des Messobjekts 54 bei Aufnahme der dritten Bilddaten. 8B zeigt die Beleuchtungsverhältnisse und Position des Messobjekts 54 bei Aufnahme der vierten Bilddaten.
  • Durch Vergleich und/oder Mittelung dieser vier Bilddaten ist es nunmehr möglich, nicht nur die bei der Kantenfindung auftretenden systematischen Fehler auszumitteln, wie dies oben bereits erwähnt wurde, sondern auch festzustellen, ob die sich an die zu ermittelnden Kanten des Messobjekts 54 anschließenden Seitenflächen 60 des Messobjekts 54 relativ zur optischen Achse des Messsensors 38 (vorzugsweise vertikale Achse) geneigt sind oder nicht. Wenn es sich, wie bei dem in den 7 und 8 gezeigten Beispiel, um ein Messobjekt 54 mit im Wesentlichen trapezförmigen Querschnitt handelt, liefern die vier einzelnen Auswertungen der ersten, zweiten, dritten und vierten Bilddaten nämlich unterschiedliche Ergebnisse bezüglich der Kantenposition der Kante 62 des Messobjekts 54. Insbesondere die Auswertung der ersten und dritten Bilddaten welche beide bei Auflicht-Beleuchtung erfasst wurden, würden hier nämlich zu unterschiedlichen Ergebnissen bezüglich der Kantenposition 62 führen (vergleiche Situation in 7A und 8A). Dagegen würde die Auswertung der zweiten und vierten Bilddaten, welche beide bei Durchlicht-Beleuchtung erfasst wurden, höchstwahrscheinlich zu denselben Ergebnissen bezüglich der Kantenposition 62 des Messobjekts 54 führen (vergleiche Situation in 7B und 8B).
  • Somit lassen sich in den Verfahrensschritten S16.1, S16.2 und S16.3 unterschiedliche, mögliche Auswertungen vornehmen. Beispielsweise lässt sich die Kantenposition durch Auswertung der ersten und zweiten Bilddaten bestimmen (Schritt S16.1). Diese Auswertung kann entweder wie bezüglich des ersten Ausführungsbeispiels im Schritt S16 oder wie bezüglich des dritten Ausführungsbeispiels im Schritt S106 erfolgen. Parallel dazu kann die Kantenposition anhand der dritten und vierten Bilddaten ermittelt werden (Schritt S16.2). Die in den Schritten S16.1 und S16.2 ermittelten Kantenpositionen können dann miteinander verglichen werden. Stimmen diese beiden Kantenpositionen miteinander überein, weiß man, dass die Fläche 60 des Messobjekts 54 senkrecht bzw. parallel zur optischen Achse des optischen Sensors 38 verläuft. Stimmen die beiden Ergebnisse aus den Schritten S16.2 und S16.2 allerdings nicht miteinander überein, so weiß man, dass die Fläche 60 relativ zur optischen Achse des optischen Sensors 38 geneigt ist.
  • Im ersten Fall (Übereinstimmung der Kantenpositionen) ließen sich dann im Schritt S18 die Koordinaten des Messobjekts 54 berechnen. Im zweiten Fall (keine Übereinstimmung der Kantenpositionen) können weitere Auswertungen vorgenommen werden, um die Neigung der Fläche 60 zu bestimmen. Dies ist beispielsweise durch Vergleich der beiden bei Auflicht-Beleuchtung 56 vorgenommenen Bilddaten, nämlich durch Vergleich der ersten und dritten Bilddaten, sowie durch Vergleich der beiden bei Durchlicht-Beleuchtung 58 aufgenommenen Bilddaten, nämlich der zweiten und vierten Bilddaten, der Fall.
  • Durch geeignete Auswertung der vier Bilddaten ist es somit also nicht nur möglich, die aufgrund des Kantendetetektionsalgorithmus üblicherweise auftretenden systematischen Fehler auszumitteln, sondern auch geneigte Flächen zu erkennen bzw. deren Neigung zu bestimmen.

Claims (14)

  1. Verfahren zur Kantenermittlung eines Messobjekts (54) in der optischen Messtechnik, mit den Schritten: - Erfassen von ersten Bilddaten des Messobjekts (54) bei einer Auflicht-Beleuchtung (56); - Erfassen von zweiten Bilddaten des Messobjekts (54) bei einer Durchlicht-Beleuchtung (58); - Ermitteln einer ersten vorläufigen Kantenposition einer Kante (62) des Messobjekts (54) durch Auswertung der ersten Bilddaten; - Ermitteln einer zweiten vorläufigen Kantenposition der Kante (62) des Messobjekts (54) durch Auswertung der zweiten Bilddaten; und - Ermitteln der Kantenposition des Messobjekts (54) durch Mittelwertbildung zwischen der ersten und zweiten vorläufigen Kantenposition, wobei die Mittelwertbildung die Bildung eines gewichteten Mittels aufweist, wobei die Gewichtung abhängig ist von einer Abmessung des Messobjekts (54) parallel zu einer optischen Achse eines optischen Sensors (38), mit dem die ersten und zweiten Bilddaten erfasst werden, und/oder von einer Neigung einer Fläche (60) des Messobjekts (54) relativ zu der optischen Achse.
  2. Verfahren gemäß Anspruch 1, wobei die Mittelwertbildung die Bildung eines arithmetischen Mittels aufweist.
  3. Verfahren zur Kantenermittlung eines Messobjekts (54) in der optischen Messtechnik, mit den Schritten: - Erfassen von ersten Bilddaten des Messobjekts (54) bei einer Auflicht-Beleuchtung (56); - Erfassen von zweiten Bilddaten des Messobjekts (54) bei einer Durchlicht-Beleuchtung (58); - Bildung von synthetisierten Bilddaten durch eine Synthese der ersten und zweiten Bilddaten, wobei sowohl die ersten als auch die zweiten Bilddaten vor der Bildung der synthetisierten Bilddaten normiert werden; und - Ermitteln einer Position einer Kante (62) des Messobjekts (54) auf Basis der synthetisierten Bilddaten.
  4. Verfahren gemäß Anspruch 3, wobei die Normierung der ersten und zweiten Bilddaten umfasst: - Normieren des Dynamikbereichs der ersten Bilddaten und des Dynamikbereichs der zweiten Bilddaten auf einen gleichen gemeinsamen Wert.
  5. Verfahren gemäß Anspruch 3 oder 4, wobei das Ermitteln der Kantenposition des Messobjekts (54) auf Basis der synthetisierten Bilddaten umfasst: - Interpolierende Ermittlung von Positionen, an denen Grauwerte in den normierten ersten Bilddaten Grauwerten in den normierten zweiten Bilddaten entsprechen, bzw. Positionen, an denen eine Differenz zwischen den Grauwerten der normierten ersten Bilddaten und den Grauwerten der normierten zweiten Bilddaten null oder zumindest annähernd null ist.
  6. Verfahren gemäß einem der vorstehenden Ansprüche, wobei die ersten Bilddaten des Messobjekts (54) bei einer Hellfeld-Auflicht-Beleuchtung erfasst werden, und wobei die zweiten Bilddaten des Messobjekts (54) bei einer Hellfeld-Durchlicht-Beleuchtung erfasst werden.
  7. Verfahren gemäß einem der vorstehenden Ansprüche, mit folgenden weiteren Schritten: - Wenden des Messobjekts (54) um eine horizontale Achse; - Erfassen von dritten Bilddaten des gewendeten Messobjekts (54) bei einer Auflicht-Beleuchtung (56); - Erfassen von vierten Bilddaten des gewendeten Messobjekts (54) bei einer Durchlicht-Beleuchtung (58); - Ermitteln einer weiteren Position der Kante (62) des Messobjekts (54) basierend auf einer Auswertung, in der sowohl die dritte als auch die vierten Bilddaten verwendet werden; und - Vergleichen der Kantenposition des Messobjekts (54), welche basierend auf den ersten und zweiten Bilddaten ermittelt wurde, mit der weiteren Kantenposition des Messobjekts (54), welche basierend auf den dritten und vierten Bilddaten ermittelt wurde.
  8. Verfahren gemäß Anspruch 7, wobei das Ermitteln der weiteren Kantenposition des Messobjekts (54) umfasst: - Ermitteln einer dritten vorläufigen Kantenposition der Kante (62) des Messobjekts (54) durch Auswertung der dritten Bilddaten; - Ermitteln einer vierten vorläufigen Kantenposition der Kante (62) des Messobjekts (54) durch Auswertung der vierten Bilddaten; und - Ermitteln der weiteren Kantenposition des Messobjekts (54) durch Mittelwertbildung zwischen der dritten und vierten vorläufigen Kantenposition.
  9. Verfahren gemäß Anspruch 7, wobei das Ermitteln der weiteren Kantenposition des Messobjekts (54) umfasst: - Bildung von zweiten synthetisierten Bilddaten durch eine Synthese der dritten und vierten Bilddaten; und - Ermitteln der weiteren Kantenposition des Messobjekts (54) auf Basis der zweiten synthetisierten Bilddaten.
  10. Verfahren gemäß Anspruch 1, mit folgenden weiteren Schritten: - Wenden des Messobjekts (54) um eine horizontale Achse; - Erfassen von dritten Bilddaten des gewendeten Messobjekts (54) bei einer Auflicht-Beleuchtung (56); - Erfassen von vierten Bilddaten des gewendeten Messobjekts (54) bei einer Durchlicht-Beleuchtung (58); - Ermitteln einer dritten vorläufigen Kantenposition der Kante (62) des Messobjekts (54) durch Auswertung der dritten Bilddaten; - Ermitteln einer vierten vorläufigen Kantenposition der Kante (62) des Messobjekts (54) durch Auswertung der vierten Bilddaten; - Vergleichen der ersten vorläufigen Kantenposition mit der dritten vorläufigen Kantenposition; und - Vergleichen der zweiten vorläufigen Kantenposition mit der vierten vorläufigen Kantenposition.
  11. Koordinatenmessgerät (10), mit: - einem optischen Sensor (38) zur Erfassung von Bilddaten eines Messobjekts (54); - einer ersten Beleuchtungseinrichtung (40) zur Erzeugung einer Auflicht-Beleuchtung (56) des Messobjekts (54); - einer zweiten Beleuchtungseinrichtung (42) zur Erzeugung einer Durchlicht-Beleuchtung (58) des Messobjekts (54); und - einer Steuerungseinrichtung (46), welche dazu eingerichtet ist, das Messobjekt (54) mit Hilfe der ersten Beleuchtungseinrichtung (40) zu beleuchten und dabei mit Hilfe des optischen Sensors (38) erste Bilddaten zu erfassen, und das Messobjekt (54) mit Hilfe der zweiten Beleuchtungseinrichtung (42) zu beleuchten und dabei mit Hilfe des optischen Sensors (38) zweite Bilddaten zu erfassen, und wobei die Steuerungseinrichtung (46) dazu eingerichtet ist, eine erste vorläufige Kantenposition einer Kante (62) des Messobjekts (54) durch Auswertung der ersten Bilddaten zu ermitteln, eine zweite vorläufige Kantenposition der Kante (62) des Messobjekts (54) durch Auswertung der zweiten Bilddaten zu ermitteln, und die Kantenposition des Messobjekts (54) durch Mittelwertbildung zwischen der ersten und zweiten vorläufigen Kantenposition zu ermitteln, wobei die Mittelwertbildung die Bildung eines gewichteten Mittels aufweist, wobei die Gewichtung abhängig ist von einer Abmessung des Messobjekts (54) parallel zu einer optischen Achse eines optischen Sensors (38), mit dem die ersten und zweiten Bilddaten erfasst werden, und/oder von einer Neigung einer Fläche (60) des Messobjekts (54) relativ zu der optischen Achse.
  12. Koordinatenmessgerät (10), mit: - einem optischen Sensor (38) zur Erfassung von Bilddaten eines Messobjekts (54); - einer ersten Beleuchtungseinrichtung (40) zur Erzeugung einer Auflicht-Beleuchtung (56) des Messobjekts (54); - einer zweiten Beleuchtungseinrichtung (42) zur Erzeugung einer Durchlicht-Beleuchtung (58) des Messobjekts (54); und - einer Steuerungseinrichtung (46), welche dazu eingerichtet ist, das Messobjekt (54) mit Hilfe der ersten Beleuchtungseinrichtung (40) zu beleuchten und dabei mit Hilfe des optischen Sensors (38) erste Bilddaten zu erfassen, und das Messobjekt (54) mit Hilfe der zweiten Beleuchtungseinrichtung (42) zu beleuchten und dabei mit Hilfe des optischen Sensors (38) zweite Bilddaten zu erfassen, und wobei die Steuerungseinrichtung (46) dazu eingerichtet ist, synthetisierte Bilddaten durch eine Synthese der ersten und zweiten Bilddaten zu bilden, wobei sowohl die ersten als auch die zweiten Bilddaten vor der Bildung der synthetisierten Bilddaten normiert werden, und wobei die Steuerungseinrichtung (46) dazu eingerichtet ist, eine Position einer Kante (62) des Messobjekts (54) auf Basis der synthetisierten Bilddaten zu ermitteln.
  13. Computerprogramm mit einem Programmcode, der dazu ausgebildet ist, das Verfahren gemäß Anspruch 1 mit Hilfe des Koordinatenmessgeräts (10) gemäß Anspruch 11 auszuführen, wenn der Programmcode in der Steuerungseinrichtung (46) ausgeführt wird.
  14. Computerprogramm mit einem Programmcode, der dazu ausgebildet ist, das Verfahren gemäß Anspruch 3 mit Hilfe des Koordinatenmessgeräts (10) gemäß Anspruch 12 auszuführen, wenn der Programmcode in der Steuerungseinrichtung (46) ausgeführt wird
DE102016107900.6A 2016-04-28 2016-04-28 Verfahren und Vorrichtung zur Kantenermittlung eines Messobjekts in der optischen Messtechnik Active DE102016107900B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102016107900.6A DE102016107900B4 (de) 2016-04-28 2016-04-28 Verfahren und Vorrichtung zur Kantenermittlung eines Messobjekts in der optischen Messtechnik
US15/496,321 US10360684B2 (en) 2016-04-28 2017-04-25 Method and apparatus for edge determination of a measurement object in optical metrology
CN201710293320.4A CN107339939B (zh) 2016-04-28 2017-04-28 光学度量中的测量对象的边缘确定的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016107900.6A DE102016107900B4 (de) 2016-04-28 2016-04-28 Verfahren und Vorrichtung zur Kantenermittlung eines Messobjekts in der optischen Messtechnik

Publications (2)

Publication Number Publication Date
DE102016107900A1 DE102016107900A1 (de) 2017-11-02
DE102016107900B4 true DE102016107900B4 (de) 2020-10-08

Family

ID=60081877

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016107900.6A Active DE102016107900B4 (de) 2016-04-28 2016-04-28 Verfahren und Vorrichtung zur Kantenermittlung eines Messobjekts in der optischen Messtechnik

Country Status (3)

Country Link
US (1) US10360684B2 (de)
CN (1) CN107339939B (de)
DE (1) DE102016107900B4 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013217422A1 (de) 2013-09-02 2015-03-05 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmessgerät und Verfahren zur Vermessung und mindestens teilweisen Erzeugung eines Werkstücks
DE102016107900B4 (de) * 2016-04-28 2020-10-08 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zur Kantenermittlung eines Messobjekts in der optischen Messtechnik
WO2019206903A1 (en) 2018-04-23 2019-10-31 Carl Zeiss Industrial Metrology, Llc Method and arrangement for producing a workpiece by using adaptive closed-loop control of additive manufacturing techniques
WO2020031377A1 (ja) * 2018-08-10 2020-02-13 ヤマザキマザック株式会社 歯車の位相検出方法、歯車の製造方法、ワークのエッジの位置検出方法、および歯車の位相を検出する工作機械
DE102018218095B4 (de) 2018-09-28 2022-01-13 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zur Kantenermittlung eines Messobjekts in der optischen Messtechnik und Koordinatenmessgerät
US11921205B2 (en) 2020-11-24 2024-03-05 Pixart Imaging Inc. Method for eliminating misjudgment of reflective lights and optical sensing system
US11826906B2 (en) * 2020-11-24 2023-11-28 Pixart Imaging Inc. Method for eliminating misjudgment of reflective light and optical sensing system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009039254A1 (de) * 2009-08-28 2013-05-08 Krones Aktiengesellschaft Vorrichtung und Verfahren zum Inspizieren etikettierter Gefäße

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7596242B2 (en) * 1995-06-07 2009-09-29 Automotive Technologies International, Inc. Image processing for vehicular applications
JPH07159139A (ja) * 1993-12-02 1995-06-23 Honda Motor Co Ltd ワーク表面検査方法
JP3300536B2 (ja) * 1994-07-08 2002-07-08 株式会社リコー 変位測定装置および光ピックアップ
JPH0894960A (ja) * 1994-09-26 1996-04-12 Olympus Optical Co Ltd シースルー型画像表示装置
US20020054291A1 (en) * 1997-06-27 2002-05-09 Tsai Bin-Ming Benjamin Inspection system simultaneously utilizing monochromatic darkfield and broadband brightfield illumination sources
US6288780B1 (en) * 1995-06-06 2001-09-11 Kla-Tencor Technologies Corp. High throughput brightfield/darkfield wafer inspection system using advanced optical techniques
WO1996039619A1 (en) * 1995-06-06 1996-12-12 Kla Instruments Corporation Optical inspection of a specimen using multi-channel responses from the specimen
US5805290A (en) * 1996-05-02 1998-09-08 International Business Machines Corporation Method of optical metrology of unresolved pattern arrays
AU740638B2 (en) * 1997-02-28 2001-11-08 Electro-Optical Sciences, Inc. Systems and methods for the multispectral imaging and characterization of skin tissue
US6650357B1 (en) * 1997-04-09 2003-11-18 Richardson Technologies, Inc. Color translating UV microscope
US6248988B1 (en) * 1998-05-05 2001-06-19 Kla-Tencor Corporation Conventional and confocal multi-spot scanning optical microscope
DE69921240T2 (de) * 1998-07-09 2006-02-02 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zur Herstellung eines Stereoskopischen Bildes
CA2441726C (en) * 1999-02-24 2004-10-26 Richardson Technologies Inc. Method and system of microscope illumination
CA2262912C (en) * 1999-02-24 2004-10-19 Northern Edge Associates Inc. Field microscope
US6183919B1 (en) * 1999-06-11 2001-02-06 International Business Machines Corporation Darkfield imaging for enhancing optical detection of edges and minimum features
JP2001218230A (ja) * 2000-02-02 2001-08-10 Canon Inc 立体撮像装置
US7068833B1 (en) * 2000-08-30 2006-06-27 Kla-Tencor Corporation Overlay marks, methods of overlay mark design and methods of overlay measurements
WO2002068932A2 (en) * 2001-02-23 2002-09-06 Genicon Sciences Corporation Methods for providing extended dynamic range in analyte assays
US20040042001A1 (en) * 2002-04-18 2004-03-04 Kla-Tencor Technologies Corporation Simultaneous multi-spot inspection and imaging
US7359045B2 (en) * 2002-05-06 2008-04-15 Applied Materials, Israel, Ltd. High speed laser scanning inspection system
JP4172761B2 (ja) * 2002-10-08 2008-10-29 大日本スクリーン製造株式会社 欠陥検査装置、欠陥検査方法およびプログラム
JP3948728B2 (ja) * 2003-03-17 2007-07-25 オルボテック リミテッド パターン検査装置
JP2005315749A (ja) * 2004-04-28 2005-11-10 Yamaha Motor Co Ltd 照明条件特定方法、部品認識装置、同装置を備えた表面実装機および部品試験装置
US7433039B1 (en) * 2004-06-22 2008-10-07 Kla-Tencor Technologies Corporation Apparatus and methods for reducing tool-induced shift during overlay metrology
US7616332B2 (en) * 2004-12-02 2009-11-10 3M Innovative Properties Company System for reading and authenticating a composite image in a sheeting
JP4566798B2 (ja) * 2005-03-30 2010-10-20 東京エレクトロン株式会社 基板位置決め装置,基板位置決め方法,プログラム
US20120106702A1 (en) * 2005-09-08 2012-05-03 Feke Gilbert D Apparatus and method for multi-modal imaging using multiple x-ray sources
US7408642B1 (en) * 2006-02-17 2008-08-05 Kla-Tencor Technologies Corporation Registration target design for managing both reticle grid error and wafer overlay
US8228497B2 (en) * 2007-07-12 2012-07-24 Applied Materials Israel, Ltd. Method and system for evaluating an object that has a repetitive pattern
US20090252398A1 (en) * 2008-04-07 2009-10-08 Compucyte Corporation Method and System for Creating a Three-Dimensionally-Perceived Image of a Biological Sample
SG164292A1 (en) * 2009-01-13 2010-09-29 Semiconductor Technologies & Instruments Pte System and method for inspecting a wafer
SG164293A1 (en) * 2009-01-13 2010-09-29 Semiconductor Technologies & Instruments Pte System and method for inspecting a wafer
JP5095644B2 (ja) * 2009-01-23 2012-12-12 株式会社キーエンス 画像計測装置及びコンピュータプログラム
WO2011010626A1 (ja) * 2009-07-24 2011-01-27 株式会社 日立メディコ 超音波診断装置、弾性画像の保存/再生方法、及び弾性画像の保存/再生プログラム
CA2806632A1 (en) * 2010-07-19 2012-01-26 The Board Of Trustees Of The Leland Stanford Junior University Methods and systems for analysis of single cells
US8280172B1 (en) * 2011-03-22 2012-10-02 Mitutoyo Corporation Edge location measurement correction for coaxial light images
DE102012103554B4 (de) 2012-04-23 2015-01-15 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmessgerät
US20150213754A1 (en) * 2014-01-27 2015-07-30 Emagin Corporation High efficiency beam combiner coating
DE102014205705B4 (de) * 2014-03-27 2020-11-05 Carl Zeiss Industrielle Messtechnik Gmbh Leuchttisch geeignet für Anwendungen in der Metrologie sowie Koordinatenmessgerät mit einem solchen Leuchttisch
JP6296499B2 (ja) * 2014-08-11 2018-03-20 株式会社 東京ウエルズ 透明基板の外観検査装置および外観検査方法
DE102016107900B4 (de) * 2016-04-28 2020-10-08 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zur Kantenermittlung eines Messobjekts in der optischen Messtechnik

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009039254A1 (de) * 2009-08-28 2013-05-08 Krones Aktiengesellschaft Vorrichtung und Verfahren zum Inspizieren etikettierter Gefäße

Also Published As

Publication number Publication date
US10360684B2 (en) 2019-07-23
CN107339939A (zh) 2017-11-10
US20170316568A1 (en) 2017-11-02
DE102016107900A1 (de) 2017-11-02
CN107339939B (zh) 2020-03-31

Similar Documents

Publication Publication Date Title
DE102016107900B4 (de) Verfahren und Vorrichtung zur Kantenermittlung eines Messobjekts in der optischen Messtechnik
DE102014206309B4 (de) System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung
DE102014205726B4 (de) Verfahren zum bestimmen von profildaten für ein kantenmerkmal in einem inspektionssystem mit maschineller bildverarbeitung
DE102016202928B4 (de) Verbessertes Autofokusverfahren für ein Koordinatenmessgerät
EP1669741A1 (de) Verfahren und System zur Inspektion eines Wafers
DE102014107143B4 (de) System und Verfahren zur Messung der Verschiebung einer Objektoberfläche
EP1342073A2 (de) Vorrichtung und verfahren zur qualitätsüberprüfung eines körpers
DE102007025304B4 (de) Verfahren zur Verbesserung der Reproduzierbarkeit einer Koordinaten-Messmaschine und deren Genauigkeit
DE3044611A1 (de) Verfahren und vorrichtung zur erkennung von querschnittsprofilen von objekten
EP3557306A2 (de) Autofokus mit winkelvariabler beleuchtung
DE102018218095B4 (de) Verfahren zur Kantenermittlung eines Messobjekts in der optischen Messtechnik und Koordinatenmessgerät
EP4192645A1 (de) Verfahren und flachbettwerkzeugmaschine zum erfassen einer einhängeposition eines auflagestegs
WO2011098324A1 (de) Verfahren und vorrichtung zur oberflächenprüfung mittels deflektometrie
DE102019208114B4 (de) Vorrichtung und Verfahren zur 3D Vermessung von Objektkoordinaten
EP2191229B1 (de) Verfahren zur bestimmung einer kante eines optisch zu vermessenden objektes sowie koordinatenmessgerät
DE102016107272A1 (de) Konzept zum Prüfen eines Objekts
DE102019131693A1 (de) Messgerät zur untersuchung einer probe und verfahren zum bestimmen einer höhenkarte einer probe
DE102007017649A1 (de) Verfahren zum Bestimmen der Fokuslage von mindestens zwei Kanten von Strukturen auf einem Substrat
DE10315592B4 (de) Verfahren zum Ausführen von Interaktionen an sich räumlich und zeitlich verändernden mikroskopischen Objekten und System hierzu
DE102013211286A1 (de) Verfahren zur Vermessung eines Werkstücks mit einem optischen Sensor
DE102020127071B3 (de) Verfahren und Mikroskop mit einer Einrichtung zum Erfassen von Verlagerungen einer Probe gegenüber einem Objektiv
DE102020122924A1 (de) Verfahren zum Analysieren einer Werkstückoberfläche für einen Laserbearbeitungsprozess und eine Analysevorrichtung zum Analysieren einer Werkstückoberfläche
DE10152851A1 (de) Bildverarbeitungssystem
DE102018210606A1 (de) Mikroskopisches Abbildungsverfahren unter Verwendung eines Korrekturfaktors
EP3798570B1 (de) Verfahren zur kalibrierung eines optischen messsystems, optisches messsystem und kalibrierobjekt für ein optisches messsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final