DE10321888A1 - Messverfahren und Sensor, insbesondere zur optischen Abtastung bewegter Objekte - Google Patents

Messverfahren und Sensor, insbesondere zur optischen Abtastung bewegter Objekte Download PDF

Info

Publication number
DE10321888A1
DE10321888A1 DE2003121888 DE10321888A DE10321888A1 DE 10321888 A1 DE10321888 A1 DE 10321888A1 DE 2003121888 DE2003121888 DE 2003121888 DE 10321888 A DE10321888 A DE 10321888A DE 10321888 A1 DE10321888 A1 DE 10321888A1
Authority
DE
Germany
Prior art keywords
point
focus
beam path
camera
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2003121888
Other languages
English (en)
Inventor
Klaus Dr. Körner
Wolfgang Prof. Dr. Osten
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universitaet Stuttgart
Original Assignee
Universitaet Stuttgart
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universitaet Stuttgart filed Critical Universitaet Stuttgart
Priority to DE2003121888 priority Critical patent/DE10321888A1/de
Publication of DE10321888A1 publication Critical patent/DE10321888A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2522Projection by scanning of the object the position of the object changing and being recorded

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft einen Sensor zur dreidimensionalen Erfassung des Profils von einem mit Lateralkomponente zum Sensor bewegten Objekt, wobei ein zum Sensor feststehendes, strukturiertes Lichtfeld mit einer Schärfefläche SEO im Objektraum besteht und im Erfassungsvorgang kontinuierlich Bilder aufgenommen werden. Es wird jedem Objektpunkt ein virtuelles Pixel zugeordnet, welches den bewegten Objektpunkt mitverfolgt. Die bewegten Objektpunkte besitzen jeweils eine Bewegungsbahn. Dabei besteht stets ein Winkel gamma zwischen der Tangente an die Bewegungsbahn eines jeden Objektpunktes und der Tangente an die Schärfefläche SEO im strukturierten Lichtfeld im Durchstoßpunkt jeder Bewegungsbahn durch die Schärfefläche. Der Winkel gamma ist erfindungsgemäß jeweils größer als mindestens 1 DEG . In den virtuellen Pixeln entstehen Signale in der Form von Weißlicht-Interferogrammen.

Description

  • Die bekannten optischen Messverfahren zur dreidimensionalen optischen Erfassung des Profils einer Objektoberfläche versagen bei lateral schnell bewegten Objekten. Es gibt bisher ungelöste Probleme, wenn verfahrensbedingt für jeden bewegten Objektpunkt mehrere Signalwerte gewonnen werden müssen, um dynamische Phasenauswerte-Verfahren einsetzen zu können. Bei diesen Verfahren wird bekanntlich im Sensor ein beleuchtetes Liniengitter lateral verschoben, oder es wird ein Liquid Crystal Display (LCD) oder ein Digital Micro Mirror Device (DMD) als steuerbares Gitter und eine elektronische, pixelierte Kamera verwendet. Das Liniengitter, das LCD oder das DMD wird auf das zu untersuchende Objekt abgebildet. Das dort entstehende Streifenmuster, welches die Information über die Oberflächentopografie beinhaltet, wird über einen Beobachtungsstrahlengang abgebildet, s. a. Technisches Messen 62 (1995) 9, Seite 321 bis 327. Bei einem lateral zum Sensor bewegten Objekt, wenn zur Anwendung eines dynamischen Phasenauswerte-Verfahrens mehrere Signalwerte von jedem Objektpunkt gewonnen werden müssen, kann die Bildaufnahme des strukturiert beleuchteten Objektes in der Regel nicht schnell genug erfolgen. In diesem Fall treten wegen der Bewegungsunschärfe, besonders bei Oberflächen mit kleinen Defekten, nicht zu vernachlässigende Messfehler auf.
  • Dagegen ermöglichen statische Phasenauswerte-Verfahren, die zwar sehr schnell durchgeführt werden können, nur eine geringe laterale Auflösung, welche auch durch die projizierte Streifenbreite vorgegeben ist. Die Anwendung dieses Verfahrens ist in Technisches Messen 65 (1997) 9, S. 311–315 für die Messung von lateral kontinuierlich bewegten Dünnglasplatten dargestellt, wobei hier jedoch nur die langperiodische Ebenheitsabweichung der Glasplatten ausgewertet wird. Jedoch ist bei statischen Phasenauswerte-Verfahren die Erfassung des dreidimensionalen Profils beim Vorhandensein größerer Gradienten und bei Defekten beispielsweise im Submillimeterbereich nicht sehr robust, so dass dieses Messverfahren nur bei der Ebenheitsprüfung staubarmer und nahezu fehlerfreier Glasplatten uneingeschränkt funktioniert. Beim Auftreten von Oberflächenfehlern mit geringer lateraler Ausdehnung oder bei einer Textur auf der Oberfläche kann es dagegen keine oder nur fehlerhafte Informationen liefern.
  • Bei diesem Messverfahren liegt die Glasoberfläche stets in der Schärfeebene oder parallel zur Schärfeebene des auf die Glasoberfläche abgebildeten Liniengitters.
  • Beschreibung der Erfindung
  • Das Ziel besteht vor allem darin, lateral bewegte Objekte dreidimensional für die gewerbliche Anwendung zu vermessen und dies vergleichsweise kostengünstig und zuverlässig durchzuführen. Das Ziel wird erreicht mit den Merkmalen der unabhängigen Ansprüche.
  • Der Erfindung liegt die Aufgabe zugrunde, eine optische Sensor-Anordnung sowie ein optisches Messverfahren zur dreidimensionalen Vermessung von lateral bewegten Objekten derart weiterzuentwickeln, dass auch lateral bewegte Objekte, die eine größere Tiefenausdehnung als die einfache Triangulationswellenlänge bei einer bekannten Streifenprojektions-Sensor-Anordnung im Objektraum aufweisen, fehlerfrei optisch vermessen werden können. Hierbei wird die laterale Bewegung des Objektes in die dreidimensionale optische Vermessung einbezogen und dadurch ist nur ein vergleichsweise geringer apparativer Aufwand für den Sensor notwendig. Schließlich soll auch die Vermessung von Präzisionsschweißnähten mit einer Genauigkeit von mindestens 10 μm in den drei kartesischen Koordinaten möglich sein, wobei es eine laterale Relativbewegung zwischen dem optischen Sensor und der Schweißnaht gibt. Dabei soll der Tiefenmessbereich des optischen Sensors beispielsweise mindestens 600 μm betragen können.
  • Für ein bewegtes Objekt soll bei der dreidimensionalen, optischen Erfassung des Profils oder zur Detektion von Mikrodefekten der Einfluss der Bewegungsunschärfe nur zu vergleichsweise kleinen, tolerierbaren Messfehlern führen.
  • Im erfinderischen optischen Messverfahren wird in einem ersten Verfahrensschritt optisch ein strukturiertes Lichtfeld mit Streifen und mit einer Schärfefläche in den Objektraum projiziert, wobei die Streifen stets zur optischen Sensor-Anordnung feststehen. Das strukturierte Lichtfeld mit einer Schärfefläche mit Streifen kann bekannterweise durch ein beleuchtetes und in den Objektraum abgebildetes Sendemuster-Array erzeugt werden. Es können als Sendemuster-Arrays beleuchtete Liniengitter, aber auch elektronische Sendemuster-Arrays wie LCDs (Liquid Crystal Displays) oder DMDs (Direct Micromirror Devices) oder elektronische, lichtemittierende Sendemuster-Arrays eingesetzt werden. Andererseits kann ein strukturiertes Lichtfeld auch durch die Überlagerung von zwei kohärenten Lichtbündeln entstehen.
  • Das strukturierte Lichtfeld mit Streifen und mit einer Schärfefläche kann bekannterweise aber auch mittels Interferometer erzeugt werden. Dazu wird vorzugsweise ein Interferometer mit Lichtquellen mit Licht angepasster Kohärenzlänge oder mittels Lichtquellen mit angepasster lateraler Ausdehnung oder aber auch mittels Lichtquellen sowohl mit angepasster Kohärenzlänge als auch mit angepasster lateraler Ausdehnung eingesetzt. Die laterale Ausdehnung einer Lichtquelle bestimmt den räumlichen Kohärenzgrad der Interferenzerscheinung. Die Schärfefläche stellt bei einem Interferometer die Fläche maximalen Kohärenzgrades dar, also wo der Kontrast der Interferenzerscheinung ein Maximum wird. Es können Laserlichtquellen, Laserlichtquellen-Arrays, einzelne LEDs, LED-Arrays aber auch Weißlichtquellen mit oder ohne zugeordnetem LCD oder DMD oder auch Lichtquellen mit einem Spektralfilter eingesetzt werden. Die Lichtquellen können als Punktlichtquellen mit einem Kollimator oder auch als flächenhafte Lichtquellen mit einem Kollimator ausgebildet sein, wobei deren flächenhafte Ausdehnung rechnergesteuert sein kann. Dem Interferometer ist vorzugsweise ein fokussierendes Objektiv nachgeordnet, in dessen Fokalebene das strukturierte Lichtfeld mit einer Schärfefläche, also die Fläche maximalen Kohärenzgrades, erzeugt wird, wobei mittels Strahlteilung durch Teilung der Amplitude der Wellenfront zwei kohärente Strahlenbündel mit Lateral-Shear erzeugt werden. Das strukturierte Lichtfeld entsteht also durch Fokussierung von zwei kohärenten und vorzugsweise zueinander geneigten Strahlenbündeln. Mittels Interferometrie kann ein für das Objekt optimal angepasstes Streifenmuster erzeugt werden, da mittels eines Interferometers sowohl die Tiefe als auch die Streifenbreite der Interferenzerscheinung einstellbar sind.
  • Es können mittels Phasengitter in der äußeren Brennebene einer afokalen Anordnung und einer Lichtquelle mit Kollimator zwei kollimierte kohärente Bündel erzeugt werden, die über die afokale Anordnung unter Passieren eines außeraxialen Blendenbereiches in die Schärfefläche, die mit der zweiten äußeren Brennebene der afokalen Anordnung zusammenfällt, ein Streifenfeld erzeugen. Licht von Punkten der Objektoberfläche in der Umgebung der zweiten äußeren Brennebene der afokalen Anordnung gelangt über die afokalen Anordnung, unter Passieren eines zweiten außeraxialen Blendenbereiches wieder auf das Phasengitter, wobei der jeder Punkt des Phasengitters wieder auf sich selbst abgebildet wird und so ein schleifenförmiger, geschlossener Strahlengang besteht. Das Beugungsgitter beugt das auftreffende Licht. Das gebeugte Licht passiert ein weiteres Objektiv mit einem Lochblende in der Brennebene und gelangt über ein weiteres Objektiv auf den Sensor-Chip einer Kamera.
  • Es gibt erfindungsgemäß zur Projektionsrichtung des Sensors eine mit Lateralkomponente erfolgende Bewegung des Objektes oder eine mit Lateralkomponente durchgeführte Bewegung des optischen Sensors zum Objekt. In jedem Fall gibt es also eine Relativbewegung mit einer Lateralkomponente zwischen dem optischen Sensor und dem Objekt und damit zwischen dem strukturierten Lichtfeld und dem zu erfassenden Objekt. Dazu wird im optischen Sensor vorzugsweise ein fest und lagegenau eingebautes, beleuchtetes Sendemuster-Array mit mindestens einem Bereich mit mindestens einer linienhaften Struktur eingesetzt. Diese linienhafte Struktur, welche vorzugsweise durch ein Liniengitter oder ein Zylinderlinsen-Array dargestellt ist, wird mittels einer Lichtquelle über einen Beleuchtungsstrahlengang auf die Objektoberfläche abgebildet, so dass dort bei hinreichend scharfer Abbildung mehrere Streifen beobachtet werden können.
  • Es wird im weiteren von einem Liniengitter als Sendemuster-Array, in der Anwendung der Erfindung wohl ein sehr häufiger Fall, ausgegangen. Das Liniengitter wird von einer Lichtquelle mit kollimiertem Licht beleuchtet. Vorzugsweise schließen dabei die Hauptstrahlen mit der zugehörigen optischen Achse des Beleuchtungsstrahlenganges einen Winkel von mindestens 2° ein, so dass in der Brennebene des nachgeordneten Objektivs ein dezentrierter Lichtschwerpunkt gebildet ist. Einem Beobachtungsstrahlengang, der vorteilhafterweise im optischen Sensor angeordnet ist, ist eine elektronische, pixelierte Bildaufnahme-Kamera mit einem Sensor-Chip zugeordnet, die im Erfassungsvorgang kontinuierlich Bilder aufnimmt, wobei der Erfassungsvorgang mittels Kamera so lange durchgeführt wird wie eine Relativbewegung mit Lateralkomponente zwischen Objekt und Optischen Sensors stattfindet. Die Linien des Liniengitters können auch durch sehr dicht benachbarte Punkte oder extrem feine Linien erzeugt sein, die makroskopisch als Linien erscheinen. Das Liniengitter besitzt mindestens eine einzige Periodenlänge.
  • Wenn es sich um ein elektronisch steuerbares Sendemuster-Array handelt, ist die laterale oder die rotatorische Position des Sendemuster-Arrays selbst oder aber die dessen Musters zum Sensor-Chip im optischen Sensor grundsätzlich oder aber zumindest für einen Zeitbereich von mindestens drei Bildaufnahmezyklen unveränderlich gemacht. Drei Intensitäten pro Pixel stellen bekannterweise das Minimum für die Anwendung eines phasenauswertenden Algorithmus' dar.
  • Wird ein elektronisches Sendemuster-Array als Liniengitter verwendet, beispielsweise ein beleuchteter LCD-Chip oder ein beleuchteter DMD-Chip oder auch ein selbstleuchtendes elektronisches Sendemuster-Array, ist zumindest für einen einzigen Zeitbereich von mindestens drei Bildaufnahmezyklen, also der Zeitbereich einer Bildaufnahmeserie, das mittels elektronischem Sendemuster-Array projizierte Lichtmuster unveränderlich gemacht. In diesem Zeitbereich bewegt sich jedoch das Objekt mit Lateralkomponente zum optischen Sensor oder aber der Sensor bewegt sich zum feststehenden Objekt. Die Bewegung, die so in jedem Fall eine relative Bewegung mit Lateralkomponente zwischen Sensor und Objekt darstellt, ist kontinuierlich oder erfolgt in diesem Zeitbereich in mindestens zwei Schritten. Bei einer Schrittbewegung erfolgen üblicherweise jedoch sehr viele feine Schritte.
  • Vorzugsweise werden äquidistante Linienmuster mit einer vorab an die Messaufgabe optimal angepassten Periodelänge mit dem elektronischen Sendemuster-Array erzeugt.
  • Das strukturierte Lichtfeld besitzt durch die Größe der Pupille des Beleuchtungssystems einen begrenzten Schärfentiefebereich, so dass sich in Abhängigkeit von der Position eines Objektpunktes in bezug auf die Schärfefläche im strukturierten Lichtfeld der Kontrast der beobachteten Lichtstruktur auf diesem Objektpunkt ändert.
  • Im optischen Sensor selbst gibt es also überhaupt keine mechanisch bewegten Komponenten. Vorzugsweise wird die laterale Bewegung des Objektes benutzt, um im Messvorgang mittels dieser lateralen Bewegung ein Signal mit mehreren Intensitätswerten, mindestens jedoch drei, typischerweise jedoch um 20 bis 50 Intensitätswerte, aus jedem bewegten Objektpunkt zu gewinnen. Aus diesem Signal wird mindestens der Ort des maximalen Kontrastes bestimmt. Vorzugsweise wird aus diesem Signal mindestens ein Phasenwert errechnet. Aus dem Ort des maximalen Kontrastes und gegebenenfalls auch aus der Phaseninformation wird dann die Tiefe für jeden Objektpunkt bestimmt.
  • Grundsätzlich kann sich aber auch der optische Sensor gegenüber einem feststehenden Objekt bewegen. In diesem Fall wird der optische Sensor mit einem Roboterarm oder einer Hand oder aber mit einem Bearbeitungskopf mitbewegt bewegt. Dieser letztgenannte Fall ist für die optische Zwei- oder Drei-Koordinatenmesstechnik – vor allem bei mittlerer Messgenauigkeit, also im 2 μm bis 20 μm-Bereich – von großem Interesse. Hierbei wird der optische Sensor vorteilhafterweise von der Messmaschine in zwei oder drei Koordinaten mit einer typischen Positionsgenauigkeit im 1 μm-Bereich positioniert, so dass auch die aktuelle Position des Sensor zum Werkstück mit einer Genauigkeit von etwa 1 μm bekannt ist.
  • Beispielsweise wird hier im weiteren ein Ansatz mit der Bewegung eines zu vermessenden Objektes beschrieben. Mittels einem Bewegungssystem wird also das zu untersuchende Objekt kontinuierlich bewegt, beispielsweise bei der kontinuierlichen Vermessung des dreidimensionalen Profils von Schweißnähten im kontinuierlichen Fertigungsprozess, wobei der optische Sensor dabei feststeht. Die ganz genaue Position eines Details des Objektes, beispielsweise ein kleines Loch in dessen Oberfläche, steht dabei nicht so sehr im Vordergrund, sondern vielmehr die Tatsache, dass ein Mikroloch überhaupt vorhanden ist.
  • Die Bewegung des Objektes sollte auf einer für die gewünschte Messgenauigkeit hinreichend präzisen Bahn b erfolgen, um nicht fälschlicherweise einen Lagefehler des Objektes als Messergebnis zu interpretieren. Die Geschwindigkeit der Bewegung des Objektes kann sehr genau gemessen und geregelt werden.
  • Beim erfinderischen Verfahren gibt es entweder a priori-Kenntnisse über die Richtung und die Geschwindigkeit der Bewegung des Objektes, oder es erfolgt die in situ-Messung der Richtung und der Geschwindigkeit des zu prüfenden Objektes. Vorzugsweise können dabei auch auf dem Objekt aufgebrachte Marken oder Strukturen oder die natürliche Struktur der Oberfläche wie die Rauheit oder eine Textur verwendet werden. Letztere können beispielsweise mittels Kreuzkorrelationsverfahren ausgewertet werden, so dass stets die Bewegungsrichtung und die Geschwindigkeit des Objektes zumindest in lateraler Richtung genau bekannt sind. Für die Bestimmung der Geschwindigkeit des Objektes kann beispielsweise eine Spalte einer pixelierten Kamera, beispielsweise eine CMOS-Kamera oder auch eine CCD-Kamera dienen, die parallel zur Bewegungsrichtung angeordnet ist und welche gleichzeitig auch zur Objektbeobachtung eingesetzt wird. Aber auch außerhalb des Fertigungsprozesses kann einem zu vermessenden Objekt für die Messung ein rechnersteuerbares Bewegungssystem fest zugeordnet sein. Beispielsweise kann dies ein Linearschlitten oder ein Drehtisch sein, dessen Geschwindigkeit mit der Auslesung von Vollbildern, benutzerdefinierten Regions of Interest (ROI) oder einzelner Pixel einer elektronischen, pixelierten Kamera genau synchronisiert ist.
  • Das bewegte Objekt wird über den Beleuchtungsstrahlengang des optischen Sensors mit einem strukturierten Lichtfeld beleuchtet, welches also mindestens für einige Bildzyklen bei der Bildaufnahme in Bezug zum optischen Sensor feststeht. Da auch der Sensor bewegt werden kann, wobei dann das Objekt feststeht, ist im weiteren stets ein relativ mit Lateralkomponente zum Sensor bewegtes Objekt gemeint. Die Beleuchtung des Objektes erfolgt vorzugsweise durch ein im optischen Sensor fest angeordnetes, beleuchtetes Liniengitter, welches durch das Beleuchtungssystem des Sensors in die Schärfefläche SEO im Objektraum abgebildet wird. Die Schärfefläche SEO stellt den Bildort des Liniengitters im strukturierten Lichtfeld dar.
  • Relativ zum Sensor bewegte Objektpunkte besitzen jeweils eine Bewegungsbahn. Erfindungsgemäß besteht bei der Bewegung des Objektes stets ein Winkel γ zwischen einer Tangente an die Bewegungsbahn bj eines jeden Objektpunktes Pj und einer Tangente an die Schärfefläche SEO im strukturierten Lichtfeld im Durchstoßpunkt Pjs der Bewegungsbahn bj durch die Schärfefläche SEO. Die Bewegungsbahn bj wird durch das dem Objekt zugeordnete Bewegungssystem realisiert, das die Bewegungsbahn b besitzt. Der Winkel γ ist erfindungsgemäß jeweils größer als mindestens 1°. Ist die Schärfefläche SBO plan und die Bewegung des Bewegungssystems geradlinig, besteht im Objektraum ein konstanter Winkel γ zwischen der Schärfefläche SEO und der Bewegungsbahn b. Typische Werte für den Winkel γ liegen zwischen 5° und 60°.
  • Das Sendemuster-Array und der Sensorchip der pixelierten Kamera weisen durch den jeweils zugeordneten Beleuchtungs- und Beobachtungsstrahlengang vorzugsweise eine zumindest näherungsweise gemeinsame Schärfefläche (SEO) im Objektraum auf. Die Schärfefläche SEO ist vorzugsweise plan.
  • Das Sendemuster-Array kann auch als Ronchi-Gitter ausgebildet sein. Der Beleuchtungs- und Beobachtungsstrahlengang des Sensors ist vorzugsweise durch eine afokale, zweistufige Anordnung ausgebildet, also mit im Inneren der Abbildungsstufe zusammenfallenden Brennebenen. So besteht für ein im Array-Raum von der Lichtquelle ausgehendes kollimiertes Lichtbündel auch im Objektraum Kollimation. Der Lichtschwerpunkt der Beleuchtung in der gemeinsamen Brennebene im Inneren der Abbildungsstufe ist vorzugsweise dezentriert. Dies ergibt sich durch eine Neigung des kollimierten Lichtbündels im Array-Raum zur optischen Achse. So gelangt vorzugsweise ein geneigtes, kollimiertes Lichtbündel auf die Oberfläche des zu vermessenden Objektes. Es ist vorteilhaft, wenn der Beleuchtungsstrahlengang für den Lichtdurchgang mit geneigten Lichtbündeln durch ein spezielles Design der Optik optimiert ist. Das Licht gelangt von der Oberfläche des Objektes in den Beobachtungsstrahlengang. Der Lichtfluss im Beobachtungsstrahlengang kann vorzugsweise durch eine Abschattblende in der gemeinsamen Brennebene beeinflusst werden. Diese kann vorzugsweise dezentriert sein, so dass zwischen dem Lichtschwerpunkt des Lichtbündels im Beleuchtungsstrahlengang und dem Blendenzentrum vorzugsweise ein Abstand d_nom besteht, der als Triangulationsbasis des Sensors wirkt. Der Beobachtungsstrahlengang ist ebenfalls mittels speziellem optischen Design hinsichtlich geneigter, kollimierter Lichtbündel optimiert. Es ist aber auch möglich, dass sich im Beobachtungsstrahlengang weitere optische Elemente befinden, welche die zur Kamera gelangenden Lichtstrahlen begrenzen. Vorzugsweise können im Beobachtungsstrahlengang dazu vor der Kamera Mikrolinsen angeordnet sein.
  • Die Aufnahme des strukturiert beleuchteten Objektes erfolgt also über den Beobachtungsstrahlengang des optischen Sensors mittels einer elektronischen, pixelierten Kamera mit einem bildaufnehmenden Sensor-Chip. Es werden im Messvorgang, so lange der Bewegungsvorgang besteht, Bilder vom mit Lateralkomponente bewegten Objekt bzw. Sensor aufgenommen, so dass also auf den Sensor-Chip in jedem Fall ein bewegtes Bild erzeugt wird, wobei die Bildpunkte des Objektes im Array-Raum sich mit Lateralkomponente bewegen. Auf dieser Annahme basieren alle weiteren erfinderischen Aussagen.
  • Der Beobachtungsstrahlengang kann eine Strahlteilerfläche enthalten, um den Beleuchtungsstrahlengang vom Beobachtungsstrahlengang trennen zu können. Es können aber auch zwei völlig separate Objektivsysteme für die Beleuchtung und die Aufnahme des Objektes angeordnet sein, die dann direkt nebeneinander angeordnet sind. Diese Objektive können parallel oder auch zueinander geneigt angeordnet sein. Da in diesem Fall die Pupille der Beleuchtung von der Pupille der Beobachtung getrennt ist, besteht ein Triangulationswinkel, der stets größer als der Aperturwinkel von Beleuchtung und Beobachtung ist, und so kann hierbei zweckmäßigerweise auch ein Triangulations-Messverfahren mit kombinierter Kontrast- und Phasenauswertung eingesetzt werden.
  • Zwei Objektivsysteme dieser Art sind in der Summe meist noch deutlich kostengünstiger als ein einziges Frontobjektiv, da dieses sowohl für die Beleuchtung als auch die Aufnahme des Objektes benutzt wird und somit in der Regel eine deutlich höhere numerische Apertur aufweisen muss als jedes der beiden einzelnen Objektive. Zur besseren Trennung der beiden Strahlengänge können dabei in einem oder auch in beiden Strahlengängen Planspiegel oder Spiegelprismen eingesetzt werden, beispielsweise auch Spiegeltreppen, damit so genügend Platz für die Objektivsysteme zur Beleuchtung und Beobachtung vorhanden ist.
  • Bei mikroskopisch kleinen Objektfeldern mit weniger als 10 mm Durchmesser muss dagegen aus Platzgründen beim Stand der Technik meist ein einziges Frontobjektiv verwendet werden. Dieses kann auch zwei getrennte Pupillenbereiche aufweisen, denen je ein eigenes Objektivsystem zugeordnet ist, so dass getrennte und meist parallele Strahlengänge für die Beleuchtung und Beobachtung bestehen. Das Leica-Stereomikroskop MZ 12 ist dafür ein Beispiel.
  • Es ist aber auch möglich, dass ein Frontobjektiv nur einen einzigen Pupillenbereich aufweist und diesem auch nur ein einziges weiteres Objektiv zugeordnet ist, welches dann gemeinsam für die Beleuchtung und Beobachtung des Objektes genutzt wird. Dann erfolgt die notwendige Trennung der Lichtbündel von Beleuchtung und Beobachtung mittels eines Strahlteilers.
  • Es ist vorteilhaft, die Beobachtungspupille dieses Frontobjektivs so zu wählen, dass sich eine numerische Apertur von mindestens etwa 0,05 für die Beobachtung ergibt. Die Beleuchtungsapertur sollte dann ebenfalls mindestens 0,05 betragen. Der Abstand zwischen den beiden Pupillen kann etwa das Doppelte des Pupillendurchmessers betragen.
  • Unabhängig von der Gestaltung des Beleuchtungs- und Beobachtungssystems besteht also an jedem Punkt des Objektes zwischen jedem Hauptstrahl des Beleuchtungsbündels und jedem Hauptstrahl des Beobachtungsbündels vorzugsweise ein Triangulationswinkel von mindestens 2°. Typisch sind Werte im Bereich von 5° bis 30°, so dass hierbei auch mit Vorteil ein Triangulations-Messverfahren mit Kontrast und Phasenauswertung eingesetzt werden kann.
  • Ohne dass Details vom Profil des Objektes bekannt sind, werden mittels der bekannten Parameter der Relativbewegung nacheinander Pixel auf dem Sensor-Chip so belichtet und ausgelesen, dass sich eine Nachverfolgung des hinsichtlich seiner Oberflächengestalt und Reflektivität weitgehend unbekannten Objektes ergibt. Die Nachverfolgung erfolgt so, als ob je ein Bild eines relativ zum Sensor-Chip bewegten Objektpunktes auf dem Bildempfänger das jeweils aktuell zugehörige Pixel selbst ausliest, also durch den sich bewegenden Hauptstrahl des Abbildungsbündels dieses Objektpunktes. Diese Betrachtung geht hierbei vom Hauptstrahl der Abbildung aus, da das Objektpunktbild ja auch völlig unscharf sein kann. In der Regel wird bei der zu vermessenden Objektoberfläche von einer zumindest näherungsweise bekannten mittleren Entfernung derselben vom optischen Sensor ausgegangen.
  • Ein Winkel γ von einigen Grad wirkt sich nun wie folgt bei der Aufnahme von Bildern mit dem optischen Sensor aus, wobei hier ein Standardfall als Beispiel beschrieben wird: Zu Beginn der Detektion eines zum optischen Sensor mit Lateralkomponente bewegten Objektpunktes, also bei seinem Eintritt in den optischen Erfassungsbereich des optischen Sensors, wird dieser Objektpunkt in der Regel unscharf beleuchtet und auch unscharf abgebildet. Auf dem Objektpunkt tritt trotz lateraler Bewegung im Lichtfeld praktisch keine Änderung der Beleuchtungsstärke auf. Bei der weiteren Bewegung passiert dieser hier betrachtete Objektpunkt nach und nach mehrere Hell-Dunkel-Bereiche des Lichtfeldes, da er in den Bereich des Lichtfeldes gelangt, welches nun strukturiert ist. So verändert sich die Beleuchtung dieses bewegten Objektpunktes, also die Lichtintensität auf demselben periodisch mit der Zeit. Ist das Bild des Objektpunktes etwa im mittleren Bereich des Sensor-Chips der Kamera angelangt, der dem Erfassungsbereich des optischen Sensors entspricht, erfolgt eine scharfe Abbildung des Liniengitters auf die Objektoberfläche und somit auch auf den Objektpunkt. Vorzugsweise erfolgt jetzt auch eine scharfe Abbildung des Objektpunktes auf die pixelierte Kamera, da das Bild des Liniengitters und das Bild des Sensor-Chips der pixelierten Kamera im Objektraum vorzugsweise zusammenfallen. Im weiteren Verlauf der Bewegung des Objektes wird der betrachtete Objektpunkt in der Regel wieder unscharf beleuchtet und unscharf abgebildet, da die Bewegung des Objektes mit Lateralkomponente aufgrund des Winkels γ auch stets eine Komponente enthält, die parallel zur Normalen der Schärfeebene des strukturierten Lichtfeldes liegt. So ändert sich bei der erfindungsgemäßen Bewegung des Objektes die Entfernung dieses Objektes zur Schärfeebene ständig und damit auch der Kontrast der zu beobachtenden Streifen.
  • Aus der vorab bekannten Bewegungsrichtung und -geschwindigkeit des Objektes mit den aus der Objektbewegung gesteuert zu belichtenden und auszulesenden Pixeln des Sensor-Chips einer pixelierten Kamera wird eine laterale Verfolgung von Objektpunkten realisiert, wobei die Signalwerte eines jeden verfolgten Objektpunktes programmgesteuert je einem virtuellen Pixel zugeordnet werden. Das Bild des Objektes bewegt sich also mit Lateralkomponente relativ zum Sensor-Chip, wobei für die Sensorfläche des Sensor-Chips so stets auch eine in-plane-Komponente der Bildbewegung gegeben ist. Dazu wird je ein zum Sensor-Chip, bewegtes, virtuelles Pixel für jedes einzelne Flächenelement der Objektoberfläche durch das Rechnerprogramm generiert, wenn das Flächenelement den Erfassungsbereich des Sensors aufgrund seiner lateralen Bewegungskomponente passiert. Das bewegte, virtuelle Pixel existiert maximal nur für die Zeitdauer ΔtP, die ein relativ zum Sensor-Chip bewegter Bildpunkt des Objektes für das Passieren der Sensor-Chip-Fläche benötigt.
  • Das bewegte, virtuelle Pixel wird aus einer kontinuierlichen Folge von nacheinander auszuwertenden physikalisch realen Pixeln programmgesteuert errechnet, wobei vorzugsweise genau die Signalwerte physikalisch realer Pixel verrechnet werden, die auf dem Sensor-Chip direkte Nachbarn sind. Das von einem physikalisch realen Pixel bei scharfer Abbildung detektierte Flächenelement auf der Objektoberfläche kann dabei beispielsweise eine Ausdehnung von 2 μm × 2 μm bis zu 20 μm × 20 μm je nach Abbildungsmaßstab und Pixelgröße des Sensor-Chips aufweisen, wobei die numerische Apertur der Beobachtung entsprechend groß genug gewählt werden sollte. Ein technisch optimaler Wert ist hierbei beispielsweise eine numerische Apertur von 0,1.
  • Dabei repräsentiert jedes physikalisch reale Pixel einen unveränderlichen Referenzphasenwert, der sich aus der zufälligen Lage des Liniengitters in bezug auf den Sensor-Chip und der Gitterkonstante des Liniengitters ergibt und der mittels Referenzmessung mit einer Referenzplatte hochgenau bestimmt werden kann, beispielsweise durch Tiefen-Scannen. Eine andere, besonders einfache Möglichkeit besteht darin, die Referenzplatte möglichst genau in die Schärfefläche SEO zu legen und eine statische Phasenauswertung durchzuführen. Der mit einer der beiden Methoden bestimmte Referenzphasengang φ_R als Funktion der Lateralkoordinate des Sensor-Chips in Bewegungsrichtung der Bildpunkte wird abgespeichert. Für jedes über die Sensor-Chip-Fläche programmgesteuert mit einer bekannten Geschwindigkeit bewegte virtuelle Pixel kann so der Referenzphasengang des Sensors φ_Rt im Zeitbereich aktuell errechnet werden.
  • Die maximale Bewegungsgeschwindigkeit des Objektes ergibt sich aus der Größe des Abstandes von zwei auf dem Objekt abgebildeten Pixeln pro minimal benötigter Auslesezeit für ein Pixel. Das Ziel besteht darin, das Bild eines jeden virtuellen Pixels genau so zu bewegen, dass es „seinem" relativ zum Sensor mit Lateralkomponente bewegten Objektpunkt vorteilhafterweise für die Zeitdauer ΔtP möglichst genau fest zugeordnet ist. Die Genauigkeit der Zuordnung eines auf dem Sensor-Chip sich mit Lateralkomponente bewegenden Objektpunktbildes und eines sich programmgesteuert dort bewegenden, virtuellen Pixels kann dabei im Bereich der Größe eines Pixels liegen.
  • Dieses ortsfeste Zuordnen kann modellhaft auch so verstanden werden, dass sich dabei das virtuelle Pixel wie auf einem „Laufband" – und im Modell außerdem unmittelbar vor dem bewegten und zu verfolgenden Objektpunkt – befindet. Der Objektpunkt befindet sich dabei in einem zu seiner Bewegungsbahn geneigten, strukturierten Lichtfeld. Dabei weist das „Laufband" mit dem bewegten, virtuellen Pixel zumindest näherungsweise die gleiche Geschwindigkeit wie das sich davor bewegende Objekt auf, so dass nacheinander mehrere Bilder von demselben Objektpunkt aufgenommen werden können. So ergibt sich nacheinander im Objektpunkt eine periodische Hell-Dunkel-Beleuchtung mit wechselndem Kontrast. Dabei tritt in der Regel ein Kontrastmaximum der Beleuchtung auf. Es wird erfindungsgemäß der Ort des maximalen Kontrastes im detektierten, periodischen Signal ausgewertet.
  • Mittels des Beobachtungsstrahlengangs des optischen Sensors verfolgt das bewegte, virtuelle Pixel einen bestimmten Punkt eines relativ zum Sensor mit Lateralkomponente bewegten Objektes, beispielsweise den Randbereich eines Mikroloches, kontinuierlich. Dies ist möglich, da die Geschwindigkeit des Objektes vorab bekannt ist oder bei der Objektbewegung echtzeitnah gemessen wird. Mit dem relativ bewegten Objekt bewegt sich auch das Bild des virtuellen Pixels synchron mit, so dass im Schärfebereich der Abbildung des Liniengitters auf der Objektoberfläche, beispielsweise auf den Randbereich eines Mikroloches, vom Bild des virtuellen Pixels wegen der projizierten Streifen hell und weniger hell beleuchtete Bereiche durchfahren werden. Mittels diesem bewegten, virtuellen Pixel kann im zugehörigen Prozessor ein moduliertes, periodisches elektronisches Signal mit einer bestimmten Phasenlage und einer Einhüllenden erzeugt und gespeichert werden, die in der Regel ein einziges Maximum aufweist. Aus diesem Signalverlauf wird zumindest der Schwerpunkt der Einhüllenden, der zumindest näherungsweise dem Ort des Kontrastmaximums entspricht, bestimmt, um die Tiefenposition des mit dem virtuellen Pixel detektierten Objektpunktes festzustellen. Beim Vorhandensein eines effektiven Triangulationswinkels kann auch eine Phasenauswertung zur Genauigkeitssteigerung eingesetzt werden. Zur Bestimmung des Schwerpunktes der Einhüllenden des periodischen Signalverlaufs kann vorzugsweise eine digitale Lock-in Detektion mittels Rechenprogramm angewendet werden, das also einen digitalen Lock-in Detektor darstellt. Dabei ist die aktuelle Frequenz des periodischen Signals zumindest näherungsweise vorab bekannt, und der digitale Lock-in Detektor ist stets auf diese aktuelle Frequenz eingestellt. Die aktuelle Frequenz eines jeden – mittels virtuellen Pixels – detektierten periodischen Signalverlaufs ist der Geschwindigkeit der Bewegung des Bildes eines Objektes auf dem Sensor-Chip proportional. Wenn die Geschwindigkeit des Objektes nicht vorab bekannt ist, wird diese aktuelle Frequenz des periodischen Signalverlaufs echtzeitnah mittels Messung der Geschwindigkeit des Objektes und aus den bekannten Parametern der Anordnung bestimmt wird. Dabei ist zum einen der Abbildungsmaßstab der Kette: Gitter, Beleuchtungsstrahlengang, Objekt, Abbildungsstrahlengang und Kamera zu betrachten sowie die Gitterkonstante. Dabei kann es jedoch auf die aktuelle Frequenz auch noch einen geringen Einfluss durch den aktuell effektiv wirksamen Triangulationswinkel geben, so dass hier gegebenenfalls eine geringe Frequenzanpassung für die digitale Lock-in Detektion noch von Vorteil sein kann.
  • Durch die echtzeitnahe Erfassung der relativen Bewegung zwischen dem Objekt und dem Sensor und der daraus abgeleiteten Bestimmung der aktuellen Signalfrequenz kann die digitale Lock-in Detektion mit der Bestimmung des Schwerpunktes der Einhüllenden auch für einen mit Lateralkomponente zur Szene bewegten, handgeführten optischen Sensor zur dreidimensionalen Erfassung dieser Szene eingesetzt werden. Dies ist auch dann möglich, wenn es eine veränderliche laterale Bewegungsgeschwindigkeit des Sensors in Bezug zur Szene gibt.
  • Auch zur Phasenauswertung kann eine digitale Lock-in Detektion angewendet werden. Die aktuelle Signalfrequenz kann durch eine Messung der aktuellen Bewegungsgeschwindigkeit des Objektes bestimmt und in das Auswerteprogramm, welches die digitale Lock-in Detektion durchführt, eingegeben werden. Bei der digitalen Lock-in Detektion kann mit verschiedenen Lock-in Frequenzen gearbeitet werden. Bei Vorhandensein eines Triangulationswinkels im Linienprojektor-Sensor wird der Phasengang für jeden verfolgten Objektpunkt in der Umgebung des Schwerpunktes als Objektphasengang φ_O berechnet und mit einem vorab bestimmten Referenzphasengang φ_R rechnerisch zum Schnitt gebracht. Der Schnittpunkt derselben liegt auf dem Sensor-Chip. Aus den bekannten geometrisch-optischen Parametern des Sensors kann also aus der Position dieses Schnittpunktes von Referenz- und Objektphasengang die jeweilige Tiefenposition des jeweils detektierten Objektpunktes errechnet werden, wobei sich dessen laterale Position aus der bekannten Position der virtuellen Pixel über der Zeit ergibt.
  • Durch die vorab bekannten Bewegungsparameter des Objektes werden also mittels elektronischer Programmsteuerung des Belichtungs- und Auslesevorganges der pixelierten Kamera und einem Steuerprogramm virtuell auf dem Sensor-Chip bewegte Pixel erzeugt. Dabei erfolgt die Zuordnung eines einzelnen virtuellen Pixels zu einem einzelnen Objektpunkt mit dem Eintritt dieses Objektpunktes in den Erfassungsbereich des optischen Sensors im Pixelauslesetakt, also wenn das in der Regel unscharfe Bild eines Objektpunktes das erste Mal am Rand des Sensor-Chips sichtbar wird. Das virtuelle Pixel, welches zu diesem Zeitpunkt für diesen Objektpunkt programmgesteuert erzeugt wird, kann – wie alle virtuellen Pixel – eine Identifikationsnummer erhalten. Dieses virtuelle Pixel besteht nur genau für die Durchgangszeit dieses bewegten Objektpunktes durch den Erfassungsbereich des optischen Sensors. Wenn sich das virtuelle Pixel aus seiner ersten Position, also beispielsweise ganz am Rand des Sensor-Chips, um einen Pixel-Pitch des Sensor-Chips lateral weiterbewegt hat, wird bereits ein neues, virtuelles Pixel in der Randposition des Sensor-Chips gebildet, welches dann den Nachbarn des vorherigen Objektpunktes in Bewegungsrichtung des Objektes detektiert und programmgesteuert ebenfalls verfolgt. So kann der Bewegungsunschärfebereich nicht größer als maximal ein abgebildeter Pixel-Pitch werden. Es ist aber auch möglich, dass das nächste virtuelle Pixel erst gebildet wird, wenn sich das vorherige bereits um mehrere, beispielsweise um vier Pixel-Pitches, weiterbewegt hat. Dann beträgt die elektronisch gesteuerte Shutter-Zeit nur maximal ein Viertel der Frame-Auslesezeit. Dies ist von Vorteil, wenn sich das Objekt sehr schnell bewegt und die Frame-Auslesezeit der Kamera die Begrenzung darstellt. Andererseits setzt dies wegen der kurzen Shutter-Zeit eine starke Lichtquelle voraus.
  • Aus den zumindest näherungsweise bekannten Bewegungsparametern des Objektes und den Kameradaten werden der Ort, die Integrationszeit und der Ausleszeitpunkt für das jeweils nachfolgende reale Pixel vorab bestimmt, so dass aus diesen reale Pixeln jeweils ein auf dem Sensor-Chip bewegtes, virtuelles Pixel programmgesteuert generiert werden kann. So erfolgt zumindest für einen Teil der Dauer der lateralen Bewegung eines jeden Schwerstrahls eines Bildes eines Objektpunktes über den Sensor-Chip eine feste Kopplung von je einem Objektpunkt mit je einem mitbewegten, virtuellen Pixel. Der Ort des aktuellen realen Pixels, welches zur Bildung des virtuellen Pixels, beispielsweise für die Dauer einer Integrationszeit des realen Pixels benutzt wird, ergibt sich zu jedem Zeitpunkt durch die Abbildung des jeweiligen Objektpunktes mittels Schwerstrahl auf die pixelierte Kamera. Auch wenn einmal an einer Stelle des Objektes kein Objektpunkt vorhanden sein sollte, beispielsweise aufgrund eines sehr tiefen Loches im Objekt, wird dennoch programmgesteuert ein bewegtes, virtuelles Pixel erzeugt.
  • Die auf dem Sensor-Chip bewegten, virtuellen Pixel mit aufeinander folgenden Identifikationsnummern sind vorzugsweise direkt nebeneinander in einer Linie angeordnet. Die physikalisch realen Pixel der Kamera werden also zeitlich nacheinander so belichtet und ausgelesen, dass genau ein einzelner Objektpunkt pixelgenau verfolgt werden kann. Die Geschwindigkeit des Bildes eines bewegten, virtuellen Pixels auf dem Objekt muss hierbei möglichst genau der Geschwindigkeit des Objektes entsprechen.
  • Der so mittels bewegtem, virtuellen Pixel gewonnene Signalverlauf stellt in der Regel ein periodisches Signal mit einer bestimmten Phase und einer Einhüllenden mit mindestens einem Signalmaximum dar. Die Phasenlage ergibt sich aus der aktuellen Tiefenposition des Objektpunktes des optischen Sensors. Jedoch nur, wenn ein Triangulationswinkel im Objektraum besteht, der ja die effektive Triangulationswellenlänge bestimmt, trägt die Phase im detektierten Signal auch eine Information über die Tiefe des Objektpunktes. Nur dann ist es sinnvoll, auch diese Phase auszuwerten.
  • Es wird also der Phasengang in der Umgebung des Schwerpunktes der Einhüllenden für jeden verfolgten Objektpunkt Pj des periodischen Signals, welches mit einem virtuellen Pixel gewonnen wurde, bestimmt. Dies führt in der Regel zu einer höheren Genauigkeit bei der Bestimmung der Tiefenposition eines Objektpunktes als die Auswertung der Modulation des periodischen Signals.
  • Die Triangulationswellenlänge im Objektraum ergibt sich in bekannter Weise aus dem Quotienten der Gitterkonstante des Bildes des Liniengitters auf der Objektoberfläche und der Summe der Tangenswerte des Winkels der Beleuchtung und des Winkels der Beobachtung. Diese beiden Winkel bilden den Triangulationswinkel, der sich bei einem optischen Sensor mit einem einzigen Frontobjektiv aus dem Abstand des Lichtschwerpunktes des Beleuchtungsschwerstrahls und des Beobachtungsschwerstrahls in dessen Pupillenebene und der Brennweite des Frontobjektivs ergibt. Dabei fällt die Pupillenebene des Frontobjektivs vorzugsweise mit dessen Brennebene aufgrund einer dort vorzugsweise angeordneten Abschattblende zusammen.
  • Wenn die Geschwindigkeit der Objektbewegung konstant, das Liniengitter äquidistant ist und wenn das Beleuchtungsbündel im Objektraum und das Abbildungsbündel im Array-Raum kollimiert sind, ergibt sich in der Regel für das mittels virtuellem Pixel detektierte, periodische Signal eine konstante Frequenz, die jedoch in jedem Objektpunkt auch vom aktuell wirksamen Triangulationswinkel beeinflusst wird.
  • Dabei ist durch die Wahl der numerischen Apertur von Beleuchtung und Beobachtung und des Tangens des Winkels γ, wobei der Winkel γ vorzugsweise auch 45° betragen kann, die Einhüllende des periodischen Signals vorzugsweise so bestimmt, dass nicht mehr als maximal 20 Perioden unter dieser Einhüllenden auftreten. Dies gilt insbesondere dann, wenn eine Phasenauswertung vorgenommen wird. Bei Kontrastauswertung können auch bis zu 100 Perioden unter dieser Einhüllenden noch mit einem Vorteil für die Genauigkeit ausgewertet werden. Dabei ist vorab die Soll-Frequenz des periodischen Signals für einen bestimmten Triangulationswinkel sehr genau bekannt, so dass mit Vorteil die digitalen Lock-in Verfahren eingesetzt werden können. Nach Ablage der mittels bewegtem, virtuellen Pixel gewonnenen Intensitätswerte in einem Speicherbereich ist es ja gleichgültig, ob diese Intensitätswerte in örtlicher oder zeitlicher Zuordnung gewonnen wurden, wobei es sich hier wegen der Verfolgung einzelner Objektpunkte letztlich hier immer um eine örtliche Zuordnung, jedoch zu einem bestimmten Zeitpunkt, handelt. Erst durch die Bewegung des Objektes und die programmtechnische Generierung eines virtuellen Pixels erfolgt die Transformation der Signale in den Zeitbereich.
  • Weiterhin ist aber auch möglich, einen mit der menschlichen Hand oder von einem Roboterarm mit Lateralkomponente bewegten mobilen optischen Sensor – in der bereits zuvor beschriebenen Art – einzusetzen, wobei der Winkel γ hierbei sehr groß sein kann und beispielsweise 75° betragen kann. Der Beleuchtungs- und der Beobachtungsstrahlengang kann dabei völlig voneinander getrennt sein. Dabei kann im Objektraum im Schnitt senkrecht zu den Streifen das Beleuchtungsbündel vorzugsweise telezentrisch und im dazu senkrechten Schnitt mittels Zylinderoptik zentralperspektivisch sein. So entsteht ein langgezogenes, strukturiertes Lichtband, welches die Szene in einem großen Winkelbereich erfasst. Bei diesem Sensor kann aus den Bildern von der aufgenommenen Szene, die mit einer hinreichend schnellen Kamera gewonnen wurden, die Relativbewegung zwischen der Szene und dem Sensor so rekonstruiert werden, dass zumindest näherungsweise ein für jeden detektierbaren Punkt der Szene bewegtes, die Punkte der Szene jeweils nachverfolgendes, virtuelles Pixel errechnet werden kann. Dazu kann beispielsweise auch die Auswertung der Textur der Szene ausgenutzt werden. Zur Ermittlung der Relativbewegung kann auch noch ein weiterer Kamera-Chip eingesetzt werden. Gegebenenfalls kann die Szene dabei mittels einer zusätzlichen Lichtquelle beleuchtet werden, die an die Beleuchtungsaufgabe optimal angepasst ist. Mittels der bereits beschriebenen Ausweitung der Signale, die mit bewegten virtuellen Pixeln gewonnen wurden, kann so das dreidimensionale Profil der Szene mit einem Hand-held-Gerät bestimmt werden.
  • Das Objekt kann auch zylindrisch geformte Oberflächen aufweisen, beispielsweise, wenn es sich um ein zylindrisches Präzisionsdrehteil handelt. Vorteilhafterweise wird dieses Präzisionsdrehteil im Messvorgang mittels Präzisionslager um seine Symmetrieachse gedreht. Die Schärfeebene des Liniengitters im Objektraum kann dann vorteilhafterweise ebenfalls eine Zylinderfläche darstellen mit einem zumindest näherungsweise gleichen Radius wie die zu vermessende Zylinderfläche. Dies ist durch die Anordnung und Abbildung eines gekrümmten Liniengitters auf die Objektoberfläche möglich, wobei die Zylinderachse desselben parallel zur Achse des zylindrischen Objektes liegt. Dabei sind die Achsen der beiden Zylinderflächen um den Betrag d separiert. Der Betrag d ist dabei so zu wählen, dass zwischen einer Tangente an die Zylinderfläche und der Tangente an die Schärfefläche SEO des Liniengitters im Durchstoßpunkt Pjs der Bewegungsbahn bj eines bewegten Objektpunktes Pj durch die Schärfefläche SEO ein Winkel von mindestens γ = 1° besteht. Eine gekrümmte Schärfefläche SEO kann aber auch durch eine spezielle Abbildung des Liniengitters, beispielsweise unter Verwendung mindestens einer zylindrischen Zerstreuungslinse, erzeugt werden. Auch dann besteht so stets ein Winkel γ von mehr als 1° zwischen den Tangenten an die Schärfefläche SEO, also der Bildfläche des Liniengitters im Objektraum, und den Tangenten der Bewegungsbahnen bj der einzelnen Objektpunkte Pj am jeweiligen Durchstoßpunkt Pjs durch diese Schärfefläche SEO. So entsteht auch bei zylindrischen Oberflächen durch das kontinuierliche Auslesen der den bewegten Objektpunkten nachgeführten realen Pixel, also beim Auslesen des durch Programmsteuerung erzeugten, mitbewegten, virtuellen Pixels, jeweils ein periodischer Signalverlauf mit einer Einhüllenden für jeden Objektpunkt. Auch hierbei kann sich bei konstanter Rotationsgeschwindigkeit des Objektes und bei einem zumindest näherungsweise äquidistanten Liniengitter jeweils eine zumindest näherungsweise konstante Signalfrequenz ergeben, wobei die Signalfrequenz auch durch die Größe des effektiven Triangulationswinkels beeinflusst wird.
  • Grundsätzlich ergibt sich in Abhängigkeit von der jeweiligen Entfernung eines Objektpunktes vom optischen Sensor – also von der Tiefenposition des Objektpunktes – im periodischen Signal eine bestimmte Phasenlage und auch eine bestimmte Lage des Maximums der Einhüllenden. Bei großen Abweichungen eines Objektpunktes von der mittleren Entfernung der Oberfläche, beispielsweise, wenn sich ein Objektpunkt auf einem stark hochstehenden Grat befindet, ist das Maximum der Einhüllenden deutlich verschoben. Beim Vorhandenseins eines Triangulationswinkels kann aus der Auswertung der Phasenlage in den einzelnen Signalen die Tiefenposition der Objektpunkte mit noch höherer Genauigkeit bestimmt werden. Dies gilt besonders für Anordnungen mit zwei völlig getrennten Strahlengängen für die Beleuchtung und die Beobachtung. Hierbei wird vorzugsweise am Modulationsmaximum – also am Ort der besten Schärfe – der Schnittpunkt des vorab im Zeitbereich bestimmten Referenzphasenganges des Sensors φ_Rt mit dem Phasengang φ_Otj eines im Zeitbereich bestimmten, unbekannten Objektpunktes Pj bestimmt. Ausgegangen wird dabei rechnerisch vom Referenzphasengang φ_R, der eine Funktion der lateralen Sensor-Chip-Koordinaten ist und der wie bereits beschrieben vorab bestimmt wurde. Daraus wird mittels der bekannten Bewegungsgeschwindigkeit des Objektes ein Referenzphasengang φ_Rt über der Zeit berechnet, der sich für einen zum Objektpunkt synchron bewegten Referenzpunkt in der Schärfefläche SEO ergeben würde. Die Bewegung des Referenzpunktes in der Schärfefläche SEO entspricht dem Fall des Triangulationswinkels null. Der Phasengang φ_Otj über der Zeit eines Objektpunktes Pj wird aktuell mittels virtuellem Pixel am Modulationsmaximum errechnet. Für den Fall des Triangulationswinkels null fallen die Phasengänge von Referenz φ_Rt und Objektpunkt φ_Otj Modulo 2π zusammen, so dass die Berechnung eines derartigen Schnittpunktes praktisch nicht möglich ist. Bei Vorhandensein eines Triangulationswinkels von einigen Grad ergibt dies dagegen ein sehr genaues Kriterium für die Tiefenposition eines bewegten Objektpunktes. Aus dem Ort des Schnittpunktes auf dem Sendemuster-Array kann die Tiefenposition eines jeden Objektpunktes unter Verwendung der bekannten geometrisch-optischen Parameter der Anordnung ermittelt werden.
  • Besonders bei Sensor-Anordnungen mit einem einzigen Frontobjektiv, wenn der Triangulationswinkel zumindest näherungsweise null ist, wird nur das Auswerten des Schwerpunktes der Einhüllenden für jeden Objektpunkt durchgeführt, wobei hier stets das Signal des virtuellen Pixels ausgewertet wird. Die Auswertung der Einhüllenden genügt in der Regel dann, wenn eine große numerische Apertur für die Beleuchtung und die Beobachtung gegeben ist und der Triangulationswinkel ohnehin zum Aperturwinkel vergleichsweise klein oder sogar null ist. Wenn das Objekt mit extrem hoher Geschwindigkeit lateral zum Sensor bewegt wird – beispielsweise mit einer Geschwindigkeit von mehr als 100 mm/s – steht die Zeit für die numerisch aufwendigere Phasenauswertung ohnehin meist nicht zur Verfügung, bzw. es ist ein besonders hoher technischer Aufwand erforderlich.
  • Grundsätzlich können für die Ausweitung der Phase in den detektierten Signalen auch FFT-, Wavelet-Methoden oder andere beliebige Phasenauswerte-Algorithmen sowie auch Kreuzkorrelations-Verfahren mit vorab gewonnenen und abgespeicherten Referenzsignalverläufen eingesetzt werden.
  • Weiterhin wird vorzugsweise eine pixelierte Kamera mit einem Kamera-Chip mit einem aufgesetzten Mikrolinsen-Array eingesetzt. Dieses Mikrolinsen-Array bewirkt durch die begrenzte laterale Ausdehnung der lichtempfindlichen Fläche des Pixels stets eine Begrenzung des Aperturwinkels des Lichtbündels, welches auf das Pixel trifft. Bei Kippung der Kamera mit dem eingebauten Kamera-Chip und dem Mikrolinsen-Array um eine zur Einfallsebene der Schwerstrahlen der Lichtbündel von Beleuchtung und Beobachtung im Objektraum senkrechte Achse wird das auf die realen Pixel fallende Bündel etwas asymmetrisch beschnitten. Ohnehin ist in der Regel eine Verkippung des Kamera-Chips ja auch meist notwendig, um die benötigte Koinzidenz der Schärfefläche des Kamera-Chips mit der Schärfefläche des Gitterbildes im Objektraum zu erreichen.
  • Der Kamera-Chip kann aber auch senkrecht zur optischen Achse des zugehörigen Objektivs angeordnet sein, wenn die Schärfefläche des strukturierten Lichtfeldes senkrecht auf der optischen Achse des Beobachtungsstrahlenganges steht. Dann kann bei Verwendung eines gemeinsamen Frontobjektives mit zwei Pupillenbereichen auch das Sendemuster-Array senkrecht zur optischen Achse des Beleuchtungsstrahlenganges angeordnet sein. Eine derartige Anordnung ermöglicht, die Zoomfunktion eines Stereomikroskops uneingeschränkt zu verwenden, da sich die Schärfeebene SEO durch die Änderung der Vergrößerung nicht dreht, also der Winkel γ von der Zoomeinstellung des Stereomikroskops nicht beeinflusst wird.
  • Andererseits kann die Beeinflussung des Winkels γ im Zusammenwirken mit der Zoomfunktion eines Stereomikroskops auch gezielt eingesetzt werden, um eine für ein Objekt bestangepasste Signalform zu finden, indem die neben der Vergrößerung des Mikroskops auch die Breite der Einhüllenden beeinflusst wird. In diesem Fall besteht im Sensor eine Verkippung des Kamera-Chips und des Liniengitters.
  • Die asymmetrische Beschneidung des Lichtbündels ergibt sich bei einer Verkippung des Kamera-Chips mit aufgesetzten Mikrolinsen aus der lateralen Ausdehnung des Pixels, das in der Regel deutlich kleiner als der Durchmesser der Mikrolinse ist, im Zusammenwirken mit der Brennweite der vorgesetzten Mikrolinse. So besteht für das System Pixel mit Mikrolinse ein Grenzaperturwinkel von beispielsweise 10° für auftreffendes Licht. Diese asymmetrische Begrenzung des auf das Pixel treffenden Lichtbündels erfolgt durch die Kippung der Kamera mit dem Mikrolinsen-Array erfindungsgemäß so, dass dies eine laterale Verschiebung des Lichtschwerpunktes LSP_D in der Pupillenebene des Frontobjektivs zur Folge hat, so dass dieser außeraxial ist. So vergrößert sich die effektive Triangulationsbasis d_nom gegenüber dem Fall mit zur Objektivachse senkrechter Lage des Kamera-Chips deutlich. Die effektive Triangulationsbasis d_nom ist durch den Abstand des Lichtschwerpunktes der Beleuchtung LSP_L und der Beobachtung LSP_D bestimmt.
  • Durch diese Kippung des Kamerachips, die in der Regel gemeinsam mit der Kamera erfolgt, kann die effektive Triangulationswellenlänge beispielsweise noch etwa um die Hälfte verkleinert werden. Dies verbessert die Tiefenmess-Genauigkeit bei der Bestimmung des Profils und bei der Erkennung von Fehlern auf der Oberfläche ganz wesentlich. Außerdem kann so die numerische Apertur der Beleuchtung gleich oder sogar größer als die Beobachtungsapertur gemacht werden, was den Kontrast des unerwünschten Specklings im aufgenommenen Bild stark reduzieren kann.
  • Erfindungsgemäß wird also vorgeschlagen, bei einem optischen Messverfahren die aperturbegrenzende Wirkung eines Mikrolinsen-Arrays einer Kamera zur lateralen, außeraxialen Verschiebung des Lichtschwerpunktes des Lichtbündels der Objektbeobachtung LSP_D in der Pupillenebene eines Frontobjektivs zu nutzen, die so zur effektiven Vergrößerung der Triangulationsbasis d_nom führt.
  • Grundsätzlich kann also in jeder Triangulationsanordnung die aperturbegrenzende Wirkung eines System Mikrolinse mit detektierendem Pixel zur gezielten Beeinflussung der Schwerstrahllage im Beobachtungsstrahlengang verwendet werden.
  • Die nachfolgenden Offenlegung wird durch die Ansprüche 9 und 10 abgedeckt. Weiterhin ist es aber auch möglich, dass ein optischer Sensor mit einem Liniengitter aufgebaut ist, welches von Lichtquelle mit Kollimator beleuchtet wird. Das kollimierte Lichtbündel gelangt auf das Liniengitter. Es entstehen gebeugte Teilbündel, wobei mindestens ein gebeugtes Teilbündel eine Kreisringblende in der gemeinsamen Fokalebene der nachfolgenden Objektive passiert, die eine afokale Abbildungsstufe bilden. Durch die Fokussierung mittels einem dem Objekt zugeordneten Prüfobjektiv entsteht auf den Flächenbereichen des entlang einer Geraden b bewegten Objekts ein hochfrequentes Streifenbild. Dabei beträgt die Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes (Pj) des Objektes im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Liniengitters mindestens 1°. Das am Objekt reflektierte und gestreute Licht passiert die afokale Abbildungsstufe mit dem Prüfobjektiv und die Kreisringblende und wird wieder auf das Liniengitter abgebildet. Die Ebene des Liniengitters wird anschließend scharf auf den Sensor-Chip einer Kamera abgebildet. Von Vorteil ist hier, dass die in den virtuellen Pixeln, welche das bewegte Objekt nachverfolgen, Signale generiert werden können, die in der Form den bekannten kurzkohärenten Signalen aus der Interferometrie entsprechen. Diese weisen in erster Näherung stets die gleiche Phase auf, nämlich die Phase null am Schwerpunkt der Einhüllenden des Signals. Dies vereinfacht die Signalauswertung erheblich gegenüber Signalen mit einer variablen Phase am Schwerpunkt, bzw. am Kontrastmaximum.
  • Weiterhin ist es möglich, dass das Liniengitter als ein Phasengitter ausgebildet ist. Dies liefert Signale mit einem hohen Modulationsgrad. Das Phasengitter wird von einer quasi-monochromatischen Lichtquelle beleuchtet, die aus einem Laserdioden-Array besteht. Das kollimierte Lichtbündel gelangt auf ein Phasengitter. Es entstehen zwei gebeugte Teilbündel in den beiden ersten Beugungsordnungen. Die nullte Beugungsordnung ist fast vollständig unterdrückt. Die beiden gebeugten Teilbündel passieren eine Kreisringblende in der gemeinsamen Fokalebene der nachfolgenden Objektive, die eine afokale Abbildungsstufe bilden. Durch die Fokussierung mittels dem dem Objekt zugeordneten Prüfobjektiv entsteht auf den Flächenbereichen des entlang einer Geraden b bewegten Objekts ein hochfrequentes Interferenzbild. Dabei beträgt die Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes (Pj) des Objektes im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Liniengitters mindestens 1°. Das am Objekt reflektierte und gestreute Licht passiert die afokale Abbildungsstufe mit den Objektiven und die Kreisringblende und wird wieder auf das Phasengitter abgebildet. Es entstehen am Phasengitter zwei gebeugte und kollineare Teilbündel, die mittels nachfolgendem Objektiv über eine Lochblende, die der Raumfrequenzfilterung und der Sperrung der weiteren gebeugten Teilbündel dient, auf den Sensor-Chip einer Kamera gelangen werden, so dass die Ebene des Phasengitters mittels zweitem Objektiv nach der Lochblende scharf abgebildet wird. Dabei bilden die beiden Objektive um die Lochblende eine afokale Abbildungsstufe. Von Vorteil ist hier, dass die in den virtuellen Pixeln, welche das bewegte Objekt nachverfolgen, Signale generiert werden, die in der Form den kurzkohärenten Signalen entsprechen. Diese weisen in erster Näherung stets die gleiche Phase auf, nämlich die Phase null am Schwerpunkt der Einhüllenden des Signals. Dies vereinfacht die Signalauswertung erheblich gegenüber Signalen mit einer variablen Phase am Schwerpunkt, bzw. am Kontrastmaximum.
  • Beschreibung der Figuren
  • Anhand der 1 bis 10 werden verschiedene Ausführungsbeispiele dargestellt. Das in 1 von einer Lichtquelle 1 ausgehende kollimierte Lichtbündel ist zur optischen Achse des Objektivs 7 geneigt und beleuchtet ein Liniengitter 2, welches als Ronchi-Gitter ausgebildet und das sowohl zum Strahlenbündel als auch zur optischen Achse geneigt angeordnet ist. Das durch das Liniengitter 2 geneigt hindurchtretende Licht gelangt über eine Spiegeltreppe mit den Planspiegeln 14 und 15 und durch eine Strahlteilerfläche 16 über ein Abbildungssystem, bestehend aus den Objektiven 7 und 8, sowie einer Abschattblende 31 in der gemeinsamen Brennebene auf das Objekt 9. Wie in der 2 dargestellt, ist durch das um den Winkel αAL geneigte und kollimierte Lichtbündel der Lichtschwerpunkt LSP-L der Beleuchtung in der Pupille um den Betrag d_nom dezentriert. So gelangt der Schwerstrahl des beleuchtenden Bündels ebenfalls geneigt auf die Oberfläche des Objektes 9. Der Schwerstrahl des beleuchtenden Bündels schließt mit der optischen Achse des Objektivs 8 im Punkt Pji einen Winkel αOL ein. Der Schwerstrahl des beobachtenden Bündels schließt im Punkt Pji einen Winkel αOD ein.
  • Das aus dem Objektiv 8 in 1 austretende Licht wird in die Schärfeebene SEO fokussiert. Der Strahlengang im Objektraum ist telezentrisch. Die Schärfeebene SEO ist hier um den Winkel γ zur achssenkrechten Ebene geneigt, da hierbei die geradlinige Bewegungsbahn b des Objektes 9 senkrecht zur optischen Achse des Objektivs 8 ausgerichtet ist. Die Neigung der Schärfeebene SEO resultiert aus der Neigung des Liniengitters 2. Hier erfolgt eine geradlinige Bewegung des Objektes 9, so dass die Bewegungsbahnen bj aller Objektpunkte Pj zur Bewegungsbahn b des Objektes 9 eine Parallele darstellen. Der Winkel γ in der 1 beträgt etwa 18°. Das Objekt 9, welches eine Zahnform aufweist, ist in unterschiedlichen lateralen Positionen gestrichelt dargestellt, um unterschiedliche Positionen des Objektes 9 zu unterschiedlichen Zeitpunkten zu symbolisieren.
  • Die Abbildung des Objektes 9 erfolgt über das Abbildungssystem, bestehend aus den Objektiven 7 und 8 sowie der Abschattblende 31, und über den Strahlteiler 16, wo der reflektierte Anteil des Lichtes über den Spiegel 17 auf eine geneigte CMOS-Kamera 13 mit einem Mikrolinsen-Array 131 gelangt. Das Bild der effektiven Empfängerfläche der CMOS-Kamera 13, hier die Pupillenfläche der Mikrolinsen, koinzidiert im Objektraum mit dem Bild des Liniengitters 2. Bei der Bewegung des Objektes 9 mit einer bekannten konstanten Geschwindigkeit entlang der Geraden b werden die Signalwerte von realen Pixeln i, i + 1, i + 2 ... so programmgesteuert je einem virtuellen Pixel j zugeordnet, welches dann ein bewegtes, virtuelles Pixel darstellt. Der Rechner ist hier nicht dargestellt. Dabei bestehen mehrere virtuelle Pixel gleichzeitig.
  • Jedes reale Pixel der CMOS-Kamera 13 ist zu unterschiedlichen Zeitpunkten unterschiedlichen virtuellen Pixeln zugeordnet. Bei der Bewegung des Objektes 9 werden die einzelnen physikalisch realen Pixel i, i + 1, i + 2 ... durch die Synchronisation der Bewegung des Objektes 9 und der Belichtung und der Auslesung der Pixel nacheinander jeweils nacheinander genau auf den Objektpunkt Pj abgebildet, obwohl der Objektpunkt Pj sich wegbewegt und so an unterschiedlichen Positionen i, i + 1, i + 2 ... befindet. So kann programmgesteuert ein Signalverlauf von jedem bewegten Objektpunkt Pj mittels je einem mitbewegten, virtuellen Pixel j gewonnen werden, indem die Signalwerte der realen Pixel, beispielsweise die Pixel i, i + 1, i + 2 ..., mittels Speicherung einem einzigen Signalverlauf zugeordnet werden, der genau den Signalverlauf des virtuellen Pixels j darstellt. Hierbei ist jedoch in der Regel eine präzise und gleichmäßige Bewegung des Objektes 9, wobei die Bildausleserate der CMOS-Kamera 13 und die Bewegungsgeschwindigkeit des Objektes 9 genau aufeinander abgestimmt sind, für eine präzise Verfolgung eines jeden Objektpunktes notwendig, um Messfehler einschränken zu können. Die Bewegung des Objektes 9 erfolgt durch ein hier nicht dargestelltes Bewegungssystem in xO-Richtung. In der Regel ist die zulässige Verschiebung des virtuellen Pixelbildes auf dem bewegten Objekt 9, die durch Abweichungen von der Soll-Geschwindigkeit des Bewegungssystems beim Passieren des Erfassungsbereiches des optischen Sensors hervorgerufen wird, nicht größer als ein scharf abgebildetes, reales Pixelbild.
  • Die 2 zeigt die Lichtverteilung in der Pupillenebene des Abbildungssystems mit dem Pupillenzentrum PZ, den Lichtschwerpunkten der Beleuchtung LSP_L und der Beobachtung LSP_D. Die beiden Lichtschwerpunkte LSP_L und LSP_D sind um den Abstand d_nom voneinander getrennt. Die Lichtschwerpunkte der Beleuchtung LSP_L und der Beobachtung LSP_D und ergeben sich aus nur den Bündelanteilen, welche die Pixel auch erreichen. Dies wird durch die 3 dargestellt. Die Mikrolinsen des Mikrolinsen-Arrays 131 definieren jeweils den effektiven Bündelanteil in den Pixeln i, i + 1, i + 2... und so auch den Lichtschwerpunkt LSP_D.
  • Die 4 stellt einen Ausschnitt aus einem äquidistanten Ronchi-Gitter 2 dar, welches als Sendemuster-Array eingesetzt wird.
  • Die 5 zeigt den Sachverhalt im Objektraum mit der Schärfeebene SEO, die bei der Abbildung des Liniengitters entsteht, sowie die Ausdehnung des Schärfentiefebereiches bei der Abbildung des Liniengitters. Das Objekt 9 bewegt sich entlang einer Bahn bj und wird durch das einfallende Lichtbündel beleuchtet und mittels beobachtendem Bündel detektiert. Im Punkt Pj0 tritt ein Punkt Pj des lateral bewegten Objektes 9 in den Erfassungsbereich der CMOS-Kamera 13 ein. Die Erfassung dieses Objektpunktes Pj beginnt unmittelbar, auch wenn die Abbildung zunächst noch unscharf ist, da der Objektpunkt Pj noch außerhalb des Schärfentiefebereiches ist. So ist der Kontrast des Streifenbildes auf dem Objektpunkt Pj zunächst auch noch null. Mit der weiteren lateralen Bewegung des Objektes nimmt der Kontrast des Streifenbildes im Objektpunkt Pj stetig zu, um bei PjS das Maximum zu erreichen. Der Kontrast des Streifenbildes nimmt anschließend wieder stetig ab. Im Punkt PjE verlässt der Objektpunkt Pj wieder den Erfassungsbereich der CMOS-Kamera 13. Die physikalisch realen Pixel i, i + 1, i + 2 generieren mit einem hier nicht dargestellten Rechner programmgesteuert das virtuelle Pixel zu den Zeitpunkten ti, ti + 1, ti + 2.
  • 6 zeigt den zugehörigen Signalverlauf, welcher mittels eines bewegten, virtuellen Pixels j von einem Objektpunkt Pj gewonnen wurde. Das virtuelle Pixel j bewegt sich möglichst synchron mit dem jeweiligen Objektpunkt Pj mit. Dieses virtuelle Pixel j wird aus einzelnen realen Pixeln, die auf einer einzigen Linie liegen, gebildet, indem die einzelnen Signalwerte in der zeitlichen Folge ihres Entstehens gespeichert werden. Zum Zeitpunkt t0 wird der Objektpunkt Pj erstmalig von der CMOS-Kamera 13 des optischen Sensors erfasst. Dies erfolgt hier durch das Auslesen eines Pixels beispielsweise der ersten Zeile des Kamerachips. Der Signalverlauf ergibt sich durch das zeitlich gesteuerte Belichten und Auslesen weiterer realer Pixel hier i, i + 1, i + 2..., deren Werte einem virtuelles Pixel j zugeordnet werden, welches den Objektpunkt Pj verfolgt. Die realen Pixel i, i + 1, i + 2... liegen hier auf einer Spalte einer CMOS-Kamera 13. In der Position s des Objektpunktes Pj zum Zeitpunkt tS wird die Schärfefläche SEO durchfahren. Jedoch befindet sich in der Schärfefläche SEO der Objektpunkt Pj – in der Position s – nicht genau mittig auf einem Lichtbalken des Gitterbildes, so dass hier am Maximum der Einhüllenden E ein Phasenwert ungleich null auftritt. Zum Zeitpunkt tE verlässt der Objektpunkt Pj wieder den Erfassungsbereich der CMOS-Kamera. Zum Zeitpunkt tE befindet sich der Objektpunkt Pj bereits wieder weit außerhalb des Schärfevolumens von Beleuchtung und Detektion. So weist das Signal des bewegten, virtuellen Pixels j dann keine Modulation mehr auf. Es wird die Phase am Schwerpunkt der Einhüllenden, der im Idealfall auch genau dem Maximum des Kontrastes entspricht, mit den in der Literatur bereits beschriebenen Auswerteverfahren bestimmt. Dies wurde beispielsweise in Applied Optics, Vol. 39, No. 8, vom 10. März 2000, Seite 1290 bis 1295 sowie in Fringe'01, Jüptner, W.; Osten W. (Eds.): Proceedings of the 4th International Workshop on Automatic Processing of Fringe Patterns, Elsevier 2001 unter „Generalized Signal Evaluation for White-light interferometry and Scanning fringe projection", S. 173–180, dargestellt.
  • Weiterhin ist in der 6 der Schnittpunkt SPj von Referenzphasengang φ_Rt mit dem Objektphasengang φ_Otj am Schwerpunkt der Einhüllenden für ein virtuelles Pixel j, welches den bewegten Objektpunkt Pj detektiert, eingezeichnet. Der Schnitpunkt SPj tritt zum Zeitpunkt ts auf. Der Schnittwinkel zwischen beiden Phasengängen über der Zeit φ_Rt und φ_Otj ist dem Triangulationswinkel zumindest näherungsweise proportional, wodurch sich in der Regel bei einem größeren Triangulationswinkel auch die Genauigkeit der Bestimmung des Schnittpunktes verbessert. Grundsätzlich kann der Phasengang von Referenz und Objekt auch über die Position des jeweiligen virtuellen Pixels auf dem Sensor-Chip ausgewertet werden, also die Position des Schnittpunktes auf dem Sensor-Chip errechnet werden. Dies ist notwendig, wenn beispielsweise bei einer Freihandbewegung des Sensors dessen Bewegungsgeschwindigkeit nicht konstant ist. Das Auslesen der Bilder erfolgt dann wegen der ungleichmäßigen relativen Bewegung zwischen Sensor und Szene asynchron.
  • Im Gedankenexperiment ergibt sich der Phasengang φ_Rt über der Zeit, wenn das auf dem Sensor-Chip mit konstanter Geschwindigkeit bewegte, virtuelle Pixel in der Schärfefläche mit seinem zugehörigen Schwerstrahl eine teildurchlässige und gleichzeitig lichtstreuende Schicht, auf die das Liniengitter des optischen Sensors projiziert ist, abtasten würde. Der Phasengang φ_Otj über der Zeit ergibt sich aus dem vom bewegten, virtuellen Pixel j auf der Objektoberfläche detektierten Licht. Beim Vorhandensein eines Triangulationswinkels ungleich null ergibt sich φ_Rt = φ_Otj genau dann, wenn ein mit konstanter Geschwindigkeit bewegter Objektpunkt Pj die Schärfefläche SEO passiert, also im Schnittpunkt SPj der beiden Phasengänge. Dabei ist die Schärfefläche SEO mit der Sensor-Chipfläche zumindest näherungsweise optisch konjugiert.
  • 7 zeigt die Anordnung nach 1 in modifizierter Form. Die CMOS-Kamera 13 weist eine logarithmische Kennlinie auf, um den Dynamikumfang bei der Bildaufnahme zu vergrößern. Der Triangulationswinkel ist hierbei praktisch zu näherungsweise null gemacht und die Lichtschwerpunkte LSP_D und LSP-L nach 8 koinzidieren in der Pupillenebene näherungsweise oder sind durch die Reflexionsverhältnisse der Oberfläche im Objektpunkt nur wenig um den Betrag d_nom separiert. So können auch noch vergleichsweise kleine Löcher detektiert werden. Der Winkel γ zwischen der Schärfefläche SEO und der Bewegungsbahn b des Objektes 9, die eine Parallele zu den Bewegungsbahnen bj aller Objektpunkte Pj darstellt, beträgt hier 15°. Ausgewertet werden wieder periodische Signale mit einer Einhüllenden. Die Auswertung erfolgt mittels Lock-in-Detektion, die frequenzmäßig auf den Zustand des Triangulationswinkels null, beziehungsweise d_nom = 0, abgestimmt wurde. Die Logarithmisierung durch die Kennlinie der CMOS-Kamera 13 führt auch bei der Detektion von periodischen Hell-Dunkel-Übergängen mit cos2-Charakteristik zu Oberwellen im Signal. Das ist jedoch bei der Auswertung des Schwerpunktes der Einhüllenden praktisch kein Nachteil, da durch die Lock-in-Detektion im wesentlichen nur die Grundwelle erfasst wird und die Oberwellen weitgehend weggefiltert werden. Der verwendete digitale Lock-in Detektor, der durch ein Programm gebildet ist, ist stets auf die sich ergebende Signalfrequenz eingestellt. Dabei handelt es sich letztlich um eine Ortsfrequenz, da die gemessenen Intensitäten den Sensor-Chip-Koordinaten zugeordnet sind. Die Transformation in den Zeitbereich erfolgt erst durch die Bewegung des Objektes und den Auslesetakt der Kamera.
  • Die etwas geneigte Kamera 13 besitzt kein Mikrolinsen-Array, da dieses die Bündel hier etwas unsymmetrisch beschneiden könnte.
  • Bei einem durch Reflexe auf der Oberfläche auftretenden Betrag d_nom ≠ 0, der sich sowohl durch eine kleine Frequenzveränderung im periodischen Signal als auch in der Regel in einer starken Verbreiterung der Einhüllenden im Signal bemerkbar macht, kann auch zusätzlich die Phase ausgewertet werden, so dass sich auch durch die Reflexionsverhältnisse auf der Oberfläche bestimmt, ob es sinnvoll ist, nur den Kontrast oder sowohl Kontrast als auch Phase auszuwerten. Die Phasenauswertung kann in der Regel dann die größere Genauigkeit für die Tiefenbestimmung liefern, wenn der Triangulationswinkel größer als die effektiven Aperturwinkel von Beleuchtung und Beobachtung ist. Dann liefert die Kontrastauswertung nur die Eindeutigkeit der Ordnung bei der Phasenauswertung.
  • 9 stellt einen Streifentriangulations-Sensor mit einem gemeinsamen Frontobjektiv 8 dar, dem für Beleuchtung und Beobachtung je ein eigener Strahlengang zugeordnet ist. Dieser Sensor ist speziell für die optische Formvermessung mittlerer Genauigkeit für Profile mit Gradienten bis zu etwa maximal 45° in der Ebene des Hauptschnittes ausgelegt; wobei die Oberflächen zumindest etwas lichtstreuend sind. Der Aufbau des Sensorkopfes entspricht dem eines Leica-Stereomikroskops MZ 12 mit einem Frontobjektiv mit der Vergrößerung 1,6× und einer Gesamtvergrößerung von 2. Der gesamte Sensoraufbau mit Frontobjektiv ist hierbei um den Winkel von 15° um die waagerechte Achse im Hauptschnitt gedreht, so dass die Beobachtungsrichtung senkrecht auf der Bewegungsrichtung des Objektes steht.
  • Die im Sensor eingesetzte CMOS-Kamera 13 besitzt einen Pixel-Pitch von 10 μm und etwa 1,3 Millionen Pixel, wobei eine „Region of Interest" (ROI) zum Erreichen einer hohen Bildauslesefrequenz von 500 Hz definiert wurde. Ein beispielsweise etwa 80 mm langes Objekt mit einer zu vermessenden Schweißnaht von maximal 1 mm Breite und einer maximalen Höhe von 0,3 mm steht auf einem x-Tisch mit einem Verfahrbereich von 100 mm und etwa 2 μm Positioniergenauigkeit. Die Relativbewegung zwischen Objekt und Sensor erfolgt in x-Richtung in Schritten von 5 μm. Dies entspricht genau dem Abstand von zwei Pixelbildern in der Objektebene. Die Geschwindigkeit des x-Tisches beträgt 2,50 mm/s, so dass das virtuelle Pixel sich in 2 ms um einen Pixel-Pitch auf dem Sensor-Chip weiterbewegt hat.
  • Das im Sensor von der Lichtquelle 1 beleuchtete Liniengitter 2 weist eine Periodenlänge von 110 μm auf. Dieses Liniengitter 2 wird über das Objektiv 71 und das Frontobjektiv 8 auf das Objekt 9 abgebildet, welches sich entlang einer Bahn b bewegt. Das reflektierte Licht gelangt wieder über das Frontobjektiv 8 und über das Objektiv 72 auf die CMOS-Kamera 13. Der Auslesevorgang der CMOS- Kamera 13 und die Bewegung des nicht dargestellten x-Tisches sind genau synchronisiert. Wegen des eingestellten Abbildungsmaßstabes von 2× beträgt das zur Tiefenmessung maximal nutzbare Objektfeld etwa 5 mm × 5,5 mm. Da die ROI hier nur etwa 20% der Chipfläche beträgt ergibt sich hier beispielsweise nur ein Bereich von 1,5 mm × 3,67 mm. Etwa bis zu 2 mm der Sensorfläche werden jeweils zur Signalgewinnung benötigt, so dass sich der zur Tiefenauswertung nutzbare Bereich auf etwa 2,7 mm einschränkt. Der Winkel γ zwischen der Schärfefläche, also der Bildebene des Liniengitters, beträgt also durch die Drehung des Sensorkopfes 15°. Es ergibt sich der maximale Tiefenmessbereich von etwa 1,5 mm. Durch die Beschränkung auf die kleine ROI, um die hohe Bildauslesefrequenz von 500 Hz zu erreichen, steht nur ein Tiefenmessbereich von etwa 0,7 mm zur Verfügung, der hierbei jedoch ausreichen sollte. Wenn der Winkel γ gleich dem halben Gesamt-Triangulationswinkel (αOL + αOD) gewählt ist, liegt die Schärfefläche SEO achssenkrecht zur optischen Achse des Frontobjektivs 8 und auch in der Fokalebene desselben, so dass die besten Abbildungseigenschaften gegeben sind. Außerdem kann die Zoom-Funktion des Leica-Mikroskops uneingeschränkt genutzt werden, ohne dass sich die Schärfeebene dabei verkippt.
  • Es wird mit maximaler numerischer Apertur für Beleuchtung und Beobachtung gearbeitet. So sind etwa sechs bis acht Gitterstreifen mit gutem Kontrast in einer Fläche senkrecht zur Beobachtungsachse, also in der Tischebene, sichtbar. Der Winkel zwischen Beobachtungs- und Beleuchtungsrichtung, also der Gesamt-Triangulationswinkel, beträgt hier konstruktiv (αOL + αOD) = 30°. Die effektive Triangulationswellenlänge des Sensors ergibt sich damit aus der projizierten Streifenbreite von 55 μm in Beobachtungsrichtung zu etwa 106 μm. Für die Verfolgung einer Schweißnaht kann jedoch auch noch ein geringerer Triangulationswinkel und damit eine größere effektive Triangulationswellenlänge sinnvoll sein.
  • Das mittels jedem virtuellen Pixel detektierte Signal besitzt hier bei konstanter Objektgeschwindigkeit eine mittlere Objekt-Signalfrequenz von etwa 40 Hz und wird hinsichtlich Phase am Kontrastmaximum bzw. am Schwerpunkt ausgewertet, so dass der Phasengang in der unmittelbaren Umgebung des Schwerpunktes für jeden Objektpunkt ermittelt werden kann. Anschließend wird der Schnittpunkt der Referenzphasenkurve φ_Rt mit dem Phasengang φ_Otj des jeweiligen Objektpunktes Pj bestimmt.
  • Die Referenzphasenkurve φ_Rt des Sensors ist vorab ermittelt und abgespeichert worden. Bei der Geschwindigkeit des Objektes von 2,5 mm/s beträgt die Referenz-Signalfrequenz hier dann etwa 44 Hz, die sich dann ergeben würde, wenn sich ein gedachter Referenzpunkt permanent in der Schärfeebene SEO bewegen würde. So ist es auch möglich, mittels dieser Referenz-Signalfrequenz im Bereich des Schwerpunktes der Einhüllenden den Zeitpunkt ts, an dem die Referenz-Signalfrequenz mit der Objekt-Signalfrequenz in Phase ist, zu bestimmen und aus der bekannten Bewegung des bewegten, virtuellen Pixels, den zugehörigen Ort desselben auf dem Liniengitter 2 zu diesem Zeitpunkt ts zu bestimmen und daraus die Tiefenposition eines jeden mittels bewegtem, virtuellen Pixels detektierten Objektpunktes Pj zu ermitteln. Das gemessene Profil wird aus den virtuellen Pixeln pixelweise lateral zusammengesetzt, wobei bewegte, virtuelle Pixel, die bei der Detektion Nachbarn sind, stets auch direkt benachbarte Objektpunkte detektieren.
  • Mittels digitaler Lock-in Detektion und einer CMOS-Kamera mit logarithmischer Kennlinie kann mit der Schnittpunktauswertung auch an weniger kooperativen Oberflächen mindestens 2π/32 der Triangulationswellenlänge sinnvoll aufgelöst werden, so dass mit dieser Anordnung ein Tiefen-Auflösungsinkrement von 3,4 μm gegeben ist. So kann eine Auflösung bei der Formmessung von kooperativen Oberflächen in den drei Raumkoordinaten von besser als 5 μm × 5 μm × 5 μm erreicht werden. In x-Richtung ist das Objektfeld nur durch die Länge des Schlittens begrenzt. Durch das kontinuierliche Bewegen des Sensorkopfes kann hiermit ein Volumen von 80 mm × 1,5 mm × 0,71 mm in ca. 32 Sekunden vermessen werden. Eine höhere Messgeschwindigkeit kann mit einer noch schnelleren Kamera erreicht werden.
  • Eine andere Möglichkeit noch schneller mit Lateralkomponente bewegte Objekte zu vermessen, besteht darin, den x-Tisch beispielsweise vierfach schneller zu bewegen, also nun mit 10 mm/s. Die Bildrate beträgt wieder 500 Bilder/s und die Integrationszeit eines Pixels wird dabei durch einen elektronischen Shutter auf weniger als 0,5 ms begrenzt. In diesem Fall werden anstelle von 11 Abtastungen pro Streifenperiode im Mittel nur noch 2,75 Abtastungen vorgenommen. Dies stellt eine vierfach geringere Abtastung dar. Das virtuelle Pixel wird zeitlich synchronisiert aus jedem vierten, physikalisch realen Pixel des Sensor-Chips in Bewegungsrichtung generiert. Der zwischen zwei Kamera-Frames zurück gelegte Weg des Objektes ergibt sich bei direkt aufeinander folgenden Frames zu 20 μm.
  • Da die Signalfrequenz vorab hinreichend genau bekannt ist, kann im dargestellten Fall mittels digitaler Lock-in Detektion mit angepassten digitalen Signal-Prozessoren selbst bei einer achtfach geringeren Abtastung noch der Phasengang am Schwerpunkt eindeutig bestimmt werden, wobei das Signal-Rausch Verhältnis sich dann schon merklich verschlechtert und damit auch die Unsicherheit der Tiefenmessung entsprechend zunimmt. Außerdem muss auch die Genauigkeit der Generierung des virtuellen Pixels, also die Genauigkeit der Nachverfolgung des bewegten Objektes 9, entsprechend hoch sein.
  • 10 zeigt eine Anordnung mit einem Phasengitter 102, welches von einer Lichtquelle 101 beleuchtet wird, die aus einem Laserdioden-Array besteht, welches sich in der Brennebene des Objektivs 110 befindet. Das kollimierte und quasi-monochromatische Lichtbündel gelangt auf ein Phasengitter 102. Es entstehen zwei gebeugte Teilbündel in den beiden ersten Beugungsordnungen. Die nullte Beugungsordnung ist fast vollständig unterdrückt. Die beiden gebeugten Teilbündel passieren eine Kreisringblende 104 in der gemeinsamen Fokalebene der Objektive 103 und 105. Durch die Fokussierung mittels Objektiv 105 entsteht auf den Flächenbereichen des entlang einer Geraden b bewegten Objekts ein hochfrequentes Interferenzbild. Dabei beträgt die Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes (Pj) des Objektes 9 im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Phasengitters (102) mindestens 1°. Das am Objekt 9 reflektierte und gestreute Licht passiert die afokale Abbildungsstufe mit den Objektiven 105 und 103 und die Kreisringblende 104 und wird wieder auf das Phasengitter 102 abgebildet. Aus den beiden Teilbündeln entstehen zwei gebeugte und kollineare Teilbündel, die mittels Objektiv 110 über die Lochblende 111 die Ebene des Phasengitters 102 scharf auf den Sensor-Chip 113 einer Kamera abbilden. Von Vorteil ist hier, dass bei beugungsbegrenzter Abbildung, die in den virtuellen Pixeln, welche das bewegte Objekt nachverfolgen, Signale generiert werden, die in der Form kurzkohärenten Signalen entsprechen und in erster Näherung stets gleiche Phase aufweisen, nämlich Phase null am Schwerpunkt. Dies vereinfacht die Signalauswertung erheblich gegenüber Signalen mit einer variablen Phase am Schwerpunkt, bzw. Kontrastmaximum.

Claims (10)

  1. Optisches Messverfahren mit einem Beleuchtungsstrahlengang zur Erzeugung eines strukturierten Lichtfeldes mit Streifen entweder durch Abbildung eines Gitters oder durch Interferenz zweier kohärenter Lichtbündel mit einer Schärfefläche des strukturierten Lichtfeldes im Objektraum und einem in diesem strukturierten Lichtfeld relativ zum strukturierten Lichtfeld mit Lateralkomponente bewegten und durch das strukturierte Lichtfeld beleuchteten Objekt, wobei dessen Bewegungsrichtung und Geschwindigkeit zumindest näherungsweise vorab bekannt ist oder echtzeitnah gemessen wird und eine Bildserie vom strukturiert beleuchteten und mit Lateralkomponente bewegten Objekt im Messvorgang mittels einer elektronischen, pixelierten Kamera in einem Beobachtungsstrahlengang erzeugt wird, gekennzeichnet dadurch, dass stets ein Winkel (γ) zwischen einer Tangente an die Bewegungsbahn (bj) eines jeden Objektpunktes (Pj) und einer Tangente an die Schärfefläche (SEO) im strukturierten Lichtfeld im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) mit einem Betrag von mindestens 1° besteht und bei Bewegung des Objektes (9) im strukturierten Lichtfeld die Objektpunkte die Schärfefläche (SEO) in diesem strukturierten Lichtfeld mindestens einmal passieren und zumindest in einem Zeitbereich des Durchganges das Bild eines jeden bewegten Objektpunktes nacheinander durch mehrere physikalisch reale Pixel der elektronischen, pixelierten Kamera (13) detektiert wird, wobei die Signalwerte eines Objektpunktes jeweils programmgesteuert einem virtuellen Pixel (j) zugeordnet werden und aus den zumindest näherungsweise bekannten Bewegungsparametern des Objektes (9) der Ort, die Integrationszeit und der Ausleszeitpunkt für das jeweils nachfolgende reale Pixel vorab bestimmt werden, so dass aus diesen physikalisch realen Pixeln programmgesteuert jeweils auf dem Sensor-Chip bewegte, virtuelle Pixel (j) gebildet werden, deren Bilder jeweils Objektpunkten (Pj) zumindest für einen Teil der Dauer des Durchganges dieses Objektpunktes durch das strukturierte Lichtfeld fest zugeordnet sind, so dass die Geschwindigkeit eines Bildes eines bewegten, virtuellen Pixels auf dem Objekt (9) jeweils der Geschwindigkeit des Bildes des Objektes (9) auf dem Sensor-Chip entspricht und so jeweils ein modulierter periodischer Signalverlauf von jedem relativ bewegten Objektpunkt (Pj) gewonnen wird und zumindest jeweils der Schwerpunkt der Einhüllenden des periodischen Signals bestimmt wird, um die Tiefenposition der bewegten Objektpunkte (Pj) festzustellen.
  2. Optisches Messverfahren nach Anspruch 1, gekennzeichnet dadurch, dass für die Bestimmung des Schwerpunktes der Einhüllenden des periodischen Signals eine digitale Lock-in Detektion angewendet wird, wobei die aktuelle Frequenz des periodischen Signalverlaufs zumindest näherungsweise vorab bekannt ist oder echtzeitnah mittels Messung der Geschwindigkeit des Objektes bestimmt wird, und der digitale Lock-in Detektor auf diese aktuelle Frequenz eingestellt ist.
  3. Optisches Messverfahren nach mindestens einem der Ansprüche 1 bis 2, gekennzeichnet dadurch, dass zwischen dem Beleuchtungs- und dem Beobachtungsstrahlengang ein Triangulationswinkel im Objektraum besteht und der Phasengang in der Umgebung des Schwerpunktes der Einhüllenden für jeden verfolgten Objektpunkt (Pj) des periodischen Signals, welches mit einem virtuellen Pixel gewonnen wurde, bestimmt wird.
  4. Optisches Messverfahren nach mindestens einem der Ansprüche 1 bis 3, gekennzeichnet dadurch, dass für die Bestimmung des Phasenganges in der Umgebung des Schwerpunktes der Einhüllenden für jeden verfolgten Objektpunkt des periodischen Signals eine digitale Lock-in Detektion angewendet wird, wobei die aktuelle Frequenz des periodischen Signalverlaufs zumindest näherungsweise vorab bekannt ist, und der Lock-in Detektor auf diese aktuelle Frequenz eingestellt ist.
  5. Optisches Messverfahren nach mindestens einem der Ansprüche 1 bis 4, gekennzeichnet dadurch, dass der Objektphasengang (φ_Oj) mit einem vorab bestimmten Referenzphasengang (φ_R) in der Umgebung des Schwerpunktes rechnerisch zum Schnitt gebracht wird und aus dem Ort des Schnittpunktes auf dem Sendemuster-Array die Tiefenposition eines jeden Objektpunktes (Pj) ermittelt wird.
  6. Optisches Messverfahren nach mindestens einem der Ansprüche 1 bis 5, gekennzeichnet dadurch, dass die aperturbegrenzende Wirkung eines Mikrolinsen-Arrays (131) einer Kamera (13) zur außeraxialen, lateralen Verschiebung des Lichtschwerpunktes des Lichtbündels der Objektbeobachtung in der Pupillenebene eines Frontobjektivs (8) und so zur Vergrößerung einer Triangulationsbasis (d_nom) genutzt wird und ein Triangulations-Messverfahren mit Kontrast- und Phasenauswertung eingesetzt wird.
  7. Optischer Sensor mit einem Beleuchtungsstrahlengang mit einem beleuchteten Sendemuster-Array mit einem Beobachtungsstrahlengang mit einer elektronischen, pixelierten Kamera mit einem Sensor-Chip und einem im Messvorgang mittels fest zugeordneten Bewegungssystem mit Lateralkomponente bewegten und strukturiert beleuchteten Objekt, wobei dessen Bewegungsrichtung und Geschwindigkeit zumindest näherungsweise vorab bekannt ist oder echtzeitnah gemessen wird, gekennzeichnet dadurch dass, eine Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes (Pj) des Objektes 9 im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Sendemuster-Arrays (2) eine Tangente an diese Schärfefläche (SEO) unter einem Winkel (γ) schneidet, wobei der Winkel (γ) mindestens 1° beträgt und das Sendemuster-Array (2) und der Sensor-Chip (13) im Objektraum zumindest näherungsweise eine gemeinsame Schärfefläche (SEO) aufweisen.
  8. Optischer Sensor mit einem Beleuchtungsstrahlengang mit einem beleuchteten Sendemuster-Array mit mindestens einem Bereich mit mindestens einem Liniengitter und einem Beobachtungsstrahlengang mit einer Kamera und einem dem Beleuchtungsstrahlengang und dem Beobachtungsstrahlengang gemeinsam zugeordneten Frontobjektiv und einem im Messvorgang mit Lateralkomponente bewegten und strukturiert beleuchteten Objekt, dem ein Bewegungssystem fest zugeordnet ist, gekennzeichnet dadurch, dass eine pixelierte Kamera (13) mit einem Kamera-Chip mit einem Mikrolinsen-Array (131) um eine zur Einfallsebene der Schwerstrahlen der Lichtbündel von Beleuchtung und Beobachtung senkrechte Achse gekippt ist, so dass dies eine laterale Verschiebung des Lichtschwerpunktes der Detektion (LSP_D) in der Pupillenebene des Frontobjektivs (8) zur Folge hat, so dass dieser Lichtschwerpunkt (LSP_D) außeraxial ist.
  9. Optischer Sensor mit einem Beleuchtungsstrahlengang mit einem beleuchteten Liniengitter mit einem Beobachtungsstrahlengang und einer elektronischen, pixelierten Kamera mit einem Sensor-Chip und einem im Messvorgang mittels fest zugeordneten Bewegungssystem mit Lateralkomponente bewegten und strukturiert beleuchteten Objekt, wobei dessen Bewegungsrichtung und Geschwindigkeit zumindest näherungsweise vorab bekannt ist oder echtzeitnah gemessen wird, gekennzeichnet dadurch dass, gekennzeichnet dadurch dass, jeder Punkt des Liniengitters (102) wieder mittels Beleuchtungsstrahlengang und Beobachtungsstrahlengang über die Objektoberfläche (9) auf sich selbst, unter Nutzung von zwei außeraxialen Blendenbereichen, abgebildet wird und so ein schleifenförmiger, geschlossener Strahlengang besteht und eine Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes (Pj) des Objektes 9 im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Phasengitters (102) eine Tangente an diese Schärfefläche (SEO) unter einem Winkel (γ) schneidet, wobei der Winkel (γ) mindestens 1° beträgt und das Liniengitter (102) und der Sensor-Chip (113) im Objektraum zumindest näherungsweise eine gemeinsame Schärfefläche (SEO) aufweisen.
  10. Optischer Sensor nach Anspruch 9 gekennzeichnet dadurch, dass das Liniengitter als ein Phasengitter (102) ausgebildet ist und zwischen dem Phasengitter (102) und der elektronischen, pixelierten Kamera (113) eine afokale Abbildungsstufe mit Lochblende (111) zur Raumfrequenzfilterung vorgeordnet ist.
DE2003121888 2003-05-07 2003-05-07 Messverfahren und Sensor, insbesondere zur optischen Abtastung bewegter Objekte Withdrawn DE10321888A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2003121888 DE10321888A1 (de) 2003-05-07 2003-05-07 Messverfahren und Sensor, insbesondere zur optischen Abtastung bewegter Objekte

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2003121888 DE10321888A1 (de) 2003-05-07 2003-05-07 Messverfahren und Sensor, insbesondere zur optischen Abtastung bewegter Objekte

Publications (1)

Publication Number Publication Date
DE10321888A1 true DE10321888A1 (de) 2004-12-02

Family

ID=33394619

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2003121888 Withdrawn DE10321888A1 (de) 2003-05-07 2003-05-07 Messverfahren und Sensor, insbesondere zur optischen Abtastung bewegter Objekte

Country Status (1)

Country Link
DE (1) DE10321888A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006007764A1 (de) * 2006-02-20 2007-08-23 Sick Ag Optoelektronische Vorrichtung und Verfahren zu deren Betrieb
EP1944569A1 (de) 2007-01-15 2008-07-16 DMG Microset GmbH Verfahren und Vorrichtung zum optischen Ausmessen eines Objekts, insbesondere eines Werkstücks oder Werkzeugs
WO2013009676A1 (en) * 2011-07-13 2013-01-17 Faro Technologies, Inc. Device and method using a spatial light modulator to find 3d coordinates of an object
WO2013009677A1 (en) * 2011-07-14 2013-01-17 Faro Technologies, Inc. Grating-based scanner with phase and pitch adjustment
WO2013160197A3 (de) * 2012-04-27 2013-12-27 Bircher Reglomat Ag Verfahren zur kontrolle und/oder überwachung der bereiche um wiederverschliessbare gebäudeöffnungen
DE102005047307B4 (de) * 2005-09-30 2014-10-30 Technische Hochschule Mittelhessen Verfahren zur verbesserten Bestimmung der relativen Geschwindigkeit zwischen einem Sensor und einer dazu beabstandeten Oberfläche
EP2980527A1 (de) * 2014-08-01 2016-02-03 GOM Gesellschaft für optische Meßtechnik mbH Messeinrichtung zum dreidimensionalen optischen vermessen von objekten mit einem topometrischen sensor sowie verwendung eines multi-laserchip-bauelementes
WO2017136011A2 (en) 2016-02-01 2017-08-10 Kla-Tencor Corporation Method and system for optical three-dimensional topography measurement
DE102017004429A1 (de) * 2017-05-08 2018-11-08 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden/ fokussierenden Streifen-Triangulation
DE102017004428A1 (de) * 2017-05-08 2018-11-08 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets
DE102017129737A1 (de) * 2017-12-13 2019-06-13 Hauni Maschinenbau Gmbh Vorrichtung zur berührungslosen, optischen 3D-Erfassung einer Stirnfläche eines sich queraxial bewegenden, stabförmigen Artikels der tabakverarbeitenden Industrie

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005047307B4 (de) * 2005-09-30 2014-10-30 Technische Hochschule Mittelhessen Verfahren zur verbesserten Bestimmung der relativen Geschwindigkeit zwischen einem Sensor und einer dazu beabstandeten Oberfläche
US7656541B2 (en) 2006-02-20 2010-02-02 Sick Ag Optoelectronic apparatus and a method for its operation
DE102006007764A1 (de) * 2006-02-20 2007-08-23 Sick Ag Optoelektronische Vorrichtung und Verfahren zu deren Betrieb
EP1944569A1 (de) 2007-01-15 2008-07-16 DMG Microset GmbH Verfahren und Vorrichtung zum optischen Ausmessen eines Objekts, insbesondere eines Werkstücks oder Werkzeugs
DE102007002880B4 (de) * 2007-01-15 2011-08-25 DMG Microset GmbH, 33689 Verfahren und Vorrichtung zum optischen Ausmessen eines Objekts, insbesondere eines Werkstücks oder Werkzeugs
GB2507020A (en) * 2011-07-13 2014-04-16 Faro Tech Inc Device and method using a spatial light modulator to find 3D coordinates of an object
WO2013009676A1 (en) * 2011-07-13 2013-01-17 Faro Technologies, Inc. Device and method using a spatial light modulator to find 3d coordinates of an object
US9170098B2 (en) 2011-07-13 2015-10-27 Faro Technologies, Inc. Device and method using a spatial light modulator to find 3D coordinates of an object
JP2014522982A (ja) * 2011-07-14 2014-09-08 ファロ テクノロジーズ インコーポレーテッド 位相およびピッチ調整を伴う格子ベースのスキャナ
CN103649678A (zh) * 2011-07-14 2014-03-19 法罗技术股份有限公司 具有相位和间距调节的基于光栅的扫描仪
US9091529B2 (en) 2011-07-14 2015-07-28 Faro Technologies, Inc. Grating-based scanner with phase and pitch adjustment
WO2013009677A1 (en) * 2011-07-14 2013-01-17 Faro Technologies, Inc. Grating-based scanner with phase and pitch adjustment
WO2013160197A3 (de) * 2012-04-27 2013-12-27 Bircher Reglomat Ag Verfahren zur kontrolle und/oder überwachung der bereiche um wiederverschliessbare gebäudeöffnungen
EP2980527A1 (de) * 2014-08-01 2016-02-03 GOM Gesellschaft für optische Meßtechnik mbH Messeinrichtung zum dreidimensionalen optischen vermessen von objekten mit einem topometrischen sensor sowie verwendung eines multi-laserchip-bauelementes
WO2017136011A2 (en) 2016-02-01 2017-08-10 Kla-Tencor Corporation Method and system for optical three-dimensional topography measurement
CN108603848B (zh) * 2016-02-01 2021-08-10 科磊股份有限公司 用于光学三维形貌测量的方法及***
US11287248B2 (en) 2016-02-01 2022-03-29 Kla-Tencor Corporation Method and system for optical three dimensional topography measurement
EP3411695B1 (de) * 2016-02-01 2022-01-26 KLA-Tencor Corporation Verfahren und system zur optischen dreidimensionalen topographiemessung
CN108603848A (zh) * 2016-02-01 2018-09-28 科磊股份有限公司 用于光学三维形貌测量的方法及***
CN113607088A (zh) * 2016-02-01 2021-11-05 科磊股份有限公司 用于光学三维形貌测量的方法及***
JP2019503499A (ja) * 2016-02-01 2019-02-07 ケーエルエー−テンカー コーポレイション 光学的三次元トポグラフィ計測方法及びシステム
WO2018206233A1 (de) 2017-05-08 2018-11-15 Universität Stuttgart Verfahren und anordnung zur robusten, tiefenscannenden/fokussierenden streifen-triangulation mit mehreren wavelets
US10866088B2 (en) 2017-05-08 2020-12-15 Universität Stuttgart Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets
DE102017004429B4 (de) 2017-05-08 2019-05-09 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden/fokussierenden Streifen-Triangulation
DE102017004428B4 (de) 2017-05-08 2018-11-29 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets
DE102017004428A1 (de) * 2017-05-08 2018-11-08 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets
DE102017004429A1 (de) * 2017-05-08 2018-11-08 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden/ fokussierenden Streifen-Triangulation
DE102017129737A1 (de) * 2017-12-13 2019-06-13 Hauni Maschinenbau Gmbh Vorrichtung zur berührungslosen, optischen 3D-Erfassung einer Stirnfläche eines sich queraxial bewegenden, stabförmigen Artikels der tabakverarbeitenden Industrie

Similar Documents

Publication Publication Date Title
DE3836564A1 (de) Verfahren zur pruefung von optischen elementen
DE102008023599A1 (de) Verfahren und Vorrichtung zur mikroskopischen Erfassung örtlicher Neigungen und der dreidimensionalen Form eines Objekts
CH693968A5 (de) Verfahren und Vorrichtung fuer die Topographiepruefung von Oberflaechen.
EP2753896A2 (de) Verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts und vorrichtung zur bilderfassung
DE112012004591T5 (de) Beobachtungsvorrichtung
DE102011012611B4 (de) Verfahren und Vorrichtung zur berührungslosen Messung eines Winkels
DE10321888A1 (de) Messverfahren und Sensor, insbesondere zur optischen Abtastung bewegter Objekte
EP3899424A2 (de) Vorrichtung und verfahren zur optischen vermessung einer innenkontur einer brillenfassung
DE102021118327A1 (de) Messkamera und Verfahren zur zweidimensionalen Vermessung von Gegenständen
DE102011083421A1 (de) Verfahren und Vorrichtung zum Vermessen homogen reflektierender Oberflächen
WO2000066972A1 (de) Verfahren und vorrichtung zur objektabtastung
DE102005007244A1 (de) Formerfassung von reflektierenden Oberflächen in Echtzeit
EP1944569B1 (de) Verfahren und Vorrichtung zum optischen Ausmessen eines Objekts, insbesondere eines Werkstücks oder Werkzeugs
DE102005017233A1 (de) Verfahren und Vorrichtung zur Prüfung von optischen Abbildungseigenschaften durch Verwendung bekannter Lichtmuster und optischer Strahlverfolgung
DE102006033779B4 (de) Verfahren zur Vermessung einer reflektierenden Oberfläche
DE10321883A1 (de) Verfahren und Sensor zur hochgenauen optischen Abtastung
DE4413758C2 (de) Vorrichtung und Verfahren zur Prüfung der Gestalt einer Oberfläche eines zu vermessenden Objektes
WO2012076182A1 (de) Verfahren und system zur bestimmung der position und/oder lage eines objektes in einem räumlichen messvolumen
WO2016071078A2 (de) Vermessen der topographie und/oder des gradienten und/oder der krümmung einer das licht reflektierenden fläche eines brillenglases
DE102008031412A1 (de) Vorrichtung und Verfahren zur Beobachtung mehrerer auf einer Linie angeordneter Messpunkte auf einer zu vermessenden Objektoberfläche
EP0901639B1 (de) Verfahren und vorrichtung zur richtungsbestimmung zu einem objekt
DE102005007243A1 (de) Formerfassung von reflektierenden Oberflächen durch codierte Lichtmuster in Echtzeit
DE102014016087B4 (de) Dreidimensionale optische Erfassung von Objektoberflächen
DE102005018983B4 (de) Autokollimationsfernrohr und Verfahren zur Abbildung einer Messmarke hierfür
AT502614B1 (de) Laser-goniometer

Legal Events

Date Code Title Description
8122 Nonbinding interest in granting licenses declared
8139 Disposal/non-payment of the annual fee