Beschreibung
der Erfindung
Das
Ziel besteht vor allem darin, lateral bewegte Objekte dreidimensional
für die
gewerbliche Anwendung zu vermessen und dies vergleichsweise kostengünstig und
zuverlässig
durchzuführen.
Das Ziel wird erreicht mit den Merkmalen der unabhängigen Ansprüche.
Der
Erfindung liegt die Aufgabe zugrunde, eine optische Sensor-Anordnung
sowie ein optisches Messverfahren zur dreidimensionalen Vermessung von
lateral bewegten Objekten derart weiterzuentwickeln, dass auch lateral
bewegte Objekte, die eine größere Tiefenausdehnung
als die einfache Triangulationswellenlänge bei einer bekannten Streifenprojektions-Sensor-Anordnung
im Objektraum aufweisen, fehlerfrei optisch vermessen werden können. Hierbei
wird die laterale Bewegung des Objektes in die dreidimensionale
optische Vermessung einbezogen und dadurch ist nur ein vergleichsweise
geringer apparativer Aufwand für
den Sensor notwendig. Schließlich
soll auch die Vermessung von Präzisionsschweißnähten mit
einer Genauigkeit von mindestens 10 μm in den drei kartesischen Koordinaten möglich sein,
wobei es eine laterale Relativbewegung zwischen dem optischen Sensor
und der Schweißnaht
gibt. Dabei soll der Tiefenmessbereich des optischen Sensors beispielsweise
mindestens 600 μm
betragen können.
Für ein bewegtes
Objekt soll bei der dreidimensionalen, optischen Erfassung des Profils
oder zur Detektion von Mikrodefekten der Einfluss der Bewegungsunschärfe nur
zu vergleichsweise kleinen, tolerierbaren Messfehlern führen.
Im
erfinderischen optischen Messverfahren wird in einem ersten Verfahrensschritt
optisch ein strukturiertes Lichtfeld mit Streifen und mit einer Schärfefläche in den
Objektraum projiziert, wobei die Streifen stets zur optischen Sensor-Anordnung
feststehen. Das strukturierte Lichtfeld mit einer Schärfefläche mit
Streifen kann bekannterweise durch ein beleuchtetes und in den Objektraum
abgebildetes Sendemuster-Array erzeugt werden. Es können als Sendemuster-Arrays
beleuchtete Liniengitter, aber auch elektronische Sendemuster-Arrays
wie LCDs (Liquid Crystal Displays) oder DMDs (Direct Micromirror
Devices) oder elektronische, lichtemittierende Sendemuster-Arrays
eingesetzt werden. Andererseits kann ein strukturiertes Lichtfeld
auch durch die Überlagerung
von zwei kohärenten
Lichtbündeln
entstehen.
Das
strukturierte Lichtfeld mit Streifen und mit einer Schärfefläche kann
bekannterweise aber auch mittels Interferometer erzeugt werden.
Dazu wird vorzugsweise ein Interferometer mit Lichtquellen mit Licht
angepasster Kohärenzlänge oder
mittels Lichtquellen mit angepasster lateraler Ausdehnung oder aber
auch mittels Lichtquellen sowohl mit angepasster Kohärenzlänge als
auch mit angepasster lateraler Ausdehnung eingesetzt. Die laterale
Ausdehnung einer Lichtquelle bestimmt den räumlichen Kohärenzgrad
der Interferenzerscheinung. Die Schärfefläche stellt bei einem Interferometer
die Fläche
maximalen Kohärenzgrades
dar, also wo der Kontrast der Interferenzerscheinung ein Maximum
wird. Es können
Laserlichtquellen, Laserlichtquellen-Arrays, einzelne LEDs, LED-Arrays
aber auch Weißlichtquellen
mit oder ohne zugeordnetem LCD oder DMD oder auch Lichtquellen mit
einem Spektralfilter eingesetzt werden. Die Lichtquellen können als
Punktlichtquellen mit einem Kollimator oder auch als flächenhafte Lichtquellen
mit einem Kollimator ausgebildet sein, wobei deren flächenhafte
Ausdehnung rechnergesteuert sein kann. Dem Interferometer ist vorzugsweise
ein fokussierendes Objektiv nachgeordnet, in dessen Fokalebene das
strukturierte Lichtfeld mit einer Schärfefläche, also die Fläche maximalen
Kohärenzgrades,
erzeugt wird, wobei mittels Strahlteilung durch Teilung der Amplitude
der Wellenfront zwei kohärente
Strahlenbündel
mit Lateral-Shear erzeugt werden. Das strukturierte Lichtfeld entsteht
also durch Fokussierung von zwei kohärenten und vorzugsweise zueinander
geneigten Strahlenbündeln. Mittels
Interferometrie kann ein für
das Objekt optimal angepasstes Streifenmuster erzeugt werden, da
mittels eines Interferometers sowohl die Tiefe als auch die Streifenbreite
der Interferenzerscheinung einstellbar sind.
Es
können
mittels Phasengitter in der äußeren Brennebene
einer afokalen Anordnung und einer Lichtquelle mit Kollimator zwei
kollimierte kohärente Bündel erzeugt
werden, die über
die afokale Anordnung unter Passieren eines außeraxialen Blendenbereiches
in die Schärfefläche, die
mit der zweiten äußeren Brennebene
der afokalen Anordnung zusammenfällt,
ein Streifenfeld erzeugen. Licht von Punkten der Objektoberfläche in der
Umgebung der zweiten äußeren Brennebene
der afokalen Anordnung gelangt über
die afokalen Anordnung, unter Passieren eines zweiten außeraxialen
Blendenbereiches wieder auf das Phasengitter, wobei der jeder Punkt
des Phasengitters wieder auf sich selbst abgebildet wird und so
ein schleifenförmiger,
geschlossener Strahlengang besteht. Das Beugungsgitter beugt das
auftreffende Licht. Das gebeugte Licht passiert ein weiteres Objektiv
mit einem Lochblende in der Brennebene und gelangt über ein
weiteres Objektiv auf den Sensor-Chip einer Kamera.
Es
gibt erfindungsgemäß zur Projektionsrichtung
des Sensors eine mit Lateralkomponente erfolgende Bewegung des Objektes
oder eine mit Lateralkomponente durchgeführte Bewegung des optischen
Sensors zum Objekt. In jedem Fall gibt es also eine Relativbewegung
mit einer Lateralkomponente zwischen dem optischen Sensor und dem
Objekt und damit zwischen dem strukturierten Lichtfeld und dem zu
erfassenden Objekt. Dazu wird im optischen Sensor vorzugsweise ein
fest und lagegenau eingebautes, beleuchtetes Sendemuster-Array mit
mindestens einem Bereich mit mindestens einer linienhaften Struktur
eingesetzt. Diese linienhafte Struktur, welche vorzugsweise durch
ein Liniengitter oder ein Zylinderlinsen-Array dargestellt ist,
wird mittels einer Lichtquelle über
einen Beleuchtungsstrahlengang auf die Objektoberfläche abgebildet,
so dass dort bei hinreichend scharfer Abbildung mehrere Streifen
beobachtet werden können.
Es
wird im weiteren von einem Liniengitter als Sendemuster-Array, in
der Anwendung der Erfindung wohl ein sehr häufiger Fall, ausgegangen. Das Liniengitter
wird von einer Lichtquelle mit kollimiertem Licht beleuchtet. Vorzugsweise
schließen
dabei die Hauptstrahlen mit der zugehörigen optischen Achse des Beleuchtungsstrahlenganges
einen Winkel von mindestens 2° ein,
so dass in der Brennebene des nachgeordneten Objektivs ein dezentrierter
Lichtschwerpunkt gebildet ist. Einem Beobachtungsstrahlengang, der
vorteilhafterweise im optischen Sensor angeordnet ist, ist eine
elektronische, pixelierte Bildaufnahme-Kamera mit einem Sensor-Chip
zugeordnet, die im Erfassungsvorgang kontinuierlich Bilder aufnimmt,
wobei der Erfassungsvorgang mittels Kamera so lange durchgeführt wird
wie eine Relativbewegung mit Lateralkomponente zwischen Objekt und Optischen
Sensors stattfindet. Die Linien des Liniengitters können auch
durch sehr dicht benachbarte Punkte oder extrem feine Linien erzeugt
sein, die makroskopisch als Linien erscheinen. Das Liniengitter besitzt
mindestens eine einzige Periodenlänge.
Wenn
es sich um ein elektronisch steuerbares Sendemuster-Array handelt,
ist die laterale oder die rotatorische Position des Sendemuster-Arrays selbst
oder aber die dessen Musters zum Sensor-Chip im optischen Sensor
grundsätzlich
oder aber zumindest für
einen Zeitbereich von mindestens drei Bildaufnahmezyklen unveränderlich
gemacht. Drei Intensitäten
pro Pixel stellen bekannterweise das Minimum für die Anwendung eines phasenauswertenden
Algorithmus' dar.
Wird
ein elektronisches Sendemuster-Array als Liniengitter verwendet,
beispielsweise ein beleuchteter LCD-Chip oder ein beleuchteter DMD-Chip
oder auch ein selbstleuchtendes elektronisches Sendemuster-Array,
ist zumindest für
einen einzigen Zeitbereich von mindestens drei Bildaufnahmezyklen,
also der Zeitbereich einer Bildaufnahmeserie, das mittels elektronischem
Sendemuster-Array projizierte Lichtmuster unveränderlich gemacht. In diesem
Zeitbereich bewegt sich jedoch das Objekt mit Lateralkomponente
zum optischen Sensor oder aber der Sensor bewegt sich zum feststehenden
Objekt. Die Bewegung, die so in jedem Fall eine relative Bewegung
mit Lateralkomponente zwischen Sensor und Objekt darstellt, ist
kontinuierlich oder erfolgt in diesem Zeitbereich in mindestens
zwei Schritten. Bei einer Schrittbewegung erfolgen üblicherweise
jedoch sehr viele feine Schritte.
Vorzugsweise
werden äquidistante
Linienmuster mit einer vorab an die Messaufgabe optimal angepassten
Periodelänge
mit dem elektronischen Sendemuster-Array erzeugt.
Das
strukturierte Lichtfeld besitzt durch die Größe der Pupille des Beleuchtungssystems
einen begrenzten Schärfentiefebereich,
so dass sich in Abhängigkeit
von der Position eines Objektpunktes in bezug auf die Schärfefläche im strukturierten
Lichtfeld der Kontrast der beobachteten Lichtstruktur auf diesem
Objektpunkt ändert.
Im
optischen Sensor selbst gibt es also überhaupt keine mechanisch bewegten
Komponenten. Vorzugsweise wird die laterale Bewegung des Objektes
benutzt, um im Messvorgang mittels dieser lateralen Bewegung ein
Signal mit mehreren Intensitätswerten,
mindestens jedoch drei, typischerweise jedoch um 20 bis 50 Intensitätswerte,
aus jedem bewegten Objektpunkt zu gewinnen. Aus diesem Signal wird
mindestens der Ort des maximalen Kontrastes bestimmt. Vorzugsweise
wird aus diesem Signal mindestens ein Phasenwert errechnet. Aus
dem Ort des maximalen Kontrastes und gegebenenfalls auch aus der
Phaseninformation wird dann die Tiefe für jeden Objektpunkt bestimmt.
Grundsätzlich kann
sich aber auch der optische Sensor gegenüber einem feststehenden Objekt bewegen.
In diesem Fall wird der optische Sensor mit einem Roboterarm oder
einer Hand oder aber mit einem Bearbeitungskopf mitbewegt bewegt.
Dieser letztgenannte Fall ist für
die optische Zwei- oder Drei-Koordinatenmesstechnik – vor allem
bei mittlerer Messgenauigkeit, also im 2 μm bis 20 μm-Bereich – von großem Interesse. Hierbei wird
der optische Sensor vorteilhafterweise von der Messmaschine in zwei
oder drei Koordinaten mit einer typischen Positionsgenauigkeit im
1 μm-Bereich positioniert,
so dass auch die aktuelle Position des Sensor zum Werkstück mit einer
Genauigkeit von etwa 1 μm
bekannt ist.
Beispielsweise
wird hier im weiteren ein Ansatz mit der Bewegung eines zu vermessenden
Objektes beschrieben. Mittels einem Bewegungssystem wird also das
zu untersuchende Objekt kontinuierlich bewegt, beispielsweise bei
der kontinuierlichen Vermessung des dreidimensionalen Profils von Schweißnähten im
kontinuierlichen Fertigungsprozess, wobei der optische Sensor dabei
feststeht. Die ganz genaue Position eines Details des Objektes, beispielsweise
ein kleines Loch in dessen Oberfläche, steht dabei nicht so sehr
im Vordergrund, sondern vielmehr die Tatsache, dass ein Mikroloch überhaupt
vorhanden ist.
Die
Bewegung des Objektes sollte auf einer für die gewünschte Messgenauigkeit hinreichend präzisen Bahn
b erfolgen, um nicht fälschlicherweise einen
Lagefehler des Objektes als Messergebnis zu interpretieren. Die
Geschwindigkeit der Bewegung des Objektes kann sehr genau gemessen
und geregelt werden.
Beim
erfinderischen Verfahren gibt es entweder a priori-Kenntnisse über die
Richtung und die Geschwindigkeit der Bewegung des Objektes, oder
es erfolgt die in situ-Messung der Richtung und der Geschwindigkeit
des zu prüfenden
Objektes. Vorzugsweise können
dabei auch auf dem Objekt aufgebrachte Marken oder Strukturen oder
die natürliche Struktur
der Oberfläche
wie die Rauheit oder eine Textur verwendet werden. Letztere können beispielsweise
mittels Kreuzkorrelationsverfahren ausgewertet werden, so dass stets
die Bewegungsrichtung und die Geschwindigkeit des Objektes zumindest
in lateraler Richtung genau bekannt sind. Für die Bestimmung der Geschwindigkeit
des Objektes kann beispielsweise eine Spalte einer pixelierten Kamera, beispielsweise
eine CMOS-Kamera
oder auch eine CCD-Kamera dienen, die parallel zur Bewegungsrichtung
angeordnet ist und welche gleichzeitig auch zur Objektbeobachtung
eingesetzt wird. Aber auch außerhalb
des Fertigungsprozesses kann einem zu vermessenden Objekt für die Messung
ein rechnersteuerbares Bewegungssystem fest zugeordnet sein. Beispielsweise
kann dies ein Linearschlitten oder ein Drehtisch sein, dessen Geschwindigkeit
mit der Auslesung von Vollbildern, benutzerdefinierten Regions of
Interest (ROI) oder einzelner Pixel einer elektronischen, pixelierten
Kamera genau synchronisiert ist.
Das
bewegte Objekt wird über
den Beleuchtungsstrahlengang des optischen Sensors mit einem strukturierten
Lichtfeld beleuchtet, welches also mindestens für einige Bildzyklen bei der
Bildaufnahme in Bezug zum optischen Sensor feststeht. Da auch der Sensor
bewegt werden kann, wobei dann das Objekt feststeht, ist im weiteren
stets ein relativ mit Lateralkomponente zum Sensor bewegtes Objekt
gemeint. Die Beleuchtung des Objektes erfolgt vorzugsweise durch
ein im optischen Sensor fest angeordnetes, beleuchtetes Liniengitter,
welches durch das Beleuchtungssystem des Sensors in die Schärfefläche SEO im
Objektraum abgebildet wird. Die Schärfefläche SEO stellt den Bildort
des Liniengitters im strukturierten Lichtfeld dar.
Relativ
zum Sensor bewegte Objektpunkte besitzen jeweils eine Bewegungsbahn.
Erfindungsgemäß besteht
bei der Bewegung des Objektes stets ein Winkel γ zwischen einer Tangente an
die Bewegungsbahn bj eines jeden Objektpunktes Pj und einer Tangente
an die Schärfefläche SEO
im strukturierten Lichtfeld im Durchstoßpunkt Pjs der Bewegungsbahn bj
durch die Schärfefläche SEO.
Die Bewegungsbahn bj wird durch das dem Objekt zugeordnete Bewegungssystem
realisiert, das die Bewegungsbahn b besitzt. Der Winkel γ ist erfindungsgemäß jeweils größer als
mindestens 1°.
Ist die Schärfefläche SBO plan
und die Bewegung des Bewegungssystems geradlinig, besteht im Objektraum
ein konstanter Winkel γ zwischen
der Schärfefläche SEO
und der Bewegungsbahn b. Typische Werte für den Winkel γ liegen zwischen
5° und 60°.
Das
Sendemuster-Array und der Sensorchip der pixelierten Kamera weisen
durch den jeweils zugeordneten Beleuchtungs- und Beobachtungsstrahlengang
vorzugsweise eine zumindest näherungsweise
gemeinsame Schärfefläche (SEO)
im Objektraum auf. Die Schärfefläche SEO
ist vorzugsweise plan.
Das
Sendemuster-Array kann auch als Ronchi-Gitter ausgebildet sein.
Der Beleuchtungs- und Beobachtungsstrahlengang des Sensors ist vorzugsweise
durch eine afokale, zweistufige Anordnung ausgebildet, also mit
im Inneren der Abbildungsstufe zusammenfallenden Brennebenen. So
besteht für ein
im Array-Raum von der Lichtquelle ausgehendes kollimiertes Lichtbündel auch
im Objektraum Kollimation. Der Lichtschwerpunkt der Beleuchtung
in der gemeinsamen Brennebene im Inneren der Abbildungsstufe ist
vorzugsweise dezentriert. Dies ergibt sich durch eine Neigung des
kollimierten Lichtbündels
im Array-Raum zur optischen Achse. So gelangt vorzugsweise ein geneigtes,
kollimiertes Lichtbündel auf
die Oberfläche
des zu vermessenden Objektes. Es ist vorteilhaft, wenn der Beleuchtungsstrahlengang
für den
Lichtdurchgang mit geneigten Lichtbündeln durch ein spezielles
Design der Optik optimiert ist. Das Licht gelangt von der Oberfläche des
Objektes in den Beobachtungsstrahlengang. Der Lichtfluss im Beobachtungsstrahlengang
kann vorzugsweise durch eine Abschattblende in der gemeinsamen Brennebene
beeinflusst werden. Diese kann vorzugsweise dezentriert sein, so
dass zwischen dem Lichtschwerpunkt des Lichtbündels im Beleuchtungsstrahlengang
und dem Blendenzentrum vorzugsweise ein Abstand d_nom besteht, der
als Triangulationsbasis des Sensors wirkt. Der Beobachtungsstrahlengang
ist ebenfalls mittels speziellem optischen Design hinsichtlich geneigter,
kollimierter Lichtbündel optimiert.
Es ist aber auch möglich,
dass sich im Beobachtungsstrahlengang weitere optische Elemente befinden,
welche die zur Kamera gelangenden Lichtstrahlen begrenzen. Vorzugsweise
können
im Beobachtungsstrahlengang dazu vor der Kamera Mikrolinsen angeordnet
sein.
Die
Aufnahme des strukturiert beleuchteten Objektes erfolgt also über den
Beobachtungsstrahlengang des optischen Sensors mittels einer elektronischen,
pixelierten Kamera mit einem bildaufnehmenden Sensor-Chip. Es werden
im Messvorgang, so lange der Bewegungsvorgang besteht, Bilder vom mit
Lateralkomponente bewegten Objekt bzw. Sensor aufgenommen, so dass
also auf den Sensor-Chip in jedem Fall ein bewegtes Bild erzeugt
wird, wobei die Bildpunkte des Objektes im Array-Raum sich mit Lateralkomponente
bewegen. Auf dieser Annahme basieren alle weiteren erfinderischen
Aussagen.
Der
Beobachtungsstrahlengang kann eine Strahlteilerfläche enthalten,
um den Beleuchtungsstrahlengang vom Beobachtungsstrahlengang trennen
zu können.
Es können
aber auch zwei völlig separate
Objektivsysteme für
die Beleuchtung und die Aufnahme des Objektes angeordnet sein, die
dann direkt nebeneinander angeordnet sind. Diese Objektive können parallel
oder auch zueinander geneigt angeordnet sein. Da in diesem Fall
die Pupille der Beleuchtung von der Pupille der Beobachtung getrennt
ist, besteht ein Triangulationswinkel, der stets größer als
der Aperturwinkel von Beleuchtung und Beobachtung ist, und so kann
hierbei zweckmäßigerweise
auch ein Triangulations-Messverfahren
mit kombinierter Kontrast- und Phasenauswertung eingesetzt werden.
Zwei
Objektivsysteme dieser Art sind in der Summe meist noch deutlich
kostengünstiger
als ein einziges Frontobjektiv, da dieses sowohl für die Beleuchtung
als auch die Aufnahme des Objektes benutzt wird und somit in der
Regel eine deutlich höhere numerische
Apertur aufweisen muss als jedes der beiden einzelnen Objektive.
Zur besseren Trennung der beiden Strahlengänge können dabei in einem oder auch
in beiden Strahlengängen
Planspiegel oder Spiegelprismen eingesetzt werden, beispielsweise
auch Spiegeltreppen, damit so genügend Platz für die Objektivsysteme
zur Beleuchtung und Beobachtung vorhanden ist.
Bei
mikroskopisch kleinen Objektfeldern mit weniger als 10 mm Durchmesser
muss dagegen aus Platzgründen
beim Stand der Technik meist ein einziges Frontobjektiv verwendet
werden. Dieses kann auch zwei getrennte Pupillenbereiche aufweisen,
denen je ein eigenes Objektivsystem zugeordnet ist, so dass getrennte
und meist parallele Strahlengänge
für die
Beleuchtung und Beobachtung bestehen. Das Leica-Stereomikroskop
MZ 12 ist dafür
ein Beispiel.
Es
ist aber auch möglich,
dass ein Frontobjektiv nur einen einzigen Pupillenbereich aufweist und
diesem auch nur ein einziges weiteres Objektiv zugeordnet ist, welches
dann gemeinsam für
die Beleuchtung und Beobachtung des Objektes genutzt wird. Dann
erfolgt die notwendige Trennung der Lichtbündel von Beleuchtung und Beobachtung
mittels eines Strahlteilers.
Es
ist vorteilhaft, die Beobachtungspupille dieses Frontobjektivs so
zu wählen,
dass sich eine numerische Apertur von mindestens etwa 0,05 für die Beobachtung
ergibt. Die Beleuchtungsapertur sollte dann ebenfalls mindestens
0,05 betragen. Der Abstand zwischen den beiden Pupillen kann etwa
das Doppelte des Pupillendurchmessers betragen.
Unabhängig von
der Gestaltung des Beleuchtungs- und Beobachtungssystems besteht
also an jedem Punkt des Objektes zwischen jedem Hauptstrahl des
Beleuchtungsbündels
und jedem Hauptstrahl des Beobachtungsbündels vorzugsweise ein Triangulationswinkel
von mindestens 2°.
Typisch sind Werte im Bereich von 5° bis 30°, so dass hierbei auch mit Vorteil
ein Triangulations-Messverfahren mit Kontrast und Phasenauswertung
eingesetzt werden kann.
Ohne
dass Details vom Profil des Objektes bekannt sind, werden mittels
der bekannten Parameter der Relativbewegung nacheinander Pixel auf
dem Sensor-Chip so belichtet und ausgelesen, dass sich eine Nachverfolgung
des hinsichtlich seiner Oberflächengestalt
und Reflektivität
weitgehend unbekannten Objektes ergibt. Die Nachverfolgung erfolgt
so, als ob je ein Bild eines relativ zum Sensor-Chip bewegten Objektpunktes
auf dem Bildempfänger
das jeweils aktuell zugehörige
Pixel selbst ausliest, also durch den sich bewegenden Hauptstrahl
des Abbildungsbündels
dieses Objektpunktes. Diese Betrachtung geht hierbei vom Hauptstrahl
der Abbildung aus, da das Objektpunktbild ja auch völlig unscharf
sein kann. In der Regel wird bei der zu vermessenden Objektoberfläche von
einer zumindest näherungsweise bekannten
mittleren Entfernung derselben vom optischen Sensor ausgegangen.
Ein
Winkel γ von
einigen Grad wirkt sich nun wie folgt bei der Aufnahme von Bildern
mit dem optischen Sensor aus, wobei hier ein Standardfall als Beispiel
beschrieben wird: Zu Beginn der Detektion eines zum optischen Sensor
mit Lateralkomponente bewegten Objektpunktes, also bei seinem Eintritt
in den optischen Erfassungsbereich des optischen Sensors, wird dieser
Objektpunkt in der Regel unscharf beleuchtet und auch unscharf abgebildet.
Auf dem Objektpunkt tritt trotz lateraler Bewegung im Lichtfeld
praktisch keine Änderung
der Beleuchtungsstärke
auf. Bei der weiteren Bewegung passiert dieser hier betrachtete
Objektpunkt nach und nach mehrere Hell-Dunkel-Bereiche des Lichtfeldes,
da er in den Bereich des Lichtfeldes gelangt, welches nun strukturiert
ist. So verändert
sich die Beleuchtung dieses bewegten Objektpunktes, also die Lichtintensität auf demselben
periodisch mit der Zeit. Ist das Bild des Objektpunktes etwa im
mittleren Bereich des Sensor-Chips der Kamera angelangt, der dem
Erfassungsbereich des optischen Sensors entspricht, erfolgt eine
scharfe Abbildung des Liniengitters auf die Objektoberfläche und
somit auch auf den Objektpunkt. Vorzugsweise erfolgt jetzt auch
eine scharfe Abbildung des Objektpunktes auf die pixelierte Kamera,
da das Bild des Liniengitters und das Bild des Sensor-Chips der
pixelierten Kamera im Objektraum vorzugsweise zusammenfallen. Im
weiteren Verlauf der Bewegung des Objektes wird der betrachtete
Objektpunkt in der Regel wieder unscharf beleuchtet und unscharf
abgebildet, da die Bewegung des Objektes mit Lateralkomponente aufgrund
des Winkels γ auch
stets eine Komponente enthält,
die parallel zur Normalen der Schärfeebene des strukturierten
Lichtfeldes liegt. So ändert
sich bei der erfindungsgemäßen Bewegung
des Objektes die Entfernung dieses Objektes zur Schärfeebene
ständig
und damit auch der Kontrast der zu beobachtenden Streifen.
Aus
der vorab bekannten Bewegungsrichtung und -geschwindigkeit des Objektes
mit den aus der Objektbewegung gesteuert zu belichtenden und auszulesenden
Pixeln des Sensor-Chips einer pixelierten Kamera wird eine laterale
Verfolgung von Objektpunkten realisiert, wobei die Signalwerte eines
jeden verfolgten Objektpunktes programmgesteuert je einem virtuellen
Pixel zugeordnet werden. Das Bild des Objektes bewegt sich also
mit Lateralkomponente relativ zum Sensor-Chip, wobei für die Sensorfläche des
Sensor-Chips so stets auch eine in-plane-Komponente der Bildbewegung
gegeben ist. Dazu wird je ein zum Sensor-Chip, bewegtes, virtuelles
Pixel für
jedes einzelne Flächenelement
der Objektoberfläche
durch das Rechnerprogramm generiert, wenn das Flächenelement den Erfassungsbereich
des Sensors aufgrund seiner lateralen Bewegungskomponente passiert.
Das bewegte, virtuelle Pixel existiert maximal nur für die Zeitdauer ΔtP, die ein
relativ zum Sensor-Chip bewegter Bildpunkt des Objektes für das Passieren
der Sensor-Chip-Fläche benötigt.
Das
bewegte, virtuelle Pixel wird aus einer kontinuierlichen Folge von
nacheinander auszuwertenden physikalisch realen Pixeln programmgesteuert
errechnet, wobei vorzugsweise genau die Signalwerte physikalisch
realer Pixel verrechnet werden, die auf dem Sensor-Chip direkte
Nachbarn sind. Das von einem physikalisch realen Pixel bei scharfer
Abbildung detektierte Flächenelement
auf der Objektoberfläche
kann dabei beispielsweise eine Ausdehnung von 2 μm × 2 μm bis zu 20 μm × 20 μm je nach Abbildungsmaßstab und
Pixelgröße des Sensor-Chips
aufweisen, wobei die numerische Apertur der Beobachtung entsprechend
groß genug
gewählt werden
sollte. Ein technisch optimaler Wert ist hierbei beispielsweise
eine numerische Apertur von 0,1.
Dabei
repräsentiert
jedes physikalisch reale Pixel einen unveränderlichen Referenzphasenwert, der
sich aus der zufälligen
Lage des Liniengitters in bezug auf den Sensor-Chip und der Gitterkonstante des
Liniengitters ergibt und der mittels Referenzmessung mit einer Referenzplatte
hochgenau bestimmt werden kann, beispielsweise durch Tiefen-Scannen. Eine
andere, besonders einfache Möglichkeit
besteht darin, die Referenzplatte möglichst genau in die Schärfefläche SEO
zu legen und eine statische Phasenauswertung durchzuführen. Der
mit einer der beiden Methoden bestimmte Referenzphasengang φ_R als Funktion
der Lateralkoordinate des Sensor-Chips in Bewegungsrichtung der
Bildpunkte wird abgespeichert. Für
jedes über
die Sensor-Chip-Fläche
programmgesteuert mit einer bekannten Geschwindigkeit bewegte virtuelle
Pixel kann so der Referenzphasengang des Sensors φ_Rt im Zeitbereich
aktuell errechnet werden.
Die
maximale Bewegungsgeschwindigkeit des Objektes ergibt sich aus der
Größe des Abstandes
von zwei auf dem Objekt abgebildeten Pixeln pro minimal benötigter Auslesezeit
für ein
Pixel. Das Ziel besteht darin, das Bild eines jeden virtuellen Pixels genau
so zu bewegen, dass es „seinem" relativ zum Sensor
mit Lateralkomponente bewegten Objektpunkt vorteilhafterweise für die Zeitdauer ΔtP möglichst
genau fest zugeordnet ist. Die Genauigkeit der Zuordnung eines auf
dem Sensor-Chip sich mit Lateralkomponente bewegenden Objektpunktbildes
und eines sich programmgesteuert dort bewegenden, virtuellen Pixels
kann dabei im Bereich der Größe eines Pixels
liegen.
Dieses
ortsfeste Zuordnen kann modellhaft auch so verstanden werden, dass
sich dabei das virtuelle Pixel wie auf einem „Laufband" – und
im Modell außerdem
unmittelbar vor dem bewegten und zu verfolgenden Objektpunkt – befindet.
Der Objektpunkt befindet sich dabei in einem zu seiner Bewegungsbahn
geneigten, strukturierten Lichtfeld. Dabei weist das „Laufband" mit dem bewegten,
virtuellen Pixel zumindest näherungsweise
die gleiche Geschwindigkeit wie das sich davor bewegende Objekt
auf, so dass nacheinander mehrere Bilder von demselben Objektpunkt
aufgenommen werden können.
So ergibt sich nacheinander im Objektpunkt eine periodische Hell-Dunkel-Beleuchtung
mit wechselndem Kontrast. Dabei tritt in der Regel ein Kontrastmaximum
der Beleuchtung auf. Es wird erfindungsgemäß der Ort des maximalen Kontrastes
im detektierten, periodischen Signal ausgewertet.
Mittels
des Beobachtungsstrahlengangs des optischen Sensors verfolgt das
bewegte, virtuelle Pixel einen bestimmten Punkt eines relativ zum
Sensor mit Lateralkomponente bewegten Objektes, beispielsweise den
Randbereich eines Mikroloches, kontinuierlich. Dies ist möglich, da
die Geschwindigkeit des Objektes vorab bekannt ist oder bei der
Objektbewegung echtzeitnah gemessen wird. Mit dem relativ bewegten
Objekt bewegt sich auch das Bild des virtuellen Pixels synchron
mit, so dass im Schärfebereich
der Abbildung des Liniengitters auf der Objektoberfläche, beispielsweise auf
den Randbereich eines Mikroloches, vom Bild des virtuellen Pixels
wegen der projizierten Streifen hell und weniger hell beleuchtete
Bereiche durchfahren werden. Mittels diesem bewegten, virtuellen
Pixel kann im zugehörigen Prozessor
ein moduliertes, periodisches elektronisches Signal mit einer bestimmten
Phasenlage und einer Einhüllenden
erzeugt und gespeichert werden, die in der Regel ein einziges Maximum
aufweist. Aus diesem Signalverlauf wird zumindest der Schwerpunkt
der Einhüllenden,
der zumindest näherungsweise
dem Ort des Kontrastmaximums entspricht, bestimmt, um die Tiefenposition
des mit dem virtuellen Pixel detektierten Objektpunktes festzustellen. Beim
Vorhandensein eines effektiven Triangulationswinkels kann auch eine
Phasenauswertung zur Genauigkeitssteigerung eingesetzt werden. Zur
Bestimmung des Schwerpunktes der Einhüllenden des periodischen Signalverlaufs
kann vorzugsweise eine digitale Lock-in Detektion mittels Rechenprogramm
angewendet werden, das also einen digitalen Lock-in Detektor darstellt.
Dabei ist die aktuelle Frequenz des periodischen Signals zumindest
näherungsweise vorab
bekannt, und der digitale Lock-in Detektor ist stets auf diese aktuelle
Frequenz eingestellt. Die aktuelle Frequenz eines jeden – mittels
virtuellen Pixels – detektierten
periodischen Signalverlaufs ist der Geschwindigkeit der Bewegung
des Bildes eines Objektes auf dem Sensor-Chip proportional. Wenn
die Geschwindigkeit des Objektes nicht vorab bekannt ist, wird diese
aktuelle Frequenz des periodischen Signalverlaufs echtzeitnah mittels
Messung der Geschwindigkeit des Objektes und aus den bekannten Parametern
der Anordnung bestimmt wird. Dabei ist zum einen der Abbildungsmaßstab der
Kette: Gitter, Beleuchtungsstrahlengang, Objekt, Abbildungsstrahlengang
und Kamera zu betrachten sowie die Gitterkonstante. Dabei kann es
jedoch auf die aktuelle Frequenz auch noch einen geringen Einfluss
durch den aktuell effektiv wirksamen Triangulationswinkel geben,
so dass hier gegebenenfalls eine geringe Frequenzanpassung für die digitale
Lock-in Detektion noch von Vorteil sein kann.
Durch
die echtzeitnahe Erfassung der relativen Bewegung zwischen dem Objekt
und dem Sensor und der daraus abgeleiteten Bestimmung der aktuellen
Signalfrequenz kann die digitale Lock-in Detektion mit der Bestimmung
des Schwerpunktes der Einhüllenden
auch für
einen mit Lateralkomponente zur Szene bewegten, handgeführten optischen
Sensor zur dreidimensionalen Erfassung dieser Szene eingesetzt werden.
Dies ist auch dann möglich,
wenn es eine veränderliche
laterale Bewegungsgeschwindigkeit des Sensors in Bezug zur Szene
gibt.
Auch
zur Phasenauswertung kann eine digitale Lock-in Detektion angewendet
werden. Die aktuelle Signalfrequenz kann durch eine Messung der
aktuellen Bewegungsgeschwindigkeit des Objektes bestimmt und in
das Auswerteprogramm, welches die digitale Lock-in Detektion durchführt, eingegeben werden.
Bei der digitalen Lock-in Detektion kann mit verschiedenen Lock-in
Frequenzen gearbeitet werden. Bei Vorhandensein eines Triangulationswinkels im
Linienprojektor-Sensor wird der Phasengang für jeden verfolgten Objektpunkt
in der Umgebung des Schwerpunktes als Objektphasengang φ_O berechnet
und mit einem vorab bestimmten Referenzphasengang φ_R rechnerisch
zum Schnitt gebracht. Der Schnittpunkt derselben liegt auf dem Sensor-Chip. Aus
den bekannten geometrisch-optischen Parametern des Sensors kann
also aus der Position dieses Schnittpunktes von Referenz- und Objektphasengang
die jeweilige Tiefenposition des jeweils detektierten Objektpunktes
errechnet werden, wobei sich dessen laterale Position aus der bekannten
Position der virtuellen Pixel über
der Zeit ergibt.
Durch
die vorab bekannten Bewegungsparameter des Objektes werden also
mittels elektronischer Programmsteuerung des Belichtungs- und Auslesevorganges
der pixelierten Kamera und einem Steuerprogramm virtuell auf dem
Sensor-Chip bewegte Pixel erzeugt. Dabei erfolgt die Zuordnung eines
einzelnen virtuellen Pixels zu einem einzelnen Objektpunkt mit dem
Eintritt dieses Objektpunktes in den Erfassungsbereich des optischen
Sensors im Pixelauslesetakt, also wenn das in der Regel unscharfe Bild
eines Objektpunktes das erste Mal am Rand des Sensor-Chips sichtbar
wird. Das virtuelle Pixel, welches zu diesem Zeitpunkt für diesen
Objektpunkt programmgesteuert erzeugt wird, kann – wie alle
virtuellen Pixel – eine
Identifikationsnummer erhalten. Dieses virtuelle Pixel besteht nur
genau für
die Durchgangszeit dieses bewegten Objektpunktes durch den Erfassungsbereich
des optischen Sensors. Wenn sich das virtuelle Pixel aus seiner
ersten Position, also beispielsweise ganz am Rand des Sensor-Chips,
um einen Pixel-Pitch des Sensor-Chips lateral weiterbewegt hat,
wird bereits ein neues, virtuelles Pixel in der Randposition des
Sensor-Chips gebildet, welches dann den Nachbarn des vorherigen
Objektpunktes in Bewegungsrichtung des Objektes detektiert und programmgesteuert
ebenfalls verfolgt. So kann der Bewegungsunschärfebereich nicht größer als
maximal ein abgebildeter Pixel-Pitch werden. Es ist aber auch möglich, dass
das nächste
virtuelle Pixel erst gebildet wird, wenn sich das vorherige bereits um
mehrere, beispielsweise um vier Pixel-Pitches, weiterbewegt hat. Dann beträgt die elektronisch
gesteuerte Shutter-Zeit nur maximal ein Viertel der Frame-Auslesezeit.
Dies ist von Vorteil, wenn sich das Objekt sehr schnell bewegt und
die Frame-Auslesezeit der Kamera die Begrenzung darstellt. Andererseits
setzt dies wegen der kurzen Shutter-Zeit eine starke Lichtquelle
voraus.
Aus
den zumindest näherungsweise
bekannten Bewegungsparametern des Objektes und den Kameradaten werden
der Ort, die Integrationszeit und der Ausleszeitpunkt für das jeweils
nachfolgende reale Pixel vorab bestimmt, so dass aus diesen reale
Pixeln jeweils ein auf dem Sensor-Chip bewegtes, virtuelles Pixel
programmgesteuert generiert werden kann. So erfolgt zumindest für einen
Teil der Dauer der lateralen Bewegung eines jeden Schwerstrahls
eines Bildes eines Objektpunktes über den Sensor-Chip eine feste
Kopplung von je einem Objektpunkt mit je einem mitbewegten, virtuellen
Pixel. Der Ort des aktuellen realen Pixels, welches zur Bildung
des virtuellen Pixels, beispielsweise für die Dauer einer Integrationszeit
des realen Pixels benutzt wird, ergibt sich zu jedem Zeitpunkt durch
die Abbildung des jeweiligen Objektpunktes mittels Schwerstrahl
auf die pixelierte Kamera. Auch wenn einmal an einer Stelle des
Objektes kein Objektpunkt vorhanden sein sollte, beispielsweise
aufgrund eines sehr tiefen Loches im Objekt, wird dennoch programmgesteuert
ein bewegtes, virtuelles Pixel erzeugt.
Die
auf dem Sensor-Chip bewegten, virtuellen Pixel mit aufeinander folgenden
Identifikationsnummern sind vorzugsweise direkt nebeneinander in einer
Linie angeordnet. Die physikalisch realen Pixel der Kamera werden
also zeitlich nacheinander so belichtet und ausgelesen, dass genau
ein einzelner Objektpunkt pixelgenau verfolgt werden kann. Die Geschwindigkeit
des Bildes eines bewegten, virtuellen Pixels auf dem Objekt muss
hierbei möglichst
genau der Geschwindigkeit des Objektes entsprechen.
Der
so mittels bewegtem, virtuellen Pixel gewonnene Signalverlauf stellt
in der Regel ein periodisches Signal mit einer bestimmten Phase
und einer Einhüllenden
mit mindestens einem Signalmaximum dar. Die Phasenlage ergibt sich
aus der aktuellen Tiefenposition des Objektpunktes des optischen
Sensors. Jedoch nur, wenn ein Triangulationswinkel im Objektraum
besteht, der ja die effektive Triangulationswellenlänge bestimmt,
trägt die
Phase im detektierten Signal auch eine Information über die
Tiefe des Objektpunktes. Nur dann ist es sinnvoll, auch diese Phase
auszuwerten.
Es
wird also der Phasengang in der Umgebung des Schwerpunktes der Einhüllenden
für jeden verfolgten
Objektpunkt Pj des periodischen Signals, welches mit einem virtuellen
Pixel gewonnen wurde, bestimmt. Dies führt in der Regel zu einer höheren Genauigkeit
bei der Bestimmung der Tiefenposition eines Objektpunktes als die
Auswertung der Modulation des periodischen Signals.
Die
Triangulationswellenlänge
im Objektraum ergibt sich in bekannter Weise aus dem Quotienten
der Gitterkonstante des Bildes des Liniengitters auf der Objektoberfläche und
der Summe der Tangenswerte des Winkels der Beleuchtung und des Winkels
der Beobachtung. Diese beiden Winkel bilden den Triangulationswinkel,
der sich bei einem optischen Sensor mit einem einzigen Frontobjektiv
aus dem Abstand des Lichtschwerpunktes des Beleuchtungsschwerstrahls
und des Beobachtungsschwerstrahls in dessen Pupillenebene und der
Brennweite des Frontobjektivs ergibt. Dabei fällt die Pupillenebene des Frontobjektivs
vorzugsweise mit dessen Brennebene aufgrund einer dort vorzugsweise
angeordneten Abschattblende zusammen.
Wenn
die Geschwindigkeit der Objektbewegung konstant, das Liniengitter äquidistant
ist und wenn das Beleuchtungsbündel
im Objektraum und das Abbildungsbündel im Array-Raum kollimiert
sind, ergibt sich in der Regel für
das mittels virtuellem Pixel detektierte, periodische Signal eine
konstante Frequenz, die jedoch in jedem Objektpunkt auch vom aktuell
wirksamen Triangulationswinkel beeinflusst wird.
Dabei
ist durch die Wahl der numerischen Apertur von Beleuchtung und Beobachtung
und des Tangens des Winkels γ,
wobei der Winkel γ vorzugsweise
auch 45° betragen
kann, die Einhüllende
des periodischen Signals vorzugsweise so bestimmt, dass nicht mehr
als maximal 20 Perioden unter dieser Einhüllenden auftreten. Dies gilt
insbesondere dann, wenn eine Phasenauswertung vorgenommen wird.
Bei Kontrastauswertung können
auch bis zu 100 Perioden unter dieser Einhüllenden noch mit einem Vorteil
für die
Genauigkeit ausgewertet werden. Dabei ist vorab die Soll-Frequenz
des periodischen Signals für
einen bestimmten Triangulationswinkel sehr genau bekannt, so dass
mit Vorteil die digitalen Lock-in Verfahren eingesetzt werden können. Nach Ablage
der mittels bewegtem, virtuellen Pixel gewonnenen Intensitätswerte
in einem Speicherbereich ist es ja gleichgültig, ob diese Intensitätswerte
in örtlicher
oder zeitlicher Zuordnung gewonnen wurden, wobei es sich hier wegen
der Verfolgung einzelner Objektpunkte letztlich hier immer um eine örtliche
Zuordnung, jedoch zu einem bestimmten Zeitpunkt, handelt. Erst durch
die Bewegung des Objektes und die programmtechnische Generierung
eines virtuellen Pixels erfolgt die Transformation der Signale in den
Zeitbereich.
Weiterhin
ist aber auch möglich,
einen mit der menschlichen Hand oder von einem Roboterarm mit Lateralkomponente
bewegten mobilen optischen Sensor – in der bereits zuvor beschriebenen
Art – einzusetzen,
wobei der Winkel γ hierbei
sehr groß sein kann
und beispielsweise 75° betragen
kann. Der Beleuchtungs- und der Beobachtungsstrahlengang kann dabei
völlig
voneinander getrennt sein. Dabei kann im Objektraum im Schnitt senkrecht
zu den Streifen das Beleuchtungsbündel vorzugsweise telezentrisch
und im dazu senkrechten Schnitt mittels Zylinderoptik zentralperspektivisch
sein. So entsteht ein langgezogenes, strukturiertes Lichtband, welches
die Szene in einem großen
Winkelbereich erfasst. Bei diesem Sensor kann aus den Bildern von
der aufgenommenen Szene, die mit einer hinreichend schnellen Kamera
gewonnen wurden, die Relativbewegung zwischen der Szene und dem
Sensor so rekonstruiert werden, dass zumindest näherungsweise ein für jeden
detektierbaren Punkt der Szene bewegtes, die Punkte der Szene jeweils
nachverfolgendes, virtuelles Pixel errechnet werden kann. Dazu kann
beispielsweise auch die Auswertung der Textur der Szene ausgenutzt
werden. Zur Ermittlung der Relativbewegung kann auch noch ein weiterer
Kamera-Chip eingesetzt werden. Gegebenenfalls kann die Szene dabei
mittels einer zusätzlichen
Lichtquelle beleuchtet werden, die an die Beleuchtungsaufgabe optimal angepasst
ist. Mittels der bereits beschriebenen Ausweitung der Signale, die
mit bewegten virtuellen Pixeln gewonnen wurden, kann so das dreidimensionale
Profil der Szene mit einem Hand-held-Gerät bestimmt werden.
Das
Objekt kann auch zylindrisch geformte Oberflächen aufweisen, beispielsweise,
wenn es sich um ein zylindrisches Präzisionsdrehteil handelt. Vorteilhafterweise
wird dieses Präzisionsdrehteil
im Messvorgang mittels Präzisionslager
um seine Symmetrieachse gedreht. Die Schärfeebene des Liniengitters
im Objektraum kann dann vorteilhafterweise ebenfalls eine Zylinderfläche darstellen
mit einem zumindest näherungsweise
gleichen Radius wie die zu vermessende Zylinderfläche. Dies
ist durch die Anordnung und Abbildung eines gekrümmten Liniengitters auf die
Objektoberfläche
möglich,
wobei die Zylinderachse desselben parallel zur Achse des zylindrischen
Objektes liegt. Dabei sind die Achsen der beiden Zylinderflächen um
den Betrag d separiert. Der Betrag d ist dabei so zu wählen, dass
zwischen einer Tangente an die Zylinderfläche und der Tangente an die
Schärfefläche SEO
des Liniengitters im Durchstoßpunkt
Pjs der Bewegungsbahn bj eines bewegten Objektpunktes Pj durch die
Schärfefläche SEO ein
Winkel von mindestens γ =
1° besteht.
Eine gekrümmte
Schärfefläche SEO
kann aber auch durch eine spezielle Abbildung des Liniengitters,
beispielsweise unter Verwendung mindestens einer zylindrischen Zerstreuungslinse,
erzeugt werden. Auch dann besteht so stets ein Winkel γ von mehr
als 1° zwischen
den Tangenten an die Schärfefläche SEO, also
der Bildfläche
des Liniengitters im Objektraum, und den Tangenten der Bewegungsbahnen
bj der einzelnen Objektpunkte Pj am jeweiligen Durchstoßpunkt Pjs
durch diese Schärfefläche SEO.
So entsteht auch bei zylindrischen Oberflächen durch das kontinuierliche
Auslesen der den bewegten Objektpunkten nachgeführten realen Pixel, also beim
Auslesen des durch Programmsteuerung erzeugten, mitbewegten, virtuellen
Pixels, jeweils ein periodischer Signalverlauf mit einer Einhüllenden
für jeden
Objektpunkt. Auch hierbei kann sich bei konstanter Rotationsgeschwindigkeit
des Objektes und bei einem zumindest näherungsweise äquidistanten
Liniengitter jeweils eine zumindest näherungsweise konstante Signalfrequenz
ergeben, wobei die Signalfrequenz auch durch die Größe des effektiven
Triangulationswinkels beeinflusst wird.
Grundsätzlich ergibt
sich in Abhängigkeit
von der jeweiligen Entfernung eines Objektpunktes vom optischen
Sensor – also
von der Tiefenposition des Objektpunktes – im periodischen Signal eine
bestimmte Phasenlage und auch eine bestimmte Lage des Maximums der
Einhüllenden.
Bei großen
Abweichungen eines Objektpunktes von der mittleren Entfernung der
Oberfläche,
beispielsweise, wenn sich ein Objektpunkt auf einem stark hochstehenden
Grat befindet, ist das Maximum der Einhüllenden deutlich verschoben.
Beim Vorhandenseins eines Triangulationswinkels kann aus der Auswertung
der Phasenlage in den einzelnen Signalen die Tiefenposition der Objektpunkte
mit noch höherer
Genauigkeit bestimmt werden. Dies gilt besonders für Anordnungen mit
zwei völlig
getrennten Strahlengängen
für die
Beleuchtung und die Beobachtung. Hierbei wird vorzugsweise am Modulationsmaximum – also am
Ort der besten Schärfe – der Schnittpunkt
des vorab im Zeitbereich bestimmten Referenzphasenganges des Sensors φ_Rt mit
dem Phasengang φ_Otj
eines im Zeitbereich bestimmten, unbekannten Objektpunktes Pj bestimmt.
Ausgegangen wird dabei rechnerisch vom Referenzphasengang φ_R, der
eine Funktion der lateralen Sensor-Chip-Koordinaten ist und der wie
bereits beschrieben vorab bestimmt wurde. Daraus wird mittels der
bekannten Bewegungsgeschwindigkeit des Objektes ein Referenzphasengang φ_Rt über der
Zeit berechnet, der sich für
einen zum Objektpunkt synchron bewegten Referenzpunkt in der Schärfefläche SEO
ergeben würde.
Die Bewegung des Referenzpunktes in der Schärfefläche SEO entspricht dem Fall
des Triangulationswinkels null. Der Phasengang φ_Otj über der Zeit eines Objektpunktes Pj
wird aktuell mittels virtuellem Pixel am Modulationsmaximum errechnet.
Für den
Fall des Triangulationswinkels null fallen die Phasengänge von
Referenz φ_Rt
und Objektpunkt φ_Otj
Modulo 2π zusammen,
so dass die Berechnung eines derartigen Schnittpunktes praktisch
nicht möglich
ist. Bei Vorhandensein eines Triangulationswinkels von einigen Grad
ergibt dies dagegen ein sehr genaues Kriterium für die Tiefenposition eines
bewegten Objektpunktes. Aus dem Ort des Schnittpunktes auf dem Sendemuster-Array kann die Tiefenposition
eines jeden Objektpunktes unter Verwendung der bekannten geometrisch-optischen
Parameter der Anordnung ermittelt werden.
Besonders
bei Sensor-Anordnungen mit einem einzigen Frontobjektiv, wenn der
Triangulationswinkel zumindest näherungsweise
null ist, wird nur das Auswerten des Schwerpunktes der Einhüllenden für jeden
Objektpunkt durchgeführt,
wobei hier stets das Signal des virtuellen Pixels ausgewertet wird.
Die Auswertung der Einhüllenden
genügt
in der Regel dann, wenn eine große numerische Apertur für die Beleuchtung
und die Beobachtung gegeben ist und der Triangulationswinkel ohnehin
zum Aperturwinkel vergleichsweise klein oder sogar null ist. Wenn
das Objekt mit extrem hoher Geschwindigkeit lateral zum Sensor bewegt
wird – beispielsweise
mit einer Geschwindigkeit von mehr als 100 mm/s – steht die Zeit für die numerisch
aufwendigere Phasenauswertung ohnehin meist nicht zur Verfügung, bzw.
es ist ein besonders hoher technischer Aufwand erforderlich.
Grundsätzlich können für die Ausweitung
der Phase in den detektierten Signalen auch FFT-, Wavelet-Methoden oder andere
beliebige Phasenauswerte-Algorithmen sowie auch Kreuzkorrelations-Verfahren mit vorab
gewonnenen und abgespeicherten Referenzsignalverläufen eingesetzt
werden.
Weiterhin
wird vorzugsweise eine pixelierte Kamera mit einem Kamera-Chip mit
einem aufgesetzten Mikrolinsen-Array eingesetzt. Dieses Mikrolinsen-Array
bewirkt durch die begrenzte laterale Ausdehnung der lichtempfindlichen
Fläche
des Pixels stets eine Begrenzung des Aperturwinkels des Lichtbündels, welches
auf das Pixel trifft. Bei Kippung der Kamera mit dem eingebauten
Kamera-Chip und dem
Mikrolinsen-Array um eine zur Einfallsebene der Schwerstrahlen der
Lichtbündel
von Beleuchtung und Beobachtung im Objektraum senkrechte Achse wird
das auf die realen Pixel fallende Bündel etwas asymmetrisch beschnitten.
Ohnehin ist in der Regel eine Verkippung des Kamera-Chips ja auch
meist notwendig, um die benötigte
Koinzidenz der Schärfefläche des
Kamera-Chips mit der Schärfefläche des Gitterbildes
im Objektraum zu erreichen.
Der
Kamera-Chip kann aber auch senkrecht zur optischen Achse des zugehörigen Objektivs
angeordnet sein, wenn die Schärfefläche des
strukturierten Lichtfeldes senkrecht auf der optischen Achse des
Beobachtungsstrahlenganges steht. Dann kann bei Verwendung eines
gemeinsamen Frontobjektives mit zwei Pupillenbereichen auch das
Sendemuster-Array senkrecht zur optischen Achse des Beleuchtungsstrahlenganges
angeordnet sein. Eine derartige Anordnung ermöglicht, die Zoomfunktion eines
Stereomikroskops uneingeschränkt
zu verwenden, da sich die Schärfeebene
SEO durch die Änderung
der Vergrößerung nicht
dreht, also der Winkel γ von
der Zoomeinstellung des Stereomikroskops nicht beeinflusst wird.
Andererseits
kann die Beeinflussung des Winkels γ im Zusammenwirken mit der Zoomfunktion eines
Stereomikroskops auch gezielt eingesetzt werden, um eine für ein Objekt
bestangepasste Signalform zu finden, indem die neben der Vergrößerung des
Mikroskops auch die Breite der Einhüllenden beeinflusst wird. In
diesem Fall besteht im Sensor eine Verkippung des Kamera-Chips und
des Liniengitters.
Die
asymmetrische Beschneidung des Lichtbündels ergibt sich bei einer
Verkippung des Kamera-Chips
mit aufgesetzten Mikrolinsen aus der lateralen Ausdehnung des Pixels,
das in der Regel deutlich kleiner als der Durchmesser der Mikrolinse
ist, im Zusammenwirken mit der Brennweite der vorgesetzten Mikrolinse.
So besteht für
das System Pixel mit Mikrolinse ein Grenzaperturwinkel von beispielsweise 10° für auftreffendes
Licht. Diese asymmetrische Begrenzung des auf das Pixel treffenden
Lichtbündels erfolgt
durch die Kippung der Kamera mit dem Mikrolinsen-Array erfindungsgemäß so, dass
dies eine laterale Verschiebung des Lichtschwerpunktes LSP_D in
der Pupillenebene des Frontobjektivs zur Folge hat, so dass dieser
außeraxial
ist. So vergrößert sich die effektive
Triangulationsbasis d_nom gegenüber dem
Fall mit zur Objektivachse senkrechter Lage des Kamera-Chips deutlich.
Die effektive Triangulationsbasis d_nom ist durch den Abstand des
Lichtschwerpunktes der Beleuchtung LSP_L und der Beobachtung LSP_D
bestimmt.
Durch
diese Kippung des Kamerachips, die in der Regel gemeinsam mit der
Kamera erfolgt, kann die effektive Triangulationswellenlänge beispielsweise
noch etwa um die Hälfte
verkleinert werden. Dies verbessert die Tiefenmess-Genauigkeit bei
der Bestimmung des Profils und bei der Erkennung von Fehlern auf
der Oberfläche
ganz wesentlich. Außerdem
kann so die numerische Apertur der Beleuchtung gleich oder sogar
größer als
die Beobachtungsapertur gemacht werden, was den Kontrast des unerwünschten
Specklings im aufgenommenen Bild stark reduzieren kann.
Erfindungsgemäß wird also
vorgeschlagen, bei einem optischen Messverfahren die aperturbegrenzende
Wirkung eines Mikrolinsen-Arrays einer Kamera zur lateralen, außeraxialen
Verschiebung des Lichtschwerpunktes des Lichtbündels der Objektbeobachtung
LSP_D in der Pupillenebene eines Frontobjektivs zu nutzen, die so
zur effektiven Vergrößerung der
Triangulationsbasis d_nom führt.
Grundsätzlich kann
also in jeder Triangulationsanordnung die aperturbegrenzende Wirkung
eines System Mikrolinse mit detektierendem Pixel zur gezielten Beeinflussung
der Schwerstrahllage im Beobachtungsstrahlengang verwendet werden.
Die
nachfolgenden Offenlegung wird durch die Ansprüche 9 und 10 abgedeckt. Weiterhin
ist es aber auch möglich,
dass ein optischer Sensor mit einem Liniengitter aufgebaut ist,
welches von Lichtquelle mit Kollimator beleuchtet wird. Das kollimierte Lichtbündel gelangt
auf das Liniengitter. Es entstehen gebeugte Teilbündel, wobei
mindestens ein gebeugtes Teilbündel
eine Kreisringblende in der gemeinsamen Fokalebene der nachfolgenden
Objektive passiert, die eine afokale Abbildungsstufe bilden. Durch
die Fokussierung mittels einem dem Objekt zugeordneten Prüfobjektiv
entsteht auf den Flächenbereichen
des entlang einer Geraden b bewegten Objekts ein hochfrequentes
Streifenbild. Dabei beträgt
die Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes
(Pj) des Objektes im Durchstoßpunkt
(Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Liniengitters
mindestens 1°.
Das am Objekt reflektierte und gestreute Licht passiert die afokale
Abbildungsstufe mit dem Prüfobjektiv
und die Kreisringblende und wird wieder auf das Liniengitter abgebildet.
Die Ebene des Liniengitters wird anschließend scharf auf den Sensor-Chip einer
Kamera abgebildet. Von Vorteil ist hier, dass die in den virtuellen
Pixeln, welche das bewegte Objekt nachverfolgen, Signale generiert
werden können,
die in der Form den bekannten kurzkohärenten Signalen aus der Interferometrie
entsprechen. Diese weisen in erster Näherung stets die gleiche Phase
auf, nämlich die
Phase null am Schwerpunkt der Einhüllenden des Signals. Dies vereinfacht
die Signalauswertung erheblich gegenüber Signalen mit einer variablen
Phase am Schwerpunkt, bzw. am Kontrastmaximum.
Weiterhin
ist es möglich,
dass das Liniengitter als ein Phasengitter ausgebildet ist. Dies
liefert Signale mit einem hohen Modulationsgrad. Das Phasengitter
wird von einer quasi-monochromatischen Lichtquelle beleuchtet, die
aus einem Laserdioden-Array besteht. Das kollimierte Lichtbündel gelangt
auf ein Phasengitter. Es entstehen zwei gebeugte Teilbündel in
den beiden ersten Beugungsordnungen. Die nullte Beugungsordnung
ist fast vollständig
unterdrückt.
Die beiden gebeugten Teilbündel
passieren eine Kreisringblende in der gemeinsamen Fokalebene der
nachfolgenden Objektive, die eine afokale Abbildungsstufe bilden.
Durch die Fokussierung mittels dem dem Objekt zugeordneten Prüfobjektiv
entsteht auf den Flächenbereichen
des entlang einer Geraden b bewegten Objekts ein hochfrequentes
Interferenzbild. Dabei beträgt
die Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes
(Pj) des Objektes im Durchstoßpunkt (Pjs)
der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Liniengitters
mindestens 1°.
Das am Objekt reflektierte und gestreute Licht passiert die afokale
Abbildungsstufe mit den Objektiven und die Kreisringblende und wird
wieder auf das Phasengitter abgebildet. Es entstehen am Phasengitter
zwei gebeugte und kollineare Teilbündel, die mittels nachfolgendem
Objektiv über
eine Lochblende, die der Raumfrequenzfilterung und der Sperrung
der weiteren gebeugten Teilbündel
dient, auf den Sensor-Chip einer Kamera gelangen werden, so dass
die Ebene des Phasengitters mittels zweitem Objektiv nach der Lochblende
scharf abgebildet wird. Dabei bilden die beiden Objektive um die
Lochblende eine afokale Abbildungsstufe. Von Vorteil ist hier, dass
die in den virtuellen Pixeln, welche das bewegte Objekt nachverfolgen,
Signale generiert werden, die in der Form den kurzkohärenten Signalen
entsprechen. Diese weisen in erster Näherung stets die gleiche Phase
auf, nämlich
die Phase null am Schwerpunkt der Einhüllenden des Signals. Dies vereinfacht
die Signalauswertung erheblich gegenüber Signalen mit einer variablen Phase
am Schwerpunkt, bzw. am Kontrastmaximum.