DE102013212827B4 - Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes - Google Patents

Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes Download PDF

Info

Publication number
DE102013212827B4
DE102013212827B4 DE102013212827.4A DE102013212827A DE102013212827B4 DE 102013212827 B4 DE102013212827 B4 DE 102013212827B4 DE 102013212827 A DE102013212827 A DE 102013212827A DE 102013212827 B4 DE102013212827 B4 DE 102013212827B4
Authority
DE
Germany
Prior art keywords
camera
image
elements
illumination
object surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013212827.4A
Other languages
English (en)
Other versions
DE102013212827A1 (de
Inventor
Christoph Wagner
Christian Kludt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cognex Corp Natick Us
Original Assignee
SAC Sirius Advanced Cybernetics GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SAC Sirius Advanced Cybernetics GmbH filed Critical SAC Sirius Advanced Cybernetics GmbH
Priority to DE102013212827.4A priority Critical patent/DE102013212827B4/de
Priority to CN201480048259.1A priority patent/CN105492862B/zh
Priority to CN201910807179.4A priority patent/CN110388885A/zh
Priority to PCT/EP2014/063958 priority patent/WO2015000898A1/de
Priority to EP14734810.6A priority patent/EP3017273B1/de
Publication of DE102013212827A1 publication Critical patent/DE102013212827A1/de
Application granted granted Critical
Publication of DE102013212827B4 publication Critical patent/DE102013212827B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0242Testing optical properties by measuring geometrical properties or aberrations
    • G01M11/025Testing optical properties by measuring geometrical properties or aberrations by determining the shape of the object to be tested

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zur optischen Formerfassung und/oder Prüfung eines Gegenstandes (G), mit folgenden Schritten: – Anordnen von mindestens einer Kamera (K), mindestens zwei linienförmigen Beleuchtungselementen (B1, B2) und einem Gegenstand (G) derart relativ zueinander, dass eine Gegenstandsoberfläche (3) von den Beleuchtungselementen beleuchtbar und von der Kamera (K) aufnehmbar ist, wobei die Beleuchtungselemente (B1, B2) einen Winkel miteinander einschließen, der von 0° verschieden ist; – Bewirken einer Relativbewegung zumindest zwischen zwei Elementen ausgewählt aus einer Gruppe bestehend aus dem Gegenstand (G), den Beleuchtungselementen (B1, B2) und der Kamera (K), wobei eine Bewegungsrichtung mit wenigstens einem Beleuchtungselement (B1, B2) einen Winkel einschließt, der von 0° verschieden ist; – Aufnehmen einer Bildfolge (11) der Gegenstandsoberfläche (3) mit der Kamera (K) während der Relativbewegung, wobei die Gegenstandsoberfläche (3) in einer Bildebene der Kamera (K) abgebildet wird; – Beleuchten der Gegenstandsoberfläche (3) während der Belichtung der Bildebene mit wenigstens einem Beleuchtungselement (B1, B2); – Zuordnen korrespondierender Bildorte (15) maximaler Beleuchtungsstärke in der Bildebene zu in der Bildfolge (11) unterscheidbaren Gegenstandsorten (7) auf der Gegenstandsoberfläche (3), und – Berechnen lokaler Oberflächenneigungen an den Gegenstandsorten (7) aus der Position des jeweils korrespondierenden Bildortes (15) in der Bildebene.

Description

  • Die Erfindung betrifft ein Verfahren zur optischen Formerfassung und/oder Prüfung eines Gegenstandes gemäß Anspruch 1 sowie eine Vorrichtung zur optischen Formerfassung und/oder Prüfung eines Gegenstandes gemäß Anspruch 6. Insbesondere sind das erfindungsgemäße Verfahren und die erfindungsgemäße Vorrichtung zur Formerfassung und/oder Prüfung von Gegenständen mit optisch rauer Oberfläche und/oder mit glänzender Oberfläche bis hin zu optisch glatter Oberfläche geeignet.
  • Vorrichtungen und Verfahren zur optischen Formerfassung von Gegenständen sind bekannt.
  • Aus der deutschen Offenlegungsschrift DE 10 2011 117 894 A1 geht eine Vorrichtung zur optischen Formerfassung eines bewegten Gegenstandes mit mindestens einer Beleuchtungseinrichtung, die so ausgebildet und/oder angeordnet ist, dass durch sie verschiedene Beleuchtungen des zu erfassenden Gegenstands bewirkbar sind, und mit mindestens einer Aufnahmeeinrichtung, die so ausgebildet und angeordnet ist, dass Bilder von dem Gegenstand durch sie aufnehmbar sind, hervor. Die Vorrichtung weist eine Steuerungseinrichtung auf, durch welche eine Bewegung des Gegenstands mithilfe einer Bewegungseinrichtung vorgebbar ist. Aus der deutschen Offenlegungsschrift DE 10 2008 015 039 A1 geht eine Vorrichtung zur diffusen Ausleuchtung eines linienförmigen Bereichs hervor, wobei mindestens eine Lichtquelle nahe eines zu beleuchtenden linienförmigen Bereichs positioniert wird, und wobei ein Streukörper mit retroreflektierenden Eigenschaften und/oder einer retroreflektierenden Beschichtung verwendet wird. Aus der deutschen Offenlegungsschrift DE 100 20 893 A1 geht ein Verfahren zur Erfassung der Gestalt eines dreidimensionalen Gegenstandes mit folgenden Schritten hervor: Der Gegenstand wird relativ zu einer Kamera auf einer vorgegebenen Bahn bewegt; es werden Bilder des Gegenstands im Laufe der Bewegung aufgenommen; Bildpunkte eines der aufgenommenen Bilder werden jeweils um einen gleichen, vorgebbaren Weg rückverschoben, wobei die Richtung der Rückverschiebung entgegen der Bewegungsrichtung des Gegenstands erfolgt; Helligkeits- und/oder Farbeigenschaften von in Rückverschiebungsrichtung benachbarten Bildpunkten zumindest zweier Bilder werden verglichen; die ermittelten Helligkeits- und/oder Farbeigenschaften von jeweils einem Bildpunkt zweier Bilder werden verglichen, wobei diese Bildpunkte dieselben Punktkoordinaten besitzen; die Helligkeits- und/oder Farbeigenschaften der beiden Bildpunkte mit denselben Punktkoordinaten werden verknüpft; die Bildpunkte werden erneut rückverschoben, und die vorangegangenen Verfahrensschritte des Vergleichens der ermittelten Helligkeits- und/oder Farbeigenschaften von Bildpunkten mit denselben Punktkoordinaten und des Verknüpfens der Helligkeits- und/oder Farbeigenschaften der beiden Bildpunkte mit denselben Punktkoordinaten werden wiederholt; zumindest zwei Verknüpfungsergebnisse werden miteinander verglichen, und es wird eine Rückverschiebeweglänge bis zum Erreichen eines vorgebbaren Verknüpfungsergebnisses ermittelt.
  • Es gibt eine Vielzahl von Messprinzipien, mit denen auf optischem Weg die dreidimensionale Form von Gegenständen erfasst werden kann.
  • • Triangulation:
    • Laserlichtschnittverfahren
    • Streifenprojektion
    • Stereoverfahren
    • Photogrammmetrie
    • Photometrisches Stereo und „shape from shading”
    • Photometrische Deflektometrie
    • andere deflektometrische Verfahren
  • • Interferometrische Verfahren:
    • Laserinterferometrie
    • Weißlichtinterferometrie
    • Holografische Verfahren
  • • Laufzeitverfahren:
    • Hochfrequente Modulation der Lichtquelle
  • Optisch raue Oberflächen sind dadurch definiert, dass sie eine Rauigkeit besitzen, die wesentlich höher ist als die Wellenlänge von sichtbarem Licht (etwa 0,5 Mikrometer), während optisch glatte Oberflächen eine Rauigkeit weit unter der Wellenlänge aufweisen. Aufgrund dieser Eigenschaft zeigen optisch raue Oberflächen eine ungerichtete, diffuse Streuung von Licht. Beispiele hierfür sind Papier, Kreide, Mattscheiben und andere mehr. Optisch glatte Oberflächen dagegen spiegeln bzw. transmittieren einfallendes Licht gerichtet. Sie sind in der Lage, ein optisches Abbild ihrer Umgebung zu erzeugen. Als Beispiele sind ebene oder gewölbte Spiegel und polierte Metall- und Glasoberflächen (Linsen) zu nennen.
  • Mit dem Begriff glänzend werden im Weiteren Oberflächen bezeichnet, deren optische Rauigkeit im Übergangsbereich zwischen optisch rauen und optisch glatten Oberflächen liegt.
  • Sowohl optisch raue, glänzende als auch optisch glatte Oberflächen haben technisch eine hohe Bedeutung.
  • Für optisch raue Oberflächen gibt es eine breite Palette von optischen 3D-Sensoren. Eines der am weitesten verbreiteten Verfahren beruht auf der Projektion von Streifenmustern. Die Muster werden aus einer Richtung projiziert und aus einer anderen mit einer Kamera beobachtet. Die Streifen scheinen für die Kamera, je nach Form des beobachteten Gegenstandes, mehr oder weniger deformiert. Aus der Deformation der Streifen kann auf die Form des Gegenstandes zurückgeschlossen werden.
  • Für glänzende Oberflächen ist insbesondere das Verfahren der photometrischen Deflektometrie geeignet ( EP 1 567 827 A1 ).
  • Auch für optisch glatte Oberflächen sind Verfahren bekannt, die eine Formerfassung ermöglichen. Zum Test von einfachen Oberflächenformen wie ebenen oder sphärischen Flächen (Linsen, Spiegel etc.) kommen vorwiegend interferometrische Verfahren zum Einsatz. Bei komplizierter geformten Flächen wie Asphären kommen das Hartmann-Verfahren und der Shack-Hartmann-Test zum Einsatz. Hier beobachtet man die Ablenkung eines dünnen Strahlenbündels durch den zu vermessenden Gegenstand. Andere Verfahren beobachten ein Gitter- oder Streifenmuster, welches an der Gegenstandsoberfläche reflektiert bzw. transmittiert wird. Je nach deren Form erscheinen das Gitter bzw. die Streifen mehr oder weniger deformiert. Zur Analyse, inwieweit das Gittermuster deformiert wird, kann ein zweites Gitter bei der Beobachtung eingesetzt werden. Dort spricht man speziell von einem Moirée-Verfahren. Alle diese vorgenannten Verfahren lassen sich unter dem Stichpunkt der deflektometrischen Verfahren zusammenfassen. Ihnen ist gemeinsam, dass sie die Strahlablenkung bestimmen und daraus auf die Form der Oberfläche schließen. Die deflektometrischen Verfahren beruhen auf dem Reflexionsgesetz bzw. Brechungsgesetz, das den Zusammenhang zwischen einfallendem Strahl, Oberflächennormale und dem reflektierten bzw. transmittierten Strahl beschreibt.
  • Die Formerfassung und/oder Prüfung von optisch rauen, glänzenden und optisch glatten Gegenständen mit nur einer Vorrichtung bzw. einem Verfahren ist bislang nicht möglich. Ein technisch bedeutsames Beispiel ist die Kontrolle von lackierten Bauteilen im Automobilbau, insbesondere von lackierten Oberflächen der Karosserie. Je nach Art des Lacks treten dort von diffuser Streuung (optisch raue Oberfläche), über glänzende Anteile bis hin zu spiegelnden Anteilen auf.
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zu schaffen, welche gleichermaßen zur Formerfassung und/oder Prüfung von Gegenständen mit optisch rauer, glänzender oder optisch glatter Oberfläche geeignet sind. Insbesondere sind das Verfahren und die Vorrichtung geeignet für die technisch besonders relevanten glänzenden und optisch glatten Oberflächen.
  • Die Aufgabe wird gelöst, indem ein Verfahren mit den Schritten des Anspruchs 1 geschaffen wird. Hierbei werden mindestens eine Kamera, mindestens zwei linienförmige Beleuchtungselemente und ein Gegenstand derart relativ zueinander angeordnet, dass eine Gegenstandsoberfläche, mithin eine Oberfläche des Gegenstands, von den Beleuchtungselementen beleuchtbar und von der Kamera aufnehmbar ist. Die Beleuchtungselemente schließen miteinander einen Winkel ein, der von 0° verschieden ist. Es wird eine Relativbewegung zwischen wenigstens zwei Elementen bewirkt, wobei die Elemente ausgewählt sind aus einer Gruppe bestehend aus dem Gegenstand, den Beleuchtungselementen und der Kamera. Dies bedeutet insbesondere, dass es möglich ist, eine Relativbewegung zu bewirken zwischen dem Gegenstand und den Beleuchtungselementen, zwischen dem Gegenstand und der Kamera, zwischen den Beleuchtungselementen und der Kamera, zwischen dem Gegenstand und einer festgehaltenen Anordnung aus den Beleuchtungselementen und der Kamera, zwischen den Beleuchtungselementen und einer festgehaltenen Anordnung aus dem Gegenstand und der Kamera, zwischen der Kamera und einer festgehaltenen Anordnung aus dem Gegenstand und den Beleuchtungselementen, oder derart, dass alle drei Elemente, nämlich der Gegenstand, die Beleuchtungselemente und die Kamera, relativ zueinander bewegt werden. Eine Bewegungsrichtung der Relativbewegung schließt mit wenigstens einem Beleuchtungselement einen Winkel ein, der von 0° verschieden ist. Es wird eine Bildfolge der Gegenstandsoberfläche mit der Kamera während der Relativbewegung aufgenommen. Dabei wird die Gegenstandsoberfläche in einer Bildebene der Kamera abgebildet. Während der Belichtung der Bildebene wird die Gegenstandsoberfläche durch wenigstens eines der Beleuchtungselemente beleuchtet. Es werden Bildorte maximaler Beleuchtungsstärke in der Bildebene Gegenstandsorten auf der Gegenstandsoberfläche zugeordnet, die in der Bildfolge unterscheidbar sind. Die Bildorte maximaler Beleuchtungsstärke korrespondieren mit den ihnen zugeordneten Gegenstandsorten einerseits durch die Abbildung, die durch die Kamera vermittelt wird, und zum anderen durch die Zuordnung, indem jedem betrachteten Gegenstandsort ein Bildort maximaler Beleuchtungsstärke zugeordnet wird. Für jeden betrachteten Gegenstandsort wird eine lokale Oberflächenneigung aus der Position des korrespondierenden Bildortes in der Bildebene berechnet.
  • Mithilfe des Verfahrens ist es möglich, optisch raue Gegenstandsoberflächen, optisch glänzende Gegenstandsoberflächen und/oder optisch glatte Gegenstandsoberflächen in Hinblick auf ihre Form zu erfassen und/oder zu prüfen. Insbesondere ist es mithilfe des Verfahrens möglich, auch vollständig diffus streuende Gegenstandsoberflächen bezüglich ihrer Form zu erfassen und/oder zu prüfen. Dies ist insbesondere möglich, weil im Rahmen des Verfahrens linienförmige Beleuchtungselemente eingesetzt werden. Daher ist stets eine genaue Kenntnis der Beleuchtungsrichtung zumindest in einer Dimension möglich, was bei einer Flächenbeleuchtung beziehungsweise beim Einsatz flächenförmiger Beleuchtungselemente nicht möglich ist. Aufgrund der Relativbewegung, die im Rahmen des Verfahrens bewirkt wird, sind Winkelbereiche eines Halbraums oberhalb der Gegenstandsoberfläche – in Richtung auf die mindestens eine Kamera gesehen – erfassbar.
  • Das Verfahren ist auch für Gegenstandsoberflächen geeignet, welche Mehrfachreflexionen aufweisen beziehungsweise erzeugen, wie dies beispielsweise bei Gegenständen wie Linsen, insbesondere optische Linsen, beispielsweise für Brillen, Objektiven oder anderen optischen Vorrichtungen der Fall ist.
  • Die Linienform der Beleuchtungselemente bedeutet, dass diese im Wesentlichen eindimensional in dem Sinne ausgebildet sind, dass sie sich im Wesentlichen entlang einer einzigen Richtung – nämlich ihrer Längsrichtung – erstrecken. Dabei ist es möglich, dass ein linienförmiges Beleuchtungselement eine Mehrzahl, insbesondere eine Vielzahl entlang einer Linie nebeneinander angeordneter Beleuchtungsteilelemente umfasst. Es ist möglich, dass die Beleuchtungsteilelemente als Leuchtdioden (LED) oder als organische Leuchtdioden (OLED) ausgebildet sind. Alternativ oder zusätzlich ist es möglich, dass Beleuchtungsteilelemente als Laserlichtquellen ausgebildet sind.
  • Im Vergleich zu einer Flächenbeleuchtung ist ein linienförmiges Beleuchtungselement auch deswegen vorteilhaft, weil eine Helligkeit desselben vergleichsweise groß sein kann. Insbesondere ist es möglich, eine Leuchtdichte eines linienförmigen Beleuchtungselements sehr groß und insbesondere sehr viel größer als bei einer Flächenbeleuchtung zu wählen, weil die hierfür nötige Leistung aufgrund der Linienform sehr viel geringer ist als bei einer flächig ausgedehnten Beleuchtung. Weiterhin ist es möglich, ein linienförmiges Beleuchtungselement sehr rasch zu aktivieren und über eine sehr kurze Zeit aktiviert zu halten, wobei es insbesondere möglich ist, das linienförmige Beleuchtungselement blitzartig zu schalten. Dies ist mit einer flächigen Beleuchtung kaum, nicht in gleichem Ausmaß, oder nur mit sehr viel höherem Aufwand möglich. Insbesondere sind bei einem linienförmigen Beleuchtungselement in der Regel schnellere Wiederholraten möglich als bei einem flächigen Beleuchtungselement.
  • Der Winkel, den die Beleuchtungselemente miteinander einschließen, ist der Winkel, den zwei gedachte Linien, die sich jeweils in Längsrichtung der linienförmigen Beleuchtungselemente erstrecken, miteinander einschließen. Sind die Beleuchtungselemente in einer Ebene angeordnet, ist somit offensichtlich, wie der Winkel zu bestimmen ist. Es ist allerdings auch möglich, dass die Beleuchtungselemente windschief zueinander angeordnet sind. In diesem Fall wird der Winkel vorzugsweise anhand einer Projektion der beiden sich jeweils in Längsrichtung der Beleuchtungselemente erstreckenden Linien in eine gemeinsame Ebene – vorzugsweise in eine zu der Gegenstandsoberfläche oder zu der Bildebene parallele Ebene – bestimmt. Jedenfalls schließt die Forderung, dass die Beleuchtungselemente einen Winkel miteinander einschließen, der von 0° verschieden ist, aus, dass diese parallel zueinander orientiert sind.
  • Die Relativbewegung kann auf verschiedene Weisen bewirkt werden: Bei einer bevorzugten Ausführungsform des Verfahrens ist es möglich, dass eine translatorische Relativbewegung zwischen zumindest zwei der genannten Elemente bewirkt wird. Besonders bevorzugt wird eine lineare Bewegung entlang einer Gerade bewirkt, wobei die Bewegungsrichtung zu jedem Zeitpunkt durch einen konstanten Vektor beschrieben werden kann, sodass auch der Winkel, den die Bewegungsrichtung mit wenigstens einem der Beleuchtungselemente einschließt, zu jedem Zeitpunkt konstant ist. Bei einem anderen Ausführungsbeispiel ist es möglich, dass die Relativbewegung als rotatorische Bewegung bewirkt wird. Insbesondere bei einem rotationssymmetrischen Gegenstand ist es möglich, diesen relativ zu den Beleuchtungselementen und der Kamera um eine Symmetrieachse zu drehen, oder die Beleuchtungselemente und/oder die Kamera relativ zu dem Gegenstand um dessen Symmetrieachse zu schwenken. Die Bewegungsrichtung ist dabei bevorzugt eine Umfangsrichtung, erfolgt also entlang einer Umfangslinie, für die ebenfalls ohne Weiteres ein Winkel angegeben werden kann, den diese mit wenigstens einem Beleuchtungselement einschließt. Bei wieder einem anderen Ausführungsbeispiel ist es möglich, dass die Relativbewegung nach Art einer Freiformbewegung bewirkt wird, beispielsweise mithilfe eines Roboterarms. Dabei ist es möglich, dass die Bewegungsrichtung zeitlich variiert. Entsprechend ist es auch möglich, dass der Winkel, den die Bewegungsrichtung mit den Beleuchtungselementen einnimmt, einer zeitlichen Variation unterliegt. Dabei ist es nicht ausgeschlossen, dass der Winkel, den der die Bewegungsrichtung angebende Vektor mit wenigstens einem der Beleuchtungselemente einschließt, in wenigen Zeitpunkten den Wert 0° annimmt. Wesentlich ist in diesem Fall vielmehr, dass der Winkel im Zeitmittel und/oder vorzugsweise zu nahezu allen Zeiten bis auf wenige Zeitpunkte von 0° verschieden ist. Bevorzugt wird allerdings ein Verfahren, bei welchem die Relativbewegung nach Art einer Freiformbewegung derart bewirkt wird, dass der Winkel zwischen der Bewegungsrichtung und mindestens einem Beleuchtungselement zu allen Zeiten von 0° verschieden ist.
  • Nach einer bevorzugten Ausführungsform des Verfahrens schließt die Bewegungsrichtung mit beiden Beleuchtungselementen einen Winkel ein, der von 0° verschieden ist. In diesem Fall ist die Bewegungsrichtung zu keinem der beiden Beleuchtungselemente parallel ausgerichtet. Dies ist vorteilhaft, weil sich bei paralleler Ausrichtung der Bewegungsrichtung mit einem Beleuchtungselement für dieses Beleuchtungselement im Rahmen des Verfahrens lediglich redundante Informationen ergeben. Schließen dagegen beide Beleuchtungselemente mit der Bewegungsrichtung einen Winkel ein, der von 0° verschieden ist, ist es möglich, mithilfe beider Beleuchtungselemente nicht-redundante, relevante Informationen über die Gegenstandsoberfläche zu erhalten. Dabei ist bei einer Freiformbewegung nicht ausgeschlossen, dass im Rahmen des Verfahrens Zeitpunkte existieren, in denen die Bewegungsrichtung mit einem der Beleuchtungselemente einen Winkel von 0° einschließt. Bevorzugt beträgt der Winkel jedoch im Zeitmittel einen von 0° verschiedenen Wert und/oder ist besonders bevorzugt zu nahezu allen Zeiten bis auf wenige Zeitpunkte von 0° verschieden. Bei einer bevorzugten Ausführungsform ist der Winkel zu allen Zeiten von 0° verschieden.
  • Die Bewegungsrichtung der Relativbewegung schließt bei einer besonders bevorzugten Ausführungsform des Verfahrens mit wenigstens einem Beleuchtungselement einen Winkel ein, der von 90° verschieden ist. Besonders bevorzugt schließt die Bewegungsrichtung mit beiden Beleuchtungselementen einen Winkel ein, der von 90° verschieden ist. Insbesondere schließt die Bewegungsrichtung bevorzugt mit beiden Beleuchtungselementen einen Winkel ein, der jeweils sowohl von 0° als auch von 90° verschieden ist. In diesem Fall ist es ohne weiteres möglich, mithilfe des Verfahrens Informationen über die Oberflächenneigung in zwei orthogonal zueinander orientierte Richtungen auf der Gegenstandsoberfläche zu erhalten.
  • Im Rahmen der Aufnahme der Bildfolge werden mindestens zwei, vorzugsweise mehr als zwei Bilder aufgenommen. Besonders bevorzugt wird eine Vielzahl von Bildern aufgenommen, wobei die Anzahl der Bilder vorzugsweise größer als 10, vorzugsweise größer als 15, vorzugsweise größer als 50, besonders bevorzugt größer als 100 Bilder ist. Dabei hängt die Zahl der Bilder in der Bildfolge insbesondere von der gewünschten Winkelauflösung für die Erfassung und/oder Prüfung der Gegenstandsoberfläche ab.
  • Die Bildfolge wird vorzugsweise mit einer vorherbestimmten Frequenz aufgenommen, wobei die Frequenz bevorzugt von mindestens 2 Hz bis höchstens 100 kHz beträgt. Dabei sind 100 kHz eine Frequenz für die Bildfolge, die ohne weiteres mithilfe moderner Zeilenkameras erreichbar ist. Bevorzugte Werte für die Frequenz der Bildfolge sind einige 100 Hz bis zu einigen zig kHz. Gerade durch die Verwendung linienförmiger Beleuchtungselemente sind Frequenzen bis in den hohen kHz-Bereich möglich, da solche Beleuchtungselemente sehr schnell mit sehr kurzen Aktivierungszeiten und sehr kurzen Leuchtdauern geblitzt werden können. Bevorzugte Belichtungszeiten liegen im Bereich weniger μs bis zu wenigen zig ms.
  • Die Formulierung, dass die Bildfolge während der Relativbewegung aufgenommen wird, spricht an, dass sich die Gegenstandsoberfläche im realen Raum und/oder in der Bildebene von Bild zu Bild bewegt, oder dass sich die Beleuchtungssituation aufgrund der Relativbewegung von Bild zu Bild ändert. Es ist allerdings möglich, dass eine Anzahl von Bildern unter verschiedenen Beleuchtungen mit festgehaltener Relativposition aufgenommen wird, bevor eine Relativbewegung bewirkt wird. In diesem Fall werden also bevorzugt an jeder Relativposition eine Anzahl von Bildern unter einer Anzahl von Beleuchtungen aufgenommen, wobei bevorzugt an jeder festgehaltenen Relativposition alle interessierenden oder alle Beleuchtungselemente nacheinander aktiviert und Bilder unter den entsprechenden Beleuchtungen aufgenommen werden. Beispielsweise ist es möglich, dass an jeder festgehaltenen Relativposition zunächst ein Bild unter Beleuchtung durch das erste Beleuchtungselement aufgenommen wird, wonach an derselben Relativposition ein Bild unter Beleuchtung mit dem zweiten Beleuchtungselement aufgenommen wird.
  • Es ist möglich, dass die Relativbewegung während der Aufnahme der Bildfolge kontinuierlich erfolgt, also insbesondere auch während der Belichtung der Bildebene. In diesem Fall erfolgt die Relativbewegung vorzugsweise mit einer Geschwindigkeit, die so gewählt ist, dass auf den Bildern keine Bewegungsunschärfe erkennbar ist und/oder durch Blitzen der Beleuchtung minimiert wird. Beispielsweise ist es bevorzugt möglich, dass die Relativbewegung während einer Bildaufnahme gerade einen Pixelabstand der Kamera – gemäß den Abbildungseigenschaften derselben projiziert auf die Gegenstandsoberfläche – oder einen Bruchteil eines solchen gegenstandsseitigen Pixelabstandes beträgt.
  • Alternativ ist es möglich, dass die Relativbewegung während der Aufnahme der Bildfolge schrittweise bewirkt wird, wobei eine Relativposition der verschiedenen Elemente zueinander während der Belichtung der Bildebene festgehalten wird. Auch in diesem Fall ist es möglich, dass ein während der Relativbewegung zwischen den einzelnen Aufnahmen zurückgelegter Abstand gerade einem gegenstandsseitigen Pixelabstand oder einem Bruchteil eines gegenstandsseitigen Pixelabstands entspricht.
  • Bevorzugt wird bei einer Ausführungsform des Verfahrens die Geschwindigkeit und/oder Schrittweite der Relativbewegung auf die Ausdehnung einer Streukeule auf der Gegenstandsoberfläche abgestimmt. Dabei bestimmt die scheinbare Ausdehnung der Streukeule auf der Gegenstandsoberfläche die maximale Winkelauflösung, die im Rahmen des Verfahrens prinzipiell erreichbar ist. Unter gleicher Beleuchtung aufgenommene Bilder innerhalb der Bildfolge, die sich um eine Distanz unterscheiden, die wesentlich kleiner ist als der scheinbare Durchmesser der Streukeule auf der Gegenstandsoberfläche, weisen demnach redundante Informationen auf. Es ist daher möglich, im Rahmen des Verfahrens gerade bei optisch rauen Oberflächen in ganz erheblicher Weise Messzeit einzusparen, wenn die Schrittweite oder Geschwindigkeit der Relativbewegung auf den scheinbaren Durchmesser der Streukeule derart abgestimmt wird, dass die Oberfläche zwischen zwei Bildaufnahmen unter gleicher Beleuchtung in einer Größenordnung des scheinbaren Durchmessers der Streukeule verlagert wird.
  • Bei einer bevorzugten Ausführungsform des Verfahrens wird die Belichtungszeit für die einzelnen Bilder durch einen Shutter bestimmt, der vorzugsweise von der Kamera umfasst ist. Bei einer anderen bevorzugten Ausführungsform des Verfahrens wird die Belichtungszeit vorgegeben durch eine Zeitdauer, über welche ein Beleuchtungselement aktiviert ist. Insbesondere wird die Belichtungszeit bevorzugt durch Blitzen eines Beleuchtungselements vorgegeben.
  • Bei der Aufnahme der Bilder, die von der Bildfolge umfasst sind, wird die Gegenstandsoberfläche in der Bildebene der Kamera abgebildet. Hierbei ist es möglich, dass die Kamera auf die Gegenstandsoberfläche fokussiert ist, so dass diese scharf in der Bildebene der Kamera abgebildet wird. Die Formulierung schließt aber auch ein Ausführungsbeispiel ein, bei welchem der Kamerafokus außerhalb der Gegenstandsoberfläche gewählt wird, sodass diese unscharf in der Bildebene der Kamera abgebildet wird.
  • Für die Abbildung in der Bildebene wird vorzugsweise ein Objektiv verwendet, das von der Kamera umfasst oder separat zu dieser vorgesehen sein kann.
  • Die Formulierung „in der Bildfolge unterscheidbare Gegenstandsorte” spricht an, dass nur solche Gegenstandsorte untersucht werden, die zum einen in der Bildfolge abgebildet und zum anderen in dieser von anderen abgebildeten Gegenstandsorten unterscheidbar sind. Ein kleinster in der Bildebene noch unterscheidbarer Gegenstandsort ist dabei bevorzugt durch eine gegenstandsseitige Pixelgröße der Kamera vorgegeben. Es ist aber möglich, dass aufgrund einer unscharfen Abbildung der Gegenstandsoberfläche Gegenstandsorte in der Bildebene nicht voneinander unterschieden werden können, weil sie gemeinsam auf eine Mehrzahl von Pixeln abgebildet werden. Bevorzugt werden zum Zwecke der Auswertung dann Bildorte betrachtet, welche mehrere Pixel umfassen und insofern unterscheidbaren Gegenstandsorten auf der Gegenstandsoberfläche entsprechen. Es ist aber auch möglich, willkürlich eine vergröberte Auswertung durchzuführen, und Bildorte aus einer Mehrzahl von Pixeln zu bilden, obwohl eine höhere Auflösung möglich wäre. Dies kann beispielsweise zur Datenreduktion erfolgen, oder um die Auswertung zu beschleunigen. Auch in diesem Fall werden lediglich unterscheidbare Gegenstandsorte betrachtet.
  • Es wird ein Verfahren bevorzugt, das sich dadurch auszeichnet, dass in jedem Einzelbild der Bildfolge wenigstens ein Bildort maximaler Beleuchtungsstärke ermittelt wird, der einem korrespondierenden Gegenstandsort zugeordnet wird. Diese Vorgehensweise entspricht dem Aufsuchen eines Maximums der Beleuchtungsstärke in jedem Einzelbild, was sehr schnell insbesondere durch die Kamera selbst hardwarebasiert vorgenommen werden kann. Hierbei ist eine wesentliche Datenreduktion erreichbar, da nicht mehr das gesamte Einzelbild, sondern nur noch die Position des Maximums für die weitere Verarbeitung gespeichert beziehungsweise weitergegeben werden muss. Der Bildort maximaler Beleuchtungsstärke ist eindeutig einem Gegenstandsort zugeordnet über die Abbildungseigenschaften der Kamera.
  • Im Rahmen des Verfahrens wird bevorzugt nicht ein einziges, globales Maximum der Beleuchtungsstärke bestimmt, sondern vielmehr eine Mehrzahl lokaler Maxima der Beleuchtungsstärke. Dabei kann bei der hier diskutierten Ausführungsform in jedem Einzelbild festgestellt werden, von welchen Orten auf der Gegenstandsoberfläche die lokalen Maxima der Beleuchtungsstärke stammen. Diese Information umfasst zugleich die Information über die lokale Oberflächenneigung an den korrespondierenden Gegenstandsorten.
  • Es wird auch ein Verfahren bevorzugt, das sich dadurch auszeichnet, dass die Einzelbilder der Bildfolge proportional zu einem den Einzelbildern jeweils zugeordneten Zeitindex in der Bildebene rückverschoben werden. Wird die Relativbewegung mit konstanter Geschwindigkeit oder konstanter Schrittweite durchgeführt, ergibt sich so ohne weiteres, dass dann jedem rückverschobenen Bildort in der rückverschobenen Bildfolge genau ein Gegenstandsort zugeordnet ist. Die Bildorte in allen rückverschobenen Bildern der Bildfolge sind dann nämlich jeweils genau den korrespondierenden Gegenstandsorten zugeordnet, denen die entsprechenden Bildorte in dem ersten Bild der nicht-rückverschobenen Bildfolge zugeordnet sind. Hierdurch wird die weitere Auswertung stark vereinfacht.
  • Während bei bekannten Verfahren häufig im Anschluss an die Aufnahme einer Bildfolge ein sogenanntes Stitching oder eine Registrierung, mithin ein Zusammenfügen der verschiedenen Ansichten notwendig ist, muss dies bei dem hier beschriebenen Verfahren nicht explizit durchgeführt werden. Vielmehr wird insbesondere über die Rückverschiebung der Bilder in der Bildfolge implizit bereits eine entsprechende Übereinstimmung der einzelnen Ansichten hergestellt, sodass es keiner weiteren aufwändigen Rechenschritte mehr bedarf.
  • In diesem Zusammenhang wird insbesondere ein Verfahren bevorzugt, das sich dadurch auszeichnet, dass in der rückverschobenen Bildfolge für einen festgehaltenen Gegenstandsort ein Zeitindex ermittelt wird, bei dem die Beleuchtungsstärke an dem insoweit ebenfalls festgehaltenen rückverschobenen Bildort, der dem Gegenstandsort in der rückverschobenen Bildfolge zugeordnet ist, maximal ist. Dies bedeutet, dass die gesamte rückverschobene Bildfolge bei festgehaltenem Gegenstandsort und dabei ebenfalls festgehaltenem, korrespondierendem Bildort, entlang des Zeitindexes durchsucht wird, um ein Maximum der Beleuchtungsstärke abhängig von dem Zeitindex aufzufinden. Auf diese Weise wird der Zeitindex beziehungsweise dasjenige Bild in der Bildfolge aufgesucht, bei welchem die Beleuchtungsstärke für den festgehaltenen Gegenstandsort maximal ist. Aus dem Zeitindex wird dann der entsprechende Bildort in der nicht-rückverschobenen Bildfolge ermittelt, wodurch sich ergibt, aus welcher Richtung im realen Raum die maximale Beleuchtungsstärke für den festgehaltenen Gegenstandsort während der Aufnahme kam. Aus der Position des nicht-rückverschobenen Bildortes wird die lokale Oberflächenneigung an dem Gegenstandsort berechnet.
  • Schließlich wird ein Verfahren bevorzugt, das sich dadurch auszeichnet, dass aus einer Beleuchtungsstärken-Verteilung in der Bildebene um einen Bildort maximaler Beleuchtungsstärke eine lokale optische Eigenschaft des korrespondierenden Gegenstandorts ermittelt wird. Dabei spricht die Formulierung „um einen Bildort maximaler Beleuchtungsstärke” an, dass die Beleuchtungsstärken-Verteilung in einer Umgebung um ein lokales Maximum der Beleuchtungsstärke in der Bildebene untersucht wird. Insbesondere eine Breite und/oder Form der Beleuchtungsstärken-Verteilung gibt Auskunft über lokale optische Eigenschaften des korrespondierenden Gegenstandsorts, insbesondere über die optische Rauigkeit an dem Gegenstandsort. Dabei weisen optisch glatte Oberflächen scharf begrenzte Maxima in der Bildebene auf, während glänzende Oberflächen mehr oder weniger scharf ausgeprägte Maxima aufweisen, die breiter sind als bei optisch glatten Oberflächen und schmaler als bei optisch rauen Oberflächen. Schließlich liegt bei optisch rauen Oberflächen eine breite Verteilung beispielsweise in Form einer Cosinus-förmigen Kurve vor.
  • Bei einer Ausführungsform des Verfahrens, bei welcher die Kamera derart mittig relativ zu den Beleuchtungselementen angeordnet ist, dass ein Sehstrahl der Kamera der Beleuchtungsrichtung entspricht, hängt die Auswertung der Oberflächenneigung in Bezug auf die ermittelten, lokalen Maxima der Beleuchtungsstärke nicht von den lokalen optischen Eigenschaften des korrespondierenden Gegenstandsorts ab. In diesem Fall weisen nämlich der Sehstrahl und die Beleuchtungsrichtung für jedes lokale Maximum gerade in Richtung des Normalenvektors der Oberflächenneigung.
  • Ist die Kamera dagegen außermittig angeordnet, sodass der Sehstrahl und die Beleuchtungsrichtung auseinanderfallen, müssen die lokalen optischen Eigenschaften des Gegenstandsorts bei der Auswertung berücksichtigt werden, weil im Fall optisch glatter und glänzender Oberflächen das Reflexionsgesetz gilt, während bei optisch rauen Oberflächen die Beleuchtungsrichtung für den Bildort maximaler Beleuchtungsstärke mit der Oberflächennormale übereinstimmt. Für die Auswertung ist es bei einer solchen Anordnung daher notwendig, zunächst aus der Beleuchtungsstärken-Verteilung in einer Umgebung der lokalen Maxima die lokalen optischen Eigenschaften des korrespondierenden Gegenstandsorts zu ermitteln, bevor die Lage der entsprechenden Bildorte in Hinblick auf die lokalen Oberflächenneigungen ausgewertet werden kann. Wird dabei für den momentan untersuchten Gegenstandsort lokal eine optisch glatte oder glänzende Oberfläche festgestellt, wird zur Auswertung das Reflexionsgesetz herangezogen, während angenommen wird, dass die Beleuchtungsrichtung mit der Oberflächennormalen übereinstimmt, wenn für den Gegenstandsort lokal eine optisch raue Oberfläche festgestellt wird.
  • Anhand dieser Überlegungen zeigt sich aber, dass das Verfahren ohne weiteres sowohl für optisch glatte als auch für glänzende und optisch raue Oberflächen geeignet und durchführbar ist. Insbesondere können auch vollständig diffuse Oberflächen mithilfe des Verfahrens untersucht werden. Ebenso sind Kombinationen aus den vorgenannten Oberflächen möglich.
  • Bei einer Ausführungsform des Verfahrens wird eine Summenbild aller – vorzugsweise rückverschobenen – Einzelbilder berechnet. Die Einzelbilder werden mithin zu dem Summenbild aufsummiert. Das Summenbild umfasst Informationen über eine Textur oder einen über alle Richtungen integrierten beziehungsweise gemittelten Reflexionsgrad der Gegenstandsoberfläche.
  • Bei einer Ausführungsform des Verfahrens wird eine Höhe mindestens eines lokalen Maximums ausgewertet, um Informationen über einen Glanzgrad der Gegenstandsoberfläche an dem dem lokalen Maximum zugeordneten Gegenstandsort zu erhalten. Dabei gilt, dass die Beleuchtungsstärke in dem lokalen Maximum umso größer ist, je mehr die Oberfläche an dem Gegenstandsort glänzt beziehungsweise je höher der Glanzgrad ist. Insbesondere ist es möglich, im Rahmen des Verfahrens die ermittelten lokalen Maxima bezüglich ihrer Höhe auszuwerten und hieraus ein Glanzbild der Gegenstandsoberfläche zusammenzusetzen beziehungsweise zu ermitteln. Hierbei kann auch die Breite der Maxima in die Auswertung eingehen.
  • Die Aufgabe wird auch gelöst, indem eine Vorrichtung zur optischen Formerfassung und/oder Prüfung eines Gegenstandes mit den Merkmalen des Anspruchs 6 geschaffen wird. Die Vorrichtung ist insbesondere geeignet zur Durchführung eines Verfahrens nach einer der zuvor beschriebenen Ausführungsformen. Sie umfasst mindestens eine Kamera und mindestens zwei linienförmige Beleuchtungselemente. Dabei sind die Kamera und die Beleuchtungselemente derart relativ zueinander angeordnet, dass eine Gegenstandsoberfläche durch die Beleuchtungselemente beleuchtbar und durch die Kamera aufnehmbar ist. Die Beleuchtungselemente sind derart angeordnet, dass sie einen Winkel miteinander einschließen, der von 0° verschieden ist. Mit der Kamera ist eine Bildfolge der Gegenstandsoberfläche während einer Relativbewegung von zumindest zwei Elementen relativ zueinander ausgewählt aus einer Gruppe bestehend aus der Gegenstandsoberfläche, den Beleuchtungselementen und der Kamera aufnehmbar. Dabei wird die Gegenstandsoberfläche in einer Bildebene der Kamera abgebildet. Die Beleuchtungselemente sind derart ansteuerbar, dass die Gegenstandsoberfläche während der Belichtung der Bildebene zumindest durch ein Beleuchtungselement beleuchtet wird. Die Vorrichtung weist außerdem eine Recheneinrichtung auf, die ausgebildet ist zur Zuordnung korrespondierender Bildorte maximaler Beleuchtungsstärke in der Bildebene zu in der Bildfolge unterscheidbaren Gegenstandsorten auf der Gegenstandsoberfläche. Die Recheneinrichtung ist weiterhin ausgebildet zum Berechnen von lokalen Oberflächenneigungen an den Gegenstandsorten aus der Position des jeweils korrespondierenden Bildortes in der Bildebene.
  • Es wird eine Vorrichtung bevorzugt, die sich durch eine Bewegungseinrichtung auszeichnet, mit der die Relativbewegung entlang einer Bewegungsrichtung zumindest zwischen zwei Elementen bewirkt werden kann, wobei die beiden Elemente ausgewählt sind aus einer Gruppe bestehend aus einem Gegenstand, der die Gegenstandsoberfläche aufweist, den Beleuchtungselementen und der Kamera. Zu den verschiedenen Möglichkeiten, die Relativbewegung durchzuführen, wird auf die Ausführungen zu dem Verfahren verwiesen. Die Bewegungseinrichtung ist derart ausgebildet und relativ zu den Beleuchtungselementen angeordnet, dass die Bewegungsrichtung mit wenigstens einem Beleuchtungselement einen Winkel einschließt, der von 0° verschieden ist. Vorzugsweise schließt die Bewegungsrichtung mit jedem Beleuchtungselement einen Winkel ein, der von 0° verschieden ist. Zusätzlich schließt die Bewegungsrichtung bei einem bevorzugten Ausführungsbeispiel mit mindestens einem Beleuchtungselement einen Winkel ein, der von 90° verschieden ist. Es wird auch ein Ausführungsbeispiel bevorzugt, bei welchem die Bewegungsrichtung mit jedem Beleuchtungselement einen Winkel einschließt, der von 90° verschieden ist.
  • Bei einem bevorzugten Ausführungsbeispiel weist die Bewegungseinrichtung ein Halteelement auf, mit welchem der Gegenstand, die Beleuchtungselemente und/oder die Kamera gehalten und verlagert werden kann/können. Bei einem besonders bevorzugten Ausführungsbeispiel ist die Bewegungseinrichtung so ausgebildet, dass durch sie der Gegenstand und mithin die Gegenstandsoberfläche relativ zu den Beleuchtungselementen und der Kamera bewegbar ist. In diesem Fall weist die Bewegungseinrichtung ein Halteelement für den Gegenstand auf, wobei das Halteelement gemeinsam mit dem Gegenstand relativ zu einem raumfesten Koordinatensystem, demgegenüber die Kamera und die Beleuchtungselemente vorzugsweise stillstehen, bewegbar ist.
  • In Hinblick auf die Vorrichtung ergeben sich die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden. In gleicher Weise ergeben sich für die Vorrichtung die Einsatzmöglichkeiten, die bereits in Hinblick auf das Verfahren erläutert wurden. Dabei sind insbesondere Neigungswinkel von weniger als 5° darstellbar. Aufgrund der Unempfindlichkeit der Vorrichtung und des Verfahrens gegenüber den lokalen optischen Eigenschaften der Oberfläche sind diese besonders gut geeignet gerade auch zur Untersuchung von Autolacken oder Displays, beispielsweise Displays für Telefone, insbesondere Handydisplays. Die Vorrichtung und das Verfahren sind besonders geeignet zur Prüfung von Gegenständen, bei denen es auf eine einwandfreie Optik ankommt, weil die Vorrichtung und das Verfahren für eine schnelle, wirtschaftliche, unempfindliche und zugleich hochgenaue optische Formerfassung und/oder Prüfung eines Gegenstands geeignet sind.
  • Es zeigt sich auch, dass die Vorrichtung und damit auch das Verfahren gerade aufgrund der Verwendung linienförmiger Beleuchtungselemente sehr gut skalierbar sind. Insbesondere ist es möglich, die Vorrichtung in einer Prüfhalle aufzubauen, um beispielsweise ganze Automobile bezüglich ihrer Form zu erfassen beziehungsweise in Hinblick auf ihre Oberfläche zu prüfen. Dabei hält sich der technische und ökonomische Aufwand selbst bei sehr großer Ausgestaltung der Vorrichtung – insbesondere in Hallenformat – in Grenzen, weil lediglich linienförmige Beleuchtungen, also quasi eindimensionale Beleuchtungselemente, eingesetzt werden. Entsprechend große Vorrichtungen wären mit flächiger Beleuchtung kaum oder nur unter erheblichem technischem und energetischem Aufwand möglich.
  • Es wird auch eine Vorrichtung bevorzugt, die sich dadurch auszeichnet, dass die Beleuchtungselemente eine diffuse, ungerichtete Abstrahlcharakteristik aufweisen. Dabei ist die Abstrahlcharakteristik vorzugsweise eine lambertsche Abstrahlcharakteristik. Alternativ ist es möglich, dass die Abstrahlcharakteristik eine gleichverteilte Abstrahlcharakteristik ist. Es ist möglich, dass die Beleuchtungselemente bereits für sich genommen eine entsprechende Abstrahlcharakteristik aufweisen. Alternativ ist es möglich, dass mindestens einem der Beleuchtungselemente wenigstens ein optisches Element zugeordnet ist, das ausgebildet ist, um die gewünschte Beleuchtungsverteilung zu erreichen. Dies kann beispielsweise eine Blende, eine Streuscheibe oder ein anderes geeignetes optisches Element sein.
  • Die Beleuchtungselemente weisen bevorzugt eine Breite d einer leuchtenden Linie beziehungsweise einer linienförmigen leuchtenden Fläche – gemessen senkrecht zu der linienförmigen Erstreckung des Beleuchtungselements – auf. Dabei ist vorzugsweise vorgesehen, dass die Breite d dieselbe Größenordnung aufweist wie eine Blendenöffnung der Kamera beziehungsweise ein Durchmesser D einer Eintrittspupille derselben. Vorzugsweise ist die Breite d der Blendenöffnung oder dem Durchmesser D näherungsweise gleich, besonders bevorzugt gleich. Eine Breite d, die wesentlich schmaler ist als der Durchmesser D ist technisch kaum sinnvoll, da sie ohnehin auf den Durchmesser eines Unschärfescheibchens aufgeweitet wird.
  • Bei einem bevorzugten Ausführungsbeispiel ist eine Strahlungsstärke der leuchtenden Fläche räumlich entlang ihrer Ausdehnungsrichtung konstant und ebenso zeitlich konstant oder nahezu konstant. In einer anderen, ebenfalls bevorzugten Ausführungsform kann die Strahlungsstärke der leuchtenden Fläche räumlich entlang ihrer Ausdehnungsrichtung variiert werden und/oder zeitlich variiert werden. Dies dient dazu, für Oberflächen bzw. Oberflächenbereiche beispielsweise mit schwarzen, diffus reflektierenden Eigenschaften mit mehr Strahlungsstärke und für Oberflächen bzw. Oberflächenbereiche mit beispielsweise metallischen, optisch glatten Eigenschaften mit entsprechend weniger Strahlungsstärke zu beleuchten.
  • Es wird auch eine Vorrichtung bevorzugt, die sich dadurch auszeichnet, dass die Beleuchtungselemente einen Winkel miteinander einschließen, der von mindestens 1° bis höchstens 179° beträgt. Bevorzugt beträgt der Winkel 60°, vorzugsweise 90°, vorzugsweise 120°. Mithilfe der nicht parallel zueinander orientierten Beleuchtungselemente ist es möglich, Informationen über die lokale Oberflächenneigung der Gegenstandsoberfläche in zwei Richtungen zu erhalten.
  • Es wird auch eine Vorrichtung bevorzugt, die sich dadurch auszeichnet, dass die Bewegungsrichtung den Winkel zwischen den Beleuchtungselementen teilt. Der Vektor der Bewegungsrichtung ist demnach zwischen den die Längserstreckung der Beleuchtungselemente jeweils angebenden Vektoren angeordnet. Bei einem bevorzugten Ausführungsbeispiel bildet die Bewegungsrichtung eine Winkelhalbierende bezüglich des Winkels zwischen den Beleuchtungselementen. Hierdurch weist die Anordnung eine gewisse Symmetrie auf, was insbesondere die Auswertung der Messergebnisse vereinfacht. Schließen beispielsweise die Beleuchtungselemente einen Winkel von 60° miteinander ein, so sind sie bevorzugt in einem Winkelabstand von einerseits +30° und andererseits –30° zu der Bewegungsrichtung angeordnet. Entsprechend ist es möglich, die Beleuchtungselemente relativ zu der Bewegungsrichtung in Winkelabständen von +45° und –45° anzuordnen. Ebenso ist es bevorzugt möglich, die Beleuchtungselemente in Hinblick auf die Bewegungsrichtung in einem Winkelabstand von +60° und –60° anzuordnen. Selbstverständlich sind auch andere Winkelabstände möglich.
  • Es wird auch eine Vorrichtung bevorzugt, die sich dadurch auszeichnet, dass die Beleuchtungselemente voneinander verschiedene spektrale Verteilungen abstrahlen. Dies spricht in Hinblick auf das Verfahren eine Vorgehensweise an, die auch als Farbmultiplex bezeichnet wird. Es ist dann möglich, die Beleuchtungen simultan zu aktivieren und gleichzeitig Bilder der Gegenstandsoberfläche unter verschiedenen Beleuchtungen aufzunehmen, wobei die Bilder anhand der spektralen Verteilung der Beleuchtungen vorzugweise mithilfe spektraler Filter voneinander separiert werden.
  • Besonders bevorzugt wird allerdings ein Ausführungsbeispiel der Vorrichtung, bei welchem die Beleuchtungselemente alternativ oder zusätzlich zeitlich unabhängig voneinander angesteuert werden können. In diesem Fall ist es möglich, im Rahmen des Verfahrens eine auch als Zeitmultiplex bezeichnete Vorgehensweise zu verwirklichen. Dabei werden Bilder der Gegenstandsoberfläche unter verschiedener Beleuchtung zeitlich nacheinander aufgenommen, vorzugsweise in rascher Folge. Dabei können dank der schnell ansteuerbaren, linienförmigen Beleuchtungselemente und moderner Kameratechnik Bildwiederholraten von mehreren kHz, insbesondere von bis zu 100 kHz erreicht werden.
  • Es wird also besonders eine Vorrichtung bevorzugt, die eingerichtet ist zur Durchführung eines Zeitmultiplex-Verfahrens. In gleicher Weise wird besonders ein Verfahren bevorzugt, bei welchem die Einzelbilder der Bildfolge im Zeitmultiplex-Verfahren aufgenommen werden.
  • Es wird auch eine Vorrichtung bevorzugt, die sich dadurch auszeichnet, dass mehr als zwei linienförmige Beleuchtungselemente vorgesehen sind. Mithilfe von mehr als zwei Beleuchtungselementen ist es insbesondere möglich, eine Redundanz für eine genauere Messung zu schaffen, einen größeren Winkelbereich in Hinblick auf die Oberflächenneigung der Gegenstandsoberfläche zu erfassen und/oder eine lokale Höheninformation über die Oberfläche zu gewinnen. Bei einem bevorzugten Ausführungsbeispiel schließen die Beleuchtungselemente verschiedene Winkel mit der Bewegungsrichtung ein. Insbesondere in diesem Fall ist es mithilfe der mehr als zwei Beleuchtungselemente möglich, eine Redundanz bereitzustellen und/oder einen vergrößerten Winkelbereich der Oberflächenneigung zu erfassen. Es wird auch ein Ausführungsbeispiel bevorzugt, bei welchem die Beleuchtungselemente derart verschieden voneinander angeordnet sind, dass sie verschiedene Abstände zu der Gegenstandsoberfläche aufweisen. Diese Abstände werden vorzugsweise in Richtung der optischen Achse gemessen. In diesem Fall ist es möglich, mithilfe verschiedener Beleuchtungen unter verschiedenen Abständen zu der Gegenstandsoberfläche eine lokale Höheninformation über die Gegenstandsoberfläche zu gewinnen. Alternativ oder zusätzlich wird ein Ausführungsbeispiel bevorzugt, bei welchem die Beleuchtungselemente relativ zueinander verschoben sind. Besonders bevorzugt sind die verschiedenen Beleuchtungselemente in derselben Ebene angeordnet und dort relativ zueinander verschoben. Diese Anordnung ist besonders geeignet zur Erfassung eines großen Winkelbereichs in Hinblick auf die Oberflächenneigung. Insbesondere ist es möglich, dass vier Beleuchtungselemente vorgesehen sind, die paarweise einen von 0° verschiedenen Winkel miteinander einschließen und somit quasi paarweise kreuzförmig angeordnet sind. Die einzelnen kreuzförmigen Anordnungen sind vorzugsweise in derselben Ebene versetzt zueinander angeordnet, sodass eine Redundanz erzielbar und/oder ein großer Winkelbereich der Oberflächenneigung erfassbar ist.
  • Es wird auch eine Vorrichtung bevorzugt, die sich dadurch auszeichnet, dass mindestens zwei Kameras vorgesehen sind, die versetzt zueinander angeordnet sind. Alternativ oder zusätzlich ist es möglich, dass mindestens drei Beleuchtungselemente derart angeordnet sind, dass ein erstes und ein zweites Beleuchtungselement gemeinsam in einem ersten Abstand zu der Gegenstandsoberfläche angeordnete sind, wobei ein drittes Beleuchtungselement in einem zweiten Abstand zu der Gegenstandsoberfläche angeordnet ist. Der erste Abstand ist von dem zweiten Abstand verschieden. Dabei werden der erste und der zweite Abstand vorzugweise in Richtung der optischen Achse gemessen. Die Recheneinrichtung ist ausgebildet, um eine Höheninformation über die Gegenstandsoberfläche aus korrespondierenden Bildern der verschiedenen Kameras und/oder aus mit verschiedenen Abständen beleuchteten Bildern der Gegenstandsoberfläche zu berechnen. Auf diese Weise ist es mithilfe der verschiedenen, versetzt zueinander angeordneten Kameras beziehungsweise alternativ oder zusätzlich mithilfe der Beleuchtungen aus verschiedenen Abständen relativ zu der Gegenstandsoberfläche ohne weiteres möglich, zusätzlich zu den Neigungsinformationen auch Höheninformationen über die Gegenstandsoberfläche zu erhalten. Diese Informationen können dann ohne weiteres zu einer vollständigen Form der Gegenstandsoberfläche zusammengefügt werden.
  • Besonders bevorzugt wird ein Ausführungsbeispiel der Vorrichtung, bei dem mindestens vier Beleuchtungselemente paarweise derart angeordnet sind, dass ein erstes Paar von Beleuchtungselementen in einem ersten Abstand zu der Gegenstandsoberfläche angeordnet ist, wobei ein zweites Paar von Beleuchtungselementen einem zweiten Abstand zu der Gegenstandsoberfläche angeordnet ist. Dabei ist der erste Abstand von dem zweiten Abstand verschieden. Die Abstände werden vorzugsweise in Richtung der optischen Achse gemessen. Das erste Paar von Beleuchtungselementen ist vorzugsweise kreuzförmig angeordnet, wobei die Beleuchtungselemente einen Winkel miteinander einschließen, der von 0° verschieden ist. Alternativ oder zusätzlich ist das zweite Paar von Beleuchtungselementen ist vorzugsweise kreuzförmig angeordnet, wobei die beiden Beleuchtungselemente einen Winkel miteinander einschließen, der von 0° verschieden ist. Die Recheneinrichtung ist ausgebildet, um eine Höheninformation über die Gegenstandsoberfläche aus mit verschiedenem Abstand beleuchteten Bildern der Gegenstandsoberfläche zu berechnen.
  • Es ist auch ein Ausführungsbeispiel der Vorrichtung möglich, bei welchem drei oder mehr Paare von Beleuchtungselementen derart angeordnet sind, dass zwei vorzugsweise kreuzförmig ausgebildete Paare von Beleuchtungselementen in derselben Ebene angeordnet sind, um einen vergrößerten Winkelbereich in Hinblick auf die Oberflächenneigung zu erfassen, wobei ein drittes, vorzugsweise kreuzförmig angeordnetes Paar von Beleuchtungselementen in einer anderen Ebene mit anderem Abstand zu der Gegenstandsoberfläche angeordnet ist, um aus mit verschiedenem Abstand beleuchteten Bildern Höheninformationen über die Gegenstandsoberfläche zu gewinnen.
  • Es wird auch eine Vorrichtung bevorzugt, die sich dadurch auszeichnet, dass mindestens ein linienförmiges Beleuchtungselement eine gekrümmte Form aufweist. Besonders bevorzugt weisen zwei linienförmige Beleuchtungselemente, die vorzugsweise kreuzförmig zueinander angeordnet sind, eine gekrümmte Form auf. Dabei schließt das Beleuchtungselement vorzugsweise einen konkaven Bereich ein, in dem die Gegenstandsoberfläche angeordnet ist. Auf diese Weise sind auch große Winkelbereiche in Hinblick auf die Oberflächenneigung erfassbar, weil eine größere Bandbreite von Beleuchtungsrichtungen im Vergleich zu einem sich entlang einer geraden Linie erstreckenden Beleuchtungselement gegeben ist.
  • Vorzugsweise überstreicht das mindestens eine, gekrümmte Beleuchtungselement – entlang der Linienform gesehen – einen Winkelbereich von mindestens 0° bis höchstens 360°, vorzugsweise von mindestens 0° bis höchstens 180°, wobei es besonders bevorzugt die Form eines Halbkreisbogens aufweist. Die Gegenstandsoberfläche ist dann innerhalb des Halbkreisbogens angeordnet und kann so aus einem sehr großen Bereich von Beleuchtungsrichtungen, besonders bevorzugt von 0° bis 180°, beleuchtet werden.
  • Noch größere Winkelbereiche in Hinblick auf die Oberflächenneigung können erfasst werden, wenn sich ein gekrümmtes Beleuchtungselement über einen größeren Winkelbereich erstreckt. Dabei ist bevorzugt mindestens eines der Beleuchtungselemente kreisförmig ausgebildet, sodass Beleuchtungsrichtungen von 0° bis 360° möglich sind.
  • Besonders bevorzugt sind zwei Beleuchtungselemente entsprechend gekrümmt ausgebildet und angeordnet, wobei sie lokal an dem Punkt, an welchem sie sich kreuzen, einen Winkel miteinander einschließen, der von 0° verschieden ist und besonders bevorzugt 90° beträgt. Auch die gekrümmten Beleuchtungselemente sind demnach vorzugsweise kreuzförmig relativ zueinander angeordnet – insbesondere in Projektion auf die Gegenstandsoberfläche gesehen.
  • Schließlich wird eine Vorrichtung bevorzugt, die sich dadurch auszeichnet, dass die Kamera als Matrixkamera ausgebildet ist. Alternativ ist es möglich, dass die Kamera als Zeilenkamera ausgebildet ist, insbesondere als Zeilenkamera mit mehreren Zeilen. Während grundsätzlich eine Matrixkamera für die Auswertung und Erfassung der im Rahmen des Verfahrens gewonnen beziehungsweise benötigten Daten geeigneter erscheint, hat eine Zeilenkamera den Vorteil, dass sie mit schnellerer Bildwiederholrate betätigbar ist. Insbesondere mit modernen Zeilenkameras sind Bildwiederholfrequenzen von bis zu 100 kHz möglich.
  • Es wird ein Ausführungsbeispiel der Vorrichtung bevorzugt, bei welchem die Kamera eine integrierte, im Anwendungsfeld programmierbare Gatter-Anordnung, nämlich ein sogenanntes Field-Programmable Gate Array (FPGA) aufweist. Diese Ausgestaltung ist in Hinblick auf das Verfahren besonders günstig, weil dann sehr schnell noch während der Durchführung des Verfahrens eine hardwarebasierte Auswertung der Einzelbilder in der Kamera selbst erfolgen kann. Insbesondere ist es möglich, lokale Maxima der Beleuchtungsstärke in den Einzelbildern unmittelbar nach deren Aufnahme noch in der Kamera selbst aufzusuchen und die von der Kamera an die Recheneinrichtung übermittelten Daten zu reduzieren, indem nicht die gesamten Bilder, sondern nur noch die Positionen der lokalen Maxima übertragen werden. Dies führt zu einer wesentlichen Beschleunigung des Verfahrens und dazu, dass dieses weniger Speicherkapazität benötigt. Allgemein weist die Kamera vorzugsweise ein integriertes Rechenelement auf, welches zur Vorauswertung der aufgenommenen Bilder, insbesondere zur Bestimmung lokaler Maxima in den Bildern, ausgebildet ist. Alternativ kann ein solches Rechenelement, insbesondere ein FPGA, auch auf einer Bildeinzugskarte (frame grabber) vorgesehen sein.
  • Bei einem bevorzugten Ausführungsbeispiel der Vorrichtung ist die Kamera als Spezialkamera für ein Laserlichtschnittverfahren ausgebildet. Eine solche Kamera ist zur hardwarebasierten, integrierten Auswertung der aufgenommenen Einzelbilder in besonderer Weise geeignet.
  • Die Beschreibung des Verfahrens einerseits und der Vorrichtung andererseits sind komplementär zueinander zu verstehen. Insbesondere sind Vorrichtungsmerkmale, die explizit oder implizit in Zusammenhang mit dem Verfahren beschrieben wurden, bevorzugt einzeln oder in Kombination miteinander Merkmale eines bevorzugten Ausführungsbeispiels der Vorrichtung. Umgekehrt sind Verfahrensschritte, die explizit oder implizit in Zusammenhang mit der Vorrichtung beschrieben wurden, bevorzugt einzeln oder in Kombination miteinander Schritte einer bevorzugten Ausführungsform des Verfahrens.
  • Die Vorrichtung und das Verfahren sind auch geeignet für Oberflächen mit stark unterschiedlichem Reflexionsgrad. So reflektiert eine schwarze, diffuse Oberfläche um Größenordnungen weniger Licht als eine metallische, optisch glatte Oberfläche.
  • Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert. Dabei zeigen:
  • 1a) eine schematische Seitenansicht eines ersten Ausführungsbeispiels einer Vorrichtung;
  • 1b) eine schematische Draufsicht auf das erste Ausführungsbeispiel;
  • 2 eine schematische Darstellung einer Abstrahlcharakteristik einer optisch rauen Gegenstandsoberfläche;
  • 3 eine schematische Darstellung einer Abstrahlcharakteristik einer glänzenden Gegenstandsoberfläche;
  • 4 eine schematische Darstellung einer Abstrahlcharakteristik einer optisch glatten Gegenstandsoberfläche;
  • 5 eine schematische Darstellung einer im Rahmen des Verfahrens aufgenommenen Bildfolge vor einer Rückverschiebung;
  • 6 eine schematische Darstellung der im Rahmen des Verfahrens aufgenommenen Bildfolge gemäß 5, jedoch nach der Rückverschiebung, mithin eine rückverschobene Bildfolge;
  • 7a) eine schematische Seitenansicht eines zweiten Ausführungsbeispiels der Vorrichtung;
  • 7b) eine schematische Draufsicht auf das zweite Ausführungsbeispiel;
  • 8a) eine schematische Seitenansicht eines dritten Ausführungsbeispiels der Vorrichtung;
  • 8b) eine schematische Draufsicht auf das dritte Ausführungsbeispiel;
  • 9a) eine schematische Seitenansicht eines vierten Ausführungsbeispiels der Vorrichtung, und
  • 9b) eine schematische Draufsicht auf das vierte Ausführungsbeispiel.
  • Das Ausführungsbeispiel der Vorrichtung gemäß 1 umfasst zumindest eine optische Kamera K, zumindest ein Objektiv O, mindestens zwei Beleuchtungselemente B1, B2, von denen hier zur Vereinfachung der Darstellung zunächst nur ein erstes Beleuchtungselement B1 dargestellt ist eine Bewegungseinrichtung M und eine Recheneinrichtung R. Die Kamera K kann als Matrixkamera oder als Zeilenkamera ausgebildet sein. Vorzugsweise kommt eine Matrixkamera zum Einsatz.
  • Mit der Bewegungseinrichtung M ist hier ein Gegenstand G entlang einer Bewegungsrichtung verlagerbar, die in 1 horizontal orientiert ist und in Richtung der positiven X-Koordinate weist. Die Bewegungsrichtung ist hier dargestellt durch einen Geschwindigkeitsvektor v ⇀.
  • Die Recheneinrichtung R ist mit der Kamera K und bevorzugt auch mit den Beleuchtungselementen, hier konkret mit dem Beleuchtungselement B1 wirkverbunden. Besonders bevorzugt ist die Recheneinrichtung R mit der Bewegungseinrichtung M wirkverbunden, sodass die Relativbewegung mit der Beleuchtung und dem Auslösen der Kamera K durch die Recheneinrichtung R synchronisiert werden kann.
  • Der Gegenstand G weist eine Gegenstandsoberfläche 3 auf, die durch die Beleuchtungselemente B1, B2 beleuchtbar und durch die Kamera K aufnehmbar ist.
  • Die Beleuchtungselemente B1, B2 weisen eine vorgegebene geometrische Form einer leuchtenden Fläche 5 auf. Bevorzugt wird eine geometrische Form, bei der die leuchtende Fläche 5 linienhaft ausgedehnt ist. Anders als bei üblichen Linienbeleuchtungen wird dabei das Licht der leuchtenden Fläche 5 vorzugsweise diffus und ungerichtet abgegeben. Vorzugsweise wird diese Linienbeleuchtung gebildet von einer Vielzahl entlang einer Linie angeordneter Beleuchtungsteilelemente beziehungsweise Lichtquellen wie beispielsweise LEDs, OLEDs oder Laserlichtquellen. Vorzugsweise ist die Abstrahlcharakteristik dieser Lichtquellen eine Lambertsche oder eine Gleichverteilung in alle Raumrichtungen. Die leuchtende Fläche 5, die auch als Beleuchtungslinie bezeichnet wird, weist die Breite d auf. Es kann zusätzlich ein streuendes Element vor den Lichtquellen vorgesehen sein, um eine gleichmäßige Leuchtdichte zu erreichen. Ebenso kann eine Blende, insbesondere eine rechteckförmige Blende vorgesehen sein, um die Breite d der leuchtenden Fläche 5 zu begrenzen. Weiterhin können andere optische Element vorgesehen sein. Eine Laserlichtquelle ist in der Regel stark gerichtet. Durch ein optisches Element kann der Strahlengang hier aber so aufgeweitet werden, dass Licht in einen breiten Raumwinkel abgestrahlt wird. Alternativ kann eine fokusierte Laserlinie auf eine Streuscheibe oder ähnliches abgebildet werden, was wiederum wie eine leuchtende Linie mit diffuser Abstrahlung wirkt.
  • Das Licht der Linienbeleuchtung fällt auf den Gegenstand G und wird an dessen Gegenstandsoberfläche 3 gestreut (optisch raue Oberfläche), reflektiert (optisch glatte Oberfläche) oder beides (glänzende Oberfläche). Je nach lokaler Neigung der Gegenstandsoberfläche 3 gelangt Licht durch Streuung und/oder Reflexion über das Objektiv O zur Kamera K. Die lokale Neigung der Gegenstandsoberfläche 3 für einen beliebigen Punkt derselben mit den Koordinaten (X, Y, Z) mithin einen Gegenstandsort 7, wird beschrieben durch den Normalenvektor n ⇀ = (n1, n2, n3)T. Die Richtung von dem Gegenstandsort 7 in Richtung der Beleuchtung, mithin die Beleuchtungsrichtung, wird bezeichnet mit dem Vektor s ⇀ = (s1, s2, s3)T, die Richtung zur Beobachtung (Eintrittspupille des Objektivs O), mithin die Beobachtungsrichtung, wird bezeichnet mit dem Vektor b ⇀ = (b1, b2, b3)T. Die Eintrittspupille des Objektivs O befinde sich in einer Höhe Zo über der Gegenstandsoberfläche 3 und hat einen hier nicht dargestellten Durchmesser D. Bei einem bevorzugten Ausführungsbeispiel befindet sich das Beleuchtungselement B1 in der Höhe Zo über der Gegenstandsoberfläche 3. Alternativ sind andere Positionen möglich. Bevorzugt befindet sich auch das in 1 nicht dargestellte, zweite Beleuchtungselement B2 in derselben Höhe Zo über der Gegenstandsoberfläche 3. Besonders bevorzugt sind die beiden Beleuchtungselemente B1, B2 kreuzförmig zueinander angeordnet. Dabei ist es möglich, dass das zweite Beleuchtungselement B2 parallel zu der Bewegungsrichtung orientiert ist. Es ist aber auch möglich, dass es schräg zu der Bewegungsrichtung angeordnet ist.
  • Vorzugsweise wird ein Fokus des Objektivs O so gewählt, dass sich die Gegenstandsoberfläche 3 in oder nahe um die Fokusebene befindet. Dadurch wir die Gegenstandsoberfläche 3 kontrastreich dargestellt und fein aufgelöst. Dies bedingt allerdings, dass das Abbild der Beleuchtungslinie bei einer optisch glatten Oberfläche in der Regel mehr oder weniger verschwommen erscheint. Jeder Punkt der Beleuchtungslinie verschwimmt zu einer leuchtenden Kreisscheibe, dem sogenannten Unschärfescheibchen. Ist eine als kreisförmig angenommene Eintrittspupille und damit eine Objektivblende der Kamera K weit geöffnet, so hat das Unschärfescheibchen einen großen Durchmesser. Ist die Eintrittspupille und damit die Objektivblende auf einen kleinen Durchmesser reduziert, so besitzt auch das Unschärfescheibchen einen geringen Durchmesser. In bestimmten Fällen (ebener Gegenstand G, Abstand der Kamera K zum Gegenstand G entspricht dem Abstand der Beleuchtungselemente B1, B2 zum Gegenstand G) ist der scheinbare Durchmesser des Unschärfescheibchens auf der Beleuchtung ebenso groß im Durchmesser wie der Durchmesser der Eintrittspupille D. Auch bei anders geformten Gegenständen G, beispielsweise einer Kugel und sogar allgemein bei Freiformflächen kann diese Beziehung unter bestimmten Umständen erfüllt sein. Vorteilhaft ist es dann, wenn die Breite d der leuchtenden Fläche 5 gleich dem Durchmesser der Eintrittspupille ist, diesem näherungsweise gleich ist, oder dieselbe Größenordnung aufweist. Eine wesentlich schmalere Linie wird ohnehin durch das Unschärfescheibchen auf den Durchmesser des Unschärfescheibchens aufgeweitet.
  • Alternativ kann die Fokusebene auch so justiert werden, dass sie in einem Bereich zwischen den Beleuchtungselementen B1, B2 und der Gegenstandsoberfläche 3 liegt. Dann werden sowohl die Gegenstandsoberfläche 3 als auch die Beleuchtungselemente B1, B2 mehr oder weniger leicht unscharf dargestellt, das Unschärfescheibchen der Beleuchtung kann aber reduziert werden. Dementsprechend ist hier dann eine Beleuchtungslinie mit geringerer Breite d sinnvoll, um die Neigung mit einer geringeren Messunsicherheit bestimmen zu können. Eine verschlechterte Ortsauflösung auf der Gegenstandsoberfläche 3 wird hier eingetauscht gegen eine verbesserte Winkelauflösung der Neigung. Wird die Blendenöffnung des Objektivs O verengt, so steigt der Bereich der Schärfentiefe, und sowohl die Unschärfe der Gegenstandsoberfläche 3 als auch der Beleuchtungselemente B1, B2 sinkt. Bei sehr kleinen Blendenöffnungen tritt dann allerdings verstärkt Beugung an der Blende auf, so dass hierdurch wiederum Unschärfe entsteht. Ebenso sinkt die von der Kamera K aufgenommene Beleuchtungsstärke beziehungsweise die Belichtungszeit muss erhöht werden. Es ist deshalb eine sinnvolle Wahl des Blendendurchmessers und der Lage des Fokus vorzunehmen.
  • Alternativ kann die Lage der Fokusebene auch im Bereich der Beleuchtungselemente B1, B2 gewählt werden. Dies ist dann sinnvoll, wenn es um feinste Winkelauflösungen geht und die Ortsauflösung auf der Gegenstandsoberfläche 3 von untergeordneter Bedeutung ist. In diesem Fall kann es sinnvoll sein, die Breite d minimal zu wählen.
  • Bei einer optisch glatten Oberfläche gelangt nur Licht von ausgewählten Punkten der Gegenstandsoberfläche 3 zur Kamera K, nämlich dort wo das Reflexionsgesetz bezüglich Beleuchtungsrichtung s ⇀, Oberflächennormale n ⇀ und Beobachtungsrichtung b ⇀ erfüllt ist. Auf einer ebenen spiegelnden Fläche (ebener Spiegel) beispielsweise erhält man als Abbild der linienförmigen, geraden leuchtenden Fläche 5 des Beleuchtungselements B1 wieder die Form einer geraden Linie. Auf einer kugelförmigen spiegelnden Oberfläche (beispielsweise eine Kugellagerkugel) ist das Abbild dagegen eine mehr oder weniger gebogene Linie. Auf einer spiegelnden Freiformfläche (beispielsweise eine Autokarosserie mit schwarzem, einfarbigem Lack) erhält man ein in der Regel ein unregelmäßig gebogenes Abbild.
  • Bei einer optisch rauen Oberfläche (beispielsweise einem Blatt Papier) gelangt in der Regel Licht von allen Bereichen der Gegenstandsoberfläche 3 zur Kamera K. Die Leuchtdichte eines Punkts der Gegenstandsoberfläche 3 variiert dabei gemäß dem Prinzip des photometrischen Stereoverfahrens mit dem Winkel, der zwischen Beleuchtungsrichtung s ⇀ und Oberflächennormale n ⇀ eingeschlossen wird ( EP 1 567 827 A1 ). Eine weitere Abhängigkeit besteht zur Abstrahlcharakteristik der Beleuchtungselemente B1, B2 und der Richtung der Abstrahlung.
  • Bei einer glänzenden Oberfläche wird Licht sowohl diffus gestreut als auch gerichtet reflektiert. Neben dem Abbild der leuchtenden Fläche 5 durch Reflexion gelangt gestreutes Licht vor allem aus der Nachbarschaft derselben zur Kamera K in Abhängigkeit von einer typischen Streukeule der Gegenstandsoberfläche 3. Dies kann dazu führen, dass die Linie unscharf begrenzt und verbreitert erscheint (beispielsweise bei einer Autokarosserie mit Metalliclackierung). Es kann sogar ein diffuser Anteil der gesamten Gegenstandsoberfläche 3 im gesamten Kamerabild sichtbar sein (Autokarosserie mit weißem Lack).
  • Um den Gegenstand G unabhängig von seinen Oberflächeneigenschaften an seiner gesamten für die Kamera K sichtbaren Gegenstandsoberfläche 3 erfassen zu können, ist es nicht ausreichend, wenn die Linienbeleuchtung in Form einer einzigen, mehr oder weniger verformten und verbreiterten Linie sichtbar ist. Vielmehr soll Information flächig für alle Punkte der Gegenstandsoberfläche 3 gewonnen werden. Bevorzugt wird hierzu der Gegenstand G relativ zur Anordnung bestehend aus der Kamera K, dem Objektiv O und den Beleuchtungselementen B1, B2 mit Hilfe der Bewegungseinrichtung M bewegt. Die Geschwindigkeit der Bewegung wird bezeichnet mit dem Vektor v ⇀. Eine solche Relativbewegung ist gegeben, wenn der Gegenstand G bewegt wird und die Anordnung stillsteht. Alternativ kann der Gegenstand G stillstehen und die Anordnung bewegt werden. Selbstverständlich können auch beide mit unterschiedlicher Richtung oder Geschwindigkeit bewegt werden. Ebenso kann die Relativbewegung gegeben sein durch eine externe Bewegungseinrichtung, die nicht Bestandteil der Vorrichtung ist. Alternativ können auch Gegenstand G, Kamera K und Objektiv O stillstehen, wobei die Beleuchtungselemente B1, B2 relativ dazu bewegt werden.
  • In einer bevorzugten Ausführungsform erfolgt die Bewegung linear, das heißt entlang einer Gerade. In einer bevorzugten Ausführungsform wird der Gegenstand G dabei von Kamerabild zu Kamerabild immer genau um denselben Abstand weiterbewegt, insbesondere um einen Abstand, welcher dem gegenstandsseitigen Pixelabstand ΔX der Kamera K entspricht. Der Gegenstand G erscheint daher von einem Kamerabild zum nächsten um genau einen Pixelabstand Δx in der Bildebene verschoben. Damit ist sichergestellt, dass der Gegenstand G und das Abbild der linienförmigen leuchtenden Fläche 5 sehr engmaschig erfasst werden.
  • Mit Großbuchstaben X, Y, Z werden generell Koordinaten im realen Raum, insbesondere auf der Gegenstandsoberfläche 3 angesprochen, während Kleinbuchstaben x, y Koordinaten in der Bildebene bezeichnen.
  • In einer anderen bevorzugten Ausführungsform kann der Abstand als ein ganzzahliges oder auch nicht ganzzahliges Vielfaches des gegenstandsseitigen Pixelabstandes ΔX gewählt werden. Vorzugsweise wird der Abstand so gewählt, dass er der scheinbaren Breite der Beleuchtungslinie, also der linienförmigen leuchtenden Fläche 5, auf der Gegenstandsoberfläche 3 entspricht, näherungsweise entspricht oder in derselben Größenordnung liegt. Hierdurch werden nämlich die Anzahl der notwendigen Bewegungsschritte, die Anzahl der Bildaufnahmen und damit die benötigte Zeit wesentlich reduziert. Ebenso kann der Abstand auch einen Bruchteil der scheinbaren Breite einer Beleuchtungslinie betragen, nämlich dann, wenn mehrere Beleuchtungslinien verwendet werden. Bevorzugt wird eine Ausführungsform, bei welcher der Abstand der scheinbaren Breite der Beleuchtungslinie dividiert durch die Anzahl der Beleuchtungselemente B1, B2 entspricht, näherungsweise entspricht oder in dieser Größenordnung liegt. Hierauf wird im Zusammenhang mit mehreren Linienbeleuchtungen noch eingegangen. Die scheinbare Breite der Beleuchtungslinie auf dem Gegenstand G ist nicht nur abhängig von der wahren, leuchtenden Breite d beziehungsweise der vorgeschalteten Blende, sondern ebenso von den optischen Eigenschaften der Gegenstandsoberfläche 3. Bei einer glänzenden oder sogar optisch rauen Gegenstandsoberfläche ist die scheinbare Breite der Beleuchtungslinie erhöht, welche von der Kamera K aus gesehen auf der Gegenstandsoberfläche 3 sichtbar ist. Im Fall einer optisch rauen Oberfläche, insbesondere einem lambertschen Streuer, kann sich die verbreiterte Linie über den gesamten sichtbaren Bereich der Gegenstandsoberfläche 3 erstrecken. Es gelangen nicht nur Lichtstrahlen in die Kamera K, bei denen das Reflexionsgesetz exakt erfüllt, sondern auch Strahlen, bei denen das Reflexionsgesetz nur näherungsweise erfüllt ist (glänzende Oberfläche) oder gar nicht mehr erfüllt ist (optisch raue Oberfläche).
  • 2 zeigt eine schematisch dargestellte Abstrahlcharakteristik einer optisch rauen, diffus reflektierenden Lambertschen Gegenstandsoberfläche 3. Gleiche und funktionsgleiche Elemente sind mit gleichen Bezugszeichen versehen, sodass insofern auf die vorangegangene Beschreibung verwiesen wird. Der einfallende Strahl ausgehend von dem Beleuchtungselement B1 wird in alle Raumrichtungen des Halbraums gestreut. Dabei variiert die rückgestreute Leuchtdichte gemäß einer Streukeule 9 mit dem Cosinus des Winkels, der zwischen Oberflächennormale und rückgestreutem Strahl eingeschlossen wird.
  • 3 zeigt eine schematisch dargestellte Abstrahlcharakteristik einer glänzenden Oberfläche. Gleiche und funktionsgleiche Elemente sind mit gleichen Bezugszeichen versehen, sodass insofern auf die vorangegangene Beschreibung verwiesen wird. Das Maximum der rückgestreuten Leuchtdichte tritt bei demjenigen Winkel auf, bei dem das Reflexionsgesetz erfüllt ist. In der Nachbarschaft zu diesem Winkel wird ebenfalls noch eine rückgestreute Leuchtdichte festgestellt, die entsprechend der Streukeule 9 variiert.
  • 4 zeigt eine schematisch dargestellte Abstrahlcharakteristik einer optisch glatten Oberfläche. Gleiche und funktionsgleiche Elemente sind mit gleichen Bezugszeichen versehen, sodass insofern auf die vorangegangene Beschreibung verwiesen wird. Einfallender Strahl s ⇀, Oberflächennormale n ⇀ und reflektierter Strahl r ⇀ genügen dem Reflexionsgesetz. Die Leuchtdichte ist maximal für den Strahl, welcher dem Reflexionsgesetz genügt, für alle anderen Winkel ist die Leuchtdichte Null.
  • Neben diesen drei grundlegenden Abstrahlcharakteristiken der Gegenstandsoberfläche 3 sind auch Mischformen daraus möglich. Beispielsweise kann ein diffus reflektierender Anteil mit glänzenden Anteilen kombiniert sein. Die Charakteristiken der beiden Anteile sind dann zu überlagern. Es ergibt sich für diesen Fall ein Cosinusförmiger Verlauf mit einer Überhöhung bedingt durch die Streukeule 9 des glänzenden Anteils.
  • In einer anderen bevorzugten Ausführungsform erfolgt die Bewegung in Form einer Rotation, insbesondere einer Rotation um die Y-Achse oder näherungsweise um die Y-Achse. Diese Art der Bewegung bietet sich an, um einen Gegenstand G rundum zu erfassen. Die Gegenstandsoberfläche 3 ist in diesem Fall bevorzugt als Mantelfläche des Gegenstands G ausgebildet. Insbesondere bietet sich diese Bewegung an, wenn es sich um einen rotationssymmetrischen Gegenstand handelt, dessen Symmetrieachse der Rotation bevorzugt mit der Drehachse der Rotation, insbesondere der Y-Achse übereinstimmt. In einer bevorzugten Ausführungsform wird der Gegenstand G dabei von Kamerabild zu Kamerabild um denselben Winkel weitergedreht, insbesondere um einen Winkel, der so gewählt ist, dass sich der Gegenstand G an seinem von der Kamera sichtbaren Umfang um den gegenstandsseitigen Pixelabstand ΔX der Kamera K weiterbewegt. Diese Bedingung kann streng betrachtet nur bei einem rotationssymmetrischen Gegenstand G mit konstantem Durchmesser, insbesondere einem Zylinder, eingehalten werden und dort wiederum für Punkte, deren X-Koordinate Null ist im Fall der Rotation um die Y-Achse. Diese Punkte sind entlang einer Linie in Y-Richtung mit X-Koordinate Null am Umfang angeordnet. Dennoch kann diese Bedingung näherungsweise auch erfüllt werden für Punkte, welche – in X-Richtung – benachbart sind zu dieser Linie. Sollen auch Punkte berücksichtigt werden, die weiter entfernt liegen von der Linie mit X-Koordinate Null, so kann eine Entzerrung der Kamerabilder derart durchgeführt werden, dass gleiche Abstände von Bildaufnahme zu Bildaufnahme über einen größeren Bereich der Kamerabilder bis hin zum gesamten Kamerabild erreicht werden. Bei einem rotationssymmetrischen Gegenstand G mit verschiedenen Durchmessern kann ebenfalls erreicht werden, dass der Abstand näherungsweise gleich ist, wenn diese Bedingung für einen mittleren Durchmesser erfüllt ist. Der Gegenstand G erscheint daher von einem Kamerabild zum nächsten genau bzw. näherungsweise um einen Pixelabstand Δx in der Bildebene verschoben.
  • In einer anderen bevorzugten Ausführungsform, ebenfalls für den Fall der Rotation, kann der Abstand als ein ganzzahliges oder auch nicht ganzzahliges Vielfaches des gegenstandsseitigen Pixelabstandes ΔX gewählt werden. Hier gilt entsprechendes wie im Fall der linearen Bewegung.
  • Ebenso ist es möglich, den Gegenstand G entlang einer beliebigen Kurve im Raum zu bewegen, beispielsweise mit Hilfe eines Roboters. Ebenso ist es bei sehr großen zu prüfenden Gegenständen G möglich, anstelle des Gegenstandes G die Kamera K und/oder die Beleuchtungselemente B1, B2 zu bewegen. Beispielsweise kann die Kamera K einschließlich der Beleuchtungselemente B1, B2 durch einen Roboter anhand einer weitgehend beliebigen Kurve im Raum bewegt werden. In diesen Fällen gestalten sich die Berechnungen zur Rückverschiebung von Einzelbildern und/oder zur Entzerrung mathematisch komplexer, sind aber genauso möglich.
  • Für die weitere Betrachtung und zugunsten einer überschaubaren zeichnerischen und mathematischen Darstellung wird wieder der Fall einer linearen Bewegung und einem Abstand aufeinanderfolgender Einzelbilder gewählt, der dem gegenstandsseitigen Pixelabstand ΔX entspricht. Dennoch gelten diese Überlegungen analog und entsprechend angepasst auch für die Rotation bis hin zu einer Bewegung entlang einer beliebigen Kurve im Raum und für andere Abstände in aufeinanderfolgenden Bildern.
  • In jedem Fall wird während der Bewegung eine Folge von Einzelbildern 13, nämlich eine durch die Beleuchtungsstärke E1(x1, y, t) beschriebene Bildfolge 11 der Gegenstandsoberfläche 3 aufgenommen. Eine solche Bildfolge 11 ist schematisch dargestellt in 5, wobei hier Pixel der Bildebene in Richtung der x-Achse dargestellt sind. Die einzelnen Pixel entsprechen dabei einzelnen Bildorten 15, deren Lage in der Bildebene durch eine erste Koordinate beziehungsweise einen ersten Pixelindex x1 und eine zweite Koordinate beziehungsweise einen zweiten Pixelindex y beschrieben werden. Dabei ist in 5 lediglich die erste Koordinate x1 dargestellt. Zum Zwecke der weiteren Erläuterung wird die zweite Koordinate y festgehalten. Die Hochachse in 5 entspricht einer Zeitachse, entlang derer die Einzelbilder abhängig von einem ihnen zugeordneten Zeitindex t aufeinanderfolgend in der Bildfolge angeordnet sind. 5 zeigt die Bildfolge vor einer Rückverschiebung. Demnach ist hier gemäß den Abbildungseigenschaften der Kamera K jedem durch das Wertepaar (x1, y) beschriebenen Bildort 15 ein in der Bildfolge unterscheidbarer Gegenstandsort auf der Gegenstandsoberfläche 3 zugeordnet.
  • Zur Vereinfachung der Darstellung wird hier zunächst nur die Beleuchtung der Gegenstandsoberfläche 3 durch ein Beleuchtungselement B1 betrachtet. E1 ist die Beleuchtungsstärke in der Bildebene in Abhängigkeit des Pixelindex x1 in Richtung der Rechtsachse, des Pixelindex y in Richtung der Tiefenachse und des Zeitindex t. Abhängig von der jeweiligen Relativposition von Beleuchtungselement B1, Gegenstand G und Kamera K streicht ein mehr oder weniger unregelmäßig geformtes Abbild 17 der Beleuchtungslinie in der Bildfolge Stück für Stück über die Gegenstandsoberfläche 3. Die Bildfolge enthält nun Informationen über die Form der Gegenstandsoberfläche 3 und deren optische Eigenschaften (optisch rau, optisch glatt oder glänzend, die Form und Breite der Streukeule 9 sowie den Reflexionsgrad und weitere mehr).
  • Die Auswertung der Bildfolge geschieht wie nachfolgend beschrieben. Mit Hilfe der Recheneinrichtung R werden die Einzelbilder 13 der Bildfolge 11 rechnerisch in ihrer Position entlang der Bewegungsrichtung verschoben. Die rechnerische Verschiebung der Bilder erfolgt entgegen der Richtung, in der sich der Gegenstand G in der Bildfolge 11 bewegt. Die rechnerische Verschiebung kompensiert also die reale Bewegung des Gegenstandes G. Beträgt die reale Verschiebung genau einen gegenstandsseitigen Pixelabstand ΔX, so sind die Einzelbilder 13 von Bild zu Bild um einen Abstand zurückzuschieben, der von Bild zu Bild immer genau um einen bildseitigen Pixelabstand Δx zunimmt. Die Rückverschiebung wächst dann linear mit dem Zeitindex t der Einzelbilder 13 der Bildfolge 11 an. Dadurch wird erreicht, dass an gleichen Bildorten 15 in den rückverschobenen Einzelbildern 13 immer derselbe Gegenstandsort 7 abgebildet ist. Gleiche Bildorte 15 in den rückverschobenen Bildern korrespondieren also mit gleichen Gegenstandsorten 7 auf der Gegenstandsoberfläche 3.
  • Eine derart rückverschobene Bildfolge 19 ist schematisch in 6 dargestellt. Gleiche und funktionsgleiche Elemente sind mit gleichen Bezugszeichen versehen, sodass insofern auf die vorangegangene Beschreibung verwiesen wird. Dabei ist E2(x2, y, t) die Beleuchtungsstärke in der Bildebene in Abhängigkeit des Pixelindex x2 in Richtung der gemäß der Rückverschiebung transformierter Rechtsachse, des Pixelindex y in Richtung der Tiefenachse und des Zeitindex t. Es wird angenommen, dass sich der Gegenstand G von Bildaufnahme zu Bildaufnahme um einen gegenstandsseitigen Pixelabstand ΔX in Richtung der positiven Rechtsachse beziehungsweise einen bildseitigen Pixelabstand Δx entgegen der positiven Rechtsachse bewegt. (Diese Annahme ist rein beispielhaft, die Bewegung kann auch in Richtung der negativen Rechtsachse erfolgen oder auch in Richtung der Tiefenachse Y oder in die entgegengensetzte Richtung. Ebenso ist eine Bewegung unter einem Winkel gegenüber der Rechtsachse bzw. der Tiefenachse Y möglich. Die Beschreibung anhand der Formeln gestaltet sich aber am übersichtlichsten, wenn genau die Richtung einer Koordinatenachse gewählt wird.) Der Zusammenhang des transformierten Pixelindex x2 und des ursprünglichen Pixelindex x1 für den gleichen korrespondierenden Gegenstandsort 7 ist dann x2 = x1 – t.
  • Damit ergibt sich dann E2(x2, y, t) = E1(x1, y, t) = E1(x2 + t, y, t).
  • Danach erfolgt die weitere Auswertung der rechnerisch so rückverschobenen Bildfolge 19 – auch als Bildstapel bezeichnet – entlang der durch den Zeitindex t vorgegebenen Stapelrichtung. Für eine vorgegebene Kombination der Pixelindizes (x2, y), welche immer demselben Gegenstandsort 7 entspricht, wird nun die rückverschobene Bildfolge 19 rechnerisch durchlaufen entlang des Zeitindex t. Ein Maximum der Beleuchtungsstärke E2(x2, y, t) tritt dort auf, wo die Reflexionsbedingung exakt erfüllt ist (optisch glatte oder glänzende Oberfläche) oder wo die Beleuchtungsrichtung s ⇀ übereinstimmt mit der Oberflächennormalen n ⇀ (optisch raue Oberfläche, Prinzip des photometrischen Stereo). Daher wird für einen festgehaltenen rückverschobenen Bildort 15, der durch das Wertepaar (x2, y) beschrieben wird, derjenige Zeitindex to(x2, y) bestimmt, für den E2(x2, y, t) ein Maximum annimmt. t0(x2, y) = maxt(E2(x2, y, t))
  • Mit Kenntnis des Zeitindex to(x2, y) lässt sich der Pixelindex x1,0(x2, y) des entsprechenden Bildorts 15 entlang der Rechtsachse x1 in der ursprünglichen, nicht-rückverschobenen Bildfolge 11 errechnen, bei dem dieses Maximum aufgetreten ist x1,0(x2, y))= x2 +t0(x2, y).
  • Der Pixelindex x1,0(x2, y) des nicht-rückverschobenen Bildorts 15 ist wiederum ein Maß dafür, wie groß die Oberflächenneigung der Gegenstandsoberfläche 3 in Richtung der Rechtsachse X ist. Bezeichnet der Pixelindex x1,0(x2, y) beispielsweise eine Position in der Mitte des Bildes bezüglich der Rechtsachse x1 und war die Beleuchtung mittig in Bezug auf die Rechtsachse X positioniert, so entspricht dies einem Gegenstandsort 7 mit Neigung Null bezüglich der Rechtsachse X. Bei einem ebenen Spiegel als Gegenstand G, der senkrecht zur Beobachtungsrichtung b ⇀ steht, ergibt sich genau dieser Fall. Das Maximum des Abbildes 17 der Beleuchtungslinie ist mittig bezüglich der Rechtsachse x1 positioniert. Die 5 und 6 zeigen das Beispiel der Beleuchtungsstärkeverteilung für einen solchen ebenen Spiegel. Das Maximum der Beleuchtungsstärke ist jeweils als markiertes Pixel eingezeichnet.
  • Bei der zuvor beschriebenen Ausführungsform des Verfahrens wird nach allem in der rückverschobenen Bildfolge 19 für einen festgehaltenen Gegenstandsort 7 ein Zeitindex to ermittelt, bei dem eine Beleuchtungsstärke an dem rückverschobenen Bildort 15, der dem festgehaltenen Gegenstandsort 7 in der rückverschobenen Bildfolge 19 zugeordnet ist, maximal ist, wobei anschließend aus dem Zeitindex to der entsprechende Bildort 15 in der nicht-rückverschobenen Bildfolge 11 ermittelt wird.
  • Alternativ ist es möglich, das Maximum oder die Maxima der Beleuchtungsstärke E1(x1, y, t) bezüglich x1 zu berechnen. x1,0(x2, y) = maxx1(E1(x1, y‚ t)).
  • Vorteil ist hierbei, dass das Maximum bereits unmittelbar nach der jeweiligen Bildaufnahme mit dem Zeitindex t erfolgen kann. Bei dieser Ausführungsform des Verfahrens wird nun in jedem Einzelbild 13 der Bildfolge 11 wenigstens ein Bildort 15 maximaler Beleuchtungsstärke ermittelt, der einem korrespondierenden Gegenstandsort 7 zugeordnet wird. Bevorzugt werden in jedem Einzelbild 13 eine Vielzahl lokaler Maxima der Beleuchtungsstärke ermittelt, die jeweils einem korrespondierenden Gegenstandsort 7 zugeordnet werden. Eine solche Auswertung kann beispielsweise sehr schnell anhand einer speziellen Hardwareauswertung (beispielsweise auf einem FPGA) in der Kamera erfolgen. Dies führt zu einer ganz wesentlichen Datenreduktion, da nur noch die Position des Maximums für die weitere Verarbeitung weitergegeben werden muss, nicht aber das komplette Bild. Weiterhin ist vorteilhaft, dass solche speziellen Hardwareauswertungen bereits zur Verfügung stehen für Kameras, die für das Laserlichtschnittverfahren eingesetzt werden. Auch dort ist es die Aufgabe das Maximum einer Linie zu detektieren, wobei hier allerdings die Bildentstehung und auch die Interpretation der Bilder eine völlig andere ist.
  • Allgemein liegt bei einem Gegenstand G mit optisch glatter Oberfläche ein scharf begrenztes Maximum vor. Bei einer optisch rauen Oberfläche dagegen liegt eine Verteilung beispielsweise in Form einer breiten, Cosinus-förmigen Kurve vor. Das Maximum dieser Verteilung gibt ebenfalls Auskunft über die Neigung der Gegenstandsoberfläche 3 gemäß dem Verfahren des photometrischen Stereo ( EP 1 567 827 A1 ). Glänzende Oberflächen weisen ein mehr oder weniger scharf ausgeprägtes Maximum auf, welches breiter ist als bei optisch glatten Oberflächen und schmaler als bei optisch rauen Oberflächen. Ebenso kann neben einem mehr oder weniger scharfen Maximum (entspricht der Streukeule 9 der Gegenstandsoberfläche 3) auch eine breite Verteilung über den gesamten Bildstapel verteilt auftreten. Anhand dieser Charakteristiken können lokal die optischen Eigenschaften des Gegenstandes G und die lokale Neigung der Gegenstandsoberfläche 3 bestimmt werden.
  • Die Form des Gegenstandes G zeigt sich in der genauen Form und Lage des Abbilds 17 der Beleuchtungslinie. Hierbei wird primär die Neigung der Gegenstandsoberfläche 3 senkrecht zur Linienrichtung erfasst. Die Neigung der Oberfläche parallel zur Linienrichtung wird primär nicht erfasst. Um beide Freiheitsgrade der Oberflächenneigung erfassen zu können, verwendet die Vorrichtung ein oder vorzugsweise auch mehrere weitere Beleuchtungselemente. Vorzugsweise ist ein zweites Beleuchtungselement B2 senkrecht zu dem ersten Beleuchtungselement B1 angeordnet. So können beide Freiheitsgrade der Oberflächenneigung erfasst werden.
  • Die Beleuchtungselemente B1, B2 können wie folgt bezüglich der Bewegungsrichtung angeordnet sein. Ein Beleuchtungselement B1 kann beispielsweise senkrecht zur Bewegungsrichtung angeordnet sein, das andere parallel zur Bewegungsrichtung (Plus-Anordnung). Das Abbild des Beleuchtungselements B1, welches senkrecht zur Bewegungsrichtung steht, überstreicht nun den Gegenstand G im Lauf der Bewegung. Bei dem Beleuchtungselement B2 parallel zur Bewegungsrichtung ist dies nicht der Fall. Eine Linie, die entlang ihrer Linienrichtung verschoben wird, ist mit sich selbst deckungsgleich (sofern die Linie sehr lang ausgedehnt ist). Man erhält daher immer dasselbe Abbild der Linie während der Bewegung. Stattdessen werden die beiden Beleuchtungselemente B1, B2 bei dem in 7 dargestellten Ausführungsbeispiel der Vorrichtung 1 um +45° bzw. –45° bezüglich der Bewegungsrichtung, mithin kreuzförmig oder nach Art eines X, angeordnet. Andere Winkel sind möglich, beispielsweise +30° und –30°, +60° und –60° oder auch asymmetrische Winkel. Für beide Beleuchtungselemente B1, B2 überstreicht so das Bild der jeweiligen Linie die Gegenstandsoberfläche 3. Die daraus gewonnene lokale Neigung derselben in Richtung von +45° (X+-Richtung) bzw. von –45° (X-Richtung) bezüglich der Bewegungsrichtung kann durch eine Koordinatentransformation in Neigungswerte in Richtung der Bewegung bzw. senkrecht zur Bewegung überführt werden.
  • Allerdings ist es nun so, dass jeweils die Abbilder von mindestens zwei Beleuchtungslinien der Beleuchtungselemente B1, B2 in der Bildfolge 11 enthalten sind. Um beide Neigungsrichtungen voneinander unterscheiden zu können ist es notwendig, die beiden Abbilder der Beleuchtungslinien voneinander unterscheiden zu können. Dies kann beispielsweise anhand der Farbe der Beleuchtungen (Farbmultiplex, beispielsweise Rot, Grün, Blau...) und einer Farbkamera erfolgen. Nachteilig ist dabei, dass die Farbtrennung abhängig von der Farbe der Gegenstandsoberfläche 3 ist. Bei einem roten Gegenstand G beispielsweise wird eine blaue Beleuchtung nicht oder nur schwach reflektiert. Auch können die optischen Eigenschaften (optisch rau, optisch glatt, glänzend) in Abhängigkeit von der Wellenlänge der Beleuchtung und damit zu deren Farbe variieren.
  • Bevorzugt wird daher ein Verfahren, bei dem eine Trennung der Beleuchtungen durch Zeitmultiplex durchgeführt wird. Hierbei werden die mindestens zwei Beleuchtungselemente B1, B2 zu verschiedenen Zeiten aktiviert. Im Lauf der Bewegung wird dabei zunächst das erste Beleuchtungselement B1 aktiviert und ein Einzelbild aufgenommen. Danach wird das zweite Beleuchtungselement B2 aktiviert und ein weiteres Einzelbild aufgenommen, falls vorhanden das dritte Beleuchtungselement und so weiter, danach wieder das erste Beleuchtungselement B1 und so weiter. Der Abstand, den der Gegenstand G zwischen zwei aufeinanderfolgenden Beleuchtungen überstreicht, entspricht in einer bevorzugten Ausführungsform dem gegenstandsseitigen Pixelabstand ΔX dividiert durch die Anzahl der Beleuchtungen. Somit ist der Abstand zwischen einer ersten Beleuchtung und einer unmittelbar nachfolgenden Beleuchtung genau ein Pixelabstand.
  • Der Begriff des gegenstandsseitigen Pixelabstands ΔX spricht den gemäß der Abbildungseigenschaften der Kamera K auf die Gegenstandsoberfläche 3 projizierten Pixelabstand Δx an. Auf diese Weise wird ein Gegenstandsort, der in einem ersten Einzelbild auf einen ersten Pixel abgebildet wurde, in dem unmittelbar nachfolgenden zweiten Einzelbild auf einen dem ersten Pixel unmittelbar benachbarten zweiten Pixel abgebildet.
  • In einer anderen bevorzugten Ausführungsform kann der Abstand als ein ganzzahliges oder auch nicht ganzzahliges Vielfaches des gegenstandsseitigen Pixelabstandes ΔX gewählt werden. Bevorzugt wird eine Ausführungsform, bei welcher der Abstand der scheinbaren Breite der Beleuchtungslinie dividiert durch die Anzahl der Beleuchtungen entspricht, näherungsweise entspricht oder in dieser Größenordnung liegt.
  • Werden mehr als zwei Beleuchtungselemente verwendet, so können diese in derselben Ebene – vorzugsweise in einer Ebene mit Z = Zo – wie die beiden ersten Beleuchtungselemente B1, B2 angeordnet sein, wobei sie vorzugsweise unter einem Winkel bezüglich der X- bzw. der Y-Achse angeordnet sind, welcher vom Winkel der beiden ersten Beleuchtungselemente B1, B2 abweicht. In diesem Fall können die beiden Freiheitsgrade der Neigung in X- und in Y-Richtung dann redundant bestimmt werden, was die Zuverlässigkeit der Messung erhöht.
  • Alternativ können mehr als zwei Beleuchtungselemente eingesetzt werden, um größere Neigungen der Gegenstandsoberfläche 3 bezüglich der X-Achse bzw. der Y-Achse bestimmen zu können. Vorzugsweise sind dann weitere Beleuchtungselemente in parallelem Abstand zu den ersten Beleuchtungselementen B1, B2 angeordnet.
  • Alternativ können mehr als zwei Beleuchtungselemente eingesetzt werden, wobei sich das erste und das zweite Beleuchtungselement B1, B2 in einer ersten Ebene befinden – vorzugsweise in einer Ebene mit Z = Zo – und sich weitere Beleuchtungselemente in weiteren, von der ersten Ebene verschiedenen Ebenen befinden. Vorzugsweise befinden sich ein drittes und ein viertes Beleuchtungselement in einer von der der ersten Ebene verschiedenen Ebene mit Z = Z1. Weitere Beleuchtungselemente in weiteren Ebenen sind möglich. Das dritte beziehungsweise vierte Beleuchtungselement kann parallel zu dem ersten beziehungsweise zweiten Beleuchtungselement B1, B2 angeordnet sein. Alternativ können das dritte und vierte Beleuchtungselement aber auch unter anderen Winkeln angeordnet sein als das erste und zweite Beleuchtungselement B1, B2, damit die Sicht ausgehend von dem Gegenstand G auf alle Beleuchtungselemente möglichst frei und ohne gegenseitige Verdeckung möglich ist.
  • Bevorzugt werden mehr als zwei linienförmige Beleuchtungselemente in mehreren Ebenen eingesetzt, um das sogenannte Höhenproblem zu lösen. Das Höhenproblem besteht darin, dass in der Deflektometrie mit einer Kamera K und Beleuchtungselementen B1, B2 in einer Ebene nicht unterscheidbar ist, ob ein Flächenelement der Gegenstandsoberfläche 3 stark geneigt ist und sich dabei näher an der Kamera K befindet oder ob es schwächer geneigt ist und weiter von der Kamera K entfernt ist. Neben der Unbekannten der Neigung – in zwei Koordinatenrichtungen – ist also auch die Koordinate in Z-Richtung eine Unbekannte. Dieses Problem kann gelöst werden durch Vorwissen, beispielsweise wenn sich ein mehr oder weniger flacher Gegenstand G in einer bekannten Ebene bezüglich Z (vorzugsweise bei Z = 0) befindet. Besteht solches Vorwissen nicht, sind zur Lösung eines Problems mit den beiden Unbekannten Neigung – unterteilt in die Neigung bezüglich X- und Y-Richtung – und Höhe auch zwei voneinander unabhängige Gegebene notwendig. Zwei unabhängige Gegebene bezüglich der Beleuchtung liegen insbesondere dann vor, wenn das dritte und vierte Beleuchtungselement in einer Ebene angeordnet sind, welche abweicht von der Ebene, in der sich das erste und das zweite Beleuchtungselement B1, B2 befinden.
  • Das Höhenproblem kann alternativ oder auch zusätzlich wie folgt gelöst werden. Bisher wurde von einer Anordnung mit nur einer Kamera K ausgegangen. Alternative ist es möglich zwei oder mehr Kameras K1, K2 einzusetzen. Entsprechend weist das Ausführungsbeispiel der Vorrichtung 1 gemäß 8 zwei außermittig, also außerhalb eines Kreuzungspunktes der Beleuchtungselemente B1, B2 angeordnete Kameras K1, K2 auf. Gleiche und funktionsgleiche Elemente sind mit gleichen Bezugszeichen versehen, sodass insofern auf die vorangegangene Beschreibung verwiesen wird. In diesem Fall liegen mehr als zwei Gegebene bezüglich der Kameras K1, K2 vor. Zwei oder auch mehr Kameras K1, K2 sind auf den Gegenstand G ausgerichtet.
  • Bei einer bevorzugten Ausführungsform schließen deren optischen Achsen einen Winkel ein. Vorzugsweise sind die optischen Achsen zumindest näherungsweise auf einen gemeinsamen Punkt oder Bereich ausgerichtet, vorzugsweise sind dies im hier verwendeten Koordinatensystem der Koordinatenursprung und gleichzeitig ein Symmetriepunkt der Anordnung. Die Verwendung von mehreren Kameras K1, K2 bietet weitere Vorteile. Wenn mit einer ersten Kamera K1 ein erster Winkelbereich von Neigungen in X- und Y-Richtung erfasst werden kann, ist es mit weiteren Kameras K2 möglich, andere Winkelbereiche abzudecken. Werden beispielsweise zwei Kameras K1, K2 so angeordnet, dass eine erste Kamera K1 im Bereich von negativen X-Koordinaten angeordnet ist und eine zweite im Bereich von positiven X-Koordinaten, so kann die erste Kamera K1 bevorzugt Neigungen mit positivem Winkel bezüglich der X-Achse erfassen, während die zweite Kamera K2 bevorzugt Neigungen mit negativem Winkel bezüglich der X-Achse erfassen kann. Vorzugsweise sind die Kameras K1, K2 so angeordnet, dass sie dennoch beide einen bestimmten Winkelbereich (Schnittmenge an Neigungen) gemeinsam abdecken können. Man könnte argumentieren, dass bei Kameras K1, K2, deren optische Achsen gegenüber der Z-Achse geneigt sind, ein deckungsgleiches Rückverschieben von Bildern aufgrund der perspektivischen Verzerrung nicht mehr möglich ist. In diesem Fall kann ein sogenannter Rektifizierungsschritt der Einzelbilder vorgeschaltet werden, welcher die perspektivische Verzerrung korrigiert.
  • Werden mehr als zwei Kameras K1, K2 verwendet, so werden diese bevorzugt so angeordnet, dass eine dritte Kamera sich im Bereich der negativen Y-Koordinaten und eine vierte im Bereich der positiven Y-Koordinaten befindet, wobei sie auf den Bereich um den Koordinatenursprung ausgerichtet sind. Die dritte Kamera kann dann bevorzugt Neigungen mit positivem Winkel bezüglich der Y-Achse erfassen, während die zweite Kamera bevorzugt Neigungen mit negativem Winkel bezüglich der Y-Achse erfassen kann. Vorzugsweise sind alle vier Kameras so angeordnet, dass sie dennoch alle einen bestimmten Winkelbereich (Schnittmenge an Neigungen) gemeinsam abdecken können. Vorzugsweise sind alle Kameras symmetrisch bezüglich der Z-Achse angeordnet. Vorzugsweise sind auch die Beleuchtungselemente symmetrisch bezüglich der Z-Achse angeordnet. Besonders vorteilhaft ist es, wenn die Kameras in den Zwischenräumen zwischen den Beleuchtungselementen angeordnet sind. Damit ist die Sicht gesehen von einem Flächenelement sowohl in Richtung der Kameras als auch der Beleuchtungselemente nicht verdeckt. Auch eine größere Anzahl von Kameras ist möglich.
  • Alternativ können die optischen Achsen der Kameras auch parallel ausgerichtet sein, vorzugsweise in Richtung der negativen Z-Achse. Vorzugsweise sind die Kameras symmetrisch bezüglich der Z-Achse angeordnet. Vorzugsweise sind die Beleuchtungselementen ebenfalls symmetrisch bezüglich der Z-Achse angeordnet.
  • Bei den obigen Überlegungen wurde zunächst davon ausgegangen, dass die linienförmigen Beleuchtungselemente B1, B2 jeweils entlang einer Gerade im Raum verlaufen. Alternativ ist es bevorzugt möglich, die linienförmigen Beleuchtungselemente B1, B2 gebogen, also mit einer gekrümmten Form auszuführen. Dies ist bei dem in 9 dargestellten Ausführungsbeispiel der Vorrichtung 1 der Fall. Gleiche und funktionsgleiche Elemente sind mit gleichen Bezugszeichen versehen, sodass insofern auf die vorangegangene Beschreibung verwiesen wird. So lässt sich auch mit einer begrenzten Länge der Beleuchtungselemente B1, B2 ein großer Winkelbereich abdecken. Die ersten zwei Beleuchtungselemente B1, B2 können beispielsweise in der Draufsicht gemäß 9b – in negativer Z-Richtung gesehen – in Form eines X angeordnet sein mit Ausrichtung entlang der X+- beziehungsweise der X-Richtung. In der Seitenansicht gemäß 9a können die Beleuchtungselemente B1, B2 gebogen ausgeführt sein, bevorzugt in Form eines Kreises, eines Teilkreises und bevorzugt eines Halbkreises mit Mittelpunkt um den Koordinatenursprung. Auch die Wahl eines Teilkreises mit mehr als 180° kann vorteilhaft sein, um einen größeren Winkelbereich an Neigungen abdecken zu können.

Claims (15)

  1. Verfahren zur optischen Formerfassung und/oder Prüfung eines Gegenstandes (G), mit folgenden Schritten: – Anordnen von mindestens einer Kamera (K), mindestens zwei linienförmigen Beleuchtungselementen (B1, B2) und einem Gegenstand (G) derart relativ zueinander, dass eine Gegenstandsoberfläche (3) von den Beleuchtungselementen beleuchtbar und von der Kamera (K) aufnehmbar ist, wobei die Beleuchtungselemente (B1, B2) einen Winkel miteinander einschließen, der von 0° verschieden ist; – Bewirken einer Relativbewegung zumindest zwischen zwei Elementen ausgewählt aus einer Gruppe bestehend aus dem Gegenstand (G), den Beleuchtungselementen (B1, B2) und der Kamera (K), wobei eine Bewegungsrichtung mit wenigstens einem Beleuchtungselement (B1, B2) einen Winkel einschließt, der von 0° verschieden ist; – Aufnehmen einer Bildfolge (11) der Gegenstandsoberfläche (3) mit der Kamera (K) während der Relativbewegung, wobei die Gegenstandsoberfläche (3) in einer Bildebene der Kamera (K) abgebildet wird; – Beleuchten der Gegenstandsoberfläche (3) während der Belichtung der Bildebene mit wenigstens einem Beleuchtungselement (B1, B2); – Zuordnen korrespondierender Bildorte (15) maximaler Beleuchtungsstärke in der Bildebene zu in der Bildfolge (11) unterscheidbaren Gegenstandsorten (7) auf der Gegenstandsoberfläche (3), und – Berechnen lokaler Oberflächenneigungen an den Gegenstandsorten (7) aus der Position des jeweils korrespondierenden Bildortes (15) in der Bildebene.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in jedem Einzelbild (13) der Bildfolge (11) wenigstens ein Bildort (15) maximaler Beleuchtungsstärke ermittelt wird, der einem korrespondierenden Gegenstandsort (7) zugeordnet wird.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Einzelbilder (13) der Bildfolge (11) proportional zu einem den Einzelbildern (13) jeweils zugeordneten Zeitindex (t) in der Bildebene rückverschoben werden, sodass jedem rückverschobenen Bildort (15) in der rückverschobenen Bildfolge (19) genau ein Gegenstandsort (7) zugeordnet wird.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass in der rückverschobenen Bildfolge (19) für einen festgehaltenen Gegenstandsort (7) ein Zeitindex (to) ermittelt wird, bei dem eine Beleuchtungsstärke an dem rückverschobenen Bildort (15), der dem Gegenstandsort (7) in der rückverschobenen Bildfolge (19) zugeordnet ist, maximal ist, wobei aus dem Zeitindex (to) der entsprechende Bildort (15) in der nicht-rückverschobenen Bildfolge (11) ermittelt wird, wobei aus der Position des Bildortes (15) die lokale Oberflächenneigung an dem Gegenstandsort (7) berechnet wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus einer Beleuchtungsstärken-Verteilung in der Bildebene um einen Bildort (15) maximaler Beleuchtungsstärke eine lokale optische Eigenschaft des korrespondierenden Gegenstandsorts (7) ermittelt wird.
  6. Vorrichtung zur optischen Formerfassung und/oder Prüfung eines Gegenstandes (G), insbesondere zur Durchführung eines Verfahren nach einem der Ansprüche 1 bis 5, mit – mindestens einer Kamera (K) und mindestens zwei linienförmigen Beleuchtungselementen (B1, B2) wobei die Kamera (K) und die Beleuchtungselemente (B1, B2) derart relativ zueinander angeordnet sind, dass eine Gegenstandsoberfläche (3) durch die Beleuchtungselemente (B1, B2) beleuchtbar und durch die Kamera (K) aufnehmbar ist, wobei – die Beleuchtungselemente (B1, B2) derart angeordnet sind, dass sie einen Winkel miteinander einschließen, der von 0° verschieden ist, wobei – mit der Kamera (K) eine Bildfolge (11) der Gegenstandsoberfläche (3) während einer Relativbewegung von zumindest zwei Elementen relativ zueinander ausgewählt aus einer Gruppe bestehend aus der Gegenstandsoberfläche (3), den Beleuchtungselementen (B1, B2) und der Kamera (K) aufnehmbar ist, so dass die Gegenstandsoberfläche (3) in einer Bildebene der Kamera (K) abgebildet wird, wobei – die Beleuchtungselemente (B1, B2) derart ansteuerbar sind, dass die Gegenstandsoberfläche (3) während der Belichtung der Bildebene zumindest durch ein Beleuchtungselement (B1, B2) beleuchtet wird, und mit – einer Recheneinrichtung (R), die ausgebildet ist zur Zuordnung korrespondierender Bildorte (15) maximaler Beleuchtungsstärke in der Bildebene zu in der Bildfolge (11) unterscheidbaren Gegenstandsorten (7) auf der Gegenstandsoberfläche (3), und zum Berechnen von lokalen Oberflächenneigungen an den Gegenstandsorten (7) aus der Position des jeweils korrespondierenden Bildortes (15) in der Bildebene.
  7. Vorrichtung nach Anspruch 6, gekennzeichnet durch eine Bewegungseinrichtung (M), mit der die Relativbewegung entlang einer Bewegungsrichtung zumindest zwischen zwei Elementen ausgewählt aus einer Gruppe bestehend aus einem Gegenstand (G), der die Gegenstandsoberfläche (3) aufweist, den Beleuchtungselementen (B1, B2) und der Kamera (K) bewirkbar ist, wobei die Bewegungseinrichtung derart ausgebildet und relativ zu den Beleuchtungselementen (B1, B2) angeordnet ist, dass die Bewegungsrichtung mit wenigstens einem Beleuchtungselement (B1, B2) einen Winkel einschließt, der von 0° verschieden ist.
  8. Vorrichtung nach einem der Ansprüche 6 und 7, dadurch gekennzeichnet, dass die Beleuchtungselemente (B1, B2) eine diffuse, ungerichtete Abstrahlcharakteristik aufweisen, wobei die Abstrahlcharakteristik vorzugsweise eine lambertsche Abstrahlcharakteristik oder eine gleichverteilte Abstrahlcharakteristik ist.
  9. Vorrichtung nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass die Beleuchtungselemente (B1, B2) einen Winkel miteinander einschließen, der von mindestens 1° bis höchstens 179°, vorzugsweise 60°, vorzugsweise 90°, vorzugsweise 120° beträgt.
  10. Vorrichtung nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, dass die Bewegungsrichtung den Winkel zwischen den Beleuchtungselementen (B1, B2) teilt, wobei sie vorzugsweise eine Winkelhalbierende bezüglich des Winkels zwischen den Beleuchtungselementen (B1, B2) bildet.
  11. Vorrichtung nach einem der Ansprüche 6 bis 10, dadurch gekennzeichnet, dass die Beleuchtungselemente (B1, B2) voneinander verschiedene spektrale Verteilungen abstrahlen und/oder dass die Beleuchtungselemente (B1, B2) zeitlich unabhängig voneinander ansteuerbar sind.
  12. Vorrichtung nach einem der Ansprüche 6 bis 11, dadurch gekennzeichnet, dass mehr als zwei linienförmige Beleuchtungselemente (B1, B2) vorgesehen sind, wobei die Beleuchtungselemente (B1, B2) bevorzugt verschiedene Winkel mit der Bewegungsrichtung einschließen, derart verschieden voneinander angeordnet sind, dass sie verschiedene Abstände zu der Gegenstandsoberfläche (3) aufweisen, und/oder relativ zueinander – vorzugsweise in derselben Ebene – verschoben sind.
  13. Vorrichtung nach einem der Ansprüche 6 bis 12, dadurch gekennzeichnet, dass mindestens zwei Kameras (K1, K2) vorgesehen sind, die versetzt zueinander angeordnet sind, und/oder dass mindestens drei Beleuchtungselemente (B1, B2) derart angeordnet sind, dass ein erstes und ein zweites Beleuchtungselement (B1, B2) gemeinsam in einem ersten Abstand zu der Gegenstandsoberfläche (3) angeordnet sind, wobei ein drittes Beleuchtungselement in einem zweiten Abstand zu der Gegenstandsoberfläche (3) angeordnet ist, wobei der erste Abstand von dem zweiten Abstand verschieden ist, wobei die Recheneinrichtung (R) ausgebildet ist, um eine Höheninformation über die Gegenstandsoberfläche (3) aus korrespondierenden Bildern der verschiedenen Kameras (K1, K2) und/oder aus mit verschiedenen Abständen beleuchteten Bildern der Gegenstandsoberfläche (3) zu berechnen.
  14. Vorrichtung nach einem der Ansprüche 6 bis 13, dadurch gekennzeichnet, dass mindestens ein linienförmiges Beleuchtungselement (B1, B2) eine gekrümmte Form aufweist, wobei es vorzugsweise – entlang der Linienform gesehen – einen Winkelbereich von 0° bis 180° überstreicht, wobei das Beleuchtungselement (B1, B2) vorzugsweise die Form eines Halbkreisbogens aufweist.
  15. Vorrichtung nach einem der Ansprüche 6 bis 14, dadurch gekennzeichnet, dass die Kamera (K) als Matrixkamera oder als Zeilenkamera ausgebildet ist, wobei die Kamera (K) bevorzugt eine integrierte, im Anwendungsfeld programmierbare Gatter-Anordnung umfasst, wo bei die Kamera (K) insbesondere als Spezialkamera für ein Laserlichtschnittverfahren ausgebildet ist.
DE102013212827.4A 2013-07-01 2013-07-01 Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes Active DE102013212827B4 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102013212827.4A DE102013212827B4 (de) 2013-07-01 2013-07-01 Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes
CN201480048259.1A CN105492862B (zh) 2013-07-01 2014-07-01 用于光学地形状检测和/或检查物体的方法和设备
CN201910807179.4A CN110388885A (zh) 2013-07-01 2014-07-01 用于光学地形状检测和/或检查物体的方法和设备
PCT/EP2014/063958 WO2015000898A1 (de) 2013-07-01 2014-07-01 Verfahren und vorrichtung zur optischen formerfassung und/oder prüfung eines gegenstandes
EP14734810.6A EP3017273B1 (de) 2013-07-01 2014-07-01 Verfahren und vorrichtung zur optischen formerfassung und/oder prüfung eines gegenstandes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013212827.4A DE102013212827B4 (de) 2013-07-01 2013-07-01 Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes

Publications (2)

Publication Number Publication Date
DE102013212827A1 DE102013212827A1 (de) 2015-01-08
DE102013212827B4 true DE102013212827B4 (de) 2015-03-26

Family

ID=52106192

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013212827.4A Active DE102013212827B4 (de) 2013-07-01 2013-07-01 Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes

Country Status (1)

Country Link
DE (1) DE102013212827B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015207213A1 (de) * 2015-04-21 2016-10-27 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zum Prüfen von Scheiben

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015106081A1 (de) 2015-04-21 2016-10-27 Friedrich Kisters Verfahren zur Identifikation eines Sicherheitsmusters über eine artifizielle 3-D-Rekonstruktion
DE102015212910A1 (de) * 2015-07-09 2017-01-12 Sac Sirius Advanced Cybernetics Gmbh Vorrichtung zur Beleuchtung von Gegenständen
DE102015115735B3 (de) * 2015-09-17 2017-03-23 Carl Zeiss Vision International Gmbh Vorrichtung und Verfahren zum Sichtbarmachen eines Signierzeichens auf einem Brillenglas
DE102019105358B4 (de) * 2018-03-04 2020-03-26 Vision Tools Hard- Und Software Entwicklungs Gmbh Erstellung eines Abstandsbildes
DE102021131620B4 (de) 2021-12-01 2024-02-08 Chromasens Gmbh Photometrisches Stereoverfahren zum Abtasten einer Oberfläche, Verfahren zum Normieren einer Abtastvorrichtung für ein photometrisches Stereoverfahren und Abtastvorrichtung für ein photometrisches Stereoverfahren
DE102022121709A1 (de) * 2022-08-26 2024-02-29 Wassili Buerakov Vorrichtung und Verfahren zur Messung der Profiltiefe von Fahrzeugreifen

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10020893A1 (de) * 1999-04-30 2000-12-28 Christoph Wagner Verfahren zur optischen Formerfassung von Gegenständen
EP1567827A1 (de) * 2002-11-29 2005-08-31 OBE Ohnmacht & Baumgärtner GmbH & Co. KG Verfahren und vorrichtung zur optischen formvermessung und/oder beurteilung
DE102008015039A1 (de) * 2008-03-14 2009-09-24 OBE OHNMACHT & BAUMGäRTNER GMBH & CO. KG Vorrichtung und Verfahren zur diffusen Ausleuchtung eines linienförmigen Bereichs
DE102011117894A1 (de) * 2011-11-04 2013-05-08 OBE OHNMACHT & BAUMGäRTNER GMBH & CO. KG Vorrichtung und Verfahren zur optischen Formerfassung von bewegten Gegenständen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10020893A1 (de) * 1999-04-30 2000-12-28 Christoph Wagner Verfahren zur optischen Formerfassung von Gegenständen
EP1567827A1 (de) * 2002-11-29 2005-08-31 OBE Ohnmacht & Baumgärtner GmbH & Co. KG Verfahren und vorrichtung zur optischen formvermessung und/oder beurteilung
DE102008015039A1 (de) * 2008-03-14 2009-09-24 OBE OHNMACHT & BAUMGäRTNER GMBH & CO. KG Vorrichtung und Verfahren zur diffusen Ausleuchtung eines linienförmigen Bereichs
DE102011117894A1 (de) * 2011-11-04 2013-05-08 OBE OHNMACHT & BAUMGäRTNER GMBH & CO. KG Vorrichtung und Verfahren zur optischen Formerfassung von bewegten Gegenständen

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015207213A1 (de) * 2015-04-21 2016-10-27 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zum Prüfen von Scheiben
DE102015207213B4 (de) * 2015-04-21 2019-08-29 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zum Prüfen von Scheiben

Also Published As

Publication number Publication date
DE102013212827A1 (de) 2015-01-08

Similar Documents

Publication Publication Date Title
EP3017273B1 (de) Verfahren und vorrichtung zur optischen formerfassung und/oder prüfung eines gegenstandes
DE102013212827B4 (de) Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes
DE3587482T2 (de) Fehlerinspektion fuer plattenoberflaechen.
DE102010053422B3 (de) Messung der Positionen von Krümmungsmittelpunkten optischer Flächen eines mehrlinsigen optischen Systems
EP0892929B1 (de) Anordnung zur vermessung der koordinaten mehrerer, an einem objekt angebrachten, retroreflektoren
DE10319543B4 (de) Vorrichtung und Verfahren zur Bestimmung von Oberflächeneigenschaften
EP1567827B1 (de) Verfahren und vorrichtung zur optischen formvermessung und/oder beurteilung
WO2006100077A1 (de) Vorrichtung zur optischen formerfassung von gegenständen und oberflächen
DE102006031142B4 (de) Verfahren und Vorrichtung zur dreidimensionalen Vermessung und Erfassung der kompletten Objektoberfläche eines kugelförmigen Messobjektes wie eines Sportballs
WO2016170041A1 (de) Verfahren zur identifikation eines sicherheitsmusters über eine artifizielle 3-d-rekonstruktion
WO2016188871A1 (de) Vorrichtung und verfahren zur optischen erfassung von innenwandungen
EP2948732B1 (de) System zur lagebestimmung eines prüfobjektes
DE102005013614A1 (de) Vorrichtung zur optischen Formerfassung von Gegenständen und Oberflächen
DE102017116758B4 (de) Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
DE102010007396B4 (de) Verfahren und Vorrichtung zum optischen Inspizieren eines Prüflings mit einer zumindest teilweise reflektierenden Oberfläche
WO2009083251A1 (de) Verfahren und vorrichtung zum optischen inspizieren einer oberfläche an einem gegenstand
EP3339803A1 (de) Koordinatenmessgerät mit automatischer zielobjekterkennung
EP0152894A2 (de) Anordnung zur optischen Erfassung räumlicher Unebenheiten in der Struktur eines zu untersuchenden Objekts
DE10317078B4 (de) Verfahren und Vorrichtung zur Analyse reflektierender Oberflächen
WO2000066972A1 (de) Verfahren und vorrichtung zur objektabtastung
DE102006006876A1 (de) Verfahren und Vorrichtung zum Erfassen einer Kontur einer reflektierenden Oberfläche
DE10258130A1 (de) Verfahren und Vorrichtung zur optischen Formerfassung von Gegenständen und Oberflächen
EP3910314B1 (de) Verfahren und vorrichtung zur analyse der wechselwirkung zwischen einer oberfläche einer probe und einer flüssigkeit
DE10014964C2 (de) Verfahren zum optischen Messen der Form spiegelnder Oberflächen
DE102015106838B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R082 Change of representative

Representative=s name: GLEISS GROSSE SCHRELL UND PARTNER MBB PATENTAN, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: COGNEX CORPORATION, NATICK, US

Free format text: FORMER OWNER: SAC SIRIUS ADVANCED CYBERNETICS GMBH, 76227 KARLSRUHE, DE