DE102017221649A1 - Prüfverfahren zur Detektion von Oberflächenfehlern auf matten und glänzenden Flächen und zugehörige Vorrichtung sowie Prüfanordnung zwischen Vorrichtung und Bauteil - Google Patents

Prüfverfahren zur Detektion von Oberflächenfehlern auf matten und glänzenden Flächen und zugehörige Vorrichtung sowie Prüfanordnung zwischen Vorrichtung und Bauteil Download PDF

Info

Publication number
DE102017221649A1
DE102017221649A1 DE102017221649.2A DE102017221649A DE102017221649A1 DE 102017221649 A1 DE102017221649 A1 DE 102017221649A1 DE 102017221649 A DE102017221649 A DE 102017221649A DE 102017221649 A1 DE102017221649 A1 DE 102017221649A1
Authority
DE
Germany
Prior art keywords
component
camera
measuring
measuring range
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017221649.2A
Other languages
English (en)
Inventor
Thomas Gigengack
Abdellah Barioudi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102017221649.2A priority Critical patent/DE102017221649A1/de
Publication of DE102017221649A1 publication Critical patent/DE102017221649A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/004Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points
    • G01B5/008Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points using coordinate measuring machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8829Shadow projection or structured background, e.g. for deflectometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • G01N2021/9518Objects of complex shape, e.g. examined with use of a surface follower device using a surface follower, e.g. robot

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biochemistry (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur optischen Formerfassung und/oder Oberflächenprüfung eines Bauteils (Bn), insbesondere auf der Basis der Methode des Shape-from-Shading mit folgenden Schritten: - Anordnen von mindestens einer Kamera (K0), mindestens einem Beleuchtungselement (101B) und dem Bauteil (Bn) in einer Prüfanordnung derart, dass zumindest ein Bereich einer Bauteiloberfläche, der mindestens einem Messbereich (Mn) entspricht, von dem wenigstens einen Beleuchtungselement (101B) beleuchtet wird, - Aufnehmen einer Messbereichs-Bildfolge mittels der Kamera (K0) in mehreren Messbereichen (Mn) durch eine Bewegung der Kamera (K0) gegenüber dem Bauteil (Bn) oder umgekehrt, wobei die Messbereiche (Mn) der Bauteiloberfläche (3) in einer Bildebene der Kamera (K) abgebildet und gleichzeitig mit der Aufnahme der Bilder der Messbereichs-Bildfolge mit dem mindestens einen Beleuchtungselement (101B) in einem zugehörigen Beleuchtungsvorgang (Ln) beleuchtet werden, - Auswerten der aufgenommenen Bilder der Messbereichs-Bildfolge in mindestens einem der mehreren Messbereiche (Mn) der Bauteiloberfläche in Hinblick auf eine veränderte lokale Oberflächenneigung und/oder lokale optische Eigenschaften der Bauteiloberfläche.
Es ist vorgesehen, dass die Bewegung der Kamera (K0) und das mindestens eine Beleuchtungselement, die gemeinsam in einem erfindungsgemäßen Prüfkopf angeordnet sind, gegenüber dem Bauteil (Bn) oder umgekehrt bei dem Aufnehmen der Messbereichs-Bildfolge kontinuierlich vorgenommen wird.

Description

  • Die Erfindung betrifft ein Verfahren zur optischen Formerfassung und/oder Oberflächenprüfung eines Bauteils, insbesondere auf der Basis der Methode des Shape-from-Shading, und eine zugehörige Vorrichtung sowie eine Prüfanordnung zwischen der Vorrichtung und dem Bauteil.
  • Zur Prüfung von Oberflächen werden in Abhängigkeit der verschiedenen Oberflächenprüfaufgaben stets spezielle Lösungsansätze entwickelt, die genau auf die Prüfaufgabe zugeschnitten sind. Beispielsweise werden mit hohem Aufwand technische Lösungen entwickelt, die für unterschiedliche Oberflächeneigenschaften, wie zum Beispiel spiegelnde Oberflächen (lackierte Fläche) oder matte Oberflächen, geeignet sind.
  • Bekannte Verfahren sind unter anderem die Deflektometrie, die Stereometrie und das so genannte Shape-from-Shading mit statischem Aufbau. Bei Verfahren des Shape-from- Shading werden Veränderungen des Neigungsverlaufs oder auch flache Strukturen (niedrige Senken, leichte Anhebungen mit geringer Neigung) bestimmt. Dabei werden leichte Veränderungen der reflektierten Lichtintensität ausgewertet, um bei bekannter geometrischer Anordnung zwischen Kamera, Objekt und Lichtquelle auf die jeweilige Neigung der reflektierenden Bereiche zu schließen.
  • Die Deflektometrie kann verfahrensbedingt nur zur Prüfung von spiegelnden Flächen, wie zum Beispiel lackierten Flächen, verwendet werden.
  • Bisher bekannte Ansätze des Shape-from-Shading-Verfahrens werden soweit bekannt nur für matte, nicht für spiegelnde Flächen verwendet.
  • Die Druckschrift WO 2004/051186 A1 ( EP 1 567 827 B1 ) offenbart ein Verfahren zur optischen Formerfassung und/oder Beurteilung von optisch glatten, glänzenden oder optisch rauen Oberflächen Das Verfahren zeichnet sich dadurch aus, dass ein photometrisches Stereoverfahren, ein deflektometrisches Verfahren und ein Streukörper so kombiniert werden, dass die Orte auf der Streukörperoberfläche flächig codiert werden.
  • Bekannt ist die Druckschrift DE 203 17 095 U1 , die eine Vorrichtung zur Erkennung von Fehlern einer Objektoberfläche eines Objekts vorstellt, mit einer Lichtquelle zur Beleuchtung des Objekts mit einem Beleuchtungsstrahl, der unter einem Einfallswinkel zur Oberfläche auf das Objekt fällt; einem Lichtdetektor zum Erfassen eines von der Objektoberfläche auf den Belichtungsstrahl hin reflektierten Strahls, der unter einem Ausfallswinkel zur Objektoberfläche von dem Objekt reflektiert wird, wobei der Ausfallswinkel gleich dem Einfallswinkel ist, um Bilddaten zu erhalten; und einer Auswerteeinrichtung zum Auswerten der Bilddaten, um mögliche Fehler zu erkennen. Die Erkenntnis besteht darin, dass eine sehr kontrastreiche Abbildung einer Objektoberfläche und damit eine erleichterte und/oder sichere Auswertung der Bilddaten, um Oberflächenfehler zu erkennen, möglich ist, wenn Beleuchtungseinrichtung und Erfassungseinrichtung derart zu der zu prüfenden Oberfläche angeordnet werden, dass der Einfallswinkel des Beleuchtungsstrahls zur Oberfläche den gleichen Winkel aufweist, wie der Erfassungsstrahl zur Oberfläche geneigt ist, das heißt, die Glanzwinkel-Bedingung erfüllt ist, da dann dadurch eine sehr kontrastreiche Abbildung erhalten wird, bei der sich fehlerhafte von fehlerfreien Oberflächenstellen stark in ihrer Helligkeit unterschieden.
  • Die Druckschrift DE 10 2004 038 761 A1 betrifft eine kamera-basierte Prüfung eines Objektes, welches durch wenigstens eine Lichtquelle beleuchtet wird. Hierbei wird mit einer Kamera ein durch eine Lichtquelle beleuchtetes Objekts erfasst und die Bilddaten einer Bildverarbeitung unterzogen. Bei der Verarbeitung wird die Methode des Shape-from-Shading angewandt, bei welcher die Rekonstruktion der Objektoberfläche durch die Minimierung einer Kostenfunktion erfolgt. Um unerwünschte Reflektionen an Kanten und Flächen des Objektes zu vermeiden, wird nicht das gesamte Objekt durch die Lichtquelle beleuchtet, sondern nur Teile davon. Die zu verarbeitenden Bildbereiche werden in ihrer Größe so gewählt, dass die Kostenfunktion des Shape-from-Shading innerhalb dieser Bildbereiche möglichst optimal an die Soll-Geometrie angepasst werden könnte, falls das Objekt in diesem Bereich der Soll-Geometrie entspräche. Alternativ können aber auch innerhalb der Bildbereiche Stützstellenwerte so definiert vorgegeben werden, dass die Kostenfunktion des Shape-from-Shading bei der Führung durch diese Stützstellen derart in diskrete Abschnitte unterteilt wird, dass diese möglichst optimal an die Soll-Geometrie angepasst werden könnte, falls das Objekt in diesen Bereichen der Soll-Geometrie entspricht.
  • Zudem wird auf die Druckschrift EP 1 949 673 B1 verwiesen, die ein Verfahren zur Aufnahme einer Anzahl von Bildern eines Gegenstandes in kurzer zeitlicher Folge mit mindestens einer Kamera unter Verwendung von mindestens drei unterschiedlichen Phasenlagen einer strukturierten Beleuchtung beschreibt, nämlich einem Streifenmuster oder einem Interferenzmuster, wobei die Phasenlagen räumlich nebeneinander betrieben werden, wobei der Gegenstand relativ zu der strukturierten Beleuchtung bewegt wird, so dass ein bestimmtes Merkmal des Gegenstands zu unterschiedlichen Zeitpunkten in den unterschiedlichen Phasenlagen der strukturierten Beleuchtung zu liegen kommt, wobei eine Geschwindigkeit der Bewegung des Gegenstands und/oder ein Zeitpunkt von Ausleseprozessen so gewählt ist/sind, dass sich der Prüfgegenstand zwischen zwei Ausleseprozessen um einen Pixelabstand oder ein Vielfaches davon weiterbewegt, und dass für jede Phasenlage, in welcher das Merkmal zu liegen kommt, dieselbe Anzahl von Zeilen des Kamerachips ausgelesen wird, wobei für jede Phasenlage, in welcher das Merkmal zu liegen kommt, nur ein Teilbereich des Kamerachips ausgelesen wird, nämlich so viele Zeilen des Kamerachips, wie Bilder mit verschiedenen Phasenlagen aufzunehmen sind oder ein Vielfaches davon, und wobei die kurze zeitliche Folge kurz ist im Vergleich zu einer zeitlichen Folge, die bei einem Auslesen aller Zeilen des Kamerachips erreicht werden kann.
  • Bekannt ist ferner ein in der Druckschrift EP 1 864 081 B1 beschriebenes, ebenfalls auf einer Halbkugel beruhendes Beleuchtungssystem, wobei die Halbkugel als vollkommen lichtundurchlässiger Streukörper ausgebildet ist und somit ausschließlich als Reflektor dient, welches zur optischen Formvermessung und/oder optischen Prüfung von Gegenständen dient. Das Beleuchtungssystem umfasst mindestens eine Kamera, mindestens ein Objektiv, den undurchsichtigen Streukörper (Halbkugel) mit mindestens zwei im Inneren des Streukörpers angeordneten Lichtquellen, wobei eine Innenseite des Streukörpers von einer oder mehreren der einzeln oder in Gruppen unabhängig voneinander schaltbaren Lichtquellen derart beleuchtet ist, dass die mindestens zwei Lichtquellen außerhalb des Zentrums des Streukörpers so platziert sind, dass die Innenseite des Streukörpers entlang einer sich ausgehend von einem Punkt des Äquators des Streukörpers in Richtung zum Nordpol desselben und weiter zu einem gegenüberliegenden Punkt des Äquators erstreckenden Linie mit stetig wachsender oder mit stetig fallender Beleuchtungsstärke beleuchtet ist, wenn mindestens eine der Lichtquellen eingeschaltet ist.
  • Die Druckschrift EP 1 949 673 B1 beschreibt ein Verfahren zur Aufnahme einer Anzahl von Bildern eines Gegenstandes in kurzer zeitlicher Folge mit mindestens einer Kamera unter Verwendung von mindestens drei unterschiedlichen Phasenlagen einer strukturierten Beleuchtung, nämlich einem Streifenmuster oder einem Interferenzmuster, wobei die Phasenlagen räumlich nebeneinander betrieben werden, wobei der Gegenstand relativ zu der strukturierten Beleuchtung bewegt wird, so dass ein bestimmtes Merkmal des Gegenstands zu unterschiedlichen Zeitpunkten in den unterschiedlichen Phasenlagen der strukturierten Beleuchtung zu liegen kommt, wobei eine Geschwindigkeit der Bewegung des Gegenstands und/oder ein Zeitpunkt von Ausleseprozessen so gewählt ist/sind, dass sich der Prüfgegenstand zwischen zwei Ausleseprozessen um einen Pixelabstand oder ein Vielfaches davon weiterbewegt, und dass für jede Phasenlage, in welcher das Merkmal zu liegen kommt, dieselbe Anzahl von Zeilen des Kamerachips ausgelesen wird, wobei für jede Phasenlage, in welcher das Merkmal zu liegen kommt, nur ein Teilbereich des Kamerachips ausgelesen wird, nämlich so viele Zeilen des Kamerachips, wie Bilder mit verschiedenen Phasenlagen aufzunehmen sind oder ein Vielfaches davon, und wobei die kurze zeitliche Folge kurz ist im Vergleich zu einer zeitlichen Folge, die bei einem Auslesen aller Zeilen des Kamerachips erreicht werden kann.
  • Bekannt ist ferner die Druckschrift WO 2015/000898 A1 , die ein Verfahren zur optischen Formerfassung und/oder Prüfung eines Gegenstandes sowie eine Vorrichtung zur optischen Formerfassung und/oder Prüfung eines Gegenstandes offenbart. Das Verfahren und die Vorrichtung sind zur Formerfassung und/oder Prüfung von Gegenständen mit optisch rauer Oberfläche und/oder mit glänzender Oberfläche bis hin zu optisch glatter Oberfläche geeignet. Es erfolgt schrittweise ein - Anordnen von mindestens einer Kamera, mindestens einem linienförmigen Beleuchtungselement und einem Gegenstand derart relativ zueinander, dass eine Gegenstandsoberfläche von dem wenigstens einen Beleuchtungselement beleuchtbar und von der Kamera aufnehmbar ist; - Bewirken einer Relativbewegung zumindest zwischen zwei Elementen ausgewählt aus einer Gruppe, bestehend aus dem Gegenstand, dem wenigstens einen Beleuchtungselement und der Kamera, wobei eine Bewegungsrichtung mit dem wenigstens einen Beleuchtungselement einen Winkel einschließt, der von 0° verschieden ist; - Aufnehmen einer Bildfolge der Gegenstandsoberfläche mit der Kamera während der Relativbewegung, wobei die Gegenstandsoberfläche in einer Bildebene der Kamera abgebildet wird; - Beleuchten der Gegenstandsoberfläche während der Belichtung der Bildebene mit dem wenigstens einen Beleuchtungselement, und - Auswerten der aufgenommenen Bildfolge in Hinblick auf lokale Oberflächenneigungen und/oder lokale optische Eigenschaften der Gegenstandsoberfläche.
  • Ein Nachteil der bekannten Lösungen besteht darin, dass die Diffusität des durch die Beleuchtungselemente ausgesendeten Lichtes für glänzende zum Beispiel lackierte Flächen, bei denen je nach Art des Lacks von diffuser Streuung (optisch raue Oberfläche) zumeist glänzende Anteile bis hin zu spiegelnden Anteilen auftreten, nicht ausreichend ist, um Spiegelungen der Lichtquellen, insbesondere lichtemittierenden Dioden (LED's), auf dem zu prüfenden Bauteil ausreichend zu unterdrücken.
  • Darüber hinaus sind alle bekannten Lösungen für Vorrichtungen und die zugehörigen Verfahren sehr zeitaufwändig und kompliziert aufgebaut und somit für einen Serieneinsatz kaum geeignet.
  • Der Erfindung liegt nun die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur optischen Formerfassung und/oder Oberflächenprüfung für Bauteile mit unterschiedlichen geometrischen Freiformen, insbesondere auf der Basis der Methode des Shape-from-Shading, zu schaffen, welche sich für einen Serieneinsatz eignen und somit die Prüfzeiten der variabel untersuchbaren Bauteile kurz sind, wobei das Verfahren und die Vorrichtung ein qualitativ hochwertiges Prüfergebnis sowohl für unterschiedliche Oberflächeneigenschaften, insbesondere spiegelnde, insbesondere lackierte Oberflächen und matte Oberflächen erreichen soll.
  • Ausgangspunkt der Erfindung ist ein Verfahren zur optischen Formerfassung und/oder Oberflächenprüfung eines Bauteils, insbesondere auf der Basis der Methode des Shape-from-Shading, mit folgenden Schritten:
    • - Anordnen von mindestens einer Kamera, mindestens einem Beleuchtungselement und dem Bauteil in einer Prüfanordnung derart, dass zumindest ein Bereich einer Bauteiloberfläche, der mindestens einem Messbereich entspricht, von dem wenigstens einen Beleuchtungselement beleuchtet wird,
    • - Aufnehmen einer Messbereichs-Bildfolge mittels der Kamera in mehreren Messbereichen durch eine Bewegung der Kamera gegenüber dem Bauteil oder umgekehrt, wobei die Messbereiche der Bauteiloberfläche in einer Bildebene der Kamera abgebildet und gleichzeitig mit der Aufnahme der Bilder der Messbereichs-Bildfolge mit dem mindestens einen Beleuchtungselement in einem zugehörigen Beleuchtungsvorgang beleuchtet werden,
    • - Auswerten der aufgenommenen Bilder der Messbereichs-Bildfolge in mindestens einem der mehreren Messbereiche der Bauteiloberfläche in Hinblick auf eine veränderte lokale Oberflächenneigung und/oder lokale optische Eigenschaften der Bauteiloberfläche.
  • Erfindungsgemäß ist vorgesehen, dass
    • - die Bewegung der Kamera gegenüber dem Bauteil oder umgekehrt bei dem Aufnehmen der Messbereichs-Bildfolge kontinuierlich vorgenommen wird.
  • Ein wesentlicher Vorteil des erfindungsgemäßen Verfahrens liegt darin, dass in einer kontinuierlichen Bewegung der Kamera gegenüber dem Bauteil oder umgekehrt die Bauteiloberfläche gemäß den genannten Merkmalen „abgescannt“ wird.
  • Bei den herkömmlichen Verfahren wird eine Messposition angefahren, die Bewegung wird danach gestoppt, die Aufnahmen einer Messbereichs-Bildfolge wird durchgeführt und anschließend wird die nächste Messposition angefahren. Dadurch können durch das ständige Stoppen und Anfahren zur Erstellung der Messbereichs-Bildfolge nur deutlich geringere Messgeschwindigkeiten erreicht werden.
  • Ausgangspunkt der Erfindung ist als Vorrichtung ein Prüfkopf mit einem Gehäuseteil zur optischen Formerfassung und/oder Oberflächenprüfung eines Bauteils unter Verwendung des Verfahrens, umfassend
    • - mindestens eine Kamera mit mindestens einem Objektiv zum Aufnehmen von Bilddaten mindestens eines Messbereichs-Bildes einer Messbereichs-Bildfolge einer Bauteiloberfläche des Bauteils,
    • - mindestens ein schaltbares Beleuchtungselement als Lichtquelle zur Beleuchtung zumindest eines Bereichs der Bauteiloberfläche des Bauteils während der Aufnahme des mindestens einen Messbereichs-Bildes, wobei
    • - das mindestens eine Beleuchtungselement außerhalb des Nordpols eines halbkugelförmigen Streukörpers gegenüber einer Messebene des Messbereichs-Bildes geneigt angeordnet ist, und
    • - das mindestens eine Objektiv der Kamera gegenüber dem Streukörper derart angeordnet ist, dass das Objektiv der Kamera durch die Sichtöffnung des Streukörpers an seinem Nordpol den beleuchteten Bereich der Bauteiloberfläche des Bauteils parallel zur Messebene des Messbereichs-Bildes erfasst.
  • Erfindungsgemäß ist vorgesehen, dass
    • - dem mindestens einen Beleuchtungselement ein Diffussorelement zugeordnet ist, welches das vom dem mindestens einen Beleuchtungselement ausgesendete Licht streut, welches anschließend in einem vorgebbaren Winkel auf eine Innenwand des Gehäuseteils trifft, wobei
    • - die Innenwand des Gehäuseteils zur Streuung des Lichts beschichtet ist, so die Innenwand als Lichtreflektor und als Streuelement wirkt, und das gestreute Licht in einem Reflektionswinkel von der Innenwand abstrahlt, welches anschließend auf eine dem Bauteil abgewandte Oberfläche des Streukörpers trifft,
    • - wobei der Streukörper das durch ihn hindurchtretende Licht austrittsseitig des Streukörpers verteilt, welches auf den zu beleuchtenden Bereich der Bauteiloberfläche des Bauteils trifft.
  • In vorteilhafter Weise werden die Spiegelungen der Lichtquelle(n) des mindestens einen Beleuchtungselementes erst durch die Reflektion an der Innenwand, insbesondere einer Zylinderinnenwand des Prüfkopfes, und der anschließenden Transmission durch eine als Streukörper ausgebildete opake Halbkugel soweit unterdrückt, dass eine Messung auf glänzenden Oberflächen und auch auf matten Oberflächen des jeweiligen zu prüfenden Bauteils möglich wird.
  • Die Opazität ist ein Maß für die Lichtundurchlässigkeit (Trübung) von transluzenten (streuend lichtdurchlässigen) Materialien und Schichten. Die Licht(un)durchlässigkeit der opaken Halbkugel als Streukörper wird als Transmission von elektromagnetischen Wellen angegeben. Mit anderen Worten, ein Teil des auf die opake Halbkugel treffenden Lichts mit bestimmter vorgebbarer Wellenlänge tritt somit durch das Material der opaken Halbkugel hindurch.
  • Eine Prüfung auf matten Oberflächen ist mit dem gleichen Prüfkopf in der nachfolgend erläuterten Prüfanordnung und dem zugehörigen Verfahren ebenfalls möglich, so dass mit dem erfindungsgemäßen Prüfkopf innerhalb der erfindungsgemäßen Prüfanordnung in vorteilhafter Weise sowohl matte als auch glänzende Oberflächen des jeweils zu prüfenden Bauteils detektiert werden können.
  • Der Prüfkopf weist in bevorzugter Ausgestaltung der Erfindung das mindestens eine Beleuchtungselement zur Neigungsverstellung gegenüber der Messebene des Bauteils mindestens ein Neigungsverstellelement auf, das indirekt oder direkt mit dem Gehäuseteil in Verbindung steht.
  • Bevorzugt ist das Diffussorelement an dem Beleuchtungselement angeordnet.
  • Zudem ist bevorzugt vorgesehen, dass als Beschichtung der streuenden und reflektierenden Innenwand eine weiße Spezialfarbe ausgebildet ist, die auf ihrer Innenseite eine raue Oberfläche mit einer vorgebbaren Oberflächenrauigkeit aufweist.
  • Außerdem ist der Prüfkopf dadurch gekennzeichnet, dass die Wandstärke der opaken Halbkugel im unteren Teil - in Aquatornähe - in Richtung des oberen Teils - zum Nordpol hin - zum oberen Teil hin deutlich abnimmt. Zur Herstellung der opaken Halbkugel können verschiedene Materialien zum Einsatz kommen. Wesentlich ist, dass eine homogene Verteilung der Opazität vorliegt und dass die Opazität bei Ausdünnung des Materials, zum Beispiel durch ein Tiefziehverfahren, homogen bleibt.
  • Der Prüfkopf ist in bevorzugter Ausgestaltung der Erfindung ein Hohlzylinder, der die genannten Komponenten in seinem Inneren vollständig in kompakter Weise aufnimmt.
  • Die Erfindung umfasst zudem eine Prüfanordnung, die dadurch gekennzeichnet ist, dass ein robotergestützt geführter Prüfkopf gegenüber einem zur optischen Formerfassung und/oder Oberflächenprüfung angeordneten Bauteil angeordnet ist, wobei der Prüfkopf zum Aufnehmen einer Messbereichs-Bildfolge mittels der Kamera in mehreren Messbereichen des Bauteils durch eine Bewegung der Kamera gegenüber dem Bauteil oder umgekehrt durch den Roboter geführt wird.
  • Schließlich ist erfindungsgemäß vorgesehen, dass die globale Lage des Bauteils zur 6D-Bauteillokalisierung im Raum mit einem Lagebestimmungssystem, insbesondere einem Stereokamerasystem, bestimmt und eine 6D-Referenzlage berechnet wird, wobei zumindest eine einmalige Kalibrierung zwischen einem Roboterarm des Roboters und dem System durchgeführt wird, wodurch eine Referenzierung des Bauteils im dreidimensionalen Raum in seiner Soll-Position gegenüber dem robotergestützt geführten Prüfkopf in einer vorgebbaren Abstandskonstanz zwischen Prüfkopf und Bauteiloberfläche des Bauteils vorliegt.
  • Die bisherigen Lösungen können als statisch und als nicht dynamisch bezeichnet und angesehen werden, da die Bewegung der Kamera gegenüber dem Bauteil oder umgekehrt bei dem Aufnehmen der Messbereichs-Bildfolge nicht kontinuierlich erfolgt, mithin nicht in Echtzeit erfolgt.
  • In bevorzugter Ausgestaltung der Erfindung ist vorgesehen, dass die Geschwindigkeit der Relativbewegung zwischen der Kamera und dem Bauteil während der Aufnahme der mehreren Bilder je Messbereich-Bild der Messbereichs-Bildfolge konstant ist.
  • Ferner ist in bevorzugter Ausgestaltung der Erfindung vorgesehen, dass die Geschwindigkeit der Relativbewegung zwischen der Kamera und dem Bauteil zwischen den Aufnahmen der mehreren Bilder je Messbereich-Bild der Messbereichs-Bildfolge konstant oder variabel ist.
  • Bevorzugt ist vorgesehen, dass die globale Lage des Bauteils im Raum in einer Null-Position vor dem Aufnehmen der Messbereichs-Bildfolge mittels der Kamera dreidimensional erfasst und als Soll-Position gespeichert wird.
  • Außerdem ist bevorzugt vorgesehen, dass der Abstand des Bauteils gegenüber der Kamera in Abhängigkeit der Bauteilgröße in einem vorgegebenen Abstand von der Soll-Position des Bauteils erfolgt, wobei der vorgegebene Abstand während der kontinuierlichen Bewegung innerhalb einer vorgebbaren Abstandsgenauigkeit eingehalten wird.
  • In bevorzugter Ausgestaltung der Erfindung ist - wie erwähnt - vorgesehen, dass für jedes Bild der Messbereichs-Bildfolge mehrere Bilder aufgenommen werden, die anschließend erfindungsgemäß zu dem den mindestens einen Messbereich repräsentierenden Messbereichs-Bild des Bauteils zusammengesetzt werden.
  • Dabei wird erfindungsgemäß wie folgt vorgegangen, dass die Aufnahmen der mehreren Bilder der Messbereichs-Bildfolge der mehreren zweidimensionalen Messbereiche der erfassten Bauteiloberfläche zueinander eine Überlapplänge aufweisen.
  • Ferner ist bevorzugt vorgesehen, dass jedem Messbereich ein zweidimensionaler Messort zugeordnet ist, in dessen gesamtem Bildbereich mit der Bildgröße die Messebene als Tiefenschärfebedingung maximal um die Tiefenschärfe von der Bauteilkontur des Bauteils abweicht, wobei die Kamera orthogonal zu dem zweidimensionalen Messort ausgerichtet ist, und hinsichtlich der Orthogonalität eine vorgebbare Toleranz der Neigung gegenüber der Messebene eingehalten wird.
  • Das Verfahren zeichnet sich ferner dadurch aus, dass jede Aufnahme der mehreren Bilder jedes Bild der Messbereichs-Bildfolge innerhalb einer Belichtungsdauer auf einem Plateau mit konstantem Lichtstrom mit einem vordefinierten Nennlichtstrom vorgenommen wird.
  • Bevorzugt ist ferner vorgesehen, dass der Beginn jeder ersten Aufnahme der mehreren Bilder jedes Bildes der Messbereichs-Bildfolge durch einen Trigger wegsynchron, in Abhängigkeit von der zurückgelegten Relativbewegung der Kamera gegenüber dem Bauteil oder umgekehrt vorgenommen wird, so dass die Überlapplänge konstant ist.
  • Insbesondere ist vorgesehen, dass ein Master-Trigger-Signal, sobald sich die Kamera in Abhängigkeit der wegsynchronen Steuerung an einer ersten Aufnahme der mehreren Bilder jedes Bildes der Messbereichs-Bildfolge vorgesehenen Position befindet, eine Triggerkette auslöst, wobei mittels einer Slave-Triggers-Beleuchtung das mindestens eine Beleuchtungselement der mindestens einen Beleuchtungseinrichtung der zugehörige Beleuchtungsvorgang und in einem zeitlichen Versatz eine Slave-Triggers-Kamera der Kamera angesteuert und gestartet wird, mittels der eine Bildaufnahme innerhalb des Plateaus vorgenommen wird, wonach das nächste Master-Trigger-Signal ausgelöst wird.
  • Das Verfahren ist bevorzugt durch folgende Schritte gekennzeichnet:
  • In einem ersten Schritt a) erfolgt innerhalb eines integrierten Schaltkreises die Aufnahme der mehreren Bilder jedes Bildes der Messbereichs-Bildfolge.
  • In einem zweiten Schritt b) erfolgt innerhalb des integrierten Schaltkreises eine Verschiebungskorrektur, der vorgeplanten überlagerten Messbereiche, wobei bevorzugt neben der vorgeplanten Überlappung zusätzlich ungeplante Ungenauigkeiten korrigiert werden, indem die Aufnahmen der mehreren Bilder jedes Bild der Messbereichs-Bildfolge und die Messbereiche untereinander relativ zueinander durch eine Verschiebungskorrektur „ausgeschwommen“ werden, nachdem die Einzelausschnitte der Bildaufnahme zur Berechnung einer Verschiebungskorrektur an einen Prozessor übertragen wurden, wobei das Ergebnis als Korrekturdaten an den integrierten Schaltkreis zur Verschiebungskorrektur zurückgesendet werden, so dass im integrierten Schaltkreis die Verschiebung durchgeführt wird.
  • In einem dritten Schritt c) wird nach dem Shape-from-Shading-Algorithmus die Berechnung des Albedo als Maß für das Rückstrahlvermögen der Bauteiloberfläche des Bauteils in dem mindestens einen der mehreren Messbereiche abgeleitet.
  • In einem vierten Schritt d) wird das Ergebnis der Berechnung des Shape-from-Shading-Algorithmus mit entsprechenden Filter- und Korrektur-Algorithmen gefiltert und korrigiert.
  • In einem fünften Schritt e) wird eine Analyse der Messbereiche in Bezug auf besonders interessierende Bereiche und eine Maskierung vorgenommen.
  • In einem sechsten Schritt f) werden die interessierenden Bereiche mit lokalen Koordinaten versehen, die denen auf der Bauteiloberfläche des entsprechenden Bauteils relevante Oberflächenfehler entsprechen, wobei die lokalen Koordinaten zur weiteren Berechnung an den Prozessor weitergereicht werden.
  • In bevorzugter Ausgestaltung der Erfindung ist weiter vorgesehen, dass in einem siebenten Schritt g) eine Defekterkennung erfolgt, in dem die potentiellen Defekte identifiziert werden.
  • In einem achten Schritt h) werden die potentiellen Defekte nach bestimmten vorgebbaren Parametern, insbesondere der Größe, parametriert und in Fehlerklassen klassifiziert.
  • In einem neunten Schritt h) werden von den potentiellen Defekten ausgehend echte Defekte klassifiziert.
  • In einem zehnten Schritt i) werden zu diesen echten Defekten aus den lokalen Koordinaten eines Messbereichs die globalen Koordinaten gemäß der globalen Lage des Bauteils nach Anspruch 2 ermittelt, wobei die lokalen Koordinaten der echten Defekte im jeweiligen zweidimensionalen Messbereich dreidimensional auf die mehreren Messbereiche des Bauteils „gemappt“ werden, so dass die echten Defekte exakt im dreidimensionalen Raum auf dem eine dreidimensionale Freiform aufweisenden Bauteil angeordnet sind.
  • Die in einem elften Schritt j) „gemappten“ echten Defekte werden nach einer Übermittlung an eine Graphikkarte visualisiert auf einem Monitor angezeigt.
  • Schließlich werden in einem letzten zwölften Schritt k) die „gemappten“ echten Defekte in Fehlertabellen unter entsprechender Lokalisierung mit Defektart und Defektgröße abgespeichert und zur weiteren Auswertung bereitgestellt.
  • Die verschiedenen in dieser Anmeldung genannten Ausführungsformen der Erfindung sind, sofern im Einzelfall nicht anders ausgeführt, mit Vorteil miteinander kombinierbar.
  • Die Erfindung wird nachfolgend in Ausführungsbeispielen anhand der zugehörigen Zeichnungen erläutert. Es zeigen:
    • 1 das erfindungsgemäße Prüfsystem zur Oberflächenprüfung an einem Bauteil, insbesondere an einem beispielhaft dargestellten Stoßfänger;
    • 2 eine Außenansicht eines Prüfkopfs des Prüfsystems;
    • 3 eine Prinzipskizze zur Darstellung einer Beleuchtungseinrichtung und einer Lichtführung innerhalb des Prüfkopfes des Prüfsystems;
    • 4A eine perspektivische Darstellung des Innenaufbaus des aufgeschnitten dargestellten Prüfkopfes;
    • 4B eine perspektivische Darstellung der Beleuchtungselemente der Beleuchtungseinrichtung innerhalb des Prüfkopfes;
    • 5 eine schematische Darstellung (Draufsicht) einer Anordnung der als Beleuchtungselemente vorzugsweise verwendeten LED's innerhalb der Beleuchtungseinrichtung;
    • 6 eine schematische Darstellung (Seitenansicht) der Beleuchtungselemente;
    • 7 eine schematische Darstellung (Seitenansicht) der Beleuchtungselemente;
    • 8 eine schematische Darstellung einer Anordnung von Kameras innerhalb eines Kamerasystems nach dem Verfahrensprinzip Stereokamera zur Regelung einer Abstandskonstanz;
    • 9 eine Darstellung sowie Definition und Nomenklatur von Zeiträumen, die innerhalb der Prüfdauer der dynamischen Oberflächenprüfung von Bauteilen berücksichtigt werden;
    • 10 eine Darstellung sowie Definition und Nomenklatur von Bildgrößen, Messbereichen und Überlappungsbereichen innerhalb eines erfindungsgemäßen Bildaufnahmeverfahrens;
    • 11 eine prinzipielle Darstellung mehrerer sich überlappender Messfenster;
    • 12 eine Definition und Nomenklatur einer zweidimensionale Anordnung von mehreren Messfenstern innerhalb des Bildaufnahmeverfahrens;
    • 13 die Anordnung einer Kamera eines Kamerasystems in einer nicht tolerierbaren Neigung gegenüber dem zu prüfenden Bauteil;
    • 14 die Anordnung der Kamera in einer orthogonalen Anordnung gegenüber dem zu prüfenden Bauteil;
    • 15 eine Darstellung zur Erläuterung der Bedeutung der Positionierung der Kamera unter Berücksichtigung einer Tiefenschärfe innerhalb des Messfeldes;
    • 16 eine erfindungsgemäß vorgesehene Taktführung der Bildaufnahmen zwischen zwei aufeinanderfolgenden Messungen innerhalb des Bildaufnahmeverfahrens mittels der Beleuchtungseinrichtung;
    • 17 eine Definition und Nomenklatur der Beleuchtungsparameter innerhalb des Bildaufnahmeverfahrens mittels der Beleuchtungseinrichtung;
    • 18 eine Darstellung eines Trigger-Konzeptes zur Bildverarbeitung der mittels der Beleuchtungseinrichtung innerhalb des Bildaufnahmenverfahrens aufgenommenen Bilder;
    • 19 eine Darstellung der Konfiguration einer Steuervorrichtung des Verfahrens zur dynamischen Prüfung einer Bauteiloberfläche, insbesondere zur Darstellung eines Trigger- und Kommunikationskonzeptes;
    • 20 eine schematische Darstellung des zur Auswertung benötigten Softwarekonzeptes;
    • 21 eine schematische Darstellung des Softwarekonzeptes, insbesondere der FPGA-Funktionen gemäß den 19 und 20;
    • 22 eine schematische Darstellung des Softwarekonzeptes, insbesondere der GPU-Funktionen gemäß den 19 und 20;
    • 23 eine schematische Darstellung des Softwarekonzeptes, insbesondere der CPU-Funktionen gemäß den 19 und 20.
  • Prüfsystem:
  • 1 zeigt das erfindungsgemäße Prüfsystem 100 zur Oberflächenprüfung an einem Bauteil B, insbesondere an einem beispielhaft dargestellten Stoßfänger.
  • Vorgesehen ist der parallele Einsatz von einem oder mehreren robotergeführten, scannenden Prüfsystemen 100.
  • Die Prüfung des Bauteils Bn erfolgt im Ausführungsbeispiel auf einem Bauteilträger T, mit anderen Worten, das Bauteil Bn ist im gewählten Ausführungsbeispiel während der Prüfung ortsfest an/auf einem Bauteilträger T angeordnet.
  • Prüfkopf und Lichtführung:
  • Das robotergestütze Prüfsystem 100 umfasst als eine wesentliche Komponente einen Prüfkopf 101. Der Prüfkopf 101 des Prüfsystems 100 wird durch einen Industrieroboter 200 relativ zum Bauteil Bn geführt bewegt.
  • Die 2 zeigt eine Außenansicht des Prüfkopfs 101, wobei ein hohlzylindrisches Gehäuseteil 101A transparent dargestellt ist.
  • Im oberen Bereich des hohlzylindrischen Gehäuseteils 101A sind eine Kamera K0 und mindestens ein Beleuchtungselement 101B angeordnet.
  • Im oberen Bereich ist eine Öffnung ausgeführt, die eine Belüftung des Gehäuseteils 101A, insbesondere zur Wärmeabfuhr, gewährleistet. Die Kamera K0 sitzt in einer im Gehäuseteil 101A angeordneten Aufnahme, die eine Lage-Feinjustierung der Kamera K0 ermöglicht.
  • Im unteren Bereich des hohlzylindrischen Gehäuseteils 101A ist ein kugelförmiger opaker Lichtverteiler 101D angeordnet, der auf der Innenseite des hohlzylindrischen Gehäuseteils 101A befestigt ist. Die Halbkugel weist zentrisch innerhalb der Halbkugel 101D in Verlängerung der Längserstreckung der Längsachse der Kamera K0 eine Sichtöffnung 101D-1 auf, oberhalb der das Objektiv der Kamera K0 angeordnet ist.
  • In 3 wird das Beleuchtungsprinzip beziehungsweise die Lichtführung schematisch dargestellt, welches durch eine spezielle Ausgestaltung der Beleuchtungseinrichtung innerhalb des Prüfkopfes 101 des Prüfsystems 100 realisiert ist.
  • Das mindestens eine Beleuchtungselement 101B sendet Licht aus, welches zunächst an einem Diffussorelement 101B-1, insbesondere einer Diffusorplatte, gestreut wird. Dabei wird das Licht in einem vorgebbaren Winkel auf die Innenwand des hohlzylindrischen Gehäuseteils 101A ausgesendet. Zur Neigungsverstellung des mindestens einen Beleuchtungselementes 101B dienen Neigungsverstellelemente 101E (vergleiche 4B), die mit dem mindestens einen Beleuchtungselement 101B verbunden und in mindestens einer Trägerplatte 101F befestigt sind.
  • Die Innenwand des hohlzylindrischen Gehäuseteils 101A ist mit einer weißen Spezialfarbe - zur Ausbildung einer rauen Oberfläche - beschichtet, so dass die Innenwand des hohlzylindrischen Gehäuseteils 101A als Lichtreflektor 101G mit einer vorgebbaren Streuwirkung ausgebildet ist.
  • Das an dem zylindrischen Reflektor 101G reflektierte Licht erreicht somit in einem vorgebbaren Reflektionswinkel die Oberfläche der opaken Halbkugel 101D, die einen Teil des auftreffenden Lichtes nicht durch die Halbkugel 101D hindurchtreten lässt. Das hindurchtretende Licht (Transmission) wird zudem durch die opake Halbkugel 101D austrittsseitig innerhalb des unteren Bereiches des hohlzylindrischen Gehäuseteils 101A verteilt.
  • Die Beleuchtungseinrichtung umfasst somit das mindestens eine Beleuchtungselement 101B mit der Diffusorplatte 101B-1, den Reflektor 101G und die opake Halbkugel 101D.
  • Die opake Halbkugel ist dabei derart ausgeführt, dass die Wandstärke im unteren Teil in Richtung des oberen Teils zum oberen Teil hin deutlich abnimmt.
  • In Verbindung mit den teilabsorbierenden Eigenschaften der opaken Halbkugel wird dadurch eine Lichtmengensteuerung erreicht, die besonders für Anwendung des erfindungsgemäßen Verfahrens an Bauteile Bn von spiegelnden Oberflächen erforderlich ist.
  • Das von dem mindestens einen Befestigungselement 101B ausgesendete Licht wird somit mittels der Diffusorplatte 101B-1, mittels des Lichtreflektors 101G und der opaken Halbkugel 101D gestreut, so dass das auf das Bauteil Bn auftreffende Licht keine Spiegelungen auf dem Bauteil Bn hervorruft. Mithin werden durch die Diffusorplatte 101B-1 und durch die Reflektion an der als Lichtreflektor 101G ausgebildeten Zylinderinnenwand des Prüfkopfes 101 und der anschließenden Transmission des Lichtes durch die opake Halbkugel 101D die Spiegelungen der Lichtquelle soweit unterdrückt, so dass erfindungsgemäß eine Messung auf glänzenden Oberflächen des zu prüfenden Bauteils Bn möglich wird.
  • Eine Prüfung auf matten Oberflächen ist mit dem gleichen Prüfkopfaufbau jedoch ebenfalls möglich, so dass mit dem Prüfkopfaufbau in vorteilhafter Weise sowohl matte als auch glänzende Oberflächen des zu prüfenden Bauteils detektiert werden können.
  • Die nur Einzelheiten darstellende 4B zeigt, dass innerhalb des Prüfkopfaufbaus zwei Beleuchtungselemente 101B angeordnet sind, die gemäß dem vorher beschriebenen Prinzip das zu prüfende Bauteil Bn beleuchtet. Die 4B zeigt ergänzend die Diffusorplatten 101B-1 als Einzelheiten, die im Zusammenbauzustand mit den Beleuchtungselementen 101B verbunden sind, wie insbesondere in den 6 und 7 gezeigt ist.
  • Die 5 zeigt ein Beleuchtungselement 101B in einer Draufsicht.
  • Aufgrund der kurzen Belichtungszeiten, die zur Minimierung der Empfindlichkeiten gegenüber auftretenden Bauteilschwingungen erforderlich ist, von Δtb = 40 - 50 µs sind hohe Lichtströme Φν bei der Beleuchtung erforderlich. Bauteilschwingungen werden beispielsweise über den Boden auf die Spannvorrichtung, in der das Bauteil Bn im Träger T eingespannt ist, auf das zu prüfende Bauteil Bn übertragen, wodurch die Schwingungen der Bauteiloberfläche bei der Aufnahme der Messbereichs-Bildfolge durch kurze Belichtungszeiten der Kamera K0 des Prüfkopfes 101 berücksichtigt werden.
  • Es werden Lichtströmen zwischen ΦνN = 25.000lm und ΦνN = 80.400lm eingesetzt. Wegen der hohen Lichtströme und der spiegelnden zu prüfenden Oberfläche kann, wie zuvor erläutert, nur indirekte, diffuse Beleuchtung eingesetzt werden.
  • Die Beleuchtungselemente 101B umfassen vorzugsweise mehrere weiße Weißlicht-LED's mit einem maximalen Lichtstrom von ΦνN = 80.400 Im (Nennlichtstrom der LED's bei einer Versorgungsspannung: 39,2 V und einem Versorgungsstrom von 13,8 A). Alternativ können, besonders bei sehr glatten Oberflächen, blaue LED's (Blaulicht) verwendet werden, wobei die spektrale Umrechnung der Strahlungsleistung berücksichtigt wird.
  • Im Ausführungsbeispiel gemäß 5 werden zwölf, insbesondere weiße, LED's zu einem Beleuchtungselement-Modul aus mehreren Beleuchtungselementen 101B zusammengefasst. Im Zusammenbauzustand sind, wie die 6 und 7 in Seitenansichten zeigen, oberhalb der Beleuchtungselemente 101B Kühlkörper 101B-2 und unterhalb des Beleuchtungselementes 101B die bereits beschriebene Diffusorplatte 101B-1 angeordnet. Die Kühlkörper 101B-2 sind auch in 4B perspektivisch in einer Art Explosionsdarstellung getrennt von den LED's dargestellt.
  • Prüftechnologie:
  • Jedes Prüfsystem 100 (vergleiche 1) prüft die vorhandenen Bauteile Bn in einem so genannten Anlagentakt.
  • Als Prüftechnologie beziehungsweise als Verfahren zur Oberflächenprüfung eines Bauteils Bn kommt das adaptierte Shape-from-Shading (SFS) zum Einsatz, welches erfindungsgemäß jetzt dynamisiert arbeitet und entsprechend ausgestaltet ist, wie nachfolgend detailliert erläutert wird.
  • Die erforderliche Genauigkeit der Bauteilpositionierung des Bauteils Bn gegenüber dem Prüfkopf 101 in einer so genannten Prüfanordnung beträgt ca. +/- 500µm bis 2 mm, das heißt, die Lage des Prüfkopfs 101 des Prüfsystems 100 gegenüber dem Bauteil Bn muss der angegebenen Abstandsgenauigkeit entsprechen.
  • Der Tiefenschärfebereich der Kameras K1, K2 eines Stereokamerasystems 102 (vergleiche 8) ist begrenzt. Der gesamte zu prüfende Bauteilbereich des Bauteils Bn muss innerhalb des Tiefenschärfebereichs liegen, weshalb die Abstandsgenauigkeit ca. +/- 500µm bis 2 mm von großer Bedeutung ist, wie noch erläutert wird.
  • Eine Roboterbahn wird für alle Bauteiltypen bei der Inbetriebnahme programmiert, wobei mit der Roboterbahn die Schwenkbewegung des Roboterarms 210 und somit die Prüfkopfbahn des Prüfkopfs 101 gegenüber dem Bauteil Bn bestimmt ist.
  • Das Bauteil Bn befindet sich dabei in einer Null-Position, die Lage des Bauteils Bn im Raum wird messtechnisch erfasst und gespeichert.
  • Dieses messtechnische Erfassen der Bauteilposition ist nur erforderlich, wenn die Toleranzen der Bauteillagerung so groß sind, dass die Bauteiloberfläche außerhalb des Tiefenschärfebereichs der Kameras K1, K2 liegen könnte.
  • In einem Messbetrieb wird die dreidimensionale Lage des Bauteils Bn im Raum mit dem Stereokamerasystem 102; K1, K2, schematisch in 8 dargestellt, direkt nach dem Einfahren und Beruhigen des Bauteils Bn messtechnisch erfasst.
  • Anschließend wird eine Abweichung ΔsR der Lage des aktuellen Bauteils Bn zu einer Null-Position bestimmt und daraus wird eine Korrektur für das erstellte Programm zur Steuerung des Roboters 200 beziehungsweise seiner Roboterbahn ermittelt.
  • Das korrigierte Programm zur Steuerung des Roboters 200 wird an die Robotersteuerung übertragen. Der Roboter 200 startet die Bauteilprüfung mit der korrigierten Bahn. Diese Korrektur ist nur erforderlich, wenn die Toleranzen der Bauteillagerung so groß sind, dass die Bauteiloberfläche außerhalb des Tiefenschärfebereichs der Kameras K1, K2 des Stereokamerasystems 102 liegen könnte.
  • Die Reichweite des Roboters 200, insbesondere des Roboterarms 201, muss so groß sein, dass alle Messorte M(ix , iy) innerhalb eines zweidimensionalen Koordinatensystems erreicht werden können.
  • Es wird darauf geachtet, dass das Prüfsystem am Messort in einer so genannten Messposition steht. Der Roboter 200 muss eine Genauigkeit aufweisen, die es ermöglicht, dass das Prüfsystem 100 mit einer Abstandsgenauigkeit von ΔsR =± 500µm bis 2 mm Bauteil geführt wird.
  • Es ist vorgesehen, dass der Roboterarm 210 die Roboterbahn vorzugsweise kontinuierlich mit konstanter Geschwindigkeit VR abfährt, wobei die Geschwindigkeit des Roboterarms 210 bei diesem Verfahren auch variieren kann.
  • Für jede durchzuführende Messung an dem jeweiligen Messort M(ix , iy) wird ein Roboterbahn-Stützpunkt mit der analogen Bezeichnung M(ix , iy) zweidimensional programmiert.
  • Die Robotersteuerung sendet beim Erreichen des Roboterbahn-Stützpunktes M(ix , iy) einen Echtzeit-Trigger und eine Ortsinformation aus.
  • Beim Erreichen des Bahn-Stützpunkts M(ix , iy) am Messort wird der Echtzeit-Trigger gesendet, der die Ausführung der Messung auslöst.
  • Analog dazu wird die Ortsinformation des Bahn-Stützpunkts M(ix ,), also die Lage des Bahn-Stützpunkts M(ix , iy) im Raum, gesendet.
  • Die Bahnprogrammierung wird derart ausgeführt, dass an jedem Messort M(ix ,iy ) die Orientierung des Prüfsystems so realisiert ist, das im gesamten Bildbereich mit der Bildgröße ΔSBx × ΔSB eine Messebene als Tiefenschärfebedingung maximal um die Tiefenschärfe von der Bauteilkontur abweicht, worauf noch eingegangen wird.
  • Falls durch die lokale Krümmung des Bauteils Bn im Bildbereich die Einhaltung der Tiefenschärfebedingung nicht möglich ist, kann in Abstimmung die Größe des Bildbereichs reduziert werden.
  • Die sich dadurch ergebenden Verschiebungen der Messorte M(ix ,) für die folgenden Messungen werden berücksichtigt, wie ebenfalls noch erläutert wird.
  • Der Roboterarm 201 des Roboters 200 darf sich während der Aufnahme aller vier Bilder inklusive der Übertragungszeiten der Bilder beziehungsweise der Auslesezeit aus der Kamera K0 und der Übertragungszeiten der Bilder an den Computer von vier x ΔtK (vergleiche auch 18)) nur mit konstanter Geschwindigkeit bewegen.
  • Richtungsänderungen durch Umorientierung des Roboterarms 201 des Roboters 200 werden vermieden, wobei eine vorgebbare konstante Geschwindigkeit nur bis zum Abschluss der Aufnahme des vierten Bildes gewährleistet werden muss. Bereits während der Datenübertragung der Aufnahme des vierten Bildes kann sich die Geschwindigkeit der Kamera K0 gegenüber dem Bauteil Bn ändern. Die vorgebbare Geschwindigkeit zwischen den erstellten Messbereichs-Bildern der Messbereichs-Bildfolge kann konstant gewählt werden oder sich ändern, wobei durchaus mehrere Geschwindigkeitsänderungen möglich sind.
  • Abstandskonstanz:
  • Die 8 zeigt eine schematische Darstellung einer Anordnung von Kameras K1 und K2 innerhalb eines Kamerasystems KS nach dem Verfahrensprinzip der Stereokamera zur Regelung einer Abstandskonstanz zwischen Bauteil Bn und Prüfkopf 101 des Prüfsystems 100 innerhalb der erforderlichen Abstandsgenauigkeit von ΔsR =± 500µm bis 2 mm.
  • Dieses messtechnische Erfassen der Bauteilposition ist nur erforderlich, wenn die Toleranzen der Bauteillagerung so groß sind, dass die Bauteiloberfläche außerhalb des Tiefenschärfebereichs der Kameras K1, K2 des Stereokamerasystems 102 liegen könnte.
  • Er werden signifikante Identifikationsmerkmale am Bauteil Bn zur Bestimmung der 6D-Lage des Bauteils Bn im Raum festgelegt.
  • Zur Lageerkennung mittels Stereomessung werden die beiden Kameras K1, K2 (vergleiche 8) eingesetzt, die einen festen Abstand zueinander haben und in einem vorgebbaren leichten Winkel auf das Bauteil Bn blicken.
  • Der erforderliche Abstand zwischen den Kameras K1, K2 und der Bildaufnahmeabstand werden maßgeblich durch die Größe des Bauteils Bn festgelegt.
  • Für eine prozesssichere 6D-Bauteillokalisierung im Raum (x, y, z, α, β, γ) werden mindestens drei korrespondierende signifikante Prüfmerkmale ermittelt und in den Kamerabildern aufgenommen und ausgewertet.
  • Geeignete Prüfmerkmale stellen beispielsweise in verschiedenen Ebenen angeordnete Öffnungen oder dergleichen dar.
  • Auf dieser Basis der 6D-Bauteillokalisierung im Raum (x, y, z, α, β, γ) erfolgt eine zumindest einmalige Kalibrierung zwischen Roboterarm 201 und den beiden Kameras K1, K2, wodurch die Referenzierung eines Bauteils Bn im dreidimensionalen Raum in seiner Soll-Position vorliegt.
  • Vor Beginn der Messung wird somit zusammengefasst die Lage des Bauteils Bn im Raum (x, y, z, α, β, γ) mit dem Stereokamerasystem 102 bestimmt. Die so genannte 6D-Referenzlage wird berechnet und als Baseverschiebung an die Steuereinrichtung des Roboters R übermittelt.
  • Die Base ist die Ursprungskoordinate des Roboters R. Die Lage des Bauteils Bn wurde gemessen. Wenn die Lage des Bauteils Bn gegenüber der Soll-Lage verschoben wird, wird angenommen, dass sich die Lage des Roboters R relativ zu dem Bauteil Bn geändert hat. Um die Lageverschiebung des Bauteils Bn gegenüber der Soll-Lage zu berichtigen, das heißt das Bauteil Bn in die richtige (korrigierte) Ausgangslage zu bringen, wird die beschriebene so genannte Baseverschiebung durchgeführt.
  • Zeitsteuerung:
  • 9 zeigt eine Darstellung von Zeiträumen, die innerhalb der Prüfdauer der dynamischen Oberflächenprüfung von Bauteilen Bn berücksichtigt werden.
  • Definition und Nomenklatur:
    • ΔtH1 = erste Handhabungsdauer
    • ΔtH2 = zweite Handhabungsdauer
    • ΔtPges = Prüfdauer gesamt für die Prüfung von einem oder mehreren Bauteilen Bn entspricht der so genannten Taktzeit.
    • ΔtP = Prüfdauer pro Bauteil Bn . In diesem Zeitraum wird ein Bauteil Bn komplett geprüft. Es werden dabei nM Messungen durchgeführt.
    • ΔtM = Messdauer. In diesem Zeitraum erfolgt eine Messung. Im Rahmen einer Messung werden jeweils mehrere Bilder (entspricht der Belichtungsdauer ΔtB ), im Ausführungsbeispiel vier Bilder in der Zeit ΔtM aufgenommen.
    • Anzahl der Messungen = nM
    • ΔtB= Belichtungsdauer. In diesem Zeitraum wird ein Bild aufgenommen.
    • ΔtR= Roboter(arm)bewegungsdauer.
  • In diesem Zeitraum bewegt sich der Roboterarm 201 des Roboters 200 von der letzten Messposition an Bauteil B1 zur ersten Messposition an Bauteil B2 .
  • ΔtK= Kamera-Datenübertragungszeitraum. In diesem Zeitraum wird ein Bild von der Kamera K0 im Prüfkopf 101 an den Framegrabber FPGA übertragen. Δ t P = Δ t Pges Δ t H1 Δ t H2 Δ t R 2 Δ t M = Δ t P n M
    Figure DE102017221649A1_0001
  • Die Prüfdauer gesamt beträgt ΔtPges = Taktzeit = beispielsweise 60s
    Prüfdauer pro Bauteil beträgt ΔtP = beispielsweise 25s
    ΔtH1+ΔtH2tR = 10s
    ΔtB ~ 40-50µs.
  • Unter dieser Angabe ist im gewählten Ausführungsbeispiel eine angestrebte Belichtungsdauer ΔtB zu verstehen. Die Belichtungsdauer ΔtB kann abhängig vom Farbton des zu prüfenden Bauteils Bn von den angegebenen Werten abweichen. Bei eher dunklen Bauteilen Bn ist die Belichtungsdauer ΔtB tendenziell länger, insbesondere ca. 60-100 µs, wobei die Beleuchtungsdauer ΔtL entsprechend anzupassen (vergleiche 17) ist.
  • Die Belichtungsdauer ΔtB wird so kurz wie möglich angesetzt, um Störungen durch Vibrationen und Schwingungen des Bauteils B auszublenden.
  • 9 zeigt den prinzipiellen Ablauf einer Bauteilprüfung beispielhaft an zwei Bauteilen Bn .
  • 1 zeigt eine Zeitachse t. Im Ausführungsbeispiel werden zwei Bauteile B1 und B2 in einem Anlagentakt (Taktzeit) geprüft. Der Bauteilträger T (vergleiche 1) fährt in der Zeitspanne ΔtH1 in eine Prüfstation ein.
  • Zuerst wird das erste Bauteil B1 geprüft. Die Prüfdauer pro Bauteil Bn beträgt ΔtP . Danach bewegt sich der Roboterarm 201 des Roboters 200 in der Zeitspanne ΔtR zur Prüfung des zweiten Bauteils B2 vom ersten Bauteil B1 zum zweiten Bauteil B2 . Der Bauteilträger T (vergleiche 1) fährt in der Zeitspanne ΔtH2 aus der Prüfstation heraus.
  • Innerhalb der Prüfdauer ΔtP pro Bauteil Bn wird ein Bauteil Bn komplett geprüft. Es werden dabei mehrere Messbereiche Mn , so genannte Kacheln in der Zeitspanne ΔtM aufgenommen, wobei im Ausführungsbeispiel n = 4 Aufnahmen Mn in mehreren Messbereichen M oder Kacheln, je nach Bauteilgröße) in den Zeitspannen ΔtM durchgeführt werden. Somit ergibt sich eine Prüfdauer ΔtPges gesamt für die Prüfung von einem oder mehreren Bauteilen Bn , die der so genannten Taktzeit entspricht.
  • Bildaufnahmekonzeption:
  • 10 zeigt eine Darstellung von Bildgrößen in Messbereichen und Überlappungsbereichen innerhalb eines erfindungsgemäßen Bildaufnahmeverfahrens.
  • Definition und Nomenklatur:
  • Die Bildgröße einer Kachel beziehungsweise eines Messbereichs/Messfensters M (ix, iy) ist definiert als ΔSBx ; ΔSBy
  • Die Messbereichsgröße ist definiert als ΔSMx ; ΔSMy
  • Ein Aufnahmeversatz zwischen zwei Messbereichen/Messfenstern beträgt insbesondere ΔSA = 120 Pixel und ist konstant, wobei auch andere Aufnahmeversätze möglich sind.
  • Die Überlapplänge zwischen zwei Messbereichen/Messfenstern beträgt im Ausführungsbeispiel ΔSU = 10 Pixel und ist konstant, wobei auch andere Überlapplängen möglich sind
  • Der schraffierte Messbereich Mn ist der Bereich, der bei allen n = 4 mit der im Prüfkopf 101 angeordneten Kamera K0 erstellten Aufnahmen 1 bis 4 übereinstimmt.
  • Der in 10 dargestellte Rahmen bildet die Überlapplänge ΔSU zwischen mehreren Messbereichen Mn (ix ,iy ) oder zwischen zwei Kacheln. Die Überlapplänge ΔSU ist von Bedeutung, damit die mehreren Messbereiche Mn unter Berücksichtigung der Überlapplänge ΔSU aneinander angeordnet werden können.
  • Die 11 zeigt eine prinzipielle Darstellung mehrerer, sich mit der Überlapplänge ΔSU überlappender Messbereiche/Messfenster M(ix , iy), die eine Oberfläche eines Bauteils Bn mittels mehrerer Messbereiche/Messfenster M (ix ,iy ) und zweidimensional erfassen.
  • 12 zeigt eine Definition und Nomenklatur einer zweidimensionale ix , iy Anordnung von mehreren Messfenstern M(ix ,iy ) eines Bauteiles Bn innerhalb des erfindungsgemäßen Bildaufnahmeverfahrens.
  • Positionierung der Kamera K0 im Prüfkopf 101 in der Z-Richtung gegenüber einer gedachten Messebene der Oberfläche des Bauteils Bn :
  • 13 zeigt die Anordnung der Kamera K0 im Prüfkopf 101 in einer nicht tolerierbaren Neigung gegenüber dem zu prüfenden Bauteil Bn . Der durch das Trapez in 14 verdeutlichte Tiefenschärfebereich erfasst nicht vollständig den Messbereich/Messfenster M(ix ,iy ), da die rechte Ecke des Trapezes den Messbereich/Messfenster M(ix ,iy ) nicht innerhalb der Tiefenschärfe Δd erfasst.
  • Die Anforderung an die Ausrichtung der Kamera K0 in der Z-Richtung ist ortsabhängig. Allgemein gesehen wird dafür gesorgt, dass der Messbereich/Messfenster M(ix ,iy ), in der Tiefenschärfe Δd im Raum liegt.
  • Die Tiefenschärfe Δd liegt unter 10 mm. Die Kamera K0, mithin der Prüfkopf 101, wird erfindungsgemäß stets orthogonal zu dem Messbereich/Messfenster M(ix ,iy ) ausgerichtet, wobei eine Toleranz der Neigung +/- 1,5° eingehalten wird.
  • 14 zeigt die Anordnung der Kamera K0 im Prüfkopf 101 in einer korrekten orthogonalen Anordnung gegenüber dem zu prüfenden Bauteil Bn . Durch die Ausrichtung des Prüfkopfs 101 und somit der Kamera K0 in z-Richtung orthogonal zu dem Messbereich/Messfenster M(ix ,iy) ist sichergestellt, dass das die Tiefenschärfe Δd verdeutlichende Trapez in 15 die Oberfläche des Bauteils Bn im Messbereich beziehungsweise im Messfenster M(ix ,iy ) im Tiefenschärfebereich vollständig erfasst. Die rechte Ecke des Trapezes liegt jetzt im Vergleich zu 14 im Messbereich/Messfenster M(ix ,iy ) innerhalb der Tiefenschärfe Δd.
  • 15 zeigt eine Darstellung zur Erläuterung und zur Bedeutung der Positionierung der Kamera K0 im Prüfkopf 101 unter Berücksichtigung der Tiefenschärfe Δd in Bezug auf eine innerhalb des Bauteils Bn liegende gedachte Messebene innerhalb des Messfensters M(ix ,iy ).
  • Im Ausführungsbeispiel ist die Messebene eine x/y-Ebene. Es ist erkennbar, dass die Form des Bauteils Bn von einer ebenen Messebene in der x/y-Ebene abweicht.
  • Die Kamera K0 nimmt im Messbereich/Messfenster M(ix ,iy ) ein rechteckiges zweidimensionales Bild auf, wie in den beiden unter dem Bauteil Bn liegenden Zeilen mit mehreren Rechtecken gezeigt ist.
  • In der ersten Zeile liegen die Rechtecke ausgerichtet nebeneinander, während die Rechtecke in der zweiten Zeile zueinander verdreht angeordnet sind.
  • Es wird verdeutlicht, dass die Kamera K0 zur Erzeugung mehrerer Aufnahmen gegenüber dem Bauteil Bn derart über das Bauteil Bn geführt und ausgerichtet wird, dass die Aufnahmen im Ergebnis nicht zueinander verdreht werden. Über den Zeilen in der 13 sind mehrere Kamerapositionen der Kamera K0 angedeutet, deren Position gegenüber der Oberfläche des Bauteils Bn gemäß 14 im Tiefenschärfebereich Δd (vergleiche 14) geführt wird, so dass schließlich die gesamte Oberfläche des zu prüfenden Bauteils Bn durch zueinander unverdrehte Kameraaufnahmen im Tiefenschärfebereich Δd erfasst wird, die zudem in z-Richtung orthogonal zur Oberfläche angeordnet sind. Der Prüfkopf 101 des Roboters 100 sorgt durch einen entsprechenden Steueralgorithmus dafür, dass die Aufnahmen orthogonal in z-Richtung zur Oberfläche des Bauteils Bn und zueinander in einer gleichbleibenden Aufnahmerichtung, im Ausführungsbeispiel entlang der Fahrrichtung des Prüfkopfes 101 entlang der x-Achse ausgerichtet sind.
  • Taktung Shape-From-Shading:
  • 16 zeigt eine erfindungsgemäß vorgesehene Taktführung der vier Bildaufnahmen zwischen zwei aufeinanderfolgende Messungen beziehungsweise deren Messbereiche M1 (n=1) und M2 (n=2) innerhalb des Bildaufnahmeverfahrens mittels der Beleuchtungseinrichtung.
  • Definition und Nomenklatur:
  • Die Ortskoordinate einer Messung x, Bild y= Sx,y
    Bsp.:
    • S1.1 = erster Messbereich M1 und erste Bildaufnahme
    • S2.3 = zweiter Messbereich M2 und dritte Bildaufnahme

    Eine Strecke/Länge = □Sx
    Zeitpunkt Messung x, Bild y = tx,y
    Bsp.:
    • t1.1 = Zeitpunkt der ersten Bildaufnahme im ersten Messbereich M1
    • t2.3 = Zeitpunkt der dritten Bildaufnahme im zweiten Messbereich M3

    Zeitdauer = □tx
  • In 16 sind zwei (vergleiche 10) Messbereiche M1 (n=1) und M2 (n=2) mit der Überlapplänge ΔSU zwischen den beiden Messbereichen Mn (ix ,iy ) oder zwischen zwei so genannten Kacheln dargestellt. Die Überlapplänge ΔSU ist von Bedeutung, damit die mehreren Messbereiche Mn unter Berücksichtigung der Überlapplänge ΔSU aneinander angeordnet werden können.
  • Wesentlich ist, dass der durch einen roboterseitigen Master-Trigger R1 und einen roboterseitigen Master-Trigger R2 gesetzte Zeitpunkt des Beginns der Aufnahmen 1 bis 4 je Messbereich M1 (ix ,iy ) und M2 (ix ,iy ) wegsynchron, mithin in Abhängigkeit von dem zurückgelegten Weg s der Kamera K0, erfolgt. Die Trigger R1 und R2 werden nicht wie zumeist üblich zeitgesteuert gesetzt, sondern sie werden wegsynchron gesetzt. Das liegt daran, dass der Prüfkopf 101 des Roboters 100 nicht mit konstanter Geschwindigkeit über das Bauteil Bn fährt. Wenn der Prüfkopf 101 des Roboters 100 beispielsweise im Randbereich um das Bauteil Bn herumfährt, reduziert sich die Fahrgeschwindigkeit. Der wegabhängige Trigger R1 löst aus, dass der erste Messbereich M1 (ix ,iy ) aufgenommen wird. Der wegabhängige Trigger R2 löst aus, dass der zweite Messbereich M2 (ix ,iy ) aufgenommen wird. Bei einer zeitgesteuerten Triggerung wären die jeweiligen Überlappungslängen ΔSU nicht konstant, wenn sich die Fahrgeschwindigkeit des Prüfkopfs 101 des Roboters 100 zwischen zwei mit der Kamera K0 aufzunehmenden Messbereichen M1 und M2 ändert. Gemäß der Erfindung sind durch die wegsynchrone Triggerung die Überlappungslängen ΔSU konstant.
  • Beleuchtungsparameter:
  • 17 zeigt eine Definition und Nomenklatur der Beleuchtungsparameter innerhalb des Bildaufnahmeverfahrens mittels der Beleuchtungseinrichtung.
    ΔtB = Belichtungsdauer
  • In diesem Zeitraum wird ein Bild aufgenommen.
    ΔtLc = Beleuchtungsdauer mit konstantem Lichtstrom
  • Innerhalb der Beleuchtungsdauer ΔtLc muss die Belichtung in einer Belichtungsdauer ΔtB liegen. Mit anderen Worten: ΔtB muss im Intervall liegen.
    ΔtL = Beleuchtungsdauer.
  • Der Zeitraum, in dem die LED-Lampe angeschaltet ist.
    ΦνN = Nennlichtstrom der LED-Lampe
    ΦνNLED =Nennlichtstrom eines LED-Moduls
  • Folgende Werte werden bevorzugt eingestellt. Δ t B = 50 μ s
    Figure DE102017221649A1_0002
    Δ t Lc = 80 μ s
    Figure DE102017221649A1_0003
    Δ t L = 100 μ s
    Figure DE102017221649A1_0004
    Φ ν N = 25.000 lm / Lampe
    Figure DE102017221649A1_0005
    Φ ν NLED 4.000  bis 5000lm / LED Modul
    Figure DE102017221649A1_0006
  • Es wird vorgeschlagen, in der Zukunft verfügbare LED-Module mit noch höheren Leistungen einzusetzen, da durch weitere Leistungssteigerung des Nennlichtstrom ΦνNLED eines LED-Moduls eine weitere Verbesserung des Verfahrens gegenüber den LED-Modulen erreicht wird, die mit den derzeit verfügbaren LED-Lampen mit maximalem Nennlichtstrom ΦνN bestückt sind.
  • Nach dem Einschalten des Moduls aus Beleuchtungselementen 101B wird eine entsprechende Zeit (gemäß der ersten Rampe) benötigt, bis die Beleuchtungselemente 101B ihren Nennlichtstrom ΦνN = ihr konstantes Plateau erreicht haben. Danach bleibt der Nennlichtstrom ΦνN konstant. Nach dem Ausschalten der Beleuchtungselemente 101B fällt der Nennlichtstrom ΦνN (gemäß der zweiten Rampe) entsprechend wieder auf Null ab.
  • Eine Aufnahme erfolgt innerhalb der dargestellten Belichtungsdauer ΔtB des Plateaus innerhalb der Beleuchtungsdauer mit konstantem Lichtstrom ΔtLc , wodurch ein konstanter und somit vordefinierter Nennlichtstrom ΦνN für alle nacheinander folgenden Aufnahmen/Bilder gemäß dem Ausführungsbeispiel der Bilder 1 bis 4 bewirkt wird.
  • Trigger-Konzept:
  • 18 zeigt eine Darstellung eines Trigger-Konzeptes zur Bildverarbeitung der mittels der Beleuchtungseinrichtung innerhalb des Bildaufnahmenverfahrens aufgenommenen Bilder.
  • Mittels einer Graphikkarte GPU „graphics processing unit“.
  • Mittels eines integrierten Schaltkreises FPGA „field programmable gate array“.
  • Der Roboter 200 erzeugt ein Master-Trigger-Signal Rn , insbesondere R1 (vergleiche 16), sobald sich die Kamera K0 mithin der Prüfkopf 101 weggesteuert an der für die Aufnahme eines Bildes in der vorgesehenen Position befindet.
  • Das Master-Trigger-Signal Rn löst eine Triggerkette aus.
  • Zunächst wird mittels einer Slave-Triggers-LED die Beleuchtungseinrichtung gemäß dem ersten Beleuchtungsvorgang Ln ; L1 des Messbereichs Mn angesteuert und gestartet.
  • In einem kurzen zeitlichen Versatz wird eine Slave-Triggers-Kamera (vergleiche 17) gemäß dem Trigger Kn ; K1 die Kamera K0 angesteuert und gestartet, die eine erste Bildaufnahme K1 innerhalb des Plateaus von L1 macht.
  • Das aufgenommene Bild K1 wird von einem weiteren Trigger eines Zeitkontrollbausteines beispielsweise über einen Kamera-Link an einen FPGA-Framegrabber übertragen, wobei die Datenübertragung dem Zeitraum ΔtK entspricht. In diesem Zeitraum ΔtK kann keine weitere Bildaufnahme stattfinden, da die Kamera K0 die Daten erst an den FPGA-Framegrabber übertragen muss.
  • Die Vorgehensweise wiederholt sich Bild für Bild K2, K3, K4 gemäß dem zuvor stattfindenden Beleuchtungsvorgang L2, L3, L4 innerhalb eines Messbereichs Mn . Ein weiterer Messbereich Mn schließt sich an, der von einem nächsten Master-Trigger-Signal Rn+1 ausgelöst wird.
  • Trigger- und Kommunikationskonzept:
  • 19 zeigt eine Darstellung der Konfiguration einer Steuervorrichtung zur Durchführung des Verfahrens zur dynamischen Prüfung einer Bauteiloberfläche, insbesondere zur Darstellung der Datenverarbeitung des Trigger- und Kommunikationskonzeptes.
  • Softwarekonzept zur Auswertung:
  • 20 zeigt eine schematische Darstellung des zur Auswertung benötigten Softwarekonzeptes, insbesondere die Komponenten, die für die Datenverarbeitung zur Prüfung in den entsprechenden Taktzeiten (Anlagentakt) von Bedeutung sind.
  • Das Softwarekonzept umfasst die Infrastrukturfunktionalitäten für die Software , insbesondere für Bedienoberfläche „GUI“, eine Profibusanbindung „PROFIBUS“, Signalverarbeitung, insbesondere Eingänge und Ausgänge „I/O“, ein Fehlerbehandlungsbaustein zur „Fehlerbehandlung“, ein Logger, der auftretende Fehler loggt „Datei-Logger“ und einen Diagnosebaustein „Diagnostics“, der trotzdem auftretenden Fehler in dem Komponenten diagnostiziert und meldet.
  • Eine weitere Komponenten ist der FPGA, der für die Bildaufnahme, die Shape-from-Shading-Algorithmen, Filterfunktionen, Korrekturen, die ROI „region of interest“ und die Maskierung sowie die Erstellung der lokalen Koordinaten organisiert.
  • Die GPU findet aus den vorverarbeiteten Bildaufnahmen vom FPGA kommend die auf der Bauteiloberfläche gesuchten Fehler und klassifiziert die Fehler. Ferner ermittelt die GPU die globale Koordinate.
  • Dieser grundsätzliche Aufbau ist in den 21 bis 23 nochmals im Detail dargestellt.
  • Softwarekonzept FPGA-Funktionalität:
  • 21 zeigt eine schematische Darstellung des Softwarekonzeptes, insbesondere der FPGA-Funktionen gemäß den 19 und 20.
  • 21 zeigt die FPGA-Karte und graphisch aufbereitet noch einmal die einzelnen Schritte.
  • In einem ersten Schritt a) erfolgen mittels des FPGA die Bildaufnahmen Kn , K1, K2 , K3 , K4 .
  • In einem zweiten Schritt b) erfolgt im FPGA eine Verschiebungskorrektur der vorgeplanten überlagerten Messbereiche Mn , wobei neben der erläuterten vorgeplanten Überlappung ΔSU zusätzlich noch ungeplante Ungenauigkeiten, die aus der Roboterarmführung resultieren, korrigiert werden, indem die Bildaufnahmen Kn , K1 , K2 , K3 , K4 und die Messbereiche Mn untereinander „relativ zueinander ausgeschwommen“ werden. Die Verschiebungskorrektur kann nicht direkt im FPGA durchgeführt werden. Aus diesem Grund werden Einzelausschnitte der Bildaufnahmen Kn , K1 , K2 , K3 , K4 erstellt und an einen Prozessor, die CPU, übertragen, die in einer Schleife (vergleiche 23) die Verschiebungskorrektur berechnet, wobei das Ergebnis als Korrekturdaten an den FPGA zur Verschiebungskorrektur zurückgesendet (vergleiche Pfeile in 21 und 23) wird, so dass im FPGA die eigentliche Verschiebung durchgeführt werden kann.
  • In einem dritten Schritt c) erfolgt die Berechnung des Shape-from-Shading-Algorithmus, aus dem nach der Berechnung von p und q, der Albedo als Maß für das Rückstrahlvermögen von diffus reflektierenden, also nicht selbst leuchtenden Oberflächen abgeleitet werden kann.
  • Insbesondere können in den verschiedenen Messbereichen Mn die Albedo-Unterschiede ermittelt werden.
  • In einem vierten Schritt d) wird das Ergebnis mit entsprechenden Algorithmen gefiltert und korrigiert.
  • In einem fünften Schritt e) findet eine Analyse der Messbereiche Mn in Bezug auf ROI „region of interest“ und die Maskierung statt, das heißt, es werden alle nicht interessierenden Bereich weggeschnitten, so dass nur noch die interessierenden Bereiche vorliegen.
  • In einem sechsten Schritt werden die interessierenden Bereiche mit lokalen Koordinaten versehen, wie in 21 unter Punkt f) dargestellt ist. Somit liegen jetzt diejenigen lokalen Koordinaten vor, an denen auf der Bauteiloberfläche des entsprechenden Bauteils Bn relevante Oberflächenfehler vorliegen.
  • Dieses Ergebnis wird zur Berechnung an die CPU (vergleiche 19) weitergereicht, wobei die weitere Vorgehensweise in den 22 und 23 dargestellt ist.
  • Softwarekonzept GPU-Funktionalität:
  • 22 zeigt eine schematische Darstellung des Softwarekonzeptes, insbesondere der GPU-Funktionen gemäß den 19 und 20. Die Defekterkennung erfolgt in der GPU, welche die lokalen Koordinaten p, q, A aus dem FPGA erhält.
  • In einem weiteren Schritt g) erfolgt eine Defekterkennung. Mit anderen Worten, es werden potentielle Defekte Dn ; D1 , D2 , D3 identifiziert.
  • Diese potentiellen Defekte Dn ; D1 , D2 , D3 werden in einem Schritt h) nach bestimmten vorgebbaren Parametern, insbesondere der Größe, parametriert und in Fehlerklassen klassifiziert. Beispielsweise werden potentielle Defekte Dn ; D1 , D2 , D3 nur ab einer Größe von beispielsweise 40 Pixel als echte Defekte klassifiziert.
  • Sind beispielsweise „echte“ Defekte D1 und D3 im Schritt h) klassifiziert worden, werden in einem Schritt i) zu diesen Defekten D1 und D3 aus den lokalen Koordinaten eines Messbereichs Mn die globalen Koordinaten auf dem Bauteil Bn ermittelt, wie in 22 unter i) verdeutlicht wird.
  • Das heißt, die lokalen Koordinaten der Defekte D1 und D3 im jeweiligen zweidimensionalen Messbereich Mn werden dreidimensional auf die mehreren Messbereiche Mn des Bauteils Bn „gemappt“, so dass klar ist, wo die Defekte D1 und D3 genau im dreidimensionalen Raum auf dem eine dreidimensionale Freiform aufweisenden Bauteil Bn liegen.
  • Der in 22 unter i) dargestellte dreidimensionale Stoßfänger als Bauteil Bn weist somit beispielsweise zwei dreidimensional festgelegte Defekte D1 und D3 auf, die zweidimensional und lokal in der messbereichsweisen Analyse unter Zuhilfenahme des Shape-from-Shading-Algorithmus ermittelt werden.
  • Softwarekonzept CPU-Funktionalität:
  • 23 zeigt eine schematische Darstellung des Softwarekonzeptes, insbesondere der CPU-Funktionen gemäß den 19 und 20.
  • Über die CPU des Computers und die GUI des Computers wird gemäß 23 dafür gesorgt, dass dem Werker in einem Schritt j) die Defekte D1 und D3 visualisiert auf einem Monitor angezeigt werden, die in der GPU ermittelt worden sind.
  • In einem zusätzlichen letzten Schritt k) werden die Ergebnisse in Fehlertabellen unter entsprechender Lokalisierung mit Defektart und Defektgröße abgespeichert und zur Auswertung bereitgestellt.
  • Abschließend werden weitere Vorteile der Erfindung genannt.
  • Ein Vorteil besteht darin, dass das Prüfsystem 100 für verschiedene Anwendungsfälle, insbesondere für Bauteile Bn mit matten und glänzenden Oberflächen, einheitlich ist. Dadurch wird nicht stets ein neuer Entwicklungsaufwand für verschiedene Anwendungen benötigt und somit insgesamt minimiert.
  • Das Prüfsystem 100 und die zugehörigen Computerprogramme, insbesondere die Software, sind standardisiert und für verschiedene Anwendungen einsetzbar, wodurch ebenfalls eine Reduzierung der Kosten für die Einzelanwendung erreicht wird. Zudem wird eine Verbesserung der Wartung, Ersatzteilhaltung und des Supports erreicht.
  • Durch die durchgängig robotergeführte Ausgestaltung des Prüfsystems wird die Möglichkeit eröffnet, dass bei Systemänderungen, worunter Änderungen am Bauteiltyp und somit Änderungen der dreidimensionalen Freiform verstanden werden, nur Änderungen an den Computerprogrammen, insbesondere der Auswertung und Roboterprogrammierung, vorgenommen werden müssen. Das Prüfsystem 100 kann unverändert angewendet werden. Dadurch wird eine hohe Flexibilität des Prüfsystems 100 erreicht.
  • Zudem ist das Prüfsystem 100 durch die Dynamisierung, worunter die kontinuierlich Bewegung der Kamera K0 gegenüber dem Bauteil Bn oder umgekehrt bei dem Aufnehmen der Messbereichs-Bildfolge in einer bestimmten veränderbaren Geschwindigkeit VR verstanden wird, sehr schnell. Insbesondere werden variable einstellbare Prüfgeschwindigkeiten von 1000 mm/s und schneller erreicht. Dadurch können größere zu untersuchende Flächen in kurzen Zeiträumen überprüft werden. Bei der Prüfung der Oberflächen, insbesondere lackierter Oberflächen von Karosserien im Anlagentakt sind diese Vorteile von hoher Bedeutung. Bei einer typischen Taktzeit von 45 s pro Bauteil (Bn ) kann mit dem dynamisierten Prüfsystem 100 beziehungsweise der zugehörigen Prüfanordnung und dem zugehörigen Verfahren beispielsweise in einem Taktzeit von 45 s eine Bauteiloberfläche von ca. 7,5 m2 geprüft werden.
  • Zudem ist es, wie erläutert, möglich, robotergeführt dreidimensionales Konturfolgen von Freiformflächen zu untersuchen. Mit anderen Worten, Oberflächenprüfung gekrümmter Flächen ist möglich, insbesondere dynamisiert möglich.
  • Durch das vorgesehene System zur 6D-Lageerkennung des Bauteils Bn können sogar Bauteile Bn geprüft werden, deren Lage im Raum nicht eindeutig definiert ist. Eine exakte Bauteilpositionierung ist daher nicht unbedingt erforderlich.
  • Das dynamisierte Prüfsystem 100 beziehungsweise die zugehörige Prüfanordnung und das zugehörige Verfahren wird für die Oberflächenprüfung lackierter oder unlackierter Stoßfänger, insbesondere die Oberflächenprüfung von lackierten Karosserien im Bereich Personenkraftwagen und Nutzfahrzeugen, eingesetzt. Zudem ist der Einsatz der zugehörigen Prüfanordnung und des zugehörigen Verfahrens für die Oberflächenprüfung im Bereich von Komponenten, insbesondere von Zylinderkurbelgehäuse-Dichtflächen, Nockenwellenrahmen zugehörigen Dichtflächen, Zylinderkopfdichtflächen, Schwungscheibe, Bremsscheiben vorgesehen. Es können ferner Oberflächen von Bauteilen aus dem Bereich von elektrischen Haushaltsgeräten im Handel, insbesondere Küchengeräte und/oder Gastronomiegeräte und aus dem Bereich der Telekommunikation und dem Bereich der Unterhaltungselektronik geprüft werden.
  • Bezugszeichenliste
  • 100
    Prüfsystem
    200
    Roboter
    201
    Roboterarm
    SFS
    Shape-from-Shading
    T
    Bauteilträger
    B
    Bauteil
    Bn
    n-tes Bauteil
    101
    Prüfkopf
    K0
    Kamera
    101A
    Gehäuseteil
    101B
    Beleuchtungselement
    101B-1
    Diffussorelement
    101B-2
    Kühlkörper
    101C
    Elektronik
    101D
    Streukörper, Lichtverteiler (opake Halbkugel)
    101D-1
    Sichtöffnung
    101E
    Neigungsverstellelement
    101F
    Trägerplatte
    101G
    Lichtreflektor
    102
    Stereokamerasystem
    K1
    Kamera
    K2
    Kamera
    t
    Zeit
    Ln
    n-te Beleuchtungsvorgang in einem Messbereich Mn
    Δtb
    Belichtungszeit
    ΔtB
    Belichtungsdauer
    ΔtL
    Beleuchtungsdauer
    ΔtLc
    Beleuchtungsdauer mit konstantem Lichtstrom
    Φν
    Lichtstrom
    ΦνN
    Nenn-Lichtstrom
    LED
    Leuchtdiode
    ΦνNLED
    Nennlichtstrom eines LED-Moduls
    ΔsR
    Abweichung der Lage des Bauteils Bn zu einer Null-Position
    M(ix, iy)
    Messort, Messposition, Messfenster, Messbereich (zweidimensional)
    VR
    variable Geschwindigkeit des Roboterarms 201
    Δd
    Tiefenschärfe
    ΔSBx x ΔSBy
    Bildgröße
    ΔSMx; ΔSMy
    Messbereichsgröße
    ΔSA; ΔSA
    Aufnahmeversatz
    ΔSU
    Überlapplänge
    ΔsR
    Abstandsgenauigkeit
    x, y, z, α, β, γ
    Raumparameter zur 6D-Bauteillokalisierung
    Kn
    n-tes Bild
    ΔtH1
    Handhabungsdauer des ersten Bauteils B1
    ΔtH2
    Handhabungsdauer des ersten Bauteils B2
    ΔtPges
    Prüfdauer gesamt eines oder mehrerer Bauteile Bn
    ΔtP
    Prüfdauer pro Bauteil Bn
    ΔtM
    Messdauer
    Mn
    Anzahl der Messungen innerhalb der Prüfdauer pro Bauteil Bn , n = aufeinanderfolgende n-te Messung
    ΔtB
    Belichtungsdauer
    ΔtR
    Roboter(arm)bewegungsdauer
    ΔtK
    Kamera-Datenübertragungszeitraum
    Sx,y
    Ortskoordinate einer Messung x, Bild y
    ΔSx
    Strecke/Länge
    tx,y
    Zeitpunkt einer Messung x, Bild y
    Δtx
    Zeitdauer
    R1
    erster Trigger
    R2
    zweiter Trigger
    ΔtK
    Auslesezeitraum einer Aufnahme und Übertragungszeitraum
    Rn
    Mastertrigger Roboter
    Dn
    n-te potentielle Defekte
    p, q
    Albedo
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2004/051186 A1 [0006]
    • EP 1567827 B1 [0006]
    • DE 20317095 U1 [0007]
    • DE 102004038761 A1 [0008]
    • EP 1949673 B1 [0009, 0011]
    • EP 1864081 B1 [0010]
    • WO 2015/000898 A1 [0012]

Claims (21)

  1. Verfahren zur optischen Formerfassung und/oder Oberflächenprüfung eines Bauteils (Bn), insbesondere auf der Basis der Methode des Shape-from-Shading mit folgenden Schritten: - Anordnen von mindestens einer Kamera (K0), mindestens einem Beleuchtungselement (101B) und dem Bauteil (Bn) in einer Prüfanordnung derart, dass zumindest ein Bereich einer Bauteiloberfläche, der mindestens einem Messbereich (Mn) entspricht, von dem wenigstens einen Beleuchtungselement (101B) beleuchtet wird, - Aufnehmen einer Messbereichs-Bildfolge mittels der Kamera (K0) in mehreren Messbereichen (Mn) durch eine Bewegung der Kamera (K0) gegenüber dem Bauteil (Bn) oder umgekehrt, wobei die Messbereiche (Mn) der Bauteiloberfläche (3) in einer Bildebene der Kamera (K) abgebildet und gleichzeitig mit der Aufnahme der Bilder der Messbereichs-Bildfolge mit dem mindestens einen Beleuchtungselement (101B) in einem zugehörigen Beleuchtungsvorgang (Ln) beleuchtet werden, - Auswerten der aufgenommenen Bilder der Messbereichs-Bildfolge in mindestens einem der mehreren Messbereiche (Mn) der Bauteiloberfläche in Hinblick auf eine veränderte lokale Oberflächenneigung und/oder lokale optische Eigenschaften der Bauteiloberfläche dadurch gekennzeichnet, dass - die Bewegung der Kamera (K0) gegenüber dem Bauteil (Bn) oder umgekehrt bei dem Aufnehmen der Messbereichs-Bildfolge kontinuierlich vorgenommen wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Geschwindigkeit der kontinuierlichen Relativbewegung zwischen der Kamera (K0) und dem Bauteil (Bn) während der Aufnahme der mehreren Bilder (Kn) je Messbereich-Bild der Messbereichs-Bildfolge konstant ist.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Geschwindigkeit der Relativbewegung zwischen der Kamera (K0) und dem Bauteil (Bn) zwischen den Aufnahmen der mehreren Bilder (Kn) je Messbereich-Bild der Messbereichs-Bildfolge konstant oder variabel veränderbar ist.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die globale Lage des Bauteils (Bn) im Raum in einer Null-Position vor dem Aufnehmen der Messbereichs-Bildfolge mittels der Kamera (K0) dreidimensional erfasst und als Soll-Position gespeichert wird.
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Abstand des Bauteils (Bn) gegenüber der Kamera (K0) in Abhängigkeit der Bauteilgröße in einem vorgegebenen Abstand von der Soll-Position des Bauteils (Bn) erfolgt, wobei der vorgegebene Abstand während der kontinuierlichen Bewegung innerhalb einer vorgebbaren Abstandsgenauigkeit (ΔsR) eingehalten wird.
  6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass für jedes Bild der Messbereichs-Bildfolge mehrere Bilder (Kn) aufgenommen werden, die zu dem den mindestens einen Messbereich (Mn) repräsentierenden Messbereichs-Bild des Bauteils (Bn) zusammengesetzt werden.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Aufnahmen der mehreren Bilder (Kn) der Messbereichs-Bildfolge der mehreren zweidimensionalen Messbereiche (Mn) der erfassten Bauteiloberfläche zueinander eine Überlapplänge (ΔSU) aufweisen.
  8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass jedem Messbereich (Mn) ein zweidimensionaler Messort M(ix,iy) zugeordnet ist, in dessen gesamten Bildbereich mit der Bildgröße (ΔSBx × ΔSBy) der Messebene als Tiefenschärfebedingung maximal um die Tiefenschärfe von der Bauteilkontur des Bauteils (Bn) abweicht, wobei die Kamera (K0) orthogonal zu dem zweidimensionalen Messort M(ix,iy) ausgerichtet ist, und hinsichtlich der Orthogonalität eine vorgebbare Toleranz der Neigung gegenüber der Messebene eingehalten wird.
  9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass jede Aufnahme der mehreren Bilder (Kn) jedes Bild der Messbereichs-Bildfolge innerhalb einer Belichtungsdauer(ΔtB) auf einem Plateau mit konstantem Lichtstrom (ΔtLc) mit einem vordefinierten Nennlichtstrom (ΦνN) vorgenommen wird.
  10. Verfahren nach Anspruch 6 und 7, dadurch gekennzeichnet, dass der Beginn jeder ersten Aufnahme der mehreren Bilder (Kn) jedes Bildes der Messbereichs-Bildfolge durch einen Trigger (Rn) wegsynchron, in Abhängigkeit von der zurückgelegten Relativbewegung der Kamera (K0) gegenüber dem Bauteil (Bn) oder umgekehrt vorgenommen wird, so dass die Überlapplänge (ΔSU) konstant ist.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass ein Master-Trigger-Signal (Rn), sobald sich die Kamera (K0) in Abhängigkeit der wegsynchronen Steuerung an einer ersten Aufnahme der mehreren Bilder (Kn) jedes Bildes der Messbereichs-Bildfolge vorgesehenen Position befindet, eine Triggerkette auslöst, wobei mittels einer Slave-Triggers-Beleuchtung das mindestens eine Beleuchtungselement (101B) der mindestens einen Beleuchtungseinrichtung der zugehörige Beleuchtungsvorgang (Ln) und in einem zeitlichen Versatz eine Slave-Triggers-Kamera der Kamera (K0) angesteuert und gestartet wird, mittels der eine Bildaufnahme (Kn) innerhalb des Plateaus gemäß Anspruch 9 vorgenommen wird, wonach das nächste Master-Trigger-Signal (Rn+1) ausgelöst wird.
  12. Verfahren nach Anspruch 1 und 6, dadurch gekennzeichnet, dass - in einem ersten Schritt a) innerhalb eines integrierten Schaltkreises (FPGA) die Aufnahme der mehreren Bilder (Kn) jedes Bild der Messbereichs-Bildfolge erfolgt, und - in einem zweiten Schritt b) innerhalb des integrierten Schaltkreises (FPGA) eine Verschiebungskorrektur der vorgeplanten überlagerten Messbereiche (Mn) erfolgt, wobei neben der vorgeplanten Überlappung (ΔSU) zusätzlich ungeplante Ungenauigkeiten korrigiert werden, indem die Aufnahmen der mehreren Bilder (Kn) jedes Bild der Messbereichs-Bildfolge (Kn) und die Messbereiche (Mn) untereinander relativ zueinander durch eine Verschiebungskorrektur „ausgeschwommen“ werden, nachdem die Einzelausschnitte der Bildaufnahme (Kn) zur Berechnung einer Verschiebungskorrektur an einen Prozessor (CPU) übertragen wurden, wobei das Ergebnis als Korrekturdaten an den integrierten Schaltkreis (FPGA) zur Verschiebungskorrektur zurückgesendet werden, so dass im integrierten Schaltkreis (FPGA) die Verschiebung durchgeführt wird, und - in einem dritten Schritt c) nach dem Shape-from-Shading-Algorithmus die Berechnung des Albedo (A) als Maß für das Rückstrahlvermögen der Bauteiloberfläche des Bauteils (Bn) in dem mindestens einen der mehreren Messbereiche (Mn) abgeleitet wird, und - in einem vierten Schritt d) das Ergebnis der Berechnung des Shape-from-Shading-Algorithmus mit entsprechenden Filter- und Korrektur-Algorithmen gefiltert und korrigiert wird, und - in einem fünften Schritt e) eine Analyse der Messbereiche (Mn) in Bezug auf besonders interessierende Bereiche (ROI) und eine Maskierung vorgenommen wird, und - in einem sechsten Schritt f) die interessierenden Bereiche (ROI) mit lokalen Koordinaten versehen, die denen auf der Bauteiloberfläche des entsprechenden Bauteils (Bn) relevante Oberflächenfehler entsprechen, wobei die lokalen Koordinaten zur weiteren Berechnung an den Prozessor (CPU) weitergereicht werden.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass - in einem siebenten Schritt g) eine Defekterkennung erfolgt, in dem die potentiellen Defekte (Dn) identifiziert werden, und - in einem achten Schritt h) die potentiellen Defekten (Dn) nach bestimmten vorgebbaren Parametern, insbesondere der Größe, parametriert und in Fehlerklassen klassifiziert werden, und - in einem neunten Schritt h) von den potentiellen Defekten (Dn) ausgehend echte Defekte (Dn) klassifiziert werden, und - in einem zehnten Schritt i) zu diesen echten Defekten (Dn) aus den lokalen Koordinaten eines Messbereichs (Mn) die globalen Koordinaten gemäß der globalen Lage des Bauteils (Bn) nach Anspruch 2 ermittelt werden, wobei die lokalen Koordinaten der echten Defekte (Dn) im jeweiligen zweidimensionalen Messbereich (Mn) dreidimensional auf die mehreren Messbereiche (Mn) des Bauteils (Bn) „gemappt“ werden, so dass die echten Defekte (Dn) exakt im dreidimensionalen Raum auf dem eine dreidimensionale Freiform aufweisenden Bauteil (Bn) angeordnet sind, wobei - in einem elften Schritt j) die „gemappten“ echten Defekte (Dn) nach einer Übermittlung an eine Graphikkarte (GPU) visualisiert auf einem Monitor angezeigt werden, und - in einem letzten zwölften Schritt k) die „gemappten“ echten Defekte (Dn) in Fehlertabellen unter entsprechender Lokalisierung mit Defektart und Defektgröße abgespeichert und zur weiteren Auswertung bereitgestellt werden.
  14. Prüfkopf (101) mit einem Gehäuseteil (101A) zur optischen Formerfassung und/oder Oberflächenprüfung eines Bauteils (Bn) unter Verwendung des Verfahrens nach mindestens einem der Ansprüche 1 bis 13, umfassend - mindestens eine Kamera (K0) mit mindestens einem Objektiv zum Aufnehmen von Bilddaten mindestens eines Messbereichs-Bildes einer Messbereichs-Bildfolge einer Bauteiloberfläche des Bauteils (Bn), - mindestens ein schaltbares Beleuchtungselement (101B) als Lichtquelle zur Beleuchtung zumindest eines Bereichs der Bauteiloberfläche des Bauteils (Bn) während der Aufnahme des mindestens einen Messbereichs-Bildes, wobei - das mindestens eine Beleuchtungselement (101B) außerhalb des Nordpols eines halbkugelförmigen Streukörpers (101D) gegenüber einer Messebene (ΔSBx × ΔSBy) des Messbereichs-Bildes geneigt angeordnet ist, und - das mindestens eine Objektiv der Kamera (K0) gegenüber dem Streukörper (101D) derart angeordnet ist, dass das Objektiv der Kamera (K0) durch die Sichtöffnung (101D-1) des Streukörpers (101D) an seinem Nordpol den beleuchteten Bereich der Bauteiloberfläche des Bauteils (Bn) parallel zur Messebene (ΔSBx x ΔSBy) des Messbereichs-Bildes erfasst, dadurch gekennzeichnet, dass - dem mindestens einen Beleuchtungselement (101B) ein Diffussorelement (101B-1) zugeordnet ist, welches das von dem mindestens einen Beleuchtungselement (101B) ausgesendete Licht streut, welches anschließend in einem vorgebbaren Winkel auf eine Innenwand des Gehäuseteils (101A) trifft, wobei - die Innenwand des Gehäuseteils (101A) zur Streuung des Lichts beschichtet ist, so die Innenwand als Lichtreflektor (101G) und als Streuelement wirkt, und das gestreute Licht in einem Reflektionswinkel von der Innenwand abstrahlt, welches anschließend auf eine dem Bauteil (Bn) abgewandte Oberfläche des Streukörpers (101D) trifft, - wobei der Streukörper (101D) das durch ihn hindurchtretende Licht austrittsseitig des Streukörpers (101D) verteilt, welches auf den zu beleuchtenden Bereich der Bauteiloberfläche des Bauteils (Bn) trifft.
  15. Prüfkopf (101) nach Anspruch 14, dadurch gekennzeichnet, dass das mindestens eine Beleuchtungselement (101B) zur Neigungsverstellung gegenüber der Messebene (ΔSBx × ΔSB) des Bauteils (Bn) mindestens eine Neigungsverstellelement (101E) aufweist, das indirekt oder direkt mit dem Gehäuseteil (101A) in Verbindung steht.
  16. Prüfkopf (101) nach Anspruch 14, dadurch gekennzeichnet, dass das Diffussorelement (101B-1) an dem Beleuchtungselement (101B) angeordnet ist.
  17. Prüfkopf (101) nach Anspruch 14, dadurch gekennzeichnet, dass als Beschichtung der streuenden und reflektierenden Innenwand eine weißen Spezialfarbe ausgebildet ist, die auf ihrer Innenseite eine raue Oberfläche mit einer vorgebbaren Oberflächenrauigkeit aufweist.
  18. Prüfkopf (101) nach Anspruch 14, dadurch gekennzeichnet, dass die Wandstärke des halbkugelförmigen Streukörpers (101D) im unteren Teil - in Aquatornähe - in Richtung des oberen Teils - zum Nordpol hin - zum oberen Teil hin deutlich abnimmt.
  19. Prüfkopf (101) nach Anspruch 14, dadurch gekennzeichnet, dass das Gehäuseteil (101A) ein Hohlzylinder ist.
  20. Prüfanordnung, gekennzeichnet durch einen robotergestützt geführten Prüfkopf (101) nach mindestens einem der Ansprüche 14 bis 19 gegenüber einem zur optischen Formerfassung und/oder Oberflächenprüfung angeordneten Bauteil (Bn), wobei der Prüfkopf (101) zum Aufnehmen einer Messbereichs-Bildfolge mittels der Kamera (K0) in mehreren Messbereichen (Mn) des Bauteils (Bn) durch eine Bewegung der Kamera (K0) gegenüber dem Bauteil (Bn) oder umgekehrt durch den Roboter (200) geführt wird.
  21. Prüfanordnung nach Anspruch 20, dadurch gekennzeichnet, dass die globale Lage des Bauteils (Bn) zur 6D-Bauteillokalisierung im Raum (x, y, z,α, β, γ) mit einem System, insbesondere einem Stereokamerasystem (102), bestimmt und eine 6D-Referenzlage berechnet wird, wobei zumindest eine einmalige Kalibrierung zwischen einem Roboterarm (201) des Roboters (200) und dem System (102) durchgeführt wird, wodurch eine Referenzierung des Bauteils (Bn) im dreidimensionalen Raum in seiner Soll-Position gegenüber dem robotergestützten geführten Prüfkopf (101) in einer vorgebbaren Abstandskonstanz zwischen Prüfkopf (101) und Bauteiloberfläche des Bauteils (Bn) vorliegt.
DE102017221649.2A 2017-12-01 2017-12-01 Prüfverfahren zur Detektion von Oberflächenfehlern auf matten und glänzenden Flächen und zugehörige Vorrichtung sowie Prüfanordnung zwischen Vorrichtung und Bauteil Pending DE102017221649A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017221649.2A DE102017221649A1 (de) 2017-12-01 2017-12-01 Prüfverfahren zur Detektion von Oberflächenfehlern auf matten und glänzenden Flächen und zugehörige Vorrichtung sowie Prüfanordnung zwischen Vorrichtung und Bauteil

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017221649.2A DE102017221649A1 (de) 2017-12-01 2017-12-01 Prüfverfahren zur Detektion von Oberflächenfehlern auf matten und glänzenden Flächen und zugehörige Vorrichtung sowie Prüfanordnung zwischen Vorrichtung und Bauteil

Publications (1)

Publication Number Publication Date
DE102017221649A1 true DE102017221649A1 (de) 2019-06-06

Family

ID=66548255

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017221649.2A Pending DE102017221649A1 (de) 2017-12-01 2017-12-01 Prüfverfahren zur Detektion von Oberflächenfehlern auf matten und glänzenden Flächen und zugehörige Vorrichtung sowie Prüfanordnung zwischen Vorrichtung und Bauteil

Country Status (1)

Country Link
DE (1) DE102017221649A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207833A1 (de) * 2019-05-28 2020-12-03 Volkswagen Aktiengesellschaft Prüfverfahren zur Detektion von Oberflächenfehlern auf matten und glänzenden Flächen und zugehörige Vorrichtung sowie Prüfanordnung zwischen Vorrichtung und Bauteil
EP3795344A1 (de) * 2019-08-13 2021-03-24 Skoda Auto a.s. Presslinie und verfahren der kontrolle der gepressten teile auf dieser linie
CN112917248A (zh) * 2021-02-03 2021-06-08 宁夏巨能机器人股份有限公司 一种缓速器柔性加工生产线
CN117825521A (zh) * 2024-03-05 2024-04-05 沈阳华钛实业有限公司 一种航空零部件缺陷检测装置及其检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE20317095U1 (de) 2003-11-07 2004-03-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Erkennung von Oberflächenfehlern
WO2004051186A1 (de) 2002-11-29 2004-06-17 OBE OHNMACHT & BAUMGäRTNER GMBH & CO. KG Verfahren und vorrichtung zur optischen formvermessung und/oder beurteilung
DE102004038761A1 (de) 2004-08-09 2006-02-23 Daimlerchrysler Ag Kamera-basierte Objektprüfung mittels Shape-from-Shading
EP1864081A1 (de) 2005-03-24 2007-12-12 OBE Ohnmacht & Baumgärtner GmbH & Co. KG Vorrichtung zur optischen formerfassung von gegenständen und oberflächen
EP1949673A1 (de) 2005-11-10 2008-07-30 OBE Ohnmacht & Baumgärtner GmbH & Co. KG Kamerachip, kamera und verfahren zur bildaufnahme
WO2015000898A1 (de) 2013-07-01 2015-01-08 Sac Sirius Advanced Cybernetics Gmbh Verfahren und vorrichtung zur optischen formerfassung und/oder prüfung eines gegenstandes

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004051186A1 (de) 2002-11-29 2004-06-17 OBE OHNMACHT & BAUMGäRTNER GMBH & CO. KG Verfahren und vorrichtung zur optischen formvermessung und/oder beurteilung
EP1567827A1 (de) 2002-11-29 2005-08-31 OBE Ohnmacht & Baumgärtner GmbH & Co. KG Verfahren und vorrichtung zur optischen formvermessung und/oder beurteilung
DE20317095U1 (de) 2003-11-07 2004-03-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Erkennung von Oberflächenfehlern
DE102004038761A1 (de) 2004-08-09 2006-02-23 Daimlerchrysler Ag Kamera-basierte Objektprüfung mittels Shape-from-Shading
EP1864081A1 (de) 2005-03-24 2007-12-12 OBE Ohnmacht & Baumgärtner GmbH & Co. KG Vorrichtung zur optischen formerfassung von gegenständen und oberflächen
EP1949673A1 (de) 2005-11-10 2008-07-30 OBE Ohnmacht & Baumgärtner GmbH & Co. KG Kamerachip, kamera und verfahren zur bildaufnahme
WO2015000898A1 (de) 2013-07-01 2015-01-08 Sac Sirius Advanced Cybernetics Gmbh Verfahren und vorrichtung zur optischen formerfassung und/oder prüfung eines gegenstandes

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207833A1 (de) * 2019-05-28 2020-12-03 Volkswagen Aktiengesellschaft Prüfverfahren zur Detektion von Oberflächenfehlern auf matten und glänzenden Flächen und zugehörige Vorrichtung sowie Prüfanordnung zwischen Vorrichtung und Bauteil
EP3795344A1 (de) * 2019-08-13 2021-03-24 Skoda Auto a.s. Presslinie und verfahren der kontrolle der gepressten teile auf dieser linie
CN112917248A (zh) * 2021-02-03 2021-06-08 宁夏巨能机器人股份有限公司 一种缓速器柔性加工生产线
CN117825521A (zh) * 2024-03-05 2024-04-05 沈阳华钛实业有限公司 一种航空零部件缺陷检测装置及其检测方法
CN117825521B (zh) * 2024-03-05 2024-05-07 沈阳华钛实业有限公司 一种航空零部件缺陷检测装置及其检测方法

Similar Documents

Publication Publication Date Title
DE102010029319B4 (de) Vorrichtung zur Messung einer dreidimensionalen Form und Verfahren dazu
DE102017221649A1 (de) Prüfverfahren zur Detektion von Oberflächenfehlern auf matten und glänzenden Flächen und zugehörige Vorrichtung sowie Prüfanordnung zwischen Vorrichtung und Bauteil
DE112011103090B4 (de) Berührungsloses Messsystem und Sensorgerät mit einer auf einem mikro-elektro-mechanischen System basierenden Lichtquelle
DE60025221T2 (de) Optisches inspektionssystem für teile im subpixel bereich
EP2515101B1 (de) Verfahren zur Planung einer Inspektionsbahn und zur Bestimmung von zu inspizierenden Bereichen
DE102008040947B4 (de) 3D-Dentalkamera zur Erfassung von Oberflächenstrukturen eines Messobjekts mittels Triangulation
AT507018B1 (de) Vorrichtung zur prüfung von gegenständen
EP2202508B1 (de) Inspektionsvorrichtung
EP3167260B1 (de) Verfahren zur richtungsabhängigen messung mindestens einer lichttechnischen oder radiometrischen kenngrösse einer optischen strahlungsquelle
WO2012156448A1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
EP1716410A1 (de) Verfahren und system zur inspektion von oberflächen
EP2993464B1 (de) Vorrichtung und verfahren zur qualitätskontrolle transparenter objekte
WO2016188871A1 (de) Vorrichtung und verfahren zur optischen erfassung von innenwandungen
WO2006042535A1 (de) System und verfahren zum vermessen eines körpers und zum überwachen von dessen oberfläche
EP1057323A1 (de) Kamera tracking system für ein virtuelles fernseh- oder videostudio
DE102017212371B4 (de) Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene
DE102013212827B4 (de) Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes
DE102012104745B4 (de) Prüfverfahren und hierzu geeigneter Prüfkopf
DE10317078B4 (de) Verfahren und Vorrichtung zur Analyse reflektierender Oberflächen
EP3910314B1 (de) Verfahren und vorrichtung zur analyse der wechselwirkung zwischen einer oberfläche einer probe und einer flüssigkeit
EP3640582A1 (de) System und verfahren zum prüfen der form eines prüfobjekts
DE102020201476A1 (de) Inspektionsvorrichtung
DE102013200135B4 (de) Telezentrisches Abbildungssystem
EP0979796A1 (de) Vorrichtung und Verfahren zur zweidimensionalen Bestimmung von Lastpendelungen und/oder Rotationen an einem Kran
DE102019207833A1 (de) Prüfverfahren zur Detektion von Oberflächenfehlern auf matten und glänzenden Flächen und zugehörige Vorrichtung sowie Prüfanordnung zwischen Vorrichtung und Bauteil

Legal Events

Date Code Title Description
R163 Identified publications notified