DE102013103252A1 - Erhöhung der Messgenauigkeit bei einer Vermessung mit Lichtschnittsensoren durch gleichzeitige Kalibrierung und Reduzierung von Speckles - Google Patents

Erhöhung der Messgenauigkeit bei einer Vermessung mit Lichtschnittsensoren durch gleichzeitige Kalibrierung und Reduzierung von Speckles Download PDF

Info

Publication number
DE102013103252A1
DE102013103252A1 DE102013103252.4A DE102013103252A DE102013103252A1 DE 102013103252 A1 DE102013103252 A1 DE 102013103252A1 DE 102013103252 A DE102013103252 A DE 102013103252A DE 102013103252 A1 DE102013103252 A1 DE 102013103252A1
Authority
DE
Germany
Prior art keywords
image data
light
light section
resulting
raw image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102013103252.4A
Other languages
English (en)
Other versions
DE102013103252B4 (de
Inventor
Albert Sedlmaier
Bernard Poks
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Data M Sheet Metal Solutions GmbH
Original Assignee
Data M Sheet Metal Solutions GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Data M Sheet Metal Solutions GmbH filed Critical Data M Sheet Metal Solutions GmbH
Priority to DE102013103252.4A priority Critical patent/DE102013103252B4/de
Publication of DE102013103252A1 publication Critical patent/DE102013103252A1/de
Application granted granted Critical
Publication of DE102013103252B4 publication Critical patent/DE102013103252B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und eine Meßvorrichtung (1) zur Vermessung eines Prüflings mit in der Meßvorrichtung (1) angeordneten Lichtschnittsensoren, wobei während der Vermessung über Referenzen im Prüfling oder Referenzmarker neben dem Prüfling, die in einem gemeinsamen Messerfassungsbereich des Lichtschnittsensors von einer ersten und einer zweiten Position aus angeordnet sind, eine Kalibrierung der Bilddaten erfolgt. Durch die Kalibrierung werden die Messdaten der ersten und der zweiten Position und von nachfolgenden Positionen korrekt in einem gemeinsamen Koordinatensystem abgebildet. Zur Reduzierung von Speckles oder Interferenzen, die durch Laser-Licht an reflektierenden Oberflächen entstehen, wird die jeweilige Lichtschnittebenen der jeweiligen Position mit mindestens einem ersten und einem verschiedenen, zweiten Lichtstrahlbündeln erzeugt, deren jeweilige erste und zweite Rohbilddaten durch einen Algorithmus verrechnet werden zu jeweiligen resultierenden Bilddaten, worin Speckles deutlich reduziert abgebildet sind.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Vermessung eines Strangprofils mit mindestens einem Lichtschnittsensor von verschiedenen Positionen aus. Dabei werden Messwerte von der einen Position mit anderen Messwerten von der anderen Position aus anhand von gemeinsamen Referenzen durch eine Recheneinheit korreliert und kalibriert. Speckles, die durch Verwendung von Laser-Licht als Reflexion an einer Oberfläche des Strangprofils entstehen, werden durch geeignete Maßnahmen reduziert.
  • DE 103 28 523 beschreibt ein Verfahren und eine Meßvorrichtung für eine berührungslose Vermessung einer Oberflächenkontur eines Prüflings nach einem Laser basierten Lichtschnittverfahren (Triangulationsprinzip), wie beispielsweise für die berührungslose Vermessung eines Schienenprofils für Eisenbahnen. Dabei sind in eine Laserlinie, die von Lichtschnittsensoren auf das Schienenprofil projiziert wird, zwecks Kalibrierung mehrere Referenzmarker zwischen dem Schienenprofil und dem jeweiligen Sensor angeordnet, wobei die Referenzmarker in einer Ebene liegen und einen bekannten Abstand zueinander haben. Daraufhin werden die mittels Kamerasystem vermessenen Referenzmarker dazu verwendet, eine Transformationsmatrix zu berechnen, um damit das Bild einer Vermessungslinie des Schienenprofils zu entzerren. Die genaue Justierung der in einer Ebene liegenden Referenzmarker in die Ebene eines ausgesendeten Laserstrahlbündels ist jedoch diffizil und nur für einen festen Verbund der Lichtschnittsensoren und den Referenzmarkern gedacht. Durch das Laser-Licht erzeugte Speckles an den Oberflächen begrenzen die Messgenauigkeit.
  • US 7 679 757 beschreibt eine Vorrichtung und ein Verfahren für eine berührungslose Vermessung einer Oberflächenkontur nach dem Laser basierten Lichtschnittverfahren beispielsweise eines Strangprofils, das durch eine Sensor-Vorrichtung geschoben wird. Dabei ermöglicht die Sensorvorrichtung die Vermessung der Oberfläche des Strangprofils während einer Produktion, so dass die Produktionsparameter während eines Produktionsprozesses entsprechend nachgestellt werden können. Dabei sind ein oder mehrere Sensoren auf einer ringartigen Vorrichtung montiert, so dass das Stangen- oder Schienenprofil von allen Seiten anhand seiner Oberfläche vermessen werden kann. Die Sensoren sind dabei radial, entlang eines Kreisbogens und nach innen auf das Strangprofil gerichtet angeordnet.
  • Die Kalibrierung der Sensorvorrichtung erfolgt zeitweise unter Einbringen eines speziellen Kalibrierkörpers, die jedoch nicht während des Produktionsprozesses geschehen kann.
  • DE 100 17 463 beschreibt eine Vorrichtung und ein Verfahren für die berührungslose Vermessung einer Oberflächenkontur nach dem Laser basierten Lichtschnittverfahren, bei der das zu vermessende Objekt gleichzeitig mit feststehenden Referenzmarkern vermessen wird. Dabei wird das Bild von dem zu vermessenden Objekt und gleichzeitig von den feststehenden Referenzmarkern durch einen halbdurchlässigen Spiegel erzielt. Die feststehenden Referenzmarker sind dabei in einem definierten und konstanten Abstand zu den Sensoren zu halten.
  • DE 690 03 090 beschreibt eine Vorrichtung und ein Verfahren für die Kalibrierung eines beweglichen Laser-Lichtschnittsensors, der beispielsweise an einem Roboterarm befestigt ist und zu Messzwecken um den Prüfling herum bewegt wird. Zur Kalibrierung wird ein definiertes Kalibrierobjekt bekannter Abmaße an einer definierten Stelle im Raum platziert und abgetastet, um aus diesen Messwerten dann eine Korrekturmatrix für die Entzerrung bzw. Korrektur der Messergebnisse zu erzeugen. Während einer Kalibrierung ist der Laser-Lichtschnittsensor jedoch dem Kalibierobjekt hin zu bewegen und steht für diese Zeit nicht für Messungen zur Verfügung. Das Kalibrierobjekt und der Roboterarm müssen über die Zeit in einem definierten Abstand gehalten werden.
  • US 7 679 757 B1 beschreibt ein 360 Grad Messsystem bestehend aus Laser-Lichtschnittsensoren, die zirkular um beispielsweise ein Strangprofil herum angeordnet sind und diese vermessen. Dabei kann das Messsystem durch ein Kalibrierobjekt, das kurzzeitig in die Mitte des gemeinsamen Messerfassungsbereichs eingebracht wird, kalibriert werden. Andererseits ist das Messsystem auch so ausgelegt, ein bekanntes Profil zu erkennen und zugeordnete Messwerte relativ dazu auszugeben.
  • US 2004 0 202 364 A1 beschreibt ein Kalibrierobjekt bzw. ein Referenzobjekt und ein Verfahren zur drei-dimensionalen Kalibrierung eines Messsystems bestehend aus einer Stereo-Fotografie-Einheit, die um den Messgegenstand zusammen mit dem im Bild angeordneten Kalibrierobjekt herum bewegt wird. Das Kalibrierobjekt bzw. Referenzobjekt weist eine Vielzahl an Referenzpunkten auf, deren jeweils mindestens sechs von jeder seitlichen Lage aus zu erkennen sind.
  • WO 92/08 103 A1 beschreibt ein Verfahren und eine Vorrichtung mit dem bzw. mit der ein Kalibrierkörper, dessen Maße in einem Rechner abgespeichert sind, in die Messbereiche von verwendeten Kameras gebracht wird, um so Entzerrungskorrekturen für die jeweiligen Kamerabilddaten rechentechnisch durchführen zu können. Hierfür sind jedoch bekannte Kalibrierkörper notwendig. Differenzen der Messergebnisse zwischen einem Kamerabild und einem benachbarten Kamerabild können dabei durch Messfehler des Kalibrierkörpers immer noch auftreten.
  • WO 2005/106 384 A1 beschreibt ein Verfahren und eine dazugehörige Vorrichtung, die einen optischen Sensor an einer Roboterhand und zusätzliche Messpunkte (Target) aufweist, die für die Kalibrierung des optischen Sensors dienen. Die genaue Lage der Messpunkte im Raum wird dabei durch eine zusätzliche nahe bei angeordnete Messeinrichtung bestimmt.
  • DE 103 35 472 A1 beschreibt eine Vorrichtung, die einen Vermessungssensor an einer Roboterhand aufweist, der über einen weiten Bereich bewegt werden kann und damit einen großen Messbereich aufweist. Dazu muß die Lage und Richtung des Vermessungssensors bekannt sein, die beispielsweise über Gelenksensoren oder aber auch über eine optische Vermessung bekannter Marken berechnet werden kann.
  • US 6,078 846 A beschreibt einen Roboterarm auf dem eine Kamera, die auf dem Lichtschnittverfahren basierend misst, angebracht ist und einen Gegenstand vermisst. Die Kamera ist dabei von verschiedenen Positionen aus mittels vorhandener Kalibrierobjekte kalibrierbar. Als Kalibrierobjekte werden hierbei Tetraeder (target structure) eingesetzt, die eine bestimmte Position im Nutzerkoordinatensystem haben, worauf die Kamera somit eingestellt werden kann. Hierfür sind jedoch besondere Kalibrierobjekte notwendig, und Differenzen der Messergebnisse zwischen einem Kamerabild und einem anderen Kamerabild von einer anderen Position aus können durch Messfehler des Kalibrierkörpers immer noch auftreten.
  • DE 10 2011 000 304 A1 beschreibt ein Verfahren und eine Meßvorrichtung gemäß dem Oberbegriff der vorliegenden Erfindung. Dabei wird ein Querschnitt des Strang- oder Blechwalzprofils von mehreren Positionen aus um das Strangprofil herum vermessen, wobei während der Vermessung gleichzeitig über gemeinsame Referenzen und/oder Referenzmarker in einem jeweils benachbarten Messerfassungsbereich eine Kalibrierung des jeweiligen Sensors an der jeweiligen Position durchgeführt wird. Durch die Verwendung eines Laser-Lichts zur Erzeugung der Lichtschnittebene treten Speckles auf, die die Messung stören.
  • Um für den Lichtschnittsensor eine dafür notwendige Lichtschnittebene als entsprechendes Lichtstrahlbündel mit hoher Lichtintensität, geringer Breite, hoher Tiefe und Tiefenschärfe und einer möglichst geringen Wärmeverlustleistung zu erzeugen, wird im Stand der Technik eine Laser-Lichtquelle verwendet. Durch das Laser-Licht werden an den reflektierenden Oberflächen jedoch die sogenannten Speckles erzeugt, die durch Interferenzen an der Oberflächenrauigkeit der Oberfläche entstehen und die die Messgenauigkeit somit begrenzen bzw. Messfehler verursachen.
  • Das Strangprofil soll möglichst während einer kontinuierlichen Herstellung in der Walzprofilieranlage über deren Oberfläche als Querschnitt kontinuierlich vermessen werden. Dadurch können anhand der Messergebnisse sofort parametrische Korrekturen in der Walzprofilieranlage vorgenommen werden. Wünschenswert ist eine Vermessung des Strangprofiles oder des Prüflings in der Meßvorrichtung von mehreren Seiten oder Perspektiven aus, mit allen wesentlichen Oberflächen und Rundungen. Dafür kommen entweder mehrere Sensoren oder mindestens ein beweglicher, in der Meßvorrichtung verfahrbarer Sensor in Betracht. Ebenso könnte das Strangprofil oder der Prüfling in der Meßvorrichtung gedreht werden, die auch eine Tisch-Meßvorrichtung mit einem Drehteller sein kann.
  • Zudem soll eine einmal hergestellte Genauigkeit der Meßvorrichtung mit gewissen Toleranzen möglichst gut beibehalten werden, die maßgeblich von Temperaturschwankungen, Vibrationen und von mechanischen Schocks beeinträchtigt wird. Genaue und langzeitstabile Sensoren mit einer guten Messgenauigkeit über einem Temperaturbereich sind meist teuer und empfindlich. Dabei sind temperaturbedingte oder Langzeit-Messabweichungen im Wesentlichen durch eine temperaturbedingte Winkelveränderung eines Licht- oder Laserstrahlbündels bedingt, die sich im Wesentlichen als Offset und nur weniger in einer Skalierung auswirken. Die Genauigkeit kann bekanntlich durch eine periodische Kalibrierungen wiederhergestellt werden.
  • Hinsichtlich der Messgenauigkeit ist es wünschenswert, Speckles möglichst zu vermeiden oder weitgehend zu reduzieren.
  • Zusammenfassung der Erfindung
  • Daher besteht eine Aufgabe der vorliegenden Erfindung, um die Nachteile aus dem Stand der Technik zu vermeiden, in der Bereitstellung eines Verfahrens und einer Meßvorrichtung basierend auf einem Lichtschnitt-Messverfahren zu einer kontinuierlichen Vermessung einer Oberfläche eines Prüflings entlang einem Querschnitt des Prüflings von mindestens zwei Perspektiven aus, wobei durch Laser-Licht auftretende Speckles und dadurch bedingte Messfehler möglichst weitgehend reduziert werden sollen.
  • Die vorstehende Aufgabe sowie weitere der Beschreibung zu entnehmende Aufgaben werden von einem Verfahren und einer Meßvorrichtung zur Vermessung einer Oberfläche eines Strangprofils gemäß den kennzeichnenden Merkmalen der unabhängigen Ansprüche 1 bzw. 8 gelöst.
  • Es wird ein Verfahren und eine dazugehörige Meßvorrichtung zur Verfügung gestellt, das oder die eine Vermessung einer Oberfläche eines Prüflings, wie beispielweise eines Strangprofils durch mindestens einen Lichtschnittsensor von mindestens zwei Positionen oder Messperspektiven aus erlaubt, wobei während der Vermessung des Prüflings auch gleichzeitig eine erneute Kalibrierung des mindestens einen Lichtschnittsensors erfolgen kann. Durch die erneute Kalibrierung wird eine Langzeitstabilität und somit die Genauigkeit der Vermessung erhöht, und es können somit auch kostengünstigere Sensor-Komponenten mit einer geringeren Langzeitstabilität oder Langzeit-Genauigkeit für die Meßvorrichtung gewählt werden.
  • Indem erfindungsgemäß mit dem Lichtschnittsensors als einem Laser-Lichtschnittsensor von einer jeweiligen Position aus eine Vermessung sowohl mit einem ersten Lichtstrahlbündel zur Erzeugung erster Rohbilddaten, als auch eine Vermessung mit einem anderen, zweiten Lichtstrahlbündel zur Erzeugung zweiter Rohbilddaten vorgenommen wird, treten zwischen den ersten und den zweiten Rohbilddaten unterschiedliche Speckles-Muster auf. Auf diese Weise lassen sich durch einen Algorithmus bereinigte, resultierende Bilddaten erzeugen, die ein wesentlich geringeres Speckles-Muster aufweisen. Zur Erzeugung des ersten und des zweiten Lichtstrahlbündels können verschiedene Wellenlängen verwendet werden. Bevorzugt können aber auch durch eine unterschiedliche Polarisationsebene des Laserlichts die unterschiedlichen Speckles Muster erzeugt werden. Auch beide Verfahren in Kombination sind denkbar, wodurch sich noch mehr Variationsmöglichkeiten für eine Veränderung der Speckles zwischen den ersten und den zweiten Rohbilddaten erzeugen lassen. Eine solche Vorrichtung ist relativ einfach und kostengünstig umsetzbar, wenn beispielsweise ein farblich steuerbarer Laser und/oder ein elektrisch steuerbarer Polarisator verwendet werden.
  • Insbesondere durch die bevorzugte Anordnung eines Hadamard Diffusors lassen sich Speckles noch effektiver in den ersten und zweiten Rohbilddaten und in den resultierenden Bilddaten reduzieren. Indem bevorzugt die Speckles in den ersten Rohbilddaten ausgewertet werden und daraufhin eine zweite Konfiguration des Hadamard Diffusors für die Erzeugung des zweiten Lichtstrahlbündels vorgenommen wird, können Speckles noch besser unterdrückt oder gemittelt werden.
  • Ins besondere kann auch durch die Reduktion der Speckles eine Kontur oder der Laserlichtschnitt wesentlich besser und genauer vermessen werden. Auch ist eine genauere Messung von relativ kleinen Referenzen oder Referenzmarkern dadurch möglich, die wesentlich für die Bestimmung der Transformationsmatrix ist, um die resultierenden Bilddaten genauer kalibrieren zu können, als ohne die Speckles-Reduktion.
  • Durch den Algorithmus zur Speckles-Reduktion können aus den ersten und den zweiten Rohbilddaten die resultierenden Bilddaten mit schärferen und glatteren Rändern berechnet werden. Bevorzugt werden beispielsweise durch den Algorithmus punktartige Minima in den jeweiligen ersten Rohbilddaten erkannt und an den Stellen der punktartigen Minima durch Werte aus den zweiten Rohbilddaten ersetzt. Bevorzugt kann der Algorithmus auch einen Mittelwert der jeweiligen Pixel der ersten und der zweiten Rohbilddaten berechnen und als die resultierenden Bilddaten erzeugen.
  • Bevorzugt kann das Verfahren auch weiter verbessert werden, indem eine dritte und/oder weitere Wellenlänge oder Polarisation ausgesendet, erfasst und zu einer weiteren Reduktion der Speckles verwendet wird.
  • Weitere bevorzugte Verbesserungen können durch eine Nano-Verschiebung des Lichtschnittsensors oder eines darin enthaltenen Kamerasensors oder der Laser-Lichtquelle und eine nachfolgende weitere Vermessung und Verrechnung durch den Algorithmus erzeugt werden.
  • Ebenso können weitere Verbesserungen durch eine Nano-Verschiebung in Längs- oder in Querrichtung zum ausgesendeten Strahlengang und eine nachfolgende weitere Vermessung und Verrechnung durch den Algorithmus erzeugt werden.
  • Auch die Nano-Verschiebungen lassen sich einfach und kostengünstig durch beispielsweise Piezo-Aktuatoren, auf denen der Kamerasensor oder die Laser-Lichtquelle montiert ist, erzeugen. Auf dem entsprechenden Piezo-Aktuator kann bevorzugt auch der gesamte Lichtschnittsensor angeordnet und damit bewegt werden. Auch kann durch mehrere parallel angeordnete Piezo-Aktuatoren eine Platte leicht in einer Richtung geschwenkt werden, wodurch der Lichtstrahl sich um die Nano-Verschiebung entlang dem strangprofil bewegen kann.
  • Bevorzugte Nano-Verschiebungen liegen im Bereich von 0,5–1 Wellenlängen. Andere bevorzugte Nano-Verschiebungen liegen im Bereich von 1–5 Wellenlängen oder im Bereich von 1–20 Wellenlängen.
  • Bevorzugt kann eine Vermessung mit zwei Wellenlängen auch gleichzeitig vorgenommen werden, wobei beispielsweise durch einen Farbkamerasensor zwei oder drei Rohbilddaten für jeden der Farbsensoren der Kamera erzeugt werden. Die ersten und zweiten Rohbilddaten können auch in einem Paket an Rohbilddaten enthalten sein, wie beispielsweise in einem Farbbild.
  • Durch all diese Möglichkeiten werden Speckles oder Interferenzen, die durch das an der Oberfläche reflektierte Licht auftreten reduziert oder kompensiert. Ergebnis ist eine höhere Messgenauigkeit bzw. eine kleinerer Messfehler.
  • Weitere vorteilhafte Ausbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben.
  • Eine bevorzugte Ausführungsform gemäß der vorliegenden Erfindung ist in nachfolgenden Zeichnungen und in einer detaillierten Beschreibung dargestellt, soll aber die vorliegende Erfindung nicht darauf begrenzen.
  • Kurzbeschreibung der Zeichnungen
  • 1 ist eine perspektivische Ansicht einer Meßvorrichtung basierend auf dem Lichtschnittmessverfahren zur Vermessung einer Oberfläche eines Strangprofils, das aus einer Walzvorrichtung durch die Meßvorrichtung hindurch geschoben wird.
  • 2 ist eine schematische Ansicht der Meßvorrichtung zur Vermessung der Oberfläche des Strangprofils, in der vier Lichtschnittsensoren in einem inkrementellen Winkel von 90 Grad entlang eines Kreisrings um den Querschnitt des Strangprofils nach innen hin gerichtet angeordnet sind.
  • 3 zeigt den Querschnitt des Strangprofils, das sich von dem der 2 unterscheidet, mit vier darum herum angeordneten Referenzmarkern und mit angedeuteten Strahlengängen von einer ersten Messperspektive des jeweiligen Lichtschnittsensors aus.
  • 4 zeigt den Querschnitt des Strangprofils mit den darum herum angeordneten Referenzmarkern und mit den Strahlengängen von einer zweiten Messperspektive des jeweiligen Lichtschnittsensors aus.
  • 5 zeigt den Querschnitt des Strangprofils mit den darum herum angeordneten Referenzmarkern und mit Strahlengängen von einer weiteren Messperspektive des jeweiligen Lichtschnittsensors aus.
  • 6 zeigt eine Seitenansicht eines inneren Aufbaus des Lichtschnittsensors mit einer Grundplatte, auf der über einen Piezo-Aktuator eine Laser-Lichtquelle angeordnet ist, die in longitudinaler Richtung des Laser-Lichts verschoben werden kann.
  • 7 zeigt eine Seitenansicht eines anderen inneren Aufbaus des Lichtschnittsensors mit der Grundplatte du einer darauf angeordneten Laser-Lichtquelle, wobei das Laser-Licht durch ein optisches Laufzeitelement in der Phase veränderbar ist.
  • 8 zeigt eine Seitenansicht eines gewöhnlichen inneren Aufbaus des Lichtschnittsensors mit der Grundplatte, wobei entweder der Lichtschnittsensor oder das Strangprofil in der Höhe verschoben wird.
  • 9 zeigt einen schematischen Ablauf zur Bestimmung von Rohbilddaten, von resultierenden Bilddaten und von zusammengeführten Messdaten des Prüflings.
  • Detaillierte Beschreibung eines Ausführungsbeispiels
  • 1 zeigt eine dreidimensionale Ansicht einer bevorzugten Meßvorrichtung 1 zur Vermessung eines Prüflings und insbesondere dabei eines Strangprofils 2, das durch die Meßvorrichtung 1 hindurch geleitet wird. Bevorzugt sind in der Meßvorrichtung 1 mehrere Lichtschnittsensoren S1–S4 an einer jeweiligen Position um das Strangprofil 2 herum so angeordnet, dass sie zur Mitte hin ausgerichtet sind, wo sich das Strangprofil 2 befindet, dessen Oberfläche 20 vermessen werden soll. Bevorzugt sind die Lichtschnittsensoren S1–S4 in einer Ebene orthogonal zum Strangprofil 2 und damit in der Ebene des Querschnitts des Strangprofils 2 angeordnet, um den Querschnitt zu vermessen. Bevorzugt sind die Lichtschnittsensoren S1–S4 in der Messvorrichtung 1 dabei auf einer kreisrunden Vorrichtung 11 um das Strangprofil herum angeordnet. Anstelle mehrerer Lichtschnittsensoren S1–S4 kann auch nur ein Lichtschnittsensor S1–S4 oder wenige Lichtschnittsensoren S1–S4 verfahrbar auf der Vorrichtung 11 angeordnet werden, der vor einer jeweiligen Messung an die jeweilige Position gefahren wird. Ebenso ist es natürlich vorstellbar, die Lichtschnittsensoren S1–S4 entlang einer ovalen oder rechteckigen Anordnung oder Vorrichtung 11 zu positionieren oder zu verfahren, um beispielsweise einen länglichen Querschnitt des Strangprofils besser vermessen zu können.
  • Wenn auf der Vorrichtung 11 entweder mehrere Lichtschnittsensoren S1–S4 positioniert sind oder der mindestens eine Lichtschnittsensor S1–S4 verfahren wird, muss deren jeweilige genaue Position zunächst nicht zwangsläufig bekannt sein, da die genauen Positionen zueinander später durch eine Kalibrierung berechnet werden können. Die Anordnung der Lichtschnittsensoren S1–S4 entlang der Vorrichtung 11 (2) erfolgt so, dass ein möglichst großer und relevanter Teil der Oberfläche 20 des Strangprofils 2 von den Lichtschnittsensoren S1–S4 messtechnisch erfasst wird.
  • Die Erfassung der Oberfläche 20 durch die Lichtschnittsensoren S1–S4 erfolgt nach dem Triangulations-Messprinzip, wobei der jeweilige Lichtschnittsensor S1–S4 ein Lichtstrahlbündel, welches in einer Ebene liegt, auf die Oberfläche 20 des Strangprofils 2 aussendet und ein daran reflektiertes Licht wiederum messtechnisch unter einem bestimmten Winkel zum Lichtstrahlbündel erfasst. Das ausgesendete Lichtstrahlbündel, welches in einer Eben liegt, wird auch als Lichtschnittebene bezeichnet. Dabei wird das Lichtstrahlbündel oder die Lichtschnittebene von einem Linienprojektor erzeugt.
  • Die Anordnung des mindestens einen Lichtschnittsensors S1–S4 erfolgt so, dass die Lichtschnitte von der jeweiligen Position aus so erzeugt werden, dass sie im Wesentlichen in einer gemeinsamen Ebene liegen und nur so weit voneinander parallel beabstandet sind, dass sie sich gegenseitig bei einer Messung nicht stören. Bevorzugt werden die Lichtschnittebenen bzw. deren Lichtstrahlbündel benachbarter Positionen kurz nacheinander erzeugt, um sich dadurch gegenseitig nicht zu stören und dennoch in einer gemeinsamen Ebene liegen zu können. Bevorzugt ist die gemeinsame Ebene der Lichtschnitte so ausgelegt, dass sie im Wesentlichen senkrecht zum Strangprofil (2) verläuft.
  • In einer weiteren bevorzugten Ausführungsform der Meßvorrichtung 1 können der mindestens eine Lichtschnittsensor S1–S4 in der Vorrichtung 11 um einen Winkel Phi verfahren werden, oder das Strangprofil 2 gedreht werden, um dadurch eine andere Ausleuchtung und einen anderen Messerfassungsbereich zu erzeugen und letztlich Hinterschneidungen des Strangprofils besser vermessen zu können.
  • Zur Kalibrierung sind in der Meßvorrichtung 1 im Inneren zwischen den Lichtschnittsensoren S1–S4 und dem Strangprofil 2 Referenzmarker 3134 angeordnet, die zusammen mit dem Strangprofil 2 vermessen werden. Die Referenzmarker 3134 sind bevorzugt in der Meßvorrichtung 1 so angeordnet, dass sie möglichst wenig vom zu vermessenden Strangprofil 2 abschatten.
  • Indem das Strangprofil 2 in Z-Richtung durch die Meßvorrichtung 1 geleitet und bevorzugt von allen Seiten aus vermessen wird, ist das Strangprofil 2 als quasi 3D-Oberflächenprofil vermessbar. Im Falle, dass bei einem Strangprofil 2 Teile des Oberflächenprofils 20 durch Hinterschneidungen abgeschattet werden, wie es in 3 und 4 der Fall ist, können diese Teile durch Lichtschnittsensoren S1–S4 nicht vermessen werden.
  • Zu einer Richtungsdefinition ist in 1 ein Koordinatensystem eingezeichnet. Das Strangprofil 2, das durch die Lichtschnittsensoren gemessen wird, liegt also in der X-Y-Ebene, wobei hierbei die angestrahlten Außenkanten messtechnisch erfasst werden können. Indem das Strangprofil 2 bei quasi kontinuierlicher Messung durch die Meßvorrichtung 1 geleitet wird, wird ein dreidimensionales Oberflächenbild davon erhalten.
  • In 2 ist eine schematische Seitenansicht einer bevorzugten Ausführungsform der Meßvorrichtung 1 dargestellt, die die Vorrichtung 11 mit vier darauf angeordneten Lichtschnittsensoren S1–S4 und eine Anordnung mit vier Referenzmarkern 3134 am Rande eines bevorzugt gemeinsamen Messerfassungsbereichs der Lichtschnittsensoren S1–S4 umfasst. Als gemeinsamer Messerfassungsbereich wird dabei jeweils ein Messerfassungsbereich bezeichnet, der jeweils von zwei benachbart angeordneten Lichtschnittsensoren S1–S4 erfasst wird. In der Mitte der Meßvorrichtung 1 und bevorzugt in dem gemeinsamen Messerfassungsbereich ist das zu vermessende Strangprofil 2 angeordnet. Das Strangprofil 2 ist dabei als Querschnitt mit den nach außen gerichteten Oberflächensegmenten 2124 dargestellt. Die Oberflächensegmente 2124 bilden dabei im Wesentlichen die Oberfläche 20 des Strangprofils 2, wenn keine Abschattungen oder Hinterschneidungen vorliegen, was im vorliegenden Beispiel nicht der Fall ist. Die Referenzmarker 3134 sind bevorzugt als Metallstreifen ausgebildet und an einem äußeren Bereich 4 des jeweiligen gemeinsamen Messerfassungsbereichs radial nach innen gerichtet angeordnet. Dadurch schatten sie das Strangprofil 2 nicht ab und liegen dennoch alle zumindest teilweise im jeweiligen gemeinsamen Messerfassungsbereich der jeweils benachbarten Lichtschnittsensoren S1–S4.
  • Die Vorrichtung 11, auf der die Lichtschnittsensoren S1–S4 angeordnet sind, besitzt in der bevorzugten Ausführungsform eine Öffnung 12, durch die ein Strangprofil auch von der Seite aus eingeführt werden kann. Diese Öffnung 12 ist nicht zwangsläufig nötig, da das Strangprofil 2 kontinuierlich durch die Meßvorrichtung 1 geleitet werden kann, ohne dass zwischendurch zum Zwecke einer Kalibrierung das Strangprofil 2 herausgenommen werden und dann wieder hineingebracht werden müsste. In einer bevorzugten Anordnung der Meßvorrichtung 1 kann diese beispielsweise an einem Ende einer Walzvorrichtung oder an einer anderen Produktionsanlage für eine Herstellung des Strangprofils 2 angeordnet sein.
  • Die Kalibrierung der Meßvorrichtung mit den jeweiligen benachbart angeordneten Lichtschnittsensoren S1–S4 wird bevorzugt so vorgenommen, dass vorhandene Referenzen im zu vermessenden Strangprofil 2 und zusätzliche Referenzmarker 3134, die von den Lichtschnittsensoren S1–S4 aus den jeweiligen Messperspektiven gemeinsam erfasst werden, zur Kalibrierung verwendet werden. Dabei werden die erfassten mindestens zwei Referenzen und/oder Referenzmarker in den erfassten Bilddaten des jeweiligen Lichtschnittsensors S1–S4 von der jeweiligen Position aus zu einer Überlagerung gebracht. Die Überlagerung der Bilddaten durch Drehung und Verschiebung in x/y-Richtung wird dabei so durchgeführt, dass die jeweils erfassten Teile der Referenzen und/oder Referenzmarker 3134 zusammen optimal überlagert werden. Für eine Berechnung der optimalen Überlagerung wird bevorzugt ein Least-Mean-Square-Verfahren angewendet. Aus der bestimmten Drehung und Verschiebung wird eine jeweilige Transformationsmatrix berechnet, die ausgebildet ist, die Bilddaten der zweiten Position zu kalibrierten Bilddaten der zweiten Position zu transformieren, indem die kalibrierten Bilddaten der zweiten Position und die Bilddaten der ersten Position richtig in einem gemeinsamen Koordinatensystem abgebildet werden können. Die Korrektur durch die Transformationsmatrix umfasst dabei eine entsprechende Drehung und Verschiebung. Durch die Transformationsmatrix werden also die Bilddaten des jeweiligen, benachbarten Lichtschnittsensors S1–S4 in kalibrierte Bilddaten umgewandelt, um die Bilddaten der vorangegangenen oder ersten Position mit den kalibrierten Bilddaten der benachbarten, nachfolgenden oder zweiten Position in einem gemeinsamen Koordinatensystem richtig abzubilden.
  • Als Referenzen im Strangprofil 2 und als Referenzmarker 3134 können bevorzugt Formen, wie beispielsweise Geraden, Kreise und/oder Kreissegmente dienen, die von mindestens zwei Messperspektiven aus gut erfasst werden können. Falls im Strangprofil 2 beispielsweise Geradensegmente in einer entsprechenden Winkellage vorliegen, die von mindestens zwei jeweiligen Messperspektiven aus erfasst werden können, können diese als die Referenzen herangezogen werden. Ansonsten werden, wie oben beschrieben, die Referenzmarker 3134 zusätzlich in dem gemeinsamen Messerfassungsbereich angeordnet. Dabei ist als der gemeinsame Messerfassungsbereich bevorzugt ein äußerer Bereich 4 gewählt, der in 2 als gestrichelte Linie gezeichnet ist, und gerade noch von benachbarten Lichtschnittsensoren S1–S4 erfasst wird. Dabei sind eine Form und eine Dicke der Referenzmarker 3134 bevorzugter Maßen bekannt. Die Referenzmarker 3134 werden, um den inneren Messerfassungsbereich, wo sich das zu vermessende Strangprofil befindet, möglichst wenig abzuschatten, bevorzugt als dünne, blechartige Streifen ausgelegt, die in dem äußeren Bereich 4 bevorzugt als vier Referenzmarker 3134 gleichverteilt und radial nach innen gerichtet angeordnet sind.
  • Abstände der Referenzen und der Referenzmarker 3134 zueinander müssen nicht zwangsläufig bekannt sein, solange sie aus den verschiedenen Messperspektiven bzw. von den Messerfassungsdaten der jeweiligen Lichtschnittsensoren S1–S4 eindeutig zuordenbar sind.
  • Für eine Offsetkorrektur der jeweiligen Lichtschnittsensoren S1–S4 sind jeweils mindestens zwei Referenzen bzw. Referenzmarker notwendig, die von den benachbarten Lichtschnittsensoren S1–S4 gemeinsam erfasst werden können. Dabei eignen sich als benachbarte Referenzen und Referenzmarker S1–S4 bevorzugt solche, die eine nicht parallele Geradenform aufweisen, da die Geradenform jeweils per Mustererkennungsverfahren gut erkannt wird und eindeutig extrapoliert werden kann. Durch zwei nicht parallele Geraden und durch einen berechneten Schnittpunkt der Geraden können die Winkellage und der Abstand zum jeweiligen Lichtschnittsensor S1–S4 eindeutig bestimmt und bei der Kalibrierung korrigiert werden. Idealerweise werden von zwei benachbarten Lichtschnittsensoren S1–S4 noch eine zusätzliche Referenzmarke erfasst, die möglichst weit entfernt von den übrigen zwei Referenzmarkern ist, um dadurch einen Einfluss von Messrauschen zu reduzieren bzw. um die Genauigkeit der Ortung und Überlagerung der Referenzmarker 3134 zu erhöhen.
  • An dieser Stelle wird nochmals bemerkt, dass sich ein Temperatureinfluss auf die Lichtschnittsensoren S1–S4 und eine Alterung hauptsächlich nur auf deren Offset der Bilddaten oder Rohbilddaten auswirken, wobei die Skalierung der Mess- bzw. der Rohbilddaten im Wesentlichen unverändert bleibt. Zur Klarheit werden als Rohbilddaten die Daten verstanden, die unmittelbar vom Kamerasensor des jeweiligen Lichtschnittsensors erzeugt werden; als Bilddaten werden dabei irgendwie verarbeitete Rohbilddaten verstanden. Zur Kalibrierung des Offsets werden also als Referenzen oder Referenzmarker 3134 nur zwei Geradenabschnitte in dem gemeinsamen Messerfassungsbereich benötigt, um Drehwinkel und die Verschiebung bezüglich des gemeinsamen Koordinatensystems zu bestimmen.
  • Zur Vollständigen Kalibrierung der Offsets und der Skalierung werden mindestens drei Referenzen oder Referenzmarker 3134 im jeweiligen gemeinsamen Messerfassungsbereich benötigt, deren Abstände zueinander bekannt und kalibriert sind. Auf diese Weise können auch Fehler aus Kettenmaßen reduziert werden.
  • Bevorzugt werden für einen Abgleich von benachbarten Lichtschnittsensoren S1–S4 mindestens jeweils zwei gemeinsam erfassbare Referenzmarker 3134, die die Form von Blechstreifen aufweisen und als Geraden oder Geradenabschnitte messtechnisch gut erfassbar sind, zur Bestimmung der Transformationsmatrix verwendet.
  • Bevorzugt sind die Referenzmarker 3134 so ausgebildet, dass mindestens einer davon eine Kodierung aufweist. Durch die Kodierung sind die Referenzmarker 3134 in den Rohbilddaten oder Bilddaten identifizierbar, um eine eindeutige Zuordnung der Referenzmarker in den verschiedenen Bilddaten zu erhalten. Eine solche Kodierung kann beispielsweise durch eine zusätzliche Rundung oder Abkantung am Referenzmarker vorgesehen werden oder der Referenzmarker 3134 kann auch eine eindeutig andere Ausrichtung als die anderen haben. Anstelle dessen können aber für eine richtige Ausrichtung bzw. Drehung der Rohbilddaten oder der Bilddaten im Koordinatensystem auch Grobpositionen der Lichtschnittsensoren S1–S4 bekannt sein, so dass eine Zuordnung durch eine Berechnung von geringsten Abständen, beispielsweise per Least Mean Square Verfahren, erfolgen kann. Zusätzlich können auch signifikante Referenzen im Strangprofil 2 zur Findung der Zuordnung der Referenzmarker 3134 verwendet werden.
  • Erfindungsgemäß ist der mindestens eine Lichtschnittsensor S1–S4 ein Laser-Lichtschnittsensor, mit dem von der jeweiligen Position aus eine Vermessung des Strangprofils zusammen mit den Referenzen und/oder den Referenzmarkern sowohl unter Aussendung eines ersten Lichtstrahlbündels als der Lichtschnittebene, als auch unter Aussendung eines anderen zweiten Lichtstrahlbündels als der Lichtschnittebene vorgenommen wird. Bei der Aussendung des ersten Lichtstrahlbündels wird das Laser-Licht bevorzugt mit einer ersten Wellenlänge ausgesendet und gleichzeitig gemessen, und bei der Aussendung des zweiten Lichtstrahlbündels wird das Laser-Licht bevorzugt mit einer anderen zweiten Wellenlänge ausgesendet und gemessen. So können durch die unterschiedliche Wellenlänge des Laser-Lichts unterschiedliche Rohbilddaten einer ansonsten gleichen Vermessung gewonnen werden, die entsprechend nur unterschiedliche der Messung überlagerte Speckles Muster aufweisen. „Speckles” sind bekanntlich Interferenzmuster, die durch ein reflektiertes Licht an einer rauhen Oberfläche, die mit kohärentem Laser-Licht bestrahlt wird, auftreten und ein eigentlich gewünschtes Bild, das in diesem Zusammenhang die Lichtschnittlinie darstellt, überlagern. Scharfe Abbildungen beispielsweise einer Kante werden durch Speckles gestört. Als die Speckles wird dabei eine punktartige Hell-Dunkel-Verteilung in den aufgenommenen Rohbilddaten bezeichnet. Die punktartige Hell-Dunkel-Verteilung kommt dabei durch die verschiedenen Auslöschungen und gleichphasigen Überlagerungen als Interferenzen eines kohärenten Laser-Lichts zustande. Die Verteilung der Speckles ist dabei naturgemäß von der Wellenlänge des Lichts und von der Polarisation wie auch von der Oberfläche 20, an der reflektiert wird, abhängig. Bevorzugt liegen die erste und die zweite Wellenlänge aus Gründen der Arbeitssicherheit in einem sichtbaren Wellenlängenbereich von 380–780 nm. Bevorzugt kann die erste und/oder die zweite Wellenlänge aber auch im IR-Bereich mit einer höheren Wellenlänge liegen. Eine Verwendung von höherfrequentem UV-Licht ist ebenso vorstellbar, wobei eine Auflösung besser wird, abgesehen von den Speckles.
  • Somit lassen sich erste Rohbilddaten, die bei der Vermessung mit dem ersten Lichtstrahlbündel gewonnen werden, und zweite Rohbilddaten, die bei der Vermessung mit dem zweiten Lichtstrahlbündel gewonnen werden, vergleichen und bereinigte resultierende Bilddaten mit reduzierten Speckles daraus gewinnen. Mit jeder bevorzugten weiteren Vermessung mit einem anderen, weiteren Lichtstrahlbündel werden entsprechend weitere Rohbilddaten erzeugt.
  • Die resultierenden Bilddaten werden durch einen Algorithmus aus den ersten und den zweiten Rohbilddaten gewonnen, und bevorzugt können dabei auch noch die weiteren Rohbilddaten zur Bestimmung verbesserter, resultierender Bilddaten verwendet werden, die der Algorithmus auf gleiche oder ähnliche Weise verarbeitet.
  • Dabei ist der Algorithmus so ausgebildet, dass bevorzugt Speckles Muster in jeweiligen Rohbilddaten erkannt werden und pixelweise durch Vergleich der Rohbilddaten oder Mittelwertbildung zwischen den Rohbilddaten bereinigt oder reduziert werden. Zugrundegelegt wird dabei, dass in den ersten Rohbilddaten eine erste Verteilung der Speckles und in den zweiten Rohbilddaten eine entsprechend andere, zweite Verteilung der Speckles vorliegt, bei ansonsten gleichen Bilddaten der Vermessung. Der Algorithmus wird dabei bevorzugt durch ein Field-Programmable-Array oder eine Recheneinheit ausgeführt um die resultierenden Bilddaten zu erzeugen.
  • Bevorzugt können anstelle von unterschiedlichen Wellenlängen in dem ersten und zweiten Lichtstahlbündel zur Erzeugung der Lichtschnittebene an der jeweiligen Position auch unterschiedliche Polarisationen oder Polarisationsebenen verwendet werden. Dabei werden das erste Laser-Lichtstrahlbündel mit einer ersten Polarisationsebene und das zweite Laser-Lichtstrahlbündel mit einer anderen, zweiten Polarisationsebene erzeugt. Bevorzugt wird dabei die zweite Polarisationsebene mit einem Winkel von > 45 Grad Unterschied zur ersten Polarisationsebene erzeugt. Besonders bevorzugt wird die zweite Polarisationsebene orthogonal zur ersten Polarisationsebene erzeugt.
  • Bevorzugt können dabei auch das erste Laser-Lichtstrahlbündel mit einer ersten Wellenlänge und einer ersten Polarisationsebene und das zweite Laser-Lichtstrahlbündel mit einer anderen, zweiten Wellenlänge und mit einer anderen zweiten Polarisationsebene erzeugt werden.
  • Bevorzugt werden auch das erste und das andere zweite Lichtstrahlbündel gleichzeitig ausgesendet und empfangen. Beispielsweise können dabei das erste und das andere zweite Lichtstrahlbündel durch eine Farbkamera empfangen werden. Dabei sind die ersten Rohbilddaten und die zweiten Rohbilddaten bevorzugt in Farbbilddaten eines Farbbildes als Rohbilddaten enthalten, wie beispielsweise in RGB Bilddaten. Eine gleichzeitige Aussendung der ersten und zweiten Lichtstrahlbündel mit beispielsweise zwei verschiedenen Polarisationen und/oder Wellenlängen und ein Empfang des reflektierten Lichtschnitts durch das jeweilige an der Oberfläche 20 reflektierte Licht mit einem entsprechend für den Empfang ausgebildeten Kamerasensor 53 ist ebenso denkbar.
  • Die so gewonnenen resultierenden Bilddaten beispielsweise einer ersten Position und einer benachbarten zweiten Position werden dann zur Bestimmung der Verschiebung und des Drehwinkels der resultierenden Bilddaten der benachbarten zweiten Position zur ersten Position verwendet. Dabei werden die jeweils darin erfassten Referenzen und/oder Referenzmarker 3134 durch eine Recheneinheit in Bezug gesetzt. Aus der somit bestimmten Verschiebung und dem Drehwinkel wird die Transformationsmatrix berechnet. Bevorzugt kann die Transformationsmatrix beispielsweise auch direkt aus den ersten und den zweiten resultierenden Bilddaten berechnet werden. Danach werden die zweiten resultierenden Bilddaten durch die Transformationsmatrix in die kalibrierten zweiten Bilddaten bzw. in kalibrierte resultierende zweite Bilddaten umgewandelt. Die kalibrierten zweiten Bilddaten werden dann bevorzugt zusammen mit den resultierenden ersten Rohbilddaten in einem gemeinsamen Koordinatensystem abgebildet.
  • Bevorzugt wiederholt sich die Messprozedur nach der ersten und der zweiten benachbarten Position für mindestens eine weitere dritte Position, wobei die dritte Position einen gemeinsamen Messerfassungsbereich mit der zweiten Position und ebenfalls mindestens zwei Referenzen und/oder Referenzmarker (3134) darin aufweist. Dabei wird bevorzugt mit nächsten resultierenden dritten Bilddaten in gleicher Weise verfahren, indem eine nächste Transformationsmatrix für die resultierenden dritten Bilddaten im Vergleich zu den kalibrierten zweiten Bilddaten bestimmt wird und daraus kalibrierte dritte Bilddaten bestimmt werden. Für nächste Positionen wird analog verfahren, indem die kalibrierten Bilddaten der jeweils vorangegangenen Position für eine jeweilige Kalibrierung verwendet werden. Zur Klarheit sei hier angemerkt, dass bei der dritten Position im Ablauf zur Erzeugung der Transformationsmatrix dazu die kalibrierten Bilddaten der zweiten Position als die Bezugsdaten gelten, gegen die eine Verschiebung und Drehung der resultierenden Bilddaten der dritten Position berechnet werden.
  • Der Algorithmus ist bevorzugt ausgebildet, um jeweilige Maximalwerte oder Mittelwerte für die jeweiligen Pixel der ersten und zweiten und ggf. weiterer Bilddaten zu bestimmen und als die resultierenden Bilddaten auszugeben. Dadurch werden verschiedene Speckles-Verteilungen in den jeweiligen Rohbilddaten aus der gleichen Position besser gleichverteilt oder bevorzugt deren Minima reduziert. Bevorzugt können auch Interferenzmaxima in den jeweiligen Bilddaten reduziert oder kompensiert werden, wie beispielsweise durch eine Mittelwertbildung. Bevorzugt wird der Mittelwert dabei als arithmetischer, quadratischer oder Median-Mittelwert gebildet. Bevorzugt können ebenso oder zusätzlich maximum likelihood estimation Methoden als Algorithmus eingesetzt werden, um Maxima und Minima in einem jeweiligen Bild zu schätzen und entsprechend zu kompensieren. Durch den Algorithmus können aus den ersten und den zweiten Rohbilddaten resultierende Bilddaten mit schärferen und glatteren Rändern bestimmt werden, wodurch sich der Messfehler verringert. Bevorzugt werden auch weitere Rohbilddaten mit einer weiteren Wellenlänge von der jeweiligen selben Position in den Algorithmus eingespeist, um so beispielsweise aus drei verschiedenen Rohbilddaten die resultierenden Bilddaten zu gewinnen. Zudem können auch andere Rohbilddaten zudem für die Bestimmung durch den Algorithmus verwendet werden.
  • Bevorzugt werden von der jeweiligen Position aus zusätzlich weitere Rohbilddaten erfasst, wobei die weiteren Bilddaten nach einer gesteuerten Nano-Verschiebung des jeweiligen Lichtschnittsensors erfasst werden, wobei die Nano-Verschiebung durch mindestens einen Aktuator 51 erzeugt wird. Beispielsweise kann der Aktuator dabei ein Piezo-Aktuator sein, auf dem der Lichtschnittsensor in der Messvorrichtung angeordnet ist. Als Aktuator 51 kann aber auch ein Hubmagnet, eine steuerbarer elongierbarer Kunststoff oder ein anderer Längen-Aktuator eingesetzt werden. Ein Vibrator als schwingungserzeugender Aktuator ist dabei ebenso vorstellbar. Die Nano-Verschiebung wird dabei entweder in Richtung des Laser-Lichtstrahlengangs oder quer dazu erzeugt. Eine Nano-Verschiebung ist dabei allgemein eine Verschiebung bevorzugt in einem Bereich von 200–500 nm. Bevorzugt kann die Nano-Verschiebung auch im Bereich von 500–1000 nm liegen. Bevorzugt liegt die Nano-Verschiebung in einem Bereich von 0,5–1 oder 1–5 oder 1–20 Wellenlängen. Besonders bevorzugt liegt die Nano-Verschiebung im Bereich von 0,5–1 Wellenlänge. Bevorzugt ist die Nano-Verschiebung dabei so klein, dass sie beim Vergleich der ersten, zweiten oder weiterer Rohbilddaten und bei der Mittelwertbildung oder Auswertung durch den Algorithmus nicht als Messfehler ins Gewicht fallen. Größere Verschiebungen sind ebenso denkbar und müssten als Rohbilddaten entsprechend verarbeitet werden. Dabei werden die erfassten, weiteren Rohbilddaten ebenfalls durch den Algorithmus zur Bestimmung der resultierenden Bilddaten berücksichtigt.
  • Alternativ oder kombiniert kann die Nano-Verschiebung des Strangprofils 2 auf gleiche Weise erzeugt werden. Dabei kann die Nano-Verschiebung längs und/oder quer zum Strangprofil 2 erfolgen. Dabei werden die entsprechenden weiteren Rohbilddaten erfasst und zur Bestimmung der resultierenden Bilddaten verwendet.
  • Alternativ oder kombiniert kann die Nano-Verschiebung der Laser-Lichtquelle 52 des jeweiligen Lichtschnittsensors (siehe 6) auf gleiche Weise erzeugt werden. Dabei werden die entsprechenden weiteren Bilddaten erfasst und zur Bestimmung der resultierenden Bilddaten verwendet.
  • Alternativ oder kombiniert kann die Nano-Verschiebung des Kamerasensors 53 des jeweiligen Lichtschnittsensors (siehe 6) auf gleiche Weise erzeugt werden. Dabei werden die entsprechenden weiteren Bilddaten erfasst und zur Bestimmung der resultierenden Bilddaten verwendet.
  • Alternativ kann auch ein Polarisator zur Erzeugung des entsprechenden Lichtstrahlbündels im Lichtschnittsensor S1–S4 entsprechend angeordnet sein, um das Licht entsprechend zu drehen.
  • Die Nano-Verschiebung erfolgt jeweils bevorzugt entweder in Längsrichtung oder in Querrichtung oder in Längs- und in Querrichtung zum ausgesendeten Lichtstrahlbündel. Der oder die Aktuatoren 51 sind dafür entsprechend in der Meßvorrichtung angeordnet, um diese Verschiebungen oder Verdrehungen zu erzeugen.
  • 6 zeigt dazu eine Grundplatte 50 mit einem darauf montierten Piezo-Aktuator 51 und einer auf dem Piezo-Aktuator 51 montierten Laser-Lichtquelle 52. Durch eine ansteuerbare und bevorzugt schwingend angesteuerte longitudinale Ausdehnung des Piezo-Aktuators 51 wird die Laser-Lichtquelle 52 in Richtung des Strahlengangs hin und her bewegt. Ein im Strahlengang angeordnete Optik 55 erzeugt aus dem Laserstrahl die Lichtschnittebene. Durch die Bewegung der Laser-Lichtquelle 52 wird die Phase des Laser-Lichts relativ zur Oberfläche 20 des Strangprofils 2 verschoben. Ein Kamerasensor 53 empfängt die an der Oberfläche 20 reflektierte Strahlung.
  • 7 stellt eine ähnliche Anordnung wie 6 dar, nur dass im Strahlengang zusätzlich ein optisches Laufzeitelement 54 angeordnet ist, durch das die Phase des Laser-Lichts veränderbar ist. Dabei kann das Laufzeitelement 54 ein veränderlicher, dafür entsprechend geeigneter Kunststoff, ein Gel oder eine Flüssigkeit in einem durchsichtigen Behälter sein. Bevorzugt wird der Behälter oder das Laufzeitelement 54 durch Kräfte in Pfeilrichtrung deformiert, um dadurch die Dicke des Laufzeitelements 54 zu ändern. Bevorzugt kann das Laufzeitelement 54 auch ein matrixartiges, diskontinuierliches Laufzeitelement sein, das einen aufgeweiteten Laser Lichtstrahl in verschiedene Teile mit dementsprechend unterschiedlichen Phasen wandelt, die durch die anschließende Optik 55 wieder zusammengeführt werden. Bevorzugt kann das Laufzeitelement 54 auch durch die Recheneinheit gesteuert werden. Alternativ kann das Laufzeitelement 54 auch ein nichtveränderliches Laufzeitelement 54 sein.
  • Bevorzugt wird alternativ oder zusätzlich zum Laufzeitelement 54 ein durch die Recheneinheit steuerbares Polarisationsfilter oder ein Polarisator im Strahlengang angeordnet, das beispielsweise Teil der Optik 55 ist. Das Polarisationsfilter hat einen Vorteil, dass es sich zu einer Drehung der Polarisationsebene des Laser-Lichts einfach elektrisch ansteuern läßt. Dabei wird das durch die Polarisation gedrehte Laser-Licht an der Oberfläche 20, die unregelmäßig ist, anders reflektiert, als ein nicht polarisiertes oder anders polarisiertes Laser-Licht. Dadurch entsteht ein anderes Speckles-Muster. Die Optik 55 zur Polarisation kann dabei durch einen entsprechend angeordneten Aktuator, durch eine Verschiebung oder Verdrehung oder durch Anlegen eines elektrischen Feldes oder eines Stromes in der Polarisation verändert werden. Dabei kann auch die Laser-Lichtquelle 52 durch den Aktuator 51 gedreht werden.
  • Bevorzugt ist im Strahlengang des Lichtschnittsensors zur Erzeugung des ersten und zweiten Lichtstrahlbündels oder weiterer Lichtstrahlbündel, beispielsweise in der Optik 55 oder davor in Richtung zur Laser-Lichtquelle 52, ein Hadamard Diffusor angeordnet. Der Hadamard Diffusor ist dabei ausgebildet, das Laser-Licht in Teile aufspalten und diese Teile mit unterschiedlichen Laufzeiten und/oder Polarisationen gesteuert oder transmissionsgesteuert wieder zu vereinigen.
  • Dabei sind die unterschiedlichen Laufzeiten und/oder Polarisationen der Teile des Laser-Lichts bevorzugt steuerbar. Die Zusammensetzung des austretenden Laser-Lichts mit den unterschiedlichen Laufzeiten und/oder Polarisationen und der dabei unterschiedlichen Abschattungen oder Intensitäten der Licht-Teile durch den Hadamard Diffusor wird durch dessen Konfiguration bestimmt, wobei die Konfiguration durch die Recheneinheit entsprechend angesteuert wird.
  • Bei einer bevorzugten Ausführung wird das erste Lichtstrahlbündel mit einer durch die Recheneinheit gesteuerten ersten Konfiguration ausgesendet und als erste Rohbilddaten empfangen. Durch den Algorithmus wird das Speckles Muster in den ersten Rohbilddaten auswertet, und es werden dementsprechend für die Erzeugung des zweiten Lichtstrahlbündels eine zweite Konfiguration des Hadamard Diffusors bestimmt, um dadurch andere Speckles, die durch das zweite Lichtstrahlbündel entstehen, zu erzeugen.
  • Bevorzugt wird die zweite Konfiguration so bestimmt, dass. die Speckles ein Minimum annehmen, wonach der Algorithmus beim Vergleich der ersten und zweiten Rohbilddaten nur die zweiten Rohbilddaten als die resultierende Bilddaten auswählt. Indem nur die zweiten Rohbilddaten ausgewählt werden, führen Verschiebungen zwischen den ersten und zweiten Rohbilddaten, die beispielsweise durch eine Vibration der Messvorrichtung 1 hervorgerufen werden, nicht zu einer Verschlechterung einer Kantenschärfe. Alternativ bevorzugt kann der Algorithmus aber auch so ausgebildet werden, dass durch die zweite Konfiguration möglichst inverse Speckles durch das zweite Lichtstrahlbündel erzeugt werden und anschließend eine Mittelung zwischen den ersten und zweiten Rohbilddaten zur Erzeugung der resultierenden Bilddaten gebildet wird.
  • 8 stellt eine Anordnung des Lichtschnittsensors, umfassend die Grundplatte 50 mit der darauf montierten Laser-Lichtquelle 52 und dem Kamerasensor 53 dar, der in Querrichtung Z zum Strahlengang in Y-Richtung bewegt wird. Alternativ oder kombiniert kann das Strangprofil 2 mit dessen Oberfläche 20 relativ zum Lichtschnittsensor bewegt werden.
  • Bevorzugt wird die Nano-Verschiebung entweder in Längsrichtung Y oder in Querrichtung Z oder in Längsrichtung Y und in Querrichtung Z zum Strangprofil 2 durch den mindestens einen Aktuator erzeugt. Alternativ oder kombiniert kann die Nano-Verschiebung in longitudinaler Richtung Y des Strahlengangs erzeugt werden.
  • Bevorzugt erfolgt die Erzeugung der Lichtschnittebene in der Optik 55 durch einen darin integrierten, rotierenden Spiegel oder ein Prisma, um einen Lichtpunktstrahl in der Lichtschnittebene zu verteilen.
  • In 9 ist schematisch ein bevorzugter Ablauf zur Bestimmung von Messdaten des Strangprofils 2 dargestellt. Die ersten und die zweiten Rohbilddaten von der ersten Position (Pos1) aus, als RBD 1-1 und RBD 1-2 bezeichnet, werden vom Algorithmus zu den resultierenden Bilddaten der ersten Position, als resBD 1 bezeichnet, umgewandelt, die entsprechend reduzierte Speckles darin aufweisen. Ebenso werden die ersten und die zweiten Rohbilddaten von der zweiten Position (Pos2) aus, als RBD 2-1 und RBD 2-2 bezeichnet, vom Algorithmus zu den resultierenden Bilddaten der zweiten Position, als resBD 1 bezeichnet, umgewandelt, die ebenfalls entsprechend reduzierte Speckles darin aufweisen. Die Transformationsmatrix wird aus der Verschiebung und Verdrehung der resultierenden Bilddaten der zweiten Position zu den resultierenden Bilddaten der ersten Position bestimmt und auf die resultierenden Bilddaten der zweiten Position angewendet. Dadurch werden die kalibrierten Bilddaten der zweiten Position erzeugt, die zusammen mit den resultierenden Bilddaten der ersten Position in einem gemeinsamen Koordinatensystem als die Messdaten des Prüflings oder des Strangprofils 2 abgebildet werden können.
  • Bei der Vermessung des Strangprofils 2 von verschiedenen Positionen aus in einer im Wesentlichen gleichen Lichtschnittebene, werden Teile der Oberfläche 20 des Strangprofils mehrfach vermessen und werden bevorzugt dementsprechend korreliert oder als Mittelwert in den Messdaten des Strangprofils 2 abgespeichert.
  • 2 zeigt beispielweise die Meßvorrichtung 1, bei der für den Abgleich bzw. für die Kalibrierung beispielsweise zwischen Lichtschnittsensor S1 und Lichtschnittsensor S2 alle Referenzmarker 3134 verwendet werden können. Von dem Lichtschnittsensor S1 werden die Referenzmarker 31 und 32 voll und die Referenzmarker 33 und 34 teils erfasst. Von Lichtschnittsensor S2 werden die Referenzmarker 31 und 34 voll und die Referenzmarker 32 und 33 teils erfasst. Hierbei soll bemerkt werden, dass für die Überlagerung der Referenzmarker 31 und 33 von diesen Perspektiven die Dicke der Referenzmarker 31, 33 mit in die Rechnung einbezogen wird. Gleichzeitig kann das Oberflächensegment 24 zusätzlich als Referenz zwischen den Lichtschnittsensoren S1 und S2 herangezogen werden. Für den Abgleich bzw. für die Kalibrierung zwischen weiteren Lichtschnittsensoren S1–S4 gilt diese Betrachtungsweise analog aus den jeweiligen Messperspektiven.
  • In 3 ist der Messerfassungsbereich MB des Lichtschnittsensor S1 mit einer gestrichelten Umrandung dargestellt, in dem vom Lichtschnittsensor S1 vordere Teile des Strangprofils 2, das sich von dem Strangprofil 2 aus 2 unterscheidet, und Teile der Referenzmarker 3134 erfasst werden. Von den hinteren Referenzmarkern 33 und 34 ist also nur ein Teil als Messergebnis zu sehen, da sie andernteils von den vorderen Referenzmarkern 33 und 32 abgeschattet werden. In dieser bevorzugten Anordnung sind die Referenzmarker 3134 ebenfalls als dünne Platten am äußeren Rand 4 des Messerfassungsbereichs MB radial nach innen zum Zentrum des Messerfassungsbereichs MB hin gerichtet angeordnet. Anders als dargestellt und deshalb zu bemerken ist, dass nicht die gesamte Oberfläche des Strangprofils 2 von den Lichtschnittsensor S1–S4 messtechnisch erfasst werden kann, sondern nur Teile davon. Beispielsweise werden von dem Lichtschnittsensor S1 insbesondere die Oberflächensegmente 23, 21, 22, 27A, 27B ganz und 28 und 29 teilweise erfasst.
  • Für eine Kalibrierung zwischen Lichtschnittsensor S1 und Lichtschnittsensor S4 eignen sich in dem dargestellten Fall alle Referenzmarker 3134, als auch die Oberflächensegmente 23 als Referenz, die jedoch relativ klein ausfällt. Je länger eine geradlinige Referenz oder ein Referenzmarker 3134 erfasst werden kann, desto größer ist die Genauigkeit, indem viele Messpunkte für eine Geradenberechnung zur Verfügung stehen.
  • In diesem Beispiel wird von dem Lichtschnittsensor S1 der Referenzmarker 32 von einer Seite 320 erfasst und als Gerade weitergeführt, die den Geradenabschnitt des Referenzmarkers 34 mit dessen Seite 340 übergeht und somit eine lange Gerade mit guter messtechnischer Genauigkeit bildet. Von dem Lichtschnittsensor S4 werden die Referenzmarker 32 und 34 ebenfalls erfasst und zu einer Geraden ausgebildet, jedoch aber von einer zweiten Seite 323 bzw. 343. Unter Berücksichtigung der Dicke der Referenzmarker 32 und 34 werden diese beiden Geraden dann durch die jeweiligen Bilddaten zur Überlagerung gebracht. Das gleiche gilt für die Referenzmarker 31 und 33, die ebenfalls von beiden Lichtschnittsensor S1 und S4 erfasst, zu Geraden ausgebildet und in den jeweiligen Bilddaten zur Überlagerung gebracht werden.
  • Wie oben erwähnt, kann das Oberflächensegment 23 ebenfalls als Referenz bzw. als Referenzgerade zur Bestimmung der besten Überlagerung der Bilddaten der Lichtschnittsensoren S1 und S4 verwendet werden. Die Referenzen sind signifikante Oberflächenteile des Prüflings oder des Strangprofils 2, die in den jeweiligen Bilddaten von benachbarten Positionen aus detektiert werden können, um sie zur Überlagerung zu bringen. Dadurch können die Verschiebung und die Verdrehung des einen Bildes zum benachbarten Bild bestimmt werden. Dadurch wird die Kalibrierung der zweiten Bilddaten bzw. des zweiten Bildes relativ zum ersten Bild vorgenommen. Eine Skalierung des zweiten Bildes zum ersten Bild kann dabei bevorzugt ebenfalls bestimmt werden.
  • Das bevorzugte Verfahren zur Kalibrierung detektiert also aus den Bilddaten des jeweiligen Lichtschnittsensors S1–S4 vorhandene Geraden, versucht diese möglichst gut durch möglichst viele Messpunkte genau zu bestimmen und im Vergleich zu den Bilddaten der anderen Lichtschnittsensoren S1–S4 zu identifizieren. Nach der Identifikation erfolgt das Matchen bzw. die optimale Überlagerung der jeweiligen Bilddaten mit einander. Dabei werden zwecks Kalibrierung die jeweiligen Transformationsmatrizen der Bilddaten für auf einander abgestimmte Koordinatenangaben bestimmt und auf die nachfolgenden sonstigen Bilddaten angewendet, so dass alle Seitenansichten aus den verschiedenen Messperspektiven der verwendeten Lichtschnittsensoren S1–S4 oder weiteren zu einander in einem Koordinatensystem passen.
  • In 4 ist die gleiche Anordnung des Strangprofils 2 innerhalb eines zweiten Messerfassungsbereichs MB2 mit den jeweiligen Referenzmarkern 3134 zu sehen, jedoch von einer anderen Messperspektive von dem Lichtschnittsensor S4 aus. Dabei ist zu erkennen, dass das Strangprofil 2 durch die Messperspektive des Lichtschnittsensors 34 beispielsweise um die Bilddaten der Oberflächensegmente 24, 23, teilweise 26, 26B und 26C zusätzlich zu den Bilddaten aus der Messperspektive seitens Lichtschnittsensor S1 ergänzt wird.
  • Bei der Kalibrierung werden der Referenzmarker 33 durch die Seite 330, der Referenzmarker 32 durch die Seite 323, der Referenzmarker 34 teilweise durch die Seite 343 und der Referenzmarker 31 teilweise durch die Seite 310 erfasst.
  • Bei einer Kalibrierung des Lichtschnittsensor S4 wird aus den dabei gemessenen Bilddaten die entsprechende Transformationsmatrix für diesen Lichtschnittsensor S4 so bestimmt, dass die darin enthaltenen Positionen und Linienverläufe der Referenzmarker 3134 mit den vorangehend gemessenen Positionen und Linienverläufe der Referenzmarker 3134 einer ersten Messperspektive, beispielsweise von dem Lichtschnittsensor S1 aus, optimal zur Übereinstimmung kommen.
  • Die Kalibrierung der weiteren Lichtschnittsensoren S1–S4 aus den entsprechenden weiteren Messperspektiven geschieht analog.
  • 5 zeigt noch eine Messperspektive des Strangprofils 2 aus einer zusätzlichen Ansicht eines um 45 Grad nach rechts gedrehten Lichtschnittsensor. Es wird dabei deutlich, dass das Oberflächensegment 23 des Strangprofils 2 messtechnisch besser bzw. genauer erfasst werden kann, vor allem dessen Ecken betreffend. Die dünn punktierten Linien deuten Strahlenverläufe des nach rechts gedrehten Lichtschnittsensor an. Dabei kann entweder ein oder mehrere zusätzliche Lichtschnittsensoren verwendet werden oder es können die bereits in der Meßvorrichtung 1 verwendeten Lichtschnittsensoren S1–S4 insgesamt für ein Zeitmoment der Messung rotatorisch verfahren und zurückgefahren werden. Die rotatorische Verfahrposition der Lichtschnittsensoren S1–S4 lässt sich dabei von der Anordnung ebenso wie bei der Kalibrierung anhand der Referenzmarker 3134 und anhand von Referenzen im Strangprofil ermitteln, so dass die Mess- und Bilddaten des Strangprofils 2 (sowie die der Referenzmarker 3134) aus der jeweiligen Messperspektive durch die jeweilige, neu bestimmte Transformationsmatrix richtig im Koordinatensystem liegen.
  • Bevorzugt brauchen die Referenzen und/oder Referenzmarker 3134 nicht in bekannten, definierten Abständen oder Positionen zueinander angeordnet sein. Die jeweiligen Referenzen und/oder Referenzmarker 3134 müssen nur in dem jeweils gemeinsamen Messerfassungsbereichen der jeweiligen benachbarten Lichtschnittsensoren S1–S4 angeordnet sein. Die Anzahl der aufeinander abzustimmenden, gegenseitig zueinander zu kalibrierenden Lichtschnittsensoren S1–S4 ist beliebig, solange die oben beschriebene Bedingung der gemeinsamen Erfassung der Referenzen und/oder der Referenzmarker 3134 erfüllt ist. Dabei soll auch nochmals klargestellt werden, dass unter Umständen für die Kalibrierung nicht einmal Referenzmarker 3134 notwendig sind, wenn genügend Referenzen im Strangprofil 2 vorhanden sind, die die Bedingung erfüllen, dass mindestens zwei Referenzen gemeinsam von jeweils benachbarten Lichtschnittsensoren S1–S4 erfasst werden; dies ist beispielsweise bei Strangprofilen 2 mit einem gleichverteilen Achtkantquerschnitt und bei gleichmäßig verteilen 8 Lichtschnittsensoren S1–S4 der Fall.
  • Bevorzugt ist die Anzahl der Referenzen und der Referenzmarker 3134 beliebig, solange die Bedingung erfüllt ist, dass mindestens zwei Referenzen oder mindestens zwei Referenzmarker 3134 oder mindestens eine Referenz und ein Referenzmarker 3134 gemeinsam von jeweils benachbarten Lichtschnittsensoren S1–S4 erfasst werden.
  • Der Klarheit wegen soll ferner festgehalten werden, dass falls die Form der Referenzmarker 3134 gleich ist, dass dann deren einzelnen Positionen in den einzelnen Bilddaten der jeweiligen Lichtschnittsensoren S1–S4 grob bekannt sein muss, um eine eindeutige Zuordnung der Referenzmarker 3134 in den jeweiligen Bilddaten vornehmen zu können. Andernfalls kann mindestens einer der Referenzmarker 3134, der in benachbarten Bilddaten sichtbar ist, eine Codierung zur eindeutigen Identifikation in den Bilddaten der benachbarten Bilddaten tragen und/oder das Strangprofil 2 selbst für die Zuordnung verwendet werden.
  • Bevorzugt werden als die Lichtschnittsensoren S1–S4 2D und/oder 3D Sensoren verwendet.
  • Der Klarheit wegen soll nochmals festgehalten werden, dass hier unter der Kalibrierung zwei Arten verstanden werden. Im Allgemeinen umfasst die Kalibrierung eine Korrekturbestimmung der Offsets in X- und in Y-Richtung und des Drehwinkels, so dass die Bilddaten benachbarter Lichtschnittsensoren S1–S4 anhand von bekannten oder gemeinsamen Referenzen, wie beispielsweise Referenzgeraden, optimal in einem gemeinsamen Koordinatensystem abgebildet werden. Dazu wird eine Transformationsmatrix für den jeweiligen Lichtschnittsensor S1–S4 berechnet und anschließend auf die jeweiligen Bilddaten (zur Korrektur) angewendet. Im Falle, dass genügend viele Referenzen und Referenzmarker 3134 bei einer gemeinsamen Erfassung durch Lichtschnittsensoren S1–S4 oder auch kalibrierte Referenzmarker 3134 mit definierten, bekannten Abständen zur Verfügung stehen, kann die Kalibrierung zusätzlich auch die Korrektur der Skalierung umfassen. Dabei soll bemerkt sein, dass eine bevorzugte Methode der Kalibrierung der Skalierung auch eine optimale Mittelung zwischen den Bilddaten der verschiedenen Lichtschnittsensoren S1–S4 umfasst, wozu bevorzugt die Least Mean Square Methode eingesetzt wird.
  • Der Klarheit wegen wird festgehalten, dass die Bezeichnung Strangprofil 2 für alle Arten von zu vermessenden Prüflingen steht, die beispielsweise auch entlang der Länge ein veränderliches Profil aufweisen.
  • Es ist ferner vorstellbar, dass die Rohbilddaten schon vorab-kalibrierte Daten sein können, die bezogen auf den jeweiligen Lichtschnittsensor S1–S4 und/oder auf die Meßvorrichtung 1 kalibriert wurden.
  • Es ist auch denkbar, dass statt der Referenzmarker 3134 Lichtpunkte auf das Strangprofil 2 projiziert werden, die jeweils von zwei benachbarten Lichtschnittsensoren S1–S4 erfasst werden, um auf diese Weise Referenzpunkte für eine Zuordnung und für eine Offsetkorrektur der jeweiligen Bilddaten zu erzielen. Dadurch, dass sich alle Lichtpunkte oder Referenzpunkte gleichzeitig aussenden und messen lassen, kann auch eine Schwingungsanalyse des Strangprofils 2 durchgeführt werden.
  • Eine weitere bevorzugte Ausführungsform der Meßvorrichtung 1 umfasst einen Drehtisch oder Dreheller, auf dem der Prüfling positioniert wird und in bestimmte Drehpositionen zur Vermessung gebracht wird. Dabei werden der Drehpunkt und die Drehlage des Lichtschnittsensors oder des Prüflings durch entsprechende Referenzen oder Referenzmarker 3134 bestimmt.
  • Bevorzugt werden die Ablaufsteuerung, Berechnungen und/oder Bestimmungen durch eine Recheneinheit vorgenommen.
  • Weitere mögliche Ausbildungsformen sind in den folgenden Ansprüchen beschrieben.
  • Die In den Ansprüchen genannten Bezugszeichen dienen der besseren Verständlichkeit, beschränken aber die Ansprüche nicht auf die in den Figuren. dargestellten Formen.
  • Bezugszeichenliste
  • 1
    Meßvorrichtung
    11
    kreisartige Vorrichtung
    12
    Öffnung
    2
    Strangprofil
    20
    Oberfläche des Strangprofils
    21–29
    Oberflächensegmente
    3
    Referenzmarker
    31
    erster Referenzmarker
    32
    zweiter Referenzmarker
    33
    dritter Referenzmarker
    34
    vierter Referenzmarker
    4
    äußerer Bereich
    50
    Grundplatte (des Lichtschnittsensors)
    51
    Piezo-Aktuator
    52
    Laser-Lichtquelle
    53
    Kamerasensor
    54
    optisches Laufzeitelement
    55
    Optik
    KS1
    erster Kamerablickwinkel
    KS2
    zweiter Kamerablickwinkel
    MB
    Messerfassungsbereich
    MB2
    zweiter Messerfassungsbereich
    RBD 1-1, RBD 1-2
    erste bzw. zweite Rohbilddaten der ersten Position
    RBD 2-1, RBD 2-2
    erste bzw. zweite Rohbilddaten der zweiten Position
    resBD 1, resBD 2
    resultierende Bilddaten der ersten bzw. zweiten Position
    kalBD 2
    kalibrierte Bilddaten der zweiten Position
    S1–S4
    erster–vierter Lichtschnittsensor
    X, Y, Z
    Koordinatenrichtungsangaben
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10328523 [0002]
    • US 7679757 [0003]
    • DE 10017463 [0005]
    • DE 69003090 [0006]
    • US 7679757 B1 [0007]
    • US 20040202364 A1 [0008]
    • WO 92/08103 A1 [0009]
    • WO 2005/106384 A1 [0010]
    • DE 10335472 A1 [0011]
    • US 6078846 A [0012]
    • DE 102011000304 A1 [0013]

Claims (15)

  1. Verfahren zur Vermessung einer Oberfläche (20) eines Prüflings mit einem Lichtschnittsensor (S1–S4), folgende Schritte umfassend: a) Anordnen von mindestens einem Lichtschnittsensor (S1–S4) in mindestens einer ersten und in einer zweiten Position, um einen gemeinsamen Messbereich zur Vermessung des Prüflings zu bilden, wobei die jeweiligen Lichtschnittebenen von mindestens der ersten Position und der zweiten Position auf den Prüfling projiziert werden, indem sie in einer gemeinsamen Ebene liegen oder gerade nur so weit voneinander parallel beabstandet sind, dass sie sich bei einer Vermessung gegenseitig nicht stören; b) Anordnen von mindestens zwei Referenzen, die Teil des Prüflings sind, oder von mindestens zwei separaten Referenzmarkern (3134) oder von mindestens einer Referenz im Prüfling und einem Referenzmarker (3134) im gemeinsamen Messerfassungsbereich; c) messtechnisches Erfassen des Lichtschnitts auf dem Prüfling zusammen mit den Referenzen und/oder den Referenzmarkern (3134) von der ersten und zweiten Position aus und damit Vermessen des Prüflings, wobei die jeweilige Lichtschnittebene durch ein erstes Laser-Lichtstrahlbündel erzeugt und ausgesendet wird und dabei erste Rohbilddaten von der jeweiligen Position erfasst werden; gekennzeichnet durch d) Erzeugen und Aussenden der jeweiligen Lichtschnittebene und an der jeweiligen Position durch ein vom ersten Laser-Lichtstrahlbündel unterschiedliches zweites Laser-Lichtstrahlbündel und Erfassen von zweiten Rohbilddaten an der jeweiligen Position; e) Bestimmen von jeweiligen resultierenden Bilddaten durch einen Algorithmus aus den jeweiligen ersten und den zweiten Rohbilddaten für die jeweilige Position; f) Bestimmen einer Verschiebung und eines Drehwinkels zwischen den resultierenden Bilddaten der zweiten Position und den resultierenden Bilddaten der ersten Position, indem die darin erfassten Referenzen und/oder Referenzmarker (3134) durch eine Recheneinheit in Bezug gesetzt werden; g) Berechnen einer Transformationsmatrix aus der bestimmten Verschiebung und dem Drehwinkel, die ausgebildet ist, die resultierenden Bilddaten der zweiten Position zu kalibrierten Bilddaten der zweiten Position zu transformieren, indem die kalibrierten Bilddaten der zweiten Position und die resultierenden Bilddaten der ersten Position richtig in einem gemeinsamen Koordinatensystem abgebildet werden können; h) Anwenden der Transformationsmatrix auf die resultierenden Bilddaten der zweiten Position und Abbilden der kalibrierten Bilddaten der zweiten Position zusammen mit den resultierenden Bilddaten der ersten Position in dem gemeinsamen Koordinatensystem.
  2. Verfahren gemäß Anspruch 1, wobei das erste Laser-Lichtstrahlbündel mit einer ersten Wellenlänge und das zweite Laser-Lichtstrahlbündel mit einer anderen, zweiten Wellenlänge erzeugt wird, und/oder wobei das erste Laser-Lichtstrahlbündel mit einer ersten Polarisationsebene und das zweite Laser-Lichtstrahlbündel mit einer anderen, zweiten Polarisationsebene erzeugt wird.
  3. Verfahren gemäß Anspruch 1 oder 2, wobei in Schritt e) durch den Algorithmus die jeweiligen ersten und zweiten Rohbilddaten pixelweise miteinander verglichen oder ausgewertet werden, indem für jeden Pixel oder Pixelbereich Maximalwerte oder Mittelwerte bestimmt und als die resultierenden Bilddaten abgespeichert werden, wobei dadurch die resultierenden Bilddaten reduzierte Speckles oder Interferenz-Minima aufweisen.
  4. Verfahren gemäß einem der vorstehenden Ansprüche, wobei vor Schritt e) die jeweilige Lichtschnittebene aus der jeweiligen Position durch mindestens ein weiteres Laser-Lichtstrahlbündel mit einer weiteren Wellenlänge und/oder mit einer weiteren Polarisationsebene erzeugt wird, um dadurch jeweilige weitere Rohbilddaten zu erzeugen, und wobei im nachfolgenden Schritt e) die jeweiligen weiteren Rohbilddaten für die Bestimmung der jeweiligen resultierenden Bilddaten durch den Algorithmus gleichermaßen verarbeitet werden.
  5. Verfahren gemäß einem der vorstehenden Ansprüche, wobei vor Schritt e) von der jeweiligen Position aus zusätzlich jeweilige weitere Rohbilddaten erfasst werden, wobei die jeweiligen weiteren Rohbilddaten nach einer gesteuerten Nano-Verschiebung des jeweiligen Lichtschnittsensor (S1–S4), des Prüflings, einer Laser-Lichtquelle (52) zur Erzeugung des jeweiligen Laser-Lichtstrahlbündels oder eines Kamerasensors (53) im jeweiligen Lichtschnittsensor (S1–S4) erfasst werden; wobei die Nano-Verschiebung entweder in Längsrichtung oder in Querrichtung oder in Längs- und in Querrichtung zum ausgesendeten Lichtstrahlbündel erzeugt wird; wobei die Nano-Verschiebung durch mindestens einen Aktuator (51) erzeugt wird und in einem Bereich von 0,5–1 oder 1–5 oder 1–20 Wellenlängen des Laser-Lichts liegt; und wobei im nachfolgenden Schritt e) die jeweiligen weiteren Rohbilddaten für die Bestimmung der jeweiligen resultierenden Bilddaten durch den Algorithmus gleichermaßen verarbeitet werden.
  6. Verfahren gemäß einem der vorstehenden Ansprüche, wobei im Strahlengang des Lichtschnittsensors zur Erzeugung des ersten und zweiten Lichtstrahlbündels ein Hadamard Diffusor angeordnet ist, durch den das erste Lichtstrahlbündel mit einer durch die Recheneinheit gesteuerten ersten Konfiguration ausgesendet wird, indem durch die Konfiguration verschiedene Lichtanteile mit verschiedenen Phasen und/oder Polarisationen erzeugt werden, die das jeweilige Lichtstrahlbündel bilden, wonach durch den Algorithmus zudem ein Speckles Muster in den ersten Rohbilddaten auswertet wird und für die Erzeugung des zweiten Lichtstrahlbündels eine zweite Konfiguration des Hadamard Diffusors bestimmt wird, um dadurch andere zweite Speckles, die durch das zweite Lichtstrahlbündel entstehen, zu erzeugen.
  7. Verfahren gemäß einem der vorstehenden Ansprüche, wobei der Prüfling von einer Vielzahl an Positionen aus in der im Wesentlichen gleichen Lichtschnittebene um den Prüfling herum vermessen wird, wobei die Messdaten für Teile der Oberfläche (20), die mehrfach vermessen sind, korreliert und/oder als Mittelwert bestimmt werden, wobei daraus resultierende Messdaten der Oberfläche (20) des Prüflings erzeugt und zur Verfügung gestellt werden.
  8. Meßvorrichtung (1) zur Vermessung einer Oberfläche (20) eines Prüflings, umfassend: – mindestens ein Lichtschnittsensor (S1–S4), der in der Meßvorrichtung (1) so angeordnet oder verfahrbar ist, um von mindestens einer ersten und einer zweiten Position aus einen gemeinsamen Messbereich zur Vermessung des Prüflings zu bilden, wobei die jeweiligen Lichtschnittebenen von mindestens der ersten und der zweiten Position auf den Prüfling projiziert werden, indem sie in einer gemeinsamen Ebene liegen oder gerade nur so weit parallel voneinander beabstandet sind, dass sie sich bei der Vermessung gegenseitig nicht stören, und wobei der mindestens eine Lichtschnittsensor (S1–S4) Rohbilddaten liefert; – mindestens zwei Referenzen, die Teil des Prüflings sind, oder mindestens zwei separate Referenzmarker (3134), die im gemeinsamen Messerfassungsbereich in der Meßvorrichtung (1) angeordnet sind oder mindestens eine Referenz im Prüfling und ein Referenzmarker (3134), wobei die Referenzen und/oder die Referenzmarker (3134) in dem gemeinsamen Messerfassungsbereich liegen und jeweils von der ersten und von der zweiten Position aus zusammen mit dem Prüfling erfassbar sind; – eine Recheneinheit zur Erfassung und Verarbeitung der Rohbilddaten, um daraus Messdaten der Oberfläche (20) in einem gemeinsamen Koordinatensystem zu erzeugen; dadurch gekennzeichnet, dass – der mindestens eine Lichtschnittsensor (S1–S4) die jeweilige Lichtschnittebenen sowohl durch ein erstes Laser-Lichtstrahlbündel erzeugt und erfasst, wobei erste Rohbilddaten erzeugt werden, als auch durch ein zweites Laser-Lichtstrahlbündel erzeugt und erfasst, wobei zweite Rohbilddaten erzeugt werden; – die Recheneinheit ausgebildet ist: um den mindestens einen Lichtschnittsensor (S1–S4) so anzusteuern, dass entweder die jeweiligen ersten oder zweiten Rohbilddaten von der jeweiligen ersten und zweiten Position erzeugt werden; um durch einen Algorithmus die jeweiligen ersten und die zweiten Rohbilddaten zu jeweiligen resultierenden Bilddaten für die jeweilige Position zu verarbeiten, um darin enthaltene Speckles oder Interferenzmuster zu reduzieren; um eine Verschiebung und einen Drehwinkel zwischen den resultierenden Bilddaten der zweiten Position und den resultierenden Bilddaten der ersten Position zu bestimmen, indem die darin erfassten Referenzen und/oder Referenzmarker (3134) in Bezug gesetzt werden; um eine Transformationsmatrix aus der bestimmten Verschiebung und dem Drehwinkel zu bestimmen, die ausgebildet ist, die resultierenden Bilddaten der zweiten Position zu kalibrierten Bilddaten der zweiten Position zu transformieren, indem die kalibrierten Bilddaten der zweiten Position und die resultierenden Bilddaten der ersten Position richtig in einem gemeinsamen Koordinatensystem abgebildet werden; und um die Transformationsmatrix auf die resultierenden Bilddaten der zweiten Position anzuwenden, um dadurch die kalibrierten Bilddaten der zweiten Position zu erzeugen.
  9. Meßvorrichtung (1) gemäß Anspruch 8, wobei der mindestens eine Lichtschnittsensor (S1–S4) und die Recheneinheit ausgebildet sind, das erste Laser-Lichtstrahlbündel mit einer ersten Wellenlänge und das zweite Laser-Lichtstrahlbündel mit einer anderen, zweiten Wellenlänge zu erzeugen und zu erfassen, und/oder das erste Laser-Lichtstrahlbündel mit einer ersten Polarisationsebene und das zweite Laser-Lichtstrahlbündel mit einer anderen, zweiten Polarisationsebene zu erzeugen.
  10. Meßvorrichtung (1) gemäß Anspruch 8 oder 9, wobei der Algorithmus zur Bestimmung der jeweiligen resultierenden Bilddaten so ausgebildet ist, die jeweiligen ersten und zweiten Rohbilddaten pixelweise miteinander zu vergleichen oder auszuwerten, indem für jeden Pixel oder Pixelbereich Maximalwerte oder Mittelwerte bestimmt und als die resultierenden Bilddaten abgespeichert werden, wobei dadurch die resultierenden Bilddaten reduzierte Speckles oder Interferenz-Minima aufweisen, wobei die Mittelwerte entweder als arithmetische, quadratische oder Medianwert-Mittelwerte gebildet werden.
  11. Meßvorrichtung (1) gemäß Anspruch 9 oder 10, wobei der mindestens eine Lichtschnittsensor (S1–S4) und die Recheneinheit ausgebildet sind, die jeweilige Lichtschnittebene von der jeweiligen Position durch mindestens ein weiteres Laser-Lichtstrahlbündel mit einer weiteren Wellenlänge und/oder mit einer weiteren Polarisationsebene zu erzeugen, um dadurch jeweilige weitere Rohbilddaten zu erzeugen und durch den Algorithmus für die Bestimmung der jeweiligen resultierenden Bilddaten gleichermaßen mit zu verarbeiten.
  12. Meßvorrichtung (1) gemäß einem der vorstehenden Ansprüche 8–11, wobei in der Meßvorrichtung (1) mindestens ein Aktuator (51) so angeordnet ist, um durch den Aktuator (51) entweder den Lichtschnittsensor (S1–S4) oder den Prüfling durch eine Nano-Verschiebung zu verschieben oder zu verdrehen und dabei jeweilige weitere Rohbilddaten zu erzeugen; und wobei die Recheneinheit und der Algorithmus ausgebildet ist, die jeweiligen weiteren Rohbilddaten zur Bestimmung der jeweiligen resultierenden Bilddaten für die jeweilige Position entsprechend mit zu verarbeiten, wobei der Aktuator (51) so ausgebildet und angeordnet ist, die Nano-Verschiebung in einem Bereich von 0,5–2 oder 1–5 oder 1–20 Wellenlängen des Laser-Lichts zu erzeugen, und die Nano-Verschiebung oder Verdrehung entweder in Längsrichtung oder in Querrichtung oder in Längs- und in Querrichtung zum ausgesendeten Lichtstrahlbündel zu erzeugen.
  13. Meßvorrichtung (1) gemäß einem der vorstehenden Ansprüche 8–12, wobei in dem Lichtschnittsensor (S1–S4) mindestens einen Aktuator (51) so angeordnet ist, um darin durch den Aktuator (51) eine Laser-Lichtquelle (52) und/oder einen Kamerasensor (53) durch eine Nano-Verschiebung durch die Recheneinheit gesteuert zu verschieben oder zu verdrehen und dabei weitere Rohbilddaten zu erzeugen, und wobei die Recheneinheit und der Algorithmus ausgebildet sind, die jeweiligen weiteren Rohbilddaten zur Bestimmung der jeweiligen resultierenden Bilddaten für die jeweilige Position entsprechend mit zu verarbeiten, wobei der Aktuator (51) so ausgebildet und angeordnet ist, die Nano-Verschiebung in einem Bereich von 0,5–2 oder 1–5 oder 1–20 Wellenlängen des Laser-Lichts zu erzeugen, und die Nano-Verschiebung oder Verdrehung entweder in Längsrichtung oder in Querrichtung oder in Längs- und in Querrichtung zum ausgesendeten Lichtstrahlbündel zu erzeugen.
  14. Meßvorrichtung (1) gemäß einem der vorstehenden Ansprüche 8–13, wobei der Lichtschnittsensor (S1–S4) entweder so ausgebildet ist, dass im Strahlengang zwischen einer Laser-Lichtquelle (52) zur Erzeugung des Laser-Lichts und dem emittierten, jeweiligen Lichtstrahlbündels oder zwischen dem reflektierten, eintreffenden Licht und einem Kamerasensor (53) eine Optik (55) angeordnet ist, die ausgebildet ist, die Phase oder die Polarisation des durchgehenden Lichts durch die Recheneinheit steuerbar zu verändern; oder dass im Strahlengang zwischen der Laser-Lichtquelle (52) und dem emittierten, jeweiligen Lichtstrahlbündels ein Hadamard Diffusor angeordnet und durch die Recheneinheit entsprechend ansteuerbar ist.
  15. Meßvorrichtung (1) gemäß einem der vorstehenden Ansprüche 8–14, wobei die Meßvorrichtung (1) und die Recheneinheit ferner so ausgebildet sind, den gemeinsamen Messbereich von einer Vielzahl an Positionen aus in der im Wesentlichen gleichen Lichtschnittebene um den Prüfling herum zu vermessen, wobei bestimmte Bereiche der Oberfläche (20), die durch die jeweiligen resultierenden Bilddaten mehrfach vermessen sind, korreliert und/oder als Mittelwert zu daraus resultierenden Messdaten bestimmt werden; und/oder wobei die Meßvorrichtung (1) zudem einen Drehtisch umfasst, auf dem der Prüfling zur Vermessung positionierbar und drehbar ist.
DE102013103252.4A 2013-03-28 2013-03-28 Erhöhung der Messgenauigkeit bei einer Vermessung mit Lichtschnittsensoren durch gleichzeitige Kalibrierung und Reduzierung von Speckles Expired - Fee Related DE102013103252B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013103252.4A DE102013103252B4 (de) 2013-03-28 2013-03-28 Erhöhung der Messgenauigkeit bei einer Vermessung mit Lichtschnittsensoren durch gleichzeitige Kalibrierung und Reduzierung von Speckles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013103252.4A DE102013103252B4 (de) 2013-03-28 2013-03-28 Erhöhung der Messgenauigkeit bei einer Vermessung mit Lichtschnittsensoren durch gleichzeitige Kalibrierung und Reduzierung von Speckles

Publications (2)

Publication Number Publication Date
DE102013103252A1 true DE102013103252A1 (de) 2014-10-16
DE102013103252B4 DE102013103252B4 (de) 2016-03-10

Family

ID=51618186

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013103252.4A Expired - Fee Related DE102013103252B4 (de) 2013-03-28 2013-03-28 Erhöhung der Messgenauigkeit bei einer Vermessung mit Lichtschnittsensoren durch gleichzeitige Kalibrierung und Reduzierung von Speckles

Country Status (1)

Country Link
DE (1) DE102013103252B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016149724A1 (de) * 2015-03-24 2016-09-29 Nextsense Gmbh Verfahren und vorrichtung zum vermessen eines langprofiles
EP3184958A1 (de) * 2015-12-23 2017-06-28 Liebherr-Verzahntechnik GmbH Sensoranordnung zur werkstückidentifikation und/oder werkstücklageerkennung einer vielzahl an werkstücken innerhalb eines transportträgers
DE102017109854A1 (de) * 2017-05-08 2018-11-08 Wobben Properties Gmbh Verfahren zur Referenzierung mehrerer Sensoreinheiten und zugehörige Messeinrichtung

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992008103A1 (de) 1990-10-24 1992-05-14 Böhler Gesellschaft M.B.H. Verfahren und anordnung zur optoelektronischen vermessung von gegenständen
DE69003090T2 (de) 1989-02-06 1994-02-10 Kreon Ind Lannemezan Sa Kalibrierungsverfahren eines dreidimensionalen formerfassungssystems und system zur durchführung des genannten verfahrens.
US6078846A (en) 1996-02-06 2000-06-20 Perceptron, Inc. Calibration and compensation of robot-based gauging system
DE10017463A1 (de) 2000-04-07 2001-10-18 Metronom Indvermessung Gmbh Verfahren und Vorrichtung zum Vermessen von Objekten
US20040202364A1 (en) 2001-08-03 2004-10-14 Hitoshi Otani Calibration object
DE10328523A1 (de) 2003-06-24 2005-01-27 Schreck-Mieves Gmbh Verfahren und Meßvorrichtung zur berührungslosen Vermessung einer Kontur einer Oberfläche sowie Verfahren zur automatischen Entzerrung von Koordinaten von Bildpunkten
DE10335472A1 (de) 2003-08-02 2005-02-17 E. Zoller GmbH & Co. KG Einstell- und Messgeräte Mess- und/oder Einstellgerät
WO2005106384A1 (de) 2004-05-04 2005-11-10 Daimlerchrysler Ag Verfahren und hilfsvorrichtung zum einmessen einer robotergeführten optischen messanordnung
DE102006031142A1 (de) * 2006-07-05 2008-01-10 Prüf- und Forschungsinstitut Pirmasens e.V. Verfahren und Vorrichtung zum dreidimensionalen Vermessen und Prüfen von Sportbällen und kugelförmigen Objekten
DE102006059415A1 (de) * 2006-12-15 2008-06-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Dickenmessung
US7679757B1 (en) 2002-10-31 2010-03-16 BYTEWISE Measurement Systems LLC. Non-contact profile measurement system
DE102011000304A1 (de) 2011-01-25 2012-07-26 Data M Sheet Metal Solutions Gmbh Kalibrierung von Laser-Lichtschnittsensoren bei gleichzeitiger Messung

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69003090T2 (de) 1989-02-06 1994-02-10 Kreon Ind Lannemezan Sa Kalibrierungsverfahren eines dreidimensionalen formerfassungssystems und system zur durchführung des genannten verfahrens.
WO1992008103A1 (de) 1990-10-24 1992-05-14 Böhler Gesellschaft M.B.H. Verfahren und anordnung zur optoelektronischen vermessung von gegenständen
US6078846A (en) 1996-02-06 2000-06-20 Perceptron, Inc. Calibration and compensation of robot-based gauging system
DE10017463A1 (de) 2000-04-07 2001-10-18 Metronom Indvermessung Gmbh Verfahren und Vorrichtung zum Vermessen von Objekten
US20040202364A1 (en) 2001-08-03 2004-10-14 Hitoshi Otani Calibration object
US7679757B1 (en) 2002-10-31 2010-03-16 BYTEWISE Measurement Systems LLC. Non-contact profile measurement system
DE10328523A1 (de) 2003-06-24 2005-01-27 Schreck-Mieves Gmbh Verfahren und Meßvorrichtung zur berührungslosen Vermessung einer Kontur einer Oberfläche sowie Verfahren zur automatischen Entzerrung von Koordinaten von Bildpunkten
DE10335472A1 (de) 2003-08-02 2005-02-17 E. Zoller GmbH & Co. KG Einstell- und Messgeräte Mess- und/oder Einstellgerät
WO2005106384A1 (de) 2004-05-04 2005-11-10 Daimlerchrysler Ag Verfahren und hilfsvorrichtung zum einmessen einer robotergeführten optischen messanordnung
DE102006031142A1 (de) * 2006-07-05 2008-01-10 Prüf- und Forschungsinstitut Pirmasens e.V. Verfahren und Vorrichtung zum dreidimensionalen Vermessen und Prüfen von Sportbällen und kugelförmigen Objekten
DE102006059415A1 (de) * 2006-12-15 2008-06-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Dickenmessung
DE102011000304A1 (de) 2011-01-25 2012-07-26 Data M Sheet Metal Solutions Gmbh Kalibrierung von Laser-Lichtschnittsensoren bei gleichzeitiger Messung

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016149724A1 (de) * 2015-03-24 2016-09-29 Nextsense Gmbh Verfahren und vorrichtung zum vermessen eines langprofiles
CN107438750A (zh) * 2015-03-24 2017-12-05 耐克斯特森斯有限责任公司 用于测量长轮廓的方法和设备
CN107438750B (zh) * 2015-03-24 2020-03-13 耐克斯特森斯有限责任公司 用于测量长轮廓的方法和设备
EP3184958A1 (de) * 2015-12-23 2017-06-28 Liebherr-Verzahntechnik GmbH Sensoranordnung zur werkstückidentifikation und/oder werkstücklageerkennung einer vielzahl an werkstücken innerhalb eines transportträgers
DE102017109854A1 (de) * 2017-05-08 2018-11-08 Wobben Properties Gmbh Verfahren zur Referenzierung mehrerer Sensoreinheiten und zugehörige Messeinrichtung

Also Published As

Publication number Publication date
DE102013103252B4 (de) 2016-03-10

Similar Documents

Publication Publication Date Title
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE102011000304B4 (de) Kalibrierung von Laser-Lichtschnittsensoren bei gleichzeitiger Messung
EP1984770B1 (de) Verfahren und anordnung zur schnellen und robusten, chromatisch-konfokalen 3d-messtechnik
DE102006007172B4 (de) Verfahren und Anordnung zur schnellen, ortsaufgelösten, flächigen, spektroskopischen Analyse, bzw. zum Spectral Imaging oder zur 3D-Erfassung mittels Spektroskopie
EP3622247B1 (de) Verfahren zur referenzierung mehrerer sensoreinheiten und zugehörige messeinrichtung
WO2014000738A2 (de) Verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts und vorrichtung zur bilderfassung
DE102004037137A1 (de) Verfahren und Vorrichtung zur Entfernungsmessung
WO1991008439A1 (de) Verfahren und anordnung zur optoelektronischen vermessung von gegenständen
DE202018104053U1 (de) Messvorrichtung zur interferometrischen Vermessung eines Messobjekts
DE102011012611B4 (de) Verfahren und Vorrichtung zur berührungslosen Messung eines Winkels
EP3418680B1 (de) System und verfahren zur positionierungsmessung
WO2019197656A1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE102014007201A1 (de) Vorrichtung und Verfahren zur geometrischen Vermessung eines Objekts
DE102013103252B4 (de) Erhöhung der Messgenauigkeit bei einer Vermessung mit Lichtschnittsensoren durch gleichzeitige Kalibrierung und Reduzierung von Speckles
CH702255A1 (de) Vorrichtung zur räumlichen Erfassung eines Objekts mittels optischer Abtastung.
DE102013103251B4 (de) Erhöhung der Messgenauigkeit bei einer Vermessung mit Lichtschnittsensoren durch gleichzeitige Kalibrierung und Vermeidung von Speckles
WO2018054888A1 (de) Verfahren und vorrichtung zur stereo-photogrammetrischen vermessung von unterschiedlichen objekten
DE102006013318A1 (de) 3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination von geometrischen und photometrischen Verfahren
DE102011101509C5 (de) Verfahren zur optischen Vermessung einer Welle
DE102006013316A1 (de) 3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination der Methode des Depth from Defokus und der des Shape from Motion
DE102013210736A1 (de) Vorrichtung zum Ermitteln der Lage von mechanischen Elementen
DE102013103253B4 (de) Laser-Lichtschnittsensor mit verbesserter Messgenauigkeit durch Reduktion von Speckles
DE102014119436B4 (de) Koordinatenmessgerät und Verfahren zum Bestimmen von geometrischen Eigenschaften eines Messobjekts unter Verwendung einer Lichtfeldkamera
EP3296688A1 (de) Verfahren und vorrichtung zur stereo-photogrammetrischen vermessung von unterschiedlichen objekten
DE102014117498B4 (de) Optische Vermessungsvorrichtung und Verfahren zur optischen Vermessung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee