DE102017118767B4 - Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts - Google Patents

Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts Download PDF

Info

Publication number
DE102017118767B4
DE102017118767B4 DE102017118767.7A DE102017118767A DE102017118767B4 DE 102017118767 B4 DE102017118767 B4 DE 102017118767B4 DE 102017118767 A DE102017118767 A DE 102017118767A DE 102017118767 B4 DE102017118767 B4 DE 102017118767B4
Authority
DE
Germany
Prior art keywords
measurement
measuring
camera
measurement results
arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017118767.7A
Other languages
English (en)
Other versions
DE102017118767A1 (de
Inventor
Franz-Georg Ulmer
Christian Hörr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE102017118767.7A priority Critical patent/DE102017118767B4/de
Priority to US15/999,119 priority patent/US10458784B2/en
Publication of DE102017118767A1 publication Critical patent/DE102017118767A1/de
Application granted granted Critical
Publication of DE102017118767B4 publication Critical patent/DE102017118767B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2504Calibration devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts (30), mit den Schritten:- Bereitstellen einer ersten Messanordnung (12) zum Bestimmen von 3D-Koordinaten an ersten ausgewählten Messpunkten (36) des Messobjekts (30),- Bereitstellen einer zweiten Messanordnung (24) zum Bestimmen von Oberflächennormalen (32) an zweiten ausgewählten Messpunkten (34) des Messobjekts (30), wobei die zweite Messanordnung eine Anzahl an Lichtquellen (26) und eine erste Kamera (16) beinhaltet, die auf das Messobjekt (30) ausgerichtet ist,- Bestimmen von 3D-Koordinaten an den ersten ausgewählten Messpunkten (36) unter Verwendung der ersten Messanordnung (12), wobei die 3D-Koordinaten erste Messergebnisse definieren,- Bestimmen von Oberflächennormalen (32) an den zweiten ausgewählten Messpunkten (34) unter Verwendung der zweiten Messanordnung (24), wobei die Oberflächennormalen (32) zweite Messergebnisse definieren, und- Bestimmen der dimensionellen und/oder geometrischen Eigenschaften des Messobjekts (30) unter Verwendung der ersten und zweiten Messergebnisse, dadurch gekennzeichnet, dass ferner ein Kalibrierdatensatz (22) bereitgestellt wird, der individuelle Abstrahlcharakteristika (64) der Lichtquellen (26) repräsentiert, und dass die zweiten Messergebnisse unter Verwendung des Kalibrierdatensatzes (22) und unter Verwendung der ersten Messergebnisse bestimmt werden.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts, mit den Schritten:
    • - Bereitstellen einer ersten Messanordnung zum Bestimmen von 3D-Koordinaten an ersten ausgewählten Messpunkten des Messobjekts,
    • - Bereitstellen einer zweiten Messanordnung zum Bestimmen von Oberflächennormalen an zweiten ausgewählten Messpunkten des Messobjekts, wobei die zweite Messanordnung eine Anzahl an Lichtquellen und - zumindest - eine erste Kamera beinhaltet, die auf das Messobjekt ausgerichtet ist,
    • - Bestimmen von 3D-Koordinaten an den ersten ausgewählten Messpunkten unter Verwendung der ersten Messanordnung, wobei die 3D-Koordinaten erste Messergebnisse definieren,
    • - Bestimmen von Oberflächennormalen an den zweiten ausgewählten Messpunkten unter Verwendung der zweiten Messanordnung, wobei die Oberflächennormalen zweite Messergebnisse definieren, und
    • - Bestimmen der dimensionellen und/oder geometrischen Eigenschaften des Messobjekts unter Verwendung der ersten und zweiten Messergebnisse.
  • Die Erfindung betrifft ferner eine Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts, mit einer ersten Messanordnung zum Bestimmen von 3D-Koordinaten an ersten ausgewählten Messpunkten des Messobjekts, mit einer zweiten Messanordnung zum Bestimmen von Oberflächennormalen an zweiten ausgewählten Messpunkten des Messobjekts, wobei die zweite Messanordnung eine Anzahl an Lichtquellen und - zumindest - eine erste Kamera beinhaltet, die auf das Messobjekt ausgerichtet ist, und mit einer Auswerte- und Steuereinheit, die dazu eingerichtet ist, an den ersten ausgewählten Messpunkt 3D-Koordinaten unter Verwendung der ersten Messanordnung zu bestimmen, wobei die 3D-Koordinaten erste Messergebnisse definieren, die ferner dazu ausgerichtet ist, an den zweiten ausgewählten Messpunkten unter Verwendung der zweiten Messanordnung Oberflächennormalen zu bestimmen, wobei die Oberflächennormalen zweite Messergebnisse definieren, und die ferner dazu eingerichtet ist, die dimensionellen und/oder geometrischen Eigenschaften des Messobjekts unter Verwendung der ersten und zweiten Messergebnisse zu bestimmen.
  • Ein solches Verfahren und eine solche Vorrichtung sind aus einer Publikation von Diego Nehab et al. mit dem Titel „Efficiently Combining Positions and Normals for Precise 3D Geometry“, ACM Transactions on Graphics (Proc. of ACM SIGGRAPH 2005) bekannt.
  • Das Bestimmen von dimensionellen und/oder geometrischen Eigenschaften von Objekten ist eine typische Aufgabe der industriellen Messtechnik. Beispielsweise werden die geometrischen und/oder dimensionellen Eigenschaften eines individuellen Werkstücks zur Qualitätssicherung in industriellen Produktionsprozessen bestimmt, um zu prüfen, ob das Werkstück vorgegebene Toleranzen einhält. Auch bei der Entwicklung und Konstruktion von neuen Produkten ist es häufig wünschenswert, die individuellen Eigenschaften eines Prototyps oder eines mit dem zu konstruierenden Werkstück kooperierenden Gegenstücks zu messen. Die dimensionellen und/oder geometrischen Eigenschaften können Abstände zwischen einzelnen Merkmalen an dem Werkstück, wie etwa den Abstand zwischen zwei Kanten oder den Durchmesser einer Bohrung beinhalten, aber auch die komplexe geometrische Raumform des Werkstücks. Es ist zunehmend gewünscht, einen sogenannten 3D-Scan eines Werkstücks oder Werkstückteils zu erhalten. Der 3D-Scan liefert eine Vielzahl von Raumkoordinaten (3D-Koordinaten), die die Position zahlreicher Messpunkte an dem Werkstück relativ zu einem Bezugskoordinatensystem definieren und die somit die komplexe Raumform des Werkstücks beschreiben. Anhand der gemessenen Raumkoordinaten kann man die dimensionellen und/oder geometrischen Eigenschaften bestimmen.
  • Es gibt verschiedene Verfahren, um einen 3D-Scan eines Werkstücks bzw. Messobjekts zu erhalten. Beispielsweise kann ein Tastelement verwendet werden, um die gewünschten Messpunkte physisch zu berühren, wobei die Raumkoordinaten der Messpunkte aus der jeweiligen Position des kalibrierten Tastelements relativ zu dem Bezugskoordinatensystem bestimmt werden. Daneben gibt es verschiedene berührungslose Verfahren, um die Position von Messpunkten relativ zu einem Bezugskoordinatensystem zu bestimmen. Einige Verfahren basieren auf Triangulation, indem das Messobjekt mit einer oder mehreren Kameras aufgenommen wird und die Auswertung der Kamerabilder auf trigonometrischen Beziehungen beruht. Bei einigen dieser Verfahren wird das Messobjekt mit einem definierten Muster beleuchtet, etwa bei den so genannten Streifenprojektionsverfahren. Jedes Verfahren besitzt spezifische Vor- und Nachteile in Bezug auf den Geräteaufwand und in Bezug auf die Größe des Messvolumens, die erreichbare Messgenauigkeit, Messgeschwindigkeit u.a. Streifenprojektionsverfahren sind beispielsweise empfindlich gegenüber Bildrauschen und sie eignen sich nicht bei stark glänzenden Oberflächen.
  • Eine Publikation von R. J. Woodham mit dem Titel „Photometrie Method for Determining Surface Orientation from Multiple Images“, veröffentlicht in Optical Engineering, 19(1), 1980, beschreibt ein Verfahren, mit dem die jeweilige lokale Orientierung der Messobjektoberfläche an einer Vielzahl von Messpunkten bestimmt werden kann, indem die Oberfläche nacheinander aus verschiedenen Richtungen beleuchtet wird. Mit einer feststehenden Kamera werden Bilder von der jeweils beleuchteten Oberfläche aufgenommen und daraus die so genannten Oberflächennormalen bestimmt. Eine Oberflächennormale ist ein Vektor, der senkrecht auf der Oberfläche steht und somit die Orientierung der Oberfläche an dieser Stelle repräsentiert. Das Verfahren von Woodham ist unter der Bezeichnung Photometrie Stereo bekannt und basiert auf der Annahme unendlich weit entfernter, punktförmiger Lichtquellen mit jeweils gleicher Lichtintensität. Diese Annahme ist in der Praxis nicht einzuhalten, was zu Messfehlern bei der Bestimmung der Oberflächennormalen führt.
  • Die eingangs genannte Publikation von Nehab et al. schlägt eine rechnerische Kombination der Messergebnisse aus einem Streifenprojektionsverfahren und aus einem Photometrie Stereo Verfahren vor. Mit den 3D-Koordinaten aus dem Streifenprojektionsverfahren kann man die Oberflächennormalen des Messobjekts berechnen. Umgekehrt kann man anhand der Oberflächennormalen aus Photometrie Stereo die Objektoberfläche und daraus 3D-Koordinaten rekonstruieren. Streifenprojektionsverfahren führen zu vergleichsweise kurzweiligen/hochfrequenten Messfehlern (bezogen auf die Ausdehnung der Oberfläche) in Form eines scheinbar zufälligen, hochfrequenten Rauschens. Im Unterschied dazu sind die Messfehler bei Photometrie Stereo vergleichsweise langwellig. Nehab et al. schlagen vor, die „guten“ Messergebnisse des Streifenprojektionsverfahrens im langwelligen Bereich rechnerisch mit den „guten“ Messergebnissen des photometrischen Stereoverfahrens im kurzweiligen/hochfrequenten Bereich zu kombinieren. Die Objektoberfläche soll damit detailgetreuer und genauer rekonstruiert werden als mit jedem der einzelnen Verfahren.
  • Es gibt darüber hinaus viele andere Vorschläge, um die Genauigkeit einer messtechnischen Rekonstruktion einer Objektoberfläche zu erhöhen. Beispielsweise schlagen Mohit Gupta et al. in einer Publikation mit dem Titel „A Practical Approach to 3D Scanning in the Presence of Interreflections, Subsurface Scattering and Defocus“, veröffentlicht im International Journal of Computer Vision 102.1 bis 3 (2013), die Verwendung spezieller Projektionsmuster für ein Streifenprojektionsverfahren vor, um Mehrfachreflexionen, tiefliegende Streuungen (Subsurface Scattering) und Fokusfehler besser zu beherrschen.
    Zwei weitere Publikationen diskutieren Verbesserungen bei der Verwendung von räumlich naheliegenden Punktlichtquellen für photometrisches Stereo, nämlich Woyuan Xie et al. „Photometrie Stereo with Nearpoint Lighting: A Solution by Mesh Deformation“, veröffentlicht in IEEE Conference of Computer Vision and Pattern Recognition (CVPR) und Thoma Papadhimitri et al. „Uncalibrated Near-Light Photometrie Stereo“, veröffentlicht in Proceedings of the British Machine Vision Conference 2014.
  • DE 10 2010 007 396 A1 offenbart ein Verfahren und eine Vorrichtung zum optischen Inspizieren eines Messobjekts mit einer zumindest teilweise reflektierenden Oberfläche, um die lokalen Streueigenschaften der Objektoberfläche zu bestimmen. Bei diesem Verfahren wird die Objektoberfläche ähnlich wie beim photometrischen Stereoverfahren der Reihe nach mit unterschiedlich positionierten Lichtquellen beleuchtet. Eine Kamera nimmt eine Serie von Bildern mit den unterschiedlichen Beleuchtungen auf. Anschließend wird ein individuelles Lichtherkunftsgebiet für zumindest ein Kamerapixel bestimmt. Das Lichtherkunftsgebiet repräsentiert die räumliche Verteilung der individuellen Lichtbeiträge, die die einzelnen Lichtquellen über die Oberfläche des Messobjekts auf dem zumindest einen Pixel erzeugen. Anhand des individuellen Lichtherkunftsgebietes werden dann die Streueigenschaften des von dem Kamerapixel aufgenommenen Oberflächenpunktes bestimmt. Eine 3D-Koordinatenmessung und eine darauf basierende Bestimmung von dimensionellen und/oder geometrischen Eigenschaften des Messobjekts ist bei diesem Verfahren nicht vorgesehen.
  • Die Publikation „3D Range Scan Enhancement Using Image-Based Methods“ von Steffen Herbort et al., veröffentlicht in ISPRS Journal of Photogrammetry and Remote Sensing, 84 (2013), Seiten 69 bis 84 offenbart ein Verfahren zur 3D-Rekonstruktion einer Objektoberfläche, bei dem Tiefeninformationen von einem Laserscanner und photometrisch bestimmte Normaldaten der Oberfläche miteinander kombiniert werden. Das Verfahren basiert auf der Minimierung eines Fehlerterms mit drei Komponenten, was Intensitätsabweichungen, Abweichungen hinsichtlich der Integrierbarkeit und Abweichungen von der bekannten Oberflächenform „bestraft“.
  • DE 10 2015 203 396 A1 offenbart ein Verfahren und eine Vorrichtung zur Bestimmung der Topographie einer Objektoberfläche mit zwei Bilderfassungseinheiten, deren Erfassungsbereiche zumindest überlappen. Die Vorrichtung besitzt darüber hinaus zumindest eine Lichtquelle, die dazu eingerichtet ist, Licht aus unterschiedlichen Einfallsrichtungen in zumindest einen Erfassungsbereich zu emittieren. Durch Modellierung der beobachteten Intensität in Abhängigkeit des Ortes kann ein Feld von Normalenvektoren für unterschiedliche Teilflächen im Erfassungsbereich der jeweiligen Bilderfassungseinheit berechnet werden.
  • US 2016/0261844 A1 offenbart ein Verfahren mit einer 3D-Tiefenkamera, die eine grobe Tiefenkarte von einem Objekt erzeugt und kombiniert diese Daten mit Oberflächennormalen, die anhand von Polarisationsbildern berechnet werden.
  • Vor diesem Hintergrund ist es eine Aufgabe der vorliegenden Erfindung, ein alternatives Verfahren bzw. eine alternative Vorrichtung Art anzugeben, die eine hohe Messgenauigkeit beim Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts auf effiziente Weise ermöglichen.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird diese Aufgabe durch ein Verfahren der eingangs genannten Art gelöst, wobei ferner ein Kalibrierdatensatz bereitgestellt wird, der individuelle Abstrahlcharakteristika der Lichtquellen repräsentiert, und wobei die zweiten Messergebnisse unter Verwendung des Kalibrierdatensatzes und unter Verwendung der ersten Messergebnisse bestimmt werden.
  • Gemäß einem weiteren Aspekt wird diese Aufgabe durch eine Vorrichtung der eingangs genannten Art gelöst, wobei die Auswerte- und Steuereinheit einen Kalibrierdatensatz aufweist, der individuelle Abstrahlcharakteristika der Lichtquellen repräsentiert, und wobei die Auswerte- und Steuereinheit dazu eingerichtet ist, die zweiten Messergebnisse unter Verwendung des Kalibrierdatensatzes und unter Verwendung der ersten Messergebnisse zu bestimmen.
  • Das neue Verfahren und die neue Vorrichtung basieren auf der Idee, die 3D-Koordinaten der ersten Messergebnisse schon bei der Bestimmung der Oberflächennormalen zu verwenden, um die konzeptionellen Messfehler beim klassischen Photometrie Stereo von vornherein zu vermeiden. Im Unterschied zu Nehab et al. werden die zweiten Messergebnisse hiernach also nicht gänzlich separat von den ersten Messergebnissen bestimmt und anschließend, d.h. nach der Bestimmung der Oberflächennormalen, mit den ersten Messergebnissen kombiniert. Vielmehr fließen Informationen, die mit Hilfe der ersten Messergebnisse in Bezug auf das konkrete Messobjekt gewonnen wurden, bereits vorab in die Bestimmung der Oberflächennormalen ein.
  • Zusätzlich verwenden das neue Verfahren und die neue Vorrichtung einen Kalibrierdatensatz, der die individuellen richtungsabhängigen Abstrahlcharakteristika der Lichtquellen in der zweiten Messanordnung repräsentiert. Auch dieser Kalibrierdatensatz stellt a priori-Wissen bereit, das für die Bestimmung der Oberflächennormalen vorteilhaft verwendet werden kann, um konzeptionelle Messfehler bei Photometrie Stereo von vornherein zu vermeiden. Infolgedessen liefert die zweite Messanordnung zweite Messergebnisse mit einer höheren Messgenauigkeit. Insbesondere werden die langwelligen Messfehler von vornherein reduziert, die Nehab et al. erst durch nachträgliche Kombination mit den 3D-Koordinaten aus der ersten Messanordnung korrigieren.
  • Die höhere Genauigkeit der zweiten Messanordnung überträgt sich vorteilhaft auf die Messgenauigkeit bei der Bestimmung der dimensionellen und/oder geometrischen Eigenschaften. Vorteilhaft können die genaueren zweiten Messergebnisse verwendet werden, um Messfehler der ersten Messanordnung über den gesamten Frequenzbereich zu korrigieren und somit insgesamt weiter zu reduzieren. So ermöglichen das neue Verfahren und die neue Vorrichtung durch eine effiziente Nutzung der ersten Messergebnisse eine höhere Detailgenauigkeit über den gesamten Fehlerfrequenzbereich. Die oben genannte Aufgabe ist vollständig gelöst.
  • In einer bevorzugten Ausgestaltung der Erfindung werden die ersten Messergebnisse unter Verwendung der zweiten Messergebnisse korrigiert, um dritte Messergebnisse zu erhalten, wobei die dimensionellen und/oder geometrischen Eigenschaften des Messobjekts unter Verwendung der zweiten und/oder dritten Messergebnisse bestimmt werden.
  • Alternativ hierzu könnten die Eigenschaften des Messobjekts allein anhand der zweiten Messergebnisse bestimmt werden, die aufgrund der Berücksichtigung des a priori-Wissens aus den ersten Messergebnissen schon eine höhere Messgenauigkeit im gesamten Frequenzbereich ermöglichen. In der bevorzugten Ausgestaltung werden die ersten Messergebnisse, d.h. die 3D-Koordinaten an den ersten ausgewählten Messpunkten, unter Verwendung des nunmehr vorhandenen Wissens aus den zweiten Messergebnissen verifiziert und, sofern erforderlich, korrigiert, um eine nochmals erhöhte Messgenauigkeit zu erreichen. Im Unterschied zu dem Verfahren von Nehab et al. können die ersten Messergebnisse über den gesamten Frequenzbereich korrigiert werden, da insbesondere die Messfehler der zweiten Messanordnung im langwelligen Bereich reduziert sind.
  • Prinzipiell kann zur Korrektur das Verfahren von Nehab et al. verwendet werden. In einigen Ausführungsbeispielen werden anhand der zweiten Messergebnisse 3D-Koordinaten für die zweiten ausgewählten Messpunkte bestimmt und die 3D-Koordinaten aus den ersten Messergebnissen und die 3D-Koordinaten aus den zweiten Messergebnissen werden miteinander kombiniert, beispielsweise mit dem Verfahren der kleinsten Fehlerquadrate oder mit einem anderen Ausgleichsalgorithmus.
  • In einigen Ausführungsbeispielen können die ersten ausgewählten Messpunkte und die zweiten ausgewählten Messpunkte verschieden voneinander sein. In anderen Ausführungsbeispielen können die ersten ausgewählten Messpunkte und die zweiten ausgewählten Messpunkte jeweils identische Messpunkte an dem Messobjekt sein. Des Weiteren ist eine Mischung möglich, so dass für einige ausgewählte Messpunkte sowohl erste Messergebnisse als auch zweite Messergebnisse vorliegen, während für andere ausgewählte Messpunkte jeweils nur ein erstes Messergebnis oder ein zweites Messergebnis vorliegt. Unabhängig davon können die dimensionellen und/oder geometrischen Eigenschaften des Messobjekts in der bevorzugten Ausgestaltung mit einer sehr hohen Messgenauigkeit und Detailtreue und auf sehr effiziente Weise bestimmt werden.
  • In einer weiteren Ausgestaltung werden unter Verwendung der zweiten Messergebnisse stetige Bereiche des Messobjekts bestimmt und die ersten Messergebnisse werden nur in den stetigen Bereichen unter Verwendung der zweiten Messergebnisse korrigiert.
  • Das Bestimmen eines stetigen Bereichs kann anhand der zweiten Messergebnisse einfach erfolgen, indem für die Ausrichtung der Normalenvektoren eines stetigen Bereichs ein Toleranzintervall definiert wird. Benachbarte Messpunkte, deren Oberflächennormale innerhalb des Toleranzintervalls liegen, werden dem stetige Bereich zugerechnet. Messpunkte, deren Oberflächennormale außerhalb des Toleranzintervalls liegen, werden nicht mehr zu dem stetigen Bereich gezählt. In dieser Ausgestaltung werden für die Korrektur der ersten Messergebnisse nur zweite Messergebnisse aus Oberflächenbereichen verwendet, die weitgehend ähnliche Oberflächennormale haben. Die Ausgestaltung ermöglicht eine höhere Messgenauigkeit an Kanten, Ecken und anderen abrupten Objektkonturen, an denen eine für das Postprocessing angenommene Stetigkeitsbedingung nicht erfüllt ist. Indem man die Korrektur der ersten Messwerte auf stetige Oberflächenbereiche beschränkt, vermeidet man, dass unstetige Bereiche, wie Werkstückkanten, im Rahmen des Postprocessing „verrundet“ werden.
  • In einer weiteren Ausgestaltung werden die ersten Messergebnisse unter Verwendung der zweiten Messergebnisse interpoliert und/oder extrapoliert und die dimensionellen und/oder geometrischen Eigenschaften des Messobjekts werden unter Verwendung der interpolierten und/oder extrapolierten Messergebnisse bestimmt. In einigen bevorzugten Ausführungsbeispielen beinhaltet diese Ausgestaltung eine subpixelgenaue Rekonstruktion der Messobjektoberfläche unter Verwendung der ersten und zweiten Messergebnisse.
  • Die erste und die zweite Messanordnung arbeiten jeweils mit einer Auflösung, die durch das verwendete Verfahren und die verwendeten Komponenten bestimmt ist. Durch Interpolation und/oder Extrapolation der mit der ersten Messanordnung erhaltenen Messergebnisse kann eine höhere Auflösung rechnerisch erreicht werden. Außerdem können Oberflächenbereiche des Messobjekts, an denen die erste Messanordnung keine verwertbaren 3D-Koordinaten liefert (beispielsweise wegen lokaler Unterbelichtung oder Überbelichtung), durch Interpolation und/oder Extrapolation „aufgefüllt“ werden. Dabei besitzt diese Ausgestaltung den Vorteil, dass durch die zweiten Messergebnisse zusätzliche Stützstellen zur Verfügung stehen, mit deren Hilfe die rechnerische Interpolation und/oder Extrapolation verifiziert und optimiert werden kann. Die Ausgestaltung trägt vorteilhaft zu einer hohen Messauflösung und insbesondere zur Datenvollständigkeit bei.
  • In einer weiteren Ausgestaltung wird unter Verwendung der ersten Messwerte und des Kalibrierdatensatzes jeweils ein individueller Lichtvektor zwischen einer Lichtquelle und einem der zweiten Messpunkte bestimmt und die zweiten Messergebnisse werden unter Verwendung der jeweiligen individuellen Lichtvektoren bestimmt. Vorzugsweise wird unter Verwendung der ersten Messwerte und des Kalibrierdatensatzes außerdem eine bidirektionale Reflexionsverteilungsfunktion (Bidirectional Reflectance Distribution Function, BRDF) an den zweiten ausgewählten Messpunkten bestimmt und die zweiten Messergebnisse werden unter Verwendung der jeweiligen BRDF an den zweiten ausgewählten Messpunkten bestimmt.
  • Wie bereits weiter oben angedeutet, kann mit dieser Ausgestaltung die Messgenauigkeit der zweiten Messwerte über den gesamten Frequenzbereich gesteigert werden, weil systematische Messfehler aufgrund rein theoretischer, vereinfachender Annahmen entfallen oder zumindest spürbar reduziert werden. Die Ausgestaltung trägt daher auf besonders effiziente Weise dazu bei, die Messgenauigkeit insgesamt zu erhöhen.
  • In einer weiteren Ausgestaltung weist die zweite Messanordnung eine erste und zumindest eine zweite Lichtquelle auf, wobei die jeweiligen individuellen Lichtvektoren für die erste und für die zumindest eine zweite Lichtquelle separat bestimmt werden, und wobei die individuellen richtungsabhängigen Abstrahlcharakteristika der ersten und der zumindest einen zweiten Lichtquelle unter Verwendung der individuellen Lichtvektoren normiert werden.
  • Mit dieser Ausgestaltung wird die Messgenauigkeit des neuen Verfahrens und der neuen Vorrichtung weiter erhöht. Prinzipiell ist es möglich, dass die zweite Messanordnung lediglich eine Lichtquelle aufweist, die im Verlauf der Messung an verschiedenen Positionen relativ zu dem Messobjekt positioniert wird. Dies kann in einigen Ausführungsbeispielen, von denen eines weiter unten beschrieben ist, automatisiert erfolgen. In anderen Ausführungsbeispielen weist die zweite Messanordnung aber eine Vielzahl an Lichtquellen auf, die an verschiedenen Positionen relativ zu dem Messobjekt positioniert sind. In der Praxis können die individuellen Abstrahlcharakteristika der verschiedenen Lichtquellen variieren, insbesondere in Bezug auf die Lichtintensität und/oder die Bündelung des Lichtkegels. Mit der vorliegenden Ausgestaltung werden die Abstrahlcharakteristika der verschiedenen Lichtquellen rechnerisch normiert bzw. vereinheitlicht. Dadurch werden Messfehler, die auf Unterschiede in den Abstrahlcharakteristika der Lichtquellen zurückzuführen sind, eliminiert oder zumindest reduziert.
  • In einer weiteren Ausgestaltung weist die zweite Messanordnung eine Vielzahl von verschiedenfarbigen Lichtquellen auf.
  • Diese Ausgestaltung ermöglicht einen schnelleren Messablauf, indem verschiedenfarbige Lichtquellen das Messobjekt zeitgleich beleuchten. Anhand der verschiedenen Lichtfarben (Lichtwellenlängen) kann die Auswerte- und Steuereinheit die Lichtanteile der einzelnen Lichtquellen in dem Bild des Messobjekts voneinander trennen. Damit benötigt das Verfahren in der vorliegenden Ausgestaltung weniger Bildaufnahmen bei gleichbleibender Messgenauigkeit.
  • In einer weiteren Ausgestaltung wird ein erstes und ein zweites Bild von einem Kalibrierobjekt mit der Kamera aufgenommen, wobei das Kalibrierobjekt beim ersten Bild mit den verschiedenfarbigen Lichtquellen beleuchtet wird, und wobei das Kalibrierobjekt beim zweiten Bild mit einer Weißlichtquelle beleuchtet wird.
  • Diese Ausgestaltung ist vorteilhaft, um die verschiedenfarbigen Lichtquellen anhand des zweiten Bildes zu normieren. Die Ausgestaltung ermöglicht zudem eine einfache und schnelle Bestimmung des Kalibrierdatensatzes anhand einer begrenzten Anzahl an Bildaufnahmen. Das Kalibrierobjekt kann ein diffus reflektierender Körper sein, der an einer oder mehreren Positionen innerhalb des Messvolumens positioniert wird. Es ist von Vorteil, wenn die bidirektionale Reflexionsverteilungsfunktion BRDF des Kalibrierobjekts bekannt ist und/oder das Kalibrierobjekt über seine Oberfläche hinweg gleichmäßig diffus reflektiert. Beispielsweise kann das Kalibrierobjekt eine Keramikplatte oder auch ein anderer Formkörper mit einer diffus reflektierenden Oberfläche sein.
  • In einer weiteren Ausgestaltung besitzt die zweite Messanordnung ein Gehäuse, in dem die erste Kamera angeordnet ist, wobei die Lichtquellen an dem Gehäuse angeordnet sind.
  • In dieser Ausgestaltung sind zumindest einige Lichtquellen in einer mechanisch starren Position relativ zu der ersten Kamera angeordnet. Die Ausgestaltung besitzt den Vorteil, dass die Position dieser Lichtquellen relativ zu der Kamera weitgehend fix ist und daher nicht von einer individuellen, vom Bediener festgelegten Platzierung abhängt. Die zweite Messanordnung kann daher einfacher und schneller in Betrieb genommen werden und ein Kalibrierdatensatz kann - zumindest in Bezug auf die an dem Gehäuse angeordneten Lichtquellen - über relativ lange Betriebszeiträume verwendet werden. Alternativ oder ergänzend hierzu kann die zweite Messanordnung (weitere) Lichtquellen besitzen, die separat von dem Gehäuse positioniert werden. Eine solche Ausgestaltung ist besonders vorteilhaft, um große Messobjekte mit dem neuen Verfahren und der neuen Vorrichtung zu messen.
  • In einer weiteren Ausgestaltung weist die erste Messanordnung einen Musterprojektor und eine zweite Kamera auf, die in einer definierten Position und Orientierung zueinander angeordnet sind.
  • In dieser Ausgestaltung arbeitet die erste Messanordnung vorteilhaft nach einem Streifenprojektionsverfahren oder einem ähnlichen Verfahren, bei dem geeignete Muster auf die Messobjektoberfläche projiziert werden, und bei dem die 3D-Koordinaten anhand der trigonometrischen Beziehung zwischen dem Musterprojektor und der zweiten Kamera bestimmt werden. Solche Verfahren ermöglichen eine schnelle Messwertaufnahme an einer Vielzahl von Messpunkten. Sie liefen auch ohne die oben erläuterte Korrektur der ersten Messwerte bereits gute Messergebnisse, weshalb sich eine solche erste Messanordnung sehr vorteilhaft in der neuen Vorrichtung und mit dem neuen Verfahren nutzen lässt.
  • In einer weiteren Ausgestaltung sind die erste und die zweite Kamera identisch.
  • Prinzipiell ist es möglich, dass die erste Messanordnung und die zweite Messanordnung jeweils eigene Kameras verwenden. In der hier bevorzugten Ausgestaltung ist jedoch zumindest eine Kamera Bestandteil beider Messanordnungen. In einigen Ausführungsbeispielen besitzt die neue Vorrichtung eine einzelne Kamera, die sowohl Bestandteil der ersten Messanordnung als auch Bestandteil der zweiten Messanordnung ist. Alternativ können andere Ausführungsbeispiele der neuen Vorrichtung zwei Kameras beinhalten, von denen eine Bestandteil der ersten und der zweiten Messanordnung ist, während die andere Kamera lediglich Bestandteil der ersten Messanordnung ist. Die Verwendung von zwei Kameras als Bestandteil der ersten Messanordnung ermöglicht eine (zusätzliche) trigonometrische Auswertung und kann daher für manche Anwendungen vorteilhaft sein. Generell besitzt diese Ausgestaltung den Vorteil, dass sich das neue Verfahren und die neue Vorrichtung kostengünstig realisieren lassen.
  • In einer weiteren Ausgestaltung besitzt die zweite Kamera eine Kameraauflösung und der Musterprojektor besitzt eine Projektorauflösung, die kleiner ist als die Kameraauflösung, wobei die erste Messanordnung die Kameraauflösung in Abhängigkeit von den zweiten Messergebnissen begrenzt.
  • Diese Ausgestaltung trägt dazu bei, ein Messobjekt innerhalb eines Messvolumens mit einer optimalen Auflösung zu messen. Die Messauflösung der ersten Messanordnung ist typischerweise durch die maximale Auflösung des Musterprojektors begrenzt, da die technische Entwicklung bei Kameras wesentlich weiter ist und zu höheren Auflösungen geführt hat als bei Projektoren. Die Auflösung eines projizierten Musters auf dem Messobjekt hängt allerdings nicht nur von dem Musterprojektor selbst ab, sondern auch von der Entfernung zwischen dem Musterprojektor und der Objektoberfläche. Infolgedessen kann die maximal erreichbare Messauflösung abhängig von der Positionierung des Messobjekts im Messvolumen variieren. Mit der vorliegenden Ausgestaltung wird vorteilhaft eine optimale Messauflösung für eine konkrete Messaufgabe bestimmt und verwendet. In einigen Ausführungsbeispielen kann dies adaptiv erfolgen, so dass für jede Messobjektoberfläche und vorzugsweise sogar für jeden Bereich der Messobjektoberfläche eine optimale Messauflösung verwendet wird.
  • In einer weiteren Ausgestaltung wird ein Projektionsmuster, mit dem der Musterprojektor das Messobjekt beleuchtet, in Abhängigkeit von Messwerten der zweiten Messanordnung bestimmt.
  • In dieser Ausgestaltung wird das Projektionsmuster in Abhängig von Informationen bestimmt, die mit Hilfe der zweiten Messanordnung gewonnen werden. Das neue Verfahren und die neue Vorrichtung dieser Ausgestaltung können ungünstige Mehrfachreflexionen des Projektionsmusters an Innenkanten des Messobjekts vorteilhaft vermeiden. Mehrfachreflexionen des Projektionsmusters können insbesondere die Messgenauigkeit der ersten Messanordnung ungünstig beeinflussen, was in dieser Ausgestaltung auf effiziente Weise vermieden wird. In einigen Ausführungsbeispielen wird das Messobjekt zunächst mit einem „Standard-Projektionsmuster“ mit der ersten Messanordnung gemessen. Anschließend werden unter Verwendung der ersten Messergebnisse und des Kalibrierdatensatzes die zweiten Messergebnisse mit der zweiten Messanordnung bestimmt, was aus den oben erläuterten Gründen bereits zu einer erhöhten Messgenauigkeit führt. Im Anschluss daran wird die Objektoberfläche mit der ersten Messanordnung nochmals gemessen, wobei dieser zweite Messdurchlauf mit einem optimierten Projektionsmuster erfolgt, das in Abhängigkeit von den zweiten Messergebnissen ausgewählt und/oder bestimmt wurde. In anderen Ausführungsbeispielen wird das Messobjekt zunächst mit der zweiten Messanordnung gemessen, wobei in diesem Fall ein konventionelles Photometrie Stereo Verfahren angewendet wird, um vorläufige Oberflächennormale zu erhalten. Anschließend wird die Objektoberfläche mit der ersten Messanordnung gemessen, wobei in Abhängigkeit von den vorläufigen Oberflächennormalen ein optimiertes Projektionsmuster ausgewählt und/oder bestimmt wird. Im Anschluss daran können die 3D-Koordinaten aus der ersten Messanordnung dann vorteilhaft verwendet werden, um mit der zweiten Messanordnung optimierte Oberflächennormale zu bestimmen. Vorteilhaft kann die zweite Messanordnung dabei die Kamerabilder des ersten Messdurchlaufs, also die Kamerabilder von dem konventionellen Photometrie Stereo Verfahren, verwenden, weil die neue Bestimmung der Oberflächennormalen rechnerisch erfolgt. Mit dieser Ausgestaltung wird eine besonders hohe Messgenauigkeit erreicht. Die zuletzt genannten Ausführungsbeispiele erlauben zudem eine im Vergleich zu den erstgenannten Ausführungsbeispielen verkürzte Messzeit.
  • Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen:
    • 1 eine schematische Darstellung eines ersten Ausführungsbeispiels der neuen Vorrichtung,
    • 2 eine schematische Darstellung zur Erläuterung der Funktionsweise der zweiten Messanordnung in der Vorrichtung aus 1,
    • 3 eine vereinfachte Darstellung einer Kamera- und Projektoranordnung mit zusätzlichen Lichtquellen für das Ausführungsbeispiel gemäß 1,
    • 4 ein weiteres Ausführungsbeispiel der neuen Vorrichtung in einer schematischen Darstellung, und
    • 5 ein Flussdiagramm zur Erläuterung eines Ausführungsbeispiels des neuen Verfahrens.
  • In 1 ist ein Ausführungsbeispiel der neuen Vorrichtung mit der Bezugsziffer 10 bezeichnet. Die Vorrichtung 10 weist eine erste Messanordnung 12 auf, die hier einen Projektor 14, eine Kamera 16 und eine Auswerte- und Steuereinheit 18 beinhaltet. Der Projektor 14 und die Kamera 16 sind in einer definierten und bekannten Position und Orientierung relativ zueinander angeordnet. Wie nachfolgend unter Bezugnahme auf 3 erläutert ist, können der Projektor 14 und die Kamera 16 in einem gemeinsamen Gerätegehäuse angeordnet sein, um die relative Position und Orientierung auf Dauer zu gewährleisten. Prinzipiell können der Projektor 14 und die Kamera 16 aber separat angeordnet sein, wobei die relative Position und Orientierung dann vor Ort jeweils bestimmt werden muss.
  • Die Auswerte- und Steuereinheit 18 beinhaltet einen Prozessor 20, der den Projektor 14 und die Bildaufnahme der Kamera 16 steuert. Des Weiteren wertet der Prozessor 20 die mit der Kamera 16 aufgenommenen Bilder aus. In einigen Ausführungsbeispielen ist die Auswerte- und Steuereinheit 18 auf einem handelsüblichen Personal Computer implementiert. In anderen Ausführungsbeispielen kann die Auswerte- und Steuereinheit 18 mit dem Prozessor 20 ein Spezialcomputer sein, der insbesondere auf eine schnelle Verarbeitung von großen Bilddaten optimiert ist.
  • Die Auswerte- und Steuereinheit 18 beinhaltet ferner einen Speicher, in dem ein Kalibrierdatensatz 22 gespeichert ist. Der Speicher kann weitere, hier nicht dargestellte Daten speichern, wie insbesondere ein ausführbares Computerprogramm, mit dessen Hilfe Ausführungsbeispiele des neuen Verfahrens implementiert sind.
  • Die Vorrichtung 10 beinhaltet ferner eine zweite Messanordnung 24 mit einer Kamera und einer Vielzahl an Lichtquellen 26. In dem hier dargestellten Ausführungsbeispiel ist die Kamera 16 auch Teil der zweiten Messanordnung 24. Die Kamera 16 dient in diesem Ausführungsbeispiel also einerseits zur Aufnahme von ersten Bildern, die in der Auswerte- und Steuereinheit 18 im Rahmen der ersten Messanordnung 12 ausgewertet werden. Andererseits dient die Kamera 16 zur Aufnahme von zweiten Bildern, die in der Auswerte- und Steuereinheit 18 im Rahmen der zweiten Messanordnung 24 ausgewertet werden. Auch die Auswerte- und Steuereinheit 18 kann dementsprechend Teil der ersten Messanordnung 12 und Teil der zweiten Messanordnung 24 sein. Prinzipiell ist es jedoch möglich, die erste Messanordnung 12 und die zweite Messanordnung 24 mit separaten Komponenten zu realisieren, also jeweils mit einer eigenen Kamera und/oder einer eigenen Auswerte- und Steuereinheit.
  • Die Lichtquellen 26 sind hier beispielhaft als LED-Lichtquellen dargestellt, die auf einem LED-Panel 28 angeordnet sind. In dem dargestellten Ausführungsbeispiel besitzt das LED-Panel 28 eine zentrale Öffnung, durch die die Kamera 16 Bilder von einem Messobjekt 30 aufnehmen kann, während dieses von einer oder mehreren Lichtquellen 26 beleuchtet wird. In den bevorzugten Ausführungsbeispielen arbeitet die zweite Messanordnung 24 nach dem photometrischen Stereoverfahren, wie es im Grundsatz aus den eingangs genannten Publikationen von R. J. Woodham und Nehab et al. bekannt ist. Diese Publikationen sind hier daher durch Bezugnahme aufgenommen.
  • Die zweite Messanordnung 24 kann weitere LED-Panels (hier nicht dargestellt) mit weiteren Lichtquellen beinhalten, die seitlich, oberhalb und/oder unterhalb von dem Messobjekt 30 angeordnet sind. Die Auswerte- und Steuereinheit 18 ist dazu eingerichtet, die verschiedenen Lichtquellen 26 in einer definierten Abfolge (einzeln oder in definierten Gruppen) ein- und auszuschalten, um das Messobjekt 30 aus unterschiedlichen Richtungen zu beleuchten. Die Auswerte- und Steuereinheit 18 ist ferner dazu eingerichtet, mit Hilfe der Kamera 16 Bilder von dem Messobjekt 30 bei den unterschiedlichen Beleuchtungen aufzunehmen. Des Weiteren ist die Auswerte- und Steuereinheit 18 dazu eingerichtet, unter Verwendung der Bilder Oberflächennormalen 32 an einer Vielzahl von Messpunkten 34 an der Oberfläche des Messobjekts 30 zu bestimmen. Die Oberflächennormalen 32 sind (gedachte) Vektoren, die an den jeweiligen Messpunkten 34 jeweils orthogonal auf der Messobjektoberfläche stehen. Eine Vielzahl solcher Oberflächennormalen 32 repräsentiert folglich den Verlauf der Oberfläche und damit die Form des Messobjekts 30.
  • Die erste Messanordnung 12 arbeitet in diesem bevorzugten Ausführungsbeispiel nach dem Prinzip der Streifenprojektion. Prinzipiell könnte die erste Messanordnung aber nach einem anderen Verfahren arbeiten, das 3D-Koordinaten der Objektoberfläche liefert.
  • Mit Hilfe des Projektors 14 wird hier ein definiertes Muster, insbesondere ein Streifenmuster, auf die Oberfläche des Messobjekts 30 projiziert. Die Auswerte- und Steuereinheit 18 ist dazu eingerichtet, ein oder mehrere Bilder von dem Messobjekt 30 einschließlich des projizierten Musters mit Hilfe der Kamera 16 aufzunehmen. Da der Projektor 14 und die Kamera 16 in einer definierten und bekannten Position und Orientierung zueinander stehen, kann die Auswerte- und Steuereinheit 18 anhand von trigonometrischen Beziehungen 3D-Koordinaten von Messpunkten 36 an der Oberfläche des Messobjekts 30 bestimmen. Anstelle eines Streifenmusters können prinzipiell auch andere Muster mit Hilfe des Projektors 14 auf die Oberfläche des Messobjekts 30 projiziert werden, beispielsweise Quadrate, Punkte, einzelne Linien oder Kombinationen davon.
  • Das Messobjekt 30 ist in diesem Ausführungsbeispiel auf einem Drehtisch 38 angeordnet, der über einen Antrieb 40 um eine Achse 42 gedreht werden kann. Dies macht es möglich, das Messobjekt 30 von mehreren Seiten automatisiert zu messen. Der Drehtisch wird von der Auswerte- und Steuereinheit 18 angesteuert.
  • Bei der Bezugsziffer 44 ist ein Kalibrierkörper dargestellt. Der Kalibrierkörper 44 wird hier verwendet, um den Kalibrierdatensatz 22 zu bestimmen. In den bevorzugten Ausführungsbeispielen repräsentiert der Kalibrierdatensatz 22 die individuellen richtungsabhängigen Abstrahlcharakteristika 45 aller Lichtquellen 26 der Messanordnung 24, wie dies nachfolgend anhand 2 näher erläutert ist. Darüber hinaus kann der Kalibrierdatensatz 22 in den bevorzugten Ausführungsbeispielen weitere Kalibrierdaten beinhalten, wie etwa Kalibrierdaten, die die innere Kalibrierung (Abbildungsfehler wie etwa Verzeichnung u.a.) und die äußere Kalibrierung der Kamera 16 relativ zu dem Projektor 14 repräsentieren. Des Weiteren kann der Kalibrierdatensatz 22 Kalibrierdaten beinhalten, die individuelle Eigenschaften des Projektors 14 und/oder des Drehtisches 38 mit dem Antrieb 40 repräsentieren. Der Prozessor 20 der Auswerte- und Steuereinheit 18 verwendet die Daten aus dem Kalibrierdatensatz 22 vorteilhaft, um dimensionelle und/oder geometrische Eigenschaften des Messobjekts 30 nach dem neuen Verfahren zu bestimmen.
  • In 2 ist ein Ausschnitt aus der Oberfläche 46 des Messobjekts 30 dargestellt. Anstelle des Messobjekts 30 könnte der Ausschnitt aus der Oberfläche des Kalibrierobjekts 44 sein, nämlich während die Vorrichtung 10 kalibriert wird, um den Kalibrierdatensatz 22 zu bestimmen. Bei der Bezugsziffer 48 ist der Bildsensor der Kamera 16 dargestellt. Der Bildsensor 48 besitzt eine Vielzahl an Kamerapixeln 50. Bei der Bezugsziffer 52 ist die Kameraoptik der Kamera 16 vereinfacht dargestellt. Die Kamera 16 nimmt durch die Kameraoptik 52 einfallende Lichtstrahlen auf, die ein oder mehrere Kamerapixel 50 des Bildsensors 48 beleuchten.
  • Des Weiteren ist hier schematisch ein LED-Panel 28 dargestellt, das eine Vielzahl von LEDs 26a, 26b, 26c beinhaltet. In einigen Ausführungsbeispielen sind die LEDs 26a, 26b, 26c verschiedenfarbige LEDs. Beispielsweise könnte die LED 26a rotes Licht abstrahlen, während die LED 26b grünes Licht und die LED 26c blaues Licht abstrahlt. Wenngleich LED-Panel mit einer Vielzahl von LEDs 26a - 26c vorteilhaft sind, können andere Ausführungsbeispiele andere Arten von Lichtquellen beinhalten, wie etwa Leuchtstoffröhren.
  • Bei der Bezugsziffer 54 ist hier eine optionale Weißlichtquelle 54 dargestellt, die vorteilhaft bei der Kalibrierung der Vorrichtung 10 verwendet werden kann, um die verschiedenfarbigen Lichtquellen zu normieren.
  • Wie man in 2 erkennen kann, erzeugen die einzelnen LEDs 26a - 26c jeweils einen oder mehrere Lichtstrahl(en) 58a, 58b, 58c, der über die Oberfläche 46 reflektiert wird und auf das Kamerapixel 50 trifft. Welche Lichtstrahlen der Lichtquellen 26 welche Kamerapixel 50 über eine Reflexion an der Oberfläche 46 erreichen, hängt unter anderem von den Reflexionseigenschaften der Oberfläche 46 ab, die hier anhand einer Strahlungskeule 56 am Messpunkt 34 dargestellt ist. Die Strahlungskeule 56 repräsentiert die BRDF der Objektoberfläche am Messpunkt 34. Beispielhaft ist ein weiterer Lichtstahl 60a der LED 26a dargestellt, der über eine weitere Reflexion an einem anderen Messpunkt 34' der Oberfläche 46 ein anderes Kamerapixel 62 beleuchtet.
  • Welche Lichtquellen 26 welche Kamerapixel 50, 62 wie stark über die Oberfläche 46 beleuchten, hängt von der Abstrahlcharakteristik 45 der jeweiligen Lichtquelle 26 und außerdem von der lokalen Neigung der Oberfläche 46 an den Messpunkten ab. Je nach Abstrahlcharakteristik 45, der lokalen Neigung der Oberfläche 46 und der Ausrichtung der Lichtquellen 26 ergeben sich unterschiedliche Lichtstrahlen bzw. Lichtvektoren 58a, 58b, 58c (und daraus folgend 66, 68), die Kamerapixel 50, 62 der Kamera 16 beleuchten. Mit Hilfe eines bekannten Kalibrierobjekts 44 kann man die individuellen Abstrahlcharakteristika 45 der Lichtquellen 26 und die sich bei bekannter Position der Objektoberfläche 46 ergebenden Lichtvektoren 58a, 58b, 58c bestimmen. Basierend darauf verwenden das neue Verfahren und die neue Vorrichtung einen Kalibrierdatensatz 22, der die individuellen Abstrahlcharakteristika 45 der Lichtquellen 26 und vorzugsweise die individuellen Lichtvektoren 58a, 58b, 58c der einzelnen Lichtquellen 26 bei bekannter Oberfläche 46 repräsentiert. Mit Hilfe der 3D-Koordinaten eines Messobjekts 30, die mit der ersten Messanordnung 12 bestimmt werden, können die individuellen Lichtvektoren 58a, 58b, 58c dann bei der Auswertung der Bilder von der zweiten Messanordnung 24 vorteilhaft berücksichtigt werden.
  • 3 zeigt die Kamera 16 in einem bevorzugten Ausführungsbeispiel in einer Ansicht von vorn. In diesem Ausführungsbeispiel besitzt die Kamera 16 ein Kameragehäuse 72, in dem sowohl der Projektor 14 als auch die Kamera 16 mit der Kameraoptik 52 angeordnet sind. In diesem Ausführungsbeispiel sind eine Vielzahl von LEDs 26a, 26b an dem Kameragehäuse 72 angeordnet. Beispielhaft sind die LEDs 26a, 26b hier im Bereich der Kameraoptik 52 angeordnet. In einigen Ausführungsbeispielen umgeben eine Vielzahl LEDs 26a, 26b die Kameraoptik 52. Prinzipiell können LEDs 26 und/oder andere Lichtquellen auf andere Weise an dem Kameragehäuse 72 oder an einer mit dem Kameragehäuse 72 mechanisch gekoppelten Halterung angeordnet sein.
  • In der in 3 dargestellten Situation erzeugt der Projektor 14 ein Streifenmuster 74, das über die Oberfläche 46 des Messobjekts 30 zu der Kamera 16 reflektiert wird. Die Kamera 16 nimmt folglich ein Bild der Oberfläche 46 des Messobjekts 30 mit dem projizierten Streifenmuster 74 auf. Aufgrund der bekannten trigonometrischen Beziehungen zwischen Projektor 14 und Kamera 16 kann die Auswerte- und Steuereinheit 18 3D-Koordinaten zu Messpunkten 36 an der Oberfläche 46 bestimmen.
  • 4 zeigt ein weiteres Ausführungsbeispiel der Vorrichtung, die hier mit der Bezugsziffer 10' bezeichnet ist. Gleiche Bezugszeichen bezeichnen dieselben Elemente wie zuvor.
  • In diesem Ausführungsbeispiel sind Lichtquellen 26 an zwei Armen 78, 80 angeordnet. Der Arm 78 ist in einer Entfernung d1 von der Mittelachse des Werkstücktisches 38, der drehbar oder starr sein kann, drehbar gelagert. Der Arm 80 ist in einer Entfernung d2 angeordnet und ebenfalls drehbar. Folglich können die Arme 78, 80 um die Achse 42 gedreht werden, was mit dem Pfeil 82 angedeutet ist. Die Lichtquellen 26 können mit den Armen 78, 80 an verschiedene Positionen rund um das Messobjekt 30 gebracht werden und das Messobjekt beleuchten. Die jeweils aktuelle Position der Arme 78, 80 wird von der Auswerte- und Steuereinheit 18 mit Hilfe eines geeigneten Antriebs (hier nicht dargestellt) eingestellt. In einer Abwandlung kann die Vorrichtung 10' einen einzigen Arm 78 mit Lichtquellen 26 besitzen. Im Übrigen arbeitet die Vorrichtung 10' in gleicher Weise wie die Vorrichtung 10.
  • Ein Ausführungsbeispiel des neuen Verfahrens wird nachfolgend unter Bezugnahme auf 5 erläutert. In einem ersten Schritt 86 werden hier mit einem konventionellen Photometrie Stereo Verfahren provisorische Oberflächennormale 32 an ausgewählten Messpunkten 34 des Messobjekts 30 unter Verwendung der zweiten Messanordnung 24 (abgekürzt MA) bestimmt. Im Schritt 88 wird ein optimiertes Projektionsmuster für eine Messung mit der ersten Messanordnung 12 so gewählt, dass Mehrfachreflexionen an Innenkanten des Messobjekts 30 möglichst weitgehend vermieden werden. Problematische Innenkanten, die eine Mehrfachreflexion des Projektionsmusters erzeugen, lassen sich anhand der provisorischen Oberflächennormalen 32 vorteilhaft identifizieren. Dementsprechend werden im Schritt 88 vorteilhaft Daten bzw. Informationen verwendet, die in Schritt 86 bestimmt wurden, was durch die Pfeile angedeutet ist..
  • Beispielsweise kann das Projektionsmuster in Teilmuster zerlegt werden, die jeweils nur einzelne Oberflächenbereiche beleuchten, an denen keine oder eine abgeschwächte Mehrfachreflexion entsteht. Teile des Projektionsmusters können in Abhängigkeit von den Informationen aus Schritt 86 ausgeblendet und/oder abgeschwächt werden. In einigen Ausführungsbeispielen wird im Schritt 88 eine Serie von Teilmustern bestimmt, die nacheinander auf die Oberfläche des Messobjekts 30 projiziert werden.
  • In Schritt 90 wird unter Verwendung der Informationen/Daten aus Schritt 86 eine optimale Kameraauflösung für die erste Messanordnung 12 in Bezug auf das konkrete Messobjekt 30 bestimmt. Die Schritte 86 bis 90 sind optional, was hier anhand der gestrichelten Kästen angedeutet ist
  • In Schritt 92 werden mit Hilfe der ersten Messanordnung 12 optimierte 3D-Koordinaten an ausgewählten Messpunkten 36 des Messobjekts 30 bestimmt. Vorteilhaft arbeitet die erste Messanordnung 12 hier nach dem an sich bekannten Streifenprojektionsverfahren. Dabei werden bevorzugt die optimierten Projektionsmuster aus Schritt 88 und eine optimale Kameraauflösung gemäß Schritt 90 verwendet, was durch Pfeile angedeutet ist.
  • In Schritt 94 werden nun optimierte Oberflächennormale mit der zweiten Messanordnung 24 bestimmt. Prinzipiell arbeitet die zweite Messanordnung 24 in Schritt 94 genauso wie in Schritt 86. Allerdings werden im Schritt 94 die optimierten 3D-Koordinaten aus Schritt 92 und die Daten aus dem Kalibrierdatensatz 22 verwendet, um zunächst individuelle Lichtvektoren 58a, 58b, 58c zu bestimmen und basierend darauf die optimierten Oberflächennormalen 32 zu bestimmen. In bevorzugten Ausführungsbeispielen verwendet die zweite Messanordnung 24 in Schritt 94 die ursprünglichen Kamerabilder aus dem Schritt 86, d.h. es kann auf eine erneute Bildaufnahme verzichtet werden.
  • In Schritt 96 werden stetige Bereiche der Messobjektoberfläche anhand eines Schwellenwertkriteriums für die optimierten Oberflächennormalen bestimmt. Scharfe Kanten und Ecken des Messobjekts 30 werden auf diese Weise erkannt und von den stetigen Bereichen „ausgeschlossen“.
  • In Schritt 98 werden dritte Messwerte bestimmt, indem die 3D-Koordinaten aus Schritt 92 anhand der Oberflächennormalen aus Schritt 94 korrigiert werden. Die Korrektur in Schritt 98 kann eine Minimierung der Fehlerquadrate oder ein anderes Ausgleichskriterium beinhalten, um die 3D-Koordinaten, die mit der ersten Messanordnung 12 bestimmt wurden, und die optimierten Oberflächennormalen, die mit der zweiten Messanordnung 24 bestimmt wurden, in Einklang zu bringen. In einigen Ausführungsbeispielen können aus den Oberflächennormalen aus Schritt 94 3D-Koordinaten berechnet werden, die mit den 3D-Koordinaten aus Schritt 92 nach dem Verfahren der kleinsten Fehlerquadrate oder nach einem anderen Ausgleichsverfahren in Einklang gebracht werden.
  • In Schritt 100 werden die dritten Messwerte aus Schritt 98 durch Interpolation und/oder Extrapolation ergänzt, wobei auch in diesem Schritt die optimierten Oberflächennormalen 32 aus Schritt 94 vorteilhaft verwendet werden. Schließlich werden in Schritt 102 in an sich bekannter Weise Eigenschaften des Messobjekts bestimmt, und zwar auf Basis der dritten Messwerte aus Schritt 100 und/oder auf Basis der optimierten Messwerte aus Schritt 94.
  • Zusammenfassend verwenden die neue Vorrichtung und das neue Verfahren somit einen Kalibrierdatensatz 22, der die richtungsabhängigen Abstrahlcharakteristika 45 der verwendeten Lichtquellen 26 in der zweiten Messanordnung 24 repräsentiert. Basierend darauf und basierend auf den 3D-Koordinaten des Messobjekts 30 aus der ersten Messanordnung 12 werden die Oberflächennormalen 32 bestimmt. Die daraus resultierende höhere Genauigkeit der zweiten Messanordnung 24 wird vorteilhaft genutzt, um insgesamt eine höhere Messgenauigkeit bei der Bestimmung von dimensionellen und/oder geometrischen Eigenschaften des Messobjekts zu erhalten.

Claims (15)

  1. Verfahren zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts (30), mit den Schritten: - Bereitstellen einer ersten Messanordnung (12) zum Bestimmen von 3D-Koordinaten an ersten ausgewählten Messpunkten (36) des Messobjekts (30), - Bereitstellen einer zweiten Messanordnung (24) zum Bestimmen von Oberflächennormalen (32) an zweiten ausgewählten Messpunkten (34) des Messobjekts (30), wobei die zweite Messanordnung eine Anzahl an Lichtquellen (26) und eine erste Kamera (16) beinhaltet, die auf das Messobjekt (30) ausgerichtet ist, - Bestimmen von 3D-Koordinaten an den ersten ausgewählten Messpunkten (36) unter Verwendung der ersten Messanordnung (12), wobei die 3D-Koordinaten erste Messergebnisse definieren, - Bestimmen von Oberflächennormalen (32) an den zweiten ausgewählten Messpunkten (34) unter Verwendung der zweiten Messanordnung (24), wobei die Oberflächennormalen (32) zweite Messergebnisse definieren, und - Bestimmen der dimensionellen und/oder geometrischen Eigenschaften des Messobjekts (30) unter Verwendung der ersten und zweiten Messergebnisse, dadurch gekennzeichnet, dass ferner ein Kalibrierdatensatz (22) bereitgestellt wird, der individuelle Abstrahlcharakteristika (64) der Lichtquellen (26) repräsentiert, und dass die zweiten Messergebnisse unter Verwendung des Kalibrierdatensatzes (22) und unter Verwendung der ersten Messergebnisse bestimmt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die ersten Messergebnisse unter Verwendung der zweiten Messergebnisse korrigiert werden, um dritte Messergebnisse (100) zu erhalten, und dass die dimensionellen und/oder geometrischen Eigenschaften des Messobjekts (30) unter Verwendung der zweiten und/oder dritten Messergebnisse bestimmt werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass unter Verwendung der zweiten Messergebnisse stetige Bereiche des Messobjekts (30) bestimmt (98) werden, und dass die ersten Messergebnisse nur in den stetigen Bereichen unter Verwendung der zweiten Messergebnisse korrigiert werden.
  4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass die ersten Messergebnisse unter Verwendung der zweiten Messergebnisse interpoliert und/oder extrapoliert (102) werden, und dass die dimensionellen und/oder geometrischen Eigenschaften des Messobjekts unter Verwendung der interpolierten und/oder extrapolierten ersten Messergebnisse bestimmt werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass unter Verwendung der ersten Messwerte und des Kalibrierdatensatzes (22) jeweils ein individueller Lichtvektor (58a, 58b, 58c) zwischen einer Lichtquelle (26) und einem der zweiten Messpunkte (34) bestimmt wird, und dass die zweiten Messergebnisse unter Verwendung der jeweiligen individuellen Lichtvektoren (58a, 58b, 58c) bestimmt werden.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die zweite Messanordnung (24) eine erste und zumindest eine zweite Lichtquelle (26a, 26b, 26c) aufweist, wobei die jeweiligen individuellen Lichtvektoren (58a, 58b, 58c) für die erste und für die zumindest eine zweite Lichtquelle (26a, 26b, 26c) separat bestimmt werden, und wobei die individuellen richtungsabhängigen Abstrahlcharakteristika (45) der ersten und der zumindest einen zweite Lichtquelle (26a, 26b, 26c) unter Verwendung der individuellen Lichtvektoren (58a, 58b, 58c) normiert werden.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die die zweite Messanordnung (24) eine Vielzahl von verschiedenfarbigen Lichtquellen (26a, 26b, 26c) aufweist.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass mit der Kamera ein erstes und ein zweites Bild von einem Kalibrierobjekt (44) aufgenommen wird, wobei das Kalibrierobjekt (44) beim ersten Bild mit den verschiedenfarbigen Lichtquellen (26a, 26b, 26c) beleuchtet wird, und wobei das Kalibrierobjekt (44) beim zweiten Bild mit einer Weißlichtquelle (54) beleuchtet wird.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die zweite Messanordnung (24) ein Gehäuse besitzt, in dem die erste Kamera (16) angeordnet ist, wobei die Lichtquellen (26) an dem Gehäuse angeordnet sind.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die erste Messanordnung (12) einen Musterprojektor (14) und eine zweite Kamera aufweist, die in einer definierten Position und Orientierung zueinander angeordnet sind.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die erste und die zweite Kamera (16) identisch sind.
  12. Verfahren nach Anspruch 10 dadurch gekennzeichnet, dass die zweite Kamera (16) eine Kameraauflösung besitzt und dass der Musterprojektor (14) eine Projektorauflösung besitzt, die kleiner ist als die Kameraauflösung, wobei die erste Messanordnung (12) die Kameraauflösung in Abhängigkeit von den zweiten Messergebnissen begrenzt.
  13. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass ein Projektionsmuster (74), mit dem der Musterprojektor (14) das Messobjekt (30) beleuchtet, in Abhängigkeit von Messwerten aus der zweiten Messanordnung (24) bestimmt wird.
  14. Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts (30), mit einer ersten Messanordnung (12) zum Bestimmen von 3D-Koordinaten an ersten ausgewählten Messpunkten (36) des Messobjekts (30), mit einer zweiten Messanordnung (24) zum Bestimmen von Oberflächennormalen (32) an zweiten ausgewählten Messpunkten (34) des Messobjekts (30), wobei die zweite Messanordnung (24) eine Anzahl an Lichtquellen (26) und eine erste Kamera (16) beinhaltet, die auf das Messobjekt (30) ausgerichtet ist, und mit einer Auswerte- und Steuereinheit (18), die dazu eingerichtet ist, an den ersten ausgewählten Messpunkten (36) 3D-Koordinaten unter Verwendung der ersten Messanordnung (12) zu bestimmen, wobei die 3D-Koordinaten erste Messergebnisse definieren, die ferner dazu eingerichtet ist, an den zweiten ausgewählten Messpunkten (34) unter Verwendung der zweiten Messanordnung (24) Oberflächennormalen (32) zu bestimmen, wobei die Oberflächennormalen (32) zweite Messergebnisse definieren, und die ferner dazu eingerichtet ist, die dimensionellen und/oder geometrischen Eigenschaften des Messobjekts (30) unter Verwendung der ersten und zweiten Messergebnisse zu bestimmen, dadurch gekennzeichnet, dass die Auswerte- und Steuereinheit (18) einen Kalibrierdatensatz (22) aufweist, der individuelle Abstrahlcharakteristika (45) der Lichtquellen (26) repräsentiert, und dass die Auswerte- und Steuereinheit (18) dazu eingerichtet ist, die zweiten Messergebnisse unter Verwendung des Kalibrierdatensatzes (22) und unter Verwendung der ersten Messergebnisse zu bestimmen.
  15. Computerprogramm mit Programmcode, der zur Ausführung des Verfahrens nach einem der Ansprüche 1 bis 13 ausgebildet ist, wenn der Programmcode auf der Auswerte- und Steuereinheit der Vorrichtung aus Anspruch 14 ausgeführt wird.
DE102017118767.7A 2017-08-17 2017-08-17 Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts Active DE102017118767B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017118767.7A DE102017118767B4 (de) 2017-08-17 2017-08-17 Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts
US15/999,119 US10458784B2 (en) 2017-08-17 2018-08-16 Method and apparatus for determining at least one of dimensional or geometric characteristics of a measurement object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017118767.7A DE102017118767B4 (de) 2017-08-17 2017-08-17 Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts

Publications (2)

Publication Number Publication Date
DE102017118767A1 DE102017118767A1 (de) 2019-02-21
DE102017118767B4 true DE102017118767B4 (de) 2020-10-08

Family

ID=65235443

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017118767.7A Active DE102017118767B4 (de) 2017-08-17 2017-08-17 Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts

Country Status (2)

Country Link
US (1) US10458784B2 (de)
DE (1) DE102017118767B4 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018114479B3 (de) * 2018-06-15 2019-11-14 Polytec Gmbh Verfahren zur Bestimmung des Strahlverlaufs eines Messstrahls einer Interferometrischen Messvorrichtung und Messvorrichtung zur interferometrischen Vermessung eines Messobjekts
US10679367B2 (en) * 2018-08-13 2020-06-09 Hand Held Products, Inc. Methods, systems, and apparatuses for computing dimensions of an object using angular estimates
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
US11002529B2 (en) 2018-08-16 2021-05-11 Mitutoyo Corporation Robot system with supplementary metrology position determination system
US10871366B2 (en) * 2018-08-16 2020-12-22 Mitutoyo Corporation Supplementary metrology position coordinates determination system for use with a robot
US10913156B2 (en) 2018-09-24 2021-02-09 Mitutoyo Corporation Robot system with end tool metrology position coordinates determination system
DE102019103519B4 (de) 2019-02-12 2021-09-16 Carl Zeiss Industrielle Messtechnik Gmbh Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE102019208474A1 (de) * 2019-06-11 2020-12-17 Micro-Epsilon Messtechnik Gmbh & Co. Kg Verfahren und System zum optischen Vermessen eines Objekts mit spiegelnder und/oder teilspiegelnder Oberfläche sowie entsprechende Messanordnung
DE102020127894B4 (de) 2020-10-22 2022-09-22 Smart Optics Sensortechnik Gmbh Verfahren und Vorrichtung zur optischen dreidimensionalen Vermessung von Objekten

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010007396A1 (de) * 2010-02-03 2011-08-04 Carl Zeiss OIM GmbH, 73117 Verfahren und Vorrichtung zum optischen Inspizieren eines Prüflings mit einer zumindest teilweise reflektierenden Oberfläche
DE102015203396A1 (de) * 2015-02-25 2016-08-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Bestimmung der Topografie einer Oberflache
US20160261844A1 (en) * 2015-03-06 2016-09-08 Massachusetts Institute Of Technology Methods and Apparatus for Enhancing Depth Maps with Polarization Cues

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100235253B1 (ko) 1996-01-09 1999-12-15 최종수 측광입체시법에서의 범용조명원에 기인한 오차해석방법
EP2416197A1 (de) * 1998-05-25 2012-02-08 Panasonic Corporation Entfernungsmesser und Kamera
JP2002543411A (ja) 1999-04-30 2002-12-17 ワグナー,クリストフ 物体形状の光学的検出方法
KR100479983B1 (ko) 2001-09-14 2005-03-30 이상욱 혼성 반사 모델에서의 포토 메트릭 스테레오 방법
DE102004020419B3 (de) * 2004-04-23 2005-10-20 3D Shape Gmbh Verfahren und Vorrichtung zur Bestimmung der Form und der lokalen Oberflächennormalen spiegelnder Oberflächen
US7154395B2 (en) * 2004-07-01 2006-12-26 Mitsubishi Electric Research Laboratories, Inc. Interactive wireless tag location and identification system
US7876455B2 (en) * 2004-08-03 2011-01-25 TechnoDream21 Co., Ltd. Three-dimensional shape measuring method and apparatus for the same
GB0424417D0 (en) 2004-11-03 2004-12-08 Univ Heriot Watt 3D surface and reflectance function recovery using scanned illumination
US20080232679A1 (en) 2005-08-17 2008-09-25 Hahn Daniel V Apparatus and Method for 3-Dimensional Scanning of an Object
US8107721B2 (en) * 2008-05-29 2012-01-31 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of semi-specular objects
WO2010006081A1 (en) * 2008-07-08 2010-01-14 Chiaro Technologies, Inc. Multiple channel locating
WO2011163359A2 (en) * 2010-06-23 2011-12-29 The Trustees Of Dartmouth College 3d scanning laser systems and methods for determining surface geometry of an immersed object in a transparent cylindrical glass tank
US8928735B2 (en) 2011-06-14 2015-01-06 Microsoft Corporation Combined lighting, projection, and image capture without video feedback
US20150253428A1 (en) * 2013-03-15 2015-09-10 Leap Motion, Inc. Determining positional information for an object in space
US9325966B2 (en) * 2012-07-30 2016-04-26 Canon Kabushiki Kaisha Depth measurement using multispectral binary coded projection and multispectral image capture
DE102012112321B4 (de) * 2012-12-14 2015-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US10281264B2 (en) * 2014-12-01 2019-05-07 Canon Kabushiki Kaisha Three-dimensional measurement apparatus and control method for the same
WO2016127173A1 (en) 2015-02-06 2016-08-11 The University Of Akron Optical imaging system and methods thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010007396A1 (de) * 2010-02-03 2011-08-04 Carl Zeiss OIM GmbH, 73117 Verfahren und Vorrichtung zum optischen Inspizieren eines Prüflings mit einer zumindest teilweise reflektierenden Oberfläche
DE102015203396A1 (de) * 2015-02-25 2016-08-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Bestimmung der Topografie einer Oberflache
US20160261844A1 (en) * 2015-03-06 2016-09-08 Massachusetts Institute Of Technology Methods and Apparatus for Enhancing Depth Maps with Polarization Cues

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
GUPTA, Mohit [u.a.]: A practical approach to 3D scanning in the presence of interreflections, subsurface scattering and defocus. In: International Journal of Computer Vision. 2013, Bd. 102, H. 1-3, S. 33-55. ISSN 0920-5691. DOI: 10.1007/s11263-012-0554-3 *
Herbort, S., Gerken B., Schugk D., Wöhler C.: 3D range scan enhancement using image-based methods. ISPRS Journal of Photogrammetry and Remote Sensing, 84 (2013), 69-84 *
NEHAB, Diego [u.a.]: Efficiently combining positions and normals for precise 3D geometry. In: ACM Transactions on Graphics (TOG). 2005, Bd. 24, H. 3, S. 536-543. ISSN 0730-0301. DOI: 10.1145/1186822.1073226. URL: https://dl.acm.org/ft_gateway.cfm?id=1073226&ftid=321878&dwn=1&CFID=851609835&CFTOKEN=94000107 [abgerufen am 2018-01-16] *
WOODHAM, Robert J.: Photometric method for determining surface orientation from multiple images. In: Optical Engineering (OE). 1980, Bd. 19, H. 1, S. 139-144. - ISSN 0036-1860 *

Also Published As

Publication number Publication date
US20190056218A1 (en) 2019-02-21
US10458784B2 (en) 2019-10-29
DE102017118767A1 (de) 2019-02-21

Similar Documents

Publication Publication Date Title
DE102017118767B4 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts
EP2105701B1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE102012108567B4 (de) Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
DE112005002690B4 (de) Verfahren und System zur optischen Kantenbestimmung
DE102012217240B4 (de) Vorrichtung zum Messen einer dreidimensionalen Form
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102017213779A1 (de) Dreidimensionale Messvorrichtung
DE102008048963B4 (de) 3D-Geometrie-Erfassungsverfahren und -vorrichtung
CH692873A5 (de) Vorrichtung und Verfahren zur geometrischen Kalibrierung von CCD-Kameras.
DE102015116047A1 (de) Prüfvorrichtung und Steuerverfahren für eine Prüfvorrichtung
DE3642051A1 (de) Verfahren zur dreidimensionalen informationsverarbeitung und vorrichtung zum erhalten einer dreidimensionalen information ueber ein objekt
EP1173749A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE102009030644B4 (de) Berührungslose Erfassungseinrichtung
DE102018208203A1 (de) Targetkörper, Anordnung mit Targetkörper und Verfahren zum Ermitteln einer Position und/oder einer Ausrichtung eines Targetkörpers
DE102017212371A1 (de) Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene
DE102014113256A1 (de) Bildaufnahmevorrichtung und Verfahren zur Bildaufnahme mit Reflexunterdrückung
DE102015001217A1 (de) Optische Sonde, anbringbare Abdeckung, Formmesseinrichtung und Verfahren zum Messen einer Form
DE102019103519A1 (de) Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
WO2019096339A1 (de) Verfahren zur automatischen wiederherstellung eines eingemessenen zustands eines projektionssystems
DE102018211913A1 (de) Vorrichtung und Verfahren zum Erfassen einer Objektoberfläche mittels elektromagnetischer Strahlung
DE102013200135B4 (de) Telezentrisches Abbildungssystem
EP4046133A1 (de) Verfahren und vorrichtung zum bestimmen einer kontur einer fassungsnut
DE102019131693A1 (de) Messgerät zur untersuchung einer probe und verfahren zum bestimmen einer höhenkarte einer probe
DE102015203396A1 (de) Verfahren und Vorrichtung zur Bestimmung der Topografie einer Oberflache

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final