DE112011103090B4 - Berührungsloses Messsystem und Sensorgerät mit einer auf einem mikro-elektro-mechanischen System basierenden Lichtquelle - Google Patents

Berührungsloses Messsystem und Sensorgerät mit einer auf einem mikro-elektro-mechanischen System basierenden Lichtquelle Download PDF

Info

Publication number
DE112011103090B4
DE112011103090B4 DE112011103090.8T DE112011103090T DE112011103090B4 DE 112011103090 B4 DE112011103090 B4 DE 112011103090B4 DE 112011103090 T DE112011103090 T DE 112011103090T DE 112011103090 B4 DE112011103090 B4 DE 112011103090B4
Authority
DE
Germany
Prior art keywords
imaging device
light source
light
source subsystem
control module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112011103090.8T
Other languages
English (en)
Other versions
DE112011103090T5 (de
Inventor
Shyam P. Keshavmurthy
David Crowther
George C. Lin
Craig Manning
Martin P. Koskella
Brett Hibbard
Ralph Stefan
Jason Wilson
Richard Krakowski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Perceptron Inc
Original Assignee
Perceptron Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Perceptron Inc filed Critical Perceptron Inc
Publication of DE112011103090T5 publication Critical patent/DE112011103090T5/de
Application granted granted Critical
Publication of DE112011103090B4 publication Critical patent/DE112011103090B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ein berührungsloses Messsystem zum Erhalten von dreidimensionalen Profilinformationen, umfassend:ein Lichtquellensubsystem, welches ausgebildet ist, um einen Lichtpunkt in einer Beleuchtungsregion abzutasten;ein erstes Abbildungsgerät mit einem Bildfeld, welches so angeordnet ist, um sich mit der Beleuchtungsregion zu überschneiden und ausgebildet ist, um Bilddaten aufzunehmen;ein erstes Kontrollmodul, welches in Datenkommunikation mit dem ersten Abbildungsgerät steht, wobei das erste Kontrollmodul ausgebildet ist, um die Position eines Objektes in dem Bildfeld des ersten Abbildungsgerätes von den aufgenommenen Bilddaten zu ermitteln und die Position des Objektes in einem allgemeinen Koordinatensystem anzuzeigen, wobei der Lichtpunkt durch das Lichtquellensubsystem mit einer höheren Abtastgeschwindigkeit als die Shuttergeschwindigkeit des ersten Abbildungsgeräts abgetastet wird;ein zweites Abbildungsgerät mit einem Bildfeld, welches so angeordnet ist, um sich mit der Beleuchtungsregion zu überschneiden und ausgebildet ist, um Bilddaten aufzunehmen; undein zweites Kontrollmodul, welches in Datenkommunikation mit dem zweiten Bildgerät steht, wobei das zweite Kontrollmodul ausgebildet ist, um die Position eines Objektes in dem Bildfeld des zweiten Abbildungsgerätes von den aufgenommenen Bilddaten zu ermitteln und die Position des Objektes in einem allgemeinen Koordinatensystem anzuzeigen, wobei der Lichtpunkt durch das Lichtquellensubsystem mit einer höheren Abtastgeschwindigkeit als die Shuttergeschwindigkeit des zweiten Abbildungsgeräts abgetastet wird und wobei das Lichtquellensubsystem kalibriert ist, um die Position des Lichtpunktes in dem allgemeinen Koordinatensystem anzuzeigen.

Description

  • Querverweis auf verbundene Anmeldungen
  • Diese Anmeldung beansprucht die Priorität der US 2012 / 0 062 706 A1 eingereicht am 10. November 2010 und nutzt die US Provisional Application Nr. 61/383,085 , eingereicht am 15. September 2010. Die gesamten Offenbarungen der oben genannten Anmeldungen sind hiermit durch Verweis Bestandteil dieser Anmeldung
  • Gebiet
  • Die vorliegende Offenbarung betrifft ein berührungsloses Messsystem, um dreidimensionale Profilinformationen für ein Objekt zu erhalten, unter Benutzung einer Lichtquelle basierend auf mikro-elektro-mechanischen Systemen (MEMS).
  • Hintergrund
  • Existierende Anwendungen von maschinellem Sehen nutzen eine Mehrzahl von Lichtquellen mit lichtemittierenden Dioden (LED), Einzel- oder Multilinien-Laser und strukturierte Weißlichter, um dreidimensionale Profilinformationen durch ein aufgenommenes Bild zu erhalten. Der Nachteil solcher Lösungen ist, dass eine Beleuchtung mit breitem Strahl, die durch diese Typen von Lichtquellen oder jeglicher verteilter Quellen zur Verfügung gestellt wird, keine dreidimensionalen Informationen überträgt und es werden zusätzliche Informationen benötigt, entweder mittels eines strukturierten Lichts oder einer Linien-Laserquelle. Diese führt zu einem komplexen Abbildungssystem.
  • Die Komplexität der Abbildungssysteme kann reduziert werden durch Benutzung von programmierbaren MEMS-basierten Lichtquellen. MEMS-basierte Lichtquellen können programmiert werden, um einen Lichtpunkt mit einer sehr hohen Frequenz in einer Beleuchtungsregion abzutasten, während eines Expositionszyklus eines Abbildungsgerätes. Auf diesem Weg kann das Abbildungsgerät effizienter dreidimensionale Profilinformationen in einem aufgenommenen Bild erfassen. Diese Offenbarung legt ein verbessertes Abbildungssystem dar, welches auf MEMS-basierten Lichtquellen basiert. Dieser Abschnitt stellt Hintergrundinformationen zur Verfügung, die sich auf die vorliegende Offenbarung beziehen, welche nicht notwendigerweise Stand der Technik sind.
  • Aus der US 5 216 476 A ist ein berührungsloses Messsystem zum Erhalten von dreidimensionalen Profilinformationen bekannt geworden, umfassend
    • - ein Lichtquellensubsystem, welches ausgebildet ist, um einen Lichtpunkt in einer Beleuchtungsregion abzutasten,
    • - ein erstes Ausbildungsgerät mit einem Bildfeld, welches so angeordnet ist, um sich mit der Beleuchtungsregion zu überschneiden und ausgebildet ist, um Bilddaten aufzunehmen,
    • - ein erstes Kontrollmodul, welches in Datenkommunikation mit dem ersten Ausbildungsgerät steht, wobei das erste Kontrollmodul ausgebildet ist, um die Position eines Objektes in dem Bildfeld des ersten Abbildungsgerätes von den aufgenommenen Bilddaten zu ermitteln und die Position eines Objektes in einem allgemeinen Koordinatensystem anzuzeigen,
    • - ein zweites Abbildungsgerät mit einem Bildfeld, welches so angeordnet ist, um sich mit der Beleuchtungsregion zu überschneiden und ausgebildet ist, um Bilddaten aufzunehmen, und
    • - ein zweites Kontrollmodul, welches in Datenkommunikation mit dem zweiten Bildgerät steht, wobei das zweite Kontrollmodul ausgebildet ist, um die Position eines Objektes in dem Bildfeld des zweiten Abbildungsgerätes von den aufgenommenen Bilddaten zu ermitteln und die Position des Objektes in einem allgemeinen Koordinatensystem anzuzeigen,
    • - wobei das Lichtquellensubsystem kalibriert ist, um die Position des Lichtpunktes in dem allgemeinen Koordinatensystem anzuzeigen.
  • Aus der DE 10 2008 039 838 A1 ist ein Verfahren zum Abtasten der dreidimensionalen Oberfläche eines Objekts mittels eines Lichtstrahl-Scanners und eine Vorrichtung zur Durchführung des Verfahrens bekannt geworden.
  • Aus der DE 38 17 321 A1 ist weiter ein Verfahren und eine Vorrichtung zur Durchführung der Maßkontrolle eines Werkstücks auf optoelektronischem Weg bekannt geworden.
  • Übersicht
  • Ein berührungsloses Messsystem wird zur Verfügung gestellt, um dreidimensionale Profilinformationen eines Objektes zu erhalten. Das System umfasst: Ein Lichtquellensubsystem, welches ausgebildet ist, um einen Lichtpunkt in einer Beleuchtungsregion abzutasten; ein erstes Abbildungsgerät, welches ein Bildfeld aufweist, derart, dass dieses sich mit der Beleuchtungsregion überschneidet und welches ausgebildet ist, um Bilddaten aufzunehmen; und ein zweites Bildgerät, welches ein Bildfeld aufweist, welches sich mit der Beleuchtungsregion überschneidet und welches ausgebildet ist, um Bilddaten zu erhalten. Ein erstes Kontrollmodul steht in einer Datenverbindung mit dem ersten Abbildungsgerät, um Profilinformationen eines Objektes in dem Bildfeld des ersten Abbildungsgerätes zu ermitteln und um die Profilinformationen für das Objekt in einem allgemeinen Koordinatensystem anzuzeigen. Ein zweites Kontrollmodul steht in einer Datenverbindung mit dem zweiten Abbildungsgerät, um Profilinformationen für das Objekt in dem Bildfeld des zweiten Abbildungsgerätes zu ermitteln und um die Profilinformationen für das Objekt in einem allgemeinen Koordinatensystem anzuzeigen.
  • Von Bedeutung ist, dass das Lichtquellenuntersystem derart kalibriert ist, dass dieses die Position des Lichtpunktes in dem allgemeinen Koordinatensystem anzeigt.
  • In einer anderen Ausführung dieser Offenbarung kann das berührungslose Messsystem mehrere Lichtquellen mit mehreren Abbildungsgeräten benutzen. Zum Beispiel kann das System beinhalten: Ein erstes Lichtquellensubsystem, welches ausgebildet ist, um einen Lichtpunkt zu projizieren und den Lichtpunkt in einer ersten Beleuchtungsregion abzutasten, wobei das erste Lichtquellensubsystem einen mittels eines Systems (MEMS) betätigbaren Spiegel benutzt, um den Lichtpunkt abzutasten; ein erstes Abbildungsgerät, welches ein Bildfeld aufweist, derart, dass dieses sich mit der ersten Beleuchtungsregion überschneidet und wobei dieses ausgebildet ist, um daraus Bilddaten zu erhalten; ein zweites Lichtquellensubsystem, welches ausgebildet ist, um einen Lichtpunkt zu projizieren und den Lichtpunkt in einer zweiten Beleuchtungsregion abzutasten, welche zur ersten Beleuchtungsregion benachbart ist, wobei das zweite Lichtquellensubsystem einen mittels eines mikro-elektro-mechanischen Systems (MEMS) betätigbaren Spiegel benutzt, um die Lichtebene abzutasten; und ein zweites Abbildungsgerät mit einem Bildfeld, welches so angeordnet ist, dass dieses sich mit der zweiten Beleuchtungsregion überschneidet und ausgebildet ist, um daraus Bilddaten zu erfassen; wobei das erste Lichtquellensubsystem, das erste Abbildungsgerät, das zweite Lichtquellensubsystem und das zweite Abbildungsgerät sich in einem Gehäuse eines Gerätes befinden. Diese Messkomponenten können in einem einzelnen Gehäuse integriert werden und auf „umgekehrte Überlagerungen“-basierende Weise angeordnet werden, um den Raum zwischen den Komponenten zu reduzieren und so die Gesamtgröße des Gehäuses zu reduzieren.
  • Dieser Abschnitt stellt einen allgemeinen Überblick der Offenbarung dar und beinhaltet nicht eine umfassende Offenbarung in vollem Umfang oder sämtliche der Merkmale. Weitere Anwendungsgebiete werden anhand der hierin enthaltenen Beschreibung offenbar. Die Beschreibung und spezifische Beispiele in dem Überblick dienen nur zur Veranschaulichung und beschränken nicht den Umfang der vorliegenden Offenbarung.
  • Figurenliste
    • 1 ist ein Blockschaltbild, welches ein verbessertes berührungsloses Messsystem zum Erhalten von dreidimensionalen Profilinformationen zeigt;
    • 2 ist ein Diagramm einer beispielhaften Lichtquelle, welche abgewandelt wurde, um die Winkelabtastfähigkeit des MEMS-Spiegelgerätes zu erhöhen;
    • 3 ist ein Diagramm, welches eine beispielhafte Triangulationsanordnung einer Lichtquelle mit einem Abbildungsgerät zeigt;
    • 4 ist ein Diagramm, welches eine beispielhafte Ausführungsform des berührungslosen Messsystems zeigt mit einer Anordnung entsprechend der „umgekehrten Überlagerung“;
    • 5 ist ein Flussdiagramm, welches eine beispielhafte Kalibrierungsmethode für das berührungslose Messsystem zeigt;
    • 6 ist ein Diagramm, welches beispielhaft Schemata zur Kombination von Daten von zwei oder mehr Abbildungsgeräten zeigt; und
    • 7 ist ein Diagramm, welches beispielhaft eine Eichstation zeigt.
  • Die Zeichnungen, die hierin beschrieben sind, sind lediglich zum Zwecke der Veranschaulichung ausgewählter Ausführungsformen und zeigen nicht alle möglichen Ausführungen, und dienen nicht dazu, den Umfang der vorliegenden Offenbarung zu beschränken. Korrespondierende Bezugszeichen bezeichnen entsprechende Teile in den verschiedenen Ansichten der Zeichnungen.
  • Ausführliche Beschreibung
  • 1 zeigt ein verbessertes berührungsloses Messsystem 10, um dreidimensionale Profilinformationen zu erhalten. Das Messsystem 10 umfasst im Allgemeinen eine oder mehrere Lichtquellensubsysteme 12, 13, ein erstes und zweites Abbildungsgerät 14, 16, ein erstes und zweites Kontrollmodul 15, 17 und eine Bildverarbeitungseinheit 18. Jede dieser Komponenten wird ausführlicher weiter unten beschrieben. Es versteht sich, dass lediglich die wesentlichen Komponenten des Messsystems in Bezug auf die 1 diskutiert werden, jedoch weitere Komponenten benötigt werden, um ein ausführbares System zu konstruieren.
  • Jede der Lichtquellensubsysteme 12, 13 ist ausgebildet, um einen Lichtpunkt zu projizieren und den Lichtpunkt in einer Beleuchtungsregion abzutasten. In einer beispielhaften Ausführungsform umfasst ein Lichtquellensubsystem 12, 13 eine Laserlichtquelle 2 und ein mikro-elektro-mechanisches System (MEMS-)Spiegelgerät 4. Die Lichtquelle 2 ist so angeordnet, um Licht in Richtung auf das MEMS-Spiegelgerät 4 zu projizieren. Das MEMS-Spiegelgerät 4 benutzt bevorzugt einen elektrostatischen Antrieb, um den Spiegel zu positionieren und damit das Licht in die Beleuchtungsregion zu richten. Ein beispielhaftes MEMS-Spiegelgerät 4 ist das Zwei-Achsen-Abtast-Mikro-Spiegelgerät, welches kommerziell von Mirrorcle Technologies Inc. verfügbar ist. Andere Arten von MEMS-Spiegelgeräten können ebenfalls durch diese Offenbarung vorgesehen werden.
  • Der Abtastwinkel des MEMS-Spiegelgeräts 4 kann beschränkt sein. Um das Bildfeld von kurzen Abstandssensoren zu erfüllen, ist es wünschenswert, die Winkelabtastfähigkeit des MEMS-Spiegelgerätes zu verstärken. Um dies zu tun kann Licht von dem MEMS-Spiegelgerät auf ein stationäres reflektives Element 6 gerichtet werden, bspw. einen sphärischen Konvexspiegel. Die Größe der Winkelvergrößerung ist eine Funktion des Krümmungsradius des Spiegels und der entsprechenden Geometrie zwischen der Laserquelle, dem MEMS-Spiegel und dem sphärischen Spiegel. Beispielsweise wird ein MEMS-Spiegel mit 12° (+/- 6°) Winkelbewegung vergrößert zu fast 34° entlang der vertikalen Achse, wie in 2 gezeigt. Geometrische Parameter sind angeführt zu Illustrationszwecken und können verändert werden, um verschiedene Winkelverstärkungen zu erreichen. Obwohl die Geometrie intrinsisch an dem Verstärkungswert beteiligt ist, ist der einfachste Weg, um die Vergrößerungen anzupassen, den Krümmungsradius des sphärischen Spiegels zu verändern. Je kleiner der Radius des sphärischen Spiegels ist, desto größer der Vergrößerungswert. Umgekehrt ist es ebenso möglich, die Vergrößerung des ausgehenden Laserpunktes zu vermindern und die Auflösung der Positionierung zu erhöhen, ohne die MEMS-Kontrollauflösung zu verändern, in dem der konkave sphärische Spiegel durch einen konvexen sphärischen Spiegel ersetzt wird. Andere Arten von reflektiven Elementen fallen ebenfalls in den Rahmen der vorliegenden Offenbarung.
  • Während des Betriebes wird der Lichtpunkt, der von einem Lichtquellensubsystem 12, 13 projiziert wird, durch ein entsprechendes Kontrollmodul 15, 17 gesteuert. Licht von dem Lichtquellensubsystem wird vorzugsweise mit sehr hoher Frequenz während des Expositionszyklus eines Abbildungsgerätes abgetastet. Die Abtastgeschwindigkeit des Lichtquellensubsystems ist wesentlich schneller, z.B. 100x schneller als die Shuttergeschwindigkeit der Abbildungsgeräte. Durch die Benutzung einer Kombination von Abtastgeschwindigkeit und Shuttergeschwindigkeit kann ein Abbildungsgerät entweder Liniendaten oder Multi-Liniendaten oder Beleuchtungsregionen erhalten. Die Qualität der Beleuchtung der Region ist von gleicher Qualität wie die, die durch Lichtquellen mit breitem Strahl, beispielsweise aus LEDs, erhalten werden. Der Vorteil dieser Art von Beleuchtung ist, dass es die Fähigkeit eines kalibrierten MEMS-Gerätes nutzt, welches reproduzierbare genaue Pfade ausführen kann. Deshalb ist jede Position des MEMS-Spiegels während der Abtastung dem entsprechenden Kontrollmodul bekannt und/oder wird diesem mitgeteilt.
  • Üblicherweise wird das Bildfeld für einen vorgegebenen Sensor definiert durch das Bildfeld des Abbildungsgerätes gefaltet mit dem Abtastbereich des Lichtquellensubsystems, wie dies in 3 gezeigt ist. Um die Abtasteffizienz des Sensors zu erhöhen und gleichzeitig die Messauflösung beizubehalten ist es äußert wünschenswert, das Bildfeld in der X-Richtung (entlang der Hauptachse des Sensors) zu verdoppeln. Für einen einfachen Vision-Sensor kann dies erreicht werden durch Hinzufügen eines zweiten Abbildungsgerätes neben dem ersten Abbildungsgerät, so dass das kombinierte Bildfeld in der X-Richtung verdoppelt wird. Für Sensoren, die Triangulationsmessungen benutzen, ist das Problem deutlich komplexer. Das Hinzufügen einer zweiten Kamera funktioniert nicht, weil das Feld, welches von der triangulierten Lichtquelle abgetastet wird, sich nicht mit dem Bildfeld der zweiten Kamera effizient überschneidet, wenn überhaupt. Ebenso löst ein Wechsel der X-Abtastkomponente der Lichtquelle nicht das Problem, da die Triangulationsparameter für die zweite Kamera sich intrinsisch von der der ersten Kamera unterscheiden und es würde deshalb eine andere Lichtquellenkonfiguration insgesamt erfordern.
  • 4 zeigt eine Anordnung, die das Bildfeld eines Abbildungssystems in X-Richtung vergrößert. In dieser Anordnung wird die Beleuchtungsregion, die von dem ersten Lichtquellensubsystem 12 erzeugt wird, benachbart zu der Beleuchtungsregion angeordnet, die von dem zweiten Lichtquellensubsystem 13 erzeugt wird. Abbildungsgeräte 14, 16 werden dann so angeordnet, um Bilddaten in den Beleuchtungsregionen aufzunehmen. Genauer wird das erste Abbildungsgerät 14 so angeordnet, dass sein Bildfeld sich mit der Beleuchtungsregion, welche durch das erste Lichtquellensubsystem 12 erzeugt wird, überschneidet; während das zweite Abbildungsgerät 16 so angeordnet wird, dass sein Bildfeld sich mit der Beleuchtungsregion, welche durch das zweite Lichtquellensubsystem 13 erzeugt wird, überschneidet. Auf diese Weise wird das Bildfeld des Systems 10 in X-Richtung erhöht.
  • Jedes Abbildungsgerät arbeitet unabhängig um Merkmale in seiner Hälfte des verdoppelten X-Bildfeldes zu messen. Deshalb steht das erste Kontrollmodul in Datenverbindung mit dem ersten Abbildungsgerät, um Bilddaten in dem Bildfeld des ersten Abbildungsgerätes aufzunehmen und das zweite Kontrollmodul steht in Datenverbindung mit dem zweiten Abbildungsgerät, um Bilddaten in dem Bildfeld des zweiten Abbildungsgerätes aufzunehmen. Um Übersprechen zwischen den Abbildungsgeräten zu minimieren, wird die Ausführung zwischen den beiden Abbildungsgeräten vorzugsweise koordiniert. Beispielsweise nimmt das erste Abbildungsgerät Bilddaten auf, während Licht von dem ersten Lichtquellensubsystem abgetastet wird. Sobald das erste Abbildungsgerät die Bilddaten aufgenommen hat, nimmt das zweite Abbildungsgerät Bilddaten auf, während Licht von dem zweiten Lichtquellensubsystem abgetastet wird. Während der Zeit, in der das zweite Abbildungsgerät Bilddaten aufnimmt, werden die Bilddaten, die von dem ersten Abbildungsgerät aufgenommen wurden, verarbeitet und umgekehrt. Alternativ hierzu kann jedes Lichtquellensubsystem eine unterschiedliche Laserwellenlänge projizieren und damit das Abbildungsgerät befähigen, Bilddaten gleichzeitig aufzunehmen. In jedem Fall werden Bilddaten von jedem der Abbildungsgeräte der Bildverarbeitungseinheit 18 mitgeteilt und von dieser miteinander kombiniert in einer Weise, die weiter unten beschrieben wird.
  • In einer alternativen Anordnung kann das Messsystem 10 eine einzelne Lichtquelle benutzen, um eine Beleuchtungsregion zu erzeugen. In dieser Anordnung nehmen das erste und zweite Abbildungsgerät Bilddaten primär in unterschiedlichen nicht-überlappenden Bereichen der Beleuchtungsregion auf, obwohl ein gewisser Überlapp zwischen den Abbildungsgeräten für Kalibrierungszwecke bevorzugt ist. Jedes Abbildungsgerät arbeitet unabhängig, um Merkmale in seinem Teil der Beleuchtungsregion zu messen. Andere Anordnungen können mehr oder weniger Abbildungsgeräte nutzen, die in ähnlicher Weise mit einer oder mehreren Lichtquellensubsystemen zusammenwirken.
  • In einer beispielhaften Ausführungsform sind die Komponenten des Messsystems 10 in einem einzigen Gehäuse 42 integriert. Um den Raum zwischen den Komponenten und damit die Gesamtgröße des Gehäuses zu reduzieren, sind die Komponenten in einer der „umgekehrten Überlagerung“ entsprechenden Weise wie in 4 gezeigt angeordnet. Das heißt, dass das erste und zweite Lichtquellensubsystem 12, 13 zusammen zwischen dem ersten und zweiten Abbildungsgerät 14, 16 eingefügt sind, so dass das erste Lichtquellensubsystem 12 zwischen dem zweiten Abbildungsgerät 16 und dem zweiten Lichtquellensubsystem 13 angeordnet ist, während das zweite Lichtquellensubsystem 13 zwischen den ersten Abbildungsgerät 14 und dem ersten Lichtquellensubsystem 12 angeordnet ist. Es wird bemerkt, dass das erste Lichtquellensubsystem 12 und das zweite Lichtquellensubsystem 13 derart in Bezug aufeinander angeordnet sind, dass sich die erste Beleuchtungsregion und die zweite Beleuchtungsregion überlappen. Zusätzlich ist das erste Abbildungsgerät 14 so angeordnet, dass sein Bildfeld sich mit der Beleuchtungsregion überschneidet, welche von dem ersten Lichtquellensubsystem 12 abgetastet wird und das zweite Abbildungsgerät 16 ist so angeordnet, dass sein Bildfeld sich mit der Beleuchtungsregion überschneidet, welche von der dem zweiten Lichtquellensubsystem 13 abgetastet wird.
  • Die aktuelle Position jeder Komponente mit Bezug auf die anderen Komponenten wird angepasst, um die beste Feldabdeckungskonfiguration über die durch die Tiefe des Feldes (von Nahfeld zu Fernfeld) der Abbildungsgeräte hindurch zu erreichen. Zum Beispiel kann die Anordnung von einer Lichtquelle in Bezug auf deren zugehöriges Abbildungsgerät bestimmt werden durch Minimierung des Triangulationswinkels, gebildet durch die Lichtquelle und das Abbildungsgerät während eine gewünschte Bildauflösung für die aufgenommenen Bilddaten in bekannter Weise aufrechterhalten wird. Es wird ohne Weiteres verständlich, dass die genaue Anordnung von Komponenten des Messsystems (oder in dem Gehäuse) abhängig ist von der gewünschten Feldabdeckung und der Bildauflösung.
  • Um Daten von mehreren Abbildungsgeräten zu kombinieren, ist es erforderlich, verschiedene Systemkomponenten genau zu kalibrieren. Eine beispielhafte Methode zur Kalibrierung des Messsystems wird nun weiter beschrieben mit Bezug auf 5.
  • Zuerst werden die Abbildungsgeräte individuell kalibriert bei Schritt 51 mit Bezug auf einen externen Referenzrahmen. Es wird vorausgesetzt, dass Bildgeräte zur Kalibrierung Messdaten in einem lokalen Referenzrahmen anzeigen. Techniken um Abbildungsgeräte in Relation zu einem externen Referenzrahmen zu kalibrieren sind ohne Weiteres bekannt. Weitere Details in Bezug auf eine passende Kalibrierungsmethode die eine Lasernachführungseinrichtung verwenden, können beispielsweise im US-Patent US 6 134 507 A gefunden werden, welches ebenfalls durch Verweis Bestandteil dieser Anmeldung ist. Unabhängig von der Kalibrierungsmethode ergibt dieser Schritt eine Transformierte für jedes Abbildungsgerät, die Messungen von dem lokalisierten Referenzrahmen zu dem externen Referenzrahmen abbildet. Der externe Referenzrahmen bezieht sich auf ein allgemeines Koordinatensystem und kann mit einem Werkstück, welches gemessen wird, in Verbindung gebracht werden, mit einer globalen Eichstation oder einem anderen Referenzrahmen.
  • Transformierte für jedes Abbildungsgerät können weiter optimiert werden. Für Abbildungsgeräte mit überlappenden Bildfeldern werden ein oder mehrere Zielobjekte in den überlappenden Raum bei Schritt 52 gebracht. Ein Beispiel für ein Zielobjekt ist eine beleuchtete Kugel. Bilddaten werden dann erhalten bei Schritt 53 durch beide Abbildungsgeräte. Im Falle eines einzelnen Zielobjektes kann das Zielobjekt zu verschiedenen Positionen innerhalb des überlappenden Raumes bewegt werden und Bilddaten werden durch beide Abbildungsgeräte für jede unterschiedliche Position erhalten. Jede Zielobjektposition wird von dem lokalen Referenzrahmen von dem Bildgerät zu dem allgemeinen Koordinatensystem übersetzt unter Benutzung der entsprechenden Transformierten für das Bildgerät. Mit anderen Worten wird eine erste Position des Zielobjektes in dem allgemeinen Koordinatensystem berechnet durch Benutzung der Bilddaten, welche durch das erste Abbildungsgerät aufgenommen wurden und die entsprechende Transformierte und eine zweite Position des Zielobjektes in dem gemeinsamen Koordinatenraum wird berechnet unter Benutzung der Bilddaten, welche durch das zweite Abbildungsgerät aufgenommen wurden und dessen korrespondierende Transformierte. Theoretisch sollten die beiden berechneten Positionen des Zielobjektes dieselben sein, da dass Zielobjekt stationär bleibt während die Bilddaten durch die beiden Abbildungsgeräte erhalten wurden. In der Praxis wird sich ein Unterschied zwischen den beiden berechneten Positionen ergeben. Demnach wird durch Minimierung des Unterschiedes (das heißt des Fehlers) zwischen den beiden berechneten Positionen die Transformierten für das erste und zweite Abbildungsgerät genauer kalibriert werden wie dies bei Schritt 54 gezeigt ist. Eine Kleinste-Quadrate-Minimierungsmethode oder eine andere Regressionsmethode kann angewendet werden, um den Fehler zwischen den zwei Transformierten zu minimieren.
  • Als nächstes werden die Lichtquellensubsysteme ebenfalls auf das allgemeine Koordinatensystem kalibriert. Für jede Lichtquelle wird ein Zielobjekt positioniert (Schritt 55) bei einer Position, an der das Bildfeld eines gegebenen Abbildungsgerätes sich mit der Beleuchtungsregion des Lichtquellensubsystems überschneidet. Ein beispielhaftes Zielobjekt ist eine Ecke, wobei auch andere geeignete Zielobjekte erwogen werden können. Das Zielobjekt wird dann beleuchtet durch die Lichtquelle und Bilddaten für das Zielobjekt werden aufgenommen bei Schritt 56 durch das gegebene Abbildungsgerät. Wie bereits oben erwähnt, ist die Position des Lichtes in der Beleuchtungsregion genau bekannt in dem Referenzrahmen des MEMS-Spiegelgerätes. Die Position des Zielobjektes in dem allgemeinen Koordinatensystem kann ebenfalls von den Bilddaten ermittelt werden durch Benutzung der Transformierten für das Abbildungsgerät. Ausgehend von der Positionsinformation des Zielobjektes in dem allgemeinen Koordinatensystem kann eine Transformierte erhalten werden, die die Position des Lichtes im dem Lichtquellenraum auf eine Position in dem allgemeinen Koordinatensystem abbildet. Auf diese Weise kann jedes Lichtquellensubsystem kalibriert werden (Schritt 57), um die Position des Lichtes in dem allgemeinen Koordinatensystem anzuzeigen. Soweit die ein oder mehreren Abbildungsgeräte ein Bildfeld haben, welches mit der Beleuchtungsregion eines Lichtquellensubsystems sich überschneidet, können die unabhängig voneinander betriebenen Lichtquellensubsysteme zu jedem dieser Abbildungsgeräte kalibriert werden.
  • Sobald jede der Komponenten genau kalibriert worden ist, können die Bilddaten, aufgenommen durch die beiden Abbildungsgeräte, kombiniert werden durch die Bildverarbeitungseinheit 18. In einer beispielhaften Ausführungsform wird das Bild, welches durch jedes der Abbildungsgeräte 14, 18 aufgenommen wurde, der Bildverarbeitungseinheit 18 angezeigt. Unter Bezugnahme auf die 6 werden Bilddaten von den beiden Abbildungsgeräten 14, 16 dann durch die Bildverarbeitungseinheit 18 miteinander kombiniert. In einem vereinfachten Schema werden Bilddaten, die von dem ersten Abbildungsgerät 14 aufgenommen wurden oberhalb der z-Achse mit Bilddaten, welche durch das zweite Abbildungsgerät 16 unterhalb der z-Achse aufgenommen wurden, kombiniert und bilden so ein zusammengesetztes Bild. Mit anderen Worten werden Bilddaten, welche durch das erste Abbildungsgerät 14 unterhalb der z-Achse aufgenommen wurden, das heißt mit positiven y-Koordinaten, verworfen; wohingegen Bilddaten, welche durch das zweite Abbildungsgerät 16 oberhalb der z-Achse aufgenommen wurden, das heißt mit negativer y-Koordinate, verworfen werden.
  • Bei einer Abstandsanwendung kann das berührungslose Messsystem 10 dreidimensionale Profilinformationen erhalten in einem Bereich, wo zwei Werkstücke 61, 62 ausgerichtet sind. Bei dieser Anwendung kann die Bildverarbeitungseinheit 18 ein aufwendigeres Schema anwenden, um die Bilddaten der beiden Abbildungsgeräte zu kombinieren. Beispielsweise kann die Bildverarbeitungseinheit 18 den Konturwinkel (θ) innerhalb der Werkstückoberfläche in Bezug auf die z-Achse berechnen. Wenn der Profilwinkel der Oberfläche +- 45 Grad beträgt, werden die Bilddaten von den Abbildungsgeräten unter Benutzung des vereinfachten Schemas wie oben beschrieben, kombiniert. Wenn der Profilwinkel der Oberfläche +- 45 Grad überschreitet, werden Daten für die Oberfläche nicht länger durch das geeignete Abbildungsgerät aufgenommen. Beispielsweise ist ein Abschnitt der Oberfläche, bezeichnet mit 63, nicht länger für das erste Abbildungsgerät 14 sichtbar, jedoch ist es für das zweite Abbildungsgerät 16 sichtbar. Deshalb wird die Bildverarbeitungseinheit, wenn der Profilwinkel der Oberfläche +- 45 Grad überschreitet, Bilddaten von dem gegenüberliegenden Abbildungsgerät benutzen, um das zusammengesetzte Bild zu konstruieren. Andere Schemata, um Daten von mehreren Abbildungsgeräten zu kombinieren, können ebenfalls durch diese Offenbarung benutzt werden.
  • Eine typische Eichstation 200 für ein Automobilteil kann die in 7 gezeigte Form annehmen. Werkstücke, die geeicht werden sollen durch die Eichstation 200, sind auf Transportpaletten 220 angeordnet, die entlang einer Fertigungslinie durch Palettenführungen 230 bewegt werden, welche durch Führungskanäle 231 in der Palette geführt werden. An der Eichstation 200 umgibt ein Montagerahmen 210 das Werkstück 100, welches geeicht werden soll, wobei nur die eine Hälfte des Rahmens in der Figur gezeigt ist und stellt eine Vielzahl von Anbaupositionen für eine Serie von berührungslosen Sensoren 240-1 bis 240-n zur Verfügung.
  • Jeder dieser berührungslosen Sensoren 240-n kann in der oben beschriebenen Weise ausgebildet werden. Mit anderen Worten jeder Sensor umfasst zwei erste Quellensubsysteme und zwei Abbildungsgeräte, welche in einer „umgekehrten Überlappung“ entsprechenden Weise angeordnet sind innerhalb eines einzelnen Gehäuses, wie in Bezug auf 4 beschrieben. Bilddaten, die durch einen Sensor erhalten werden, werden in Messdaten an dem Sensor übersetzt oder an einem entfernten Computer 250. In jedem Fall werden die Daten von dem Sensor zu dem entfernten Computer 250 zur weiteren Verarbeitung und/oder zur Speicherung gesendet. In einigen Ausführungsformen können einer oder mehrere dieser Sensoren überlappende Bildfelder aufweisen und auf ein allgemeines Koordinatensystem kalibriert sein. Falls einer der Sensoren ersetzt werden muss oder auf anderen rekalibriert werden muss, kann der entsprechende Sensor auf das allgemeine Koordinatensystem durch die oben beschriebene Methode kalibriert werden. Genauer können die Schritte 52-54 der 5 ausgeführt werden, um den entsprechenden Sensor in Bezug auf die anderen Sensoren zu rekalibrieren. Auf diese Weise können die Sensoren in einer typischen Eichstation auf eine effizientere Weise kalibriert werden.
  • Soweit hier benutzt kann der Begriff Modul sich beziehen auf einen anwendungsspezifischen integrierten Schaltkreis (ASIC), einen elektronischen Schaltkreis, einen kombinatorischen logischen Schaltkreis, eine feldprogrammierbare Gattermatrix (field programmable gate array (FPGA)), einen Prozessor (geteilt, zugeordnet oder Gruppe) der Codes ausführt, andere geeignete Komponenten, die die beschriebene Funktionalität bereitstellen oder eine Kombination von einigen oder allen der oben genannten, beispielsweise wie in einem System-auf-einem-Chip (system-on-chip), ein Teil davon sein oder vorgenanntes beinhalten. Der Begriff Modul kann Speicher (geteilt, geeignet oder Gruppe) beinhalten, welcher Code, der von dem Prozessor ausgeführt wird, speichert. Der Begriff Code kann Software, Firmware und/oder Microcode umfassen und kann sich auf Programme, Routinen, Funktionen, Klassen und/oder Objekte beziehen. Der Begriff geteilt wie oben benutzt bedeutet, dass Teile oder sämtlicher Code von mehreren Modulen ausgeführt werden kann unter Benutzung eines einzelnen (geteilten) Prozessors. Zusätzlich können Teile oder sämtlicher Code von mehreren Modulen durch einen einzelnen (geteilten) Speicher gespeichert werden. Der Begriff Gruppe wie oben benutzt, bedeutet, dass Teile oder aller Code von einem einzelnen Modul durch eine Gruppe von Prozessoren ausgeführt werden kann. Zusätzlich können Teile oder sämtlicher Code von einem einzelnen Modul unter Benutzung einer Gruppe von Speichern gespeichert werden.
  • Die vorstehende Beschreibung von Ausführungsbeispielen wurde zum Zwecke der Veranschaulichung und Beschreibung zur Verfügung gestellt. Es ist nicht beabsichtigt, dass diese vollständig ist oder die Offenbarung beschränkt. Einzelne Elemente oder Merkmale einer bestimmten Ausführungsform sind nicht beschränkt auf diese spezielle Ausführungsform, aber wo anwendbar, sind diese austauschbar und können in einer ausgewählten Ausführungsform benutzt werden, selbst wenn diese nicht eigens gezeigt oder beschrieben sind. Das Gleiche kann auch auf vielfältige Weise variiert werden. Solche Variationen verlassen nicht den Rahmen der Offenbarung und sämtliche Modifikationen sind bestimmt in den Rahmen der vorliegenden Erfindung zu fallen.
  • Beispielhafte Ausführungsformen werden zur Verfügung gestellt, so dass diese Offenbarung gründlich ist und vollständig deren Umfang für einen Fachmann vermittelt. Zahlreiche genaue Details sind dargelegt, beispielsweise Beispiele von spezifischen Komponenten, Geräten und Methoden, um ein vollständiges Verstehen von Ausführungsformen der vorliegenden Offenbarung zur Verfügung zu stellen. Dem Fachmann ist offensichtlich, dass spezifische Details nicht benötigt werden, dass beispielhafte Ausführungsformen in vielen verschiedenen Formen umgesetzt werden können und dass diese nicht dahingehend ausgelegt werden sollen, dass diese den Umfang der Offenbarung beschränken. In einigen beispielhaften Ausführungsformen sind bekannte Prozesse, bekannte Geräte, Strukturen und bekannte Technologien nicht im Detail beschrieben.

Claims (16)

  1. Ein berührungsloses Messsystem zum Erhalten von dreidimensionalen Profilinformationen, umfassend: ein Lichtquellensubsystem, welches ausgebildet ist, um einen Lichtpunkt in einer Beleuchtungsregion abzutasten; ein erstes Abbildungsgerät mit einem Bildfeld, welches so angeordnet ist, um sich mit der Beleuchtungsregion zu überschneiden und ausgebildet ist, um Bilddaten aufzunehmen; ein erstes Kontrollmodul, welches in Datenkommunikation mit dem ersten Abbildungsgerät steht, wobei das erste Kontrollmodul ausgebildet ist, um die Position eines Objektes in dem Bildfeld des ersten Abbildungsgerätes von den aufgenommenen Bilddaten zu ermitteln und die Position des Objektes in einem allgemeinen Koordinatensystem anzuzeigen, wobei der Lichtpunkt durch das Lichtquellensubsystem mit einer höheren Abtastgeschwindigkeit als die Shuttergeschwindigkeit des ersten Abbildungsgeräts abgetastet wird; ein zweites Abbildungsgerät mit einem Bildfeld, welches so angeordnet ist, um sich mit der Beleuchtungsregion zu überschneiden und ausgebildet ist, um Bilddaten aufzunehmen; und ein zweites Kontrollmodul, welches in Datenkommunikation mit dem zweiten Bildgerät steht, wobei das zweite Kontrollmodul ausgebildet ist, um die Position eines Objektes in dem Bildfeld des zweiten Abbildungsgerätes von den aufgenommenen Bilddaten zu ermitteln und die Position des Objektes in einem allgemeinen Koordinatensystem anzuzeigen, wobei der Lichtpunkt durch das Lichtquellensubsystem mit einer höheren Abtastgeschwindigkeit als die Shuttergeschwindigkeit des zweiten Abbildungsgeräts abgetastet wird und wobei das Lichtquellensubsystem kalibriert ist, um die Position des Lichtpunktes in dem allgemeinen Koordinatensystem anzuzeigen.
  2. Das berührungslose Messsystem von Anspruch 1, wobei das erste Kontrollmodul die Position des Lichtpunktes von dem Lichtquellensubsystem erhält und die Position des Objektes in dem Bildfeld des ersten Abbildungsgerätes von der Position des Lichtpunktes und den aufgenommenen Bilddaten durch Triangulation ermittelt.
  3. Das berührungslose Messsystem von Anspruch 1, wobei das Lichtquellensubsystem einen mittels eines mikro-elektro-mechanischen Systems (MEMS) betätigbaren Spiegel benutzt, um den Lichtpunkt zu positionieren und die Position des Lichtpunktes, wie diese durch den MEMS betätigbaren Spiegel angezeigt wird, in eine Position des Lichtpunktes in dem allgemeinen Koordinatensystem zu übersetzen.
  4. Das berührungslose Messsystem von Anspruch 1, wobei das erste Kontrollmodul in Datenverbindung mit dem Lichtquellensubsystem steht, um die Abtastung der Lichtebene in der ersten Beleuchtungsregion abzutasten.
  5. Das berührungslose Messsystem von Anspruch 1, wobei das Lichtquellensubsystem weiter eine Laserlichtquelle umfasst, die so angeordnet ist, um Licht auf einen mittels eines mikro-elektro-mechanischen Systems (MEMS) betätigbaren Spiegels zu projizieren, und einen sphärischen Spiegel, der so angeordnet ist, so dass Licht reflektiert wird, welches durch den MEMS betätigbaren Spiegel auf die Beleuchtungsregion gerichtet wird.
  6. Das berührungslose Messsystem von Anspruch 1, wobei das Bildfeld des ersten Abbildungsgerätes sich mit dem Bildfeld des zweiten Abbildungsgerätes überschneidet.
  7. Das berührungslose Messsystem von Anspruch 1, wobei das erste Abbildungsgerät, das ersten Kontrollmodul, das zweite Abbildungsgerät und das zweite Kontrollmodul in einem gemeinsamen Gehäuse angeordnet sind.
  8. Das berührungslose Messsystem von Anspruch 7, wobei das Lichtquellensubsystem in einem gemeinsamen Gehäuse angeordnet ist.
  9. Das berührungslose Messsystem von Anspruch 7, wobei das Lichtquellensubsystem in einem Gehäuse angeordnet ist, welches sich von dem gemeinsamen Gehäuse unterscheidet und von diesem räumlich getrennt ist.
  10. Ein berührungsloses Sensorgerät, um dreidimensionale Profildaten zu erhalten, umfassend ein erstes Lichtquellensubsystem, welches ausgebildet ist, um einen Lichtpunkt zu projizieren und um den Lichtpunkt in einer ersten Beleuchtungsregion abzutasten, wobei das erste Lichtquellensubsystem einen mittels eines mikro-elektro-mechanischen Systems (MEMS) betätigbaren Spiegel benutzt, um den Lichtpunkt abzutasten; ein erstes Abbildungsgerät mit einem Bildfeld, das so angeordnet ist, so dass dieses sich mit einer ersten Beleuchtungsregion überschneidet und ausgebildet ist, um Bilddaten hierin aufzunehmen; ein zweites Lichtquellensubsystem, welches ausgebildet ist, um einen Lichtpunkt zu projizieren und um den Lichtpunkt in einer zweiten Beleuchtungsregion abzutasten, die benachbart zu der ersten Beleuchtungsregion ist, wobei das zweiten Lichtquellensubsystem einen mittels eines mikro-elektro-mechanischen Systems (MEMS) betätigbaren Spiegel benutzt, um die Ebene des Lichts abzutasten; und ein zweites Abbildungsgerät mit einem Bildfeld, welches so angeordnet ist, so dass es sich mit der zweiten Beleuchtungsregion überschneidet und ausgebildet ist, um Bilddaten hierin aufzunehmen; wobei das erste Lichtquellensubsystem, das erste Abbildungsgerät, das zweite Lichtquellensubsystem und das zweite Abbildungsgerät in einem Gehäuse des Gerätes angeordnet sind und wobei das erste und das zweite Lichtquellensubsystem gemeinsam zwischen dem ersten und dem zweiten Abbildungsgerät angeordnet sind in der Weise, dass das erste Lichtquellensubsystem zwischen dem zweiten Abbildungsgerät und dem zweiten Lichtquellensubsystem angeordnet ist und das zweite Lichtquellensubsystem zwischen dem ersten Abbildungsgerät und dem ersten Lichtquellensubsystem angeordnet ist.
  11. Das berührungsloses Sensorgerät von Anspruch 10, wobei das Bildfeld des ersten Abbildungsgerätes sich mit dem Bildfeld des zweiten Abbildungsgerätes überschneidet.
  12. Das berührungsloses Sensorgerät von Anspruch 10, weiter umfassend ein erstes Kontrollmodul, welches in Datenverbindung mit dem ersten Lichtquellensubsystem steht, um das Abtasten der Lichtebene in der ersten Beleuchtungsregion zu steuern und um die Position des Lichtpunktes zu erhalten, wie dies durch das erste Lichtquellensubsystem angezeigt wird; und ein zweites Kontrollmodul, welches in Datenverbindung mit dem zweiten Lichtquellensubsystem steht, um das Abtasten der Ebene des Lichts in der zweiten Beleuchtungsregion zu steuern und um die Position des Lichtpunktes zu erhalten, wie dies durch das zweite Lichtquellensubsystem angezeigt wird.
  13. Das berührungsloses Sensorgerät von Anspruch 12, wobei das erste Kontrollmodul die Position des Lichtpunktes übersetzt, wie dies durch das erste Lichtquellensubsystem angezeigt wird, in eine Position des Lichtpunktes in einem allgemeinen Koordinatensystem und wobei das zweite Kontrollmodul die Position des Lichtpunktes, wie dies durch das zweite Lichtquellensubsystem angezeigt wird in eine Position des Lichtpunktes in dem allgemeinem Koordinatensystem übersetzt.
  14. Das berührungsloses Sensorgerät von Anspruch 13, wobei das erste Kontrollmodul in Datenverbindung mit dem ersten Abbildungsgerät steht, um die Position eines Objektes in dem Bildfeld des ersten Abbildungsgerätes von den Bilddaten zu ermitteln, welche von dem ersten Abbildungsgerät aufgenommen werden durch Triangulation und um die Position des Objektes in dem allgemeinen Koordinatensystem anzuzeigen; und wobei das zweite Kontrollmodul in Datenverbindung mit dem zweiten Abbildungsgerät steht, um die Position eines Objektes in dem Bildfeld des zweiten Abbildungsgerätes zu ermitteln von den Bilddaten, die durch das zweite Abbildungsgerät aufgenommen wurden mittels Triangulation und um die Position des Objektes in dem allgemeinen Koordinatensystem anzuzeigen, wobei das erste Kontrollmodul unabhängig von dem zweiten Kontrollmodul arbeitet.
  15. Das berührungsloses Sensorgerät von Anspruch 10 weiter umfassend eine Bildverarbeitungseinheit, welche Bilddaten erhält, die durch das erste Abbildungsgerät und das zweite Abbildungsgerät erhalten wurden und die ein einzelnes Bild von den erhaltenen Bilddaten erzeugt.
  16. Das berührungsloses Sensorgerät von Anspruch 10, wobei das erste Lichtquellensubsystem weiter eine Laserlichtquelle umfasst, die angeordnet ist, um Licht in Richtung eines mittels MEMS betätigbaren Spiegels zu projizieren und einen sphärischen Spiegel, der angeordnet ist, um Licht zu reflektieren, welches durch den MEMS betätigbaren Spiegel auf die Beleuchtungsregion gerichtet wird.
DE112011103090.8T 2010-09-15 2011-09-14 Berührungsloses Messsystem und Sensorgerät mit einer auf einem mikro-elektro-mechanischen System basierenden Lichtquelle Active DE112011103090B4 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US38308510P 2010-09-15 2010-09-15
US61/383,085 2010-09-15
US12/943,344 2010-11-10
US12/943,344 US9204129B2 (en) 2010-09-15 2010-11-10 Non-contact sensing system having MEMS-based light source
PCT/US2011/051499 WO2012037186A2 (en) 2010-09-15 2011-09-14 Non-contact sensing system having mems-based light source

Publications (2)

Publication Number Publication Date
DE112011103090T5 DE112011103090T5 (de) 2013-08-08
DE112011103090B4 true DE112011103090B4 (de) 2021-02-11

Family

ID=45806325

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011103090.8T Active DE112011103090B4 (de) 2010-09-15 2011-09-14 Berührungsloses Messsystem und Sensorgerät mit einer auf einem mikro-elektro-mechanischen System basierenden Lichtquelle

Country Status (4)

Country Link
US (1) US9204129B2 (de)
CN (1) CN103180689B (de)
DE (1) DE112011103090B4 (de)
WO (1) WO2012037186A2 (de)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9482755B2 (en) 2008-11-17 2016-11-01 Faro Technologies, Inc. Measurement system having air temperature compensation between a target and a laser tracker
US9400170B2 (en) 2010-04-21 2016-07-26 Faro Technologies, Inc. Automatic measurement of dimensional data within an acceptance region by a laser tracker
US9377885B2 (en) 2010-04-21 2016-06-28 Faro Technologies, Inc. Method and apparatus for locking onto a retroreflector with a laser tracker
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
KR101763944B1 (ko) * 2011-02-18 2017-08-01 엘지디스플레이 주식회사 영상표시장치
GB2518998A (en) 2011-03-03 2015-04-08 Faro Tech Inc Target apparatus and method
GB2504890A (en) 2011-04-15 2014-02-12 Faro Tech Inc Enhanced position detector in laser tracker
US9164173B2 (en) 2011-04-15 2015-10-20 Faro Technologies, Inc. Laser tracker that uses a fiber-optic coupler and an achromatic launch to align and collimate two wavelengths of light
US9686532B2 (en) 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
US9482529B2 (en) * 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US8849620B2 (en) 2011-11-18 2014-09-30 Nike, Inc. Automated 3-D modeling of shoe parts
US8755925B2 (en) 2011-11-18 2014-06-17 Nike, Inc. Automated identification and assembly of shoe parts
US10552551B2 (en) * 2011-11-18 2020-02-04 Nike, Inc. Generation of tool paths for shore assembly
WO2013145327A1 (ja) * 2012-03-30 2013-10-03 富士通株式会社 生成装置、生成プログラムおよび生成方法
US8786767B2 (en) * 2012-11-02 2014-07-22 Microsoft Corporation Rapid synchronized lighting and shuttering
DE102012112321B4 (de) * 2012-12-14 2015-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US20140267617A1 (en) * 2013-03-15 2014-09-18 Scott A. Krig Adaptive depth sensing
DE112014001483T5 (de) * 2013-03-15 2015-12-10 Faro Technologies, Inc. Dreidimensionaler Koordinatenscanner und Betriebsverfahren
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9395174B2 (en) 2014-06-27 2016-07-19 Faro Technologies, Inc. Determining retroreflector orientation by optimizing spatial fit
US9964402B2 (en) * 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
US9871968B2 (en) 2015-05-22 2018-01-16 Caterpillar Inc. Imaging system for generating a surround-view image
US10455216B2 (en) * 2015-08-19 2019-10-22 Faro Technologies, Inc. Three-dimensional imager
US10444006B2 (en) 2015-08-19 2019-10-15 Faro Technologies, Inc. Three-dimensional imager
EP3203264A1 (de) 2016-02-04 2017-08-09 Mettler-Toledo GmbH Verfahren zur abbildung eines objekts zur verfolgung und dokumentation beim transportieren und lagern
US10799998B2 (en) * 2016-10-17 2020-10-13 Virtek Vision International Ulc Laser projector with flash alignment
PL3367054T3 (pl) * 2017-02-28 2020-09-21 Phenospex B.V. System do optycznego rejestrowania przedmiotów
CN107063092B (zh) * 2017-06-05 2019-02-05 北京理工大学 一种大视场快速扫描的双光源同轴标定***及调整方法
CN108761482A (zh) * 2018-04-09 2018-11-06 湖北三江航天万峰科技发展有限公司 一种基于mems振镜的微型激光三维成像雷达及成像方法
JP7453220B2 (ja) * 2018-10-19 2024-03-19 イノヴィズ テクノロジーズ リミテッド Lidarシステム及び方法
JP7252755B2 (ja) * 2018-12-27 2023-04-05 株式会社小糸製作所 アクティブセンサ、物体識別システム、車両、車両用灯具
WO2020255082A1 (en) * 2019-06-20 2020-12-24 Gentex Corporation System and method for automated modular illumination and deployment
CN110220479A (zh) * 2019-07-16 2019-09-10 深圳数马电子技术有限公司 非接触式钥匙齿形学习的方法及***
CN113835135B (zh) * 2020-06-23 2022-11-22 同方威视技术股份有限公司 太赫兹安检机器人
GB202101612D0 (en) * 2021-02-05 2021-03-24 Ams Sensors Singapore Pte Ltd Distance measurement using field of view
CN115541598B (zh) * 2022-08-24 2024-05-14 深圳市二郎神视觉科技有限公司 汽车外观检测方法、装置及***
FR3139895A1 (fr) 2022-09-16 2024-03-22 Constellium Neuf Brisach Dispositif et procédé de contrôle de planéité d’une tôle métallique.

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3817321A1 (de) * 1987-11-05 1989-05-18 Fiat Auto Spa Verfahren und vorrichtung zur durchfuehrung der masskontrolle eines werkstuecks auf optoelektronischem weg
US5216476A (en) * 1991-10-15 1993-06-01 Synectics Corporation Photogrammetric laser system
DE4301538A1 (de) * 1992-03-17 1994-07-28 Peter Dr Ing Brueckner Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen
DE3612550C2 (de) * 1986-03-14 1996-06-27 Komatsu Mfg Co Ltd Meßgerät für den Straßenoberflächenzustand
DE19534415A1 (de) * 1995-09-16 1997-03-20 Alain Piaget Verfahren und Vorrichtung zum Erfassen und Vermessen dreidimensionaler Körper oder von beliebigen Flächen
US6134507A (en) * 1996-02-06 2000-10-17 Perceptron, Inc. Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
DE102008039838A1 (de) * 2008-08-27 2010-03-04 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Abtasten der dreidimensionalen Oberfläche eines Objekts mittels eines Lichtstrahl-Scanners und Vorrichtung zur Durchführung des Verfahrens

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58169966A (ja) * 1982-03-31 1983-10-06 Toshiba Corp 固体撮像装置の駆動方式
US5028799A (en) 1988-08-01 1991-07-02 Robotic Vision System, Inc. Method and apparatus for three dimensional object surface determination using co-planar data from multiple sensors
JP3141049B2 (ja) * 1992-08-14 2001-03-05 オリンパス光学工業株式会社 3次元計測方法及び3次元計測装置
US6956963B2 (en) * 1998-07-08 2005-10-18 Ismeca Europe Semiconductor Sa Imaging for a machine-vision system
CN1081326C (zh) * 1998-07-11 2002-03-20 中国科学院安徽光学精密机械研究所 橡胶部件轮廓激光在线检测装置
US6441908B1 (en) 1999-08-06 2002-08-27 Metron Systems, Inc. Profiling of a component having reduced sensitivity to anomalous off-axis reflections
WO2001078052A1 (en) * 2000-04-05 2001-10-18 Dimensional Media Associates, Inc. Methods and apparatus for virtual touchscreen computer interface controller
US6624899B1 (en) 2000-06-29 2003-09-23 Schmitt Measurement Systems, Inc. Triangulation displacement sensor
JP4364459B2 (ja) 2000-12-07 2009-11-18 富士通株式会社 光信号交換器の制御装置および制御方法
WO2002063372A1 (en) 2001-01-16 2002-08-15 Santur Corporation Tunable optical device using a scanning mems mirror
US6473167B1 (en) 2001-06-14 2002-10-29 Ascension Technology Corporation Position and orientation determination using stationary fan beam sources and rotating mirrors to sweep fan beams
JP2003021800A (ja) 2001-07-10 2003-01-24 Canon Inc 投射型表示装置
KR100474460B1 (ko) 2002-04-02 2005-03-08 삼성전자주식회사 영상 투사 장치
KR100441603B1 (ko) 2002-05-02 2004-07-23 삼성전자주식회사 비정방행렬 구조의 광스위치를 갖는 영상 투사 장치
JP4111776B2 (ja) 2002-08-22 2008-07-02 富士通株式会社 光信号交換器の制御装置および制御方法
US7277173B1 (en) 2002-12-24 2007-10-02 Agere Systems Inc. Active optical alignment using MEMS mirrors
US7252394B1 (en) 2003-07-03 2007-08-07 Advanced Numicro Systems, Inc. Laser projection display and illumination device with MEMS scanning mirror for indoor and outdoor applications
US7359041B2 (en) * 2003-09-04 2008-04-15 Avago Technologies Ecbu Ip Pte Ltd Method and system for optically tracking a target using a triangulation technique
US7297934B2 (en) 2003-12-12 2007-11-20 ARETé ASSOCIATES Optical system
US7190499B2 (en) 2004-01-05 2007-03-13 E-Pin Optical Industry Co., Ltd. Laser scanning unit
US6893133B1 (en) 2004-01-15 2005-05-17 Yin S. Tang Single panel color image projection system
US7215453B2 (en) 2004-12-23 2007-05-08 Avago Technologies General Ip (Singapore) Pte. Ltd. Optical system having extended angular scan range
JP4031481B2 (ja) 2005-01-05 2008-01-09 日本電信電話株式会社 投影型表示器
WO2006076731A1 (en) 2005-01-12 2006-07-20 University Of Florida Research Foundation, Inc. Full circumferential scanning oct intravascular imaging probe based on scanning mems miror
DE102005002190B4 (de) 2005-01-17 2007-04-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scanner und Verfahren zum Betreiben eines Scanners
US7346234B2 (en) 2005-04-11 2008-03-18 Capella Photonics Reduction of MEMS mirror edge diffraction in a wavelength selective switch using servo-based multi-axes rotation
US7609875B2 (en) 2005-05-27 2009-10-27 Orametrix, Inc. Scanner system and method for mapping surface of three-dimensional object
JP4639973B2 (ja) 2005-06-07 2011-02-23 カシオ計算機株式会社 画像投影装置
JP2007004881A (ja) 2005-06-23 2007-01-11 Funai Electric Co Ltd ミラー角度制御システム
US20070070046A1 (en) 2005-09-21 2007-03-29 Leonid Sheynblat Sensor-based touchscreen assembly, handheld portable electronic device having assembly, and method of determining touch location on a display panel
US20080037090A1 (en) 2006-04-11 2008-02-14 Microvision, Inc. Mems-based projector suitable for inclusion in portable user devices
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
KR100948710B1 (ko) 2006-08-09 2010-03-22 세이코 엡슨 가부시키가이샤 주사형 화상 표시 장치
JP2008241643A (ja) 2007-03-29 2008-10-09 Fujinon Corp 3次元形状測定装置
JP2008256465A (ja) 2007-04-03 2008-10-23 Nikon Corp 計測装置
US20090196459A1 (en) * 2008-02-01 2009-08-06 Perceptron, Inc. Image manipulation and processing techniques for remote inspection device
EP2265895A4 (de) 2008-04-01 2016-07-27 Perceptron Inc Konturensensor mit mems-spiegeln
KR101279441B1 (ko) * 2008-08-21 2013-07-05 삼성전자주식회사 멤스 미러, 미러 스캐너, 광주사 유닛 및 광주사 유닛을 채용한 화상형성장치
TWI497358B (zh) * 2009-11-18 2015-08-21 Qisda Corp 物體偵測系統

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3612550C2 (de) * 1986-03-14 1996-06-27 Komatsu Mfg Co Ltd Meßgerät für den Straßenoberflächenzustand
DE3817321A1 (de) * 1987-11-05 1989-05-18 Fiat Auto Spa Verfahren und vorrichtung zur durchfuehrung der masskontrolle eines werkstuecks auf optoelektronischem weg
US5216476A (en) * 1991-10-15 1993-06-01 Synectics Corporation Photogrammetric laser system
DE4301538A1 (de) * 1992-03-17 1994-07-28 Peter Dr Ing Brueckner Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen
DE19534415A1 (de) * 1995-09-16 1997-03-20 Alain Piaget Verfahren und Vorrichtung zum Erfassen und Vermessen dreidimensionaler Körper oder von beliebigen Flächen
US6134507A (en) * 1996-02-06 2000-10-17 Perceptron, Inc. Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
DE102008039838A1 (de) * 2008-08-27 2010-03-04 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Abtasten der dreidimensionalen Oberfläche eines Objekts mittels eines Lichtstrahl-Scanners und Vorrichtung zur Durchführung des Verfahrens

Also Published As

Publication number Publication date
US9204129B2 (en) 2015-12-01
CN103180689A (zh) 2013-06-26
US20120062706A1 (en) 2012-03-15
WO2012037186A2 (en) 2012-03-22
CN103180689B (zh) 2016-06-22
DE112011103090T5 (de) 2013-08-08
WO2012037186A3 (en) 2012-05-31

Similar Documents

Publication Publication Date Title
DE112011103090B4 (de) Berührungsloses Messsystem und Sensorgerät mit einer auf einem mikro-elektro-mechanischen System basierenden Lichtquelle
DE60025221T2 (de) Optisches inspektionssystem für teile im subpixel bereich
DE69826753T2 (de) Optischer Profilsensor
DE102017012309B3 (de) Verfahren zum Ausrichten eines Laserprojektors und Laserprojektoranordnung zum Projizieren eines Laserbildes
DE69925582T2 (de) Vorrichtung und verfahren zum optischen messen der oberflächenkontur eines objekts
DE102013008273B4 (de) Dreidimensionale Bilderfassungsvorrichtung
DE68925744T2 (de) Telezentrisch abbildendes System
DE19721688B4 (de) Oberflächenerfassungseinrichtung und Verfahren zur Oberflächenerfassung
EP3819671B1 (de) Optoelektronischer sensor und verfahren zur erfassung von objekten
DE102015205738A1 (de) Bewegungsmesssystem einer Maschine und Verfahren zum Betreiben des Bewegungsmesssystems
WO2014000738A2 (de) Verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts und vorrichtung zur bilderfassung
EP2847540A1 (de) Verbessertes beleuchtungsmodul für ein koordinatenmessgerät
DE112016003805T5 (de) Optisches Profilometer und Verfahren zu seiner Verwendung
DE102017212371B4 (de) Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene
WO2016146379A1 (de) Koordinatenmessgerät mit beweglichem sensorträger und positionsbestimmungseinrichtung, sowie verfahren zum betreiben eines koordinatenmessgeräts
DE4212404B4 (de) Vorrichtung und Verfahren zur Bestimmung der räumlichen Form eines langgestreckten Bauteils
WO2016146105A1 (de) Verfahren und vorrichtung zur kalibration einer kamera
DE112018008035T5 (de) Dreidimensionale Messvorrichtung
DE102017116758A1 (de) Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
EP2589926A1 (de) Vorrichtung und Verfahren zur optischen Formerfassung von bewegten Gegenständen
DE102018008010A1 (de) Kalibrationsverfahren einer bildmessvorrichtung und zugehöriges computerprogrammprodukt
WO2016000764A1 (de) Chromatisch konfokale sensoranordnung
DE102009015204A1 (de) Optischer Sensor
EP0671679A1 (de) Vorrichtung und Verfahren zum berührungslosen Vermessen dreidimensionaler Objekte auf der Basis optischer Triangulation
DE102020201476A1 (de) Inspektionsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01B0011000000

Ipc: G01B0011240000

R012 Request for examination validly filed

Effective date: 20131002

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01B0011000000

Ipc: G01B0011240000

Effective date: 20131009

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final