DE102007023920A1 - Verfahren und Vorrichtung zur Oberflächenerfassung eines räumlichen Objektes - Google Patents

Verfahren und Vorrichtung zur Oberflächenerfassung eines räumlichen Objektes Download PDF

Info

Publication number
DE102007023920A1
DE102007023920A1 DE200710023920 DE102007023920A DE102007023920A1 DE 102007023920 A1 DE102007023920 A1 DE 102007023920A1 DE 200710023920 DE200710023920 DE 200710023920 DE 102007023920 A DE102007023920 A DE 102007023920A DE 102007023920 A1 DE102007023920 A1 DE 102007023920A1
Authority
DE
Germany
Prior art keywords
illumination
different
lighting
object point
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE200710023920
Other languages
English (en)
Inventor
Günter Dr. Doemens
Claudio Dr. Laloni
Michael Dr. Stockmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE200710023920 priority Critical patent/DE102007023920A1/de
Priority to PCT/EP2008/055558 priority patent/WO2008141924A1/de
Publication of DE102007023920A1 publication Critical patent/DE102007023920A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren und Vorrichtung zur Oberflächenerfassung eines räumlichen Objektes (1) mittels Bildaufnahme über eine Fläche oder entlang einer Linie, strukturierter Beleuchtung sowie unterschiedlicher Beleuchtungs- (7) und Aufnahmerichtung (5), dadurch gekennzeichnet, dass mittels unterschiedlichem zeitlichen Beleuchtungsverlauf von Objektpunkten oder Objektpunktgruppen die am jeweiligen Objektpunkt (P) vorliegende Beleuchtungsrichtung (7) bestimmt wiung (5) der Bildaufnahme die Raumkoordinaten des Objektpunktes berechnet werden.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Oberflächenerfassung einer dreidimensionalen Objektoberfläche, wobei allgemein eine Bilderfassung mit strukturierter Beleuchtung und Triangulation erfolgt.
  • In der industriellen Bildverarbeitung wird zunehmend die Erfassung und Verarbeitung dreidimensionaler Bilder aufgrund der Komplexität der Aufgabenstellung sowie der notwendigen Zuverlässigkeit erforderlich. Ähnliches gilt für die Bereiche Safety/Sicherheitstechnik zum Schutz von Personen und Security/Sicherheitstechnik zur Zugangsüberwachung, sowie auch für den Bereich Medizintechnik. Dabei werden hohe Anforderungen an die Datenrate, die Dynamik sowie die Auflösung der dreidimensionalen Bildinformationen gestellt. Zusätzlich sollten aus Kostengründen weitgehend Standardkomponenten Verwendung finden. Derzeit kommen hierfür in erster Linie Verfahren der Videobildverarbeitung in Verbindung mit aktiver Beleuchtung und Triangulation zur Anwendung. Unter aktiver Beleuchtung ist insbesondere eine strukturierte Beleuchtung zu verstehen.
  • Die heute in der Regel eingesetzten dreidimensionalen (3D)-Verfahren auf der Basis von Videokameras und Triangulation unterscheiden sich im Wesentlichen durch die Art der aktiven Beleuchtung. Allen Verfahren ist dabei gemeinsam, dass die Raumkoordinaten eines Objektpunktes durch den Schnitt eines Sehstrahls (Beobachtungsstrahl) der Videokamera und einer Raumebene, welche durch die aktive Beleuchtung vorgegeben und bekannt ist, bestimmt wird. Die einfachste Generierung von definierten Raumebenen stellen Hell-Dunkel-Streifen bei der Objektbeleuchtung dar. An dieser Stelle wird jedoch sehr schnell bei entsprechenden Tiefensprüngen an der Objektoberfläche die Eindeutigkeit gestört. Dieses Problem wird umgan gen durch den so genannten Grey-Code, wobei jede Beleuchtungsebene im Raum durch die eine zeitliche Sequenz von Binärmustern eindeutig definiert ist. Der Nachteil liegt in der deutlich geringeren Datenrate im Verhältnis zu Systemen ohne diese Codierung, da mit der Codierung eine Vielzahl von Videobildern erforderlich wird, wie beispielsweise acht Bilder. Auch haben die auf Streifenmustern basierenden Verfahren grundsätzlich den Nachteil, dass die Tiefeninformation nur an Kantenübergängen bestimmt werden kann, nicht jedoch innerhalb der Strukturen.
  • Zur Lösung des oben angesprochenen Problems kann das so genannte Phasen-Shift-Verfahren eingesetzt werden. Hier wird eine sinusförmig modulierte Helligkeitsverteilung in unterschiedlichen Phasenlagen und Perioden sequentiell auf das Projekt projiziert. Nachteilig gestaltet sich hier allerdings auch die Vielzahl von erforderlichen Videobildern zur Gewinnung eines einzigen dreidimensionalen Bildes. Durch unterschiedliche farbige Gestaltung der Beleuchtungsebenen kann aus einem einzigen Videobild auch die Lage der Beleuchtungsebenen im Raum bestimmt werden. Die daraus resultierende hohe Datenrate für die 3D-Bilder hat jedoch den Nachteil, dass nur an den Kanten 3D-Informationen gewonnen werden können. Ferner führt die Verwendung eines breiten Farbspektrums zu einer höheren Empfindlichkeit gegenüber Tageslicht.
  • Der Erfindung liegt somit die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur dreidimensionalen Objekterfassung zu beschreiben, welche/s Nachteile entsprechend dem Stand der Technik vermeidet.
  • Die Lösung dieser Aufgabe geschieht durch die Merkmalskombination des Patentanspruchs 1 bzw. des Anspruchs 16. Vorteilhafte Ausgestaltungen sowie Verwendungen sind den Unteransprüchen zu entnehmen.
  • Der Erfindung liegt die Erkenntnis zugrunde, dass unter Beibehaltung der allgemeinen Verfahrensweise zur Oberflächener fassung eines räumlichen Objektes mittels strukturierter Beleuchtung und unterschiedlicher Beleuchtungs- und Aufnahmerichtung eine wesentliche Verfahrensvereinfachung, Beschleunigung und Reproduktionssicherheit durch die Anwendung einer erfindungsgemäßen Codierung des strukturierten Lichtes erzielen lässt. Diese Strukturierung des Lichtes wird durch eine zeitliche Codierung der optischen Triangulation dargestellt, wodurch mittels lediglich zweier Videobilder die vollständige Erfassung eines dreidimensionalen Bildes erzielbar ist. Die räumlichen Koordinaten eines Objektpunktes werden aus dem Schnittpunkt einer Ebene und eines Strahls bestimmt. Dies liegt vor, falls ein Kamerastrahl/Sehstrahl eine Ebene schneidet, eine Beleuchtungsebene, für die eine bestimmte Zeitcodierung zutrifft und die somit eindeutig identifizierbar ist. Der Objektpunkt liegt dabei sowohl auf dem Sehstrahl als auch auf der Beleuchtungsebene. An dieser Stelle kann ein geometrisches Berechnungsverfahren ansetzen, wobei in der Regel zweckmäßigerweise die Triangulation verwendet wird. Somit ergibt sich aus dem Sehstrahl und dessen Richtung durch die ermittelte Beleuchtungsebene eindeutig die räumliche Position des einen oder bei weiteren Kombinationen für die Vielzahl von Objektoberflächenpunkten jeweils deren Position. Insgesamt lässt sich daraus ein vollständiges dreidimensionales Bild zusammensetzen.
  • Die Kombination der Zeitcodierung und der optischen Triangulation zur vollständigen Erfassung eines dreidimensionalen Bildes ergibt wesentliche Vorteile. Für industrielle Anwendungen sind wesentliche Vorteile hinsichtlich einer höheren Datenrate im Vergleich zu bestehenden Verfahren zu erwarten.
  • Die räumliche Lage einer Ebene kann mittels der Zeitcodierung der Beleuchtung am Kamerabild erkannt werden. Da bisherige Verfahren lange Zeit als Codierungskriterium Farbe oder unterschiedliche Schwarz-Weiß-Sequenzen oder Phasenverschiebungen eingesetzt haben, obwohl damit unterschiedliche Nachteile vorhanden waren, stellt der Einsatz einer zeitcodierten strukturierten Beleuchtung einen wesentlichen erfinderischen Schritt dar. Mit der Zeitcodierung wird die Raumebene oder der Strahl, auf dem der Objektpunkt liegt, eindeutig durch die an dem Objektpunkt herrschende Beleuchtungsdauer Tn codiert bzw. gekennzeichnet. Zur Verifizierung von Beleuchtungsebenen mit jeweils unterschiedlicher Beleuchtungsdauer wird beispielsweise eine Hell-Dunkelkante derart vor der Beleuchtung bewegt, dass für jede Position auf der Objektoberfläche eine eindeutige, aber unterschiedliche Beleuchtungsdauer Tn entsteht.
  • Die Aufbringung einer derartig strukturierten Beleuchtung auf einer Objektoberfläche kann vorteilhafterweise durch eine dynamische Beleuchtung über einen Digital Mirror Device (DMD) realisiert werden, wobei simuliert wird, dass eine optische Kante, die sich bewegt, erzeugt wird. insbesondere bei makroskopischen Anwendungen im Bereich von Safety und Security ist auch eine Anordnung von Halbleiter-Lichtquellen sinnvoll, die definierte Beleuchtungsstrahlen erzeugen und deren Codierung bzw. die Codierung des Lichtes wird durch eine zeitlich versetzte Einschaltung erzeugt.
  • Wesentlich für die Erfindung ist die Erkennung der Beleuchtungsdauer für jeden einzelnen Objektpunkt bzw. für jedes Pixel in einem Kamerabild und damit die Bestimmung der Raumebene oder des Strahls, auf dem der einzelne Objektpunkt sich befindet. Hierzu wird vorteilhafterweise eine integrierende Halbleiterkamera mit m mal n Elementen eingesetzt, die über eine Integrationszeit T0 an jedem Pixel die lokale Beleuchtungsstärke aufintegriert und als Ergebnis eine Spannung U0n liefert. Die Steigung dieses Anstiegs an einem beliebigen Pixel n beträgt dann bei exakter Integration und konstanter Beleuchtung innerhalb der Integrationszeit T0: tan α = U0n/T0.
  • In einem weiteren Kamerabild wird nun synchron zum Beginn der Integration der Halbleiter-Kamera die Beleuchtung des Gesichtsfeldes über die Bewegung der Hell-Dunkel-Kante gestartet. Zweckmäßigerweise wird die volle Beleuchtung deutlich vor dem Ende der Integrationszeit erreicht, um die Beleuch tungsdauer der einzelnen Pixel nicht zu unterschiedlich ausfallen zu lassen. Beispielsweise kann TS = T0/2 sein. Die Beleuchtungsdauer Tn eines beliebigen Objektpunktes hängt dann eindeutig von dessen Lage sowie dem zeitlichen Bewegungsverhalten der Hell-Dunkel-Kante ab. Für jeden einzelnen Objektpunkt errechnet sich die Zeit Tn aus der jeweiligen Spannung Un bei dynamischer Beleuchtung sowie aus der jeweiligen Spannung U0n bei der vollständigen Beleuchtung über die gesamte Integrationszeit T0 hinweg, wobei letztere aus dem ersten aufgenommenen Kamerabild bekannt ist.
  • Eine mathematische Beziehung für den Zusammenhang entsprechend dem letzten Absatz ist wie folgt
    Figure 00050001
  • Durch die beschriebene Kombination einer dynamischen Beleuchtung und einer Vollbildbeleuchtung wird für jeden einzelnen Bildpunkt die Beleuchtungsdauer aus dem resultierenden Kamerabild bestimmbar und damit die Beleuchtungsebenen bzw. der Beleuchtungsstrahl, auf dem sich der einzelne Objektpunkt befindet.
  • Der Einsatz einer bewegbaren Hell-Dunkel-Kante zur Erzeugung einer Lichtcodierung erlaubt darüber hinaus eine lückenlose Erfassung der dreidimensionalen Koordinaten aller Objektpunkte. Die Verwendung von monochromatischem Licht, vorzugsweise im nahen Infrarotbereich macht das Verfahren insgesamt gegenüber Umgebungsbeleuchtung robust. Ein zusätzlicher Vorteil liegt in einer weiteren Unempfindlichkeit gegenüber einer unscharfen Abbildung aufgrund der Quotientenbildung zweier integraler Intensitätswerte am gleichen Ort.
  • Im Folgenden werden anhand der schematischen begleitenden Figuren Ausführungsbeispiele beschrieben:
  • 1 zeigt das Prinzip eines Verfahrens zur Aufnahme von dreidimensionalen Objektoberflächen, wobei an einer Beleuchtungseinheit eine so genannte Hell-Dunkel-Kante 3 vorbeiläuft,
  • 2 zeigt eine Darstellung entsprechend 1, wobei die geometrische Zuordnung von Ebenen durch diskrete nebeneinander angeordnete Lichtquellen dargestellt wird.
  • 3 zeigt drei wesentliche Verfahrensschritte, die mittels Triangulation und der Aufnahme von zwei unterschiedlichen Videobildern einer Szene ein Bild mit dreidimensionalem Charakter ergibt.
  • Die Vorteile der Erfindung liegen insbesondere darin, dass
    – eine hohe Datenrate verarbeitbar ist, da pro aufgenommenem dreidimensionalen Bild lediglich zwei Videobilder erforderlich sind,
    – umgebungsunabhängige dreidimensionale Messungen für jedes Pixel möglich sind,
    – ein monochromatisches Verfahren möglich ist, welches insbesondere eine hohe Stabilität bzw. Robustheit gegenüber Umgebungslicht aufweist,
    – das Verfahren weitgehend unabhängig von der Abbildungsqualität der aktiven Beleuchtung ist, die beispielsweise durch eine Hell-Dunkel-Kante dargestellt ist, wobei die Kantenschärfe betrachtet wird.
  • Das Prinzip der Erfindung lässt sich derart skizzieren, dass jede Beleuchtungsebene bei der dreidimensionalen Objektaufnahme eindeutig über die Beleuchtungsdauer bzw. den zeitlichen Beginn der Beleuchtung codiert bzw. zugeordnet wird, und die pixelspezifische Beleuchtungsdauer bzw. der zeitliche Beginn der Beleuchtung unmittelbar aus dem Videosignal des einzelnen Pixels bestimmt wird.
  • Im Vergleich zur bekannten Grey-Code-Verfahren, Phasen-Shift-Verfahren, Colour-coded Triangulation, weist die so genannte Time-coded Triangulation/zeitcodierte Triangulation Vorteile auf:
    Es können höhere Datenraten erzielt werden, es wird ein gesamtes dreidimensionales Bild erzeugt, die Robustheit gegen Umgebungsbeleuchtung ist groß und die Robustheit gegenüber Unschärfen im System ist ebenfalls groß.
  • Die zeitcodierte Triangulation hat somit insgesamt eine größere Anzahl von wesentlichen Vorteilen gegenüber dem im Stand der Technik bekannten Verfahren bei gleichem Kostenaufwand. So genannte Phasen-Shift-Verfahren sind mit dem Nachteil einer niedrigen Datenrate verbunden. So genanntes Colour-coded Triangulations-Verfahren weist zwar eine hohe Datenrate auf, ist jedoch in anderen Punkten nachteilig.
  • Die 1 zeigt ein aufgebrochenes, im Schnitt dargestelltes dreidimensionales/räumliches Objekt 1. Weiterhin ist eine integrierende Halbleiter-Kamera 2 angedeutet. Die Objektoberfläche ist mit 4 bezeichnet. Ein Sehstrahl bzw. Messstrahl oder Kamerastrahl mit entsprechender Richtung trägt das Bezugszeichen 5. Beleuchtungsstrahlen 7 werden ausgehend von der Beleuchtung 8 auf das Objekt 1 gerichtet. Zur Erzeugung einer Codierung kann an der Beleuchtung 8 ein nicht näher dargestelltes Element, beispielsweise eine Hell-Dunkel-Kante bewegt werden, wobei die gesamte dargestellte Anordnung beleuchtet ist und durch die Bewegung der Kante ein vorgebbares Weg-Zeit-Verhalten für die strukturierte Beleuchtung der Objektoberfläche erzeugbar ist.
  • 2 zeigt eine zur 1 korrespondierende Darstellung, wobei die Beleuchtung 8 durch eine Anordnung von Einzellichtquellen 6 ersetzt ist, so dass eine zeitliche Codierung zur Erzeugung der strukturierten Beleuchtung der Objektoberfläche 4 durch wahlfreies Schalten der diskreten Lichtquellen erzeugbar ist. Hierzu können die unterschiedlichen Positionen der einzelnen Lichtquellen sowie ein zeitvariables An- und Ausschalten der Erzeugung unterschiedlicher Betriebszeiten bzw. unterschiedlichem Betriebs-Beginn bzw. Betriebs-Ende ausgenutzt werden.
  • 3 zeigt drei hauptsächliche Schritte zur Durchführung des beschriebenen Verfahrens, wobei im Schritt 1 eine Halbleiter-Kamera zunächst mit unterschiedlichem Beleuchtungsbeginn und fester Integrationszeit bei voller Beleuchtung zu einer Bildaufnahme herangezogen werden. Dabei ist die Formel für die Steigung der entsprechend aufgenommenen Spannung U0n in Form eines tan α dargestellt. In einem zweiten Bild entsprechend dem zweiten Schritt wird mit der Integrationszeit T0 wiederum an jedem Pixel innerhalb der Integrationszeit aufintegriert, wobei der Beleuchtungsbeginn Tn für jedes Pixel unterschiedlich sein kann.
  • Wesentlich ist die Erfassung des zeitlichen Verlaufs der Beleuchtung je Pixel in der Bildaufnahme. Dabei sind zumindest die Erfassung von Beleuchtungsanfang und Beleuchtungsende, bzw. die Dauer der Beleuchtung zu verstehen. Eine Vorrichtung zur Auswertung dieses zeitlichen Verlaufs der Beleuchtung enthält einen besonders geeigneten Halbleiterchip, der Pro Pixel diesen Wert bzw. diese Werte ausgibt.
  • Die in den Formeln in 3 verwendeten Formelzeichen bedeuten im Einzelnen:
  • Un
    mittlere Beleuchtungsebene,
    U0n
    Spannung an beliebigem Pixel n,
    Tn
    Beleuchtungsdauer,
    T0
    Integrationszeit
    P
    Objektpunkt.

Claims (16)

  1. Verfahren zur Oberflächenerfassung eines räumlichen Objektes (1) mittels Bildaufnahme über eine Fläche oder entlang einer Linie, strukturierter Beleuchtung, sowie unterschiedlicher Beleuchtungs-(7) und Aufnahmerichtung (5), dadurch gekennzeichnet, dass mittels unterschiedlichem zeitlichen Beleuchtungsverlauf von Objektpunkten oder Objektpunktgruppen die am jeweiligen Objektpunkt (P) vorliegende Beleuchtungsrichtung (7) bestimmt wird und daraus in Verbindung mit der Sehstrahlrichtung (5) der Bildaufnahme die Raumkoordinaten des Objektpunktes berechnet werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine unterschiedliche Beleuchtungsdauer oder unterschiedlicher Beleuchtungsbeginn von Objektpunkten oder Objektpunktgruppen mittels einer vor einer Beleuchtungseinheit im Strahlengang quer bewegten Dunkel/Hell-Kante mit definierter Weg/Zeit-Verhalten erzeugt werden.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine unterschiedliche Beleuchtungsdauer oder unterschiedlicher Beleuchtungsbeginn von Objektpunkten oder Objektpunktgruppen mittels einer Digital-Mikrospiegel-Anordnung/DMD zwischen einer Lichtquelle und einem Objekt erzeugt werden.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine unterschiedliche Beleuchtungsdauer oder unterschiedlicher Beleuchtungsbeginn von Objektpunkten oder Objektpunktgruppen mittels einer vorgegebenen Anordnung von Halbleiterlichtquellen zur aufeinanderfolgenden Generierung von Beleuchtungsstrahlen erzeugt werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der unterschiedliche zeitliche Beleuchtungsbeginn von Objektpunkten oder Objektpunktgruppen mittels unterschiedlichem Beleuchtungsbeginn realisiert wird.
  6. Verfahren nach Anspruch 1–5, dadurch gekennzeichnet, dass zur Bildaufnahme eine integrierende Halbleiterkamera mit einer Integrationszeit T0 eingesetzt wird, wobei der Beginn einer Beleuchtung innerhalb der Integrationszeit T0 liegt.
  7. Verfahren nach eine der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Beleuchtungsbeginn Tn für ein Pixel n mittels der Ausgangsspannung U0n berechnet wird, die sich aus der Beleuchtung über die gesamte Integrationszeit T0 ergibt, sowie aus der Ausgangsspannung Un, die sich bei der gleichen Beleuchtung mit zeitlicher Verzögerung Tn ergibt, und dass daraus die Beleuchtungsrichtung für diesen Objektpunkt festgelegt ist und in Verbindung mit der Sehstrahlrichtung der Bildaufnahme die Raumkoordinaten des Objektpunktes berechnet werden.
  8. Verfahren nach einem der Ansprüche 1–5, dadurch gekennzeichnet, dass zur Bildaufnahme eine Bildaufnahmeeinheit eingesetzt wird, die einen Halbleiterchip aufweist, mit dem an jedem Pixel der unterschiedliche zeitliche Beleuchtungsverlauf erfasst wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Beleuchtung monochromatisches Licht eingesetzt wird.
  10. Verwendung eines Verfahrens entsprechend einem der Ansprüche 1–9, zur 2/3-dimensionalen Erfassung von Körperpartien wie einem Gesicht bei der Biometrie.
  11. Verwendung eines Verfahrens entsprechend einem der Ansprüche 1–9, zur Volumenbestimmung von Transportgut wie Gepäckstücke oder Schüttgut, beispielsweise auf Förderbändern.
  12. Verwendung eines Verfahrens entsprechend einem der Ansprüche 1–9, zur Raumüberwachung im Bereich Safety oder Security, wobei vorzugsweise einzelne Beleuchtungsstrahlen zeitversetzt innerhalb der Integrationszeit der Kamera eingeschaltet werden.
  13. Verwendung eines Verfahrens entsprechend einem der Ansprüche 1–9, zur automatischen berührungslosen Formerfassung in der Medizintechnik wie bei Zahntechnik, bei plastischer Chirurgie oder Gehörgangvermessung für eine Hörhilfe.
  14. Verwendung eines Verfahrens entsprechend einem der Ansprüche 1–9, zur automatischen Positionserkennung von Bauelementen in der Montageautomatisierung bei Bauelementen und Modulen.
  15. Verwendung eines Verfahrens entsprechend einem der Ansprüche 1–9, zur automatischen optischen 2D/3D-Inspektion von Elektronikbaugruppen, sowie mikrotechnischen Modulen und Verbindungen.
  16. Vorrichtung die zur Oberflächenerfassung eines räumlichen Objektes (1) folgendes aufweist: – eine Bildaufnahmeeinheit zur Detektion über einer Fläche oder entlang einer Linie, – eine Beleuchtungseinheit zur Beleuchtung der Objektoberfläche (4), mit zeitkodierter strukturierter Beleuchtung, – unterschiedliche Beleuchtungs-(7) und Bildaufnahmerichtung (5), dadurch gekennzeichnet, dass die Bildaufnahmeeinheit einen Halbleiterchip aufweist, bei dem jedes Pixel den zeitlichen Verlauf der Beleuchtung erfasst.
DE200710023920 2007-05-23 2007-05-23 Verfahren und Vorrichtung zur Oberflächenerfassung eines räumlichen Objektes Ceased DE102007023920A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE200710023920 DE102007023920A1 (de) 2007-05-23 2007-05-23 Verfahren und Vorrichtung zur Oberflächenerfassung eines räumlichen Objektes
PCT/EP2008/055558 WO2008141924A1 (de) 2007-05-23 2008-05-06 Verfahren und vorrichtung zur oberflächenerfassung eines räumlichen objektes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200710023920 DE102007023920A1 (de) 2007-05-23 2007-05-23 Verfahren und Vorrichtung zur Oberflächenerfassung eines räumlichen Objektes

Publications (1)

Publication Number Publication Date
DE102007023920A1 true DE102007023920A1 (de) 2008-12-04

Family

ID=39691124

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200710023920 Ceased DE102007023920A1 (de) 2007-05-23 2007-05-23 Verfahren und Vorrichtung zur Oberflächenerfassung eines räumlichen Objektes

Country Status (2)

Country Link
DE (1) DE102007023920A1 (de)
WO (1) WO2008141924A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015002283A1 (de) 2014-05-09 2015-11-12 Elmos Semiconductor Aktiengesellschaft Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung und objektabhängiger Ortsauflösung mehrerer verschiedener Einzelscanner
DE102016108496A1 (de) 2016-03-01 2017-09-07 Elmos Semiconductor Aktiengesellschaft Optische Laufzeitmessung nach einem ein- oder zweistufigen Delta-Sigma-Verfahren und zugehörige Vorrichtung
WO2017148772A1 (de) 2016-03-01 2017-09-08 Elmos Semiconductur Aktiengesellschaft Vorrichtung zur wandlung einer zeitlichen verzögerung eines zwischen einem sender und einem empfänger übertragenen signals

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19810495A1 (de) * 1998-03-11 1999-09-23 Bernd Schleifenbaum Optischer 3D-Sensor mit allerhöchsten Ansprüchen an Meßgeschwindigkeit und Meßgenauigkeit
DE10344051B4 (de) * 2003-09-23 2008-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Vermessung von Entfernungen und/oder räumlichen Koordinaten eines Gegenstandes
JP4730836B2 (ja) * 2005-09-15 2011-07-20 Jfeスチール株式会社 面歪の測定装置及び方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015002283A1 (de) 2014-05-09 2015-11-12 Elmos Semiconductor Aktiengesellschaft Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung und objektabhängiger Ortsauflösung mehrerer verschiedener Einzelscanner
DE102015002282A1 (de) 2014-05-09 2015-11-12 Elmos Semiconductor Aktiengesellschaft Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung
DE102015002270A1 (de) 2014-05-09 2015-11-26 Elmos Semiconductor Aktiengesellschaft Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen, Vermessen und Klassifizieren von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung
DE102015002271A1 (de) 2014-05-09 2015-11-26 Elmos Semiconductor Aktiengesellschaft Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung
DE102015002283B4 (de) 2014-05-09 2023-01-19 Elmos Semiconductor Se Vorrichtung zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung und objektabhängiger Ortsauflösung mehrerer verschiedener Einzelscanner
DE102016108496A1 (de) 2016-03-01 2017-09-07 Elmos Semiconductor Aktiengesellschaft Optische Laufzeitmessung nach einem ein- oder zweistufigen Delta-Sigma-Verfahren und zugehörige Vorrichtung
WO2017148772A1 (de) 2016-03-01 2017-09-08 Elmos Semiconductur Aktiengesellschaft Vorrichtung zur wandlung einer zeitlichen verzögerung eines zwischen einem sender und einem empfänger übertragenen signals
US11187792B2 (en) 2016-03-01 2021-11-30 Elmos Semiconductor Se Device for converting a temporal delay of a signal transmitted between a transmitter and a receiver

Also Published As

Publication number Publication date
WO2008141924A1 (de) 2008-11-27

Similar Documents

Publication Publication Date Title
EP2400261A1 (de) Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
WO2006024254A1 (de) Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
DE102008002725B4 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
EP3298344A1 (de) Verfahren und kamera zur dreidimensionalen vermessung eines dentalen objekts
DE102008002730A1 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
WO2005091046A1 (de) Hochgeschwindigkeits-vermessungseinrichtung und verfahren nach dem grundprinzip der konfokalen mikroskopie
EP2019281B1 (de) Verfahren zum Betrieb eines 3D-Sensors
EP2791619B1 (de) Verfahren und vorrichtung zur 3d-messung von tiefenlimitierten objekten
DE102009009372A1 (de) Monitoring von kippbaren Spiegeln
DE102009018464B4 (de) Optischer Sensor
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
EP2799810A1 (de) Vorrichtung und Verfahren zum simultanen dreidimensionalen Vermessen von Oberflächen mit mehreren Wellenlängen
DE102017222708A1 (de) 3D-Umfelderfassung mittels Projektor und Kameramodulen
DE102011101476B4 (de) Verfahren zur 3D-Messung von Objekten
DE102005034990B4 (de) Verfahren und Vorrichtung zur Digitalprojektion mit hoher Bildschärfe
DE102007023920A1 (de) Verfahren und Vorrichtung zur Oberflächenerfassung eines räumlichen Objektes
EP3158285A1 (de) Verfahren zur ermittlung eines räumlichen verschiebungsvektorfeldes
EP2887010A1 (de) Verfahren und Vorrichtung zum dreidimensionalen optischen Vermessen von Objekten mit einem topometrischen Messverfahren sowie Computerprogramm hierzu
DE10321883A1 (de) Verfahren und Sensor zur hochgenauen optischen Abtastung
DE102015208442A1 (de) Verfahren und Vorrichtung zum Ermitteln zumindest eines Objektabbildes in einer Umgebung um einen änderunssensitiven optischen Bildsensor
DE102010036852A1 (de) Stereokamera
EP1808669A1 (de) Einrichtung und Verfahren zum dreidimensionalen optischen Vermessen
DE102016109131B4 (de) Verfahren zur dreidimensionalen Erfassung eines Objekts
DE19753246C2 (de) Vorrichtung zur Bestimmung von dreidimensionalen Daten von Objekten
DE10301094B4 (de) Vorrichtung zur Messung des Abstandes von Entfernungspunkten zu einer Kamera

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection