DE102016002398A1 - Optischer 3D-Sensor zur schnellen und dichten Formerfassung - Google Patents

Optischer 3D-Sensor zur schnellen und dichten Formerfassung Download PDF

Info

Publication number
DE102016002398A1
DE102016002398A1 DE102016002398.8A DE102016002398A DE102016002398A1 DE 102016002398 A1 DE102016002398 A1 DE 102016002398A1 DE 102016002398 A DE102016002398 A DE 102016002398A DE 102016002398 A1 DE102016002398 A1 DE 102016002398A1
Authority
DE
Germany
Prior art keywords
optical
triangulation
cameras
lines
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102016002398.8A
Other languages
English (en)
Other versions
DE102016002398B4 (de
Inventor
Florian Willomitzer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102016002398.8A priority Critical patent/DE102016002398B4/de
Priority to US15/442,214 priority patent/US10404967B2/en
Priority to CN201710103407.0A priority patent/CN107131848B/zh
Publication of DE102016002398A1 publication Critical patent/DE102016002398A1/de
Application granted granted Critical
Publication of DE102016002398B4 publication Critical patent/DE102016002398B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung bezieht sich auf einen optischen 3D-Sensor zur sehr schnellen hochaufgelösten und dichten Erfassung der Oberflächengestalt von Objekten im 3D-Raum. Zur Aufnahme genügt ein Bild oder mehrere zeitgleich aufgenommene Bilder („Single-Shot Methode”). Damit ist es prinzipiell möglich, 3D-Daten mit der Bildrate der verwendeten Kameras aufzunehmen, also eine 3D-Videokamera zu bauen. Der optische 3D-Sensor besteht aus einem Projektor (7), der ein Linienmuster (6) mit vorzugsweise großer Anzahl von Linien auf das Objekt projiziert, sowie einer Anzahl von K Kameras (10), (20), (30)..., die vorzugsweise zeitgleich jeweils ein Bild des vom Projektor (7) beleuchteten Objekts (9) aufnehmen, welches in einer Steuer- und Auswerteeinheit (4) weiterverarbeitet wird. Das Linienmuster enthält Linien in einer Anzahl von R Richtungen, und die K Kameras sind so angeordnet, dass sie bis zu K × R Triangulationssensoren aufspannen. Die Triangulationssensoren werden durch die Steuer- und Auswerteeinheit (4) über das gemeinsame Linienmuster (6) gekoppelt.

Description

  • Die Erfindung bezieht sich auf einen optischen 3D-Sensor zur hochaufgelösten und dichten Erfassung der Oberflächengestalt von Objekten im 3D-Raum mit einer Single-Shot Methode. „Single-Shot Methode” bedeutet, dass zur 3D-Erfassung keine zeitsequenzielle Reihe von Bildern aufgenommen werden muss, anders als bei konkurrierenden Verfahren; es genügt ein Bild oder mehrere Bilder, die zeitgleich aufgenommen werden. Damit ist es prinzipiell möglich, 3D-Daten mit der Bildrate der verwendeten Kameras aufzunehmen, also eine 3D-Videokamera zu bauen. „Dichte 3D-Messung” bedeutet, dass die Objektoberfläche an sehr vielen Punkten abgetastet wird, vorzugsweise bis an die theoretische Grenze der Anzahl, die die Kamera und die Physik zulassen. Konkurrierende Verfahren sind deutlich davon entfernt. „Hochauflösend” bedeutet, dass die Schnelligkeit und die Datendichte nicht durch Kompromisse bei der lateralen- und der Tiefenauflösung erkauft werden, wie bei anderen Verfahren. Feine Details des Objekts können dreidimensional gemessen werden.
  • Fast alle bekannten hochwertigen Verfahren zur dichten 3D-Vermessung benötigen eine zeitliche Sequenz von N Bildern mit einer Aufnahmezeit von T = N·TC, wobei TC die Taktzeit der verwendeten Kamera bzw. der Beleuchtung ist [Halioua et al., "Automated phasemeasuring profilometry of 3-D diffuse objects," Appl. Opt. 23, 3105–3108 (1984)], [Schaffer et al., "High-speed pattern projection for three-dimensional shape measurement using laser speckles", Appl. Opt. 49, 3622–3629 (2010)]. Die Anzahl N liegt im Bereich von 3 bis über 30. Das bedeutet, dass das Objekt und der Sensor sich während der gesamten Aufnahmezeit T nicht bewegen dürfen und das Objekt sich nicht verformen darf. Die 3D-Messung beispielsweise von sich bewegenden Menschen oder eine 3D-Hochgeschwindigkeitsmessung für einen Crashtest ist damit nicht ohne weiteres möglich. Dies gilt insbesondere deshalb, weil für hochwertige 3D-Messungen Verfahren verwendet werden, bei denen ein zeitlich variierendes Muster – etwa von Linien, Sinusstreifen oder Zufallsmustern auf das Objekt projiziert wird. Zwar sind zunehmend schnellere Kameras verfügbar, doch halten die verfügbaren Projektionsmöglichkeiten damit nicht Schritt. Deshalb haben sich Erfindungen auf dem Gebiet solcher Verfahren in den letzten Jahren im Wesentlichen auf die Entwicklung schnellerer Projektionssequenzen beschränkt. Die Zeit, um eine variierende Mustersequenz mit ausreichender Helligkeit zu projizieren (besonders wenn verschiedene Grauwerte enthalten sind) stellt bei den meisten sequentiellen Verfahren den limitierenden zeitlichen Faktor dar. Ein Verfahren, dass a) keine zeitlich variierende Mustersequenz benötigt und das b) die 3D-Daten innerhalb eines Kamerataktes (oder „Videotaktes”) liefert, ist also von großem Interesse.
  • Ein bekanntes Verfahren, das keine zeitliche Sequenz von Aufnahmen benötigt, ist das sog. Lichtschnittverfahren. Hier wird im einfachsten Fall eine Linie auf das Objekt projiziert und durch Triangulation ausgewertet. Um die Datendichte zu erhöhen, kann man auch mehrere Linien gleichzeitig projizieren. Damit hat das Lichtschnittverfahren das Potential für einen Single-Shot 3D-Sensor. Für eine dichte Abtastung mit vielen Linien ergibt sich allerdings das sog. Korrespondenzproblem: Im Kamerabild ist es notwendig, die einzelnen Linien zu identifizieren (zu „indizieren”). Dies ist schon bei geringer Anzahl von Linien und komplizierten Objekten meist nicht eindeutig möglich.
  • Eine Umgehung des Problems wird beispielsweise bei der „Flying Triangulation” [Patentschrift US 2010/0303341 A1 ] verwirklicht. Es werden nur wenige Linien projiziert, die eine eindeutige Indizierung in jedem aufgenommenen Single-Shot Videobild erlauben. Schließlich werden viele nacheinander aufgenommene Einzelbilder mit jeweils wenig dichter Abtastung zusammengeführt („registriert”), während der Sensor um das Objekt herumgeführt wird. Damit erhält man schließlich eine dichte Abtastung der Objektoberfläche. Da jeder 3D-Datenpunkt aus nur einem Bild stammt, dürfen sich Objekt und Kamera frei bewegen. Das Objekt muss allerdings während der gesamten Messsequenz starr sein, da die Oberfläche aus mehreren zeitsequentiell aufgenommenen 3D-Ansichten rekonstruiert wird. Ein ähnliche Verfahren, das ebenfalls eine Registrierung von mehreren Single-Shot Einzelansichten benutzt, ist in der Patentschrift US 8,140,295 B2 beschrieben.
  • Es gibt auch Ansätze, das Korrespondenzproblem beim Lichtschnitt für Einzelbilder (Single-Shot) zu lösen, damit die Anzahl der projizierten Linien im Einzelbild erhöht werden kann und so eine dichtere Abtastung erreicht wird. Solche Verfahren basieren meist auf Codierung der Linien.
  • So können beispielweise die Linien durch verschiedene Farben codiert werden, [Schmalz, "Robust single-shot structured light 3D scanning", Dissertation, Universität Erlangen-Nürnberg (2012)] oder [Nguyen et al., "Real-time, high-accuracy 3D imaging and shape measurement," Appl. Opt. 54, A9–A17 (2015)]. Oder es wird ein kontinuierlicher Farbverlauf (Spektrum) auf das Objekt projiziert [Häusler et al., "Parallel three-dimensional sensing by color-coded triangulation", Appl. Opt. 32, 7164–7169 (1993)].
  • Der Nachteil dieser Verfahren ist, dass die eigene Farbtextur der gemessenen Objektoberfläche zu einer rauschempfindlichen Decodierung führen kann. Weiterhin ist die Farbtextur des Objekts mit diesen Verfahren nicht ohne weiteres akquirierbar.
  • Ein anderer Ansatz zur Codierung ist die Intensitätsmodulation der projizierten Linien [Yang et al.,"A 3D sensor for intraoral metrology," in DGaO Proceedings 2009, P19] oder auch die Modulation ihrer räumlichen Gestalt [Patentschrift: US 7,768,656 B2 ]. Es ist augenscheinlich, dass eine Modulation Ortsbandbreite benötigt, die damit zur lateral hochaufgelösten Erfassung des Objektes nicht mehr zur Verfügung steht. Dies erkennt man daran, dass bei oben genannten Verfahren feine 3D-Details nicht sichtbar werden. Gleiches gilt für alle Verfahren der aktiven Stereophotogrammetrie, bei denen ein räumlich moduliertes Muster projiziert wird [Zhang, "Microsoft Kinect sensor and its effect", IEEE Multimedia 19, 410 (2012)].
  • Der Stand der Technik zeigt also, dass hochauflösende Verfahren für dichte Datenerfassung eine, zeitliche Sequenz von Aufnahmen erfordern, während Single-Shot Verfahren keine dichten Daten liefern. Dies beruht auf einem fundamentalen informationstheoretischen Problem.
  • Werden binäre Muster wie z. B. schmale helle Linien beim Lichtschnittverfahren projiziert, so können diese nicht beliebig dicht angeordnet werden, es entstehen Lücken. Werden graucodierte Muster, z. B. Sinusstreifen projiziert, so kann zwar jeder Kamerapixel zur 3D-Information beitragen, aber es ist grundsätzlich nicht möglich, in einem Kamerapixel gleichzeitig die Information über die unbekannte Hintergrundbeleuchtung, die unbekannte lokale Reflexion der Objektoberfläche und den unbekannten Grauwert des Projektionsmusters (dieser codiert üblicherweise den Abstand eines Objektpunktes) zu erhalten [Häusler et al., "Why can't we purchase a perfect single-shot 3D-sensor?" in DGaO Proceedings 2012, A8]. Die drei Unbekannten machen es notwendig, mindestens drei passend codierte Kameraaufnahmen zu akquirieren. Wegen des Korrespondenzproblems werden bei Objekten mit großer Messtiefe meist deutlich mehr Aufnahmen nötig.
  • In [Young et al., "Viewpoint-Coded Structured Light," in CVPR'07 IEEE Conference pp. 1–8 (2007)] wird die Idee formuliert, die zeitliche Sequenz von aufgenommenen Bildern durch zum gleichen Zeitpunkt (parallel) aufgenommene Bilder zu ersetzen. Zu diesem Zweck werden mehrere Kameras geeignet geometrisch so angeordnet; dass aus den gleichzeitig aufgenommenen Bildern, mit Hilfe eines geeigneten projizierten Musters eine eindeutige Decodierung des Raumes möglich ist. Prinzipiell ist dabei die Idee, T = 2k Tiefen durch k Kameras zu decodieren und dazu ein binäres (Schwarz-Weiß-)Streifengitter zu verwenden. Wegen der binären Codierung hat das Verfahren zwei Nachteile: Um z. B. 1024 verschiedene Höhen im Messvolumen zu unterscheiden, braucht man mindestens 10 Kameras. Die Kalibrierung und stabile Montage von so vielen Kameras ist technisch sehr anspruchsvoll.
  • Die in der vorliegenden Patentschrift vorgeschlagene vorteilhafte Ausführung kommt mit nur zwei Kameras aus und kann bei gutem Signal-Rausch-Verhältnis mehrere tausend Höhen im Messvolumen unterscheiden. Die laterale Auflösung ist besser, weil nur sehr schmale Linien anstelle von binären Schwarz-Weiß-Streifen projiziert werden.
  • Im Übrigen sind auch für zeitlich sequentielle Methoden Ansätze bekannt, welche mehrere Kameras zur Beseitigung von Mehrdeutigkeit nutzen [Breitbarth et al., „Phase unwrapping of fringe images for dynamic 3D measurements without additional pattern projection", in SPIE Proceedings Vol. 9489, 948903 1–10 (2015)]. Dies dient der Verkürzung der Messsequenz. Eine Single-Shot Messung kann aus oben genannten informationstheoretischen Gründen jedoch nicht realisiert werden.
  • Die vorliegende Erfindung offenbart, wie die Beschränkungen des Standes der Technik weitgehend überwunden werden können, das heißt beispielsweise, es können mit einer Standard-Videokamera mit 1000 × 1000 Pixeln etwa 300.000 3D-Punkte in einem einzigen Videotakt erfasst werden, mit einer Auflösung und Messunsicherheit, die nur durch die Physik begrenzt ist. Es wurde erklärt, dass eine vollständig dichte Erfassung, wobei jeder Kamerapixel individuell einen 3D-Punkt codiert, mit einem Single-Shot Verfahren nicht ohne Kompromisse möglich ist. In [Häusler et al., "Why can't we purchase a perfect single-shot 3D-sensor?" in DGaO Proceedings 2012, A8] wurde gezeigt, dass das Abtasttheorem theoretisch erlaubt, mit einer Kamera mit M × M Pixeln eine Anzahl von Lmax = M/2 Linien zu projizieren, und damit M2/2 3D-Punkte in einem Videobild zu akquirieren. In der Praxis ist wegen des Kamerarauschens und der perspektivischen Verkürzung der Linienperiode bei geneigten Objekten eine Anzahl Lprax ≈ 0.16 × M2 bis 0.33 × M2 realistisch.
  • Bekannte Single-Shot Verfahren sind noch deutlich von dieser Grenze entfernt, da nach dem Stand der Technik das Korrespondenz- bzw. Indizierungsproblem die Anzahl der zu projizierenden Linien stark limitiert.
  • Die vorliegende Erfindung basiert auf dem oben genannten Prinzip der Multilinientriangulation, bei der mehrere Lichtlinien auf das zu messende Objekt projiziert werden. Dabei wird das Objekt unter einem Triangulationswinkel θ mit einer Kamera beobachtet. Durch die Projektion schmaler, gerader Linien kann üblicherweise (abhängig vom Rauschen im Bild) das Zentrum jeder Linie auf ca. 1/10 Pixel genau bestimmt werden. Diese Subpixelinterpolation der schmalen Linienbilder erlaubt eine sehr geringe Messunsicherheit δz für den Abstand des zugehörigen Objektpunktes. Weiter erlauben die schmalen Linien eine hohe laterale Auflösung – auch kleine Oberflächenmerkmale sind messbar. Schmale Linien verbrauchen auch weniger Platz und es lassen sich mehr Linien projizieren, als dies für codierte Linien möglich ist. Damit lassen sich mehr und dichtere 3D-Daten akquirieren.
  • Die Projektion schmaler, gerader Linien hat auch Nachteile: weisen die Linien keine Codierung auf, wird es mit steigender Linienzahl schwierig, den Index („die Nummer”) der jeweiligen Linie im Kamerabild zu bestimmen. Nach [Willomitzer et al., "Single-shot 3D sensing with improved data density", Appl. Opt. 54(3), 408–417 (2015)] lässt sich die Zahl der maximal zu projizierenden Linien für Standard-Multilinientriangulation nach Gleichung 1 L ≤ Δx / Δz·tanθ (G1.1) abschätzen, wobei L die Linienzahl, Δx die laterale Ausdehnung des Messfelds, Δz die eindeutige Messtiefe ist und θ den Triangulationswinkel darstellt, siehe 1. Eindeutige Messtiefe bedeutet, dass alle Linien innerhalb dieser Messtiefe eindeutig indiziert werden können. Die Messunsicherheit δz ist umso geringer, je größer der Triangulationswinkel und je geringer das Rauschen ist. [Dorsch et al.,"Laser triangulation: fundamental uncertainty in distance measurement," Appl. Opt. 33, 1306–1314 (1994)].
  • Nach Gleichung 1 ist somit eine dichte und gleichzeitig präzise Single-Shot Messung innerhalb einer größeren Messtiefe mit dem bekannten Stand der Multilinientriangulation unmöglich.
  • Die Erfindung löst dieses Problem durch Einführung einer oder mehrerer zusätzlicher Kameras (10), (20), (30), ..., sowie der Projektion von Linienmustern (6), vorzugsweise mit Linien in mehreren Richtungen. Der optische 3D-Sensor besteht aus einem Sensorkopf (3) und einer Steuer- und Auswerteeinheit (4), sowie einem Anzeigegerät (5) zur Visualisierung, nach 2. Im Folgenden soll eine beispielhafte Ausführung (s. 3) eines 3D-Sensors mit zwei Kameras (10) und (20) beschrieben werden. Zunächst wird die Ausführungsform betrachtet, dass ein Muster (6a) mit Linien nur entlang einer Richtung projiziert wird. In 3 definiert die Linienrichtung beispielsweise die y-Richtung des Koordinatensystems. Zur weiteren Erhöhung der Datendichte wird weiter eine Ausführungsform beschrieben, bei der ein Muster (6b) mit einem Kreuzgitter projiziert wird, wie in 5 schematisch gezeigt. Die Richtungen der Linien definieren beispielhaft die x- und y-Richtung des Koordinatensystems. Ohne Beschränkung der Allgemeinheit befindet sich der Projektor (7) im Koordinatenursprung. Die optische Achse (8) des Projektors fällt mit der z-Achse des Koordinatensystems zusammen und ist auf das Objekt (9) gerichtet.
  • Für die Ausführungsform nach 3 werden die beiden Kameras (10) und (20) entlang der x-Achse angeordnet, wobei ihre optischen Achsen (13) und (14) vorzugsweise ebenfalls auf das Objekt (9) gerichtet sind und mit der optischen Achse (8) des Projektors (der z-Achse) verschiedene Triangulationswinkel (1) und (2) einschließen. So entsteht ein Sensorkopf (3), bestehend aus zwei Triangulationssensoren T1 und T2, welche das gleiche Projektionsmuster (6a) nutzen. Der Triangulationssensor T1 wird durch den Projektor (7) und die Kamera (10) definiert. Der Triangulationssensor T2 wird durch den Projektor (7) und die Kamera (20) definiert. Wird mit den beiden Kameras (10) und (20) zeitgleich jeweils ein Bild des vom Muster (6a) beleuchteten Objekts (9) aufgenommen, so wird die 3D-Information der Objektoberfläche an den Orten, wo das Muster (6a) projiziert wird, von zwei unabhängigen Triangulationssensoren T1 und T2 akquiriert. Wichtig ist für das Verfahren, dass die Triangulationssensoren Tl, T2 die gleichen Objektpunkte messen.
  • Eine Grundidee der Erfindung ist es, dass durch die Kopplung der Triangulationssensoren (im Ausführungsbeispiel der 3 sind dies T1 und T2) ein 3D-Sensor entsteht, welcher die Objektoberfläche sowohl dicht (viele Linien), als auch mit geringer Messunsicherheit δz (großer Triangulationswinkel) und gleichzeitig in einer großen Messtiefe Δz im Single-Shot Verfahren akquiriert.
  • Dies kann beispielsweise beim Ausführungsbeispiel nach 3 erreicht werden, indem Kamera (10) unter einem kleinen Triangulationswinkel (1) und Kamera (20) unter einem großen Triangulationswinkel (2) entlang der x-Achse angeordnet werden. Für eine Anzahl L projizierter Linien und einem gegebenen Messfeld Δx ergibt sich nach Gleichung 1 für T1 eine sehr große eindeutige Messtiefe ΔzT1, d. h. die Linien werden korrekt indiziert. Wegen des kleinen Triangulationswinkels (1) zeigen die 3D-Daten aber eine große Messunsicherheit δzT1. Für den Sensor T2 ergibt sich eine geringere eindeutige Messtiefe ΔzT2 bei gleichzeitig geringerer Messunsicherheit δzT2. Aufgrund der geringeren eindeutigen Messtiefe ΔzT2 können die Linien vom Triangulationssensor T2 jedoch nicht korrekt indiziert werden und die Daten sind nicht ohne zusätzliche Information eindeutig auswertbar.
  • Eine Kopplung beider Triangulationssensoren kann dieses Problem erfindungsgemäß lösen. Die Kopplung kann durch Rückprojektion der Datensätze der Triangulationssensoren erreicht werden.
  • Zunächst wird ein 3D-Modell M1 des Objektes aus den Daten von T1 berechnet. Wie beschrieben, zeigt dieses Modell eine große Messunsicherheit, jedoch richtige Indizierung der Linien. Nun werden alle 3D-Punkte von M1 inklusive ihrer Indexinformation aus dem 3D-Raum numerisch auf das Bild von Kamera (20) von T2 rückprojiziert. In einem kalibrierten Gesamtsystem werden sich die rückprojizierten 3D-Punkte mit den Liniensignalen im Bild der Kamera (20) nahezu decken. Dabei zeigen die rückprojizierten 3D-Punkte mehr Rauschen, aber korrekte Indizes. Diese Indizes Werden nun den Linien im Kamerabild von T2 zugeordnet. Damit können nun die Daten von T2 eindeutig und mit geringer Messunsicherheit ausgewertet werden, und ein korrektes Modell MK des Objektes erstellt werden. Die Beschränkung durch die Gleichung 1, welche für jeden der Triangulationssensoren T1, T2 einzeln gilt, wird somit durch die Kopplung für den 3D-Sensor aufgehoben.
  • Die Grundidee, zwei Kameras, sowie einen kleinen und einen großen Triangulationswinkel mit einem Linienmuster mit nur einer Richtung wie in (6a) gezeigt, zu nutzen, ist in der Publikation [Willomitzer et al., "Single-shot 3D sensing with improved data density ", Appl. Opt. 54(3), 408–417 (2015)] erwähnt.
  • Die vorliegende Patentschrift entwickelt die Idee, mehrere Kameras zu nutzen vorteilhaft weiter, insbesondere durch die Nutzung von Linienmustern mit mehreren Richtungen, was in Verbindung mit mehreren Kameras eine große Anzahl von koppelbaren Triangulationssensoren erzeugt.
  • Auch die Kopplung mittels Rückprojektion ist nicht auf die beschriebene Ausführungsform mit kleinem Triangulationswinkel (1) und großem Triangulationswinkel (2) beschränkt. Es können auch beide Triangulationswinkel annähernd gleich groß gewählt werden, sodass bei fester Linienzahl L die eindeutigen Messtiefen ΔzT1 und ΔzT2 (nach Gleichung 1) so geartet sind, dass mit Hilfe eines Restzahlverfahrens analog zur Nonienablesung (s. 4b) der richtige Linienindex ermittelt werden kann. Beispielsweise ergäbe die Wahl von ΔzT1 = 300 mm und ΔzT2 = 400 mm einen resultierenden eindeutigen Messbereich von 1200 mm. 4b zeigt anhand eines ebenen Objektes symbolisch die mehrdeutigen Modelle M1 und M2 der Datensätze von T1, T2. Die Kopplung der Daten über die Rückprojektion erlaubt die Ermittlung der „richtigen” Modells MK.
  • Im oben erwähnten Fall eines kleinen und großen Winkels kann neben der Berechnung des 3D-Modells M1 beispielsweise auch das mehrdeutige 3D-Modell M2 von T2 direkt berechnet werden. Im 3D-Raum wird dann nach Übereinstimmungen von M1 und M2 gesucht und daraus das kombinierte eindeutige Modell MK erzeugt. Dies ist in 4a symbolisch dargestellt, wo M1 eindeutig, aber verrauscht ist. Es wird die Akquisition eines ebenen Objektes angenommen und es werden die Modelle M1, M2 und das kombinierte eindeutige Modell MK gezeigt.
  • Weiterhin ist eine Kopplung von T1 und T2 auch über Merkmale des Objekts möglich, sowie auch durch eine Kombination der Lehre des Patents mit einer Codierung der Muster (z. B. räumlich oder durch Farbe) denkbar.
  • Um die Dichte der Messdaten bei gleichbleibender Qualität weiter zu erhöhen, kann die beschriebene Ausführungsform von 3 modifiziert werden. Dabei wird anstelle eines Linienmusters (6a) nun ein Linienmuster (6b), das als Kreuzgitter ausgeformt ist, projiziert. Die zwei Linienrichtungen, liegen hier beispielhaft entlang der x- und y-Richtung der Koordinatenachsen. Grundsätzlich wäre es nun möglich, analog zur Ausführungsform nach 3 einen weiteren 3D-Sensor hinzuzufügen, um 90° bezüglich der z-Achse gedreht. Es gibt nach der Lehre der Patentschrift eine sehr effektive Möglichkeit, dies ohne zusätzliche Kameras zu erreichen: werden die Kameras (10), (20) wie in 5 gezeigt, neben der x- bzw. y-Achse positioniert, so spannen ihre optischen Achsen (13), (14), welche wieder vorzugsweise auf das Objekt (9) gerichtet sind, mit der x-z- bzw. y-z-Ebene vier Winkel (11), (12), (21), (22) auf. Diese fungieren immer paarweise als Triangulationswinkel für eine projizierte Linienrichtung. Es werden vier unabhängige Triangulationssysteme T11, T12, T21, T22 gebildet, welche für jede Linienrichtung mindestens 2 unabhängige 3D-Datensätze der gleichen Oberflächenpunkte akquirieren. Dadurch wird die Lehre des Patents bereits mit zwei Kameras erfüllt, anstatt mit vier Kameras.
  • 5a zeigt eine räumliche Darstellung des 3D-Sensors mit dem Objekt (9) und ein Schema des projizierten Musters (6b). 5b zeigt eine Projektion des 3D-Sensors auf die x-z-Ebene, 5c zeigt eine Projektion auf die y-z-Ebene. Die Winkel (11) und (21) sind hierbei Triangulationswinkel für die Linien in y-Richtung (vgl. 5b), die Winkel (12) und (22) sind die Triangulationswinkel für die Linien in x-Richtung (vgl. 5c). Wie in 5 gezeigt, kann auf diese Weise eine Ausführungsform mit vier verschiedenen Triangulationswinkeln für beide projizierte Linienrichtungen mit nur zwei Kameras realisiert werden.
  • Alle für die Ausführungsform nach 3 beschriebenen Verfahren zur Kopplung von Triangulationssystemen durch Rückprojektion können analog für die Ausführungsform nach 5 angewendet werden.
  • Die Idee der Ausführungsform nach 5 lässt sich zwanglos erweitern für Systeme mit mehr Kameras oder mit mehr Linienrichtungen. Mit einer Anzahl von K Kameras und einer Anzahl von R Linienrichtungen lassen sich grundsätzlich Q = K × R Triangulationssysteme erzeugen. Diese Q Triangulationssysteme zeigen je nach Lage der Kameras und der Linienrichtungen oder der Periode der Linienmuster verschiedene Eigenschaften bezüglich des eindeutigen Tiefenbereichs, der Messunsicherheit und der Datendichte. Diese Eigenschaften können auch lokal variieren. Die Lehre des Patents erlaubt viele Möglichkeiten der Beleuchtung. Es ist keineswegs notwendig, ein periodisches Muster zu verwenden, oder nur zwei Richtungen der Linien. Andere Muster, wie in 2 beispielhaft bei (6c), (6d), (6e), (6f) gezeigt, erlauben eine Vielzahl von Variationen. Dies liegt daran, dass die Projektionsachse (8), die Kameraachsen (13), (14), (15), ... und auch die Richtungen der Linien oder der Liniensegmente die Eigenschaften der Triangulationssensoren bestimmen. Die Kopplung der Triangulationssensoren über das gemeinsam beobachtete Linienmuster und die Kombination bzw. Kopplung der jeweiligen Daten durch die Auswerteeinheit erlaubt wiederum die Erzeugung von dichten und gleichzeitig genauen 3D-Daten der zu akquirierenden Objektoberfläche.
  • Dies ist leicht einsichtig: mit beispielsweise drei Linienrichtungen und zwei Kameras lassen sich 6 verschiedene Triangulationssensoren T1 bis T6 erzeugen, die 6 unabhängige Datensätze des gleichen Objekts akquirieren. Für die Beseitigung möglicher Fehler in den Datensätzen, zum Beispiel aufgrund von mangelnder Eindeutigkeit oder Rauschen, hat man damit 6 unabhängige Datensätze zur Verfügung. Auch hier ist die Kopplung durch Rückprojektion anwendbar, ähnlich wie es für zwei Sensoren in 4a und 4b dargestellt ist. Die 6 Triangulationssensoren T1 bis T6 erzeugen 6 nicht eindeutige 3D-Modelle M1 bis M6. In diesem Fall können die Linienmuster und Triangulationswinkel sogar willkürlich gewählt werden. Denn die Modelle M1 bis M6 sollten bei Fehlerfreiheit alle das gleiche Objektmodell zeigen. Wenn mindestens zwei oder mehr Datensätze übereinstimmen, besteht eine große Wahrscheinlichkeit dafür, dass diese Datensätze richtig sind. Die beschriebene statistische Methode ist zur Kopplung besonders geeignet, wenn die projizierten Linienmuster sehr kompliziert sind und viele Triangulationssensoren beitragen.
  • Besonders erwähnt sei die Projektion eines Linienmusters wie in (6c). Ein Sensor mit einem solchen Linienmuster, sowohl mit zwei Kameras wie in 4 dargestellt, als auch mit einer zusätzlichen Kamera, erlaubt eine weitere Erhöhung der Datendichte.
  • Für die Projektion mehrerer Gitterlinienrichtungen besteht auch die Möglichkeit, für jede Richtung eine unterschiedliche Linienperiode zu projizieren, etwa durch Linienmuster wie (6e) oder (6f). In diesem Fall würden sich nach Gleichung 1 für gleiche Triangulationswinkel unterschiedliche eindeutige Messtiefen ΔzTi ergeben.
  • Weiterhin kann man bei mehreren Gitterlinienrichtungen die Kreuzungspunkte zur Indizierung nutzen. Kennt man den richtigen Index einer Linie, so kennt man den Index aller Linien, die diese Linie schneiden, an den Kreuzungspunkten. Durch eine Verfolgung der Linien im Kamerabild können die betreffenden Indizes auf die restlichen Liniensegmente übertragen werden. Besonders für diese Ausführungsform ist die Wahl passender Linienperioden wirkungsvoll.
  • Gekreuzte Linien haben weiter den Vorteil, dass man in den Kreuzungspunkten den Gradienten der Objektoberfläche in beiden Richtungen berechnen kann. Damit ist eine sehr genaue Interpolation der 3D-Daten in den Zwischenräumen zwischen den Linien möglich. Überdies ist die Zerlegung der Objektoberfläche in Dreiecksnetze für Kreuzgitterprojektion einfacher und immer eindeutig.
  • Um jede Linie korrekt und mit hoher Genauigkeit auszuwerten, müssen alle Linienrichtungen in der Auswerteeinheit (4) zunächst separiert werden. Dies kann beispielsweise mittels Richtungs-Filterung der Kamerabilder in der Fourierebene oder im Ortsraum erfolgen. Damit auch an den Kreuzungspunkten der Linien noch Daten ausgewertet werden können, kann es von Vorteil sein die Intensität des projizierten Musters an den Kreuzungspunkten gegenüber den restlichen Liniensegmenten zu erhöhen oder zu erniedrigen, auch z. B. auf Null zu setzen, oder die Breite der Linien dort zu variieren. Wenn für die verwendeten Kameras die Möglichkeit der Farbselektion besteht, können die verschiedenen Linienrichtungen prinzipiell auch durch geeignete Farbcodierung der Linien getrennt werden.
  • Eine Besonderheit der vorliegenden Lehre ist, dass unmittelbar nach jedem Aufnahmetakt die vollständige 3D-Information über die Form der Oberfläche zur Verfügung steht. Damit eröffnen sich Möglichkeiten für die Verarbeitung und Visualisierung in Echtzeit, wie sie nach dem Stand der Technik nicht so vorteilhaft zur Verfügung stehen:
    Zunächst erlaubt das Single-Shot Verfahren, die dreidimensionale Erfassung extrem schneller Vorgänge, darunter die Erfassung bewegter, auch nicht starrer Objekte oder die Messung der Verformung bei Crash-Tests. Die Bildfrequenz der Kamera schränkt die schnelle Erfassung nur bedingt ein, denn die Bildszene kann durch eine Kurzzeitbelichtung (Blitz) oder eine kurze elektronische Verschlusszeit, wie sie moderne Kameras ermöglichen, in einem sehr kurzen Zeitraum dreidimensional erfasst werden, deutlich schneller als der Kameratakt erlaubt. Dies ist möglich, weil die Beleuchtung mit einem „festen Muster” erfolgt. Ein festes, nicht zeitlich variierendes Muster ist technisch erheblich einfacher und kostengünstiger zu realisieren – und es ist beliebig kurze Belichtung möglich. Das schließt jedoch nicht aus, dass für die Musterprojektion auch steuerbare Mustergeneratoren benutzt werden, z. B. Laserprojektoren, die sehr schnell sind und sehr helle Projektion erlauben. Auch mag in bestimmten Fällen die Datendichte wichtiger sein als die Schnelligkeit. In diesem Fall könnte man zeitlich sequentielle Verschiebung von Gittern mit der Lehre des Patents verknüpfen.
  • Die zeitlich unmittelbar zur Verfügung stehenden 3D-Daten erlauben eine Echtzeitdarstellung und Visualisierung, sodass der Benutzer des Sensors interaktiv den Sensor zum Beispiel um das Objekt kontinuierlich (ohne „stop-and-go”) herumführen kann und dabei jederzeit die Kontrolle über die bereits gelieferten Daten hat. Somit kann das Objekt bequem und vollständig rundum gemessen werden, was ohne die Echtzeitdarstellung nicht ohne weiteres möglich wäre.
  • Vorteilhaft für die interaktive Nutzung des Sensors und für virtuelle Realität ist eine fotorealistische Darstellung des Objektes, wie sie durch bekannte Verfahren der Oberflächenzerlegung in Dreiecksnetze und des Renderings auch in Echtzeit erreicht werden kann.
  • Für die fotorealistische Darstellung ist auch die zusätzliche Akquisition der Farbtextur vorteilhaft. Das vorgestellte Verfahren lässt sich dazu erweitern, indem entweder die Kameras (10), (20), (30)... Farbkameras sind oder eine zusätzliche Farbkamera in den Sensor eingebaut wird. Im ersteren Fall enthalten die Bilddaten sowohl die Farbtextur als auch die 3D-Daten. Der zweite Fall bietet den Vorteil, dass Schwarz-Weiß-Kameras i. a. eine genauere 3D-Erfassung ermöglichen und die Erfassung der Farbtextur von der 3D-Akquisition unabhängig ist. So ist auch denkbar, dass durch passende großflächige kurzzeitige weiße Beleuchtung zu passenden Zeitpunkten die Farbtextur völlig unabhängig von der 3D-Datenakquisition erfolgt. Dies ist mit beiden erwähnten Optionen möglich.
  • Ein besonders wichtiger Vorteil der Single-Shot Echtzeit-Daten ist die Möglichkeit der Visualisierung aus verschiedenen Perspektiven: In jedem Kameratakt wird ein Datensatz akquiriert, der die vollständigen 3D-Daten der Objektoberfläche enthält. Werden mehrere Datensätze eines bewegten Objekts in mehreren aufeinanderfolgenden Kameratakten aufgenommen, können diese schließlich als 3D-Filmsequenz visualisiert werden. Somit ist eine Visualisierung einer 3D-Fimsequenz (in Echtzeit oder auch nachträglich) unter freier Wahl der Beobachtungsperspektive oder sogar unter einer Änderung der Beobachtungsperspektive während der 3D-Filmsequenz („free-viewpoint-movie”) möglich. Auch kann die 3D-Filmsequenz gleichzeitig für beliebige Perspektiven visualisiert werden.
  • Dies wird in 7 demonstriert. Gezeigt sind beispielhaft 3 Einzelbilder einer 3D-Filmsequenz aus 3 verschiedenen, frei gewählten Perspektiven (A, B, C). Die 3D-Daten für die abgebildeten Visualisierungen wurden mit einem 3D-Sensor der Ausführungsform nach 5 akquiriert. Gemessen wurde ein sprechender Mensch.
  • Das Modell und die Visualisierung enthält bereits die Textur des Objekts, weil auch die Linienintensität aufgrund der lokalen Objektreflektivität in den Kamerabildern erfasst wird. Eine Interpolation der Datenpunkte zwischen den Linien oder eine Oberflächenzerlegung in Dreiecksnetze wurde im Beispiel der 7 nicht angewendet, kann aber prinzipiell für eine fotorealistische Darstellung erfolgen.
  • Die einfachste Möglichkeit, die Blickwinkel zu variieren, besteht darin, dass der Beobachter mit einem Kontrollgerät, z. B. einer Computermaus, die gewünschte Perspektive in Echtzeit einstellt oder variiert.
  • Eine andere Option ist, dass am Monitor (5) ein Sensor (23) zur Erfassung der Beobachterposition angebracht ist. Wenn sich der Beobachter vor dem Monitor bewegt, so kann die erfasste Beobachterposition dazu dienen, die gezeigte Perspektive so darzustellen, als ob sich der Beobachter um das visualisierte Objekt herumbewegt.
  • Man kann aber auch, z. B. wie in 6 dargestellt, die Visualisierung von mehreren Perspektiven auf mehreren Monitoren oder einem gebogenen Monitor darstellen. Der Monitor (16) zeigt das virtuelle Modell (19) des Objekt aus der Richtung (16a), der Monitor (17) zeigt das Modell (19) aus der Richtung (17a), der Monitor (18) zeigt das Modell (19) aus der Richtung (18a). Die Monitore können zweckmäßig so aufgestellt werden, dass ein oder mehrere Beobachter die Möglichkeit haben, die Monitore gleichzeitig oder durch Bewegung nacheinander zu betrachten, und somit quasi um das visualisierte Objekt herumzugehen.
  • Die oben genannten Möglichkeiten zur Visualisierung lassen sich auch mit Hilfe einer sogenannten VR-Datenbrille erreichen.
  • Mit dem vorgestellten optischen 3D-Sensor lassen sich Objekte extrem schnell einmalig vermessen, z. B. für die industrielle Sichtprüfung schneller Prozesse. Es lassen sich aber auch bewegte Szenen, zum Beispiel für die virtuelle Realität, als 3D-Filmsequenz erfassen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2010/0303341 A1 [0004]
    • US 8140295 B2 [0004]
    • US 7768656 B2 [0008]
  • Zitierte Nicht-Patentliteratur
    • Halioua et al., ”Automated phasemeasuring profilometry of 3-D diffuse objects,” Appl. Opt. 23, 3105–3108 (1984) [0002]
    • Schaffer et al., ”High-speed pattern projection for three-dimensional shape measurement using laser speckles”, Appl. Opt. 49, 3622–3629 (2010) [0002]
    • Schmalz, ”Robust single-shot structured light 3D scanning”, Dissertation, Universität Erlangen-Nürnberg (2012) [0006]
    • Nguyen et al., ”Real-time, high-accuracy 3D imaging and shape measurement,” Appl. Opt. 54, A9–A17 (2015) [0006]
    • Häusler et al., ”Parallel three-dimensional sensing by color-coded triangulation”, Appl. Opt. 32, 7164–7169 (1993) [0006]
    • Yang et al.,”A 3D sensor for intraoral metrology,” in DGaO Proceedings 2009, P19 [0008]
    • Zhang, ”Microsoft Kinect sensor and its effect”, IEEE Multimedia 19, 410 (2012) [0008]
    • Häusler et al., ”Why can't we purchase a perfect single-shot 3D-sensor?” in DGaO Proceedings 2012, A8 [0010]
    • Young et al., ”Viewpoint-Coded Structured Light,” in CVPR'07 IEEE Conference pp. 1–8 (2007) [0011]
    • Breitbarth et al., „Phase unwrapping of fringe images for dynamic 3D measurements without additional pattern projection”, in SPIE Proceedings Vol. 9489, 948903 1–10 (2015) [0013]
    • Häusler et al., ”Why can't we purchase a perfect single-shot 3D-sensor?” in DGaO Proceedings 2012, A8 [0014]
    • Willomitzer et al., ”Single-shot 3D sensing with improved data density”, Appl. Opt. 54(3), 408–417 (2015) [0017]
    • Dorsch et al.,”Laser triangulation: fundamental uncertainty in distance measurement,” Appl. Opt. 33, 1306–1314 (1994) [0017]
    • Willomitzer et al., ”Single-shot 3D sensing with improved data density ”, Appl. Opt. 54(3), 408–417 (2015) [0025]

Claims (10)

  1. Optischer 3D Sensor zur schnellen und dichten Formerfassung, mit gleichzeitig geringer Messunsicherheit und großem Messbereich, bestehend aus einem Projektor (7), dessen optische Achse (8) vorzugsweise auf das Objekt (9) gerichtet ist wobei der Projektor (7) ein Linienmuster (6) mit vorzugsweise großer Anzahl von Linien auf das Objekt projiziert, und einer Anzahl von K Kameras (10), (20), (30)..., deren optische Achsen (13), (14), (15), ... vorzugsweise auf das Objekt (9) gerichtet sind, und diese Kameras vorzugsweise zeitgleich jeweils ein Bild des vom Projektor (7) beleuchteten Objekts (9) aufnehmen, welches in der Steuer- und Auswerteeinheit (4) weiterverarbeitet wird, dadurch gekennzeichnet, dass das Linienmuster Linien in einer Anzahl von R Richtungen aufweist, mit der Bedingung K × R ≥ 2, und die K Kameras so angeordnet sind, dass sie mit dem Projektor bezüglich der R Linienrichtungen bis zu K × R Triangulationssensoren mit bis zu K × R Triangulationswinkeln aufspannen, und dass die Triangulationssensoren über das gemeinsame Linienmuster durch die Auswerteeinheit vorzugsweise über eine Rückprojektion gekoppelt werden.
  2. Optischer 3D-Sensor nach Anspruch 1, dadurch gekennzeichnet, dass zwei Kameras (10), (20) eingesetzt werden und der Projektor (7) ein Kreuzgitter (6b) mit vorzugsweise großer Anzahl von Linien auf das Objekt (9) projiziert, und die Richtung der Linien die Richtung der x- und y-Achse des Koordinatensystems definieren und die optischen Achsen (13), (14) der verwendeten Kameras (10), (20) mit der x-z- bzw. y-z-Ebene des Koordinatensystems 4 Winkel (11), (12), (21), (22) aufspannen, und der optische 3D-Sensor vier unabhängig messende Triangulationssysteme T11, T12, T21, T22 mit den Triangulationswinkeln (11), (12), (21), (22) beinhaltet, welche für jede Linienrichtung zwei unabhängige Messdatensätze der gleichen Oberflächenpunkte akquirieren, und die Steuer- und Auswerteeinheit (4) die Messdatensätze der unabhängig messenden Triangulationssysteme nach Anspruch 1 koppelt.
  3. Optischer 3D-Sensor nach Anspruch 1 und 2, dadurch gekennzeichnet, dass die Triangulationswinkel (12) und (21) groß gewählt werden, dass die zugehörigen Triangulationssensoren T12 und T21 für die projizierten Linien in x-Richtung und in y-Richtung eine hohe Genauigkeit erreichen, und dass die Winkel (11) und (22) so gewählt werden, dass in den Triangulationssystemen T11 und T22 unmittelbar Eindeutigkeit der Messdatensätze von T11 und T22 im Messvolumen erreicht wird, und dass die erhaltene Information über die Eindeutigkeit an die Triangulationssysteme T12 und T21 weitergegeben wird.
  4. Optischer 3D-Sensor nach Anspruch 1 und 2, dadurch gekennzeichnet, dass die Winkel (12) und (21) groß gewählt werden, dass die zugehörigen Triangulationssensoren T12 und T21 für die projizierten Linien in x-Richtung und in y-Richtung eine hohe Genauigkeit erreichen, und dass die Winkel (11) und (22) so gewählt werden, dass für die Triangulationssysteme T11 und T22 nach Gleichung 1 bei fester Linienzahl L die eindeutigen Messtiefen von T11 und von T22 so geartet sind, dass mit Hilfe eines Restzahlverfahrens der richtige Linienindex ermittelt werden kann.
  5. Optischer 3D-Sensor nach Anspruch 1–4, dadurch gekennzeichnet, dass ein Liniengitter (6a) mit nur einer Linienrichtung, beispielsweise der y-Richtung, projiziert wird und die wirksamen Triangulationswinkel (11) und (21) in der x-z-Ebene liegen.
  6. Optischer 3D-Sensor nach Anspruch 1–5, dadurch gekennzeichnet, dass eine oder mehrere Kameras im 3D-Sensor Farbkameras sind oder zusätzlich Farbkameras eingebracht werden, um neben der Erfassung der 3D-Daten die Information über die Farbtextur der Objektoberfläche zu akquirieren.
  7. Optischer 3D-Sensor nach Anspruch 1–6, dadurch gekennzeichnet, dass die Periode des projizierten Linienmusters örtlich oder für verschiedene Richtungen variiert wird.
  8. Optischer 3D-Sensor nach Anspruch 1–7, dadurch gekennzeichnet, dass im Kameratakt 3D-Daten akquiriert werden, und daraus jeweils ein 3D-Modell des Objektes (9) erzeugt wird, wobei eine Serie von nacheinander aufgenommenen 3D-Modellen zu einer 3D-Filmsequenz zusammengesetzt wird, die auf einem Anzeigegerät abgespielt werden kann.
  9. Optischer 3D-Sensor nach Anspruch 1–8, dadurch gekennzeichnet, dass die akquirierten Daten so visualisiert werden, dass der Blickwinkel, unter dem das 3D-Modell dargestellt wird, durch einen Sensor (23) in Echtzeit gesteuert wird, der die Position des Beobachters ermittelt.
  10. Optischer 3D-Sensor nach Anspruch 1–9, dadurch gekennzeichnet, dass gleichzeitig das 3D-Modell aus mehreren Blickwinkeln angezeigt wird.
DE102016002398.8A 2016-02-26 2016-02-26 Optischer 3D-Sensor zur schnellen und dichten Formerfassung Active DE102016002398B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102016002398.8A DE102016002398B4 (de) 2016-02-26 2016-02-26 Optischer 3D-Sensor zur schnellen und dichten Formerfassung
US15/442,214 US10404967B2 (en) 2016-02-26 2017-02-24 Optical 3-D sensor for fast and dense shape capture
CN201710103407.0A CN107131848B (zh) 2016-02-26 2017-02-24 能实现快速和致密形状检测的光学三维传感器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016002398.8A DE102016002398B4 (de) 2016-02-26 2016-02-26 Optischer 3D-Sensor zur schnellen und dichten Formerfassung

Publications (2)

Publication Number Publication Date
DE102016002398A1 true DE102016002398A1 (de) 2017-08-31
DE102016002398B4 DE102016002398B4 (de) 2019-04-25

Family

ID=59580012

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016002398.8A Active DE102016002398B4 (de) 2016-02-26 2016-02-26 Optischer 3D-Sensor zur schnellen und dichten Formerfassung

Country Status (3)

Country Link
US (1) US10404967B2 (de)
CN (1) CN107131848B (de)
DE (1) DE102016002398B4 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018108874A1 (de) * 2018-04-13 2019-10-17 Isra Vision Ag Verfahren und System zur Vermessung eines Objekts mittels Stereoskopie
DE102019135340A1 (de) 2019-01-07 2020-07-09 AGILOM GmbH Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts
DE102019216231A1 (de) * 2019-10-22 2021-04-22 Carl Zeiss Industrielle Messtechnik Gmbh Vorrichtung und Verfahren zur dimensionellen Vermessung von scharfen Kanten
DE102021108232A1 (de) 2021-03-31 2022-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Messgerät zur 3D-Erfassung einer Oberfläche

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101733228B1 (ko) * 2016-04-28 2017-05-08 주식회사 메디트 구조광을 이용한 3차원 스캐닝 장치
CN106802138B (zh) * 2017-02-24 2019-09-24 先临三维科技股份有限公司 一种三维扫描***及其扫描方法
CN108036740B (zh) * 2017-12-05 2020-04-10 南京理工大学 一种基于多视角的高精度实时三维彩色测量***及其方法
CN109501807B (zh) * 2018-08-15 2021-02-26 初速度(苏州)科技有限公司 自动驾驶注意力检测***及方法
CN109584352B (zh) * 2018-08-21 2021-01-12 先临三维科技股份有限公司 三维扫描的图像获取、处理方法、装置以及三维扫描设备
US11842496B2 (en) * 2018-09-26 2023-12-12 Intel Corporation Real-time multi-view detection of objects in multi-camera environments
CN109724531B (zh) * 2018-10-18 2021-05-28 苏州光图智能科技有限公司 360°轮廓测量方法
CN109357621B (zh) * 2018-12-10 2020-08-11 福州大学 基于线阵相机和位感条纹的三维振动位移测量装置与方法
EP3812698A3 (de) 2019-10-22 2021-07-07 Faro Technologies, Inc. Photosensorverarbeitung für verbesserte zeilenabtastleistung
CN111476897B (zh) * 2020-03-24 2023-04-18 清华大学 基于同步扫描条纹相机的非视域动态成像方法及装置
CN112763054A (zh) * 2020-12-21 2021-05-07 上海工程技术大学 一种三维声场可视化***和方法
US20220230335A1 (en) * 2021-01-20 2022-07-21 Nicolae Paul Teodorescu One-shot high-accuracy geometric modeling of three-dimensional scenes

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7768656B2 (en) 2007-08-28 2010-08-03 Artec Group, Inc. System and method for three-dimensional measurement of the shape of material objects
US20100303341A1 (en) 2009-06-01 2010-12-02 Haeusler Gerd Method and device for three-dimensional surface detection with a dynamic reference frame
WO2011033186A1 (fr) * 2009-09-15 2011-03-24 Noomeo Procédé de numérisation tridimensionnelle d'une surface comprenant la projection d'un motif combiné
US8140295B2 (en) 2005-03-11 2012-03-20 Creaform Inc. Auto-referenced sensing device for three-dimensional scanning
US20130100282A1 (en) * 2010-06-21 2013-04-25 Leica Geosystems Ag Optical measurement method and measurement system for determining 3d coordinates on a measurement object surface
DE102014104993A1 (de) * 2013-06-24 2014-12-24 Qioptiq Photonics Gmbh & Co. Kg Dentalmessvorrichtung zur dreidimensionalen Vermessung von Zähnen
US20150221093A1 (en) * 2012-07-30 2015-08-06 National Institute Of Advanced Industrial Science And Technolgy Image processing system, and image processing method

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3471971B2 (ja) * 1995-05-10 2003-12-02 キヤノン株式会社 複合型のロータリーエンコーダ
DE19747061B4 (de) * 1997-10-24 2005-02-10 Mähner, Bernward Verfahren und Einrichtung zur flächenhaften, dreidimensionalen, optischen Vermessung von Objekten
JP5773645B2 (ja) * 2007-06-25 2015-09-02 リアル イメージング リミテッド 画像分析のための方法、装置およびシステム
CN101504277B (zh) * 2009-02-26 2010-11-10 浙江师范大学 一种光学三维传感获取物体三维图像的方法
JP2012058076A (ja) * 2010-09-09 2012-03-22 3D Media Co Ltd 3次元計測装置及び3次元計測方法
CN102364299B (zh) * 2011-08-30 2015-01-14 西南科技大学 一种多个结构光投影三维型面测量头的标定技术
DE102012224260A1 (de) * 2012-12-21 2014-06-26 Robert Bosch Gmbh Vorrichtung und Verfahren zur Messung der Profiltiefe eines Reifens
WO2014149702A1 (en) * 2013-03-15 2014-09-25 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9041914B2 (en) * 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
KR20160025522A (ko) * 2013-06-28 2016-03-08 톰슨 라이센싱 위치 감지와 뷰들의 적응 수를 갖는 멀티뷰 3차원 디스플레이 시스템 및 방법
WO2015200490A1 (en) * 2014-06-24 2015-12-30 Photon-X Visual cognition system
CN104848803B (zh) * 2015-05-04 2017-07-21 香港应用科技研究院有限公司 一种检测物体表面轮廓的方法和***
US10052162B2 (en) * 2015-08-24 2018-08-21 Synaptive Medical (Barbados) Inc. Medical imaging system for illuminating tissue samples using three-dimensional structured illumination microscopy
US9607347B1 (en) * 2015-09-04 2017-03-28 Qiang Li Systems and methods of 3D scanning and robotic application of cosmetics to human

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8140295B2 (en) 2005-03-11 2012-03-20 Creaform Inc. Auto-referenced sensing device for three-dimensional scanning
US7768656B2 (en) 2007-08-28 2010-08-03 Artec Group, Inc. System and method for three-dimensional measurement of the shape of material objects
US20100303341A1 (en) 2009-06-01 2010-12-02 Haeusler Gerd Method and device for three-dimensional surface detection with a dynamic reference frame
WO2011033186A1 (fr) * 2009-09-15 2011-03-24 Noomeo Procédé de numérisation tridimensionnelle d'une surface comprenant la projection d'un motif combiné
US20130100282A1 (en) * 2010-06-21 2013-04-25 Leica Geosystems Ag Optical measurement method and measurement system for determining 3d coordinates on a measurement object surface
US20150221093A1 (en) * 2012-07-30 2015-08-06 National Institute Of Advanced Industrial Science And Technolgy Image processing system, and image processing method
DE102014104993A1 (de) * 2013-06-24 2014-12-24 Qioptiq Photonics Gmbh & Co. Kg Dentalmessvorrichtung zur dreidimensionalen Vermessung von Zähnen

Non-Patent Citations (15)

* Cited by examiner, † Cited by third party
Title
Breitbarth et al., „Phase unwrapping of fringe images for dynamic 3D measurements without additional pattern projection", in SPIE Proceedings Vol. 9489, 948903 1–10 (2015)
Dorsch et al.,"Laser triangulation: fundamental uncertainty in distance measurement," Appl. Opt. 33, 1306–1314 (1994)
F. Willomitzer et al.; "Single-shot three-dimensional sensing with improved data density"; Appl. Opt. 54, 2015, S. 408 – 417
F. Willomitzer et al.; "Single-shot three-dimensional sensing with improved data density"; Appl. Opt. 54, 2015, S. 408 – 417 *
Halioua et al., "Automated phasemeasuring profilometry of 3-D diffuse objects," Appl. Opt. 23, 3105–3108 (1984)
Häusler et al., "Parallel three-dimensional sensing by color-coded triangulation", Appl. Opt. 32, 7164–7169 (1993)
Häusler et al., "Why can't we purchase a perfect single-shot 3D-sensor?" in DGaO Proceedings 2012, A8
Nguyen et al., "Real-time, high-accuracy 3D imaging and shape measurement," Appl. Opt. 54, A9–A17 (2015)
Schaffer et al., "High-speed pattern projection for three-dimensional shape measurement using laser speckles", Appl. Opt. 49, 3622–3629 (2010)
Schmalz, "Robust single-shot structured light 3D scanning", Dissertation, Universität Erlangen-Nürnberg (2012)
Willomitzer et al., "Single-shot 3D sensing with improved data density ", Appl. Opt. 54(3), 408–417 (2015)
Willomitzer et al., "Single-shot 3D sensing with improved data density", Appl. Opt. 54(3), 408–417 (2015)
Yang et al.,"A 3D sensor for intraoral metrology," in DGaO Proceedings 2009, P19
Young et al., "Viewpoint-Coded Structured Light," in CVPR'07 IEEE Conference pp. 1–8 (2007)
Zhang, "Microsoft Kinect sensor and its effect", IEEE Multimedia 19, 410 (2012)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018108874A1 (de) * 2018-04-13 2019-10-17 Isra Vision Ag Verfahren und System zur Vermessung eines Objekts mittels Stereoskopie
WO2019197656A1 (de) 2018-04-13 2019-10-17 Isra Vision Ag Verfahren und system zur vermessung eines objekts mittels stereoskopie
US11640673B2 (en) 2018-04-13 2023-05-02 Isra Vision Ag Method and system for measuring an object by means of stereoscopy
DE102019135340A1 (de) 2019-01-07 2020-07-09 AGILOM GmbH Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts
DE102019216231A1 (de) * 2019-10-22 2021-04-22 Carl Zeiss Industrielle Messtechnik Gmbh Vorrichtung und Verfahren zur dimensionellen Vermessung von scharfen Kanten
DE102021108232A1 (de) 2021-03-31 2022-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Messgerät zur 3D-Erfassung einer Oberfläche

Also Published As

Publication number Publication date
DE102016002398B4 (de) 2019-04-25
US20170251197A1 (en) 2017-08-31
US10404967B2 (en) 2019-09-03
CN107131848A (zh) 2017-09-05
CN107131848B (zh) 2019-10-18

Similar Documents

Publication Publication Date Title
DE102016002398B4 (de) Optischer 3D-Sensor zur schnellen und dichten Formerfassung
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
EP1971820B1 (de) Erstellung eines abstandsbildes
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102007054906B4 (de) Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
DE102009023896B4 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze
EP2486542B1 (de) Verfahren zur aufnahme dreidimensionaler abbilder
DE202012104890U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
DE102007054907A1 (de) Verfahren zur optischen Vermessung von Objekten unter Verwendung eines Triangulationsverfahrens
DE102008054985A1 (de) Verfahren und Vorrichtung zur optischen Vermessung von dreidimensionalen Objekten mittels einer dentalen 3D-Kamera unter Verwendung eines Triangulationsverfahrens
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE102013212409A1 (de) Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts und Vorrichtung zur Bilderfassung
DE112009000516T5 (de) Intraorales Abbildungssystem und Verfahren, das auf der konoskopischen Holographie beruht
EP2627968B1 (de) Vorrichtung und verfahren zur dreidimensionalen bilderfassung
DE102012002161A1 (de) Verfahren und Vorrichtung zur 3D-Messung von Objekten
WO2003078920A2 (de) Verfahren und vorrichtung zur bestimmung der absolut-koordinaten eines objekts
EP2859531B1 (de) Verfahren zur bildbasierten veränderungserkennung
EP3274652B1 (de) Streifenprojektionsverfahren, streifenprojektionsvorrichtung und computerprogrammprodukt
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
DE10359104B3 (de) Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche
DE10358544A1 (de) Verfahren zur schnellen 3D-Objekterfassung
WO2013079727A1 (de) Messverfahren und vorrichtung zur durchführung des messverfahrens
EP1524866A2 (de) Stereoskopisches Bildaufnahmegerät
WO2023161083A1 (de) Computerimplementiertes verfahren, computerprogramm, datenverarbeitungssystem und vorrichtung zur bestimmung des reflektanzverhaltens einer oberfläche eines objektes sowie speichermedium mit darauf gespeicherten instruktionen zur bestimmung des reflektanzverhaltens einer oberfläche eines objektes

Legal Events

Date Code Title Description
R086 Non-binding declaration of licensing interest
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R130 Divisional application to

Ref document number: 102016015882

Country of ref document: DE

R020 Patent grant now final