DE102008002725B4 - Method and device for 3D reconstruction - Google Patents
Method and device for 3D reconstruction Download PDFInfo
- Publication number
- DE102008002725B4 DE102008002725B4 DE102008002725A DE102008002725A DE102008002725B4 DE 102008002725 B4 DE102008002725 B4 DE 102008002725B4 DE 102008002725 A DE102008002725 A DE 102008002725A DE 102008002725 A DE102008002725 A DE 102008002725A DE 102008002725 B4 DE102008002725 B4 DE 102008002725B4
- Authority
- DE
- Germany
- Prior art keywords
- image
- patterns
- object surface
- color
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Verfahren zur Erzeugung eines Abstandbildes für die 3D-Rekonstruktion einer Objektoberfläche (10) aus der Korrespondenz von Pixeln der Bilder mindestens eines Bildsensors (20), der die Szene aufnimmt, wobei mittels eines Projektors mit einer Strukturblende (90) Muster mit Strukturelementen in Form von Farbmustern mit verrauschten zufälligen lokal unterschiedlichen Helligkeiten auf die Objektoberfläche (10) projiziert werden, dadurch gekennzeichnet, dass die Muster sowohl in horizontaler als auch in vertikaler Richtung mit hoher Raumfrequenz variiert und in beiden Richtungen mit einem hohen Informationsgehalt auf die Objektoberfläche (10) projiziert werden, wobei mit dem Bildsensor (20) ein Strukturbild S(x, y) von der Objektoberfläche (10) aufgenommen und mit einem Referenzbild R(x, y), bei welchem die Objektoberfläche (10) mit dem gleichen Bildsensor (20) bei einer Beleuchtung mit einer gleichförmigen Referenzhelligkeit aus gleichem Blickwinkel zeitlich nacheinander folgend oder gleichzeitig aufgenommen wurde, pixelweise zu einem Verhältnisbild SR(x, y) ins Verhältnis gesetzt wird, wobei die verschiedenen Helligkeitswerte der Farbmuster in einem oder zwei von drei Kanälen des als Farbkamera ausgebildeten Bildsensor (20, 30) kodiert werden, und dass zur Erzeugung der Muster ein Dia verwendet wird, auf dem die Strukturelemente in Form von Bandsperrfiltern unterschiedlicher Dämpfung oder in Form von lichtundurchlässigen Bereichen aufgebracht sind.A method for generating a distance image for the 3D reconstruction of an object surface (10) from the correspondence of pixels of the images of at least one image sensor (20) which receives the scene, wherein by means of a projector with a structural shutter (90) pattern with structural elements in the form of Color patterns with noisy random locally different brightnesses on the object surface (10) are projected, characterized in that the patterns in both the horizontal and in the vertical direction with high spatial frequency varies and are projected in both directions with a high information content on the object surface (10) in that a structural image S (x, y) is recorded by the image sensor (20) from the object surface (10) and with a reference image R (x, y), in which the object surface (10) is connected to the same image sensor (20) Lighting with a uniform reference brightness from the same angle consecutively following od is simultaneously recorded pixel by pixel into a ratio image SR (x, y), wherein the different brightness values of the color patterns are encoded in one or two of three channels of the color sensor camera image sensor (20, 30) the pattern is a slide is used, on which the structural elements are applied in the form of band-stop filters of different attenuation or in the form of opaque areas.
Description
Stand der TechnikState of the art
Die Erfindung betrifft ein Verfahren zur Erzeugung eines Abstandbildes für die 3D-Rekonstruktion einer Objektoberfläche aus der Korrespondenz von Pixeln der Bilder mindestens eines Bildsensors, der die Szene aufnimmt, wobei mittels eines Projektors mit einer Strukturblende Muster mit Strukturelementen in Form von Grauwertmuster oder Farbmuster mit verrauschten zufälligen lokal unterschiedlichen Helligkeiten oder Farben auf die Objektoberfläche projiziert werden.The invention relates to a method for producing a distance image for the 3D reconstruction of an object surface from the correspondence of pixels of the images of at least one image sensor that receives the scene, with a pattern with structural elements in the form of gray value pattern or color pattern with a noise by means of a projector random locally different brightnesses or colors are projected onto the object surface.
Die Erfindung bezieht sich weiterhin auf eine entsprechende Vorrichtung mit einer Sensorikanordnung zur Erzeugung eines Abstandbildes für die 3D-Rekonstruktion einer Objektoberfläche aus der Korrespondenz von Pixeln der Bilder mindestens eines Bildsensors, wobei mittels einer Lichtquelle homogenes Licht auf die Objektoberfläche projizierbar ist und mit derselben oder einer zweiten Lichtquelle und einer Strukturblende Muster mit Strukturelementen in Form Grauwertmuster oder Farbmuster mit verrauschten zufälligen lokal unterschiedlichen Helligkeiten oder Farben auf die Objektoberfläche projizierbar sind.The invention further relates to a corresponding device with a sensor array for generating a distance image for the 3D reconstruction of an object surface from the correspondence of pixels of the images of at least one image sensor, wherein by means of a light source homogeneous light can be projected onto the object surface and with the same or a second light source and a structural shutter pattern with structural elements in the form of gray value pattern or color pattern with noisy random locally different brightnesses or colors are projected onto the object surface.
Die klassische Streifenprojektion mit einer Kamera und dazu kalibriertem Streifenprojektor führt die Erzeugung einer 3D-Punktewolke zur 3D-Rekonstruktion von Objektoberflächen durch die Aufnahme mehrerer Bilder mit Hilfe des Phasenshift-Verfahrens und des Graycode-Verfahrens, wobei jeweils die Streifenbreite zum vorherigen Bild halbiert wird und dadurch jede Streifenkante eindeutig einem Projektorstrahl zugeordnet werden kann, durch.The classic fringe projection with a camera and calibrated strip projector leads to the generation of a 3D point cloud for the 3D reconstruction of object surfaces by taking several pictures using the phase shift method and the Graycode method, in each case the strip width is halved to the previous image and thereby each strip edge can be clearly assigned to a projector beam, through.
Eine Erweiterung ist die Kombination von Streifenprojektoren mit einer Stereokameraanordnung, wobei die beiden Stereokameras zueinander kalibriert sind, so dass durch Korrespondenzpunktzuordnung des linken und des rechten Bildes aus der Stereo-Triangulation der Abstand in jedem Korrespondenzpunkt bestimmt werden kann. Die Korrespondenzpunkte liegen dabei auf den Epipolarlinien nach der Stereokalibrierung und Bildrektifizierung. Die Ebene, welche die beiden Projektionszentren der Kameras und der aufgenommene Objektpunkt aufspannen, wird dabei Epipolarebene genannt.An extension is the combination of fringe projectors with a stereo camera arrangement, wherein the two stereo cameras are calibrated to each other, so that by correspondence point assignment of the left and the right image from the stereo triangulation of the distance in each correspondence point can be determined. The correspondence points lie on the epipolar lines after the stereo calibration and image rectification. The plane which spans the two projection centers of the cameras and the recorded object point is called the epipolar plane.
Diese schneidet die beiden Bilder in jeweils einer Geraden, der so genannten Epipolarlinie. Der Projektor kann zusätzlich zu den beiden Kameras kalibriert sein. Die Projektorkalibrierung ist nicht notwendig und zudem aufwendig, erhöht aber in der Regel die Robustheit und Genauigkeit.This cuts the two images in each of a straight line, the so-called epipolar line. The projector may be calibrated in addition to the two cameras. The projector calibration is not necessary and also expensive, but usually increases the robustness and accuracy.
Die Streifen werden binär im Schwarz-Weiß-Wechsel mit Graubildkameras oder mit einer eigenen Farbe für jeden Streifen mit Farbkameras aufgenommen. Die Farbvariante vereinfacht die Korrespondenzpunktzuordnung, besitzt aber andere Probleme der Farbauswertung (z. B. u. a. Weißabgleich). Bei den genannten Verfahren werden statt Streifen auch andere geometrische oder texturierte Muster verwendet.The stripes are recorded binary in black and white with gray-scale cameras or with a separate color for each color-coded strip. The color variant simplifies the correspondence point assignment, but has other problems of color evaluation (eg, inter alia, white balance). In the methods mentioned, other geometric or textured patterns are used instead of strips.
In der
Die vorgeschlagenen Verfahrensvarianten mit Streifenmuster – vorzugsweise entlang von Epipolarlinien – umfassen sowohl Graubild- als auch Farbkameras, wobei die erste und zweite Beleuchtung mit unterschiedlichen Farben, vorzugsweise gleichzeitig (One-Shot-Verfahren) bei Verwendung eines Strahlteilers mit Polarisationsfilter oder Farbkameras erfolgt. Die Zufallsmuster werden vorzugsweise durch zwei überlagerte Gittermuster mit einem definierten Abstand projiziert, wobei die lokale Gitterkonstante mindestens eines Musters pseudo-zufällig variiert wird. Diese Muster werden von mindestens zwei Lichtquellen beleuchtet und ergeben dadurch unterschiedliche Moirémuster. Diese Muster können auch mit nur einer Projektionseinheit durch Überlagerung zweier der gegeneinander verschiebbaren Masken oder mit nur einer derartigen Maske durch rotatorische oder translatorische Bewegung erzeugt werden.The proposed method variants with stripe patterns - preferably along epipolar lines - include both gray-scale and color cameras, the first and second illumination with different colors, preferably simultaneously (one-shot method) using a beam splitter with polarization filter or color cameras. The random patterns are preferably projected by two superimposed grid patterns with a defined distance, wherein the local grid constant of at least one pattern is varied pseudorandomly. These patterns are illuminated by at least two light sources and thereby result in different moire patterns. These patterns can also be generated with only one projection unit by superposition of two mutually displaceable masks or with only one such mask by rotational or translational motion.
In der
Zur Erzeugung einer 3D-Punktewolke aus der 3D-Rekonstruktion von Objektoberflächen kann auch nach dem Stand der Technik vorgesehen sein, die zu vermessende Objektoberfläche mit farbigen Mustern zu beleuchten.To generate a 3D point cloud from the 3D reconstruction of object surfaces, it can also be provided according to the prior art to illuminate the object surface to be measured with colored patterns.
Aus der Patentanmeldung
Eine weitere Patentanmeldung der Anmelderin (
Aus der
Die
Aus der
Nachteilig beim oben zitierten Stand der Technik nach [1] ist, dass zwei Kameras benötigt werden. Außerdem ist ein weiterer Nachteil, dass aufgrund der verwendeten vertikalen Streifenmuster zwar die Stabilität der Korrespondenzpunktzuordnung in horizontaler Richtung deutlich verbessert werden kann, aber in vertikaler Richtung die Korrespondenzpunktzuordnung bei bestimmten detailreichen Objektoberflächen noch unzureichend sein kann.A disadvantage of the above cited prior art according to [1] is that two cameras are needed. In addition, a further disadvantage is that although the stability of the correspondence point assignment in the horizontal direction can be significantly improved due to the vertical striped pattern used, in the vertical direction the correspondence point assignment may still be insufficient for certain detail-rich object surfaces.
Gemäß dem Stand der Technik nach [2] ist nachteilig, dass die Robustheit bzw. die Stabilität der Korrespondenzpunktzuordnung infolge von störenden Oberflächeneffekten noch unzureichend ist Es ist daher Aufgabe der Erfindung, ein Verfahren zur Erzeugung eines Abstandbildes aus der 3D-Rekonstruktion von Objektoberflächen bereitzustellen, welches gegenüber dem Stand der Technik einerseits die Stabilität der Korrespondenzpunktzuordnung sowohl in x- und in y-Richtung der Objektoberfläche erhöht und andererseits einen einfachen, kompakten Aufbau ermöglicht.According to the prior art according to [2], it is disadvantageous that the robustness or the stability of the correspondence point assignment is still insufficient due to disturbing surface effects. It is therefore an object of the invention to provide a method for producing a distance image from the 3D reconstruction of object surfaces, which, on the one hand, increases the stability of the correspondence point assignment both in the x and y direction of the object surface compared with the prior art and, on the other hand, enables a simple, compact construction.
Es ist weiterhin Aufgabe der Erfindung, eine entsprechende Vorrichtung bereitzustellen, mit der das erfindungsgemäße Verfahren durchführbar ist.It is a further object of the invention to provide a corresponding device with which the method according to the invention can be carried out.
Vorteile der ErfindungAdvantages of the invention
Die das Verfahren betreffende Aufgabe wird dadurch gelöst, dass Muster mit Strukturelementen in Form von Grauwertmuster oder Farbmuster sowohl in horizontaler als auch in vertikaler Richtung mit hoher Raumfrequenz variiert und in beiden Richtungen mit einem hohen Informationsgehalt auf die Objektoberfläche projiziert werden, wobei mit dem Bildsensor ein Strukturbild S(x, y) von der Objektoberfläche aufgenommen und mit einem Referenzbild R(x, y), bei welchem die Objektoberfläche mit dem gleichen Bildsensor bei einer Beleuchtung mit einer gleichförmigen Referenzhelligkeit aus gleichem Blickwinkel zeitlich nacheinander folgend oder gleichzeitig aufgenommen wurde, pixelweise zu einem Verhältnisbild SR(x, y) ins Verhältnis gesetzt wird.The object relating to the method is achieved by varying patterns with structural elements in the form of gray value patterns or color patterns both in the horizontal and in the vertical direction with high spatial frequency and projecting them onto the object surface in both directions with a high information content Structure image S (x, y) taken from the object surface and with a reference image R (x, y), in which the object surface with the same image sensor with a uniform reference brightness from the same angle consecutively following or simultaneously recorded, pixel by pixel to a ratio image SR (x, y) is set in proportion.
Die pixelweise Verhältnisbildung bei der Erzeugung des Verhältnisbildes SR(x, y) kann anhand einer experimentell oder rechnerisch ermittelten Tabelle bestimmt werden, die einer Lichtempfindlichkeitskennlinie der Bildsensoren für den jeweiligen Wellenlängenbereich des projizierten Strukturelementes entspricht. Mit diesem LUT-Verfahren (Look-up Table) können diese Rechenoperationen sehr schnell durchgeführt werden, so dass sehr schnelle Bildfolgen realisiert werden können.The pixel-by-pixel ratio formation in the generation of the ratio image SR (x, y) can be determined on the basis of an experimentally or computationally determined table which corresponds to a photosensitivity characteristic of the image sensors for the respective wavelength range of the projected structure element. With this LUT (Look-up Table) method, these arithmetic operations can be carried out very quickly, so that very fast image sequences can be realized.
Die die Vorrichtung betreffende Aufgabe wird dadurch gelöst, dass die Strukturblende Muster mit Strukturelementen in Form von Grauwertmuster, binären Schwarz-Weiß-Muster oder Farbmuster als Rauschmuster in Form von Pixelmuster aufweist, die sowohl in horizontaler als auch in vertikaler Richtung mit hoher Raumfrequenz variieren und in beiden Richtungen einen hohen Informationsgehalt aufweisen. The object relating to the device is achieved by the fact that the structural blend has patterns with structural elements in the form of gray value patterns, binary black-and-white patterns or color patterns as noise patterns in the form of pixel patterns that vary in both horizontal and vertical directions with high spatial frequency and have a high information content in both directions.
Im Gegensatz zu den im Stand der Technik [2] erwähnten Verfahren ist die vorgeschlagene Verfahrensart durch die Verhältnisbildung vom Strukturmuster zur homogenen Referenzbeleuchtung weitgehend unabhängig vom Betrachtungswinkel und gegenüber der Farbe, Helligkeit, Oberflächenrauhigkeit und Oberflächenneigung sowie einer Textur der betrachteten Objektoberfläche, so dass keine aufwändige Bildanalyse zur Korrespondenzpunktfindung mangels eindeutiger Bildmerkmale und ausreichenden Kontrasts notwendig ist. Gegenüber der
Durch die Verwendung von Farbmustern in Form von Pixelmuster mit hoher Punktdichte und höherem Kontrast von zueinander benachbarten Pixel im Vergleich zu Grauwertmustern kann die Korrespondenzpunktfindung gegenüber dem Stand der Technik [2] verbessert werden. Dadurch wird das Matching der Sub-Pattern von Projektionsmuster und Kamerabildern robuster. Außerdem können im Vergleich zu Binär-Mustern kleinere Sub-Pattern wieder erkannt werden, da ein höherer Informationsgehalt auf gleicher Fläche mit einer höheren Pixelanzahl kodiert ist. Mit kleinerem Sub-Pattern ist die Gefahr geringer, dass einzelne Bereiche nicht erkannt werden, wenn ein Teil des Patterns verdeckt ist oder nicht genügend Kontrast besitzt.By using color patterns in the form of pixel patterns with high dot density and higher contrast of mutually adjacent pixels compared to gray value patterns, the correspondence point finding over the prior art [2] can be improved. This makes matching the sub-patterns of projection patterns and camera images more robust. In addition, smaller sub-patterns can be recognized again compared to binary patterns, since a higher information content is encoded on the same area with a higher number of pixels. With a smaller sub-pattern, there is less danger that individual areas will not be recognized if part of the pattern is obscured or does not have enough contrast.
Eine Verfahrensvariante sieht dabei vor, dass mit mindestens einem ersten Bildsensor und mindestens einem zweiten Bildsensor, die die Szene in Stereo-Anordnung aufnehmen, oder mit nur einem Bildsensor und einem dazu kalibrierten Projektor zur Projektion der Grauwert- oder Farbmuster auf die Objektoberfläche die Abstandsbilder erzeugt werden. Die zwei als Kameras ausgeführten Bildsensoren in Stereoanordnung können dabei mit dem Projektor unkalibriert oder zur Erhöhung der Robustheit auch kalibriert zueinander angeordnet sein.One variant of the method provides that the distance images are generated with at least one first image sensor and at least one second image sensor, which record the scene in stereo arrangement, or with only one image sensor and a calibrated projector for projecting the grayscale or color pattern onto the object surface become. The two image sensors in the form of stereo cameras arranged as cameras can be uncalibrated with the projector or calibrated to increase robustness.
Gegenüber [1] kann durch die Verwendung eines Rauschmusters mit hoher Punktedichte und hohem horizontalen sowie vertikalen Informationsgehalt, wie es in dieser Erfindung vorgeschlagen wird, die Rekonstruktion von sehr dichten Abstandwerten für jedes Pixel sowohl in horizontaler als auch vertikaler Richtung mit Standardverfahren zur Korrelation von Sub-Pattern des Projektionsmusters mit dem Kamerabild sowie mit Standardverfahren zur Korrespondenzpunktzuordnung von dichten Stereoverfahren (D. Scharstein/R. Szeliski „High-accuracy stereo depth maps using structured light”, IEEE Conference for Computer Vision and Pattern Recognition, Vol. 1, Madison, Winsconsin, USA, June 2003 [7] bzw. Heiko Hirschmüller „Stereo Vision in Structured Environments by Consistent Semi-Global Matching”, Institut of Robotics and Mechatronics, Oberpfaffenhofen, German Aerospace Center (DLR) [8]) im Falle von zwei Kameras ermöglicht werden. Daraus kann für jedes Pixel die Disparität und damit der Abstand zur Kamerabasis mit Hilfe der Kalibrierung von Kamera zu Projektor und/oder bei zwei oder mehr Kameras der Stereokalibrierung berechnet werden.Compared to [1], by using a high dot density, high horizontal and vertical information content noise pattern, as proposed in this invention, the reconstruction of very dense distance values for each pixel in both horizontal and vertical directions can be used with standard Sub Eq -Pattern of the projection pattern with the camera image as well as standard methods for the correspondence point assignment of dense stereo methods (D. Scharstein / Szeliski "High-accuracy stereo depth maps using structured light", IEEE Conference for Computer Vision and Pattern Recognition, Vol. Winsconsin, USA, June 2003 [7] and Heiko Hirschmüller "Stereo Vision in Structured Environments by Consistent Semi-Global Matching", Institute of Robotics and Mechatronics, Oberpfaffenhofen, German Aerospace Center (DLR) [8]) in the case of two cameras be enabled. From this, the disparity and thus the distance to the camera base can be calculated for each pixel with the aid of the calibration from camera to projector and / or with two or more cameras of the stereo calibration.
Im Gegensatz zur
Vorteilhaft ist bei den zuvor beschrieben Verfahrensvarianten, wenn die mittels der Strukturblende erzeugte Beleuchtung zur Erzeugung des Strukturbildes S(x, y) und die Beleuchtung mit der gleichförmigen Referenzhelligkeit zur Erzeugung des Referenzbildes R(x, y) überlagert werden.It is advantageous in the method variants described above if the illumination generated by means of the structure diaphragm for generating the structure image S (x, y) and the illumination with the uniform reference brightness are superimposed to produce the reference image R (x, y).
Dabei kann vorgesehen sein, dass die Pixelmuster aus einem farbigen Rauschmuster gebildet werden und die verschiedenen Helligkeitswerte in einem oder zwei von drei Kanälen einem als Farbkamera ausgebildeten Bildsensor, insbesondere in den Primärfarben Rot, Grün und Blau, kodiert werden.It can be provided that the pixel patterns are formed from a colored noise pattern and the different brightness values are encoded in one or two of three channels of an image sensor designed as a color camera, in particular in the primary colors red, green and blue.
Eine besonders bevorzugte Verfahrensvariante sieht in einem so genannten One-Shot-Verfahren vor, dass das Strukturbild S(x, y) und das Referenzbild R(x, y) gleichzeitig mit den Bildsensoren aufgenommen werden, wobei das Referenzbild R(x, y) mittels einer homogenen farbigen Beleuchtung in einem bestimmten Wellenlängenbereich des sichtbaren Lichtes und das Strukturbild S(x, y) mittels der Strukturblende in einem dazu komplementären Wellenlängenbereich des sichtbaren Lichtes aufgenommen wird. Das Referenzbild R(x, y) wird beispielsweise generiert, indem eine unstrukturierte homogene Beleuchtung im grünen und/oder blauen Wellenlängenbereich erzeugt wird und gleichzeitig das Strukturbild S(x, y) mittels einer strukturierten Beleuchtung im roten Wellennlängenbereich generiert wird. Diese Verfahrensvariante ermöglicht eine Shading-Korrektur insbesondere bei dynamischen Bildszenen mit bewegten Objekten. Damit werden beispielsweise auch schnelle Objektanalysen während Fertigungsabläufen mit kurzen Fertigungstaktzeiten ermöglicht.A particularly preferred method variant provides in a so-called one-shot method that the structure image S (x, y) and the reference image R (x, y) are recorded simultaneously with the image sensors, the reference image R (x, y) is recorded by means of a homogeneous colored illumination in a specific wavelength range of the visible light and the structure image S (x, y) by means of the structural aperture in a complementary wavelength range of the visible light. The reference image R (x, y) is generated, for example, by generating an unstructured homogeneous illumination in the green and / or blue wavelength range and at the same time the structure image S (x, y) is generated by means of a structured illumination in the red wavelength range. This variant of the method enables a shading correction, in particular for dynamic image scenes with moving objects. This allows, for example, fast object analyzes during production processes with short production cycle times.
Dabei kann das homogene farbige Licht zur Aufnahme des Referenzbildes R(x, y) und das strukturierte Licht zur Aufnahme des Strukturbildes S(x, y) durch einen semitransparenten Strahlteiler auf die Objektoberfläche projiziert werden, womit sich insgesamt für einen derartigen Projektor ein kompakter und auch kostengünstiger Aufbau, ohne mechanisch bewegte Teile, ergibt. In this case, the homogeneous colored light for recording the reference image R (x, y) and the structured light for recording the pattern image S (x, y) can be projected onto the object surface by a semitransparent beam splitter, resulting overall in a compact and compact projector also cost-effective structure without mechanically moving parts results.
Für die Projektion zur Aufnahme des Referenzbildes R(x, y) und des Strukturbildes S(x, y) wird näherungsweise monochromatisches Licht unterschiedlicher Farbe oder Weißlicht mit verschiedenen Farbfiltern in getrennten oder im selben Lichtweg verwendet. Als näherungsweise monochromatische Lichtquellen werden insbesondere farbige LEDs eingesetzt, mit denen sich inzwischen sehr kompakte, leistungsfähige und zudem kostengünstige Lichtquellen für die Projektion realisieren lassen.For the projection to take the reference image R (x, y) and the structure image S (x, y) approximately monochromatic light of different color or white light with different color filters in separate or in the same light path is used. As approximately monochromatic light sources in particular colored LEDs are used, which can be realized in the meantime very compact, powerful and also cost-effective light sources for the projection.
Eine besonders kompakte und lichtstarke Weißlichtquelle kann mit einer Weißlicht-LED mit hoher Lichtausbeute realisiert werden. Derartige High-Power- oder High-Brighness-LEDs lassen sich zudem im Blitzbetrieb kurzzeitig mit bis zum 20-fachen Nennstrom betreiben, so dass extrem helle Lichtblitze erzeugt werden können, was vorteilhaft hinsichtlich einer kurzen Belichtungszeit insbesondere bei bewegten Objektoberflächen ist.A particularly compact and bright white light source can be realized with a white light LED with high light output. Such high-power or high-brighness LEDs can also be operated in the flash mode for a short time with up to 20 times the rated current, so that extremely bright flashes of light can be generated, which is advantageous in terms of a short exposure time, especially in moving object surfaces.
In einfacher Weise ist vorgesehen, dass zur Erzeugung der Muster ein Dia verwendet wird, auf dem die Strukturelemente in Form von Bandsperrfiltern unterschiedlicher Dämpfung oder in Form von lichtundurchlässigen Bereichen aufgebracht sind. Die Bandsperrfilter lassen z. B. bei einer Weißlichtquelle alle Lichtwellenlängen außer den Lichtwellenlängen einer bestimmten Farbe (z. B. rot) ungehindert durch. Die einzelnen Strukturelemente dämpfen jeweils unterschiedlich stark lediglich den einen Wellenlängenbereich des Bandsperrfilters ab (hier z. B. rot), so dass dadurch ein strukturiertes Muster mit unterschiedlichen Helligkeitsstufen z. B. der Farbe Rot erzeugt werden kann. Dieses Dia kann im Strahlengang zwischen einer Lichtquelle und der Objektoberfläche platziert werden. So können sowohl Dias mit Farbmustern als auch zueinander ins Verhältnis gesetzte Grauwertmuster in unterschiedlichen Farbkanälen gewählt werden. Je nach Objektbeschaffenheit können durch Wechsel des Dias unterschiedliche Muster projiziert werden. Damit kann beispielsweise die Raumfrequenz zur Erzeugung der Pixelmuster oder die Helligkeitsabstufungen an die Messaufgabe angepasst werden. Ebenso lässt sich auch die Farbe der Muster an die Objektfarbe anpassen. Grundsätzlich sind auch rechnergestützte Mustergeneratoren denkbar, mit denen ein oder mehrere LCD-Filter im Strahlengang zwischen Lichtquelle und Objektoberfläche angesteuert werden können.In a simple way it is provided that a slide is used to produce the pattern on which the structural elements are applied in the form of band-stop filters of different attenuation or in the form of opaque areas. The bandstop filter can be z. For example, in a white light source, all light wavelengths except the wavelengths of light of a particular color (eg, red) will pass unimpeded. The individual structural elements attenuate each other to a different extent only the one wavelength range of the band rejection filter (here, for example red), so that thereby a structured pattern with different brightness levels z. B. the color red can be generated. This slide can be placed in the beam path between a light source and the object surface. Thus, both slides with color patterns as well as relative gray value patterns in different color channels can be selected. Depending on the condition of the object, different patterns can be projected by changing the slide. Thus, for example, the spatial frequency for generating the pixel pattern or the brightness gradations can be adapted to the measurement task. Similarly, the color of the pattern can be adapted to the object color. In principle, computer-aided pattern generators are also conceivable with which one or more LCD filters in the beam path between the light source and the object surface can be controlled.
Als Bildsensoren werden bevorzugt hochdynamische Graubildkameras (z. B. 10 bis 16 bit CCD oder CMOS-Kameras) oder Farbbildkameras (z. B. mit 8 bis 10 bit Farbtiefe) eingesetzt, die einerseits eine hohe Auflösung und andererseits eine hohe Empfindlichkeit sowie ein geringes Rauschen aufweisen.The image sensors used are preferably highly dynamic gray-scale cameras (for example 10 to 16-bit CCD or CMOS cameras) or color image cameras (for example having 8 to 10-bit color depth) which on the one hand have a high resolution and on the other hand a high sensitivity and a low sensitivity Have noise.
Zur zusätzlichen Erhöhung der Robustheit bei der Identifikation der einzelnen Musterelemente können für alle zuvor beschriebenen Verfahrensvarianten mit einem Laser und einem diffraktiven optischen Element (DOE) dem auf die Objektoberfläche projizierten Pixelmuster in regelmäßigen Abständen Markierungen in Form von hellen Laserspots zusätzlich überlagert werden.In order to additionally increase the robustness in the identification of the individual pattern elements, markings in the form of bright laser spots can be additionally superimposed at regular intervals on the pixel patterns projected onto the object surface for all previously described process variants with a laser and a diffractive optical element (DOE).
Zur Bestimmung einer 3D-Objektlage im Raum kann vorgesehen sein, dass vor den zu detektierenden Bauteilen bzw. Objektoberflächen jeweils ein Trainingsobjekt in einer Einlernphase von verschiedenen Seiten mit einem oder mehreren Bildsensoren mit Farbstreifen oder alternativ dazu zum einen mit dem projizierten Muster und zum anderen mit unstrukturierter homogener Beleuchtung zeitlich nacheinander folgend oder gleichzeitig aufgenommen und eine 3D-Punktewolke für jede Ansicht aus dem jeweiligen Verhältnisbild SR(x, y) oder dem Strukturbild S(x, y) rekonstruiert wird und die 3D-Punktewolke der verschiedenen Ansichten zu einem Trainingsmodell im 3D-Raum überlagert werden. Weiterhin ist vorgesehen, dass zur Objektlagebestimmung eine 3D-Punktewolke aus einer bestimmten Ansicht generiert und in diese 3D-Punktewolke das Trainingsmodell angepasst wird, indem das Trainingsmodell durch Transformation skaliert, gedreht und/oder verschoben wird. Die Endlage des Trainingsmodells in der 3D-Punktewolke entspricht der 3D-Lage im Raum des zu detektierenden Zielobjektes. Man erhält damit eine 3D-Objektlageerkennung durch ein so genanntes 3D-Matching eines trainierten Modells.To determine a 3D object position in space, it may be provided that in front of the components or object surfaces to be detected in each case a training object in a learning phase from different sides with one or more image sensors with color stripes or alternatively with the projected pattern and on the other unstructured homogeneous illumination sequentially following or simultaneously recorded and a 3D point cloud for each view from the respective ratio image SR (x, y) or the structure image S (x, y) is reconstructed and the 3D point cloud of the different views to a training model in the 3D space to be overlaid. Furthermore, it is provided that for object position determination, a 3D point cloud is generated from a specific view and the training model is adapted to this 3D point cloud by scaling, rotating and / or shifting the training model by transformation. The end position of the training model in the 3D point cloud corresponds to the 3D position in the space of the target object to be detected. This gives a 3D object position detection by means of a so-called 3D matching of a trained model.
Das erfindungsgemäße Verfahren, wie es in seinen verschiedenen Varianten zuvor beschrieben wurde, kann beispielsweise zur Oberflächenprüfung, Oberflächenvermessung, beispielsweise bei Sichtprüfplätzen oder Oberflächenqualitätsprüfsystemen, zur Objektlagebestimmung, insbesondere für Fügeprozesse, Greif- und Ablegeaufgaben oder Sortieraufgaben beim Einsatz von Roboter-Handlingssystemen, oder für einen 3D-Scanner eingesetzt werden. Insbesondere kann das Verfahren auch als schnelles 3D-Scanning-System beispielsweise zur Lagekontrolle von bewegten Bauteilen bzw. Objektoberflächen eingesetzt werden.The inventive method, as described in its various variants, can, for example, for surface inspection, surface measurement, for example in Sichtprüfplätzen or surface quality testing systems, for object position determination, especially for joining processes, gripping and Ablegeaufgaben or sorting tasks when using robotic handling systems, or for a 3D scanners are used. In particular, the method can also be used as a fast 3D scanning system, for example for positional control of moving components or object surfaces.
Zeichnungendrawings
Die Erfindung wird im Folgenden anhand der in den Figuren dargestellten Ausführungsbeispiele näher erläutert. Es zeigen:The invention will be explained in more detail below with reference to the exemplary embodiments illustrated in the figures. Show it:
Beschreibung der AusführungsbeispieleDescription of the embodiments
Die Strukturblende
In einfacher Weise ist vorgesehen, dass als Strukturblende
Mit dieser Anordnung gemäß
Für die Projektion zur Aufnahme des Referenzbildes R(x, y) und des Strukturbildes S(x, y) wird bevorzugt näherungsweise monochromatisches Licht unterschiedlicher Farbe oder Weißlicht mit verschiedenen Farbfiltern verwendet. Als näherungsweise monochromatische Lichtquellen
Für eine Shading-Korrektur werden das Strukturbild S(x, y) und das Referenzbild R(x, y) zueinander pixelweise zu einem Verhältnisbild SR(x, y) mittels der Beziehung
Bei dem Ausführungsbeispiel der Vorrichtung nach
In
Eine Alternative zur dargestellte Variante einer Strukturblende
Mit den zuvor beschriebenen Sensorikanordnungen
Gegenüber dem Stand der Technik kann mit dem Verfahren und der Vorrichtung die Stabilität der Korrespondenzpunktzuordnung insbesondere zur Oberflächenprüfung, Oberflächenvermessung, zur Objektlagebestimmung, insbesondere für Fügeprozesse, Greif- und Ablegeaufgaben oder Sortieraufgaben, oder für einen 3D-Scanner sowohl in x- als auch in y-Richtung der Objektoberfläche erhöht werden.Compared with the prior art can with the method and the device, the stability of the correspondence point assignment in particular for surface inspection, surface measurement, object position determination, especially for joining processes, gripping and Ablegeaufgaben or sorting tasks, or for a 3D scanner in both x and y Direction of the object surface can be increased.
Claims (18)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008002725A DE102008002725B4 (en) | 2008-06-27 | 2008-06-27 | Method and device for 3D reconstruction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008002725A DE102008002725B4 (en) | 2008-06-27 | 2008-06-27 | Method and device for 3D reconstruction |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102008002725A1 DE102008002725A1 (en) | 2009-12-31 |
DE102008002725B4 true DE102008002725B4 (en) | 2013-11-07 |
Family
ID=41360364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102008002725A Active DE102008002725B4 (en) | 2008-06-27 | 2008-06-27 | Method and device for 3D reconstruction |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102008002725B4 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11928830B2 (en) | 2021-12-22 | 2024-03-12 | Honeywell International Inc. | Systems and methods for generating three-dimensional reconstructions of environments |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008042261B4 (en) | 2008-09-22 | 2018-11-15 | Robert Bosch Gmbh | Method for the flexible handling of objects with a handling device and an arrangement for a handling device |
DE102008042260B4 (en) | 2008-09-22 | 2018-11-15 | Robert Bosch Gmbh | Method for the flexible handling of objects with a handling device and an arrangement for a handling device |
DE102010036852C5 (en) | 2010-08-05 | 2018-03-22 | Sick Ag | stereo camera |
DE102011010265A1 (en) * | 2011-02-01 | 2012-08-02 | Friedrich-Schiller-Universität Jena | Method for reconstructing three-dimensional objects used in quality control application, involves generating gray value profiles from subset of pattern image sequence and subset of surface of object shifted fringe patterns |
DE102011101476B4 (en) * | 2011-05-11 | 2023-05-25 | Cognex Ireland Ltd. | Process for 3D measurement of objects |
DE102013015777B4 (en) * | 2013-09-21 | 2024-02-15 | Optonic Gmbh | Stereo camera with projector to generate a test image |
CN110966981B (en) * | 2018-09-30 | 2023-03-24 | 北京奇虎科技有限公司 | Distance measuring method and device |
US11359915B1 (en) * | 2020-05-15 | 2022-06-14 | Lockheed Martin Corporation | Active optical compressive sensing |
CN114279356B (en) * | 2021-12-09 | 2023-07-25 | 南京信息工程大学 | Gray scale fringe pattern design method for three-dimensional measurement |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10063293A1 (en) * | 2000-12-19 | 2002-07-04 | Fraunhofer Ges Forschung | Multi-channel inspection of moving surfaces involves synchronizing two radiation sources with image generation frequency of image acquisition device to alternately illuminate surface |
US6549288B1 (en) * | 1998-05-14 | 2003-04-15 | Viewpoint Corp. | Structured-light, triangulation-based three-dimensional digitizer |
DE102006001634B3 (en) * | 2006-01-11 | 2007-03-01 | Tropf, Hermann | Creation of distance-image from correspondence between pixels from two cameras, by illuminating with random grid, and comparing brightness ratios of pixels |
US20070075997A1 (en) * | 2005-09-22 | 2007-04-05 | Janos Rohaly | Artifact mitigation in three-dimensional imaging |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10359104B3 (en) | 2003-12-17 | 2005-10-13 | Universität Karlsruhe | Method for dynamic, three-dimensional acquisition and display of a surface |
DE102006048725A1 (en) | 2006-10-16 | 2008-04-17 | Robert Bosch Gmbh | Method for determining the axis of rotation of a vehicle wheel |
DE102006048726A1 (en) | 2006-10-16 | 2008-04-17 | Robert Bosch Gmbh | Method for measuring the wheel or axle geometry of a vehicle |
-
2008
- 2008-06-27 DE DE102008002725A patent/DE102008002725B4/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6549288B1 (en) * | 1998-05-14 | 2003-04-15 | Viewpoint Corp. | Structured-light, triangulation-based three-dimensional digitizer |
DE10063293A1 (en) * | 2000-12-19 | 2002-07-04 | Fraunhofer Ges Forschung | Multi-channel inspection of moving surfaces involves synchronizing two radiation sources with image generation frequency of image acquisition device to alternately illuminate surface |
US20070075997A1 (en) * | 2005-09-22 | 2007-04-05 | Janos Rohaly | Artifact mitigation in three-dimensional imaging |
DE102006001634B3 (en) * | 2006-01-11 | 2007-03-01 | Tropf, Hermann | Creation of distance-image from correspondence between pixels from two cameras, by illuminating with random grid, and comparing brightness ratios of pixels |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11928830B2 (en) | 2021-12-22 | 2024-03-12 | Honeywell International Inc. | Systems and methods for generating three-dimensional reconstructions of environments |
Also Published As
Publication number | Publication date |
---|---|
DE102008002725A1 (en) | 2009-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102008002725B4 (en) | Method and device for 3D reconstruction | |
DE102008002730B4 (en) | Method and device for 3D reconstruction | |
DE19983341B4 (en) | Method and device for acquiring stereoscopic images using image sensors | |
EP2079981B1 (en) | Device and method for the contactless detection of a three-dimensional contour | |
DE102012112322B4 (en) | Method for optically scanning and measuring an environment | |
DE102015209404B4 (en) | Method and camera for three-dimensional measurement of a dental object | |
DE102006001634B3 (en) | Creation of distance-image from correspondence between pixels from two cameras, by illuminating with random grid, and comparing brightness ratios of pixels | |
EP1971820A1 (en) | Creation of a distance image | |
EP3298345B1 (en) | Camera and method for the three-dimensional measurement and colour measurement of a dental object | |
DE102011114674C5 (en) | Method and device for determining the 3D coordinates of an object | |
EP2583055A1 (en) | Optical measurement method and measurement system for determining 3d coordinates on a measurement object surface | |
EP0923705B1 (en) | Method and device for determining the spatial coordinates of objects | |
DE10149750A1 (en) | Imaging, measuring at least part of surface of at least one three-dimensional object involves computing 3D information continuously using multiple acquisition units and self-calibration data | |
EP2799810A1 (en) | Apparatus and method for simultaneous three-dimensional measuring of surfaces with multiple wavelengths | |
DE102009018464B4 (en) | Optical sensor | |
EP2865987A1 (en) | Method and scanner for the non-contact determination of the position and three-dimensional shape of products on a moving surface | |
DE102016100132B4 (en) | A method and apparatus for inspecting an object using machine vision | |
DE102017116758A1 (en) | Method and device for scanning surfaces with a stereo camera | |
DE102006042311A1 (en) | Method and device for the three-dimensional measurement of objects in an extended angle range | |
EP2019961B1 (en) | Method for generating image information | |
WO2000066972A1 (en) | Method and device for scanning objects | |
DE102014104903A1 (en) | Method and sensor for generating and detecting patterns on a surface | |
DE102012102580A1 (en) | Method for measuring an object and intraoral scanner | |
DE10359104B3 (en) | Method for dynamic, three-dimensional acquisition and display of a surface | |
DE19846145A1 (en) | Three-dimensional imaging device for shape measurement has transmitter array whose elements move in straight, parallel lines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |
Effective date: 20140208 |