DE19525561A1 - 3D-Meßvorrichtung - Google Patents
3D-MeßvorrichtungInfo
- Publication number
- DE19525561A1 DE19525561A1 DE19525561A DE19525561A DE19525561A1 DE 19525561 A1 DE19525561 A1 DE 19525561A1 DE 19525561 A DE19525561 A DE 19525561A DE 19525561 A DE19525561 A DE 19525561A DE 19525561 A1 DE19525561 A1 DE 19525561A1
- Authority
- DE
- Germany
- Prior art keywords
- plane
- points
- coordinate
- observation
- lines
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
Die Erfindung betrifft eine 3D-Meßvorrichtung, die eine 3D-Form
sowie insbesondere die Position und Orientierung zur
Umgebung eines Objekts, insbesondere eines Objektes mit
geraden Begrenzungsflächen und Kanten, insbesondere eines
Quaders, mißt, und insbesondere eine 3D-Meßvorrichtung, bei
der ein binokulares stereoskopisches Betrachtungsverfahren
mit einem aktiven stereoskopischen Verfahren kombiniert wird.
Die Verfahren zur Messung einer 3D-Form eines Objekts
werden in das binokulare stereoskopische Betrachtungs
verfahren (stereoskopisches Bildverfahren), das Trimetrogon-Betrachtungsverfahren,
das Ocellus-Betrachtungsverfahren, das
Dauerbildverfahren, das Linsenbrennpunktverfahren u. dgl.
klassifiziert, die vom passiven Typ (= keine zusätzliche
Bestrahlung des Objektes) sind, sowie das
Radarstrahlverfahren, das aktive stereoskopische Verfahren,
das Moireverfahren u. dgl., die vom aktivem (= aktive
Bestrahlung des Objektes) Typ sind. Beim binokularen
stereoskopischen Betrachtungsverfahren, das ein
repräsentatives Beispiel des passiven Typs ist, werden die
Positionen zweier Punkte (entsprechende Punkte), die dem
gleichen Punkt in einer Szene entsprechen, auf den jeweiligen
Bildern dadurch berechnet, daß sie durch eine linke und eine
rechte Kamera aufgenommen werden, und ein Abstand wird
durch das Triangulationsprinzip gebildet. Bei dem aktiven
stereoskopischen Verfahren, das ein repräsentatives Beispiel
des aktiven Typs ist, wird ein Spaltstrahl oder ein Musterstrahl,
z. B. mit einem Projektor, auf ein Objekt abgestrahlt, und ein
Abstand wird aus einem Bild erzeugt, das durch eine einzige
Kamera aus einem anderem Winkel ähnlich dem Triangu
lationsprinzip aufgenommen wurde.
Der Abstand ist der Abstand des Objekts von der Kamera bzw.
vom Projektor, wobei die Richtung der Verbindungslinie
zwischen dem Objekt und dem Projektor bzw. der Kamera
ebenfalls bekannt ist.
Es ist nicht möglich, Punkte mit den binokularen
stereoskopischen Betrachtungsverfahren (Fig. 13) direkt in
Übereinstimmung zu bringen, und es wird ein Verfahren
durchgeführt, bei dem eine Kante bezüglich des linken und
rechten Bildes abgetastet werden, und linke und rechte Punkte
entsprechen einander nach Durchführung einer Berechnung
einer Koordinate an einem Schnittpunkt bzw. einer
Unterbrechung oder einem Versatz der Kante. Daher kann ein
Fehler verstärkt werden. Insbesondere besteht das Bestreben,
daß ein Meßfehler in der Tiefenrichtung, d. h., einer
Komponenten in z-Richtung aufweisenden Bildaufnahme
richtung, im Vergleich zu den Fehlern in der Auf- und
Abwärtsrichtung und der linken und rechten Richtung erheblich
groß wird. Die beiden Bilddaten, die von der linken und rechten
Kamera empfangen werden, umfassen jeweils einen
Kameraebenen-Koordinatenwert u, v, und eine 3D-Weltkoordinate,
die tatsächlich gemessen wird, wird durch x,
y, z angegeben. Wenn hierbei die Bildaufnahme von oben
durchgeführt wird, wirkt sich die Abweichung jeder Richtung
von u und v auf den Bilddaten am meisten in der
Höhenrichtung aus. Wenn als spezielles Beispiel in einer
bestimmten 3D-Meßvorrichtung die Koordinate des
entsprechenden Punktes um ein Pixel in der u- oder v-Richtung
abweicht, wird, obwohl ein Fehler von 2 mm auf der x- und y-Ebene
verursacht wird, ein Fehler von etwa 10 mm in der z-Richtung
verursacht. Wenn die Koordinate um ein Pixel jeweils
in der u- und der v-Richtung abweicht, gibt die Abweichung
einen Fehler zweimal so groß wie der obige Fehler und mehr
ab, d. h., von 20 mm und mehr.
Obwohl es mit dem aktiven stereoskopischen Verfahren (Fig.
14) möglich ist, eine Anzahl von entsprechenden Punkten
auszuwählen, besteht das Problem der Eichung eines einen
Strahl abgebenden Projektors. Die Eichung einer Kamera kann
automatisch nur durch Aufnahme einer bekannten Gittertabelle
durchgeführt werden. Bei der Eichung eines Projektors jedoch
muß eine Bedienungsperson eine Position, auf die ein Strahl
auftrifft, durch direkte Beobachtung und Einstellung messen.
Es wird daher ein erheblicher Meßfehler verursacht, und es ist
viel Zeit für die Operation notwendig. Bezüglich der Verzerrung
eines optischen Systems können die entsprechenden Punkte in
2D-Koordinaten in einer Kamera beobachtet werden, und daher
kann die Beseitigung dieser Verzerrung durch eine Anzahl
entsprechender Punkte mit erheblicher Genauigkeit
durchgeführt werden. Die Beseitigung der Verzerrung ist bei
einem Projektor schwierig, da er nur eindimensionale
Koordinaten hat.
Der Erfindung liegt die Aufgabe zugrunde, ein 3D-Meßverfahren
zu schaffen, das einen Meßfehler in der z-Komponenten
enthaltenden Tiefenrichtung insbesonders in Richtung der
Bildaufnahme minimiert, und bei dem die Eichung eines
Projektors nicht erforderlich ist.
Gelöst wird diese Aufgabe gemäß der Erfindung durch die im
Anspruch 1 angegebenen Merkmale. Zweckmäßige Ausge
staltungen der Erfindung ergeben sich aus den
Unteransprüchen.
Bei dem obigen Aufbau ergibt sich die folgende Arbeitsweise:
Beim 3D-Meßverfahren entsprechend einer ersten Erfindung wird eine stereoskopische Bildaufnahme durchführt, während ein Musterstrahl, insbesondere ein Spaltstrahl, abgegeben wird. Wenn der Musterstrahl bei der Messung auf ein Objekt abgegeben wird, werden eine oder mehrere Schnittlinien auf einer Ebene des Objekts erzeugt, welche etwa in die stereoskopischen Richtung weist, da die Abgaberichtung des Musterstrahls der stereoskopischen Bildaufnahmerichtung ähnlich ist. Bezüglich jeder Schnittlinie werden eine Beobachtungsebene einschließlich des Zentrums einer ersten Kamera und einer einzigen Schnittlinie und gerade Beobachtungslinien, von denen jede ein Zentrum einer zweiten Kamera und Punkte auf der einzigen Schnittlinie erhalten. Insbesondere definiert eine einzige Schnittlinie auf dem Objekt zusammen mit dem Zentrum einer ersten Kamera eine erste Beobachtungsebene, die auch Beobachtungslinien enthält, welche von dieser ersten Kamera ausgehen, und die Schnittlinie treffen, und analog definiert dieselbe Schnittlinie zusammen mit dem Zentrum einer zweiten Kamera eine zweite Beobachtungsebene, die zweite Beobachtungslinien enthält, welche von der zweiten Kamera ausgehen und die Schnittlinie treffen. Auf der das Bild erzeugenden Ebene, insbesondere der u-v-Ebene der Fig. 2, ist die Beobachtungsebene als eine einzelne Linie (SP1, SP2) wiedergegeben, und die gerade Beobachtungslinie wird als ein einzelner Punkt wiedergegeben. Die Abbilder, insbesondere der Beobachtungsebenen und der Beobachtungslinien, können jedoch auf den Bilddaten als eine sich ausbreitende Ebene und eine verlängerte gerade Linie einschließlich ihrer eigenen Kamerazentren beobachtet werden. Diese beiden (Beobachtungslinie und Beobachtungsebene) schneiden sich miteinander auf einer Ebene, die zwei zu einer Linie zusammenfallende Schnittlinien zeigt. Da die Schnittpunkte von beiden in der Ebene enthalten sind, werden daher die Koordinaten mehrerer Schnittpunkte berechnet, und eine Ebenengleichung der Ebene wird aus den berechneten Koordinatenwerte erstellt.
Beim 3D-Meßverfahren entsprechend einer ersten Erfindung wird eine stereoskopische Bildaufnahme durchführt, während ein Musterstrahl, insbesondere ein Spaltstrahl, abgegeben wird. Wenn der Musterstrahl bei der Messung auf ein Objekt abgegeben wird, werden eine oder mehrere Schnittlinien auf einer Ebene des Objekts erzeugt, welche etwa in die stereoskopischen Richtung weist, da die Abgaberichtung des Musterstrahls der stereoskopischen Bildaufnahmerichtung ähnlich ist. Bezüglich jeder Schnittlinie werden eine Beobachtungsebene einschließlich des Zentrums einer ersten Kamera und einer einzigen Schnittlinie und gerade Beobachtungslinien, von denen jede ein Zentrum einer zweiten Kamera und Punkte auf der einzigen Schnittlinie erhalten. Insbesondere definiert eine einzige Schnittlinie auf dem Objekt zusammen mit dem Zentrum einer ersten Kamera eine erste Beobachtungsebene, die auch Beobachtungslinien enthält, welche von dieser ersten Kamera ausgehen, und die Schnittlinie treffen, und analog definiert dieselbe Schnittlinie zusammen mit dem Zentrum einer zweiten Kamera eine zweite Beobachtungsebene, die zweite Beobachtungslinien enthält, welche von der zweiten Kamera ausgehen und die Schnittlinie treffen. Auf der das Bild erzeugenden Ebene, insbesondere der u-v-Ebene der Fig. 2, ist die Beobachtungsebene als eine einzelne Linie (SP1, SP2) wiedergegeben, und die gerade Beobachtungslinie wird als ein einzelner Punkt wiedergegeben. Die Abbilder, insbesondere der Beobachtungsebenen und der Beobachtungslinien, können jedoch auf den Bilddaten als eine sich ausbreitende Ebene und eine verlängerte gerade Linie einschließlich ihrer eigenen Kamerazentren beobachtet werden. Diese beiden (Beobachtungslinie und Beobachtungsebene) schneiden sich miteinander auf einer Ebene, die zwei zu einer Linie zusammenfallende Schnittlinien zeigt. Da die Schnittpunkte von beiden in der Ebene enthalten sind, werden daher die Koordinaten mehrerer Schnittpunkte berechnet, und eine Ebenengleichung der Ebene wird aus den berechneten Koordinatenwerte erstellt.
Bei dem 3D-Meßverfahren entsprechend der zweiten oben
beschriebenen Erfindung hat das Meßobjekt die Form eines
rechteckigen Quaders und ist auf eine im wesentlichen
horizontalen Ebene angeordnet; dies ist auf einen Fall
anwendbar, bei dem eine stereoskopische Bildaufnahme in der
z-Komponenten enthaltenden Abwärtsrichtung von oben
durchgeführt werden. In diesem Falle ist die Oberseite des
Objekts im wesentlichen horizontal, und daher wird die
Ebenengleichung der Oberseite als eine Gleichung berechnet,
die eine horizontale Ebene angibt, die nur durch die Höhe
spezifiziert ist.
Bei dem 3D-Meßverfahren entsprechend der dritten Erfindung,
die oben beschrieben wurde, wird die Ebenengleichung derart
angewandt, daß zur Bestimmung des 3D-Koordinatenwertes
des entsprechenden Punktes in den Bild-Daten, von dem
erwartet wird, daß er in der Objekt-Ebene liegt, der
entsprechende Punkt in der durch die Ebenengleichung
angegebenen Ebene enthalten ist.
Die Erfindung wird nachstehend anhand der Fig. 1 bis 14
beispielsweise erläutert.
Es zeigt
Fig. 1 den Aufbau einer 3D-Meßvorrichtung zur
Durchführung eines Beispiels des 3D-Meßverfahrens
gemäß der Erfindung,
Fig. 2 ein Beispiel von Bildern einer linken und rechten
Kamera in der 3D-Meßvorrichtung der Fig. 1,
Fig. 3 ein Blockschaltbild, aus dem der Aufbau einer
Bildverarbeitungseinrichtung des Beispiels der Fig.
1 hervorgeht,
Fig. 4 ein Hauptflußdiagramm, aus dem das Verfahren der
Verarbeitung beim Beispiel der Fig. 1 hervorgeht,
Fig. 5 die visuelle Darstellung eines Verfahrens zur
Bildung einer Raumbild-Werteebene bei dem
Beispiel der Fig. 1,
Fig. 6 eine visuelle Darstellung eines Verfahrens zur
Abtastung und Zuordnung von Kantenin
formationen im Beispiel der Fig. 1,
Fig. 7 eine visuelle Darstellung eines Verfahrens zum
Erzeugen einer Koordinate eines entsprechenden
Punktes im Beispiel der Fig. 1,
Fig. 8 ein Flußdiagramm, aus dem das Verfahren der
Bildung von Oberseitendaten des Objekts im
Beispiel der Fig. 1 hervorgeht,
Fig. 9 eine visuelle Darstellung, aus dem das Verfahren
zur Bildung von Suchintervallen in der u-Richtung
der Schnittlinien in Fig. 8 hervorgehen,
Fig. 10 eine visuelle Darstellung eines Verfahrens zum
Aufsuchen von Koordinaten der Start- und
Endpunkte einer linken Raumbild-Werteebene in
Fig. 8,
Fig. 11 das Prinzip der Erkennung einer Schnittlinie der
Oberseite bei einem Verfahren zur Bildung einer
Beobachtungsebene in Fig. 8, und
Fig. 12 ein Flußdiagramm, aus dem das Verfahren zur
Bildung eines 3D-Koordinatenwertes bei dem
Beispiel der Fig. 1 hervorgeht.
Fig. 13 eine Prinzip-Darstellung des binokularen
stereoskopischen Verfahrens und
Fig. 14 eine Prinzip-Darstellung des aktiven
stereoskopischen Verfahrens.
In Fig. 1 wird ein Objekt O, das die Form eines rechteckigen
Quaders hat, der auf einer im wesentlichen horizontalen Ebene
angeordnet ist, von oben durch eine linke und eine rechte CCD-Kamera
1R und 1L photographiert, die an unterschiedlichen
Stellen angeordnet sind. Dadurch werden zwei in Fig. 2
gezeigte Bilddaten erhalten. Ein Musterstrahlprojektor 2 ist so
angeordnet, daß er Raumcode-Musterstrahlen in einer Richtung
abstrahlt, die etwa die gleiche wie die Photographierrichtungen
des Objekts O durch die CCD-Kameras 1R und 1L (d. h., von
oben) ist. Wie Fig. 3 zeigt, wird eine in Fig. 1 nicht dargestellte
Flüssigkristallblende des Musterstrahlprojektors 2 von einer
Flüssigkristallblendensteuerung 3 gesteuert.
Die CCD-Kameras 1R und 1L werden jeweils mit einer
Raumbild-Werteebene-Erzeugungseinheit 4 verbunden und
übertragen Bilddaten zu dieser. Die Raumbild-Werteebene-Erzeugungseinheit
4 empfängt Bilddaten durch Änderung der
Strahlenmuster aufgrund Steuerung der LCD-Steuerung 3. Die
gebildete Raumbild-Werteebene wird zu einer Raumbildwert-Verarbeitungseinheit
5, einer Codewert-Zuordnungseinheit 6
und einer Oberseitendaten-Erzeugungseinheit 7 übertragen. Vor
der Messung wird außerdem eine Eichung der Kameras
bezüglich jeder CCD-Kamera 1R und 1L durch ein bekanntes
Verfahren durchgeführt, bei dem ein Gittertisch mit bekannten
dreidimensionalen Koordinatenwerten photographiert wird, eine
Zuordnung wird zwischen den dreidimensionalen
Koordinatenwert und einer Koordinate eines photographierten
Bildes hergestellt wird, und wodurch die Kameraparameter
berechnet werden. Dieses Verfahren wird nicht mehr erläutert.
Die Raumbildwert-Verarbeitungseinheit 5 führt Verarbeitungen
wie eine M-Gradientenverarbeitung, eine Binärcodebildung, und
eine Kanteninformationsabtastung und -zuordnung durch, so
daß eine Koordinate eines entsprechenden Punktes oder eine
Korrektur einer Verzerrung bei den Bilddaten erzeugt wird.
Diese Verfahren sind etwa gleich denen bei einer üblichen
dreidimensionalen Meßmethode. Die entsprechenden
Punktdaten, die dadurch erhalten werden, werden einem
Raumcodewert in einer Codewert-Zuordnungseinheit 6
zugeordnet. Die Oberseitendaten-Erzeugungseinheit 7
berechnet eine Ebenengleichung der Oberseite des Objekts O.
Eine 3D-Koordinaten-Erzeugungseinheit 8 bildet die
dreidimensionale Koordinate des entsprechenden Punktes durch
den Raumcodewert, der dem entsprechenden Punkt zugeordnet
ist, und die Ebenengleichung. Eine Bereich-Block-Teilereinheit 9
teilt Bereiche/Blöcke auf der Grundlage der dreidimensionalen
Koordinate des entsprechenden Punktes. Die dreidimensionale
Meßvorrichtung dieses Beispiels wird außerdem zur Ent-Paletisierung
verwendet, und das Objekt O ist ein auf Paletten
gestapeltes Objekt, das die Form eines rechteckigen Quaders
hat.
Das obige Verfahren wird nun näher erläutert. Wie Fig. 4 zeigt,
besteht das Verfahren der dreidimensionalen Messung in
diesem Beispiel darin, das Raumcodebild (Schritt 1) zu
erzeugen, das Raumcodebild (Schritt 2) zu verarbeiten und eine
Kanteninformation abzutasten und zuzuordnen, und die
Koordinate des entsprechenden Punktes (Schritt 3) zu
erzeugen, den Raumcode des entsprechenden Punktes (Schritt
4) zuzuordnen, die Oberseitendaten des Objekts (Schritt 5) zu
bilden, den dreidimensionalen Koordinatenwert eines Objekts
(Schritt 6) zu bilden und die Bereiche/Blöcke (Schritt 7) in
dieser Reihenfolge zu teilen.
Zunächst wird die Erzeugung des Raumcodebildes (Schritt 1)
durch Empfang der Bilddaten von den CCD-Kameras 1R und 1L
und addieren durchgeführt, während die Raumbild-Werteebene-Erzeugungseinheit
4 die Flüssigkristall-Blendensteuerung 3
steuert.
Wie Fig. 5 zeigt, projiziert der Musterstrahlprojektor 2 acht
Arten positiver Muster und acht Arten negativer Muster, durch
die positive und negative Bilder von jedem Muster erhalten
werden können. Der Photographiervorgang wird von der linken
und rechten CCD-Kamera 1R und 1L durchgeführt, und die
Anzahl der Photographiervorgänge beläuft sich daher auf
insgesamt 32. Fig. 5 zeigt das Bild der CCD-Kamera 1L.
Jeweilige linke positive, rechte positive, linke negative und
rechte negative Bilder werden durch ein 2°-Projektionsmuster
(ein Muster, das das Bild durch eine Unterteilung in zwei Teile
teilt), erzeugt, Differenzbilder werden durch Berechnung einer
Differenz dazwischen für jedes linke und rechte Bild berechnet,
und binärcodierte Bilder werden mittels eines geeigneten
Schwellwertes erhalten. Insbesondere kann es sich bei dem
Schwellenwert um einen Schwellenwert hinsichtlich einer
mittleren Helligkeit bzw. eines mittleren Grauwertes handeln,
und die binärkodierten Bilder liegen in Form einer Werteebene
vor, indem jeder Punkt der rasterförmigen Werteebene ein
Binärwert (schwarz oder weiß) zugeordnet ist. Die erhaltenen
binärcodierten Bilder werden dann zu dem Raumcodebild
gemacht, insbesondere indem die zweidimensionalen
binärkodierten Bilder der linken und rechten Kamera zueinander
in Beziehung gesetzt werden entsprechend der
unterschiedlichen Betrachtungsrichtung der beiden Kameras,
und dadurch ein räumlich aussagekräftiges Raumcodebild in
Form eines zweidimensionalen Werterasters erhalten wird,
wobei insbesondere der Wert eines Punktes, dessen Höhenlage
entspricht. Danach wird ein binärcodiertes Bild in ähnlicher
Weise durch ein 21 Projektionsmuster (ein Muster, das das Bild
durch zwei Unterteilungen in vier Teile teilt) erzeugt, das mit
dem doppelten Wert des Raumcodebildes addiert wird, der
durch das 20-Projektionsmuster erzeugt wurde, und der
addierte Wert wird dann zum neuen Raumcodebild gemacht.
Insbesondere sollte sich keine der Unterteilungen des
nachfolgenden Projektionsmusters mit einer der Unterteilung
des vorangehenden Projektionsmusters zusammenfallen.
Vielmehr verlaufen die Unterteilungen der einander
nachfolgenden Projektionsmuster im wesentlichen parallel
zueinander, die Unterteilung wird jedoch durch Verdoppeln
jeweils um den Faktor zwei verfeinert.
Durch Wiederholung dieses Verfahrens unter Anwendung des
22-, 23-, . . . 27-Projektionsmusters, kann ein neues
Raumcodebild erzeugt werden, das aus den acht binärcodierten
Bildern addiert ist. Der Wert eines vorherigen Raumcodebildes
wird jedoch bei der Addition verdoppelt, und daher ist das
Raumcodebild in eine Anzahl codierter (gewichteter) Bereiche
eingeteilt. Dies bedeutet, daß ein Bereich, der "1" in allen
binärcodierten Bildern ist, einen Wert von 255 hat, und ein
Bereich, der darin überall "0" hat, einen Wert von Null hat. Die
anderen Bereiche werden durch Werte von 1 bis 254
unterschieden.
Außerdem sind bei diesem Beispiel die jeweiligen CCD-Kameras
1L und 1R und der Musterstrahlprojektor 2 so
angeordnet, daß der Musterstrahl die Bilder der jeweiligen
Kamera genau in der Auf- und Abwärtsrichtung teilt. Daher
sind die Schnittlinien, die die Grenzen zwischen den Bereichen
darstellen, also schneiden, mit der Richtung u bezüglich der
Kamerakoordinate des Bildes parallel, wenn keine Verzerrung
eines optischen Systems des Musterstrahlprojektors 2 auftritt,
soweit die Oberseite des Objekts "O" eine horizontale Ebene
ist. Selbst wenn eine optische Verzerrung des
Musterstrahlprojektors 2 vorhanden ist, ist klar, daß, je
paralleler die Schnittlinie zur Richtung "u" ist, desto höher ist
die Genauigkeit der Ablesung in der Richtung "v".
Danach verarbeitet die Raumcodebild-Verarbeitungseinheit 5
das Raumcodebild (Schritt 2). Wie Fig. 6 zeigt, wird das
Raumcodebild durch die M-Gradientenverarbeitung verarbeitet
und zu einer kantenabgetasteten Bildebene des
Graucodewertes (Gray-Code-Wertes) gemacht, und
binärcodiert, und Kettensuch-Koordinatenpunkte werden
ausgewählt. Der Kettensuchvorgang bedeutet die Suche nach
einer Verbindung einzelner Pixel, also Bildpunkte. Die Punkte
für den Kettensuchvorgang werden nicht an den Ecken des
Objekts O, sondern an einer Stelle in der Nähe ausgewählt.
Dies ist darauf zurückzuführen, daß eine Ecke häufig verformt
ist.
Die Abtastung der Kanteninformation (Schritt 3) ist ein
Vorgang zur Bestimmung der Kanten des Objekts O durch
Lesen und Verbinden der Daten nahe den Punkten für den
Kettensuchvorgang und die Zuordnung der Kanteninformation
(Schritt 3) ist ein Vorgang zur Beseitigung von Störungen durch
Beseitigung von Seiten, deren Länge gleich der oder geringer
als die Bezugslänge aus dem Kantenabtasten ist. Dadurch
werden nur die Kanten der Oberseite des Objekts O erhalten.
Gemäß Fig. 6 werden beispielsweise dabei die Werte an jedem
Punkt des Raumcodebildes, die z. B. Gray-Codewerte sind,
durch die M-Gradientenverarbeitung nach bestimmten Regeln
zu den Werten benachbarter Punkte in Beziehung gesetzt,
beispielsweise Differenzen gebildet oder Ähnliches. Durch
dieses Inbeziehungsetzen wird ersichtlich, zwischen welchen
benachbarten Punkten, also Werten des Rasters, eine wie
große z. B. Differenz zwischen den Gray-Code-Werten oder
Ähnlichem, die durch die Punktwerte symbolisiert werden,
gegeben ist.
Durch das anschließende Binärisieren, indem die Werte
oberhalb eines Schwellenwertes gleich "1" und die unterhalb
liegenden gleich "0" gesetzt werden, ergeben sich diejenigen
Punkte bzw. Felder des Rasters, die die vermutliche Kante
zwischen sich einschließen, wodurch der Kantenverlauf
ersichtlich wird.
Außerdem wird bei dem Vorgang der Bildung der Koordinate
(durch Einheit 5) des entsprechenden Punktes (Schritt 3) die
Koordinate des Schnittpunktes auf der Kamerakoordinate
gebildet, nachdem die Verzerrung der abgetasteten Seiten auf
der Grundlage der optischen Verzerrung der Kameras (z. B. ein
horizontal liegendes Quadrat wird aufgrund der
Beobachtungsrichtung der Kamera, die von der Z-Richtung
abweicht, zu einem Trapez) gesammelt wurden. Die Koordinate
des Schnittpunktes ist ein Punkt einer Ecke, von der
angenommen wird, daß sie selbst dann nicht verformt ist,
wenn sie tatsächlich verformt ist, und der zum entsprechenden
Punkt gemacht wird. Aufgrund des Verlaufes der Kanten
außerhalb des Bereiches der Ecken kann durch Verlängerung
der Kantenrichtung der theoretische Schnittpunkt als
theoretische Ecke des Objekts erzeugt und anstelle der
tatsächlichen, in der Regel verformten Ecke, angenommen
werden.
Außerdem sind die Schritte 1 bis 3 der Verarbeitungen nahezu
gleich denen einer üblichen aktiven stereoskopischen Methode
unter Anwendung einer einzigen Kamera und eines
Musterstrahlprojektors. Der Schritt 3 wird entweder bezüglich
der linken oder der rechten Datenbildebene (u-v-Ebene), bei
diesem Beispiel der linken Datenbildebene durchgeführt,
obwohl die Schritte I und 2 bezüglich des jeweiligen linken
und rechten Bildes durchgeführt werden. Dies geschieht, da es
ausreicht, den Vorgang des Schrittes 3 bezüglich einer der
beiden Datenbilder durchzuführen, und es ist nicht notwendig,
ihn an beiden Bildern durchzuführen, wie später erläutert wird.
Bei der üblichen aktiven stereoskopischen Methode wird
danach eine Verarbeitung durchgeführt, bei der die obige
Koordinate in die dreidimensionale Koordinate im
Weltkoordinatensystem auf der Grundlage einer einzigen
Kamera und Parametern des Musterstrahlprojektors
umgewandelt wird. Jedoch wird bei diesem Beispiel eine
Verarbeitung durchgeführt, die von der üblichen verschieden
ist, wie folgt.
Wie Fig. 7 zeigt, wird danach der Raumcodewert des
entsprechenden Punktes zugeordnet (Schritt 4), und die Daten
des entsprechenden Punktes und das Raumcodebild werden
kontrolliert, und ein Wert eines Bereichs, zu dem der
entsprechende Punkt gehört, wird einem der aufgeteilten
Bereiche des Raumcodebildes zugeordnet. Dies bedeutet, daß
dem entsprechendem Punkt ein Wert von 0 bis 255 in
Abhängigkeit von der Position, in der er sich befindet,
zugeordnet wird. Die Verarbeitung wird nur bezüglich des
linken Datenbildes durchgeführt.
Dies bedeutet, wie Fig. 7 zeigt, wenn das Raumcodebild beim
Schritt 1 erhalten wird, und die entsprechenden Punktdaten
zusammengesetzt werden, es bekannt ist, daß der
entsprechende Punkt P in einem Bereich des Wertes "5" liegt,
und es wird dieser Wert zugeordnet. Der Zuordnungsvorgang
wird an jedem entsprechendem Punkt durchgeführt.
Danach erzeugt die Oberseitendaten-Formiereinheit 7 die
Oberseitendaten des Objekts O (Schritt 6). Die Oberseitendaten
bilden die Ebenengleichung, die die Oberseite des Objekts O
angibt. Eine Erläuterung dieses Vorgangs wird anhand der Fig.
1, 2 und 8 bis 12 durchgeführt.
Fig. 8 ist ein Flußdiagramm, das den Vorgang der Berechnung
der Ebenengleichung zeigt, die die Oberseite angibt. Zuerst
berechnet der Vorgang die Raumcodewerte der beobachteten
Schnittlinien (z. B. vier Linien) durch Verwendung des
Raumcodebildes und der durch die Oberseiten-Erzeugungseinheit
7 gebildete Koordinate des entsprechenden
Punktes (Schritt 51). Wie Fig. 9 zeigt, wählt der Vorgang einen
Punkt Pmax mit einer maximalen v-Koordinate und einem Punkt
Pmin mit einer minimalen v-Koordinate unter den vier in den
Kanten enthaltenen Punkten, insbesondere den vier Ecken der
sich schneidenden Kanten der rechteckigen Oberseite, aus, und
bestimmt vier insbesondere zur u-Richtung parallele
Schnittlinien Sp1 bis Sp4 durch etwa gleiche Teilung des
Abstandes dazwischen in Richtung der v-Koordinate durch
fünf. Wie zuvor erwähnt, definieren die Schnittlinien Sp1 bis
Sp4 Grenzlinien unter Raumcodebereichen mit
unterschiedlichen Werten, die als gerade Linien unabhängig von
der Neigung der Schnittlinien auf der Bildkoordinate beruhend
auf der Verzerrung des optischen Systems des
Musterstrahlprojektors 2 berechnet werden. Dies geschieht, da
die Schnittlinien nahezu gerade Linien werden, da sie lokal bei
Betrachtung des gesamten Bildes beobachtet werden, und es
wird kein wesentlicher Fehler verursacht, selbst wenn sie als
gerade Linien erkannt werden.
Danach erzeugt die Operation Suchintervalle der Schnittlinien in
der u-Richtung (Schritt 52). Bei diesem Beispiel bestimmt die
Operation willkürlich Abtastschrittintervalle zwischen dem
Punkt Pmax mit der maximalen u-Koordinate und dem Punkt
Pmin mit der minimalen u-Koordinate unter den vier
entsprechenden Punkten. Fig. 10 zeigt einen Zustand, bei dem
sieben u-Abtastkoordinaten, also Schnittlinien quer zur u-Richtung,
alle 10 (Pixel)-Schritte gebildet werden.
Danach sucht die Operation Koordinaten eines Startpunktes
und eines Endpunktes bezüglich insbesondere auf jeder der
beobachteten Schnittlinien Sp1 bis Sp4 auf dem linken
Raumcodebild (Schritt 53). Der minimale Koordinatenwert der
v-Koordinate oder der v-Koordinatenwert des zuvor gesuchten
Raumcodewertes wird zum Startpunkt des Suchvorgangs
gemacht, der maximale Koordinatenwert wird zum Endpunkt
des Suchvorgangs gemacht, und ein insbesondere extern
vorgegebener Umschaltpunkt des gesuchten Raumcodes wird
zur v-Koordinate gemacht. Hierbei wird eine Differenz in der
Breite der gleichen Raumcodes nahe der Kante des Objekts O
verursacht, und daher wird die Koordinate am Änderungspunkt
oder Umschaltpunkt ohne Übernahme einer mittleren
Koordinate bestimmt. Die Suche nach der u-Koordinate wird in
ähnlicher Weise durchgeführt. Da die Anzahl der Schnittlinien
Sp vier ist, sind acht Koordinaten der jeweiligen Start- und
Endpunkte P11 bis P18 vorgesehen, die jedoch nicht auf den
Kanten der Oberseite des Objekts liegen, sondern innerhalb der
Oberseite des Objekts auf den den Kanten nächstliegenden
kreuzungspunkten der Schnittlinien in U-Richtung (Sp1 bis Sp4)
und in V-Richtung (1, 2, 3, 4, 5, 6, 7).
Außerdem wird eine Neigung der Schnittlinien auf der
Bildkoordinate aufgrund der Verzerrung des optischen Systems
des Musterstrahlprojektors 2 verursacht und ein Fehler beim
Lesen der Koordinate in einem bestimmten Ausmaß in den
jeweiligen Schnittlinien Sp1 bis Sp4. Daher wird ein zulässiger
Fehler derart vorgegeben, daß ein Punkt, dessen
Koordinatenwert in der v-Richtung der Bildkoordinate einen
bestimmten Bezugswert überschreitet, beseitigt wird. Wenn
die Anzahl der Suchpunkte einen Bezugswert (z. B. 3) oder
weniger erreicht, wird die Ermittlung der Suchpunkte als
unwirksam ausgeschieden, da der Fehler vergrößert ist.
Weiterhin sucht die Operation die Koordinaten des
Startpunktes und des Endpunktes bezüglich der beobachteten
Schnittlinien Sp1 bis Sp4 auf dem rechten Raumcodebild
(Schritt 54). Bezüglich des rechten Raumcodebildes können die
Schnittlinien Sp1 bis Sp4 auf der Oberseite des Objekts O
entsprechend dem linken Bild gut dadurch erfaßt werden, daß
der Koordinatenwert v des Zentrums des Objekts auf dem
linken Bild zu dem des Zentrums des rechten Bildes gemacht
und ein Bereich abgetastet wird, der zweimal so groß wie der
Abtastbereich des linken Bildes ist. Die Suchschritte sind gleich
denen des linken Bildes. Die jeweiligen Schnittlinien Sp1 bis
Sp4 werden als gerade Linien ähnlich denen des linken Bildes
berechnet.
Die Koordinaten der Startpunkte und der Endpunkte auf dem
rechten Bild können aus dem Raumcodebild erhalten werden.
Wie Fig. 11 zeigt, ist, wenn der Musterstrahl auf das Objekt O
aus einer schrägen Richtung projiziert wird, ein Bereich der
Schnittlinien Sp mit einem minimalen Wert v die Schnittlinie
zum Schneiden der Oberfläche des Objekts O. Als Koordinaten
der jeweiligen Start- und Endpunkte sind acht Punkte von P21
bis P28 vorgesehen, wie Fig. 2 (R) zeigt.
Wenn die Koordinaten der jeweiligen Start- und Endpunkte
berechnet wurden, bildet die Operation jeweils
Beobachtungsebenen zur Beobachtung der Schnittlinien Sp1
bis Sp4 (Schritt 55). Dieser Vorgang wird nun anhand der Fig.
1 erläutert.
Die Beobachtungsebene wird durch die Koordinatenwerte der
Start- und Endpunkte der Kamerakoordinate der Kamera 1R
und der Kameraparameter berechnet. Wenn die Beob
achtungsebene bezüglich der Schnittlinie Sp2 berechnet ist,
können Vektoren v23 und v24 von der Mitte der Kamera P20
bis zum Startpunkt P23 und dem Endpunkt P24 durch Einheits
beobachtungsvektoren vc23 und Vc24 vom Startpunkt und
vom Endpunkt der Kamerakoordinate bis zum Zentrum der
Kamera ausgedrückt werden. Dies bedeutet, daß v23 =
k23vc23, V24 = k24vc24, wobei k23 und k24 Koeffizienten
und willkürliche Zahlen bei diesem Beispiel sind.
Danach wird ein normaler, insbesondere zur
Beobachtungsebene normaler, Vektor Lco2 aus den beiden
Einheitsbeobachtungsvektoren vc23 und vc24 gebildet. Eine
Ebene senkrecht zum normalen Vektor Lco2 ist die
Beobachtungsebene S2 einschließlich der Schnittlinie Sp2. In
ähnlicher Weise werden normale Vektoren Lco1 bis Lco4
bezüglich der vier Schnittlinien Sp1 bis Sp4 berechnet.
Danach bildet die Operation Beobachtungsebenen bezüglich
des linken Bildes (Schritt 56). Wie beim Schritt 55 können z. B.
acht Beobachtungsvektoren v11 bis v18 jeweils durch
Verwendung von Einheitsbeobachtungsvektoren vc11 bis vc18
ausgedrückt werden.
Danach berechnet die Operation Koordinaten von
Schnittpunkten bezüglich der Beobachtungsebenen S1 bis S4
und der Beobachtungsvektoren v11 bis v18, die dieselben
Schnittlinien Sp haben.
- Z.B. können bei der Berechnung der Koordinaten der Schnittpunkte bezüglich der Schnittlinie Sp2 die Vektoren vp13 und vp14 insbesondere vom Nullpunkt des x-y-z-Weltkoordinatensystems aus, nach P13 und P14 auf der Weltkoordinate jeweils durch vp13 = v13 + vp10 = k13vc13 + vp10, vp14 = v14 + vp10 = k14vc14 + vp10 ausgedrückt werden, wobei vp10 ein Vektor zum Zentrum p10 der Kamera auf der Weltkoordinate ist.
An den Schnittpunkten, die durch die Beobachtungsebene S2
und die Beobachtungsvektoren v13 und v14 gebildet werden,
stehen der Vektor Lco2 und die Beobachtungsvektoren v13
und v14 durch Lco2 (v13 - vp20) = 0, Lco2 (v14 - vp20)
= 0, (vp20 ist ein Vektor zum Zentrum P20 der Kamera in der
Weltkoordinate) in Beziehung. Daher können dreidimensionale
Koordinaten von P13 und P14 durch jeweilige Berechnung von
k13 und k14, die diese Gleichungen erfüllen, berechnet
werden. In ähnlicher Weise werden die Koordinatenwerte der
acht Schnittpunkte von P11 bis P18 berechnet.
Wenn die Koordinatenwerte der acht Schnittpunkte (also
insbesondere der Schnittpunkte der Beobachtungsebene der
einen Kamera mit den Beobachtungsvektoren der anderen
Kamera, die eine einzige Schnittlinie gemeinsam haben)
berechnet wurden, berechnet die Operation die
Ebenengleichung der Oberseite des Objekts O aus diesen
Koordinatenwerten der Schnittpunkte (Schritt 58). Obwohl
eine Ebene theoretisch durch Berechnung der Lage von drei
Punkten in einem dreidimensionalen Raum bestimmt wird, wird
bei diesem Beispiel die Genauigkeit durch Verwendung der
Daten von acht Punkten erhöht. Insbesondere wird die
Ebenengleichung durch die Methode der kleinsten Quadrate
unter Verwendung der acht Koordinatenwerte berechnet.
Obwohl eine Ebene durch eine allgemeine Gleichung ax + by
+ cz = d ausgedrückt wird, wird sie bei diesem Beispiel als
eine horizontale Ebene z = h0 berechnet, da die Oberseite des
Objekts O im wesentlichen eine horizontale Ebene ist.
Wenn die Ebenengleichung berechnet ist, bildet die 3D-Koordinatenerzeugungseinheit
8 3D-Koordinatenwerte (X-Y-Z-System)
der jeweiligen entsprechenden Punkte P (Schritt 6).
Die 3D-Koordinaten der entsprechenden Punkte P werden
derart bestimmt, daß die entsprechenden Punkte P in der
Oberseite des Objekts O enthalten sind. Wie Fig. 12 zeigt, liest
die Operation zuerst die Oberseitendaten aus der Ober
seitendaten-Erzeugungseinheit 7 (Schritt 61), bilden
Beobachtungsvektoren der entsprechenden Punkte P auf dem
linken Bild (Schritt 62) und berechnet die Koordinaten (x, y, z)
der Schnittpunkte auf der Oberseite des Objekts O,
ausgedrückt durch die Ebenengleichung und die Beobachtungs
vektoren (Schritt 63). Die Oberseite des Objekts O kann als die
Koordinate in der Tiefenrichtung, die Z-Komponenten enthält,
bezüglich der Photographierrichtung durch eine Kamera
angesehen werden, und daher kann die Koordinate in der
Tiefenrichtung (Z-Richtung) dadurch genau erzeugt werden,
daß die 3D-Koordinate derart gebildet wird, daß die
entsprechenden Punkte darin enthalten sind. Auf diese Weise
kann die Größe des Objekts O bestimmt werden.
Die Bereich/Block-Teilereinheit 9 teilt Bereiche und Blöcke ein,
beseitigt Bereiche und teilt Blöcke auf der Grundlage von
Paletisierungsdaten und Objektgrößendaten. Die erhaltenen
Daten werden zu einem Paletisierungsroboter übertragen, der
die Ent-Palletisierung bewirkt.
Wie zuvor erläutert, wird bei der 3D-Meßmethode gemäß
diesem Beispiel die Ebenengleichung aus den Koordi
natenwerten der Schnittpunkte der Betrachtungsebene und der
geraden Beobachtungslinien der linken und rechten CCD-Kamera
1R und 1L bezüglich der mehreren Schnittlinien der
Oberseite des lokalen Objekts O berechnet, die durch räumliche
Musterbildung durch den Musterstrahlprojektor 2 erzeugt
wurden, und die Koordinatenwerte der entsprechenden Punkte
werden als in der durch diese Ebenengleichung ausgedrückten
Ebene enthalten berechnet.
Entsprechend ist die Eichung des Musterstrahlprojektors 2,
deren Genauigkeit gering ist und die erhebliche Arbeit bei der
aktiven Methode wie der üblichen aktiven Stereoskopmethode
erfordert, nicht notwendig. Außerdem können im Vergleich zur
passiven Methode wie der üblichen binokularen Stereoskop-Beobachtungsmethode,
bei der Koordinaten entsprechend den
Punkten nach Abtastung und Zuordnung der Kanteninformation
bezüglich der linken und rechten Bilder und jeweiliger Bildung
der Koordinaten der entsprechenden Punkte in
Übereinstimmung gebracht werden, die
Beobachtungskoordinaten können für die linke und rechte
Übereinstimmung verwendet werden, und daher kann der 3D-Meßfehler
minimiert werden.
In Abwandlung von dem beschriebenen Ausführungsbeispiel,
kann, obwohl die Schnittlinie die Grenzlinie zwischen den
räumlich gemusterten Bereichen bei dem gezeigten Beispiel ist,
dies ein Schneidstrahl unter Verwendung eines Spaltstrahls
sein, wie er unter Verwendung einer Spaltblende auf das
Objekt aufgestrahlt wird.
Wie oben erläutert, kann entsprechend der 3D-Meßmethode die
Ebenengleichung einer Ebene eines Objekts dadurch gebildet
werden, daß die Beobachtungskoordinaten der linken und
rechten Kamera so wie sie sind, verwendet werden, ohne daß
die Projektoreichung der aktiven Methode wie der üblichen
aktiven Stereoskopmethode notwendig ist. Es ist daher bei der
aktiven Methode möglich, die Projektoreichung wegzulassen,
bei der die Korrektur der Verzerrung schwierig ist, und die
erhebliche Arbeit erfordert, und es ist möglich, den 3D-Meßfehler
im Gegensatz zur passiven Methode wie der
binokularen Stereoskopbeobachtungsmethode zu minimieren,
bei der die Koordinaten der entsprechenden Punkte nach der
Abtastung und Zuordnung der Kanteninformation bezüglich der
linken und rechten Bilder und der jeweiligen Berechnung der
Koordinaten der entsprechenden Punkte in Übereinstimmung
gebracht werden.
Außerdem ist entsprechend der 3D-Meßmethode die Ebene, die
durch die Koordinatenwerte der Schnittpunkte berechnet wird,
die Oberseite des Objekts, das die Form eines rechteckigen
Quaders hat, der auf der im wesentlichen horizontalen Ebene
angeordnet ist, und die Ebenengleichung, ausgedrückt in der
horizontalen Ebene, die nur durch die Höhe spezifiziert ist, wird
berechnet. Daher ist die Berechnung der Ebenengleichung
leicht, und die Berechnung unter Verwendung der
Ebenengleichung kann leicht durchgeführt werden. Außerdem
werden die 3D-Koordinatenwerte der entsprechenden Punkte
derart bestimmt, daß die entsprechenden Punkte in der durch
die Ebenengleichung ausgedrückten Ebene enthalten sind.
Daher kann der Fehler in der Tiefendimension, insbesondere
bezüglich der Photographierrichtung, durch eine Kamera
minimiert werden.
Claims (3)
1. 3D-Meßverfahren,
gekennzeichnet durch
die folgenden Schritte:
Es werden
Es werden
- - mehrere Beobachtungsebenen gebildet, von denen jede ein Zentrum einer ersten Kamera und eine Schnittlinie enthält sowie
- - mehrere gerade Beobachtungslinien, von denen jede ein Zentrum einer zweiten Kamera und Punkte dieser Schnittlinie mit einem Bezug zu mehreren Schnittlinien umfaßt, von welchen jede durch Ausstrahlung eines Musterstrahls auf eine Ebene eines Objekts angegeben ist, welche im wesentlichen in Stereoskopbild-Aufnahmerichtung weist, es werden Koordinatenwerte mehrerer Schnittpunkte berechnet, die jeweils durch die Beobachtungsebene und die geraden Beobachtungslinien bezüglich jeder Schnittlinie bestimmt sind und eine Ebenengleichung der Ebene wird aus den Koordinatenwerten der Schnittpunkte gebildet.
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet, daß
die Ebene die Oberseite eines Objekts ist, das ein rechteckiger
Quader ist, der auf einer im wesentlichen horizontalen Ebene
angeordnet ist,
- - daß die stereoskopische Aufnahmerichtung eine Abwärtsrichtung ist, und
- - die Ebenengleichung der Oberseite als eine Gleichung berechnet wird, die eine horizontale Ebene mit einer bestimmten Höhe angibt.
3. Verfahren nach Anspruch 1,
dadurch gekennzeichnet, daß
ein 3D-Koordinatenwert eines entsprechenden Punktes in
Bilddaten bestimmt wird, die in der Ebene des Objekts derart
enthalten sind, daß der entsprechende Punkt in der durch die
Ebenengleichung berechnete Ebene enthalten ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6183041A JP2692603B2 (ja) | 1994-07-13 | 1994-07-13 | 三次元計測方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19525561A1 true DE19525561A1 (de) | 1996-01-25 |
DE19525561C2 DE19525561C2 (de) | 2003-10-16 |
Family
ID=16128710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19525561A Expired - Lifetime DE19525561C2 (de) | 1994-07-13 | 1995-07-13 | 3D-Meßvorrichtung |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2692603B2 (de) |
DE (1) | DE19525561C2 (de) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19623172C1 (de) * | 1996-06-10 | 1997-10-23 | Univ Magdeburg Tech | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen |
WO2001017838A1 (de) * | 1999-09-09 | 2001-03-15 | Tiefenbach Gmbh | Verfahren zur überwachung eines gefahrenbereichs |
EP1170572A2 (de) * | 2000-06-30 | 2002-01-09 | Thermo Radiometrie Oy | Vorrichtung und Vefahren zur Messung der Oberflächenform |
US6542250B1 (en) | 1999-06-21 | 2003-04-01 | Bernd Michaelis | Method of three-dimensionally measuring object surfaces |
EP1306813A2 (de) * | 2001-10-29 | 2003-05-02 | Samkyung C&C Co.,LTD. | Verfahren und Vorrichtung zur automatisierten Bestimmung von Postgebühren |
WO2003044458A1 (en) | 2001-11-23 | 2003-05-30 | Mapvision Oy Ltd | Method and system for the calibration of a computer vision system |
DE10226663A1 (de) * | 2002-06-14 | 2003-12-24 | Sick Ag | Verfahren zum Auffinden von Gegenständen auf einer Trägerebene |
DE19643018B4 (de) * | 1996-10-18 | 2010-06-17 | Isra Surface Vision Gmbh | Verfahren und Vorrichtung zum Messen des Verlaufs reflektierender Oberflächen |
US8536509B2 (en) | 2009-12-11 | 2013-09-17 | Bea Sa | Scanner arrangement |
US9470515B2 (en) | 2014-05-12 | 2016-10-18 | Fanuc Corporation | Arrangement evaluation apparatus for evaluating arrangement position of range sensor |
CN106447715A (zh) * | 2016-01-29 | 2017-02-22 | 北京建筑大学 | 用于激光雷达的平面反射标靶中心点位置提取方法 |
DE102015002760B4 (de) * | 2014-03-12 | 2021-01-28 | Fanuc Corporation | Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6754370B1 (en) * | 2000-08-14 | 2004-06-22 | The Board Of Trustees Of The Leland Stanford Junior University | Real-time structured light range scanning of moving scenes |
KR100901536B1 (ko) * | 2008-04-30 | 2009-06-08 | 지스캔(주) | 광대역기준위상을 적용한 3차원 측정방법 |
JP5322206B2 (ja) * | 2008-05-07 | 2013-10-23 | 国立大学法人 香川大学 | 3次元形状の計測方法および装置 |
DE102010021317A1 (de) * | 2010-05-22 | 2011-12-08 | Bernhard Schäfer | Handgerät zum Erfassen von Maßen |
CN101876533B (zh) | 2010-06-23 | 2011-11-30 | 北京航空航天大学 | 一种显微立体视觉校准方法 |
CN104019745B (zh) * | 2014-06-18 | 2016-06-01 | 福州大学 | 基于单目视觉间接标定方法的自由平面尺寸测量方法 |
CN106197264B (zh) * | 2016-06-28 | 2019-10-11 | 中国人民解放军海军工程大学 | 钢结构剖面圆度评定辅助测量臂、及其标定和使用方法 |
CN112347882B (zh) * | 2020-10-27 | 2024-03-22 | 中德(珠海)人工智能研究院有限公司 | 一种智能分拣控制方法和智能分拣控制*** |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4115445C2 (de) * | 1990-07-05 | 1994-02-17 | Reinhard Malz | Verfahren zum Aufnehmen eines dreidimensionalen Bildes eines Objektes nach dem aktiven Triangulationsprinzip und Vorrichtung hierzu |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3028016B2 (ja) * | 1993-02-26 | 2000-04-04 | 村田機械株式会社 | 積荷の三次元画像計測方法 |
-
1994
- 1994-07-13 JP JP6183041A patent/JP2692603B2/ja not_active Expired - Fee Related
-
1995
- 1995-07-13 DE DE19525561A patent/DE19525561C2/de not_active Expired - Lifetime
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4115445C2 (de) * | 1990-07-05 | 1994-02-17 | Reinhard Malz | Verfahren zum Aufnehmen eines dreidimensionalen Bildes eines Objektes nach dem aktiven Triangulationsprinzip und Vorrichtung hierzu |
Non-Patent Citations (1)
Title |
---|
Wang Yangsheng and Chris Malcolm: Recognition and Localization of a Cubically Modular Part With Laser-Stripe-Based Range Data. In: Robotics & Computer-Integrated Manufacturing, Vol. 10, No. 5, pp 333-338, 1993 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19623172C1 (de) * | 1996-06-10 | 1997-10-23 | Univ Magdeburg Tech | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen |
DE19643018B4 (de) * | 1996-10-18 | 2010-06-17 | Isra Surface Vision Gmbh | Verfahren und Vorrichtung zum Messen des Verlaufs reflektierender Oberflächen |
US6542250B1 (en) | 1999-06-21 | 2003-04-01 | Bernd Michaelis | Method of three-dimensionally measuring object surfaces |
WO2001017838A1 (de) * | 1999-09-09 | 2001-03-15 | Tiefenbach Gmbh | Verfahren zur überwachung eines gefahrenbereichs |
EP1170572A3 (de) * | 2000-06-30 | 2003-07-30 | Thermo Radiometrie Oy | Vorrichtung und Vefahren zur Messung der Oberflächenform |
EP1170572A2 (de) * | 2000-06-30 | 2002-01-09 | Thermo Radiometrie Oy | Vorrichtung und Vefahren zur Messung der Oberflächenform |
EP1306813A3 (de) * | 2001-10-29 | 2004-01-07 | Samkyung C&C Co.,LTD. | Verfahren und Vorrichtung zur automatisierten Bestimmung von Postgebühren |
EP1306813A2 (de) * | 2001-10-29 | 2003-05-02 | Samkyung C&C Co.,LTD. | Verfahren und Vorrichtung zur automatisierten Bestimmung von Postgebühren |
WO2003044458A1 (en) | 2001-11-23 | 2003-05-30 | Mapvision Oy Ltd | Method and system for the calibration of a computer vision system |
US7860298B2 (en) | 2001-11-23 | 2010-12-28 | Mapvision Oy Ltd. | Method and system for the calibration of a computer vision system |
DE10226663A1 (de) * | 2002-06-14 | 2003-12-24 | Sick Ag | Verfahren zum Auffinden von Gegenständen auf einer Trägerebene |
US8536509B2 (en) | 2009-12-11 | 2013-09-17 | Bea Sa | Scanner arrangement |
DE102015002760B4 (de) * | 2014-03-12 | 2021-01-28 | Fanuc Corporation | Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert |
US9470515B2 (en) | 2014-05-12 | 2016-10-18 | Fanuc Corporation | Arrangement evaluation apparatus for evaluating arrangement position of range sensor |
DE102015106936B4 (de) * | 2014-05-12 | 2020-12-17 | Fanuc Corporation | Anordnungsevaluierungsvorrichtung zur Evaluierung einer Anordungsposition eines Bereichssensors |
CN106447715A (zh) * | 2016-01-29 | 2017-02-22 | 北京建筑大学 | 用于激光雷达的平面反射标靶中心点位置提取方法 |
CN106447715B (zh) * | 2016-01-29 | 2019-03-22 | 北京建筑大学 | 用于激光雷达的平面反射标靶中心点位置提取方法 |
Also Published As
Publication number | Publication date |
---|---|
JPH0829136A (ja) | 1996-02-02 |
DE19525561C2 (de) | 2003-10-16 |
JP2692603B2 (ja) | 1997-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19525561C2 (de) | 3D-Meßvorrichtung | |
DE102015011914B4 (de) | Konturlinienmessvorrichtung und Robotersystem | |
DE19509884C2 (de) | Verfahren zum Ausrichten von Zuschnittsegmenten | |
DE69432692T2 (de) | Bildverarbeitungsvorrichtung und -verfahren. | |
DE19727281C1 (de) | Verfahren und Vorrichtung zur geometrischen Kalibrierung von CCD-Kameras | |
DE69836522T2 (de) | Lagenerkennungssystem eines selbstbewegenden Kraftwagens | |
DE60119708T2 (de) | Vorrichtung und verfahren zum kalibrieren der relativlage zweier messeinrichtungen eines messsystems | |
DE69734747T2 (de) | Verfahren und Gerät zur Bildverarbeitung | |
DE4130237A1 (de) | Verfahren und vorrichtung zur dreidimensionalen optischen vermessung von objektoberflaechen | |
DE69531583T2 (de) | Bildverarbeitungsverfahren und -gerät | |
DE102006055758B4 (de) | Verfahren zur Kalibrierung von Kameras und Projektoren | |
DE102005010390A1 (de) | Transparentes Kamerakalibrierungswerkzeug zur Kamerakalibrierung und dessen Kalibrierungsverfahren | |
DE3732422A1 (de) | Verfahren und einrichtung zum feststellen einander entsprechender bereiche unter primaerfarbenbilder | |
DE3732435C2 (de) | ||
EP3195256B1 (de) | Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern | |
DE60020919T2 (de) | Stereoskopisches Kamerasystem in einem Fahrzeug | |
WO2008148378A1 (de) | Verfahren zur ausrichtung eines optischen elements auf einem bildschirm | |
EP0760145B1 (de) | Verfahren zum erzeugen räumlich wirkender bilder | |
DE19746910A1 (de) | Übertragung von Texturen fotografischer Bilder auf CAD-Ebenen | |
EP2191656A1 (de) | Verfahren zur ausrichtung eines parallaxenbarriereschirms auf einem bildschirm | |
DE102012023623B4 (de) | Verfahren zum Zusammensetzen von Teilaufnahmen einer Oberfläche eines Objektes zu einer Gesamtaufnahme des Objektes und System zum Erstellen einer Gesamtaufnahme eines Objektes | |
DE3732459C2 (de) | ||
DE2259762B2 (de) | Verfahren zur automatischen Auswertung von Stereobildern | |
EP3711289B1 (de) | Verfahren zur automatischen wiederherstellung eines eingemessenen zustands eines projektionssystems | |
DE19953063A1 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8130 | Withdrawal | ||
8304 | Grant after examination procedure |