DE10020893A1 - Verfahren zur optischen Formerfassung von Gegenständen - Google Patents
Verfahren zur optischen Formerfassung von GegenständenInfo
- Publication number
- DE10020893A1 DE10020893A1 DE10020893A DE10020893A DE10020893A1 DE 10020893 A1 DE10020893 A1 DE 10020893A1 DE 10020893 A DE10020893 A DE 10020893A DE 10020893 A DE10020893 A DE 10020893A DE 10020893 A1 DE10020893 A1 DE 10020893A1
- Authority
- DE
- Germany
- Prior art keywords
- pixels
- images
- camera
- points
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
- Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Erfassung der Gestalt eines dreidimensionalen Gegenstandes mit den Schritten: DOLLAR A a) Relatives Bewegen des Gegenstandes (1) zu einer Kamera (3) auf einer vorgegebenen Bahn (2), DOLLAR A b) Aufnehmen von Bildern (6) des Gegenstandes (1) im Laufe der Bewegung, DOLLAR A c) Rückverschieben (R) von Bildpunkten (P¶1¶, P¶2¶) eines der aufgenommenen Bilder jeweils um einen gleichen, vorgebbaren Weg (W), wobei die Richtung der Rückverschiebung (R) entgegen der Bewegungsrichtung des Gegenstandes (1) erfolgt, DOLLAR A d) Vergleich der Helligkeits- und/oder Farbeigenschaften von in Rückverschiebungsrichtung (R) benachbarten Bildpunkten zumindest zweier Bilder, DOLLAR A e) Vergleich der ermittelten Helligkeits- und/oder Farbeigenschaften von jeweils einem Bildpunkt zweier Bilder, wobei diese Bildpunkte dieselben Punktkoordinaten (a, b) besitzen, DOLLAR A f) Verknüpfen der Helligkeits- und/oder Farbeigenschaften der beiden Bildpunkte mit denselben Punktkoordinaten (a, b), DOLLAR A g) erneutes Rückverschieben der Bildpunkte und Wiederholen der Verfahrensschritte e) und f), DOLLAR A h) Vergleich der zumindest zwei Verknüpfungsergebnisse miteinander, und DOLLAR A i) Ermitteln der Rückverschiebeweglänge (R) bis zum Erreichen eines vorgebbaren Verknüpfungsergebnisses.
Description
Die Erfindung betrifft ein Verfahren zur optischen
Formerfassung von Gegenständen.
In vielen Bereichen der industriellen Produktion
und insbesondere der Qualitätskontrolle werden Ver
fahren zur Formerfassung von Objekten benötigt. Die
geometrischen Daten des Objekts werden mit Hilfe
von geeigneten Messeinrichtungen in numerische Da
ten auf einem Computer gewandelt. Die Kontrolle von
Maßhaltigkeit und anderen Parametern kann durch
Software erfolgen.
Ein weiteres Einsatzfeld der optischen Formerfas
sung ist auch im Bereich des Internet zu sehen. Es
besteht großes Interesse, Objekte automatisiert zu
erfassen und in numerische Daten zu wandeln, die im
Internet übertragen und visualisiert werden können.
Ein Objekt von Interesse könnte dann interaktiv von
einem Benutzer aus den verschiedensten Richtungen
angesehen werden.
Optische Verfahren zur Formerfassung von Objekten
beziehungsweise Gegenständen lösen immer mehr die
bisher verwendeten mechanisch abtastenden Verfahren
ab. Ein großer Vorteil der optischen Verfahren ist
darin zu sehen, dass die Messung berührungslos und
damit ohne mechanische Beeinflussung des Objektes
abläuft. Es können damit Verformungen des Objekts
durch die Messung selbst ausgeschlossen werden.
Insbesondere ist dies bei optischen Formerfassungs
verfahren von Vorteil, wenn die Oberfläche des Ge
genstandes verformbar ist, wie dies beispielsweise
bei elastischen Materialien der Fall ist. Ein wei
terer Vorteil bei den berührungslos arbeitenden
Formerfassungsverfahren besteht darin, dass eine
sehr große Anzahl von Objektpunkten, also sehr
kleinen Flächenelementen, gleichzeitig erfasst wer
den kann. Dies führt zu wesentlich geringeren Mess
zeiten im Vergleich zu den mechanisch abtastenden
Verfahren. Darüber hinaus sind auch Strukturen, die
Höhenstufen enthalten, messbar, was bei mechanisch
tastenden Verfahren oft zu Schwierigkeiten führt.
Bekannte optische Formerfassungsverfahren basieren
meist auf Triangulations- oder interferometrischen
Techniken.
Bei einem bekannten Triangulationsverfahren wird
ein Lichtpunkt auf die Oberfläche des zu vermessen
den Objekts projiziert und aus einer von der Be
leuchtungsrichtung abweichenden Richtung beobach
tet. Die Koordinaten des beleuchteten Punktes kön
nen aus der Kenntnis der Orientierung des Projekti
onsstrahls im Raum und der Richtung, aus der der
beobachtete Punkt wahrgenommen wird, berechnet wer
den. Das Verfahren ist relativ genau und eindeutig.
Da die Oberfläche des zu vermessenden Gegenstandes
aber Punkt für Punkt abgetastet werden muss, wird
für eine vollständige Formerfassung eines Objekts
viel Zeit benötigt. Außerdem können nur solche
Punkte der Oberfläche erfasst werden, die sowohl
vom Ort der Lichtquelle als auch von einer beobach
tenden Kamera direkt sichtbar sind. Ein durch eine
solche Messung erhaltener Datensatz, der die er
fassten Punkte digital wiedergibt, ist daher nie
mals vollständig. Zwar können mehrere Datensätze,
also beispielsweise mehrere Bilder aus unterschied
lichen Beobachtungsrichtungen, durch wiederholte
Messungen aus unterschiedlichen Beobachtungs- be
ziehungsweise Beleuchtungsperspektiven gewonnen
werden; um die Form des Gegenstands in seiner Ge
samtheit zu erfassen, müssen die einzelnen Daten
sätze jedoch in eine geometrische Beziehung zuein
ander gebracht werden. Dies wird als sogenanntes
Matching bezeichnet. Dafür ist häufig noch der Ein
griff eines Benutzers erforderlich.
Weiterentwickelte, auf der Triangulation beruhende
Verfahren sind die Lichtschnitttechnik und die
Streifenprojektion. Bei Ersterer wird anstatt eines
einzelnen Punktes eine Linie auf die Oberfläche des
zu vermessenden Gegenstandes projiziert. Diese Li
nie wird aus einer von der Beleuchtungsrichtung ab
weichenden Richtung von einer Kamera beobachtet be
ziehungsweise aufgezeichnet. Die Raumkoordinaten
der beleuchteten Punkte werden in gleicher Weise
wie bei dem oben beschriebenen Triangulationsver
fahren gewonnen. Das Verfahren der Lichtschnitt
technik ist zwar schneller als die punktweise Tri
angulation, aber immer noch langsamer als andere
Verfahren, die eine größere Fläche auf einmal er
fassen können. Auch hier sind mehrere Messungen un
ter verschiedenen Perspektiven und deren Matching
nötig, um zu einer vollständigen Darstellung des
Gegenstands zu gelangen.
Bei der Streifenprojektion handelt es sich um eine
Weiterentwicklung der Lichtschnitttechnik, bei der
mehrere Linien gleichzeitig auf die Oberfläche des
zu vermessenden Gegenstandes projiziert werden. Die
Intensität dieser Linien variiert periodisch in la
teraler Richtung und macht die einzelnen Linien für
die Beobachtungskamera unterscheidbar. Das Verfah
ren ist zwar schneller als die Lichtschnitttechnik,
da ein größerer Oberflächenbereich auf einmal er
fasst werden kann, Linien gleicher Intensität sind
jedoch nicht unterscheidbar. Dadurch geht die Ein
deutigkeit der Messung zumindest teilweise verlo
ren. Somit ist es auch bei der Streifenprojektion
nach Durchführung von mehreren Messungen, also Auf
zeichnung von verschiedenen Bildern, notwendig,
diese durch Matching zusammen zu fügen.
Für genauere Messungen werden häufig interfero
metrische Verfahren eingesetzt, die an dieser Stel
le nicht weiter beschrieben werden sollen, da die
vorliegende Erfindung nicht auf ihnen aufbaut. An
zumerken ist jedoch, dass auch bei den interfero
metrischen Verfahren das Problem besteht, dass die
Ergebnisse mehrerer Einzelmessungen durch Matching
zusammengefügt werden müssen, um zu einer vollstän
digen dreidimensionalen Darstellung des Messgegen
standes zu gelangen.
Es besteht somit das Problem bei den bekannten Ver
fahren, dass verschiedene Bilder eines Gegenstan
des, die aus verschiedenen Blickwinkeln aufgezeich
net sind, nicht eindeutig zu einem dreidimensiona
len Bild zusammengefügt werden können, da gleiche
Objektpunkte, also Flächenelemente des Gegenstands,
auf den Bildern nicht eindeutig einander zugeordnet
werden können, so dass ein Korrespondenzproblem be
steht.
Zur Lösung dieses Problems wird ein Verfahren vor
geschlagen, das die automatische Erfassung der Ges
talt eines dreidimensionalen Gegenstandes aus un
terschiedlichen Blickwinkeln ermöglicht, ohne dass
dabei eine Matching-Prozedur durchgeführt werden
muss.
Dieses Verfahren mit den Merkmalen des Anspruchs 1
umfasst folgende Schritte:
- a) Relatives Bewegen des Gegenstandes zu einer Kame ra auf einer vorgegebenen Bahn,
- b) Aufnehmen von Bildern des Gegenstands im Laufe der Bewegung,
- c) Rückverschieben von Bildpunkten eines der aufge nommenen Bilder jeweils um einen gleichen, vor gebbaren Weg, wobei die Richtung der Rückver schiebung entgegen der Bewegungsrichtung des Ge genstandes erfolgt,
- d) Vergleich der Helligkeits- und/oder Farbeigen schaften von in Rückverschiebungsrichtung benach barten Bildpunkten zumindest zweier Bilder,
- e) Vergleich der ermittelten Helligkeits- und/oder Farbeigenschaften von jeweils einem Bildpunkt zweier Bilder, wobei diese Bildpunkte dieselben Punktkoordinaten auf der Bildfläche besitzen,
- f) Verknüpfen der Helligkeits- und/oder Farbeigen schaften der beiden Bildpunkte mit denselben Punktkoordinaten,
- g) erneutes Rückverschieben der Bildpunkte und wie derholen der Verfahrensschritte e) und f),
- h) Vergleich der zumindest zwei Verknüpfungsergeb nisse miteinander und
- i) Ermitteln der Rückverschiebungsweglänge bis zum Erreichen eines vorgebbaren Verknüpfungsergebnis ses.
Bei diesem erfindungsgemäßen Verfahren macht man
sich folgende Grundidee zu Nutze: Das zu vermessen
de Objekt beziehungsweise der zu vermessende Ge
genstand bewegt sich mit konstanter Bewegungsrich
tung und vorzugsweise konstanter Geschwindigkeit am
Beobachter, also an der Kamera vorbei. Flächenele
mente des Gegenstands, die nahe an der Kamera lie
gen, ziehen unter schneller Änderung des
"Sehwinkels" vorbei, während sich bei weiter ent
fernten Flächenelementen der Sehwinkel langsamer
ändert. Flächenelemente, die nahe an der Kamera
liegen, ziehen also scheinbar schneller vorbei als
weiter entfernte Flächenelemente, die ihre Lage im
Raum somit weniger ändern. Stellt man sich also ei
nen Gegenstand vor, dessen Oberfläche Vertiefungen
oder Erhebungen aufweist, bewegen sich diese somit
unterschiedlich weit von der Kamera entfernten Flä
chenelemente unterschiedlich schnell an der Kamera
beziehungsweise an der Aufzeichnungsebene der Kame
ra vorbei. Aus der Änderung des "Sehwinkels" in Ab
hängigkeit von der Zeit kann somit auf die Entfer
nung des Objektpunktes beziehungsweise des Flächen
elementes von der Aufzeichnungsebene der Kamera ge
schlossen werden. Mithin verbleibt bei diesem Ver
fahren das Problem, festzustellen, wie weit der mit
der Kamera aufgezeichnete Flächenpunkt während ei
nem bestimmten Zeitabstand gewandert ist. Es muss
also das Korrespondenzproblem gelöst werden, auf
zwei unterschiedlichen Bildern, die zu unterschied
lichen Zeitpunkten aufgenommen wurden, dieselben
Bildpunkte zu ermitteln. Bei dem erfindungsgemäßen
Verfahren löst man das Korrespondenzproblem da
durch, dass ein aufgezeichneter Bildpunkt entgegen
der Bewegungsrichtung des Gegenstandes rückverscho
ben wird, um anschließend den rückverschobenen
Bildpunkt mit einem Bildpunkt eines vorangegangenen
aufgenommenen Bildes zu vergleichen hinsichtlich
ihrer Helligkeits- und/oder Farbeigenschaften, wo
bei die zu vergleichenden Bildpunkte dieselben
Punktkoordinaten besitzen. Durch Verknüpfen der
Helligkeits- und/oder Farbeigenschaft dieser beiden
Bildpunkte mit denselben Bildkoordinaten entsteht
ein Verknüpfungsergebnis. Ein erneutes Rückver
schieben dieses Bildpunktes lässt wieder einen Ver
gleich mit einem anderen Bildpunkt zu, der diesel
ben Punktkoordinaten besitzt. Es wird also ein
zweiter Vergleich der ermittelten Helligkeits-
und/oder Farbeigenschaften durchgeführt. Ein an
schließendes Verknüpfen dieser Helligkeits-
und/oder Farbeigenschaft der beiden Bildpunkte lie
fert wiederum ein Verknüpfungsergebnis. Man kann
nun beide Verknüpfungsergebnisse miteinander ver
gleichen. Selbstverständlich ist es auch möglich,
jedes oder eines der Verknüpfungsergebnisse mit ei
nem vorgebbaren Kriterium, also beispielsweise ei
nem Sollwert, zu vergleichen. Durch diesen Ver
gleich der Verknüpfungsergebnisse lässt es sich
feststellen, ob der rückverschobene Bildpunkt nun
so weit rückverschoben ist, dass er mit dem korres
pondierenden Bildpunkt des anderen Bildes in De
ckung gebracht wurde, der bei einem später aufge
nommenen Bild an einer bestimmten Punktkoordinate
vorliegt. Diese beiden Bildpunkte korrespondieren
miteinander, zeigen also im Idealfall auf zwei un
terschiedlichen Bildern dasselbe Flächenelement des
Gegenstandes. Mithin kann die Weglänge der Rückver
schiebung ermittelt werden und daraus die Entfer
nung des Bildpunktes zu der Kamera. Führt man die
ses Vergleichen, Verknüpfen und erneutes Verschie
ben mit allen, vorzugsweise gleichzeitig, Bildpunk
ten durch, kann der Abstand jedes Bildpunkts von
der Kamera bestimmt werden. Somit lässt sich die
Oberflächenstruktur des Gegenstandes sehr genau
bestimmen.
Im Laufe der Bewegung des Gegenstandes relativ zur
Kamera kann also eine Vielzahl von Bildern des Ge
genstandes unter jeweils variierenden Perspektiven
aufgenommen werden. Durch das Rückverschieben der
Bildpunkte und das Vergleichen beziehungsweise Ver
knüpfen der Helligkeits- beziehungsweise Farbeigen
schaft können korrespondierende Bildpunkte zweier
Bilder sicher einander zugeordnet werden, wenn das
Verknüpfungsergebnis ein vorbestimmtes Kriterium,
beispielsweise bei Helligkeit ein Maximum, erreicht
ist. So wird das Korrespondenzproblem sicher ge
löst.
Um nach der Ermittlung von zumindest zwei korres
pondierenden Bildpunkten den Gegenstand bildlich
darstellen zu können, werden in bevorzugter Ausfüh
rungsform die Koordinaten des Punktes im Raum, also
die Koordinaten des Flächenpunktes am Gegenstand,
berechnet.
Bevorzugt wird eine Ausführungsform des Verfahrens,
bei der die Bewegung des Gegenstands geradlinig er
folgt. Außerdem ist vorzugsweise vorgesehen, dass
die Bewegung mit konstanter Geschwindigkeit erfolgt
und der Zeitabstand zwischen zwei Bildaufnahmen
zumindest über eine längere Bildfolge konstant ist.
Ohne größere Korrekturrechnungen kann somit auf be
sonders einfache Art und Weise der Abstand des Flä
chenelements von der Kamera bestimmt werden, so
dass die Oberfläche des Gegenstandes leicht visuell
als dreidimensionales Bild darstellbar ist.
Um in einem aufgenommenen Bild Merkmale wie Hellig
keitsübergänge, Kanten und Ränder des Gegenstands
hervorzuheben, werden die aufgenommenen Bilder in
einer bevorzugten Ausführungsform örtlich differen
ziert, in dem für im Wesentlichen jeden Punkt eines
Bildes die Differenz zwischen einem Helligkeitswert
dieses Punktes und dem eines benachbarten Punktes
berechnet wird.
Um gleiche Merkmale des Gegenstands an Punkten von
unterschiedlichen Bildern zu identifizieren, werden
bevorzugt mehrere Bilder vorzugsweise relativ zu
einander verschoben und dabei punktweise vergli
chen. In diesem Fall sind die zwei Punkte eines
Bildes, zwischen deren Helligkeitswerten eine Dif
ferenz berechnet wird, vorzugsweise in Richtung der
Rückverschiebebewegung beabstandet zueinander.
Der Vergleich der Bilder wird vorzugsweise derart
durchgeführt, indem ein Summenbild durch Addition
von Parameterwerten von Punkten gebildet wird, die
durch die Verschiebung überlappen, wobei jeweils
Punkte, an denen das durch die Addition erhaltene
Summenbild Extrema aufweist, gleichen Merkmalen des
Objektes zugeordnet werden können. Das heißt, wer
den Helligkeitswerte zweier Punkte miteinander ad
diert, zeigt das Additionsergebnis ein Maximum,
wenn die Helligkeitswerte beider Bildpunkte iden
tisch sind. Werden hingegen Farbeigenschaften be
trachtet, wäre ein Extremum beispielsweise dann er
reicht, wenn ein "Übereinanderlegen" zweier Farb
bildpunkte einen Farbton liefern, der den Ausgangs
farben der Bildpunkte entspricht. Mithin würden
Bildpunkte mit gleichem Farbton übereinander lie
gen.
Um die Identifizierung der Extrema möglichst sicher
und rauscharm zu machen, wird Vorteilhafterweise
eine große Anzahl von Bildern aufgenommen und um
eine zu der Bilderanzahl mal Zeitabstand zwischen
zwei aufeinanderfolgenden Bildern proportionale
Strecke rückverschoben. Das Summenbild wird durch
Addition der Parameterwerte überlappender Punkte
der Bilder gebildet. Merkmale des Gegenstandes, die
sich in einer zum gewählten Proportionalitätsfaktor
der Verschiebung passenden Entfernung von der Kame
ra befinden, Überlappen in allen Bildern, so dass
sich ihre Beiträge zum Summenbild stets mit glei
chem Vorzeichen aufaddieren. Andere Strukturen der
Bilder, die eventuell Merkmalen des Gegenstandes
mit einer anderen Entfernung zur Kamera entspre
chen, Überlappen hingegen nicht, so dass sich ihre
Beiträge zum Summenbild herausmitteln.
Indem an einem gegebenen Satz von Bildern eine
Mehrzahl von Rückverschiebeoperationen von jeweils
unterschiedlichen Entfernungen mit unterschiedli
chen Proportionalitätsfaktoren durchgeführt wird,
ist es möglich, diese Bilder systematisch nach
Merkmalen des Gegenstandes abzusuchen, die jeweils
dem Ausmaß der Rückverschiebung beziehungsweise dem
Proportionalitätsfaktor entsprechende, unterschied
liche Abstände zur Kamera haben.
Weitere Ausgestaltungen ergeben sich aus den Unter
ansprüchen.
Nachfolgend wird die Erfindung anhand von Ausfüh
rungsbeispielen mit Bezug auf die Zeichnung näher
erläutert. Es zeigen:
Fig. 1 stark schematisiert eine Vorrichtung
zur Durchführung des erfindungsgemä
ßen Verfahrens in perspektivischer
Ansicht,
Fig. 2 veranschaulicht das Verfahren in ei
ner Schnittdarstellung parallel zur
Bewegungsrichtung des zu erfassenden
Gegenstandes,
Fig. 3a und 3b das Erfassungsergebnis einer Pi
xelzeile einer CCD-Kamera aus Fig.
2 zu zwei verschiedenen Zeitpunkten,
Fig. 4a und 4b das differenzierte Erfassungsergeb
nis,
Fig. 5 das differenzierte Erfassungsergeb
nis für eine Vielzahl von Bildern
des Gegenstandes in einer quasi
dreidimensionalen Darstellung,
Fig. 6 die Summe der Erfassungsergebnisse
aus Fig. 5 für unterschiedliche
Verschiebungen, und
Fig. 7 und 8 einen CCD-Chip der Kamera, auf dem
unterschiedliche Bildpunkte bezie
hungsweise aktivierte Pixel darge
stellt sind.
Fig. 1 zeigt eine schematisch-perspektivische An
sicht einer Vorrichtung zur Durchführung des erfin
dungsgemäßen Verfahrens. Ein Gegenstand 1, dessen
Form beziehungsweise Oberflächenstruktur erfasst
werden soll, wird auf einem Förderband 2 in vor
zugsweise geradliniger Bewegung durch das Blickfeld
einer Kamera 3 bewegt und dabei von einer Licht
quelle 4 angestrahlt. Die optische Achse der Kamera
3 verläuft in einer zu der x-Richtung senkrechten
Richtung z. Vorzugsweise erfolgt die Bewegung des
Gegenstands senkrecht zur z-Achse beziehungsweise
parallel zur x-Achse.
Die Kamera 3 ist teilweise aufgebrochen darge
stellt, auf ihrer Bildebene 5 sind Abb. 6
des Gegenstands zu erkennen, die zu verschiedenen
Zeitpunkten im Laufe der Bewegung des Gegenstandes
1 auf dem Förderband 2 in der Bildebene 5 entste
hen. Die Bildebene 5 liegt vorzugsweise parallel
zur x-y-Ebene. Die Bewegung des Gegenstandes er
folgt somit vorzugsweise parallel zur Bildebene 5.
Die Transportrichtung des Förderbands entspricht
der x-Achse des in der Figur dargestellten Koordi
natensystems. Die z-Achse liegt parallel zur opti
schen Achse der Kamera 3, die y-Achse verläuft ver
tikal. Im Laufe der Bewegung des Gegenstandes 1 än
dert sich laufend der Winkel, unter dem der Gegen
stand von der Kamera wahrgenommen beziehungsweise
auf der Bildebene 5 abgebildet wird.
Die von der Kamera 3 aufgezeichneten Bilder werden
von einem an sich bekannten Computer 7 in einen
einheitlichen Datensatz umgerechnet, der dreidimen
sionale Koordinaten aller für die Gestalt des Ge
genstandes wesentlichen Merkmale beziehungsweise
Bildpunkte angibt. Selbstverständlich könnte an
stelle des Computer 7 auch eine auf die hier vorge
sehene Verarbeitung spezialisierte Schaltung ver
wendet werden, die ein Fachmann anhand der nachfol
genden Angaben zum Verfahren ohne Schwierigkeiten
wird zusammenstellen können.
Das von dem Computer 7 beziehungsweise der Schal
tung durchzuführende Verfahren wird nachfolgend an
hand der Fig. 2 bis 8 erläutert.
Fig. 2 zeigt den Gegenstand 1 in einem horizonta
len Schnitt parallel zur x- und z-Achse des Koordi
natensystems aus Fig. 1 an verschiedenen Positio
nen seines Weges, mit x0, x1 . . . xi, . . ., xn be
zeichnet. In den ersten Positionen x0, x1 bis ein
schließlich xi ist eine Schmalseite 10 und die
rechte Breitseite 11 des hier zu Beispielzwecken
als im Querschnitt rechteckig angenommenen Gegens
tandes 1 für die Abbildungsoptik 17 der Kamera
sichtbar. Der Kamera zugewandte Ecken 13, 15 des
Gegenstandes 1 werden in der Position x0 auf Werte
13'0, 15'0 der Bildebene 5, in der Position xi auf
Punkte 13'i, 15'i und in der Position xn auf Punkte
13'n, 15'n abgebildet. Eine abgewandte Ecke 14 der
Breitseite 11 bildet in den Positionen x0 und xi auf
Punkte 14'0, 14'i ab, in der Position xn ist diese
für die Kamera 3 nicht mehr sichtbar; die stattdes
sen sichtbar gewordene Ecke 16 wird auf den Punkt
16'n abgebildet. Die Kamera 3 nimmt Bilder des Ge
genstandes 1 an den Positionen x0 bis xn auf.
Wie man leicht sieht, unterscheiden sich die Ab
stände d13, d14 zwischen nacheinander aufgenommenen
Bildpunkten, wie etwa 13'0, 13'i beziehungsweise
14'0, 14'i der zwei Ecken 13, 14. Die Geschwindig
keit, mit der ein Bildpunkt des Gegenstandes im
Laufe von dessen Bewegung in x-Richtung durch das
Blickfeld der Kamera durch die Bildebene 5 der Ka
mera wandert, ist umgekehrt proportional zum Ab
stand des zugehörigen abgebildeten Merkmals von der
Abbildungsoptik 17, das heißt von der z-Koordinate
des Merkmals. Das heißt, je nach Abstand von der
Abbildungsoptik sieht die Kamera ein Merkmal bezie
hungsweise ein Flächenelement des Gegenstandes 5
mehr oder weniger schnell vorbeiziehen.
Fig. 3 zeigt die Verteilung der Beleuchtungsstärke
L auf der Bildebene 5 entlang der in Fig. 2 darge
stellten Schnittlinie in Zeile a für die Position
x0 und Zeile b für die Position xi. Ein solches Sig
nal kann auf einfache Weise praktisch gewonnen wer
den, indem eine digitale Kamera als Kamera 3 einge
setzt wird, die einen sogenannten CCD-Chip auf
weist, der in der Bildebene 5 liegt. Auf dem CCD-
Chip sind eine Vielzahl von matrixartig angeordne
ten lichtempfindlichen Pixel ausgebildet. Das Sig
nal gibt also den Helligkeitsverlauf in einer Pi
xelreihe wieder, wobei diese Pixelreihe parallel
zur x-Bewegungsrichtung liegt. Die matrixartig an
geordneten Pixel liegen also parallel zur x-y-
Ebene.
Die Beleuchtungsverteilung in Fig. 3a hat drei Pe
gel, einen als 0 angenommen Hintergrundpegel, einen
mittleren Pegel zwischen dem Punkt 14'0 und einem
Punkt 15'0, der der Abbildung der Schmalseite 10
entspricht. Diese ist nur einem streifenden Licht
einfall seitens der Lichtquelle 4 ausgesetzt und
daher nur mittelmäßig hell. Der Bereich zwischen
den Punkten 15'0 und 13'0 entspricht im Wesentlichen
der frontal beleuchteten und entsprechend hellen
Schmalseite 10. In Zeile b von Fig. 3, die der Po
sition xi in Fig. 2 entspricht, ist der Abstand
zwischen den Punkten 14'i und 15'i, der der Breit
seite 11 entspricht, infolge des veränderten Blick
winkels schmaler geworden. Der Signalpegel ist in
folge der als weit entfernt angenommenen Lichtquel
le 4 unverändert. Breite und Signalpegel des der
Schmalseite 10 entsprechenden Abschnitts zwischen
den Punkten 15'i und 13'i ist ebenfalls unverändert.
Die in Fig. 3 gezeigten Intensitätsverläufe werden
vom Computer 7 differenziert. Dies kann in einfa
cher Weise dadurch erfolgen, dass jeweils die Dif
ferenz zwischen den Intensitätswerten eines Pixels
und eines unmittelbar benachbarten gebildet wird.
Am Bildrand wo ein Nachbarpixel fehlt, kann diese
Differenz zwar nicht gebildet werden, doch ist dies
für das Verfahren ohne wesentliche Bedeutung.
Fig. 4 zeigt in den Zeilen a und b das Ergebnis
dieser Differenzierung in x-Richtung für die in
Fig. 3a, 3b gezeigten Verteilungen der Beleuchtungs
stärke L. An jedem der Punkte, die einer der Ecken
des Gegenstands 1 entsprechen, ergibt sich ein
deutliches Extremum, an anderen Stellen ist das Er
gebnis der Differenzierung im Wesentlichen 0. Diese
Extrema sind in der Figur jeweils mit Eµν bezeich
net, wobei µ = 13, 14 oder 15 das Merkmal des Gegen
standes 1 angibt, dem ein Extremum entspricht, und
ν = 0, . . ., n die Position des Gegenstandes bezeichnet,
in der das Bild aufgenommen wurde. Durch die Diffe
renzierung werden somit die für die Erfassung der
Form des Gegenstandes 1 wesentlichen Merkmale auf
einfache Weise hervorgehoben.
Wenn die Form des zu erfassenden Gegenstandes ein
fach und im Computer "bekannt" ist, und es nur dar
um geht, die Position der Merkmale des zu vermes
senden Gegenstandes genau zu bestimmen, so kann der
Computer 7 eine direkte Zuordnung der Extrema zu
Merkmalen des Gegenstandes 1 durchführen und den
Abstand wie etwa d13, d14 zwischen gleiche Merkmale
darstellenden Punkten in zwei verschiedenen Bildern
direkt messen.
Die Entfernung des Merkmals von der Kamera in Rich
tung von deren optischer Achse, das heißt seiner z-
Koordinate, kann dann auf einfache Weise anhand der
Formel
z = f.D/d
berechnet werden, wobei d der gemessene Abstand
zwischen zwei einem gleichen Merkmal entsprechenden
Bildpunkten wie etwa d13, d14 ist, D der bekannte
Abstand (Weg zwischen den Positionen x0, xi) des zu
messenden Gegenstandes, an denen die Bilder aufge
nommen wurden, und f die Brennweite der Abbildungs
optik ist. Der Gegenstand 1 sei so weit entfernt,
dass die Bildweite der Brennweite f der Abbildungs
optik angenähert werden kann. Die Entfernung D kann
der Computer 7 zum Beispiel mit Hilfe einer (nicht
dargestellten) Schnittstelle zur Steuerung des För
derbandes 2 erfassen, die jeweils zum Zeitpunkt der
Gewinnung des i-ten Bildes die Position xi des För
derbandes liefert; einfacher ist jedoch, das För
derband mit konstanter, bekannter Geschwindigkeit v
zu betreiben und den Abstand zwischen zwei Positio
nen des Gegenstandes anhand der Formel
D = v.T
zu berechnen, wobei T der Zeitabstand zwischen zwei
Bildern ist.
Eine weiterentwickelte Ausgestaltung des Verfahrens
erlaubt die Vermessung von Gegenständen mit belie
biger, auch komplizierterer Gestalt, ohne dass bei
der Auswertung der Bilder irgendwelche Vorwegannah
men über die Gestalt gemacht werden müssen. Hierzu
werden die von der Kamera 3 an den Positionen x0,
x1, x2 . . . des Förderbandes aufgenommenen Bilder,
wie mit Bezug auf Fig. 3 und 4 beschrieben, dif
ferenziert. Das Ergebnis ist in Fig. 5 gezeigt.
Jede der mit 0, 1, i, i + 1, . . ., n bezeichneten Zei
len zeigt das Ergebnis der Differenzierung einer
Bildzeile der Bilder 0 bis n. Dabei entsprechen die
Zeilen 0 und i Fig. 4a beziehungsweise Fig. 4b.
Man erkennt, dass die den Ecken 13 und 15 des Ge
genstandes entsprechenden Extrema E13,0 . . . E13,n be
ziehungsweise E15,0 . . . E15,n entlang zweier paralle
ler Linien aufgereiht sind, die mit G13 beziehungs
weise G15 bezeichnet sind. Die zur Ecke 14 gehören
den Extrema sind entlang einer weiteren Linie G14
aufgereiht, die G13 am Punkt P1 schneidet. Dieser
Punkt entspricht einer Stellung des Gegenstandes 1
relativ zur Kamera 3, an der die Kamera frontal vor
die Schmalseite 10 blickt und die Breitseite 11 für
sie unsichtbar wird. Wenn sich der Gegenstand über
diese Stellung hinaus weiter in x-Richtung bewegt,
wird seine gegenüberliegende Breitseite mit der ab
gewandten Ecke 16 für die Kamera 3 sichtbar. Es er
scheint daher in den differenzierten Bildern ein
neues Extremum, das der Ecke 16 entspricht und in
der Zeile n von Fig. 5 dargestellt ist. Alle auf
die Ecken 16 zurückgehenden Extrema liegen an einer
Linie G16, die sich am Punkt P2 von G15 löst und pa
rallel zu G14 verläuft.
Zur Auswertung der in Fig. 5 dargestellten Daten
wird eine Folge von Werten eines Proportionalitäts
faktors α festgelegt und für jeden Wert wird dieses
Bild im Computer um die Entfernung α.T.i entgegen
gesetzt zur Bewegungsrichtung des Gegenstandes
rückverschoben. Diese Rückverschiebung kann als
Formel geschrieben werden:
H'i(x, y) = Hi(x + α. T. i, y)
wobei Hi, H'i jeweils die differenzierte Beleuch
tungsstärke dL/dx des i-ten Bildes vor und nach der
Verschiebung bezeichnen. Die so rückverschobenen
Bilder werden addiert. Das heißt die einzelnen Hel
ligkeitswerte der Pixel, die übereinander liegen,
werden addiert.
Das Ergebnis der Addition (Verknüpfung) ist für
fünf verschiedene Werte von α in Fig. 6 gezeigt.
Entlang einer dem Wert α = 0 entsprechenden Linie
sind zur Orientierung noch einmal die Extrema
(Vergleichskriterien) von Fig. 4a eingezeichnet.
Die mit α1 bezeichnete Zeile zeigt das Ergebnis für
eine kleinen Wert von α, das heißt eine geringe
Rückverschiebung. Da die Extrema jeweils unter
schiedliche x-Koordinatenwerte haben, ist die Summe
recht gleichmäßig entlang der x-Achse verteilt. Die
Beträge sind gering. Am nächst größeren Wert α2 be
ginnen zwei Spitzen σ14, σ16, sich abzuzeichnen.
Der dritte Wert des Proportionalitätsfaktors α3 ist
gleich d14/(T.i). Bei diesem Wert des Proportionali
tätsfaktors fallen die Extrema, die den von der Ka
mera 3 entfernten Ecken 14, 16 des Gegenstandes 1
entsprechen, übereinander. Man erhält zwei scharfe
Spitzen Σ14, Σ16 des Summenbildes.
Der vierte Wert des Proportionalitätsfaktors α4 ist
gleich d13/(T. i). Bei diesem Wert fallen die den der
Kamera zugewandten Ecken 13, 15 entsprechenden Ex
trema übereinander. Man erhält ebenfalls sehr
scharfe Spitzen Σ13, Σ15 auf geringem Untergrund.
Bei einem noch höheren Wert α5 des Proportionali
tätsfaktors fallen keine Extrema übereinander und
das Summenbild weist lediglich geringe, um 0
schwankende Werte auf.
Wie man sieht, entspricht jeder Ecke des Gegenstan
des 1 eine Spitze in den Summenbildern. Durch ein
faches Vorbeifahren des Gegenstandes an der Kamera
ist also die vollständige Information über den
Querschnitt dieses Gegenstandes zu bekommen. Bemer
kenswert ist dabei, dass das dem Proportionalitäts
faktor α3 entsprechende Summenbild Spitzen der zwei
Ecken 14 und 16 gleichzeitig aufweist, obwohl die
Kamera zu keinem Zeitpunkt beide Ecken gleichzeitig
sehen kann. Es ist also mit diesem Verfahren mög
lich, einheitliche Datensätze aus unterschiedlichen
Perspektiven aufgenommen Bildern vollautomatisch zu
gewinnen, ohne dass eine Bedienungsperson von hand
ein Matching-Verfahren durchführen müsste.
Die Information über die Abmessungen des Gegenstan
des 1 ist enthalten in der x-Koordinate und dem
Wert des Parameters α, für die die Summe der abge
leiteten und verschobenen Beleuchtungsstärken H'
ein lokales Extremum aufweisen.
Die weitere Auswertung der Ergebnisse ist einfach.
Lokale Extrema, die eine vorgegebene Mindestgröße
(Vergleichkriterium) nicht erreichen, können ver
nachlässigt werden. Der Wert des Proportionalitäts
faktors α für eine Spitze Σ wird nach der Formel
z = f.D/α.T in die z-Koordinate des entsprechenden
Merkmals umgerechnet. Anhand der bekannten Entfer
nung f zwischen Abbildungsoptik und Bildebene der
Kamera und der wie oben angegebenen ermittelten z-
Koordinate können x- und y-Koordinate des Merkmals
im Raum durch einfache Proportionalitätsrechnung
aus den Koordinaten des zugehörigen Bildpunktes in
der Bildebene bestimmt werden.
Fig. 7 zeigt die Bildebene 5 der Kamera 3 stark
vereinfacht dargestellt. Licht- beziehungsweise
farbempfindliche Pixel 5a sind die matrixartig auf
einem CCD-Chip angeordnet. Die Koordinaten eines
einzelnen Pixels 5a sind anhand der Koordinatenach
sen a und b der Bildebene 5 eindeutig identifizier
bar. Die Koordinatenachsen a und b der Bildebene 5
liegen vorzugsweise parallel zu den Koordinatenach
sen x und y in Fig. 1. Wird mit der Kamera 3 ein
Bild des Gegenstandes 1 aufgenommen, so werden auf
den Pixel 5a entsprechend der Oberfläche des Ge
genstandes 1 Flächenmerkmale als Bildpunkte abge
bildet. Rein beispielhaft sind zwei Bildpunkte P1
und P2 auf der Bildebene 5 dargestellt. Aufgrund
der Relativbewegung des Gegenstandes 1 bezüglich
der Kamera 3 wandern die Bildpunkte P1 und P2 auf
der Bildebene 5 zu einer Position P'1 beziehungs
weise P'2. Das heißt, dass zu einem ersten Zeit
punkt beziehungsweise bei einer ersten Bildaufnahme
Merkmale des Gegenstandes 1 an den Pixel der Bild
punkte P1 beziehungsweise P2 abgebildet werden.
Durch die Bewegung des Gegenstandes 1 werden die
selben Merkmale des Gegenstandes 1 zu einem späte
ren Zeitpunkt auf den Pixel als Bildpunkte P'1 und
P'2 abgebildet. Es wird angenommen, dass das Merk
mal des Gegenstandes 1, welches auf dem Bildpunkt
P1 abgebildet wird, näher an der Bildebene 5 liegt
als das Merkmal, das auf dem Bildpunkt P2 abgebil
det wird. Das heißt, dass in z-Richtung der Abstand
des Flächenmerkmals, das den Bildpunkt P1 abbildet,
einen geringeren Abstand zur Bildebene 5 aufweist
als das Merkmal, das den Punkt P2 auf der Bildebene
5 abbildet. Bei der Aufnahme eines Bildes liefert
jedes Pixel 5a einen Grauwert beziehungsweise In
tensitätswert beziehungsweise Farbwert, der dem O
berflächenmerkmal des Gegenstandes 1 entspricht.
Der Bildpunkt P1 wandert in einer bestimmten Zeit
spanne um einen größeren Weg W1 als der Bildpunkt
P2, der auf der Bildebene 5 einen Weg W2 zurücklegt.
Um nun den Verschiebeweg W1 beziehungsweise W2 er
mitteln zu können, wird nun auf elektronischem Wege
der Bildpunkt P1' beziehungsweise P2' zurückverscho
ben, wie dies in Fig. 8 dargestellt ist. Der Rück
verschiebungsweg R1 beziehungsweise R2 wird dadurch
ermittelt, dass zunächst um bestimmte Rückverschie
bungswegeabschnitte Δa rückverschoben wird, wobei
Δa vorzugsweise der Breite eines Pixels 5a ent
spricht. In Rückverschiebungsrichtung R1 bezie
hungsweise R2 lässt sich nun jeweils der in Rich
tung R1 beziehungsweise R2 benachbart liegende Bild
punkt mit dem Bildpunkt P1' beziehungsweise P2' ver
gleichen. Das heißt, dass die Graustufen bezie
hungsweise Farben der beiden benachbart zueinander
liegenden Bildpunkte verglichen werden. Die Rück
verschiebungen in Richtung R1, R2 der Bildpunkte P1'
beziehungsweise P2' erfolgt also vorzugsweise immer
um ein Pixel, also um den Abstand Δa. Liegen glei
che beziehungsweise sehr ähnliche Graustufen bezie
hungsweise Farbwerte vor, wird angenommen, dass die
Rückverschiebung des Bildpunktes P1' beziehungswei
se P2' soweit erfolgt ist, dass er an den Koordina
ten des Bildpunktes P1 beziehungsweise P2' angekom
men ist. Aufgrund der Rückverschiebebewegung R1 be
ziehungsweise R2 kann somit auf den Weg W1 bezie
hungsweise W2 zurückgeschlossen werden. Da die Ge
schwindigkeit des Gegenstandes 1 und der Weg W1 be
ziehungsweise W2 des Merkmals auf der Bildebene 5
bekannt sind, kann somit auf den Abstand in z-
Richtung des Merkmals zur Bildebene 5 rückgeschlos
sen werden. Damit lässt sich die Tiefe des jeweili
gen Bildpunktes bestimmen, so dass auf die Oberflä
chenstruktur des Gegenstandes 1 zurückgeschlossen
werden kann.
Beim Rückverschieben eines Bildpunktes P1' bezie
hungsweise P2' wird also festgestellt, ob sich Hel
ligkeitsänderungen nach der Rückverschiebung bewe
gen oder ob sie am selben Ort bleiben. Dies er
reicht man durch Addition der verschobenen Bilder,
also durch Verschieben vorzugsweise aller Bildpunk
te, die auf der Bildebene 5 abgebildet sind. Ob
jektpunkte im untersuchten Tiefenbereich äußern
sich dadurch, dass sich die Werte für die Hellig
keit beziehungsweise Farbwerte aufaddieren und bei
elektronischer Auswertung sogenannte Peaks bilden,
während Bildpunkte außerhalb dieser Tiefebene sich
bewegen und positive beziehungsweise negative Hel
ligkeitswerte sich aufheben. Anschließend werden
die Maxima beziehungsweise Minima dieser Summe über
den verschiedenen Tiefenschichten gebildet, weil
positive und negative Peaks festgestellt werden
sollen. An den entsprechenden Punkten im Raum, de
ren kartesische Koordinaten man aus a, b und z ge
winnen kann, befinden sich die Objektpunkte, so
dass auf die Oberflächenstruktur rückgeschlossen
werden kann.
Diverse Weiterentwicklungen des Verfahrens sind
möglich. Da eine Differenzierung in einer Richtung
nur Konturen in einem Bild hervorzuheben vermag,
die senkrecht zu dieser Richtung verlaufen, kann es
zum Beispiel sinnvoll sein, zusätzlich zu der mit
Bezug auf Fig. 4 beschriebenen Differenzierung
nach der x-Koordinate noch eine zweite Differenzie
rung in der dazu senkrechten Richtung, also nach
der y-Koordinate durchzuführen. Die Ergebnisse der
zwei Differenzierungsoperationen können unabhängig
voneinander mit der mit Bezug auf Fig. 5 und 6 be
schriebenen Weise weiterverarbeitet werden. Belie
bige andere Methoden zur Kontrastverbesserung kön
nen selbstverständlich auch im Rahmen dieses Ver
fahrens eingesetzt werden.
Ferner kann es zweckmäßig sein, die Form des Ge
genstandes mit mehreren Kameras gleichzeitig zu er
fassen, die zum Beispiel einander gegenüberliegend
oder im rechten Winkel zueinander angeordnet sein
können. Die mit Hilfe beider Kameras gegebenenfalls
unabhängig voneinander erhaltenen Datensätze, die
Koordinaten des Gegenstandes in Bezug auf die Ab
bildungsoptik der Kamera enthalten, können bei ge
nauer Kenntnis der relativen Positionen der Kameras
zueinander ohne Schwierigkeiten in ein gemeinsames
Bezugssystem umgerechnet und so vollautomatisch zu
einem einheitlichen Datensatz zusammengefügt wer
den.
Claims (9)
1. Verfahren zur Erfassung der Gestalt eines drei
dimensionalen Gegenstandes mit den Schritten.
- a) Relatives Bewegen des Gegenstandes (1) zu einer Kamera (3) auf einer vorgegebenen Bahn (2),
- b) Aufnehmen von Bildern (6) des Gegenstandes (1) im Laufe der Bewegung,
- c) Rückverschieben (R) von Bildpunkten (P1, P2) eines der aufgenommenen Bilder (6) jeweils um einen gleichen, vorgebbaren Weg (W), wobei die Rich tung der Rückverschiebung (R) entgegen der Bewe gungsrichtung des Gegenstandes (1) erfolgt,
- d) Vergleich der Helligkeits- und/oder Farbeigen schaften von in Rückverschiebungsrichtung (R) benachbarten Bildpunkten zumindest zweier Bil der,
- e) Vergleich der ermittelten Helligkeits- und/oder Farbeigenschaften von jeweils einem Bildpunkt zweier Bilder, wobei diese Bildpunkte dieselben Punktkoordinaten (a, b) besitzen.
- f) Verknüpfen der Helligkeits- und/oder Farbeigen schaften der beiden Bildpunkte mit denselben Punktkoordinaten (a, b),
- g) erneutes Rückverschieben der Bildpunkte und wie derholen der Verfahrensschritte e) und f),
- h) Vergleich der zumindest zwei Verknüpfungsergeb nisse miteinander, und
- i) Ermitteln der Rückverschiebeweglänge (R) bis zum Erreichen eines vorgebbaren Verknüpfungsergeb nisses.
2. Verfahren nach Anspruch 1, dadurch gekennzeich
net, dass die Koordinaten des Punktes im Raum be
rechnet werden, wobei dies anhand der Lage der
Bildpunkte und der gewählten Rückverschiebung (R)
erfolgt.
3. Verfahren nach Anspruch 1, dadurch gekennzeich
net, dass die Bahn (2) geradlinig ist.
4. Verfahren nach Anspruch 1, dadurch gekennzeich
net, dass die Bewegung des Gegenstandes (1) mit
konstanter Geschwindigkeit erfolgt.
5. Verfahren nach Anspruch 1, dadurch gekennzeich
net, dass der Zeitabstand zwischen zwei Bildaufnah
men über eine längere Bildfolge konstant ist.
6. Verfahren nach einem der vorhergehenden Ansprü
che, dadurch gekennzeichnet, dass für im Wesentli
chen jeden Punkt eines Bildes die Differenz zwi
schen dem Helligkeitswert eines Punktes und des be
nachbarten Punktes berechnet wird.
7. Verfahren nach Anspruch 1 oder 4, dadurch ge
kennzeichnet, dass der Vergleich eine Addition von
Parameterwerten von durch Rückverschiebung (R) ü
berlappenden Bilder umfasst, wobei jeweils Punkte,
an denen das durch die Addition erhaltene Summen
bild Spitzen aufweist, gleichen Merkmalen des Ge
genstandes (1) zugeordnet werden können.
8. Verfahren nach Anspruch 3 oder 4, dadurch ge
kennzeichnet, dass der Betrag der Rückverschiebung
jedes Bildes proportional zum Produkt aus dem zeit
lichen Abstand (T) der Aufnahmen und dem Index (i)
der Aufnahme gewählt wird.
9. Verfahren nach einem der vorhergehenden Ansprü
che, dadurch gekennzeichnet, dass eine Mehrzahl von
Rückverschiebungsoperationen durchgeführt wird, um
Merkmale (13, 14, 15, 16) des Gegenstandes (1) mit un
terschiedlichen Abständen zur Kamera (3) identifi
zieren.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10020893.2A DE10020893B4 (de) | 1999-04-30 | 2000-04-28 | Verfahren zur optischen Formerfassung von Gegenständen |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19919963 | 1999-04-30 | ||
DE19919963.9 | 1999-04-30 | ||
DE10020893.2A DE10020893B4 (de) | 1999-04-30 | 2000-04-28 | Verfahren zur optischen Formerfassung von Gegenständen |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10020893A1 true DE10020893A1 (de) | 2000-12-28 |
DE10020893B4 DE10020893B4 (de) | 2018-07-05 |
Family
ID=7906582
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE50009995T Expired - Lifetime DE50009995D1 (de) | 1999-04-30 | 2000-04-26 | Verfahren zur optischen formerfassung von gegenständen |
DE10020893.2A Expired - Fee Related DE10020893B4 (de) | 1999-04-30 | 2000-04-28 | Verfahren zur optischen Formerfassung von Gegenständen |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE50009995T Expired - Lifetime DE50009995D1 (de) | 1999-04-30 | 2000-04-26 | Verfahren zur optischen formerfassung von gegenständen |
Country Status (7)
Country | Link |
---|---|
US (1) | US6590669B1 (de) |
EP (1) | EP1190211B1 (de) |
JP (1) | JP2002543411A (de) |
AT (1) | ATE292784T1 (de) |
CA (1) | CA2370156C (de) |
DE (2) | DE50009995D1 (de) |
WO (1) | WO2000066973A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013212827A1 (de) * | 2013-07-01 | 2015-01-08 | Sac Sirius Advanced Cybernetics Gmbh | Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6876459B2 (en) * | 2002-04-01 | 2005-04-05 | General Electric Company | Method and apparatus for optical measurement of the leading edge position of an airfoil |
DE102004020419B3 (de) * | 2004-04-23 | 2005-10-20 | 3D Shape Gmbh | Verfahren und Vorrichtung zur Bestimmung der Form und der lokalen Oberflächennormalen spiegelnder Oberflächen |
EA010956B1 (ru) * | 2004-09-07 | 2008-12-30 | Петромодел Эхф | Устройство и способ анализа размера, формы и угловатости, а также состава минералов и частиц горных пород |
FI117650B (fi) * | 2004-10-27 | 2006-12-29 | Mapvision Ltd Oy | Symmetria-akselin määrittäminen |
KR20060065800A (ko) * | 2004-12-10 | 2006-06-14 | 한국전자통신연구원 | 헬름홀츠 스테레오를 이용한 깊이 불연속선을 지니는물체의 3차원 형상 획득 장치 및 그 방법 |
EP1831642A1 (de) * | 2004-12-30 | 2007-09-12 | Snap-on Incorporated | Kontaktloses fahrzeugmessverfahren und system |
US7623250B2 (en) * | 2005-02-04 | 2009-11-24 | Stryker Leibinger Gmbh & Co. Kg. | Enhanced shape characterization device and method |
DE102005022540B4 (de) * | 2005-05-17 | 2007-07-05 | Siemens Ag | Verfahren zur Minimierung von Bildartefakten und medizinisches Bildgebungssystem |
DE102005043912B4 (de) * | 2005-05-18 | 2011-08-18 | Steinbichler Optotechnik GmbH, 83115 | Verfahren zum Bestimmen der 3D-Koordinaten der Oberfläche eines Objekts |
DE102005023165A1 (de) * | 2005-05-19 | 2006-11-23 | Siemens Ag | Medizinisches Bildgebungssystem mit einem um einen Patienten verfahrbaren Teil und Kollisionsschutzverfahren |
JP4599515B2 (ja) * | 2005-05-27 | 2010-12-15 | コニカミノルタセンシング株式会社 | 3次元形状データの位置合わせ方法および装置 |
KR100681320B1 (ko) * | 2005-12-08 | 2007-02-09 | 한국전자통신연구원 | 헬름홀츠 교환조건으로부터 유도되는 편미분 방정식의레벨셋 풀이 방법을 이용한 물체의 3차원 형상 모델링 방법 |
US7711182B2 (en) * | 2006-08-01 | 2010-05-04 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for sensing 3D shapes of objects with specular and hybrid specular-diffuse surfaces |
DE102007020240A1 (de) * | 2007-04-24 | 2008-10-30 | Sms Demag Ag | Verfahren zur Erkennung und Klassifizierung von Oberflächenfehlern auf stranggegossenen Brammen |
JP2010537188A (ja) * | 2007-08-22 | 2010-12-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 表面の光学的特徴付けに対する方法及び装置 |
AT506110B1 (de) * | 2007-12-12 | 2011-08-15 | Nextsense Mess Und Pruefsysteme Gmbh | Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten |
DE102008015499C5 (de) * | 2008-03-25 | 2013-01-10 | Steinbichler Optotechnik Gmbh | Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts |
TR201009280T1 (tr) * | 2008-05-16 | 2011-09-21 | Forensic Technology Wai Inc. | Rastlantısal geometriye sahip olan nesnelerin topografyalarının elde edilmesi. |
US8437537B2 (en) * | 2009-03-27 | 2013-05-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for estimating 3D pose of specular objects |
US10157495B2 (en) * | 2011-03-04 | 2018-12-18 | General Electric Company | Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object |
US9200899B2 (en) | 2012-03-22 | 2015-12-01 | Virtek Vision International, Inc. | Laser projection system and method |
US9245062B2 (en) * | 2012-03-22 | 2016-01-26 | Virtek Vision International Inc. | Laser projection system using variable part alignment |
US9746353B2 (en) | 2012-06-20 | 2017-08-29 | Kirt Alan Winter | Intelligent sensor system |
US9857470B2 (en) * | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
DE102013106696B4 (de) | 2013-06-26 | 2019-10-10 | Gom Gmbh | Steuerungseinheit für eine optische Vermessungseinrichtung und Verfahren zur Steuerung einer optischen Vermessungseinrichtung |
CN103411546B (zh) * | 2013-08-20 | 2016-05-11 | 中国海洋石油总公司 | 钢结构三维精度的检验方法 |
JP2017501951A (ja) | 2013-11-25 | 2017-01-19 | コーニング インコーポレイテッド | 実質的に柱面を成す鏡面反射面の形状を決定するための方法 |
DE102017118767B4 (de) | 2017-08-17 | 2020-10-08 | Carl Zeiss Industrielle Messtechnik Gmbh | Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts |
US11350078B2 (en) * | 2020-04-03 | 2022-05-31 | Fanuc Corporation | 3D pose detection by multiple 2D cameras |
CN117047787B (zh) * | 2023-10-13 | 2023-12-29 | 中国长江电力股份有限公司 | 基于双目结构光视觉的水轮机顶盖在位机器人编程方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3840739A (en) * | 1973-08-03 | 1974-10-08 | Gerber Scientific Instr Co | Apparatus and method for tracking a raised edge without shadow interference |
DE3570744D1 (en) | 1984-02-25 | 1989-07-06 | Massen Robert | Process for the contactless measurement of the length of a moving article, and measuring apparatus for carrying out the process |
DE3679616D1 (de) | 1985-08-28 | 1991-07-11 | Igm Ind Geraete Maschf Gmbh | Verfahren zum erfassen der position und geometrie von werkstueckoberflaechen. |
FI74556C (fi) * | 1986-04-11 | 1988-02-08 | Valtion Teknillinen | Foerfarande foer tredimensionell oevervakning av ett maolutrymme. |
DE3641816A1 (de) | 1986-12-06 | 1988-06-16 | Robert Prof Dr Ing Massen | Verfahren und anordnung zur messung und/oder ueberwachung von eigenschaften von garnen und seilen |
US4791482A (en) * | 1987-02-06 | 1988-12-13 | Westinghouse Electric Corp. | Object locating system |
AU631661B2 (en) * | 1989-06-20 | 1992-12-03 | Fujitsu Limited | Method for measuring position and posture of object |
JPH05266146A (ja) * | 1992-03-19 | 1993-10-15 | Matsushita Electric Ind Co Ltd | 物体形状の表現装置 |
DE4411646A1 (de) | 1994-04-02 | 1995-11-02 | Bernhardt Gerd Prof Dr Ing Hab | Verfahren und Anordnung zur Bestimmung der geometrischen Eigenschaften von Objekten vor einem Fahrzeug |
GB9515311D0 (en) * | 1995-07-26 | 1995-09-20 | 3D Scanners Ltd | Stripe scanners and methods of scanning |
GB9716240D0 (en) * | 1997-07-31 | 1997-10-08 | Tricorder Technology Plc | Scanning apparatus and methods |
-
2000
- 2000-04-26 US US10/018,129 patent/US6590669B1/en not_active Expired - Lifetime
- 2000-04-26 WO PCT/EP2000/003706 patent/WO2000066973A1/de active IP Right Grant
- 2000-04-26 DE DE50009995T patent/DE50009995D1/de not_active Expired - Lifetime
- 2000-04-26 AT AT00927045T patent/ATE292784T1/de not_active IP Right Cessation
- 2000-04-26 CA CA002370156A patent/CA2370156C/en not_active Expired - Fee Related
- 2000-04-26 JP JP2000615562A patent/JP2002543411A/ja active Pending
- 2000-04-26 EP EP00927045A patent/EP1190211B1/de not_active Expired - Lifetime
- 2000-04-28 DE DE10020893.2A patent/DE10020893B4/de not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013212827A1 (de) * | 2013-07-01 | 2015-01-08 | Sac Sirius Advanced Cybernetics Gmbh | Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes |
DE102013212827B4 (de) * | 2013-07-01 | 2015-03-26 | Sac Sirius Advanced Cybernetics Gmbh | Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes |
Also Published As
Publication number | Publication date |
---|---|
DE50009995D1 (de) | 2005-05-12 |
JP2002543411A (ja) | 2002-12-17 |
CA2370156A1 (en) | 2000-11-09 |
US6590669B1 (en) | 2003-07-08 |
ATE292784T1 (de) | 2005-04-15 |
DE10020893B4 (de) | 2018-07-05 |
CA2370156C (en) | 2009-02-17 |
EP1190211A1 (de) | 2002-03-27 |
WO2000066973A1 (de) | 2000-11-09 |
EP1190211B1 (de) | 2005-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10020893A1 (de) | Verfahren zur optischen Formerfassung von Gegenständen | |
DE3854348T2 (de) | Verfahren und Vorrichtung zum Messen der Form einer dreidimensional gekrümmten Oberfläche. | |
DE102008041523B4 (de) | Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung | |
EP1078219B1 (de) | Erfassung der räumlichen struktur einer dreidimensionalen oberfläche | |
DE69726025T2 (de) | Verfahren und vorrichtung zum erhalten einer dreidimensionalen form | |
EP2040026B1 (de) | Verfahren und System zur Kalibrierung einer Vorrichtung zur Formmessung einer spiegelnden Oberfläche | |
DE112010005008B4 (de) | System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb | |
DE102012112322B4 (de) | Verfahren zum optischen Abtasten und Vermessen einer Umgebung | |
DE10219054B4 (de) | Verfahren und Vorrichtung zur Bestimmung der räumlichen Koordinaten eines Gegenstandes | |
DE102006001634B3 (de) | Erstellung eines Abstandsbildes | |
DE19502459A1 (de) | Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten | |
EP3195256B1 (de) | Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern | |
DE69723213T2 (de) | System zum Messen des Spiels und der Koplanarität zweier nebeneinander liegender Objekte | |
DE19623172C1 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen | |
DE10137241A1 (de) | Registrierung von Tiefenbildern mittels optisch projizierter Marken | |
DE102006049695A1 (de) | Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur | |
WO2005075936A1 (de) | Verfahren zur bestimmung der lage eines objekts im raum | |
DE10135300A1 (de) | Verfahren und Einrichtung zum Messen dreidimensionaler Information | |
DE102017116758B4 (de) | Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera | |
WO2019197656A1 (de) | Verfahren und system zur vermessung eines objekts mittels stereoskopie | |
DE102016100132B4 (de) | Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen | |
DE19534415A1 (de) | Verfahren und Vorrichtung zum Erfassen und Vermessen dreidimensionaler Körper oder von beliebigen Flächen | |
DE102006006876A1 (de) | Verfahren und Vorrichtung zum Erfassen einer Kontur einer reflektierenden Oberfläche | |
EP1098268A2 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen | |
DE102005043753A1 (de) | Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings und Vorrichtung zur Durchführung des Verfahrens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |