DE10020893A1 - Verfahren zur optischen Formerfassung von Gegenständen - Google Patents

Verfahren zur optischen Formerfassung von Gegenständen

Info

Publication number
DE10020893A1
DE10020893A1 DE10020893A DE10020893A DE10020893A1 DE 10020893 A1 DE10020893 A1 DE 10020893A1 DE 10020893 A DE10020893 A DE 10020893A DE 10020893 A DE10020893 A DE 10020893A DE 10020893 A1 DE10020893 A1 DE 10020893A1
Authority
DE
Germany
Prior art keywords
pixels
images
camera
points
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10020893A
Other languages
English (en)
Other versions
DE10020893B4 (de
Inventor
Christoph Wagner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE10020893.2A priority Critical patent/DE10020893B4/de
Publication of DE10020893A1 publication Critical patent/DE10020893A1/de
Application granted granted Critical
Publication of DE10020893B4 publication Critical patent/DE10020893B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
  • Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Erfassung der Gestalt eines dreidimensionalen Gegenstandes mit den Schritten: DOLLAR A a) Relatives Bewegen des Gegenstandes (1) zu einer Kamera (3) auf einer vorgegebenen Bahn (2), DOLLAR A b) Aufnehmen von Bildern (6) des Gegenstandes (1) im Laufe der Bewegung, DOLLAR A c) Rückverschieben (R) von Bildpunkten (P¶1¶, P¶2¶) eines der aufgenommenen Bilder jeweils um einen gleichen, vorgebbaren Weg (W), wobei die Richtung der Rückverschiebung (R) entgegen der Bewegungsrichtung des Gegenstandes (1) erfolgt, DOLLAR A d) Vergleich der Helligkeits- und/oder Farbeigenschaften von in Rückverschiebungsrichtung (R) benachbarten Bildpunkten zumindest zweier Bilder, DOLLAR A e) Vergleich der ermittelten Helligkeits- und/oder Farbeigenschaften von jeweils einem Bildpunkt zweier Bilder, wobei diese Bildpunkte dieselben Punktkoordinaten (a, b) besitzen, DOLLAR A f) Verknüpfen der Helligkeits- und/oder Farbeigenschaften der beiden Bildpunkte mit denselben Punktkoordinaten (a, b), DOLLAR A g) erneutes Rückverschieben der Bildpunkte und Wiederholen der Verfahrensschritte e) und f), DOLLAR A h) Vergleich der zumindest zwei Verknüpfungsergebnisse miteinander, und DOLLAR A i) Ermitteln der Rückverschiebeweglänge (R) bis zum Erreichen eines vorgebbaren Verknüpfungsergebnisses.

Description

Die Erfindung betrifft ein Verfahren zur optischen Formerfassung von Gegenständen.
In vielen Bereichen der industriellen Produktion und insbesondere der Qualitätskontrolle werden Ver­ fahren zur Formerfassung von Objekten benötigt. Die geometrischen Daten des Objekts werden mit Hilfe von geeigneten Messeinrichtungen in numerische Da­ ten auf einem Computer gewandelt. Die Kontrolle von Maßhaltigkeit und anderen Parametern kann durch Software erfolgen.
Ein weiteres Einsatzfeld der optischen Formerfas­ sung ist auch im Bereich des Internet zu sehen. Es besteht großes Interesse, Objekte automatisiert zu erfassen und in numerische Daten zu wandeln, die im Internet übertragen und visualisiert werden können. Ein Objekt von Interesse könnte dann interaktiv von einem Benutzer aus den verschiedensten Richtungen angesehen werden.
Optische Verfahren zur Formerfassung von Objekten beziehungsweise Gegenständen lösen immer mehr die bisher verwendeten mechanisch abtastenden Verfahren ab. Ein großer Vorteil der optischen Verfahren ist darin zu sehen, dass die Messung berührungslos und damit ohne mechanische Beeinflussung des Objektes abläuft. Es können damit Verformungen des Objekts durch die Messung selbst ausgeschlossen werden. Insbesondere ist dies bei optischen Formerfassungs­ verfahren von Vorteil, wenn die Oberfläche des Ge­ genstandes verformbar ist, wie dies beispielsweise bei elastischen Materialien der Fall ist. Ein wei­ terer Vorteil bei den berührungslos arbeitenden Formerfassungsverfahren besteht darin, dass eine sehr große Anzahl von Objektpunkten, also sehr kleinen Flächenelementen, gleichzeitig erfasst wer­ den kann. Dies führt zu wesentlich geringeren Mess­ zeiten im Vergleich zu den mechanisch abtastenden Verfahren. Darüber hinaus sind auch Strukturen, die Höhenstufen enthalten, messbar, was bei mechanisch tastenden Verfahren oft zu Schwierigkeiten führt.
Bekannte optische Formerfassungsverfahren basieren meist auf Triangulations- oder interferometrischen Techniken.
Bei einem bekannten Triangulationsverfahren wird ein Lichtpunkt auf die Oberfläche des zu vermessen­ den Objekts projiziert und aus einer von der Be­ leuchtungsrichtung abweichenden Richtung beobach­ tet. Die Koordinaten des beleuchteten Punktes kön­ nen aus der Kenntnis der Orientierung des Projekti­ onsstrahls im Raum und der Richtung, aus der der beobachtete Punkt wahrgenommen wird, berechnet wer­ den. Das Verfahren ist relativ genau und eindeutig. Da die Oberfläche des zu vermessenden Gegenstandes aber Punkt für Punkt abgetastet werden muss, wird für eine vollständige Formerfassung eines Objekts viel Zeit benötigt. Außerdem können nur solche Punkte der Oberfläche erfasst werden, die sowohl vom Ort der Lichtquelle als auch von einer beobach­ tenden Kamera direkt sichtbar sind. Ein durch eine solche Messung erhaltener Datensatz, der die er­ fassten Punkte digital wiedergibt, ist daher nie­ mals vollständig. Zwar können mehrere Datensätze, also beispielsweise mehrere Bilder aus unterschied­ lichen Beobachtungsrichtungen, durch wiederholte Messungen aus unterschiedlichen Beobachtungs- be­ ziehungsweise Beleuchtungsperspektiven gewonnen werden; um die Form des Gegenstands in seiner Ge­ samtheit zu erfassen, müssen die einzelnen Daten­ sätze jedoch in eine geometrische Beziehung zuein­ ander gebracht werden. Dies wird als sogenanntes Matching bezeichnet. Dafür ist häufig noch der Ein­ griff eines Benutzers erforderlich.
Weiterentwickelte, auf der Triangulation beruhende Verfahren sind die Lichtschnitttechnik und die Streifenprojektion. Bei Ersterer wird anstatt eines einzelnen Punktes eine Linie auf die Oberfläche des zu vermessenden Gegenstandes projiziert. Diese Li­ nie wird aus einer von der Beleuchtungsrichtung ab­ weichenden Richtung von einer Kamera beobachtet be­ ziehungsweise aufgezeichnet. Die Raumkoordinaten der beleuchteten Punkte werden in gleicher Weise wie bei dem oben beschriebenen Triangulationsver­ fahren gewonnen. Das Verfahren der Lichtschnitt­ technik ist zwar schneller als die punktweise Tri­ angulation, aber immer noch langsamer als andere Verfahren, die eine größere Fläche auf einmal er­ fassen können. Auch hier sind mehrere Messungen un­ ter verschiedenen Perspektiven und deren Matching nötig, um zu einer vollständigen Darstellung des Gegenstands zu gelangen.
Bei der Streifenprojektion handelt es sich um eine Weiterentwicklung der Lichtschnitttechnik, bei der mehrere Linien gleichzeitig auf die Oberfläche des zu vermessenden Gegenstandes projiziert werden. Die Intensität dieser Linien variiert periodisch in la­ teraler Richtung und macht die einzelnen Linien für die Beobachtungskamera unterscheidbar. Das Verfah­ ren ist zwar schneller als die Lichtschnitttechnik, da ein größerer Oberflächenbereich auf einmal er­ fasst werden kann, Linien gleicher Intensität sind jedoch nicht unterscheidbar. Dadurch geht die Ein­ deutigkeit der Messung zumindest teilweise verlo­ ren. Somit ist es auch bei der Streifenprojektion nach Durchführung von mehreren Messungen, also Auf­ zeichnung von verschiedenen Bildern, notwendig, diese durch Matching zusammen zu fügen.
Für genauere Messungen werden häufig interfero­ metrische Verfahren eingesetzt, die an dieser Stel­ le nicht weiter beschrieben werden sollen, da die vorliegende Erfindung nicht auf ihnen aufbaut. An­ zumerken ist jedoch, dass auch bei den interfero­ metrischen Verfahren das Problem besteht, dass die Ergebnisse mehrerer Einzelmessungen durch Matching zusammengefügt werden müssen, um zu einer vollstän­ digen dreidimensionalen Darstellung des Messgegen­ standes zu gelangen.
Es besteht somit das Problem bei den bekannten Ver­ fahren, dass verschiedene Bilder eines Gegenstan­ des, die aus verschiedenen Blickwinkeln aufgezeich­ net sind, nicht eindeutig zu einem dreidimensiona­ len Bild zusammengefügt werden können, da gleiche Objektpunkte, also Flächenelemente des Gegenstands, auf den Bildern nicht eindeutig einander zugeordnet werden können, so dass ein Korrespondenzproblem be­ steht.
Zur Lösung dieses Problems wird ein Verfahren vor­ geschlagen, das die automatische Erfassung der Ges­ talt eines dreidimensionalen Gegenstandes aus un­ terschiedlichen Blickwinkeln ermöglicht, ohne dass dabei eine Matching-Prozedur durchgeführt werden muss.
Dieses Verfahren mit den Merkmalen des Anspruchs 1 umfasst folgende Schritte:
  • a) Relatives Bewegen des Gegenstandes zu einer Kame­ ra auf einer vorgegebenen Bahn,
  • b) Aufnehmen von Bildern des Gegenstands im Laufe der Bewegung,
  • c) Rückverschieben von Bildpunkten eines der aufge­ nommenen Bilder jeweils um einen gleichen, vor­ gebbaren Weg, wobei die Richtung der Rückver­ schiebung entgegen der Bewegungsrichtung des Ge­ genstandes erfolgt,
  • d) Vergleich der Helligkeits- und/oder Farbeigen­ schaften von in Rückverschiebungsrichtung benach­ barten Bildpunkten zumindest zweier Bilder,
  • e) Vergleich der ermittelten Helligkeits- und/oder Farbeigenschaften von jeweils einem Bildpunkt zweier Bilder, wobei diese Bildpunkte dieselben Punktkoordinaten auf der Bildfläche besitzen,
  • f) Verknüpfen der Helligkeits- und/oder Farbeigen­ schaften der beiden Bildpunkte mit denselben Punktkoordinaten,
  • g) erneutes Rückverschieben der Bildpunkte und wie­ derholen der Verfahrensschritte e) und f),
  • h) Vergleich der zumindest zwei Verknüpfungsergeb­ nisse miteinander und
  • i) Ermitteln der Rückverschiebungsweglänge bis zum Erreichen eines vorgebbaren Verknüpfungsergebnis­ ses.
Bei diesem erfindungsgemäßen Verfahren macht man sich folgende Grundidee zu Nutze: Das zu vermessen­ de Objekt beziehungsweise der zu vermessende Ge­ genstand bewegt sich mit konstanter Bewegungsrich­ tung und vorzugsweise konstanter Geschwindigkeit am Beobachter, also an der Kamera vorbei. Flächenele­ mente des Gegenstands, die nahe an der Kamera lie­ gen, ziehen unter schneller Änderung des "Sehwinkels" vorbei, während sich bei weiter ent­ fernten Flächenelementen der Sehwinkel langsamer ändert. Flächenelemente, die nahe an der Kamera liegen, ziehen also scheinbar schneller vorbei als weiter entfernte Flächenelemente, die ihre Lage im Raum somit weniger ändern. Stellt man sich also ei­ nen Gegenstand vor, dessen Oberfläche Vertiefungen oder Erhebungen aufweist, bewegen sich diese somit unterschiedlich weit von der Kamera entfernten Flä­ chenelemente unterschiedlich schnell an der Kamera beziehungsweise an der Aufzeichnungsebene der Kame­ ra vorbei. Aus der Änderung des "Sehwinkels" in Ab­ hängigkeit von der Zeit kann somit auf die Entfer­ nung des Objektpunktes beziehungsweise des Flächen­ elementes von der Aufzeichnungsebene der Kamera ge­ schlossen werden. Mithin verbleibt bei diesem Ver­ fahren das Problem, festzustellen, wie weit der mit der Kamera aufgezeichnete Flächenpunkt während ei­ nem bestimmten Zeitabstand gewandert ist. Es muss also das Korrespondenzproblem gelöst werden, auf zwei unterschiedlichen Bildern, die zu unterschied­ lichen Zeitpunkten aufgenommen wurden, dieselben Bildpunkte zu ermitteln. Bei dem erfindungsgemäßen Verfahren löst man das Korrespondenzproblem da­ durch, dass ein aufgezeichneter Bildpunkt entgegen der Bewegungsrichtung des Gegenstandes rückverscho­ ben wird, um anschließend den rückverschobenen Bildpunkt mit einem Bildpunkt eines vorangegangenen aufgenommenen Bildes zu vergleichen hinsichtlich ihrer Helligkeits- und/oder Farbeigenschaften, wo­ bei die zu vergleichenden Bildpunkte dieselben Punktkoordinaten besitzen. Durch Verknüpfen der Helligkeits- und/oder Farbeigenschaft dieser beiden Bildpunkte mit denselben Bildkoordinaten entsteht ein Verknüpfungsergebnis. Ein erneutes Rückver­ schieben dieses Bildpunktes lässt wieder einen Ver­ gleich mit einem anderen Bildpunkt zu, der diesel­ ben Punktkoordinaten besitzt. Es wird also ein zweiter Vergleich der ermittelten Helligkeits- und/oder Farbeigenschaften durchgeführt. Ein an­ schließendes Verknüpfen dieser Helligkeits- und/oder Farbeigenschaft der beiden Bildpunkte lie­ fert wiederum ein Verknüpfungsergebnis. Man kann nun beide Verknüpfungsergebnisse miteinander ver­ gleichen. Selbstverständlich ist es auch möglich, jedes oder eines der Verknüpfungsergebnisse mit ei­ nem vorgebbaren Kriterium, also beispielsweise ei­ nem Sollwert, zu vergleichen. Durch diesen Ver­ gleich der Verknüpfungsergebnisse lässt es sich feststellen, ob der rückverschobene Bildpunkt nun so weit rückverschoben ist, dass er mit dem korres­ pondierenden Bildpunkt des anderen Bildes in De­ ckung gebracht wurde, der bei einem später aufge­ nommenen Bild an einer bestimmten Punktkoordinate vorliegt. Diese beiden Bildpunkte korrespondieren miteinander, zeigen also im Idealfall auf zwei un­ terschiedlichen Bildern dasselbe Flächenelement des Gegenstandes. Mithin kann die Weglänge der Rückver­ schiebung ermittelt werden und daraus die Entfer­ nung des Bildpunktes zu der Kamera. Führt man die­ ses Vergleichen, Verknüpfen und erneutes Verschie­ ben mit allen, vorzugsweise gleichzeitig, Bildpunk­ ten durch, kann der Abstand jedes Bildpunkts von der Kamera bestimmt werden. Somit lässt sich die Oberflächenstruktur des Gegenstandes sehr genau bestimmen.
Im Laufe der Bewegung des Gegenstandes relativ zur Kamera kann also eine Vielzahl von Bildern des Ge­ genstandes unter jeweils variierenden Perspektiven aufgenommen werden. Durch das Rückverschieben der Bildpunkte und das Vergleichen beziehungsweise Ver­ knüpfen der Helligkeits- beziehungsweise Farbeigen­ schaft können korrespondierende Bildpunkte zweier Bilder sicher einander zugeordnet werden, wenn das Verknüpfungsergebnis ein vorbestimmtes Kriterium, beispielsweise bei Helligkeit ein Maximum, erreicht ist. So wird das Korrespondenzproblem sicher ge­ löst.
Um nach der Ermittlung von zumindest zwei korres­ pondierenden Bildpunkten den Gegenstand bildlich darstellen zu können, werden in bevorzugter Ausfüh­ rungsform die Koordinaten des Punktes im Raum, also die Koordinaten des Flächenpunktes am Gegenstand, berechnet.
Bevorzugt wird eine Ausführungsform des Verfahrens, bei der die Bewegung des Gegenstands geradlinig er­ folgt. Außerdem ist vorzugsweise vorgesehen, dass die Bewegung mit konstanter Geschwindigkeit erfolgt und der Zeitabstand zwischen zwei Bildaufnahmen zumindest über eine längere Bildfolge konstant ist. Ohne größere Korrekturrechnungen kann somit auf be­ sonders einfache Art und Weise der Abstand des Flä­ chenelements von der Kamera bestimmt werden, so dass die Oberfläche des Gegenstandes leicht visuell als dreidimensionales Bild darstellbar ist.
Um in einem aufgenommenen Bild Merkmale wie Hellig­ keitsübergänge, Kanten und Ränder des Gegenstands hervorzuheben, werden die aufgenommenen Bilder in einer bevorzugten Ausführungsform örtlich differen­ ziert, in dem für im Wesentlichen jeden Punkt eines Bildes die Differenz zwischen einem Helligkeitswert dieses Punktes und dem eines benachbarten Punktes berechnet wird.
Um gleiche Merkmale des Gegenstands an Punkten von unterschiedlichen Bildern zu identifizieren, werden bevorzugt mehrere Bilder vorzugsweise relativ zu­ einander verschoben und dabei punktweise vergli­ chen. In diesem Fall sind die zwei Punkte eines Bildes, zwischen deren Helligkeitswerten eine Dif­ ferenz berechnet wird, vorzugsweise in Richtung der Rückverschiebebewegung beabstandet zueinander.
Der Vergleich der Bilder wird vorzugsweise derart durchgeführt, indem ein Summenbild durch Addition von Parameterwerten von Punkten gebildet wird, die durch die Verschiebung überlappen, wobei jeweils Punkte, an denen das durch die Addition erhaltene Summenbild Extrema aufweist, gleichen Merkmalen des Objektes zugeordnet werden können. Das heißt, wer­ den Helligkeitswerte zweier Punkte miteinander ad­ diert, zeigt das Additionsergebnis ein Maximum, wenn die Helligkeitswerte beider Bildpunkte iden­ tisch sind. Werden hingegen Farbeigenschaften be­ trachtet, wäre ein Extremum beispielsweise dann er­ reicht, wenn ein "Übereinanderlegen" zweier Farb­ bildpunkte einen Farbton liefern, der den Ausgangs­ farben der Bildpunkte entspricht. Mithin würden Bildpunkte mit gleichem Farbton übereinander lie­ gen.
Um die Identifizierung der Extrema möglichst sicher und rauscharm zu machen, wird Vorteilhafterweise eine große Anzahl von Bildern aufgenommen und um eine zu der Bilderanzahl mal Zeitabstand zwischen zwei aufeinanderfolgenden Bildern proportionale Strecke rückverschoben. Das Summenbild wird durch Addition der Parameterwerte überlappender Punkte der Bilder gebildet. Merkmale des Gegenstandes, die sich in einer zum gewählten Proportionalitätsfaktor der Verschiebung passenden Entfernung von der Kame­ ra befinden, Überlappen in allen Bildern, so dass sich ihre Beiträge zum Summenbild stets mit glei­ chem Vorzeichen aufaddieren. Andere Strukturen der Bilder, die eventuell Merkmalen des Gegenstandes mit einer anderen Entfernung zur Kamera entspre­ chen, Überlappen hingegen nicht, so dass sich ihre Beiträge zum Summenbild herausmitteln.
Indem an einem gegebenen Satz von Bildern eine Mehrzahl von Rückverschiebeoperationen von jeweils unterschiedlichen Entfernungen mit unterschiedli­ chen Proportionalitätsfaktoren durchgeführt wird, ist es möglich, diese Bilder systematisch nach Merkmalen des Gegenstandes abzusuchen, die jeweils dem Ausmaß der Rückverschiebung beziehungsweise dem Proportionalitätsfaktor entsprechende, unterschied­ liche Abstände zur Kamera haben.
Weitere Ausgestaltungen ergeben sich aus den Unter­ ansprüchen.
Nachfolgend wird die Erfindung anhand von Ausfüh­ rungsbeispielen mit Bezug auf die Zeichnung näher erläutert. Es zeigen:
Fig. 1 stark schematisiert eine Vorrichtung zur Durchführung des erfindungsgemä­ ßen Verfahrens in perspektivischer Ansicht,
Fig. 2 veranschaulicht das Verfahren in ei­ ner Schnittdarstellung parallel zur Bewegungsrichtung des zu erfassenden Gegenstandes,
Fig. 3a und 3b das Erfassungsergebnis einer Pi­ xelzeile einer CCD-Kamera aus Fig. 2 zu zwei verschiedenen Zeitpunkten,
Fig. 4a und 4b das differenzierte Erfassungsergeb­ nis,
Fig. 5 das differenzierte Erfassungsergeb­ nis für eine Vielzahl von Bildern des Gegenstandes in einer quasi dreidimensionalen Darstellung,
Fig. 6 die Summe der Erfassungsergebnisse aus Fig. 5 für unterschiedliche Verschiebungen, und
Fig. 7 und 8 einen CCD-Chip der Kamera, auf dem unterschiedliche Bildpunkte bezie­ hungsweise aktivierte Pixel darge­ stellt sind.
Fig. 1 zeigt eine schematisch-perspektivische An­ sicht einer Vorrichtung zur Durchführung des erfin­ dungsgemäßen Verfahrens. Ein Gegenstand 1, dessen Form beziehungsweise Oberflächenstruktur erfasst werden soll, wird auf einem Förderband 2 in vor­ zugsweise geradliniger Bewegung durch das Blickfeld einer Kamera 3 bewegt und dabei von einer Licht­ quelle 4 angestrahlt. Die optische Achse der Kamera 3 verläuft in einer zu der x-Richtung senkrechten Richtung z. Vorzugsweise erfolgt die Bewegung des Gegenstands senkrecht zur z-Achse beziehungsweise parallel zur x-Achse.
Die Kamera 3 ist teilweise aufgebrochen darge­ stellt, auf ihrer Bildebene 5 sind Abb. 6 des Gegenstands zu erkennen, die zu verschiedenen Zeitpunkten im Laufe der Bewegung des Gegenstandes 1 auf dem Förderband 2 in der Bildebene 5 entste­ hen. Die Bildebene 5 liegt vorzugsweise parallel zur x-y-Ebene. Die Bewegung des Gegenstandes er­ folgt somit vorzugsweise parallel zur Bildebene 5.
Die Transportrichtung des Förderbands entspricht der x-Achse des in der Figur dargestellten Koordi­ natensystems. Die z-Achse liegt parallel zur opti­ schen Achse der Kamera 3, die y-Achse verläuft ver­ tikal. Im Laufe der Bewegung des Gegenstandes 1 än­ dert sich laufend der Winkel, unter dem der Gegen­ stand von der Kamera wahrgenommen beziehungsweise auf der Bildebene 5 abgebildet wird.
Die von der Kamera 3 aufgezeichneten Bilder werden von einem an sich bekannten Computer 7 in einen einheitlichen Datensatz umgerechnet, der dreidimen­ sionale Koordinaten aller für die Gestalt des Ge­ genstandes wesentlichen Merkmale beziehungsweise Bildpunkte angibt. Selbstverständlich könnte an­ stelle des Computer 7 auch eine auf die hier vorge­ sehene Verarbeitung spezialisierte Schaltung ver­ wendet werden, die ein Fachmann anhand der nachfol­ genden Angaben zum Verfahren ohne Schwierigkeiten wird zusammenstellen können.
Das von dem Computer 7 beziehungsweise der Schal­ tung durchzuführende Verfahren wird nachfolgend an­ hand der Fig. 2 bis 8 erläutert.
Fig. 2 zeigt den Gegenstand 1 in einem horizonta­ len Schnitt parallel zur x- und z-Achse des Koordi­ natensystems aus Fig. 1 an verschiedenen Positio­ nen seines Weges, mit x0, x1 . . . xi, . . ., xn be­ zeichnet. In den ersten Positionen x0, x1 bis ein­ schließlich xi ist eine Schmalseite 10 und die rechte Breitseite 11 des hier zu Beispielzwecken als im Querschnitt rechteckig angenommenen Gegens­ tandes 1 für die Abbildungsoptik 17 der Kamera sichtbar. Der Kamera zugewandte Ecken 13, 15 des Gegenstandes 1 werden in der Position x0 auf Werte 13'0, 15'0 der Bildebene 5, in der Position xi auf Punkte 13'i, 15'i und in der Position xn auf Punkte 13'n, 15'n abgebildet. Eine abgewandte Ecke 14 der Breitseite 11 bildet in den Positionen x0 und xi auf Punkte 14'0, 14'i ab, in der Position xn ist diese für die Kamera 3 nicht mehr sichtbar; die stattdes­ sen sichtbar gewordene Ecke 16 wird auf den Punkt 16'n abgebildet. Die Kamera 3 nimmt Bilder des Ge­ genstandes 1 an den Positionen x0 bis xn auf.
Wie man leicht sieht, unterscheiden sich die Ab­ stände d13, d14 zwischen nacheinander aufgenommenen Bildpunkten, wie etwa 13'0, 13'i beziehungsweise 14'0, 14'i der zwei Ecken 13, 14. Die Geschwindig­ keit, mit der ein Bildpunkt des Gegenstandes im Laufe von dessen Bewegung in x-Richtung durch das Blickfeld der Kamera durch die Bildebene 5 der Ka­ mera wandert, ist umgekehrt proportional zum Ab­ stand des zugehörigen abgebildeten Merkmals von der Abbildungsoptik 17, das heißt von der z-Koordinate des Merkmals. Das heißt, je nach Abstand von der Abbildungsoptik sieht die Kamera ein Merkmal bezie­ hungsweise ein Flächenelement des Gegenstandes 5 mehr oder weniger schnell vorbeiziehen.
Fig. 3 zeigt die Verteilung der Beleuchtungsstärke L auf der Bildebene 5 entlang der in Fig. 2 darge­ stellten Schnittlinie in Zeile a für die Position x0 und Zeile b für die Position xi. Ein solches Sig­ nal kann auf einfache Weise praktisch gewonnen wer­ den, indem eine digitale Kamera als Kamera 3 einge­ setzt wird, die einen sogenannten CCD-Chip auf­ weist, der in der Bildebene 5 liegt. Auf dem CCD- Chip sind eine Vielzahl von matrixartig angeordne­ ten lichtempfindlichen Pixel ausgebildet. Das Sig­ nal gibt also den Helligkeitsverlauf in einer Pi­ xelreihe wieder, wobei diese Pixelreihe parallel zur x-Bewegungsrichtung liegt. Die matrixartig an­ geordneten Pixel liegen also parallel zur x-y- Ebene.
Die Beleuchtungsverteilung in Fig. 3a hat drei Pe­ gel, einen als 0 angenommen Hintergrundpegel, einen mittleren Pegel zwischen dem Punkt 14'0 und einem Punkt 15'0, der der Abbildung der Schmalseite 10 entspricht. Diese ist nur einem streifenden Licht­ einfall seitens der Lichtquelle 4 ausgesetzt und daher nur mittelmäßig hell. Der Bereich zwischen den Punkten 15'0 und 13'0 entspricht im Wesentlichen der frontal beleuchteten und entsprechend hellen Schmalseite 10. In Zeile b von Fig. 3, die der Po­ sition xi in Fig. 2 entspricht, ist der Abstand zwischen den Punkten 14'i und 15'i, der der Breit­ seite 11 entspricht, infolge des veränderten Blick­ winkels schmaler geworden. Der Signalpegel ist in­ folge der als weit entfernt angenommenen Lichtquel­ le 4 unverändert. Breite und Signalpegel des der Schmalseite 10 entsprechenden Abschnitts zwischen den Punkten 15'i und 13'i ist ebenfalls unverändert.
Die in Fig. 3 gezeigten Intensitätsverläufe werden vom Computer 7 differenziert. Dies kann in einfa­ cher Weise dadurch erfolgen, dass jeweils die Dif­ ferenz zwischen den Intensitätswerten eines Pixels und eines unmittelbar benachbarten gebildet wird. Am Bildrand wo ein Nachbarpixel fehlt, kann diese Differenz zwar nicht gebildet werden, doch ist dies für das Verfahren ohne wesentliche Bedeutung.
Fig. 4 zeigt in den Zeilen a und b das Ergebnis dieser Differenzierung in x-Richtung für die in Fig. 3a, 3b gezeigten Verteilungen der Beleuchtungs­ stärke L. An jedem der Punkte, die einer der Ecken des Gegenstands 1 entsprechen, ergibt sich ein deutliches Extremum, an anderen Stellen ist das Er­ gebnis der Differenzierung im Wesentlichen 0. Diese Extrema sind in der Figur jeweils mit Eµν bezeich­ net, wobei µ = 13, 14 oder 15 das Merkmal des Gegen­ standes 1 angibt, dem ein Extremum entspricht, und ν = 0, . . ., n die Position des Gegenstandes bezeichnet, in der das Bild aufgenommen wurde. Durch die Diffe­ renzierung werden somit die für die Erfassung der Form des Gegenstandes 1 wesentlichen Merkmale auf einfache Weise hervorgehoben.
Wenn die Form des zu erfassenden Gegenstandes ein­ fach und im Computer "bekannt" ist, und es nur dar­ um geht, die Position der Merkmale des zu vermes­ senden Gegenstandes genau zu bestimmen, so kann der Computer 7 eine direkte Zuordnung der Extrema zu Merkmalen des Gegenstandes 1 durchführen und den Abstand wie etwa d13, d14 zwischen gleiche Merkmale darstellenden Punkten in zwei verschiedenen Bildern direkt messen.
Die Entfernung des Merkmals von der Kamera in Rich­ tung von deren optischer Achse, das heißt seiner z- Koordinate, kann dann auf einfache Weise anhand der Formel
z = f.D/d
berechnet werden, wobei d der gemessene Abstand zwischen zwei einem gleichen Merkmal entsprechenden Bildpunkten wie etwa d13, d14 ist, D der bekannte Abstand (Weg zwischen den Positionen x0, xi) des zu messenden Gegenstandes, an denen die Bilder aufge­ nommen wurden, und f die Brennweite der Abbildungs­ optik ist. Der Gegenstand 1 sei so weit entfernt, dass die Bildweite der Brennweite f der Abbildungs­ optik angenähert werden kann. Die Entfernung D kann der Computer 7 zum Beispiel mit Hilfe einer (nicht dargestellten) Schnittstelle zur Steuerung des För­ derbandes 2 erfassen, die jeweils zum Zeitpunkt der Gewinnung des i-ten Bildes die Position xi des För­ derbandes liefert; einfacher ist jedoch, das För­ derband mit konstanter, bekannter Geschwindigkeit v zu betreiben und den Abstand zwischen zwei Positio­ nen des Gegenstandes anhand der Formel
D = v.T
zu berechnen, wobei T der Zeitabstand zwischen zwei Bildern ist.
Eine weiterentwickelte Ausgestaltung des Verfahrens erlaubt die Vermessung von Gegenständen mit belie­ biger, auch komplizierterer Gestalt, ohne dass bei der Auswertung der Bilder irgendwelche Vorwegannah­ men über die Gestalt gemacht werden müssen. Hierzu werden die von der Kamera 3 an den Positionen x0, x1, x2 . . . des Förderbandes aufgenommenen Bilder, wie mit Bezug auf Fig. 3 und 4 beschrieben, dif­ ferenziert. Das Ergebnis ist in Fig. 5 gezeigt. Jede der mit 0, 1, i, i + 1, . . ., n bezeichneten Zei­ len zeigt das Ergebnis der Differenzierung einer Bildzeile der Bilder 0 bis n. Dabei entsprechen die Zeilen 0 und i Fig. 4a beziehungsweise Fig. 4b. Man erkennt, dass die den Ecken 13 und 15 des Ge­ genstandes entsprechenden Extrema E13,0 . . . E13,n be­ ziehungsweise E15,0 . . . E15,n entlang zweier paralle­ ler Linien aufgereiht sind, die mit G13 beziehungs­ weise G15 bezeichnet sind. Die zur Ecke 14 gehören­ den Extrema sind entlang einer weiteren Linie G14 aufgereiht, die G13 am Punkt P1 schneidet. Dieser Punkt entspricht einer Stellung des Gegenstandes 1 relativ zur Kamera 3, an der die Kamera frontal vor die Schmalseite 10 blickt und die Breitseite 11 für sie unsichtbar wird. Wenn sich der Gegenstand über diese Stellung hinaus weiter in x-Richtung bewegt, wird seine gegenüberliegende Breitseite mit der ab­ gewandten Ecke 16 für die Kamera 3 sichtbar. Es er­ scheint daher in den differenzierten Bildern ein neues Extremum, das der Ecke 16 entspricht und in der Zeile n von Fig. 5 dargestellt ist. Alle auf die Ecken 16 zurückgehenden Extrema liegen an einer Linie G16, die sich am Punkt P2 von G15 löst und pa­ rallel zu G14 verläuft.
Zur Auswertung der in Fig. 5 dargestellten Daten wird eine Folge von Werten eines Proportionalitäts­ faktors α festgelegt und für jeden Wert wird dieses Bild im Computer um die Entfernung α.T.i entgegen­ gesetzt zur Bewegungsrichtung des Gegenstandes rückverschoben. Diese Rückverschiebung kann als Formel geschrieben werden:
H'i(x, y) = Hi(x + α. T. i, y)
wobei Hi, H'i jeweils die differenzierte Beleuch­ tungsstärke dL/dx des i-ten Bildes vor und nach der Verschiebung bezeichnen. Die so rückverschobenen Bilder werden addiert. Das heißt die einzelnen Hel­ ligkeitswerte der Pixel, die übereinander liegen, werden addiert.
Das Ergebnis der Addition (Verknüpfung) ist für fünf verschiedene Werte von α in Fig. 6 gezeigt. Entlang einer dem Wert α = 0 entsprechenden Linie sind zur Orientierung noch einmal die Extrema (Vergleichskriterien) von Fig. 4a eingezeichnet. Die mit α1 bezeichnete Zeile zeigt das Ergebnis für eine kleinen Wert von α, das heißt eine geringe Rückverschiebung. Da die Extrema jeweils unter­ schiedliche x-Koordinatenwerte haben, ist die Summe recht gleichmäßig entlang der x-Achse verteilt. Die Beträge sind gering. Am nächst größeren Wert α2 be­ ginnen zwei Spitzen σ14, σ16, sich abzuzeichnen.
Der dritte Wert des Proportionalitätsfaktors α3 ist gleich d14/(T.i). Bei diesem Wert des Proportionali­ tätsfaktors fallen die Extrema, die den von der Ka­ mera 3 entfernten Ecken 14, 16 des Gegenstandes 1 entsprechen, übereinander. Man erhält zwei scharfe Spitzen Σ14, Σ16 des Summenbildes.
Der vierte Wert des Proportionalitätsfaktors α4 ist gleich d13/(T. i). Bei diesem Wert fallen die den der Kamera zugewandten Ecken 13, 15 entsprechenden Ex­ trema übereinander. Man erhält ebenfalls sehr scharfe Spitzen Σ13, Σ15 auf geringem Untergrund. Bei einem noch höheren Wert α5 des Proportionali­ tätsfaktors fallen keine Extrema übereinander und das Summenbild weist lediglich geringe, um 0 schwankende Werte auf.
Wie man sieht, entspricht jeder Ecke des Gegenstan­ des 1 eine Spitze in den Summenbildern. Durch ein­ faches Vorbeifahren des Gegenstandes an der Kamera ist also die vollständige Information über den Querschnitt dieses Gegenstandes zu bekommen. Bemer­ kenswert ist dabei, dass das dem Proportionalitäts­ faktor α3 entsprechende Summenbild Spitzen der zwei Ecken 14 und 16 gleichzeitig aufweist, obwohl die Kamera zu keinem Zeitpunkt beide Ecken gleichzeitig sehen kann. Es ist also mit diesem Verfahren mög­ lich, einheitliche Datensätze aus unterschiedlichen Perspektiven aufgenommen Bildern vollautomatisch zu gewinnen, ohne dass eine Bedienungsperson von hand ein Matching-Verfahren durchführen müsste.
Die Information über die Abmessungen des Gegenstan­ des 1 ist enthalten in der x-Koordinate und dem Wert des Parameters α, für die die Summe der abge­ leiteten und verschobenen Beleuchtungsstärken H' ein lokales Extremum aufweisen.
Die weitere Auswertung der Ergebnisse ist einfach. Lokale Extrema, die eine vorgegebene Mindestgröße (Vergleichkriterium) nicht erreichen, können ver­ nachlässigt werden. Der Wert des Proportionalitäts­ faktors α für eine Spitze Σ wird nach der Formel z = f.D/α.T in die z-Koordinate des entsprechenden Merkmals umgerechnet. Anhand der bekannten Entfer­ nung f zwischen Abbildungsoptik und Bildebene der Kamera und der wie oben angegebenen ermittelten z- Koordinate können x- und y-Koordinate des Merkmals im Raum durch einfache Proportionalitätsrechnung aus den Koordinaten des zugehörigen Bildpunktes in der Bildebene bestimmt werden.
Fig. 7 zeigt die Bildebene 5 der Kamera 3 stark vereinfacht dargestellt. Licht- beziehungsweise farbempfindliche Pixel 5a sind die matrixartig auf einem CCD-Chip angeordnet. Die Koordinaten eines einzelnen Pixels 5a sind anhand der Koordinatenach­ sen a und b der Bildebene 5 eindeutig identifizier­ bar. Die Koordinatenachsen a und b der Bildebene 5 liegen vorzugsweise parallel zu den Koordinatenach­ sen x und y in Fig. 1. Wird mit der Kamera 3 ein Bild des Gegenstandes 1 aufgenommen, so werden auf den Pixel 5a entsprechend der Oberfläche des Ge­ genstandes 1 Flächenmerkmale als Bildpunkte abge­ bildet. Rein beispielhaft sind zwei Bildpunkte P1 und P2 auf der Bildebene 5 dargestellt. Aufgrund der Relativbewegung des Gegenstandes 1 bezüglich der Kamera 3 wandern die Bildpunkte P1 und P2 auf der Bildebene 5 zu einer Position P'1 beziehungs­ weise P'2. Das heißt, dass zu einem ersten Zeit­ punkt beziehungsweise bei einer ersten Bildaufnahme Merkmale des Gegenstandes 1 an den Pixel der Bild­ punkte P1 beziehungsweise P2 abgebildet werden. Durch die Bewegung des Gegenstandes 1 werden die­ selben Merkmale des Gegenstandes 1 zu einem späte­ ren Zeitpunkt auf den Pixel als Bildpunkte P'1 und P'2 abgebildet. Es wird angenommen, dass das Merk­ mal des Gegenstandes 1, welches auf dem Bildpunkt P1 abgebildet wird, näher an der Bildebene 5 liegt als das Merkmal, das auf dem Bildpunkt P2 abgebil­ det wird. Das heißt, dass in z-Richtung der Abstand des Flächenmerkmals, das den Bildpunkt P1 abbildet, einen geringeren Abstand zur Bildebene 5 aufweist als das Merkmal, das den Punkt P2 auf der Bildebene 5 abbildet. Bei der Aufnahme eines Bildes liefert jedes Pixel 5a einen Grauwert beziehungsweise In­ tensitätswert beziehungsweise Farbwert, der dem O­ berflächenmerkmal des Gegenstandes 1 entspricht.
Der Bildpunkt P1 wandert in einer bestimmten Zeit­ spanne um einen größeren Weg W1 als der Bildpunkt P2, der auf der Bildebene 5 einen Weg W2 zurücklegt. Um nun den Verschiebeweg W1 beziehungsweise W2 er­ mitteln zu können, wird nun auf elektronischem Wege der Bildpunkt P1' beziehungsweise P2' zurückverscho­ ben, wie dies in Fig. 8 dargestellt ist. Der Rück­ verschiebungsweg R1 beziehungsweise R2 wird dadurch ermittelt, dass zunächst um bestimmte Rückverschie­ bungswegeabschnitte Δa rückverschoben wird, wobei Δa vorzugsweise der Breite eines Pixels 5a ent­ spricht. In Rückverschiebungsrichtung R1 bezie­ hungsweise R2 lässt sich nun jeweils der in Rich­ tung R1 beziehungsweise R2 benachbart liegende Bild­ punkt mit dem Bildpunkt P1' beziehungsweise P2' ver­ gleichen. Das heißt, dass die Graustufen bezie­ hungsweise Farben der beiden benachbart zueinander liegenden Bildpunkte verglichen werden. Die Rück­ verschiebungen in Richtung R1, R2 der Bildpunkte P1' beziehungsweise P2' erfolgt also vorzugsweise immer um ein Pixel, also um den Abstand Δa. Liegen glei­ che beziehungsweise sehr ähnliche Graustufen bezie­ hungsweise Farbwerte vor, wird angenommen, dass die Rückverschiebung des Bildpunktes P1' beziehungswei­ se P2' soweit erfolgt ist, dass er an den Koordina­ ten des Bildpunktes P1 beziehungsweise P2' angekom­ men ist. Aufgrund der Rückverschiebebewegung R1 be­ ziehungsweise R2 kann somit auf den Weg W1 bezie­ hungsweise W2 zurückgeschlossen werden. Da die Ge­ schwindigkeit des Gegenstandes 1 und der Weg W1 be­ ziehungsweise W2 des Merkmals auf der Bildebene 5 bekannt sind, kann somit auf den Abstand in z- Richtung des Merkmals zur Bildebene 5 rückgeschlos­ sen werden. Damit lässt sich die Tiefe des jeweili­ gen Bildpunktes bestimmen, so dass auf die Oberflä­ chenstruktur des Gegenstandes 1 zurückgeschlossen werden kann.
Beim Rückverschieben eines Bildpunktes P1' bezie­ hungsweise P2' wird also festgestellt, ob sich Hel­ ligkeitsänderungen nach der Rückverschiebung bewe­ gen oder ob sie am selben Ort bleiben. Dies er­ reicht man durch Addition der verschobenen Bilder, also durch Verschieben vorzugsweise aller Bildpunk­ te, die auf der Bildebene 5 abgebildet sind. Ob­ jektpunkte im untersuchten Tiefenbereich äußern sich dadurch, dass sich die Werte für die Hellig­ keit beziehungsweise Farbwerte aufaddieren und bei elektronischer Auswertung sogenannte Peaks bilden, während Bildpunkte außerhalb dieser Tiefebene sich bewegen und positive beziehungsweise negative Hel­ ligkeitswerte sich aufheben. Anschließend werden die Maxima beziehungsweise Minima dieser Summe über den verschiedenen Tiefenschichten gebildet, weil positive und negative Peaks festgestellt werden sollen. An den entsprechenden Punkten im Raum, de­ ren kartesische Koordinaten man aus a, b und z ge­ winnen kann, befinden sich die Objektpunkte, so dass auf die Oberflächenstruktur rückgeschlossen werden kann.
Diverse Weiterentwicklungen des Verfahrens sind möglich. Da eine Differenzierung in einer Richtung nur Konturen in einem Bild hervorzuheben vermag, die senkrecht zu dieser Richtung verlaufen, kann es zum Beispiel sinnvoll sein, zusätzlich zu der mit Bezug auf Fig. 4 beschriebenen Differenzierung nach der x-Koordinate noch eine zweite Differenzie­ rung in der dazu senkrechten Richtung, also nach der y-Koordinate durchzuführen. Die Ergebnisse der zwei Differenzierungsoperationen können unabhängig voneinander mit der mit Bezug auf Fig. 5 und 6 be­ schriebenen Weise weiterverarbeitet werden. Belie­ bige andere Methoden zur Kontrastverbesserung kön­ nen selbstverständlich auch im Rahmen dieses Ver­ fahrens eingesetzt werden.
Ferner kann es zweckmäßig sein, die Form des Ge­ genstandes mit mehreren Kameras gleichzeitig zu er­ fassen, die zum Beispiel einander gegenüberliegend oder im rechten Winkel zueinander angeordnet sein können. Die mit Hilfe beider Kameras gegebenenfalls unabhängig voneinander erhaltenen Datensätze, die Koordinaten des Gegenstandes in Bezug auf die Ab­ bildungsoptik der Kamera enthalten, können bei ge­ nauer Kenntnis der relativen Positionen der Kameras zueinander ohne Schwierigkeiten in ein gemeinsames Bezugssystem umgerechnet und so vollautomatisch zu einem einheitlichen Datensatz zusammengefügt wer­ den.

Claims (9)

1. Verfahren zur Erfassung der Gestalt eines drei­ dimensionalen Gegenstandes mit den Schritten.
  • a) Relatives Bewegen des Gegenstandes (1) zu einer Kamera (3) auf einer vorgegebenen Bahn (2),
  • b) Aufnehmen von Bildern (6) des Gegenstandes (1) im Laufe der Bewegung,
  • c) Rückverschieben (R) von Bildpunkten (P1, P2) eines der aufgenommenen Bilder (6) jeweils um einen gleichen, vorgebbaren Weg (W), wobei die Rich­ tung der Rückverschiebung (R) entgegen der Bewe­ gungsrichtung des Gegenstandes (1) erfolgt,
  • d) Vergleich der Helligkeits- und/oder Farbeigen­ schaften von in Rückverschiebungsrichtung (R) benachbarten Bildpunkten zumindest zweier Bil­ der,
  • e) Vergleich der ermittelten Helligkeits- und/oder Farbeigenschaften von jeweils einem Bildpunkt zweier Bilder, wobei diese Bildpunkte dieselben Punktkoordinaten (a, b) besitzen.
  • f) Verknüpfen der Helligkeits- und/oder Farbeigen­ schaften der beiden Bildpunkte mit denselben Punktkoordinaten (a, b),
  • g) erneutes Rückverschieben der Bildpunkte und wie­ derholen der Verfahrensschritte e) und f),
  • h) Vergleich der zumindest zwei Verknüpfungsergeb­ nisse miteinander, und
  • i) Ermitteln der Rückverschiebeweglänge (R) bis zum Erreichen eines vorgebbaren Verknüpfungsergeb­ nisses.
2. Verfahren nach Anspruch 1, dadurch gekennzeich­ net, dass die Koordinaten des Punktes im Raum be­ rechnet werden, wobei dies anhand der Lage der Bildpunkte und der gewählten Rückverschiebung (R) erfolgt.
3. Verfahren nach Anspruch 1, dadurch gekennzeich­ net, dass die Bahn (2) geradlinig ist.
4. Verfahren nach Anspruch 1, dadurch gekennzeich­ net, dass die Bewegung des Gegenstandes (1) mit konstanter Geschwindigkeit erfolgt.
5. Verfahren nach Anspruch 1, dadurch gekennzeich­ net, dass der Zeitabstand zwischen zwei Bildaufnah­ men über eine längere Bildfolge konstant ist.
6. Verfahren nach einem der vorhergehenden Ansprü­ che, dadurch gekennzeichnet, dass für im Wesentli­ chen jeden Punkt eines Bildes die Differenz zwi­ schen dem Helligkeitswert eines Punktes und des be­ nachbarten Punktes berechnet wird.
7. Verfahren nach Anspruch 1 oder 4, dadurch ge­ kennzeichnet, dass der Vergleich eine Addition von Parameterwerten von durch Rückverschiebung (R) ü­ berlappenden Bilder umfasst, wobei jeweils Punkte, an denen das durch die Addition erhaltene Summen­ bild Spitzen aufweist, gleichen Merkmalen des Ge­ genstandes (1) zugeordnet werden können.
8. Verfahren nach Anspruch 3 oder 4, dadurch ge­ kennzeichnet, dass der Betrag der Rückverschiebung jedes Bildes proportional zum Produkt aus dem zeit­ lichen Abstand (T) der Aufnahmen und dem Index (i) der Aufnahme gewählt wird.
9. Verfahren nach einem der vorhergehenden Ansprü­ che, dadurch gekennzeichnet, dass eine Mehrzahl von Rückverschiebungsoperationen durchgeführt wird, um Merkmale (13, 14, 15, 16) des Gegenstandes (1) mit un­ terschiedlichen Abständen zur Kamera (3) identifi­ zieren.
DE10020893.2A 1999-04-30 2000-04-28 Verfahren zur optischen Formerfassung von Gegenständen Expired - Fee Related DE10020893B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10020893.2A DE10020893B4 (de) 1999-04-30 2000-04-28 Verfahren zur optischen Formerfassung von Gegenständen

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19919963 1999-04-30
DE19919963.9 1999-04-30
DE10020893.2A DE10020893B4 (de) 1999-04-30 2000-04-28 Verfahren zur optischen Formerfassung von Gegenständen

Publications (2)

Publication Number Publication Date
DE10020893A1 true DE10020893A1 (de) 2000-12-28
DE10020893B4 DE10020893B4 (de) 2018-07-05

Family

ID=7906582

Family Applications (2)

Application Number Title Priority Date Filing Date
DE50009995T Expired - Lifetime DE50009995D1 (de) 1999-04-30 2000-04-26 Verfahren zur optischen formerfassung von gegenständen
DE10020893.2A Expired - Fee Related DE10020893B4 (de) 1999-04-30 2000-04-28 Verfahren zur optischen Formerfassung von Gegenständen

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE50009995T Expired - Lifetime DE50009995D1 (de) 1999-04-30 2000-04-26 Verfahren zur optischen formerfassung von gegenständen

Country Status (7)

Country Link
US (1) US6590669B1 (de)
EP (1) EP1190211B1 (de)
JP (1) JP2002543411A (de)
AT (1) ATE292784T1 (de)
CA (1) CA2370156C (de)
DE (2) DE50009995D1 (de)
WO (1) WO2000066973A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013212827A1 (de) * 2013-07-01 2015-01-08 Sac Sirius Advanced Cybernetics Gmbh Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6876459B2 (en) * 2002-04-01 2005-04-05 General Electric Company Method and apparatus for optical measurement of the leading edge position of an airfoil
DE102004020419B3 (de) * 2004-04-23 2005-10-20 3D Shape Gmbh Verfahren und Vorrichtung zur Bestimmung der Form und der lokalen Oberflächennormalen spiegelnder Oberflächen
EA010956B1 (ru) * 2004-09-07 2008-12-30 Петромодел Эхф Устройство и способ анализа размера, формы и угловатости, а также состава минералов и частиц горных пород
FI117650B (fi) * 2004-10-27 2006-12-29 Mapvision Ltd Oy Symmetria-akselin määrittäminen
KR20060065800A (ko) * 2004-12-10 2006-06-14 한국전자통신연구원 헬름홀츠 스테레오를 이용한 깊이 불연속선을 지니는물체의 3차원 형상 획득 장치 및 그 방법
EP1831642A1 (de) * 2004-12-30 2007-09-12 Snap-on Incorporated Kontaktloses fahrzeugmessverfahren und system
US7623250B2 (en) * 2005-02-04 2009-11-24 Stryker Leibinger Gmbh & Co. Kg. Enhanced shape characterization device and method
DE102005022540B4 (de) * 2005-05-17 2007-07-05 Siemens Ag Verfahren zur Minimierung von Bildartefakten und medizinisches Bildgebungssystem
DE102005043912B4 (de) * 2005-05-18 2011-08-18 Steinbichler Optotechnik GmbH, 83115 Verfahren zum Bestimmen der 3D-Koordinaten der Oberfläche eines Objekts
DE102005023165A1 (de) * 2005-05-19 2006-11-23 Siemens Ag Medizinisches Bildgebungssystem mit einem um einen Patienten verfahrbaren Teil und Kollisionsschutzverfahren
JP4599515B2 (ja) * 2005-05-27 2010-12-15 コニカミノルタセンシング株式会社 3次元形状データの位置合わせ方法および装置
KR100681320B1 (ko) * 2005-12-08 2007-02-09 한국전자통신연구원 헬름홀츠 교환조건으로부터 유도되는 편미분 방정식의레벨셋 풀이 방법을 이용한 물체의 3차원 형상 모델링 방법
US7711182B2 (en) * 2006-08-01 2010-05-04 Mitsubishi Electric Research Laboratories, Inc. Method and system for sensing 3D shapes of objects with specular and hybrid specular-diffuse surfaces
DE102007020240A1 (de) * 2007-04-24 2008-10-30 Sms Demag Ag Verfahren zur Erkennung und Klassifizierung von Oberflächenfehlern auf stranggegossenen Brammen
JP2010537188A (ja) * 2007-08-22 2010-12-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表面の光学的特徴付けに対する方法及び装置
AT506110B1 (de) * 2007-12-12 2011-08-15 Nextsense Mess Und Pruefsysteme Gmbh Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE102008015499C5 (de) * 2008-03-25 2013-01-10 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
TR201009280T1 (tr) * 2008-05-16 2011-09-21 Forensic Technology Wai Inc. Rastlantısal geometriye sahip olan nesnelerin topografyalarının elde edilmesi.
US8437537B2 (en) * 2009-03-27 2013-05-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for estimating 3D pose of specular objects
US10157495B2 (en) * 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US9200899B2 (en) 2012-03-22 2015-12-01 Virtek Vision International, Inc. Laser projection system and method
US9245062B2 (en) * 2012-03-22 2016-01-26 Virtek Vision International Inc. Laser projection system using variable part alignment
US9746353B2 (en) 2012-06-20 2017-08-29 Kirt Alan Winter Intelligent sensor system
US9857470B2 (en) * 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
DE102013106696B4 (de) 2013-06-26 2019-10-10 Gom Gmbh Steuerungseinheit für eine optische Vermessungseinrichtung und Verfahren zur Steuerung einer optischen Vermessungseinrichtung
CN103411546B (zh) * 2013-08-20 2016-05-11 中国海洋石油总公司 钢结构三维精度的检验方法
JP2017501951A (ja) 2013-11-25 2017-01-19 コーニング インコーポレイテッド 実質的に柱面を成す鏡面反射面の形状を決定するための方法
DE102017118767B4 (de) 2017-08-17 2020-10-08 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts
US11350078B2 (en) * 2020-04-03 2022-05-31 Fanuc Corporation 3D pose detection by multiple 2D cameras
CN117047787B (zh) * 2023-10-13 2023-12-29 中国长江电力股份有限公司 基于双目结构光视觉的水轮机顶盖在位机器人编程方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3840739A (en) * 1973-08-03 1974-10-08 Gerber Scientific Instr Co Apparatus and method for tracking a raised edge without shadow interference
DE3570744D1 (en) 1984-02-25 1989-07-06 Massen Robert Process for the contactless measurement of the length of a moving article, and measuring apparatus for carrying out the process
DE3679616D1 (de) 1985-08-28 1991-07-11 Igm Ind Geraete Maschf Gmbh Verfahren zum erfassen der position und geometrie von werkstueckoberflaechen.
FI74556C (fi) * 1986-04-11 1988-02-08 Valtion Teknillinen Foerfarande foer tredimensionell oevervakning av ett maolutrymme.
DE3641816A1 (de) 1986-12-06 1988-06-16 Robert Prof Dr Ing Massen Verfahren und anordnung zur messung und/oder ueberwachung von eigenschaften von garnen und seilen
US4791482A (en) * 1987-02-06 1988-12-13 Westinghouse Electric Corp. Object locating system
AU631661B2 (en) * 1989-06-20 1992-12-03 Fujitsu Limited Method for measuring position and posture of object
JPH05266146A (ja) * 1992-03-19 1993-10-15 Matsushita Electric Ind Co Ltd 物体形状の表現装置
DE4411646A1 (de) 1994-04-02 1995-11-02 Bernhardt Gerd Prof Dr Ing Hab Verfahren und Anordnung zur Bestimmung der geometrischen Eigenschaften von Objekten vor einem Fahrzeug
GB9515311D0 (en) * 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
GB9716240D0 (en) * 1997-07-31 1997-10-08 Tricorder Technology Plc Scanning apparatus and methods

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013212827A1 (de) * 2013-07-01 2015-01-08 Sac Sirius Advanced Cybernetics Gmbh Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes
DE102013212827B4 (de) * 2013-07-01 2015-03-26 Sac Sirius Advanced Cybernetics Gmbh Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes

Also Published As

Publication number Publication date
DE50009995D1 (de) 2005-05-12
JP2002543411A (ja) 2002-12-17
CA2370156A1 (en) 2000-11-09
US6590669B1 (en) 2003-07-08
ATE292784T1 (de) 2005-04-15
DE10020893B4 (de) 2018-07-05
CA2370156C (en) 2009-02-17
EP1190211A1 (de) 2002-03-27
WO2000066973A1 (de) 2000-11-09
EP1190211B1 (de) 2005-04-06

Similar Documents

Publication Publication Date Title
DE10020893A1 (de) Verfahren zur optischen Formerfassung von Gegenständen
DE3854348T2 (de) Verfahren und Vorrichtung zum Messen der Form einer dreidimensional gekrümmten Oberfläche.
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
EP1078219B1 (de) Erfassung der räumlichen struktur einer dreidimensionalen oberfläche
DE69726025T2 (de) Verfahren und vorrichtung zum erhalten einer dreidimensionalen form
EP2040026B1 (de) Verfahren und System zur Kalibrierung einer Vorrichtung zur Formmessung einer spiegelnden Oberfläche
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE10219054B4 (de) Verfahren und Vorrichtung zur Bestimmung der räumlichen Koordinaten eines Gegenstandes
DE102006001634B3 (de) Erstellung eines Abstandsbildes
DE19502459A1 (de) Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten
EP3195256B1 (de) Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern
DE69723213T2 (de) System zum Messen des Spiels und der Koplanarität zweier nebeneinander liegender Objekte
DE19623172C1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
DE102006049695A1 (de) Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
WO2005075936A1 (de) Verfahren zur bestimmung der lage eines objekts im raum
DE10135300A1 (de) Verfahren und Einrichtung zum Messen dreidimensionaler Information
DE102017116758B4 (de) Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
WO2019197656A1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE102016100132B4 (de) Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen
DE19534415A1 (de) Verfahren und Vorrichtung zum Erfassen und Vermessen dreidimensionaler Körper oder von beliebigen Flächen
DE102006006876A1 (de) Verfahren und Vorrichtung zum Erfassen einer Kontur einer reflektierenden Oberfläche
EP1098268A2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102005043753A1 (de) Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings und Vorrichtung zur Durchführung des Verfahrens

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee