DE102014114506B4 - Kamera zur Montage an einer Fördereinrichtung und Verfahren zur Inspektion oder Identifikation - Google Patents

Kamera zur Montage an einer Fördereinrichtung und Verfahren zur Inspektion oder Identifikation Download PDF

Info

Publication number
DE102014114506B4
DE102014114506B4 DE102014114506.2A DE102014114506A DE102014114506B4 DE 102014114506 B4 DE102014114506 B4 DE 102014114506B4 DE 102014114506 A DE102014114506 A DE 102014114506A DE 102014114506 B4 DE102014114506 B4 DE 102014114506B4
Authority
DE
Germany
Prior art keywords
image
image data
camera
dimensional image
evaluation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014114506.2A
Other languages
English (en)
Other versions
DE102014114506A1 (de
Inventor
Jürgen Reichenbach
Klemens Wehrle
Martin Grafmüller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE102014114506.2A priority Critical patent/DE102014114506B4/de
Publication of DE102014114506A1 publication Critical patent/DE102014114506A1/de
Application granted granted Critical
Publication of DE102014114506B4 publication Critical patent/DE102014114506B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/04Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness specially adapted for measuring length or width of objects while moving
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Kamera (10) zur Montage an einer Fördereinrichtung (12) zur Erfassung eines auf der Fördereinrichtung (12) geförderten Stroms von Objekten (14), die einen Bildsensor (26) zur Aufnahme von Bilddaten der geförderten Objekte (14) sowie eine Auswertungseinheit (32) zur Bestimmung von Objektinformationen aus den Bilddaten aufweist, wobei die Auswertungseinheit (32) dafür ausgebildet ist, aus den Bilddaten sowohl ein zweidimensionales Bild der Objektoberflächen als auch ein dreidimensionales Bild der Objektgeometrien zu erzeugen, dadurch gekennzeichnet, dass die Kamera (10) mindestens zwei Bildsensoren (26a-c) aufweist, deren Erfassungsbereiche (18a-c) einander überlappend ergänzen und so eine Breite der Fördereinrichtung (12) abdecken, und dass die Auswertungseinheit (32) dafür ausgebildet ist, das zweidimensionale Bild durch Zusammenfügen der Bilddaten der Bildsensoren (26a-c) und das dreidimensionale Bild in den überlappenden Erfassungsbereichen (18ab-bc) mit einem Stereoalgorithmus zu erzeugen.

Description

  • Die Erfindung betrifft eine Kamera zur Montage an einer Fördereinrichtung und ein Verfahren zur Inspektion oder Identifikation nach dem Oberbegriff von Anspruch 1 beziehungsweise 9.
  • In industriellen Anwendungen werden Kameras in vielfältiger Weise eingesetzt, um Objekteigenschaften automatisch zu erfassen, beispielsweise zur Inspektion oder Vermessung von Objekten. Dabei werden Bilder des Objekts aufgenommen und entsprechend der Aufgabe durch Bildverarbeitungsverfahren ausgewertet. Eine weitere Anwendung von Kameras ist das Lesen von Codes. Derartige kamerabasierte Codeleser lösen die noch weit verbreiteten Barcodescanner zunehmend ab. Mit Hilfe eines Bildsensors werden Objekte mit den darauf befindlichen Codes aufgenommen, in den Bildern die Codebereiche identifiziert und dann dekodiert. Kamerabasierte Codeleser kommen problemlos auch mit anderen Codearten als eindimensionalen Strichcodes zurecht, die wie ein Matrixcode auch zweidimensional aufgebaut sind und mehr Informationen zur Verfügung stellen. Auch die automatische Texterfassung von gedruckten Adressen (OCR, Optical Character Recognition) oder Handschriften ist im Prinzip ein Lesen von Codes. Typische Anwendungsgebiete von Codelesern sind Supermarktkassen, die automatische Paketidentifikation, Sortierung von Postsendungen, die Gepäckabfertigung in Flughäfen und andere Logistikanwendungen.
  • Eine häufige Erfassungssituation ist die Montage der Kamera über einem Förderband. Die Kamera nimmt während der Relativbewegung des Objektstroms auf dem Förderband Bilder auf und leitet in Abhängigkeit der gewonnenen Objekteigenschaften weitere Bearbeitungsschritte ein. Solche Bearbeitungsschritte bestehen beispielsweise in der an das konkrete Objekt angepassten Weiterverarbeitung an einer Maschine, die auf geförderte Objekte einwirkt, oder in einer Veränderung des Objektstroms, indem bestimmte Objekte im Rahmen einer Qualitätskontrolle aus dem Objektstrom ausgeschleust werden oder der Objektstrom in mehrere Teilobjektströme sortiert wird. Wenn die Kamera ein kamerabasierter Codeleser ist, werden die Objekte für eine korrekte Sortierung oder ähnliche Bearbeitungsschritte anhand der angebrachten Codes identifiziert. In der Regel liefert das Fördersystem durch einen Inkrementalgeber fortlaufend wegbezogene Impulse, damit die Objektpositionen zu jedem Zeitpunkt auch bei wechselnder Fördergeschwindigkeit bekannt sind.
  • Die mit einer Kamera unmittelbar erfasste Bildinformation ist zweidimensional. Um die Auswertung solcher Bilder zu unterstützen, Objekte in den Bildern aufzufinden oder zusätzliche Objektinformationen wie Höhe oder Volumen zu gewinnen, wird in herkömmlichen Installationen oft ein zusätzlicher 3D-Sensor eingesetzt. Dabei handelt es sich beispielsweise um einen entfernungsmessenden Laserscanner, der oberhalb der Kamera auf das Förderband gerichtet ist und vorab die Objektkonturen und damit die Geometrie der geförderten Objekte auf ihrem Förderband erfasst. Da eine Kamera nur die Objektoberflächen erkennt, die zu ihr hin gerichtet sind, werden regelmäßig für die vollständige Erfassung der Objekte von allen Seiten (Omnilesung) zusätzliche Kameras eingesetzt. So ergibt sich eine sehr große Anzahl von Sensoren, die miteinander kombiniert und deren Daten fusioniert werden müssen, zumal auch noch weitere Sensoren vorhanden sein können, etwa Inkrementalgeber zur Bestimmung der Fördergeschwindigkeit.
  • Die DE 699 26 659 T2 befasst sich mit der optischen Inspektion und setzt dafür in einer Prüfvorrichtung eine zweidimensionale Matrix-Sensoreinrichtung ein. Ein Objekt wird während einer Relativbewegung mit einer Laserlinie beleuchtet und deren Verzerrung ausgewertet, um Objekt-Höheninformationen zu triangulieren. Außerdem erfolgt eine Zeilenabtastung, um auch Objekt-Flächeninformationen zu gewinnen.
  • Die US 2009/0059242 A1 beschreibt eine 3D-Messung an einem Förderer mit Hilfe zweier überlappender Kameras und einem Stereoverfahren, wobei die eine Kamera senkrecht und die andere Kamera schräg von oben auf den Förderer ausgerichtet ist. Die Höheninformation wird nur an ausgewählten Messpunkten und Messbereichen gewonnen, und es wird ein Bild erzeugt, in dem die Höhe dieser Messpunkte und Messbereiche gegenüber einer Grundfläche visualisiert wird.
  • Aus der US2003/0231793 A1 ist eine Scanvorrichtung bekannt, die ein 3D-Model eines Objekts erzeugt und einen Streifenprojektor sowie mehrere Lampen aufweist.
  • Eine Formerfassungsvorrichtung nach US 2014/0071243 A1 scannt mit einem Streifenmuster und anschließend mit einer homogenen Beleuchtung.
  • Die US 2006/0192925 A1 offenbart eine Kalibration für einen Vielfachprojektor. In einer Ausführungsform verwenden die einzelnen Projektoren unterschiedliche Farben, um mehrere Farbkanäle für die simultane Auswertung der erzeugten Muster zu schaffen.
  • Es ist daher Aufgabe der Erfindung, die Erfassung von in einem Strom bewegten Objekten zu verbessern.
  • Diese Aufgabe wird durch eine Kamera zur Montage an einer Fördereinrichtung und ein Verfahren zur Inspektion oder Identifikation nach Anspruch 1 beziehungsweise 9 gelöst. Die Kamera nimmt zur Inspektion oder Objektidentifikation Bilddaten der Objekte auf, die an ihrer Montageposition vorbeigefördert werden. Die Erfindung geht nun von dem Grundgedanken aus, Bilddaten sowohl für die Erzeugung eines zweidimensionalen Bildes als auch eines dreidimensionalen Bildes zu verwenden. Dabei werden je nach Ausführungsform die Bilddaten zeitversetzt aufgenommen oder verschiedene Auswertungen auf denselben Bilddaten ausgeführt.
  • Die Erfindung hat den Vorteil, dass durch die Kombination der zweidimensionalen und dreidimensionalen Erfassung in einem Gerät eine integrierte Gesamtlösung mit einer geringeren Anzahl an Sensoren entsteht. Dadurch werden Herstellung, Montage und Wartung vereinfacht, und die Kamera ist kompakter und preisgünstiger.
  • Die Auswertungseinheit ist bevorzugt dafür ausgebildet, in dem zweidimensionalen Bild Codebereiche zu erkennen, eine Codierung aus den Codebereichen auszulesen und so das Objekt zu identifizieren. Die Kamera ist demnach als kamerabasierter Codeleser zur Objektidentifikation ausgebildet. Dazu werden Objektflächen und innerhalb der Objektflächen relevante Bereiche mit Codierungen erkannt. Das gelingt beispielsweise anhand von Kantendetektion für die Objektflächen und Kontrastbewertung innerhalb der Objektflächen, da sich der Kontrast homogener leerer Bereiche meist signifikant von Codierungen unterscheidet. Das Auslesen von Codebereichen kann sowohl eng im Sinne bekannter Barcodes oder 2D-Codes als auch weit im Sinne von OCR oder Handschriftenerkennung verstanden werden. Alternativ zum Codelesen sind auch sonstige Inspektionsaufgaben der industriellen Bildverarbeitung denkbar, etwa die Überprüfung von Farben oder Strukturen zur Qualitätssicherung.
  • Die Auswertungseinheit ist bevorzugt dafür ausgebildet, aus dem dreidimensionalen Bild Positionen, Höhen und/oder Volumina der Objekte zu bestimmen. Das dreidimensionale Bild entspricht der Kontur der Fördereinrichtung und der darauf geförderten Objekte. Diese Kontur kann genutzt werden, um Objekte voneinander zu separieren (Segmentierung) und deren Position und Geometrie zu erfassen. Dies kann eine für sich relevante Objektinformation liefern, wie das Objektvolumen, aber auch genutzt werden, um in dem zweidimensionalen Bild Objektflächen zu identifizieren. Da die Bilddaten jeweils mit derselben Kamera aufgenommen sind, ist eine dafür erforderliche Zuordnung zwischen zweidimensionalen und dreidimensionalen Bildern sehr leicht möglich. Die Geometrie kann auch für andere Steuerungsschritte verwendet werden, etwa die Einstellung der Fokuslage einer Empfangsoptik des Bildsensors. Da die Bildwiederholfrequenz üblicherweise im Vergleich zur Fördergeschwindigkeit hoch genug ist, werden dann die gleichen Objekte lediglich mit kleinem Versatz erneut unter der soeben angepassten Fokuslage aufgenommen.
  • Die Kamera weist mindestens zwei Bildsensoren auf, deren Erfassungsbereiche einander überlappend ergänzen und so eine Breite der Fördereinrichtung abdecken, wobei die Auswertungseinheit dafür ausgebildet ist, das zweidimensionale Bild durch Zusammenfügen der Bilddaten der Bildsensoren und das dreidimensionale Bild in den überlappenden Erfassungsbereichen mit einem Stereoalgorithmus zu erzeugen. Der Öffnungswinkel einer einfachen Kamera in üblicher Montagehöhe erfasst ab einer gewissen Breite der Fördereinrichtung nur noch einen Teilausschnitt. Es werden mehrere Bildsensoren der gleichen Kamera oder mehrere Kameras nebeneinander eingesetzt, um überlappend die volle Breite abzudecken. Die einzelnen Bilder werden auf Basis überlappend erfasster Bildbereiche zusammengefügt (Image Stitching). Die Überlappungsbereiche sind dabei mehrfach aus unterschiedlicher Perspektive aufgenommen, was gerade die Voraussetzung für einen Stereoskopiealgorithmus bietet. So wird die schon zum Abdecken der Breite der Fördereinrichtung benötigte apparative Konfiguration lediglich durch zusätzliche Auswertung für die Erzeugung der dreidimensionalen Bilder genutzt.
  • Die Auswertungseinheit ist bevorzugt dafür ausgebildet, das dreidimensionale Bild in Bereichen, in denen die Bilddaten keine Entfernungsschätzung ermöglichen, auf Basis von Annahmen an die Objektgeometrien zu extrapolieren. Bereiche, in denen keine Entfernungsschätzung möglich ist, können durch fehlende Struktur in den Bilddaten, Abschattungen und insbesondere im Falle eines Stereoverfahrens wie im vorigen Absatz in nicht überlappend aufgenommenen Teilbereichen entstehen. Nimmt man dann an, dass die Objekte eine bestimmte Geometrie besitzen, etwa quaderförmig sind, so kann die Objektgeometrie auch in solche Lücken hinein extrapoliert werden.
  • Die Kamera weist bevorzugt eine Beleuchtungseinheit auf, um die Objekte mit einem strukturierten Beleuchtungsmuster zu beleuchten, wobei insbesondere die Auswertungseinheit dafür ausgebildet ist, die Bilddaten der beleuchteten Objekte mit Referenzmustern zu korrelieren, um das dreidimensionale Bild zu erzeugen. Das Beleuchtungsmuster ist beispielsweise ein zufälliges Punktmuster. Dieses Beleuchtungsmuster wird je nach Geometrie im Objektbereich verzerrt, so dass durch Korrelation mit einer zuvor eingelernten oder berechneten Referenz des Beleuchtungsmusters beispielsweise auf einen flachen Hintergrund in bekanntem Abstand Entfernungen trianguliert werden können. Das Verfahren entspricht dem Stereoverfahren, wobei aber nicht zwei Bilder einer Szenerie, sondern nur ein Bild der Szenerie und das Beleuchtungsmuster korreliert werden. Auch für ein echtes Stereoverfahren ist eine strukturierte Beleuchtung hilfreich, um Korrespondenzen auch in sonst homogenen Bildbereichen zu ermöglichen. Das Beleuchtungsmuster sollte zumindest lokal selbstunähnlich sein, d.h. Musterbereiche können durch Translationen zumindest einer gewissen Länge nicht ineinander überführt werden, um Scheinkorrespondenzen zu vermeiden.
  • Die Beleuchtungseinheit ist bevorzugt für die Erzeugung sowohl des strukturierten Beleuchtungsmusters als auch einer homogenen Beleuchtung ausgebildet. Durch Umschalten der Beleuchtung können wahlweise Aufnahmen von Bilddaten unter verschiedenen Beleuchtungen erfolgen.
  • Die Auswertungseinheit ist bevorzugt dafür ausgebildet, alternierend unter homogener Beleuchtung Bilddaten für das zweidimensionale Bild und unter Beleuchtung mit dem strukturierten Beleuchtungsmuster Bilddaten für das dreidimensionale Bild zu gewinnen. Unter homogener Beleuchtung sind die Eigenschaften der Objektflächen erfassbar, insbesondere zum Auslesen von Codebereichen. Die strukturierte Beleuchtung dagegen ist Voraussetzung oder Unterstützung für die Entfernungsschätzung. Alternierend bedeutet zunächst eine beliebige Sequenz der Beleuchtungsszenarien, vorzugsweise wechseln homogene und strukturierte Beleuchtung einander ab, so dass jeweils ein Paar Bilddaten für zweidimensionale und dreidimensionale Bilder mit kurzem zeitlichem Abstand verfügbar ist.
  • Der Bildsensor ist bevorzugt zur Aufnahme von farbigen Bilddaten und die Beleuchtungseinheit zur Erzeugung einer homogenen Beleuchtung und des strukturierten Beleuchtungsmusters in unterschiedlichen Farben ausgebildet, wobei die Auswertungseinheit Bilddaten in der Farbe der homogenen Beleuchtung für die Erzeugung des zweidimensionalen Bildes und Bilddaten in der Farbe des strukturierten Beleuchtungsmusters für die Erzeugung des dreidimensionalen Bildes verwendet. Dadurch entstehen zwei Farbkanäle, die jeweils für die zweidimensionalen beziehungsweise dreidimensionalen Bilder genutzt werden. Statt einer zeitlichen Trennung wie unter alternierender Beleuchtung erfolgt also eine Trennung über das Spektrum, was den Vorteil mit sich bringt, dass die Bilddaten für zweidimensionale und dreidimensionale Bilder gleichzeitig aufgenommen werden und damit Objekte in identischer Position erfassen.
  • Das erfindungsgemäße Verfahren kann auf ähnliche Weise weitergebildet werden und zeigt dabei ähnliche Vorteile. Derartige vorteilhafte Merkmale sind beispielhaft, aber nicht abschließend in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben.
  • Die Abbildungen der Zeichnung zeigen in:
    • 1 eine schematische dreidimensionale Ansicht einer an einem Förderband mit zu erfassenden Objekten montierten Kamera;
    • 2a ein Längsschnitt der Kamera und des Förderbandes gemäß 1 unter strukturierter Beleuchtung;
    • 2b ein Längsschnitt der Kamera und des Förderbandes gemäß 1 unter homogener Beleuchtung;
    • 3 ein Längsschnitt der Kamera und des Förderbandes gemäß 1 unter gleichzeitiger homogener und strukturierter Beleuchtung; und
    • 4 ein Querschnitt einer erfindungsgemäßen Kamera und eines Förderbandes für eine Kamera mit mehreren nebeneinander angeordneten Bildsensoren zur Erfassung breiter Förderbänder, deren Bildsensoren zusätzlich für eine stereoskopische Entfernungsschätzung genutzt werden.
  • 1 zeigt eine Kamera 10, die über einem Förderband 12 montiert ist, welches Objekte 14, wie durch den Pfeil 16 angedeutet, durch einen Erfassungsbereich 18 der Kamera 10 fördert. Die Objekte 14 tragen an ihren Außenflächen Codebereiche 20. In einer Ausführungsform ist eine Aufgabe der dann als kamerabasierter Codeleser ausgebildeten Kamera 10, die Codebereiche 20 zu erkennen und die dort angebrachten Codes oder Texte auszulesen, zu dekodieren und dem jeweils zugehörigen Objekt 14 zuzuordnen. In anderen Ausführungsformen sind keine Codebereiche 20 vorgesehen oder sie werden nicht gelesen, sondern es werden von der Kamera 10 zur automatischen Inspektion andere Objekteigenschaften wie Farbe oder Kontur erfasst.
  • Die Codebereiche 20 können von der Kamera 10 nur dann erkannt werden, wenn sie auf der Oberseite oder zumindest von oben sichtbar angebracht sind. Daher kann abweichend von der Darstellung in 1 zum Lesen eines etwa seitlich oder unten angebrachten Codes 22 eine Kamera 10 auch seitlich oder unten beziehungsweise eine Mehrzahl von Kameras 10 aus verschiedenen Richtungen montiert sein, um eine sogenannte Omnilesung aus allen Richtungen zu ermöglichen.
  • Die Kamera 10 umfasst ein nur durch eine stellvertretende Linse angedeutet dargestelltes Objektiv 24 und einen Bildsensor 26 beispielsweise mit einer Vielzahl zu einer Zeile oder Matrix angeordneter pixelartiger Lichtempfangselemente zur Aufnahme von Bilddaten aus dem Erfassungsbereich 18. Mit Hilfe einer ersten Beleuchtungseinheit 28 kann der Erfassungsbereich 18 mit einem strukturierten Beleuchtungsmuster und mit Hilfe einer zweiten Beleuchtungseinheit 30 homogen beleuchtet werden. Die Darstellung der Beleuchtungseinheiten 28, 30 ist rein schematisch zu verstehen. Die räumliche Anordnung innerhalb der Kamera 10 kann eine andere sein, und es ist auch denkbar, mit nur einer Beleuchtungseinheit sowohl die homogene als auch die strukturierte Beleuchtung zu erzeugen, etwa durch ein Mustererzeugungselement, das wahlweise in den Strahlengang eingebracht wird oder durch ein LCD, auf dem das Muster wahlweise erzeugt werden kann.
  • Eine Steuer- und Auswertungseinheit 32 ist mit dem Bildsensor 26 und den Beleuchtungseinheiten 28, 30 verbunden, um Bilddaten auszulesen und auszuwerten und um die Beleuchtung zu steuern. Dabei werden in einer im Folgenden für mehrere Ausführungsformen erläuterten Weise die mit dem gleichen Bildsensor 26 und vorzugsweise über das gleiche Objektiv 24 gewonnenen Bilddaten sowohl zweidimensional als auch dreidimensional ausgewertet.
  • 2a zeigt einen Längsschnitt durch das Förderband 12 mit der darüber montierten Kamera 10. In der gesamten Beschreibung bezeichnen die gleichen Bezugszeichen gleiche oder einander entsprechende Merkmale. In der in 2a gezeigten 3D-Phase der Objekterfassung ist die erste Beleuchtungseinheit 28 aktiviert und erzeugt ihr strukturiertes Beleuchtungsmuster 34. Mit Hilfe des strukturierten Beleuchtungsmusters 34 können in an sich bekannter Weise Entfernungen geschätzt und so aus den Bilddaten des Bildsensors 26 dreidimensionale Bilder berechnet werden. Eine Möglichkeit ist die segmentweise Korrelation des durch die unterschiedlichen Abstände der Objektbereiche unterschiedlich beeinflussten Beleuchtungsmusters mit einem zuvor segmentweise abstandsabhängig eingelernten Beleuchtungsmuster. Prinzipiell ist auch denkbar, mit einem zusätzlichen Bildsensor ein weiteres Bild aufzunehmen und dann unterstützend oder alternativ zwei Bilder statt eines Bildes und eines Beleuchtungsmusters zu korrelieren.
  • In der 3D-Phase entsteht so ein dreidimensionales Bild, aus dem die Geometrie auf dem Förderband 12 bekannt ist, beispielsweise Objektpositionen, Objekthöhen oder Objektvolumina.
  • 2b zeigt einen entsprechenden Längsschnitt durch das Förderband 12 mit der darüber montierten Kamera 10 in einer 2D-Phase der Objekterfassung, in der nun die zweite Beleuchtungseinheit 30 aktiviert ist und für eine homogene Flächenbeleuchtung 36 sorgt. Damit können die Objektflächen aufgenommen werden, und so entsteht ein zweidimensionales Bild, das für das Erkennen von Objekteigenschaften und insbesondere das Auslesen von Codebereichen genutzt werden kann. Durch die Datenfusion können dabei Objektflächen anhand von Geometrieeigenschaften erkannt werden.
  • Somit wird durch abwechselnde Aufnahmen unter strukturierter und homogener Beleuchtung gemäß 2a und 2b die 2D- und 3D-Datenerfassung in einer Kamera 10 unter Ausnutzen desselben Bildsensors 26 und desselben Objektivs 24 kombiniert.
  • 3 erläutert in einem weiteren Längsschnitt des Förderbandes 12 mit darüber montierter Kamera 10 eine Ausführungsform, in der beide Beleuchtungsszenarien zugleich aktiviert und ausgewertet werden. Dazu ist in dieser Ausführungsform der Bildsensor 26 ein Farbbildsensor, was in den anderen Ausführungsformen zwar denkbar, aber nicht notwendig ist. Durch die Farbkanäle, die dieser Bildsensor 26 zur Verfügung stellt, muss die Bildaufnahme nicht mehr zeitversetzt erfolgen.
  • Dafür sind auch die Beleuchtungseinrichtungen 28, 30 farbig, und zwar mit unterschiedlichen Farben, etwa mit einer roten strukturierten Beleuchtung 34 der ersten Beleuchtungseinrichtung 28 und einer blauen homogenen Beleuchtung 36 der zweiten Beleuchtungseinrichtung 30. Die dreidimensionale Auswertung erfolgt nun in dem roten, die zweidimensionale Auswertung in dem blauen Farbkanal.
  • Dadurch können beide Auswertungen in einer Phase kombiniert werden, was den gro-ßen Vorteil mit sich bringt, dass die Aufnahmezeit in etwa halbiert und damit eine höhere Bildaufnahmefrequenz erreicht werden kann. Da somit zwischen den Bilddaten für zweidimensionale und dreidimensionale Auswertung kein Zeitversatz mehr liegt, wird auch eine Fusion der Daten deutlich vereinfacht, da nun identische und nicht mehr nur ähnliche Situationen auf dem Förderband 12 erfasst sind. So sind auch beispielsweise Abschattungen in beiden Bildern gleich.
  • 4 zeigt illustriert eine weitere Ausführungsform in einer Querschnittsdarstellung der über dem Förderband 12 montierten Kamera 10. Wegen der Darstellung im Querschnitt weist hier der Pfeil 16 für die Förderrichtung in die Papierebene hinein.
  • Die Kamera 10 weist mehrere, in dem gezeigten Beispiel drei Bildsensoren 26a-c mit jeweiliger Empfangsoptik 24a-c auf. Alternativ werden mehrere Kameras eingesetzt. Die Erfassungsbereiche 18a-c decken einzeln nur einen Teil der Breite des Förderbandes 12, insgesamt jedoch das ganze Förderband 12 ab. Zwischen je zwei Erfassungsbereichen 18a-c ergibt sich ein mehr oder weniger großer Überlappungsbereich 18ab-bc, was außer von Geräteparametern wie dem Öffnungswinkel und dem gegenseitigen Abstand der Bildsensoren 26a-c beziehungsweise Objektive 24a-c oder der Montagehöhe der Kamera 10 auch von der jeweiligen Objekthöhe abhängt.
  • Die Einzelbilder der Bildsensoren 26a-c können zu einem gemeinsamen zweidimensionalen Bild über die gesamte Breite des Förderbandes 12 zusammengefügt werden (Image Stitching). In den Überlappungsbereichen 18ab-bc stehen zudem Bilddaten zur Verfügung, die aus unterschiedlicher und bekannter Perspektive aufgenommen sind. Damit sind die Voraussetzungen für die Anwendung eines Stereoskopiealgorithmus' gegeben. Es können also einander entsprechende Bildmerkmale in einem Bildpaar gesucht, deren gegenseitiger als Disparität bezeichneter Abstand ermittelt und dies aufgrund der bekannten Kameraparameter und insbesondere dem Basisabstand der Bildsensoren 26a-c in Entfernungen umgerechnet werden. So ergibt sich ohne apparativen Zusatzaufwand, denn die mehreren Bildsensoren 26a-c waren bei der hier beschriebenen Ausführungsform zur Abdeckung der Breite des Förderbandes 12 ohnehin erforderlich, ein zusätzliches dreidimensionales Bild, das mit dem zweidimensionalen Bild kombiniert werden kann.
  • Da die Überlappungsbereiche 18ab-bc gerade bei hohen Objekten regelmäßig nur einen Teil des Förderbandes 12 abdecken, können in dem dreidimensionalen Bild Lücken entstehen. Die erfasste dreidimensionale Information kann aber je nach Anwendung dennoch ausreichen oder zumindest unterstützend genutzt werden. Das gilt insbesondere dann, wenn Annahmen über die Objektgeometrie getroffen werden können, etwa dass es sich um Quader handelt. Dann ist auch denkbar, die dreidimensionalen Bildinformationen aufgrund solcher Geometrieannahmen in die Lücken hinein zu extrapolieren.
  • Die Ausführungsform gemäß 4 kann prinzipiell passiv arbeiten, also ohne eine eigene Beleuchtung, oder lediglich eine homogene Beleuchtung für ausreichende Helligkeit verwenden. Dargestellt sind aber auch hier die Beleuchtungseinheiten 28, 30. Damit kann wie in den Ausführungsformen gemäß 2a-b und 3 wahlweise eine homogene Beleuchtung für mehr Helligkeit, eine strukturiere Beleuchtung zur Unterstützung der Stereokorrelation oder eine Überlagerung aus beidem in unterschiedlichen Farben erzeugt werden.

Claims (9)

  1. Kamera (10) zur Montage an einer Fördereinrichtung (12) zur Erfassung eines auf der Fördereinrichtung (12) geförderten Stroms von Objekten (14), die einen Bildsensor (26) zur Aufnahme von Bilddaten der geförderten Objekte (14) sowie eine Auswertungseinheit (32) zur Bestimmung von Objektinformationen aus den Bilddaten aufweist, wobei die Auswertungseinheit (32) dafür ausgebildet ist, aus den Bilddaten sowohl ein zweidimensionales Bild der Objektoberflächen als auch ein dreidimensionales Bild der Objektgeometrien zu erzeugen, dadurch gekennzeichnet, dass die Kamera (10) mindestens zwei Bildsensoren (26a-c) aufweist, deren Erfassungsbereiche (18a-c) einander überlappend ergänzen und so eine Breite der Fördereinrichtung (12) abdecken, und dass die Auswertungseinheit (32) dafür ausgebildet ist, das zweidimensionale Bild durch Zusammenfügen der Bilddaten der Bildsensoren (26a-c) und das dreidimensionale Bild in den überlappenden Erfassungsbereichen (18ab-bc) mit einem Stereoalgorithmus zu erzeugen.
  2. Kamera (10) nach Anspruch 1, wobei die Auswertungseinheit (32) dafür ausgebildet ist, in dem zweidimensionalen Bild Codebereiche (20) zu erkennen, eine Codierung aus den Codebereichen (20) auszulesen und so das Objekt (14) zu identifizieren.
  3. Kamera (10) nach Anspruch 1 oder 2, wobei die Auswertungseinheit (32) dafür ausgebildet ist, aus dem dreidimensionalen Bild Positionen, Höhen und/oder Volumina der Objekte (14) zu bestimmen.
  4. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Auswertungseinheit (32) dafür ausgebildet ist, das dreidimensionale Bild in Bereichen, in denen die Bilddaten keine Entfernungsschätzung ermöglichen, auf Basis von Annahmen an die Objektgeometrien zu extrapolieren.
  5. Kamera (10) nach einem der vorhergehenden Ansprüche, die eine Beleuchtungseinheit (28) aufweist, um die Objekte (14) mit einem strukturierten Beleuchtungsmuster (34) zu beleuchten, wobei insbesondere die Auswertungseinheit (32) dafür ausgebildet ist, die Bilddaten der beleuchteten Objekte (14) mit Referenzmustern zu korrelieren, um das dreidimensionale Bild zu erzeugen.
  6. Kamera (10) nach Anspruch 5, wobei die Beleuchtungseinheit (28, 30) für die Erzeugung sowohl des strukturierten Beleuchtungsmusters (34) als auch einer homogenen Beleuchtung (36) ausgebildet ist.
  7. Kamera (10) nach Anspruch 6, wobei die Auswertungseinheit (32) dafür ausgebildet ist, alternierend unter homogener Beleuchtung (36) Bilddaten für das zweidimensionale Bild und unter Beleuchtung mit dem strukturierten Beleuchtungsmuster (34) Bilddaten für das dreidimensionale Bild zu gewinnen.
  8. Kamera (10) nach Anspruch 5, wobei der Bildsensor (26) zur Aufnahme von farbigen Bilddaten und die Beleuchtungseinheit (28, 30) zur Erzeugung einer homogenen Beleuchtung und des strukturierten Beleuchtungsmusters in unterschiedlichen Farben ausgebildet ist, und wobei die Auswertungseinheit (32) Bilddaten in der Farbe der homogenen Beleuchtung (36) für die Erzeugung des zweidimensionalen Bildes und Bilddaten in der Farbe des strukturierten Beleuchtungsmusters (34) für die Erzeugung des dreidimensionalen Bildes verwendet.
  9. Verfahren zur Inspektion oder Identifikation von auf einer Fördereinrichtung (12) geförderten Objekten (14), wobei Bilddaten der Objekte (14) aufgenommen und Objektinformationen aus den Bilddaten bestimmt werden und wobei aus den Bilddaten sowohl ein zweidimensionales Bild der Objektoberflächen als auch ein dreidimensionales Bild der Objektgeometrien erzeugt wird, dadurch gekennzeichnet, dass Bilddaten mehrfach aus einander überlappend ergänzenden und so eine Breite der Fördereinrichtung (12) abdeckenden Erfassungsbereichen (18a-c) aufgenommen werden und dass das zweidimensionale Bild durch Zusammenfügen der Bilddaten aus den Erfassungsbereichen (18a-c) und das dreidimensionale Bild in den überlappenden Erfassungsbereichen (18ab-bc) mit einem Stereoalgorithmus erzeugt wird.
DE102014114506.2A 2014-10-07 2014-10-07 Kamera zur Montage an einer Fördereinrichtung und Verfahren zur Inspektion oder Identifikation Active DE102014114506B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014114506.2A DE102014114506B4 (de) 2014-10-07 2014-10-07 Kamera zur Montage an einer Fördereinrichtung und Verfahren zur Inspektion oder Identifikation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014114506.2A DE102014114506B4 (de) 2014-10-07 2014-10-07 Kamera zur Montage an einer Fördereinrichtung und Verfahren zur Inspektion oder Identifikation

Publications (2)

Publication Number Publication Date
DE102014114506A1 DE102014114506A1 (de) 2016-04-07
DE102014114506B4 true DE102014114506B4 (de) 2020-06-04

Family

ID=55530994

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014114506.2A Active DE102014114506B4 (de) 2014-10-07 2014-10-07 Kamera zur Montage an einer Fördereinrichtung und Verfahren zur Inspektion oder Identifikation

Country Status (1)

Country Link
DE (1) DE102014114506B4 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018128498A1 (de) * 2018-11-14 2020-05-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Bauteilverfolgung
DE102019101490A1 (de) 2019-01-22 2020-07-23 Sick Ag Modulare Kameravorrichtung und Verfahren zur optischen Erfassung
CN111553951B (zh) * 2020-04-30 2023-10-24 山东新北洋信息技术股份有限公司 包裹处理设备和包裹处理方法
DE102021104947B4 (de) 2021-03-02 2023-05-25 Gerhard Schubert Gesellschaft mit beschränkter Haftung Scanner, damit ausgestattete Ermittlungs-Vorrichtung sowie Verfahren für deren Betrieb

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030231793A1 (en) 1995-07-26 2003-12-18 Crampton Stephen James Scanning apparatus and method
DE69926659T2 (de) 1999-01-18 2006-06-08 Mydata Automation Ab Verfahren und vorrichtung für die optische Inspektion von Objekten auf einem Substrat
US20060192925A1 (en) 2005-02-28 2006-08-31 Chang Nelson L A Multi-projector geometric calibration
US20090059242A1 (en) 2007-08-29 2009-03-05 Omron Corporation Three-dimensional measurement method and three-dimensional measurement apparatus
US20140071243A1 (en) 2012-09-11 2014-03-13 Keyence Corporation Shape Measuring Device, Program Installed Into This Device, And Recording Medium Storing This Program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030231793A1 (en) 1995-07-26 2003-12-18 Crampton Stephen James Scanning apparatus and method
DE69926659T2 (de) 1999-01-18 2006-06-08 Mydata Automation Ab Verfahren und vorrichtung für die optische Inspektion von Objekten auf einem Substrat
US20060192925A1 (en) 2005-02-28 2006-08-31 Chang Nelson L A Multi-projector geometric calibration
US20090059242A1 (en) 2007-08-29 2009-03-05 Omron Corporation Three-dimensional measurement method and three-dimensional measurement apparatus
US20140071243A1 (en) 2012-09-11 2014-03-13 Keyence Corporation Shape Measuring Device, Program Installed Into This Device, And Recording Medium Storing This Program

Also Published As

Publication number Publication date
DE102014114506A1 (de) 2016-04-07

Similar Documents

Publication Publication Date Title
EP3454298B1 (de) Kameravorrichtung und verfahren zur erfassung eines stromes aus objekten
EP2937810B1 (de) Kamera und Verfahren zur Erfassung eines bewegten Stroms von Objekten
EP2693363B1 (de) Kamerasystem und Verfahren zur Erfassung eines Stromes von Objekten
DE102017114081B4 (de) Vorrichtung und Verfahren zum Rundum-Inspizieren von Behältnissen am Transportband
EP2693364B1 (de) Kamerasystem und Verfahren zur Erfassung eines Stromes von Objekten
DE102014114506B4 (de) Kamera zur Montage an einer Fördereinrichtung und Verfahren zur Inspektion oder Identifikation
DE102011004584A1 (de) Verfahren und Vorrichtung zum Erkennen von Blasen und/oder Falten auf etikettierten Behältern
DE102013112040B4 (de) System und Verfahren zum Auffinden von sattelpunktartigen Strukturen in einem Bild und Bestimmen von Informationen daraus
EP3383026B1 (de) Kamera und verfahren zur erfassung von relativ zu der kamera in einer förderrichtung bewegten objekten
EP1845336A1 (de) Verfahren zur optischen Erfassung von bewegten Objekten und Vorrichtung
EP2950519B1 (de) Kamera und Verfahren zur Aufnahme von Bilddaten
EP2863253B1 (de) Vorrichtung zum Umlenken und zur Verbreiterung des Sichtbereichs
DE102016203392B3 (de) Bildinspektionsverfahren mit mehreren Kameras
DE102013104928B4 (de) Vorrichtung und Verfahren für das Zuordnen von Codes auf Teilen zu Teilorten auf einer Fördereinrichtung
DE102018220271A1 (de) Optische Aufnahmevorrichtung und Verfahren zur optischen Aufnahme
EP3502614B1 (de) Optische messeinrichtung
EP3048456B1 (de) Verfahren zur lokalisierung von greifpunkten von objekten
EP3794336A1 (de) Verfahren zum inspizieren von behältnissen mit positionsbestimmung
EP2474956B1 (de) Transporteinheit und Verfahren zum Betrieb derselben
EP3687155A1 (de) Modulare kameravorrichtung und verfahren zur optischen erfassung
EP2619712B1 (de) Verfahren und vorrichtung zur erkennung und/oder beurteilung dreidimensionaler erhabener strukturen auf einer oberfläche eines dokuments
EP3822198B1 (de) Stückguterfassungsanordnung
DE202014101714U1 (de) Codelesesystem zum Lesen von Codes
DE102021100947B4 (de) Kameravorrichtung und Verfahren zur Erfassung eines Objekts
DE102005051028A1 (de) Einrichtung zur dreidimensionalen Vermessung von Objekten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final