DE102021124348A1 - Verfahren zum Bestimmen, ob ein Transportgut in einem Überwachungsbereich angeordnet ist - Google Patents

Verfahren zum Bestimmen, ob ein Transportgut in einem Überwachungsbereich angeordnet ist Download PDF

Info

Publication number
DE102021124348A1
DE102021124348A1 DE102021124348.3A DE102021124348A DE102021124348A1 DE 102021124348 A1 DE102021124348 A1 DE 102021124348A1 DE 102021124348 A DE102021124348 A DE 102021124348A DE 102021124348 A1 DE102021124348 A1 DE 102021124348A1
Authority
DE
Germany
Prior art keywords
neural network
layer
training
image
transported
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021124348.3A
Other languages
English (en)
Inventor
Muhammad Zeeshan Karamat
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
36ZERO VISION GMBH, DE
Original Assignee
Deutschdata Karamat und Ziesche GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutschdata Karamat und Ziesche GmbH filed Critical Deutschdata Karamat und Ziesche GmbH
Priority to DE102021124348.3A priority Critical patent/DE102021124348A1/de
Priority to PCT/EP2022/076020 priority patent/WO2023046653A1/de
Priority to CN202280063854.7A priority patent/CN117980964A/zh
Priority to EP22790299.6A priority patent/EP4405908A1/de
Publication of DE102021124348A1 publication Critical patent/DE102021124348A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bestimmen, ob ein Transportgut in einem Überwachungsbereich angeordnet ist, wobei ein Bildsignal des Überwachungsbereichs, durch den ein Transportweg des Transportguts verläuft, erfasst wird, wobei das erfasste Bildsignal einem künstlich neuronalen Netz zugeführt wird und das künstlich neuronale Netz abhängig von dem Bildsignal bestimmt, ob wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist, wobei, wenn durch das künstlich neuronale Netz bestimmt wird, dass wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist, ein Bild des Überwachungsbereichs aufgenommen wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Bestimmen, ob ein Transportgut in einem Überwachungsbereich angeordnet ist. Darüber hinaus betrifft die Erfindung eine Rechnereinrichtung zum Bestimmen, ob ein Transportgut in einem Überwachungsbereich angeordnet ist und eine Vorrichtung mit einer solchen Rechnereinrichtung. Außerdem betrifft die Erfindung ein Computerprogrammprodukt, einen Datenträger und ein Datenträgersignal.
  • Aus dem Stand der Technik sind unterschiedliche Ausbildungen von Fertigungsstraßen bekannt. In den Fertigungsstraßen wird das Transportgut entlang eines Fertigungswegs wenigstens einmal untersucht. Dabei ist bekannt, dass Vorrichtungen vorgesehen sind, mittels denen die Qualität des Transportguts überprüft wird. Die Vorrichtungen weisen üblicherweise eine Bilderfassungseinrichtung auf, mittels der ein Bereich der Fertigungsstrecke überwacht wird. Die Bilderfassungseinrichtung ist mit der Fertigungsstraße datentechnisch verbunden. So werden Sensorwerte, die die Position des Transportguts betreffen, an die Bilderfassungseinrichtung übermittelt. Diese Information ist notwendig, damit wenigstens ein Bild des Überwachungsbereichs aufgenommen wird, wenn das Transportgut tatsächlich in dem Überwachungsbereich angeordnet ist. Insofern besteht eine direkte datentechnische Verbindung zwischen der Fertigungsstraße und der Bilderfassungseinrichtung. Die Datenübertragung kann über eine Datenleitung oder drahtlos erfolgen.
  • Nachteilig bei den bekannten Bilderfassungseinrichtungen ist, dass der Aufbau der Bilderfassungseinrichtung sehr komplex ist. Darüber hinaus ist ein hoher Einrichtungswand notwendig, damit die Bilderfassungserfassungsvorrichtung Bildsignale eines Überwachungsbereichs aufnehmen kann. Dementsprechend ist es sehr zeit- und kostenintensiv, die Bilderfassungseinrichtung an eine andere Stelle der Fertigungsstraße zu platzieren oder es ist nicht möglich.
  • Die Aufgabe der Erfindung besteht darin, ein Verfahren anzugeben, bei dem die oben genannten Nachteile nicht auftreten.
  • Die Aufgabe wird gelöst durch ein Verfahren zum Bestimmen, ob ein Transportgut in einem Überwachungsbereich angeordnet ist, wobei ein Bildsignal des Überwachungsbereichs, durch den ein Transportweg des Transportguts verläuft, erfasst wird, wobei das erfasste Bildsignal einem künstlich neuronalen Netz zugeführt wird und das künstlich neuronale Netz abhängig von dem Bildsignal bestimmt, ob wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist, wobei, wenn durch das künstlich neuronale Netz bestimmt wird, dass wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist, ein Bild des Überwachungsbereichs aufgenommen wird.
  • Eine weitere Aufgabe besteht darin eine Rechnereinrichtung bereitzustellen, mittels der die oben genannten Nachteile verhindert werden können.
  • Die Vorrichtung wird gelöst durch eine Rechnereinrichtung zum Bestimmen, ob ein Transportgut in einem Überwachungsbereich angeordnet ist, mit einem Transportguterfassungsmodul, das ein künstlich neuronales Netz aufweist, wobei dem künstlich neuronalen Modul ein Bildsignal eines Überwachungsbereichs, durch den ein Transportweg des Transportguts verläuft, zuführbar ist, und das künstlich neuronale Netz derart konfiguriert ist, dass es abhängig von dem Bildsignal bestimmt, ob wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist, und es, wenn durch das künstlich neuronale Netz bestimmt wird, dass wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist, veranlasst, ein Bild des Überwachungsbereichs aufzunehmen
  • Erfindungsgemäß wurde erkannt, dass durch Vorsehen eines künstlich neuronalen Netzes nicht mehr die Notwendigkeit besteht, dass die Rechnereinheit, in der die Bildsignale ausgewertet werden, datentechnisch mit einer Transportvorrichtung verbunden sein muss, mittels der das Transportgut transportiert wird. Insbesondere ist keine Hardwareanbindung der Bilderfassungseinrichtung mit der Transportvorrichtung mehr notwendig. Bei der erfindungsgemäßen Lösung besteht somit keine Notwendigkeit, dass durch Sensoren der Transportvorrichtung ermittelte Messwerte an die Rechnereinrichtung übermittelt werden. Die Rechnereinrichtung kann unabhängig von den von der Transportvorrichtung ermittelten Daten bestimmen, ob wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist. Dadurch ist es möglich, dass die Rechnereinrichtung an einer beliebigen Stelle der Transportstrecke platziert werden kann, ohne dass Einstellungen der Transporteinrichtung geändert werden müssen. Außerdem kann das Verfahren mit nahezu jeder Bilderfassungseinrichtung durchgeführt werden, sodass keine komplex aufgebauten Bilderfassungseinrichtungen mehr notwendig sind. Durch Verwendung des künstlich neuronalen Netzes kann die Bestimmung, ob das Transportgut in dem Überwachungsbereich angeordnet ist, schnell und genau erfolgen.
  • Das Transportguterfassungsmodul ist derart ausgebildet, dass es erkennt, ob wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist. Dies umfasst auch, dass das Transportguterfassungsmodul erkennt, dass das gesamte Transportgutmodul in dem Überwachungsbereich angeordnet ist.
  • Als Transportgut wird ein Gegenstand bezeichnet, der einer räumlichen Standortveränderung mittels der Transportvorrichtung unterzogen wird. Die Transportvorrichtung dient zum Transportieren des Transportguts und kann beispielsweide ein Transportband sein. Alternativ sind noch weitere Einrichtungen denkbar, die als Transportvorrichtung fungieren.
  • Als Transportweg wird der Weg verstanden, entlang dem die Transportvorrichtung das Transportgut transportiert. Der Überwachungsbereich ist dabei derart gewählt, dass er einen Teil des Transportwegs umfasst. Somit ist auf einfache Weise sichergestellt, dass beim Transport das Transportgut immer den Überwachungsbereich durchläuft.
  • Als Bildaufnahme wird ein Vorgang verstanden, bei dem das Bildsignal in einem elektrischen Speicher, insbesondere zur wiederholten und/oder dauerhaften Verwendung, gespeichert wird. Der elektrische Speicher kann eine Festplatte der Rechnereinrichtung und/oder der Bilderfassungseinrichtung sein. Basierend auf dem gespeicherten Bildsignal kann ein Bild erzeugt werden, das beispielsweise angezeigt werden kann. Das Bildsignal enthält eine Vielzahl von Pixeln, die als Ganzes das zuvor genannten Bild bilden.
  • Die Rechnereinrichtung ist eine datenverarbeitende elektrische Einheit, mittels der das Bildsignal verarbeitet und/oder ausgewertet wird. Dabei kann die Rechnereinrichtung ein Prozessor sein oder einen Prozessor aufweisen.
  • Das künstlich neuronale Netz kann vor dem Betrieb trainiert worden sein. Dabei können zusätzlich die während des Verfahrensbetriebs der Rechnereinrichtung ermittelten Daten auch zum Trainieren des künstlich neuronalen Netzes verwendet werden. Der Trainingsvorgang wird nachfolgend detaillierter beschrieben.
  • Das neuronale Netz kann ein tiefes neuronales Netz sein. Als tiefes neuronales Netz wird ein künstlich neuronales Netz verstanden, das eine Vielzahl von Schichten aufweist. Insbesondere weist das neuronale Netz jeweils eine Eingabeschicht und eine Entscheidungsschicht auf. Dazwischen weist das neuronale Netz wenigstens eine Schicht auf, die mit der Eingabeschicht und der Entscheidungsschicht datentechnisch verbunden ist. Die zwischen der Eingabeschicht und der Entscheidungsschicht angeordnete Schicht oder Schichten werden auch als verborgene Schicht oder verborgenen Schichten bezeichnet. Jede der zuvor genannten Schichten weist Neuronen auf.
  • Die Neuronen einer Schicht sind mit Neuronen einer anderen Schicht verbunden. Die Verbindung kann derart sein, dass ein Neuron einer Schicht mit allen Neuronen einer anderen Schicht verbunden ist. Alternativ kann ein Neuron einer Schicht mit nur einem Teil von Neuronen der anderen Schicht verbunden sein. Dadurch kann eine Verbindung im neuronalen Netz realisiert werden, bei der eine oder mehrere Ausgaben der Eingabeschicht zu der Schicht zugeführt werden. Darüber hinaus werden eine oder mehr Ausgaben der Schicht an die Entscheidungsschicht zugeführt.
  • Dabei kann das neuronale Netz ein neuronales Faltungsnetz, das auch als convolutional neuronal network bezeichnet wird, aufweisen. Mittels eines neuronalen Faltungsnetzes lassen sich besonders gut Bildsignale untersuchen. Insbesondere können mittels eines neuronalen Faltungsnetzes Muster in Bildsignalen gut erkannt werden.
  • Das durch die Bilderfassungseinrichtung erfasste Bildsignal kann einer Eingabeschicht des neuronalen Faltungsnetzes zugeführt werden. Dabei kann die Anzahl der Neuronen einer Eingabeschicht des neuronalen Faltungsnetzes einer Anzahl an Pixeln des Bildsignals entsprechend. Somit enthält die Eingabeschicht Informationen zur Bildhöhe und Bildbreite. Die Eingabeschicht des neuronalen Faltungsnetzes kann dreidimensional sein. Dabei kann die Eingabeschicht Informationen zur Bildhöhe, Bildbreite und eine Bildinformation enthalten. Die Bildinformation kann beispielsweise eine Farbinformation sein. Für den Fall, dass Farbinformation sich auf die Farben rot, gelb und blau beschränkt, weist die Eingabeschicht drei Subschichten auf.
  • Das neuronale Faltungsnetz kann eine oder mehrere Schichten aufweisen. Die Schicht kann eine neuronale Faltungsschicht sein und/oder der Eingabeschicht nachgeschaltet sein. Die Schicht empfängt die Ausgabedaten der Eingabeschicht.
  • Eine Schicht kann mehrere Subschichten aufweisen. Eine Subschicht weist eine Vielzahl von Neuronen auf, die einer Ebene angeordnet sind, wobei die Ebenen zueinander versetzt angeordnet sind. Eine Schicht kann somit als eine mehrdimensionale Matrix angesehen werden, die Informationen auf einem unterschiedlichen Abstraktionsniveau ausgeben. So kann eine erste Schicht Informationen über Kanten erkennen und ausgeben. Die erste Schicht kann der Eingabeschicht nachgeschaltet sein. Eine der ersten Schicht nachgeschaltete zweite Schicht kann basierend auf den Kanten unterschiedliche Formen erkennen und ausgeben. Ein der zweiten Schicht nachgeschaltete dritte Schicht kann wiederum basierend auf den unterschiedlichen Formen Objekte erkennen und ausgeben. Eine der dritten Schicht nachgeschaltete vierte Schicht kann basierend auf den Objekten Strukturen erkennen und ausgeben. Im Ergebnis kann das Bildsignal umso genauer analysiert werden, je höher die Anzahl der Schichten ist.
  • Wie zuvor ausgeführt ist, kann das neuronale Faltungsnetz mehrere Schichten aufweisen, die jeweils eine oder mehrere Subschichten aufweisen. Dabei kann das neuronale Netz eine erste Schicht und eine der ersten Schicht nachgeschaltete zweite Schicht aufweisen, wobei die zweite Schicht durch Anwenden eines, insbesondere ein oder mehrdimensionalen, Filters erzeugt wird. Der Filter ist derart konfiguriert, dass er beim Anwenden auf die erste Schicht eine, insbesondere eine einzige, Subschicht der zweiten Schicht erzeugt. Somit ist der Filter an die erste Schicht angepasst, insbesondere hinsichtlich der Anzahl der Subschichten der ersten Schicht. Die Anzahl der Subschichten der zweiten Schicht kann der Anzahl der auf die erste Schicht angewandten Filter entsprechen.
  • Die erste Schicht kann der Eingabeschicht nachgeschaltet sein und durch Anwenden eines, insbesondere ein oder mehrdimensionalen, Filters erzeugt werden. Der Filter ist derart konfiguriert, dass er beim Anwenden auf die Eingabeschicht eine, insbesondere eine einzige, Subschicht der ersten Schicht erzeugt. Somit ist der Filter an die Eingabeschicht angepasst, insbesondere hinsichtlich der Anzahl der Subschichten der ersten Schicht. Die Anzahl der Subschichten der ersten Schicht hängt von der Anzahl der an die Eingabeschicht angewandten Filter ab.
  • Die Entscheidungsschicht des neuronalen Netzes kann mit wenigstens zwei Schichten verbunden sein. Dies bedeutet, dass die Ausgaben von wenigstens zwei Schichten der Entscheidungsschicht direkt zugeführt werden. Insbesondere kann die Entscheidungsschicht die Ausgaben von jeder Schicht direkt erhalten.
  • Das künstlich neuronale Netz kann einen unüberwachten maschinellen Algorithmus, insbesondere Lernalgorithmus, aufweisen. Der unüberwachten Algorithmus dient zum Finden von bislang unbekannten Mustern, also Mustern, die im Rahmen des Trainingsvorgangs nicht erlernt wurden.
  • Als unüberwachter Algorithmus wird ein Algorithmus verstanden, der auf der Basis von Eingaben Strukturen und Beziehungen in den Eingabedaten ermittelt. Dabei können zwei Arten von unüberwachten Lernalgorithmen unterschieden werden. Bei einem „Cluster“-Algorithmus wird versucht Cluster von Beobachtungen in einem Datensatz zu finden, die einander ähnlich sind. Bei einem „Assoziations“-Algorithmus wird versucht Regeln zu finden, mit denen Assoziationen gezeichnet werden können. Besonders vorteilhaft ist, wenn der unüberwachte Algorithmus ein proximity search algorithmus, insbesondere ein nearest-neighbour algorihmus, ist.
  • Eine Entscheidungsschicht des neuronalen Faltungsnetzes kann den unüberwachten Lernalgorithmus aufweisen. Somit werden dem unüberwachten Lernalgorithmus die Ausgabedaten der Schicht zugeführt. Die Entscheidungsschicht und somit der unüberwachte Algorithmus kann vollständig mit der vorgeschalteten Schicht verbunden sein. Insbesondere sind alle Neuronen der Entscheidungsschicht mit allen Neuronen der vorhergehenden weiteren Schicht verbunden. Das neuronale Faltungsnetz kann nur eine einzige Schicht, insbesondere die Entscheidungsschicht, aufweisen, die vollständig mit der vorhergehenden Schicht verbunden ist. Als vorhergehende Schicht wird die Schicht verstanden, die bei einem Informationsfluss von der Eingabeschicht zu der Entscheidungsschicht vor der Entscheidungsschicht angeordnet ist.
  • Die Entscheidungsschicht kann eine Vielzahl von Neuronen aufweisen, die sich, insbesondere ausschließlich, in einer Richtung erstrecken. Eine derartige eindimensionale Entscheidungsschicht ermöglich eine schnellere Bearbeitung der Daten.
  • Das neuronale Faltungsnetz wird vor dessen Einsatz in einem Trainingsvorgang trainiert. Das Training des neuronalen Netzes kann eine erste Trainingsphase und eine, insbesondere der ersten Trainingsphase nachgeschaltete, zweite Trainingsphase aufweisen. Das Training des neuronalen Netzes in der zweiten Trainingsphase kann unter Verwendung des in der ersten Trainingsphase trainierten neuronalen Netzes erfolgen. Dies wird nachfolgend näher erläutert.
  • In der ersten Trainingsphase kann das neuronale Netz im Vergleich zu dem im Realbetrieb verwendeten neuronalen Netz dahingehend verändert werden, dass das zu trainierende neuronale Netz eine andere Entscheidungsschicht aufweist. Insbesondere weist die Entscheidungsschicht des zu trainierenden Netzes keinen unüberwachten Lernalgorithmus auf. Dies bedeutet, dass in der ersten Trainingsphase die der Entscheidungsschicht vorgeschalteten Schichten des zu trainierenden neuronalen Netzes trainiert werden.
  • Das Training erfolgt in der ersten Trainingsphase mit Trainingsbildern. Dabei ist die Anzahl der dem zu trainierenden neuronalen Netz in der ersten Trainingsphase zugeführten Trainingsbilder größer ist als die Anzahl der dem zu trainierenden neuronalen Netz in der zweiten Trainingsphase zugeführten Bilder. Die dem zu trainierenden neuronalen Netz zugeführten Bilder sind beschriftet.
  • Mit „beschriftet“ ist gemeint, dass das Bildsignal Informationen zu der Bildhöhe, Bildbreite und weitere Bildinformationen enthält, wie die Farbe. Darüber hinaus enthält das Bildsignal Informationen zu dem in den Bildern dargestellten Objekten. Insbesondere enthält das Bildsignal Informationen um was es sich von Objekten, z.B. Schrauben, Stuhl, Stift, etc., handelt. Die bezeichneten oder klassifizierten Objekte sind durch einen Begrenzungskasten wenigstens teilweise umschlossen, sodass das neuronale Faltungsnetz erkennt, wo das Objekt in dem Bildsignal angeordnet ist. Darüber hinaus enthält das Bildsignal die Information, ob überhaupt ein Objekt vorhanden ist.
  • In dem ersten Trainingsvorgang werden dem zu trainierenden neuronalen Netz eine große Anzahl von Bildern, insbesondere Millionen von Bildern zugeführt, die, wie zuvor erläutert ist, Informationen zu dem Objekt und der Position des Objekts enthalten. Die Bilder können gleiche oder unterschiedliche Objekte zeigen. Nach der ersten Trainingsphase sind die der Entscheidungsschicht vorgeschalteten Schichten derart trainiert, dass sie bereits sehr genau erkennen können, ob ein Transportgut in dem Überwachungsbereich angeordnet ist oder nicht.
  • In der zweiten Trainingsphase weist die Entscheidungsschicht des zu trainierenden neuronalen Netzes den unüberwachten Lernalgorithmus auf. Dies bedeutet, dass das in der zweiten Trainingsphase zu trainierende neuronale Netz vom Aufbau und Funktionsweise dem neuronalen Netz entspricht, das im Realbetrieb eingesetzt wird. Dabei wird in der zweiten Trainingsphase das in der ersten Trainingsphase trainierte neuronale Netz eingesetzt. Dies bedeutet, dass in der zweiten Trainingsphase die der Entscheidungsschicht vorgeschalteten Schichten bereits trainiert sind.
  • Beim Training wird dem zu trainierenden neuronalen Netz eine vorgegebene Anzahl an Trainingsbildern ohne Beschriftung zugeführt. Die Anzahl der zugeführten Trainingsbilder ist deutlich kleiner als die Anzahl der in der ersten Trainingsphase zugeführten Trainingsbilder. Dabei werden dem zur trainierenden neuronalen Netz Trainingsbilder zugeführt, die ein Objekt enthalten, und Trainingsbilder zugeführt, die kein Objekt enthalten. In der zweiten Trainingsphase können die gleichen Trainingsbilder zugeführt werden wie in der ersten Trainingsphase. Alternativ können unterschiedliche Trainingsbilder zugeführt werden.
  • Dabei wird für ein wenigstens einem Neuron der Entscheidungsschicht zugeführtes Trainingsdatenelement wenigstens ein Parameter bestimmt. Das Trainingsdatenelement stammt von einer der Entscheidungsschicht vorgeschalteten Schicht. Das Trainingsdatenelement enthält einen Bildinformationen, insbesondere eine Bildintensität, und/oder repräsentiert einen Bildbereich eines Trainingsbildes. Der Entscheidungsschicht wird eine Vielzahl von Trainingsdatenelementen zugeführt, die jeweils einen Bildbereich repräsentieren. Im Ergebnis liegt der Entscheidungsschicht das komplette Bild in Form von Trainingsdatenelementen vor. Es ist klar, dass für jedes dem zu trainierenden neuronalen Netz zugeführten Trainingsbild der Entscheidungsschicht die Trainingsdatenelemente zugeführt werden.
  • In der Entscheidungsschicht wird für, insbesondere jedes, Trainingsdatenelement eines Trainingsbildes wenigstens ein Parameter ermittelt. Insbesondere wird als Parameter eine Varianz und/oder ein Erwartungswert einer Normalverteilung der im Trainingsdatenelement enthaltenen Bildinformation bestimmt.
  • Dabei kann unter Berücksichtigung des wenigstens einen bestimmten Parameters ein erster Clusterbereich als Trainingsergebnis ermittelt werden, bei dem das Trainingsdatenelement ein Teil des Transportobjekts aufweist. Darüber hinaus kann unter Berücksichtigung des wenigstens einen bestimmten Parameters ein zweiter Clusterbereich als Trainingsergebnis ermittelt werden, bei dem das Trainingsdatenelement keinen Teil des Transportobjekts aufweist. Insbesondere sind in dem ersten Clusterbereich die Trainingsdatenelemente der zugeführten Trainingsbilder enthalten, die einen Teil des Transportguts zeigen. Dementsprechend sind in dem zweiten Clusterbereich die Trainingsdatenelemente der zugeführten Trainingsbilder enthalten, die keinen Teil des Transportguts zeigen.
  • Hier wird ausgenutzt, dass die in der ersten Trainingsphase trainierten Schichten sehr genau ermitteln können, ob das Bildsignal ein Transportgut enthält. Daher ist es in der zweiten Trainingsphase möglich, dass Cluster gebildet werden können. In der zweiten Trainingsphase erfolgt keine Anpassung des unüberwachten Algorithmus, sondern es wird der oben genannte Parameter bzw. die Parameter bestimmt. Somit sind nach Abschluss der zweiten Trainingsphase die Parameterwerte bzw. Parameterwertbereiche bekannt, die den ersten Clusterbereich definieren, in dem Trainingsdatenelemente der Trainingsbilder angeordnet sind, die einen Teil des Transportguts aufweisen. Mit Kenntnis der Parameterwerte bzw. der Parameterwertbereiche kann im Realbetrieb eine Entscheidung getroffen werden, ob das Bildsignal wenigstens einen Teil des Transportguts enthält. Dies wird nachfolgend detaillierter erläutert.
  • Im Realbetrieb kann ein Datenelement des Bildsignals, das der Entscheidungsschicht zugeführt wird, dahingehend überprüft werden, ob es einen Teil des Transportguts enthält. Das Datenelement entspricht dem oben beschriebenen Trainingsdatenelement, sodass auf die obigen Ausführungen verwiesen wird. Darüber hinaus kann die Prüfung das Bestimmen von wenigstens einem Parameter des zugeführten Datenelementes enthalten. Der Parameter kann die Varianz und/oder der Erwartungswert einer in dem Datenelement enthaltenen Bildinformation sein. Dabei kann unter Verwendung des unüberwachten Lernalgorithmus und des wenigstens einen bestimmten Parameters bestimmt werden, ob das Datenelement einen Teil des Transportguts enthält, wie nachfolgend näher erläutert ist.
  • Der unüberwachte Lernalgorithmus kann zum Bestimmen, ob das Datenelement einen Teil des Transportguts enthält, ein Trainingsergebnis verwenden. Das Trainingsergebnis können die ermittelten Clusterbereiche sein. Insbesondere kann der unüberwachte Lernalgorithmus abhängig von einem bestimmten Parameterwert des Datenelements und dem im Training ermittelten ersten und zweiten Clusterbereich bestimmen, ob das Datenelement einen Teil des Transportobjekts aufweist. Wie oben ausgeführt ist, kann der unüberwachte Lernalgorithmus ein „proximity search“ algorithmus sein. Dabei kann der Lernalgorithmus basierend auf dem ermittelten Parametern bestimmen, ob der ermittelte Parameter und somit das Datenelement dem ersten Clusterbereich oder dem zweiten Clusterbereich zuzuweisen ist. Die Entscheidung erfolgt auf der Basis, ob der wenigstens eine ermittelte Parameterwert, insbesondere die Varianz und/oder der Erwartungswert, näher zu dem ersten Clusterbereich oder zu dem zweiten Clusterbereich angeordnet ist. Ein derartiges Verfahren ermöglicht, dass eine Entscheidung über das Vorhandensein von Transportgut in einem Beobachtungsbereich auch dann erfolgen kann, wenn das Transportgut in der ersten Trainingsphase nicht trainiert ist. Mit anderen Worten das künstlich neuronale Netz kann auch eine Aussage zum Vorhandensein von Objekten in dem Überwachungsbereich treffen, die in der ersten Trainingsphase nicht trainiert wurden.
  • Bei einer besonderen Ausführung kann der unüberwachten Algorithmus derart konfiguriert sein, dass er einen Begrenzungskasten als Ausgabe ausgibt, der den Teil des Transportguts umschließt. Insbesondere kann ein Begrenzungskasten erzeugt werden, wenn bestimmt wurde, dass ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist. Die Bestimmung des Begrenzungskasten erfolgt basierend auf der oben beschriebenen Analyse der Datenelemente. So sind nach der Analyse der Datenelemente diejenigen Datenelemente bekannt, die einen Teil des Transportguts aufweisen.
  • Die Verwendung eines neuronalen Faltungsnetzes, der einen unüberwachten Lernalgorithmus aufweist, bietet den Vorteil, dass besonders gut und schnell erkannt werden kann, ob das Transportgut in dem Überwachungsbereich angeordnet ist. Dabei können durch das künstlich neuronale Netz auch Transportgüter erkannt werden, die beim Training nicht berücksichtigt und somit erkannt wurden. Ein weiterer Vorteil des künstlich neuronalen Netzes besteht darin, dass sehr gut erkannt werden kann, welches Transportgut transportiert wird.
  • Bei einer besonderen Ausführung kann die Rechnereinrichtung ein Auslösemodul aufweisen, die einen Aufnahmezeitpunkt bestimmt. Das Auslösemodul kann dem Transportguterfassungsmodul datentechnisch nachgeschaltet sein. Dies bedeutet, dass das Auslösemodul die Ausgabedaten des Transportguterfassungsmoduls als Eingangsdaten empfängt. Alternativ ist es möglich, dass das Auslösemodul parallel zu dem Transportguterfassungsmodul arbeitet.
  • Der Aufnahmezeitpunkt entspricht dabei dem Zeitpunkt zu dem das Bild aufgenommen wird. Der Aufnahmezeitpunkt kann um eine Zeitdauer von einem Bestimmungszeitpunkt versetzt sein, zu dem das künstlich neuronale Netz bestimmt hat, dass wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist. Alternativ ist es möglich, dass der Aufnahmezeitpunkt nicht zeitversetzt zu dem Aufnahmezeitpunkt ist und somit ein Bild zum gleichen Zeitpunkt aufgenommen wird, zu dem bestimmt wurde, dass das Transportgut in dem Überwachungsbereich angeordnet ist. In diesem Fall wurde durch das künstlich neuronale Netz bestimmt, dass das Transportgut vollständig in dem Überwachungsbereich angeordnet ist.
  • Für den Fall, dass bestimmt wird, dass nur ein Transportgutteil in dem Überwachungsbereich angeordnet ist, kann die Zeitdauer derart gewählt werden, dass zum Aufnahmezeitpunkt das vollständige Transportgut in dem Überwachungsbereich angeordnet ist. Dies bedeutet, dass das Bild erst aufgenommen wird, wenn sich das Transportgut aus der bei der zum Bestimmungszeitpunkt befindlichen Position in eine Position bewegt, bei der das Transportgut vollständig in dem Überwachungsbereich angeordnet ist. Im Ergebnis tätigt das Auslösemodul eine Vorhersage, wann das Transportgut vollständig in dem Überwachungsbereich angeordnet ist. Somit kann auf einfache Weise erreicht werden, dass nur Bilder aufgenommen werden, die in einer späteren Verarbeitung auch tatsächlich verarbeitet werden können. Dazu ist es notwendig, dass das vollständige Transportgut in dem Überwachungsbereich angeordnet ist.
  • Die Bestimmung, wann das Transportgut vollständig in dem Überwachungsbereich angeordnet ist, kann durch einen Algorithmus des Auslösemoduls erfolgen. Das Auslösemodul kann einen linear quadratischen Schätzungsalgorithmus (linear quadratic estimation algorithm) aufweisen, mittels dem bestimmt wird, wann das Transportgut vollständig in dem Überwachungsbereich angeordnet ist.
  • Im Auslösemodul wird somit die Tatsache berücksichtigt, dass die Bilderfassungseinrichtung eine gewisse Zeit ab Erhalt eines Aufnahmesignals benötigt, um ein Bild zu erfassen. Dementsprechend stellt das Auslösemodul sicher, dass die Bilderfassungseinrichtung weder das Bild zu früh noch zu spät erfasst, sondern immer dann, wenn das Transportgut vollständig in dem Überwachungsbereich angeordnet ist.
  • Das aufgenommene Bild kann dahingehend verarbeitet werden, dass in einem darauffolgenden Schritt die Transportgutqualität beurteilt wird. Insbesondere kann beurteilt werden, ob das Transportgut keine Beschädigungen aufweist und/oder weitere nicht erwünschte Eigenschaften aufweist. Im Ergebnis kann auf einfache Weise und ohne eine datentechnische Verbindung mit der Transportvorrichtung ein Bild zur Verfügung gestellt werden, dass zur Beurteilung der Transportgutqualität eingesetzt werden kann. Dies bedeutet, dass keine elektrischen Daten, wie Sensordaten, zu einem Zustand und/oder zu einer Eigenschaft der Transportvorrichtung und/oder des Transportguts an die Rechnereinrichtung übermittelt werden. Die Bestimmung der Transportqualität kann somit allein auf dem erfassten optischen Bildsignal basieren.
  • Bei einer besonderen Ausführung kann die Rechnereinrichtung ein Filtermodul aufweisen. Das Filtermodul kann derart konfiguriert sein, dass es das Bildsignal vor einem Zuführen zu dem künstlich neuronalen Netz dahingehend überprüft, ob wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist. Dabei kann das Filtermodul derart in der Rechnereinrichtung konfiguriert sein, dass es die von der Bilderfassungseinrichtung erfassten Bildsignale zuerst empfängt.
  • Das Filtermodul kann somit Bildsignale ausfiltern, sodass zu dem Transportguterfassungsmodul nur ein Teil der vom Überwachungsbereich ausgehenden Bildsignale zugeführt wird. Dies ist vorteilhaft, weil das Filtermodul weniger Rechnerkapazität benötigt als die dem Filtermodul nachgeschalteten Module. Dadurch kann die benötigte Rechnerkapazität gering gehalten werden, wenn in dem Überwachungsbereich kein Transportgut angeordnet ist.
  • Das Filtermodul kann ein anderes künstliches neuronales Netz aufweisen. Das andere künstliche neuronale Netz kann auf Basis des zugeführten Bildsignals bestimmen, ob in dem Überwachungsbereich ein Transportgut angeordnet ist. Das andere künstliche neuronale Netz kann ein tiefes neuronales Netz sein. Dabei kann das andere künstliche Netz weniger Schichten aufweisen als das künstliche neuronale Netz. Dadurch kann das andere künstliche Netz das Bildsignal schneller verarbeiten als das künstlich neuronale Netz.
  • Darüber hinaus kann das andere neuronale Netz ein anderes neuronales Faltungsnetz sein. Wie oben bereits beschrieben ist, weist das andere neuronale Faltungsnetz den Vorteil auf, dass Bildmuster erkannt werden können und es daher für die Analyse von Bildsignalen vorteilhaft ist. Im Ergebnis unterscheidet sich das andere künstliche neuronale Netz von dem künstlichen Netz dadurch, dass es auf eine schnelle Verarbeitung der Bildsignale optimiert ist und erkennt, dass wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist. Es erkennt jedoch zumeist nicht oder nicht, welches Transportgut in dem Überwachungsbereich angeordnet ist. Dagegen ist das künstliche neuronale Netz dahingehend optimiert ist, dass es zusätzlich zum Bestimmen, ob ein Transportgut in dem Überwachungsbereich angeordnet ist, das Transportgut besser erkennt und/oder auch bislang unbekannte Transportgüter erkannt werden.
  • Das durch die Bilderfassungseinrichtung erfasste Bildsignal kann einer Eingabeschicht des anderen künstlichen neuronalen Netzes zugeführt werden. Dabei kann die Anzahl der Neuronen der Eingabeschicht des anderen neuronalen Faltungsnetzes einer Anzahl an Pixeln des Bildsignals entsprechen. Somit enthält die Eingabeschicht Informationen zur Bildhöhe und Bildbreite. Die Eingabeschicht des anderen neuronalen Faltungsnetzes kann dreidimensional sein. Dabei kann die Eingabeschicht Informationen zur Bildhöhe, Bildbreite und eine Bildinformation enthalten. Die Bildinformation kann beispielsweise eine Farbinformation sein. Für den Fall, dass Farbinformation sich auf die Farben rot, gelb und blau beschränkt, weist die Eingabeschicht drei Subschichten auf. Im Ergebnis kann die Eingabeschicht des anderen neuronalen Netzes identisch zu der Eingabeschicht des oben beschriebenen neuronalen Netzes sein.
  • Das andere neuronale Faltungsnetz kann eine oder mehrere weitere Schichten aufweisen. Die weitere Schicht kann eine neuronale Faltungsschicht sein und/oder der Eingabeschicht nachgeschaltet sein. Die weitere Schicht empfängt die Ausgabedaten der Eingabeschicht. Wenigstens ein Filter mit einer vorgegebenen Pixelgröße der weiteren Schicht analysiert die empfangen Daten und gibt eine Ausgabematrix aus. Die Anzahl der Ausgabematrizen hängt von der Anzahl der Filter ab. Die Größe der Ausgabematrix hängt von der Filtergröße und weiteren Faktoren, wie dem Padding und der Schrittweite. Darüber hinaus kann die Ausgabe der weiteren Schicht durch poolen vereinfacht, insbesondere reduziert, werden.
  • Wie oben bereits beschrieben ist, ist die Anzahl der weiteren Schichten des anderen neuronalen Faltungsnetzes kleiner als die Anzahl der Schichten des neuronalen Faltungsnetzes. So kann das andere neuronale Faltungsnetz 10 oder weniger weitere Schichten aufweisen. Dagegen kann das neuronale Faltungsnetz 20 oder mehr weitere Schichten aufweisen.
  • Das künstlich neuronale Netz kann einen anderen unüberwachten maschinellen Algorithmus, insbesondere Lernalgorithmus, aufweisen. Der andere unüberwachte Algorithmus dient zum Erkennen, ob wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist. Insbesondere erkennt der andere unüberwachte Algorithmus, ob ein bislang unbekanntes Transportgut in dem Überwachungsbereich angeordnet ist. Besonders vorteilhaft ist, wenn der andere unüberwachte Algorithmus ein proximity search algorithmus, insbesondere ein nearest-neighbour algorihmus, ist.
  • Eine Entscheidungsschicht des anderen neuronalen Faltungsnetzes kann den anderen unüberwachten Lernalgorithmus aufweisen. Somit werden dem anderen unüberwachten Lernalgorithmus die Ausgabedaten einer weiteren Schicht zugeführt. Die Entscheidungsschicht und somit der andere unüberwachte Algorithmus kann vollständig mit der vorhergehenden weiteren Schicht verbunden sein. Insbesondere sind alle Neuronen der Entscheidungsschicht mit allen Neuronen der vorhergehenden weiteren Schicht verbunden. Das andere neuronale Faltungsnetz kann nur eine einzige Schicht, insbesondere die Entscheidungsschicht, aufweisen, die vollständig mit der vorhergehenden Schicht verbunden ist. Als vorhergehende Schicht wird die Schicht verstanden, die bei einem Informationsfluss von der Eingabeschicht zu der Entscheidungsschicht vor der Entscheidungsschicht angeordnet ist.
  • Der andere unüberwachten Lernalgorithmus kann derart konfiguriert sein, dass er eine Information ausgibt, ob ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist oder nicht. Sofern der unüberwachte Lernalgorithmus bestimmt, dass ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist, wird das Bild dem neuronalen Netz zugeführt. Dadurch wird im Ergebnis auf einfache Weise eine Filterung der Bildsignale erreicht, sodass dem neuronalen Netz nur die Bildsignale zugeführt werden, bei denen wenigstens ein Teil des Transportguts in dem Überwachungsbereich angeordnet ist. Das neuronale Netz kann dann in oben beschriebener Weise bestimmen, um welches Transportgut es sich handelt und/oder den Begrenzungskasten erzeugen.
  • Das andere neuronale Faltungsnetz wird vor dessen Einsatz in einem Trainingsvorgang trainiert. Dazu wird dem anderen neuronalen Faltungsnetz ein Bildsignal eines Bildes zugeführt. Das Bildsignal ist enthält Informationen zu der Bildhöhe, Bildbreite und weitere Bildinformationen, wie die Farbe. Darüber hinaus enthält das Bildsignal eine Information, ob in dem Bildsignal ein Objekt vorhanden ist oder nicht. Der Trainingsvorgang erfolgt nur für die weitere Schicht oder weiteren Schichten des neuronalen Faltungsnetzes. Dies bedeutet, dass die Entscheidungsschicht des anderen neuronalen Faltungsnetzes, insbesondere der andere unüberwachte Lernalgorithmus, nicht vor dem Einsatz des Verfahrens trainiert wird. Bei dem Trainingsvorgang wird dem neuronalen Faltungsnetz eine Vielzahl von Bildern, die gleiche oder unterschiedliche Objekte zeigen, zugeführt. Insbesondere können dem Faltungsnetz beim Trainingsvorgang Millionen von Bildern zugeführt werden.
  • Der Aufbau, insbesondere die Verbindungen zwischen den verschiedenen Schichten, des anderen künstlichen neuronale Netzes kann durch ein Suchsystem für einen neuronalen Aufbau (neural architecture search system) ermittelt werden. Dies kann ebenfalls in dem Trainingsvorgang erfolgen. Dabei ist der Aufbau des Netzes auf Schnelligkeit und nicht auf das Genaue Erkennen von Mustern optimiert. Ein derart aufgebautes System bietet den Vorteil, dass die Untersuchung des Bildsignals besonders schnell erfolgen kann.
  • In künstlichen neuronalen Netzen ist jedes Neuron einer Schicht mit jedem Neuron einer anderen Schicht verbunden. Das Suchsystem ist derart ausgebildet, dass es erkennt, welche Verbindungen zwischen den Neuronen tatsächlich notwendig sind und die nicht notwendigen Verbindungen entfernt. Daher wird durch das Suchsystem die Anzahl der Verbindungen zwischen den Neuronen reduziert, wodurch das künstlich neuronale Netz das Bildsignal schnell verarbeiten kann. Da die Entscheidungsschicht vollständig mit der vorhergehenden Schicht verbunden, erfolgt die Optimierung nur in den der Entscheidungen vorhergehenden Schichten.
  • Von besonderem Vorteil ist eine Vorrichtung mit einer Bilderfassungseinrichtung zum Erfassen eines Bildsignals, das von einem Überwachungsbereich ausgeht, und einer mit der Bilderfassungseinrichtung datentechnisch verbundenen erfindungsgemäßen Rechnereinrichtung. Die Bilderfassungseinrichtung und die Rechnereinrichtung sind derart verbunden, dass die von der Bilderfassungseinrichtung erfassten Bildsignale der Rechnereinrichtung zugeführt werden.
  • Die Bilderfassungseinrichtung und die Rechnereinrichtung können in derselben Vorrichtung integriert sein. So kann die Vorrichtung ein Mobiltelefon oder Kamera oder Tablet oder dergleichen sein. Alternativ können die Bilderfassungseinrichtung und die Rechnereinrichtung separat voneinander ausgebildet sein. So kann die Rechnereinrichtung Bestandteil eines Computers sein, der mit der Bilderfassungseinrichtung datentechnisch verbunden ist. Somit muss im Gegensatz zu den bekannten Vorrichtungen die Rechnereinrichtung mit der Bilderfassungseinrichtung und nicht mit der Transportvorrichtung kommunizieren.
  • Die Bilderfassungseinrichtung kann ein Objektiv aufweisen. Dabei kann dieselbe Bilderfassungseinrichtung das von dem Überwachungsbereich ausgehende Bildsignal erfassen und das Bild aufnehmen. Alternativ kann eine Bilderfassungseinrichtung das von dem Überwachungsbereich ausgehende Bildsignal erfassen und eine andere Bilderfassungseinrichtung kann das Bild aufnehmen. Die Bilderfassungseinrichtung kann den Überwachungsbereich kontinuierlich überwachen, sodass kontinuierlich Bildsignale von der Bilderfassungseinrichtung erfasst werden. Dementsprechend werden Bildsignale von der Rechnereinrichtung kontinuierlich ausgewertet. Die Bilderfassungseinrichtung kann derart ausgebildet sein, dass es Bildsignale erfassen kann, die im für das menschliche Auge sichtbaren Wellenlängenbereich liegen. Alternativ oder zusätzlich kann die Bilderfassungseinrichtung derart ausgebildet sein, dass es Bildsignale verarbeiten kann, die außerhalb des für das menschliche Auge sichtbaren Wellenlängenbereichs liegen, insbesondere im Infrarot- oder Hyperspektralbereich.
  • Wie oben beschrieben ist, kann die Rechnereinrichtung ein Aufnahmesignal ausgeben und an die Bilderfassungseinrichtung übermitteln. Die Bilderfassungseinrichtung kann nach Empfang des Aufnahmesignals zu dem Aufnahmezeitpunkt das Bild aufnehmen. Das Aufnahmesignal kann eine Information zum Aufnahmezeitpunkt enthalten oder wird zu dem Aufnahmezeitpunkt ausgegeben.
  • Von besonderem Vorteil ist ein Computerprogramm, das Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das erfindungsgemäße Verfahren durchzuführen. Außerdem ist ein Datenträger vorteilhaft, auf dem das erfindungsgemäße Computerprogramm gespeichert ist. Darüber hinaus ist ein Datenträgersignal von Vorteil, das ein erfindungsgemäßes Computerprogramm überträgt.
  • In den Figuren ist der Erfindungsgegenstand schematisch dargestellt, wobei gleiche oder gleichwirkende Elemente zumeist mit denselben Bezugszeichen versehen sind. Dabei zeigt:
    • 1 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zu einem Zeitpunkt, bei dem ein Teil des Transportguts vollständig in einem Überwachungsbereich angeordnet sind,
    • 2 eine schematische Darstellung eines künstlich neuronalen Netzes und
    • 3 eine schematische Darstellung eines anderen künstlich neuronalen Netzes.
    • 4 ein Ablaufdiagramm eines Trainings des künstlich neuronalen Netzes aus 2 und
    • 5 eine Verteilung von Trainingsdatenelementen,
    • 6 ein Ablaufdiagramm des erfindungsgemäßen Verfahrens.
  • Eine in 1 gezeigte Vorrichtung 9 weist eine Bilderfassungseinrichtung 10 und eine Rechnereinrichtung 3 auf. Dabei ist zumindest ein Teil der Bilderfassungseinrichtung 10 und die Rechnereinrichtung 3 in einem von einem Gehäuse 12 umschlossenen Hohlraum der Vorrichtung 9 angeordnet. Die Bilderfassungseinrichtung 10 und die Rechnereinrichtung 3 sind datentechnisch verbunden. So werden von der Bilderfassungseinrichtung 10 erfasste optische Bildsignale an die Rechnereinrichtung 3 übermittelt. Die Vorrichtung 9 kann ein Mobiltelefon sein. Wie aus 1 ersichtlich ist, ist die Vorrichtung 9 mit der Transportvorrichtung 11 datentechnisch nicht verbunden. Dies bedeutet, dass kein Datenaustausch zwischen der Transportvorrichtung 11 und der Vorrichtung 9 erfolgt. Insbesondere werden keine Daten von der Transportvorrichtung 11 zu der Vorrichtung 9 oder umgekehrt übermittelt.
  • Die Bilderfassungseinrichtung 10 überwacht einen Überwachungsbereich 2, von dem das Bildsignal ausgeht. Die Transportvorrichtung 11 kann ein Transportband oder dergleichen sein. Die Bilderfassungseinrichtung 10 ist derart platziert, dass der Überwachungsbereich 2 einen Bereich der Transportvorrichtung 11 umfasst. Insbesondere umfasst der Überwachungsbereich 2 einen Transportweg des Transportguts 1, sodass sichergestellt ist, dass jedes Transportgut 1 den Überwachungsbereich 2 passieren muss. Bei dem in 1 dargestellten Fall ist ein Teil des Transportguts 1 in dem Überwachungsbereich 2 angeordnet. Die Bilderfassungseinrichtung 10 kann ein Bild des Überwachungsbereichs 2 nach Erhalt eines von der Rechnereinrichtung 3 ausgegebenen Aufnahmesignals 13 aufnehmen.
  • Die Rechnereinrichtung 3 umfasst ein Filtermodul 6, dem das von der Bilderfassungseinrichtung 10 erfasste Bildsignal zugeführt wird. Darüber hinaus weist die Rechnereinrichtung 3 ein Transportguterfassungsmodul 4 auf, dem ein Ausgabesignal des Filtermoduls 6 zugeführt werden kann. Das Transportguterfassungsmodul 4 weist ein künstlich neuronales Netz auf, dessen Aufbau in 3 dargestellt ist. Das Filtermodul 6 weist ein anderes künstliches neuronales Netz auf, dessen Aufbau in 4 dargestellt ist. Die Rechnereinrichtung 3 weist außerdem ein Auslösemodul 5 auf. Dabei wird das Ausgabesignal des Filtermoduls 6 dem Transportguterfassungsmodul 4 und dem Auslösemodul 5 zugeführt.
  • Das Transportguterfassungsmodul 4 und das Auslösemodul 5 erzeugen das Aufnahmesignal 13, das der Bilderfassungseinrichtung 10 zugeführt. Die Bilderfassungseinrichtung 10 nimmt nach Erhalt des Aufnahmesignals 13 ein Bild des Überwachungsbereichs 2 auf. Das Bild wird gespeichert und kann für eine anschließende Bestimmung der Qualität des Transportguts 1 herangezogen werden.
  • Bei der in 1 dargestellten Ausführung ist das Auslösemodul 5 dem Transporterfassungsmodul 4 nachgeschaltet.
  • 2 zeigt einen schematischen Aufbau eines künstlichen neuronalen Netzes 7 des Transportguterfassungsmoduls 4.
  • Das neuronale Netz 7 weist eine Eingabeschicht 15 und eine Entscheidungsschicht 16 und eine Vielzahl von Schichten 17, 17' auf. In 2 sind zwar zwei Schichten gezeigt, nämlich eine erste Schicht 17 und eine zweite Schicht 17', jedoch weist das neuronale Netz 7 mehr als zwei Schichten 17, 17' auf. Der Informationsfluss von der Eingabeschicht 15 zu der Entscheidungsschicht 16 erfolgt entlang der eingezeichneten Pfeilrichtung. So kann das neuronale Netz 7 mehr als 100 Schichten aufweisen.
  • Wie nachstehend näher erläutert ist, wird das vom Filtermodul 6 von der Bilderfassungseinrichtung 10 empfangene Bildsignal an das Transportguterfassungsmodul 4 übermittelt, wenn in dem Filtermodul 6 festgestellt wird, dass wenigstens ein Teil des Transportguts 1 in dem Überwachungsbereich 2 angeordnet ist.
  • In diesem Fall wird das Bildsignal der Eingabeschicht 15 des neuronalen Netzes 7 zugeführt. Die Eingabeschicht ist dreidimensional. Die Erstreckung der Eingabeschicht 15 in Breitenrichtung B entspricht einer Bildbreite und die Erstreckung der Eingabeschicht 15 in Höhenrichtung H entspricht der Bildhöhe. Die in Anzahl der in 2 nicht dargestellten Neuronen der Eingabeschicht 15 kann in Breitenrichtung B der Anzahl der im Bildsignal enthaltenen Pixel in Breitenrichtung B und in Höhenrichtung H der Anzahl der im Bildsignal enthaltenen Pixel in Höhenrichtung entsprechen. Die Eingabeschicht 15 kann in Tiefenrichtung T weitere Bildinformationen enthalten. So kann die Eingabeschicht 15 in Tiefenrichtung T Farbinformationen enthalten. Für den Fall, dass nur auf die Farben Rot, Gelb und Blau abgestellt wird, weist die Eingabeschicht drei in der 2 nicht gezeigte Subschichten in Tiefenrichtung T auf, nämlich für jede der zuvor genannten Farben eine Subschicht. Die Bildinformation ist jedoch nicht auf die Farbe begrenzt.
  • Die Schichten 17 sind Faltungsschichten. Die Schichten 17 weisen jeweils mehrere Filter auf, die zu einer größeren Erstreckung der Schichten 17 in Tiefenrichtung T führt. Dies bedeutet, dass die Schichten 17 in Tiefenrichtung T eine größere Anzahl an Subschichten aufweisen als die Eingabeschicht 15 und/oder als die jeweils vorhergehende Schicht 17, 17'. Darüber hinaus sind die Filter derart gewählt, dass sich die Anzahl der Neuronen zumindest in Breitenrichtung B verkleinert. Dabei kann sich die Anzahl der Neuronen in Breitenrichtung B von Schicht 17, 17' zu weiterer Schicht 17, 17' in Richtung zur Entscheidungsschicht 16 immer weiter verkleinern. Insbesondere ist das neuronale Netz 7 derart ausgebildet, dass die Entscheidungsschicht 16 eindimensional ist. Im in 2 dargestellten Fall erstreckt sich die Entscheidungsschicht 16 somit in Höhenrichtung H.
  • Die Entscheidungsschicht 16 weist einen unüberwachten Lernalgorithmus auf. Der unüberwachte Lernalgorithmus kann ein proximity search algorithmus, insbesondere ein nearest-neighbour algorihmus, sein. Die Entscheidungsschicht 16 ist vollständig mit der vorhergehenden Schicht 17 verbunden. Dies bedeutet, dass alle Neuronen der vorhergehenden Schicht 17 mit allen Neuronen der Entscheidungsschicht 16 verbunden sind. Das neuronale Faltungsnetz 7 weist lediglich eine Schicht, nämlich die Entscheidungsschicht 16, auf, die mit einer vorhergehenden Schicht vollständig verbunden ist.
  • Der unüberwachte Lernalgorithmus ist derart konfiguriert, dass seine Ausgabe 18 eine Information enthält, ob wenigstens ein Teil des Transportguts im Überwachungsbereich 2 angeordnet ist. Darüber hinaus erzeugt der unüberwachte Lernalgorithmus einen Begrenzungskasten, der das Transportgut oder einen Teil des Transportguts umschließt.
  • 3 zeigt einen schematischen Aufbau eines anderen künstlichen neuronalen Netzes 7 des Filtermoduls 6.
  • Das andere neuronale Netz 19 weist eine Eingabeschicht 20 und eine Entscheidungsschicht 22 und eine Vielzahl von weiteren Schichten 21 auf. In 3 ist zwar eine weitere Schicht 21 dargestellt, jedoch weist das neuronale Netz 19 mehr als eine Schicht 21 auf. Dabei weist das andere neuronale Netz 19 jedoch weniger weitere Schichten 21 auf als das in 2 gezeigte neuronale Netz 7. Der Informationsfluss von der Eingabeschicht 15 zu der Entscheidungsschicht 16 erfolgt entlang der eingezeichneten Pfeilrichtung.
  • Das von der Bilderfassungseinrichtung 10 erfasste Bildsignal wird der Eingabeschicht 20 zugeführt. Die Eingabeschicht ist dreidimensional und identisch zu der Eingabeschicht 15 des neuronalen Netzes 7 ausgebildet. Daher wird auf die obigen Ausführungen verwiesen.
  • Die Entscheidungsschicht 22 weist einen unüberwachten Lernalgorithmus auf. Der unüberwachte Lernalgorithmus kann ein proximity search algorithmus, insbesondere ein nearest-neighbour algorihmus, sein. Der unüberwachte Lernalgorithmus kann derart konfiguriert sein, dass seine Ausgabe 23 eine Information enthält, ob wenigstens ein Teil des Transportguts in dem Überwachungsbereich 2 angeordnet ist.
  • 4 zeigt ein Ablaufdiagramm eines Trainings des in 2 dargestellten neuronalen Netzes 7. Das Training weist zwei Trainingsphasen T1, T2 auf, wobei die zweite Trainingsphase T2 der ersten Trainingsphase T1 nachgeschaltet ist. In der ersten Trainingsphase T1 wird ein neuronales Netz trainiert, das auf dem in 2 dargestellten neuronalen Netz basiert. Das zu trainierende neuronale Netz unterscheidet sich in der Entscheidungsschicht 16 von dem in 2 dargestellten neuronalen Netz. So weist die Entscheidungsschicht 16 des zu trainierenden neuronalen Netzes keinen unüberwachten Lernalgorithmus auf, sondern gibt eine Ausgabe des in den vorhergehenden Schichten ermittelten Ergebnisses aus. Die Ausgabe kann die Information enthalten, ob ein Teil des Transportguts 1 in dem Überwachungsbereich 2 angeordnet ist und/oder einen Begrenzungskasten aufweisen, der den im Überwachungsbereich befindlichen Teil des Transportguts 1 umschließt.
  • In einem ersten Trainingsschritt T11 der ersten Trainingsphase werden der Eingabeschicht eine Vielzahl von Trainingsbildern zugeführt. Die Trainingsbildern sind, insbesondere alle, beschriftet. Insbesondere enthalten die Bilder eine Information, ob ein Objekt angeordnet ist und/oder wo das Objekt angeordnet ist und/oder um was für einen Objekttyp es sich handelt.
  • Dem zu trainierenden neuronalen Netz 7 wird eine große Anzahl von Trainingsbildern zugeführt. Nach Abschluss des ersten Trainingsvorgangs können die Schichten 17, 17' bereits präzise erkennen, ob in dem Bildsignal ein Teil eines Transportobjekts 1 angeordnet ist.
  • Nach Abschluss der ersten Trainingsphase T1 wird die zweite Trainingsphase T2 eingeleitet. Die zweite Trainingsphase basiert auf dem in der ersten Trainingsphase T1 trainierten neuronalen Netz T1, was in 4 durch den gestrichelten Pfeil symbolisiert ist. Das in der zweiten Trainingsphase T2 zu trainierende neuronale Netz unterscheidet sich im Aufbau und der Funktionsweise nicht von dem im Realbetrieb eingesetzten neuronalen Netz, das in 2 dargestellt ist. Mit anderen Worten, das in der zweiten Trainingsphase T2 zu trainierende neuronale Netz weist eine Entscheidungsschicht 16 mit dem unüberwachten Lernalgorithmus auf. Zudem weist das in der zweiten Trainingsphase T2 zu trainierende neuronale Netz die in ersten Trainingsphase T1 trainierten Schichten 17, 17' auf.
  • In einem ersten Trainingsschritt T21 wird dem zu trainierenden neuronalen Netz 7 Bilder zugeführt, die ein Objekt enthalten, und Bilder zugeführt, die kein Objekt enthalten. Im Gegensatz zu der ersten Trainingsphase T1 sind die Bilder jedoch nicht beschriftet.
  • In einem zweiten Trainingsschritt T22 werden in der Entscheidungsschicht 16 für jedes der Entscheidungsschicht zugeführte Trainingsdatenelement des Trainingsbildes mehrere Parameter ermittelt. Das Trainingsdatenelement repräsentiert einen Teil des Trainingsbildes und enthält wenigstens eine Bildinformation, wie beispielsweise die Lichtintensität. Im zweiten Trainingsschritt T22 wird dann eine Normalverteilung zu der in dem Trainingsdatenelement enthaltenen Bildinformation ermittelt. Insbesondere wird eine Varianz und/oder ein Erwartungswert der Normalverteilung ermittelt. Die Bestimmung der Parameter wird für jedes Trainingsdatenelement eines Trainingsbildes durchgeführt. Darüber hinaus wird der Vorgang für jedes dem zu trainierenden neuronalen Netz zugeführten Trainingsbild, insbesondere den Trainingsdatenelementen des Trainingsbildes, wiederholt.
  • In einem dritten Trainingsschritt T23 werden basierend auf den ermittelten Parameterwerten ein erster Clusterbereich C1, der Trainingsdatenelemente mit einem Teil des Transportguts 1 enthält, und ein zweiter Clusterbereich C2 erzeugt, der Trainingsdatenelemente ohne das Transportgut enthält. Dies ist in 5 gezeigt. Es wird die Tatsache ausgenutzt, dass die Schichten 17, 17' bereits genau ermitteln können, ob ein Bildsignal einen Teil des Transportguts 1 enthält. Da die Bildinformation eines Trainingsdatenelements und somit die Parameter davon abhängen, ob es einen Teil des Transportguts enthält, können die Trainingsdatenelemente unter Verwendung der ermittelten Parameter klassifiziert werden. Somit sind alle Trainingsdatenelemente, die ein Teil eines Transportguts enthalten, in dem ersten Clusterbereich C1 angeordnet und von den Trainingsdatenelementen, die kein Transportgut enthalten, separiert.
  • 5 zeigt ein Diagramm mit Trainingsdatenelementen. Dabei ist die Vertikalachse ein Parameter, wie Varianz, der in dem Trainingsdatenelement enthaltenen Bildinformation und die Horizontalachse ist ein anderer Parameter, wie Erwartungswert, der in dem Trainingsdatenelement enthaltenen Bildinformation. Die in 5 dargestellten Trainingsdatenelemente zeigen jeweils den gleichen Bildabschnitt in jedem der dem neuronalen Netz 7 zugeführten Trainingsbilder. Im vorliegenden Fall wurde angenommen, dass dem neuronalen Netz 7 20 Trainingsbilder zugeführt werden, wobei 10 Trainingsbilder Objekte enthalten und 10 Trainingsbilder keine Objekte enthalten. Die Clusterbildung ist jedoch nicht auf Trainingsdatenelemente der Trainingsbilder beschränkt, die den gleichen Bildabschnitt zeigen. Gleichermaßen können Cluster auf der Basis von Trainingsdatenelementen von Trainingsbildern gebildet werden, die unterschiedliche Bildabschnitte zeigen, wobei auch in diesem Fall die Cluster C1, C2 davon abhängig sind, ob das Trainingsdatenelement einen Teil des Transportguts enthält oder nicht.
  • Das Verfahren zum Bestimmen, ob ein Transportgut 1 in einem Überwachungsbereich 2 angeordnet ist, wird in 6 näher beschrieben. Dabei zeigt 6 ein Ablaufdiagramm des erfindungsgemäßen Verfahrens.
  • In einem ersten Verfahrensschritt S1 wird ein von dem Überwachungsbereich 2 ausgehendes Bildsignal von der Bilderfassungseinrichtung 10 erfasst. Das erfasste Bildsignal wird dem Filtermodul 6 zugeführt. Das Filtermodul 6 dient zur Bestimmung, ob in dem Überwachungsbereich 2 wenigstens ein Teil des Transportguts 1 angeordnet ist. Das Filtermodul 6 weist das andere künstliches neuronale Netz 19 auf, das ein neuronales Faltungsnetz sein kann. Das neuronale Faltungsnetz wurde vor dem Einsatz bereits trainiert.
  • Das andere künstliche Netz 19 bestimmt in einem zweiten Verfahrensschritt S2 auf Basis des von der Bilderfassungseinrichtung 10 empfangenen Bildsignals, ob wenigstens ein Teil des Transportguts 1 in dem Überwachungsbereich 2 angeordnet ist. Sofern im Filtermodul 6 bestimmt wird, dass im Überwachungsbereich 2 kein Transportgutteil angeordnet ist, wird die Verarbeitung beendet und der Verfahrensablauf beginnt von Neuem. Dies ist durch den gestrichelten Pfeil symbolisiert. Da das Filtermodul 6 kontinuierlich Bildsignale von der Bilderfassungseinrichtung 10 empfängt, wird ein neues Bildsignal in dem Filtermodul 6, wie oben beschrieben ist, untersucht.
  • Für den Fall, dass die Ausgabe des Filtermoduls 6 ist, dass ein Teil des Transportguts in dem Überwachungsbereich 2 angeordnet ist, wird vom Filtermodul 6 in einem dritten Verfahrensschritt S3 das Ausgabesignal an das Transportguterfassungsmodul 4 übermittelt. In dem Transportguterfassungsmodul 4 erfolgt eine Verarbeitung des vom Filtermodul 6 stammenden Bildsignals in den Schichten 17, 17'. Dabei werden mehrere Datenelemente des Bildsignals zu der Entscheidungsschicht 16 übermittelt. In der Entscheidungsschicht werden für jedes Datenelement die oben genannten Parameter, wie beispielsweise Varianz und Erwartungswert bestimmt. Wie oben bereits ausgeführt ist, repräsentiert jedes Datenelement einen Teil des Bildsignals. Mit anderen Worten, der Entscheidungsschicht wird das Bildsignal in Form von Datenelementen zugeführt.
  • Der unüberwachte Lernalgorithmus bestimmt dann für jedes Datenelement anhand der ermittelten Parameterwerte, ob es zu dem ersten Clusterbereich C1 oder zu dem zweiten Clusterbereich C2 klassifiziert wird. Die Klassifizierung kann danach erfolgen, ob das Datenelement näher zu dem ersten Clusterbeich C1 oder näher zu dem zweiten Clusterebereich angeordnet ist. Für den Fall, dass das Datenelement dem ersten Clusterbereich C1 zugewiesen wird, weist das Datenelement einen Teil des Transportgutobjekts 1 auf. Dementsprechend weist auch das Bildsignal wenigstens einen Teil des Transportguts auf. Für den Fall, dass das Datenelement dem zweiten Clusterbereich C2 zugewiesen wird, weist zumindest der Bildabschnitt keinen Teil des Transportguts auf. Dieser Vorgang wird für alle Datenelemente des Bildsignals wiederholt.
  • In einem vierten Verfahrensschritt S4 wird eine Begrenzungskasten erzeugt, der den Teil des Transportguts oder das Transportgut umschließt. Der Begrenzungskasten kann unter Verwendung der analysierten Datenelemente erzeugt. So ist nach Analyse der Datenelemente bekannt, ob dieses ein Teil des Transportguts enthält.
  • In einem fünften Verfahrensschritt S5 wird das Ausgabesignal von dem Transportguterfassungsmodul 4 an das Auslösemodul 5 übermittelt. In dem Auslösemodul 5 wird auf Basis des Ausgabesignals von dem Transportguterfassungsmodul 4 ein Aufnahmezeitpunkt bestimmt. Darüber hinaus wird in dem Auslösemodul 5 auf Basis des Ausgabesignals von dem Transportguterfassungsmodul 4 eine Zeitdauer bestimmt, wann das Transportgut 1 vollständig in dem Überwachungsbereich 2 angeordnet ist.
  • Auf der Basis der Ausgaben des Transportguterfassungsmodul 4 und/oder des Auslösemoduls 5 wird ein Aufnahmesignal erzeugt und an die Bilderfassungseinrichtung 5 übermittelt. Das Aufnahmesignal kann die Information beinhalten, dass die Bilderfassungseinrichtung 5 ein Bild aufnehmen soll und die Information wann das erfolgen soll.
  • Die Bilderfassungseinrichtung 10 nimmt im sechsten Verfahrensschritt S6 das Bild des Überwachungsbereichs 2 auf und speichert es ab. Eine im weiteren nicht näher vorgestellten Beurteilung der Transportgutqualität kann auf Basis des aufgenommen Bildes erfolgen.
  • Bezugszeichenliste
  • 1
    Transportgut
    2
    Überwachungsbereich
    3
    Rechnereinrichtung
    4
    Transportguterfassungsmodul
    5
    Auslösemodul
    6
    Filtermodul
    7
    künstlich neuronales Netz
    8
    Eingabeschicht
    9
    Vorrichtung
    10
    Bilderfassungseinrichtung
    11
    Transportband
    12
    Gehäuse
    13
    Aufnahmesignal
    14
    Steuersignal
    15
    Eingabeschicht
    16
    Entscheidungsschicht
    17
    erste Schicht
    17'
    zweite Schicht
    18
    Ausgabe des unüberwachten Lernalgorithmus des neuronalen Netzes
    19
    anderes künstlich neuronales Netz
    20
    Eingabeschicht des anderen neuronalen Netzes
    21
    weitere Schicht des anderen neuronalen Netzes
    22
    Entscheidungsschicht des anderen neuronalen Netzes
    23
    Ausgabe des unüberwachten Lernalgorithmus des anderen neuronalen Netzes
    H
    Höhenrichtung
    B
    Breitenrichtung
    T
    Tiefenrichtung
    C1
    erster Clusterbereich
    C2
    zweiter Clusterbereich
    S1-S5
    Verfahrensschritte

Claims (31)

  1. Verfahren zum Bestimmen, ob ein Transportgut (1) in einem Überwachungsbereich (2) angeordnet ist, wobei ein Bildsignal des Überwachungsbereichs (2), durch den ein Transportweg des Transportguts (1) verläuft, erfasst wird, wobei das erfasste Bildsignal einem künstlich neuronalen Netz (7) zugeführt wird und das künstlich neuronale Netz (7) abhängig von dem Bildsignal bestimmt, ob wenigstens ein Teil des Transportguts (1) in dem Überwachungsbereich (2) angeordnet ist, wobei, wenn durch das künstlich neuronale Netz (7) bestimmt wird, dass wenigstens ein Teil des Transportguts (1) in dem Überwachungsbereich (2) angeordnet ist, ein Bild des Überwachungsbereichs (2) aufgenommen wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das neuronale Netz (7) ein neuronales Faltungsnetz aufweist.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass a. das Bildsignal einer Eingabeschicht (15) des neuronalen Faltungsnetzes zugeführt wird und/oder dass b. die Anzahl der Neuronen einer Eingabeschicht (15) des neuronalen Faltungsnetzes einer Anzahl an Pixeln des Bildsignals entspricht und/oder dass c. eine Eingabeschicht (15) des neuronalen Faltungsnetzes dreidimensional ist.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das neuronale Netz (7) wenigstens eine Schicht (17, 17') aufweist, wobei a. die Schicht (17, 17') eine neuronale Faltungsschicht ist und/oder wobei b. die Schicht (17, 17') mit der Eingabeschicht (15) verbunden ist und/oder Ausgabedaten der Eingabeschicht (15) empfängt.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das neuronale Faltungsnetz mehrere Schichten (17, 17') aufweist, die jeweils eine oder mehrere Subschichten aufweisen, wobei a. eine erste Schicht (17) der Eingabeschicht (15) nachgeschaltet ist und durch Anwenden wenigstens eines Filters erzeugt wird, und/oder wobei b. eine erste Schicht (17) und eine der ersten Schicht (17) nachgeschaltete zweite Schicht (17') vorhanden sind, wobei die zweite Schicht (17') durch Anwenden wenigstens eines Filters erzeugt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass a. das neuronale Faltungsnetz eine Entscheidungsschicht (16) und mehrere vorhergehende Schichten (17, 17) aufweist, wobei die Entscheidungsschicht (16) mit wenigstens zwei Schichten (17, 17') verbunden ist und/oder dass b. eine Entscheidungsschicht (16) des neuronalen Faltungsnetzes den unüberwachten Lernalgorithmus aufweist und die Entscheidungsschicht (16) vollständig mit einer vorhergehenden Schicht (17, 17') verbunden ist.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass a. das neuronale Netz einen unüberwachten Lernalgorithmus aufweist und/oder dass b. eine Entscheidungsschicht (16) des neuronalen Faltungsnetzes den unüberwachten Lernalgorithmus aufweist.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass ein, insbesondere wenigstens einem Neuron, der Entscheidungsschicht (16) zugeführtes Datenelement des Bildsignals dahingehend überprüft wird, ob es einen Teil des Transportguts (1) enthält.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Prüfung die Bestimmung von wenigstens einem Parameter enthält und unter Verwendung des unüberwachten Lernalgorithmus und des bestimmten Parameters bestimmt wird, ob das Datenelement einen Teil des Transportguts (1) enthält.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass a. ein Training des neuronalen Netzes (7) eine erste Trainingsphase und eine, insbesondere der ersten Trainingsphase nachgeschaltete, zweite Trainingsphase aufweist und/oder dass b. ein Training des neuronalen Netzes (7) eine erste Trainingsphase und eine, insbesondere der ersten Trainingsphase nachgeschaltete, zweite Trainingsphase aufweist, wobei das Training des neuronalen Netzes in der zweiten Trainingsphase unter Verwendung des in der ersten Trainingsphase trainierten neuronalen Netzes (7) erfolgt.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass in der ersten Trainingsphase a. das zu trainierende neuronale Netz (7) eine andere Entscheidungsschicht aufweist und/oder dass b. die Entscheidungsschicht des zu trainierenden neuronalen Netzes (7) keinen unüberwachten Lernalgorithmus aufweist.
  12. Verfahren nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass a. die Anzahl der dem zu trainierenden neuronalen Netz (7) in der ersten Trainingsphase zugeführten Trainingsbilder größer ist als die Anzahl der dem zu trainierenden neuronalen Netz (7) in der zweiten Trainingsphase zugeführten Bilder und/oder dass b. die dem zu trainierenden neuronalen Netz (7) in der ersten Trainingsphase zugeführten Bilder beschriftet sind.
  13. Verfahren nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, dass a. in der zweiten Trainingsphase die Entscheidungsschicht des zu trainierenden neuronalen Netzes (7) den unüberwachten Lernalgorithmus aufweist und/oder dass b. in der zweiten Trainingsphase Trainingsbildern ohne Beschriftung dem neuronalen Netz (7) zugeführt werden und/oder dass c. dem zu trainierenden neuronalen Netz (7) in der zweiten Trainingsphase Trainingsbilder zugeführt werden, die ein Objekt enthalten, und Trainingsbilder zugeführt werden, die kein Objekt enthalten.
  14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass für ein, insbesondere wenigstens einem Neuron, der Entscheidungsschicht zugeführtes Trainingsdatenelement eines Trainingsbildes wenigstens ein Parameter bestimmt wird.
  15. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass eine Varianz und/oder ein Erwartungswert einer Normalverteilung einer im Trainingsdatenelement eines Trainingsbildes enthaltenen Bildinformation bestimmt wird.
  16. Verfahren nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass für die in der zweiten Trainingsphase zugeführten Trainingsbilder unter Berücksichtigung des wenigstens einen bestimmten Parameters ein erster Clusterbereich (C1), bei dem wenigstens ein Trainingsdatenelement einen Teil des Transportobjekts aufweist, und ein zweiter Clusterbereich (C2) als Trainingsergebnis ermittelt werden, bei dem wenigstens ein Trainingsdatenelement keinen Teil des Transportobjekts aufweist.
  17. Verfahren nach einem der Ansprüche 9 bis 16, dadurch gekennzeichnet, dass a. der unüberwachte Lernalgorithmus zum Bestimmen, ob das Datenelement des Bildsignals einen Teil des Transportguts enthält, ein Trainingsergebnis verwendet und/oder dass b. der unüberwachte Lernalgorithmus abhängig von einem bestimmten Parameterwert des Datenelements und dem im Training ermittelten ersten und zweiten Clusterbereich (C1, C2) bestimmt, ob das Datenelement einen Teil des Transportobjekts (1) aufweist.
  18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass a. der unüberwachte Lernalgorithmus derart konfiguriert ist, dass er einen Begrenzungskasten als Ausgabe (18) ausgibt, der wenigstens einen Teil des Transportguts (1) umschließt und/oder dass b. der unüberwachten Lernalgorithmus einen Begrenzungskasten erzeugt, wenn bestimmt wird, dass ein Teil des Transportguts (1) in dem Überwachungsbereich (2) angeordnet ist.
  19. Verfahren nach einem der Ansprüche 1 bis 18, dadurch gekennzeichnet, dass a. ein Aufnahmezeitpunkt zum Aufnehmen des Bildes bestimmt wird und/oder dass b. ein Aufnahmezeitpunkt zum Aufnehmen des Bildes bestimmt wird, wobei der Aufnahmezeitpunkt um eine Zeitdauer von einem Bestimmungszeitpunkt versetzt ist, zu dem das künstlich neuronale Netz (7) bestimmt hat, dass wenigstens ein Teil des Transportguts (1) in dem Überwachungsbereich (2) angeordnet ist, und/oder dass c. ein Aufnahmezeitpunkt zu einem Bestimmungszeitpunkt, zu dem das künstlich neuronale Netz (7) bestimmt hat, dass das Transportgut (1) in dem Überwachungsbereich (2) angeordnet ist, um eine Zeitdauer versetzt ist, wobei die Zeitdauer derart gewählt ist, dass zum Aufnahmezeitpunkt das vollständige Transportgut (1) in dem Überwachungsbereich (2) angeordnet ist.
  20. Verfahren nach einem der Ansprüche 1 bis 19, dadurch gekennzeichnet, dass eine Transportgutqualität basierend auf dem aufgenommenen Bild beurteilt wird.
  21. Verfahren nach einem der Ansprüche 1 bis 20, dadurch gekennzeichnet, dass das Bildsignal vor einem Zuführen zu dem künstlich neuronalen Netz (7) dahingehend untersucht wird, ob wenigstens ein Teil des Transportguts (1) in dem Überwachungsbereich (2) angeordnet ist.
  22. Verfahren nach Anspruch 21, dadurch gekennzeichnet, dass durch ein anderes künstliches neuronales Netz (19) bestimmt wird, ob wenigstens ein Teil des Transportguts (1) in dem Überwachungsbereich (2) angeordnet ist.
  23. Verfahren nach Anspruch 22, dadurch gekennzeichnet, dass a. das andere neuronale Netz (19) ein anderes neuronales Faltungsnetz aufweist oder dass b. das andere neuronale Netz (19) ein anderes neuronales Faltungsnetz aufweist, das weniger Schichten (21) aufweist als das neuronale Faltungsnetz (7).
  24. Verfahren nach Anspruch 22 oder 23, dadurch gekennzeichnet, dass das andere neuronale Netz (19) derart konfiguriert ist, dass es eine Information ausgibt, ob ein Teil des Transportguts (1) in dem Überwachungsbereich (2) angeordnet ist oder nicht.
  25. Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass das Bildsignal dem neuronalen Netz (7) zugeführt wird, wenn das andere neuronale Netz (19) bestimmt, dass ein Teil des Transportguts (1) in dem Überwachungsbereich (2) angeordnet ist.
  26. Rechnereinrichtung (3) zum Ausführen eines Verfahrens nach einem der Ansprüche 1 bis 25.
  27. Rechnereinrichtung (3), insbesondere nach Anspruch 26, zum Bestimmen, ob ein Transportgut (1) in einem Überwachungsbereich (2) angeordnet ist, mit einem Transportguterfassungsmodul (4), das ein künstlich neuronales Netz aufweist, wobei dem künstlich neuronalen Modul ein Bildsignal eines Überwachungsbereichs (2), durch den ein Transportweg des Transportguts (1) verläuft, zuführbar ist, und das künstlich neuronale Netz derart konfiguriert ist, dass es abhängig von dem Bildsignal bestimmt, ob wenigstens ein Teil des Transportguts (1) in dem Überwachungsbereich (2) angeordnet ist, und es, wenn durch das künstlich neuronale Netz bestimmt wird, dass wenigstens ein Teil des Transportguts (1) in dem Überwachungsbereich (2) angeordnet ist, veranlasst, ein Bild des Überwachungsbereichs (2) aufzunehmen.
  28. Vorrichtung (9) mit einer Bilderfassungseinrichtung (10) zum Erfassen eines Bildsignals, das von einem Überwachungsbereich (2) ausgeht, und einer mit der Bilderfassungseinrichtung (10) datentechnisch verbundenen Rechnereinrichtung (3) nach Anspruch 26 oder 27, der das erfasste Bildsignal zugeführt wird.
  29. Vorrichtung (9) nach Anspruch 28, dadurch gekennzeichnet, dass die Bilderfassungseinrichtung (10) nach Empfang eines von der Rechnereinrichtung (3) ausgegebenem Aufnahmesignals das Bild aufnimmt.
  30. Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch eine Rechnereinrichtung (3), insbesondere nach Anspruch 26 oder 27, diesen veranlassen, das Verfahren nach einem der Ansprüche 1 bis 25 durchzuführen.
  31. Datenträger, auf dem das Computerprogrammprodukt nach Anspruch 30 gespeichert ist, oder Datenträgersignal, das das Computerprogrammprodukt nach Anspruch 30 überträgt.
DE102021124348.3A 2021-09-21 2021-09-21 Verfahren zum Bestimmen, ob ein Transportgut in einem Überwachungsbereich angeordnet ist Pending DE102021124348A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102021124348.3A DE102021124348A1 (de) 2021-09-21 2021-09-21 Verfahren zum Bestimmen, ob ein Transportgut in einem Überwachungsbereich angeordnet ist
PCT/EP2022/076020 WO2023046653A1 (de) 2021-09-21 2022-09-20 Verfahren zum bestimmen, ob ein vorgegebenes transportgut in einem überwachungsbereich angeordnet ist
CN202280063854.7A CN117980964A (zh) 2021-09-21 2022-09-20 用于确定预定的运输物品是否布置在监控区域内的方法
EP22790299.6A EP4405908A1 (de) 2021-09-21 2022-09-20 Verfahren zum bestimmen, ob ein vorgegebenes transportgut in einem überwachungsbereich angeordnet ist

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021124348.3A DE102021124348A1 (de) 2021-09-21 2021-09-21 Verfahren zum Bestimmen, ob ein Transportgut in einem Überwachungsbereich angeordnet ist

Publications (1)

Publication Number Publication Date
DE102021124348A1 true DE102021124348A1 (de) 2023-03-23

Family

ID=83898260

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021124348.3A Pending DE102021124348A1 (de) 2021-09-21 2021-09-21 Verfahren zum Bestimmen, ob ein Transportgut in einem Überwachungsbereich angeordnet ist

Country Status (4)

Country Link
EP (1) EP4405908A1 (de)
CN (1) CN117980964A (de)
DE (1) DE102021124348A1 (de)
WO (1) WO2023046653A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130560A1 (en) 2017-11-02 2019-05-02 AMP Robotics Corporation Systems and methods for optical material characterization of waste materials using machine learning
EP3816857A1 (de) 2019-11-04 2021-05-05 TOMRA Sorting GmbH Neuronales netzwerk zur massensortierung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858496B2 (en) * 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images
CN108038843A (zh) * 2017-11-29 2018-05-15 英特尔产品(成都)有限公司 一种用于缺陷检测的方法、装置和设备
JP7250330B2 (ja) * 2019-07-05 2023-04-03 株式会社イシダ 検査装置及び学習装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130560A1 (en) 2017-11-02 2019-05-02 AMP Robotics Corporation Systems and methods for optical material characterization of waste materials using machine learning
EP3816857A1 (de) 2019-11-04 2021-05-05 TOMRA Sorting GmbH Neuronales netzwerk zur massensortierung

Also Published As

Publication number Publication date
EP4405908A1 (de) 2024-07-31
CN117980964A (zh) 2024-05-03
WO2023046653A1 (de) 2023-03-30

Similar Documents

Publication Publication Date Title
DE602004005358T2 (de) Objektdetektion in bildern
DE102017116017A1 (de) Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und mehreren neuronalen Netzen zum Erzeugen einer kombinierten Repräsentation einer Umgebung
DE102018128531A1 (de) System und Verfahren zum Analysieren einer durch eine Punktwolke dargestellten dreidimensionalen Umgebung durch tiefes Lernen
DE69309300T2 (de) Verfahren und vorrichtung zur artikelklassifizierung
DE102019127282A1 (de) System und Verfahren zum Analysieren einer dreidimensionalen Umgebung durch tiefes Lernen
DE112016007498T5 (de) Untersuchungseinrichtung und untersuchungsverfahren
WO2017032775A9 (de) Aktives maschinelles lernen zum trainieren eines ereignisklassifikators
DE69818438T2 (de) Verfahren zur kontrolle der oberfläche einer laufenden materialbahn mit bildsegmentierung zur umgrenzung von defektbereichen
EP3767403B1 (de) Machine-learning gestützte form- und oberflächenmessung zur produktionsüberwachung
DE102018206108A1 (de) Generieren von Validierungsdaten mit generativen kontradiktorischen Netzwerken
EP3468727B1 (de) Sortiervorrichtung sowie entsprechendes sortierverfahren
DE68928471T2 (de) Erkennungs- und Analysesystem von runden Objekten
EP3977430A1 (de) Verfahren und vorrichtung zur detektion von rauch
DE102018205561A1 (de) Vorrichtung zur Klassifizierung von Signalen
DE102016100134A1 (de) Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen
DE69821225T2 (de) Verfahren zur kontrolle der oberfläche einer laufenden materialbahn mit vorklassifikation von ermittelten unregelmässigkeiten
DE112021004118T5 (de) Adaptives system und verfahren zur inspektion von abgebildeten gegenständen
DE69617150T2 (de) Prüfung von Behältern mit FPGA-Logik
DE102023107476A1 (de) Ultraschall-defekterkennung und klassifikationssystem unter verwendung von maschinellem lernen
EP2359308B1 (de) Vorrichtung zur erzeugung und/oder verarbeitung einer objektsignatur, überwachungsvorrichtung, verfahren und computerprogramm
EP3948649A1 (de) Maskierung von in einem bild enthaltenen objekten
DE102021124348A1 (de) Verfahren zum Bestimmen, ob ein Transportgut in einem Überwachungsbereich angeordnet ist
DE102019117680A1 (de) Automatisiertes segmentierungsverfahren für die qualitätsprüfung
DE102016212486A1 (de) Verfahren und Einrichtung zur Kategorisierung einer Bruchfläche eines Bauteils
DE102021204040A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B65G0043080000

Ipc: G06T0001400000

R081 Change of applicant/patentee

Owner name: 36ZERO VISION GMBH, DE

Free format text: FORMER OWNER: DEUTSCHDATA KARAMAT UND ZIESCHE GMBH, 80331 MUENCHEN, DE

R082 Change of representative

Representative=s name: AAP PATENTANWALTSKANZLEI GRABOVAC, DE

R082 Change of representative

Representative=s name: AAP PATENTANWALTSKANZLEI GRABOVAC, DE