DE102018105334B4 - Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren zur Berechnung der Bildwahrscheinlichkeit eines aus einem Eingangsbild erfassten Zielobjekts - Google Patents

Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren zur Berechnung der Bildwahrscheinlichkeit eines aus einem Eingangsbild erfassten Zielobjekts Download PDF

Info

Publication number
DE102018105334B4
DE102018105334B4 DE102018105334.7A DE102018105334A DE102018105334B4 DE 102018105334 B4 DE102018105334 B4 DE 102018105334B4 DE 102018105334 A DE102018105334 A DE 102018105334A DE 102018105334 B4 DE102018105334 B4 DE 102018105334B4
Authority
DE
Germany
Prior art keywords
image
target object
machine learning
learning
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018105334.7A
Other languages
English (en)
Other versions
DE102018105334A1 (de
Inventor
Yuuta Namiki
Fumikazu Warashina
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018105334A1 publication Critical patent/DE102018105334A1/de
Application granted granted Critical
Publication of DE102018105334B4 publication Critical patent/DE102018105334B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/955Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)

Abstract

Bildverarbeitungsvorrichtung (121), die ein Eingangsbild erhält undauf Basis eines Erfassungsalgorithmus ein Bild eines Zielobjekts (101) erfasst,dadurch gekennzeichnet, dasseine maschinelle Lerneinrichtung (2) bereitgestellt ist, die- ein maschinelles Lernen unter Verwendung mehrerer Teilbilder vornimmt, die aus dem Eingangsbild ausgeschnitten wurden, basierend auf einem Erfassungsergebnis des Bilds des Zielobjekts (101),wobei die mehreren Teilbilder, nachdem sie aus dem Eingangsbild von Bereichen ausgeschnitten wurden, die durch die erfasste Position, Lage, Größe und Verdrehung vorab festgelegt wurden, durch Standardisierung erhalten werden, um mindestens eine ihrer Größen und Verdrehungen in Übereinstimmung mit einem Modellmuster anzupassen;wobei die maschinelle Lerneinrichtung (2) das maschinelle Lernen stufenweise vornimmt, indem bei der Erzeugung von ersten Trainingsdaten in einer ersten Stufe Erfassungsparameter weit gefasst werden, und bei der Erzeugung von weiteren Trainingsdaten mit dem Übergang zu späteren Stufen allmählich verengt werden;und- eine Bildwahrscheinlichkeit des Zielobjekts (101) berechnet.

Description

  • Allgemeiner Stand der Technik
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Bildverarbeitungsvorrichtung und ein Bildverarbeitungsverfahren zur Berechnung der Bildwahrscheinlichkeit eines aus einem Eingangsbild erfassten Zielobjekts.
  • 2. Beschreibung des Stands der Technik
  • Bisher wird zum Beispiel bei der Erfassung eines Bilds eines bestimmten Zielobjekts aus einem Bild in dem Sichtfeld einer Bildaufnahmevorrichtung unter Verwendung einer Bildverarbeitungsvorrichtung ein Feature-Matching zwischen Standardinformationen, die das Zielobjekt ausdrücken, (als Modellmuster oder Vorlage oder dergleichen bezeichnet) und dem durch die Bildaufnahmevorrichtung erlangten Eingangsbild vorgenommen. Im Allgemeinen wird bestimmt, dass die Erfassung des Zielobjekts erfolgreich ist, wenn zum Beispiel der Übereinstimmungsgrad zwischen dem Modellmuster und dem Bild des Zielobjekts ein bestimmtes Ausmaß (einen bestimmten Schwellenwert) überschritten hat.
  • Wenn nun der verwendete Schwellenwert für den Übereinstimmungsgrad zu niedrig ist, werden als Zielobjekt ungeeignete Objekte erfasst (Fehlerfassung), und wenn andererseits der Schwellenwert für den Übereinstimmungsgrad zu hoch ist, werden Objekte, deren Erfassung als Zielobjekt erwünscht ist, nicht erfasst (Nichterfassung). Daher wird die Einstellung der Erfassungsparameter, die den Schwellenwert für den Übereinstimmungsgrad enthalten, zum Beispiel durch einen Betreiber unter mehrmaliger Wiederholung der Erfassung durch Ausprobieren vorgenommen.
  • Doch bisher offenbart zum Beispiel die Patentoffenlegungsschrift JP 2016 - 57 918 A eine Bildverarbeitungsvorrichtung, die unter Verwendung mehrerer Lernbilder und mehrerer Lehrdaten eine Bereichsaufteilung erlernt, auf Basis des erlernten Ergebnisses eine Bereichsaufteilung vornimmt, Bereiche, die als Ergebnis der Vornahme der Bereichsaufteilung richtig aufgeteilt werden konnten, und Bereiche, die nicht richtig aufgeteilt werden konnten, kombiniert und ein neues Lernbild erzeugt und unter Verwendung dieses Bilds erneut eine Bereichsaufteilung erlernt.
  • Außerdem offenbart bisher zum Beispiel die Patentoffenlegungsschrift JP 2010 - 191 772 A eine Lernvorrichtung, die das Lernen so vornimmt, dass sie ein positives Bild, in dem ein Objekt abgebildet ist, und ein negatives Bild, in dem es nicht abgebildet ist, zu einem Erzeugungsbild ausführt, aus dem Erzeugungsbild Merkmalspunkte extrahiert, das Erzeugungsbild einer Filterverarbeitung durch mehrere Filter unterzieht und ein mehrfach gefiltertes Bild erlangt, aus dem gefilterten Bild eine statistische Größe eines Pixelwerts für jeden von mehreren kleinen Bereichen in der Umgebung des Merkmalspunkts ermittelt, und die ermittelten statistischen Größen als Merkmalsgrößen der Merkmalspunkte ansetzt und das Identifikationsobjekt richtig identifizieren kann.
  • Ferner wird bisher zum Beispiel in der Patentoffenlegungsschrift JP 2016 - 62 524 A ein Datenverarbeitungssystem offenbart, das ein Eingangsbild in mehrere Bereiche aufteilt, jedem der aufgeteilten Bereiche ein Lehrlabel anfügt, auf Basis von Bildern, in denen das Bild in dem Bereich ausgeschnitten wurde, und der Lehrlabels ein Lernen vornimmt, und auf Basis des erlernten Modells Bereiche, die das Zielobjekt enthalten, aus dem Bild erfasst.
  • Ferner wird bisher zum Beispiel in der Patentschrift Nr. JP 5234833 B2 eine Gesichtsausdruckserkennungsvorrichtung offenbart, die aus Bilddaten Bereiche extrahiert, in denen das Gesicht eines Menschen mit einem Gesichtsausdruck, der einem bestimmten Schlüsselbegriff entspricht, abgebildet ist, und durch Eingeben der aus diesen Bereichen erlangten Merkmalsgrößen in eine Lernvorrichtung ein Lernen vornimmt und dadurch einen Unterscheider bildet, der Gesichtsausdrücke eines Menschen unterscheiden kann.
  • Außerdem wird bisher zum Bespiel in der Internationalen Veröffentlichung WO 2014/084218 A1 eine Zielobjekterkennungsvorrichtung offenbart, die ein Eingangsbild in mehrere Bereiche aufteilt, eine Maske anwendet, wenn in aufgeteilten Subbildern kein Teil eines Zielobjekts abgebildet ist, aus den anderen Bereichen als jenen, in denen die Maske angewendet wurde, Merkmale extrahiert und in eine Lernvorrichtung eingibt und dadurch ein Lernen vornimmt und durch einen durch das Lernen ermöglichten Unterscheider unterscheidet, ob das Zielobjekt in bestimmten Bereichen in dem Bild abgebildet ist.
  • Wie oben erwähnt wird zum Beispiel die Einstellung der Erfassungsparameter, die den Schwellenwert für den Übereinstimmungsgrad zwischen einem Modellmuster und dem Bild eines Zielobjekts enthalten, zum Beispiel durch einen Betreiber unter mehrmaliger Wiederholung der Erfassung durch Ausprobieren vorgenommen. Dabei hängt die Definition des Übereinstimmungsgrads von dem Erfassungsalgorithmus ab; mit anderen Worten werden für den Übereinstimmungsgrad nur Merkmale der verwendeten Bilder bei einem bestimmten Erfassungsalgorithmus verwendet. Wenn zum Beispiel wie bei der generalisierten Hough-Transformation ein Algorithmus angewendet wird, der ein Zielobjekt als Merkmale von Kantenpunkten in einem Bild erfasst, wird der Übereinstimmungsgrad auf Basis des Übereinstimmungszustands der Kantenpunkte berechnet; doch auch wenn die Kantenpunkte übereinstimmen, kommt es vor, dass Stellen erfasst werden, die bei Betrachtung durch einen Menschen offensichtlich falsch sind.
  • Das heißt, es ist zum Beispiel mühsam, die Erfassungsparameter so einzustellen, dass nur von dem Betreiber beabsichtigte Objekte erfasst werden. Außerdem kommt es vor, dass durch den innerhalb des Erfassungsalgorithmus berechneten Überstimmungsgrad nicht dafür gesorgt werden kann, dass nur von dem Betreiber beabsichtigte Objekte erfasst werden. In einem solchen Fall ist denkbar, auf Basis des Erfassungsergebnisses des Erfassungsalgorithmus erneut eine Wahrscheinlichkeit (die Wahrscheinlichkeit, dass das Bild des Zielobjekts richtig ist, oder den Grad, der die Sicherheit des Bilds des Zielobjekts zeigt, die Plausibilität des Erfolgs bei der Erfassung) zu berechnen und unter Verwendung dieser Wahrscheinlichkeit zu bestimmen, ob eine Erfassung erfolgt ist oder nicht. Beispielsweise gibt es auch Fälle, in denen es günstiger ist, die Wahrscheinlichkeit zu berechnen, während den Merkmalen bestimmter Stellen ein hohes Gewicht gegeben wird und anderen Stellen ein geringes Gewicht gegeben wird. Ferner sind auch Fälle möglich, in denen es günstiger ist, die Wahrscheinlichkeit unter Verwendung anderer Merkmale als der in dem Erfassungsalgorithmus verwendeten Merkmale zu berechnen (zu ermitteln).
  • Auch der Artikel „Improving part based object detection by unsupervised, online boosting“ von Bo Wu und Ram Nevatia, erschienen in 2007 IEEE Conference on Computer Vision and Pattern Recognition, IEEE, 2007, beschäftigt sich mit der bildbasierten Erkennung von Objekten. Dabei wird ein unüberwachtes Online-Lernverfahren vorgeschlagen, welches ein Orakel zum automatischen Segmentieren und Labeln von Objekten, sowie einen Online-Lernalgorithmus aufweist, der einen bestehenden Klassifikator basierend auf einzelnen Samples unter Verwendung der Ergebnisse des Orakels modifiziert.
  • Die US 2016/0026900 A1 zeigt eine Bildverarbeitungsvorrichtung, die das Folgende aufweist: eine Eingangsempfangseinheit, die ein Lernbild und ein Label für eine richtige Antwort empfängt, eine Verarbeitungseinheit, die Klassifikatordaten und ein Verarbeitungszielbild erzeugt, und eine Speichereinheit. Dabei führt die Verarbeitungseinheit die folgenden Schritte aus: Erzeugen des Verarbeitungszielbilds, das die Gesamtheit oder ein Teil des Lernbildes ist; Berrechnen einer Merkmalsmenge des Verarbeitungszielbildes; Erzeugen der Klassifikatordaten auf der Grundlage von Trainingsdaten, die eine Menge aus der Merkmalsmenge und dem Label für die richtige Antwort sind, das dem Lernbild zugewiesen ist, das der Merkmalsmenge entspricht; Erzeugen einer Bildgruppe auf der Grundlage des Lernbildes oder des Verarbeitungszielbildes; Klassifizieren jedes Bildes der Bildgruppe unter Verwendung der Klassifikatordaten, um eine Klassifizierungsbewertung jedes Bildes zu berechnen; und Neuerstellen des Verarbeitungszielbildes auf der Grundlage der Klassifizierungsbewertung und der Bildgruppe.
  • Die vorliegende Erfindung hat die Aufgabe, ausgehend von der US 2016/0026900 A1 eine verbesserte Bildverarbeitungsvorrichtung und ein Bildverarbeitungsverfahren bereitzustellen, wodurch die Bildwahrscheinlichkeit eines Zielobjekts passend berechnet wird und das Zielobjekt richtig erfasst werden kann.
  • Kurzdarstellung der Erfindung
  • Die Lösung der Aufgabe erfolgt durch eine Bildverarbeitungsvorrichtung mit den Merkmalen des Anspruchs 1 sowie durch ein Bildverarbeitungsverfahren mit den Merkmalen des Anspruchs 11. Vorteilhafte Weiterbildungen sind in den jeweiligen Unteransprüchen angegeben.
  • Einfache Erklärung der Zeichnungen
  • Die vorliegende Erfindung wird durch Bezugnahme auf die folgenden beiliegenden Zeichnungen noch klarer verstanden werden.
    • 1 ist eine Ansicht, die ein Beispiel für ein Werkzeugmaschinensystem, das eine Steuervorrichtung für einen optischen Sensor umfasst, in der eine Bildverarbeitungsvorrichtung der vorliegenden Erfindung angewendet wird, schematisch zeigt;
    • 2 ist eine Ansicht, die ein Beispiel für ein Robotersystem, das eine Steuervorrichtung für einen optischen Sensor umfasst, in der eine Bildverarbeitungsvorrichtung der vorliegenden Erfindung angewendet wird, schematisch zeigt;
    • 3 ist ein Blockdiagramm, das die vorliegende Ausführungsform der Bildverarbeitungsvorrichtung zeigt;
    • 4 ist eine Ansicht, die ein Beispiel für eine maschinelle Lerneinrichtung, die in der Bildverarbeitungsvorrichtung der vorliegenden Ausführungsform ausgebildet ist, schematisch zeigt;
    • 5 ist ein Blockdiagramm, das ein Beispiel für die in 4 gezeigte maschinelle Lerneinrichtung zeigt;
    • 6 ist ein Ablaufdiagramm, das ein Beispiel für die Modellmuster-Erstellungsverarbeitung durch die Bildverarbeitungsvorrichtung nach der vorliegenden Ausführungsform zeigt;
    • 7 ist eine Ansicht, die ein Beispiel für den Modellmuster-Bestimmungsbereich in einem aufgenommenen Bild zeigt;
    • 8 ist ein Ablaufdiagramm, das ein Beispiel für die Lernverarbeitung durch die Bildverarbeitungsvorrichtung nach der vorliegenden Ausführungsform zeigt;
    • 9 ist eine Ansicht zur Erklärung der Labelbestimmungsverarbeitung in dem in 8 gezeigten Ablaufdiagramm;
    • 10 ist ein Ablaufdiagramm zur Erklärung eines Beispiels für die Lernverarbeitung in dem in 8 gezeigten Ablaufdiagramm;
    • 11 ist eine Ansicht zur Erklärung eines Beispiels für die Teilbildausschneideverarbeitung in dem in 10 gezeigten Ablaufdiagramm;
    • 12 ist eine Ansicht zur Erklärung einer Abwandlung der Verarbeitung in der Bildverarbeitungsvorrichtung der vorliegenden Ausführungsform; und
    • 13A und 13B sind Ansichten zur Erklärung von weiteren Abwandlungen der Verarbeitung in der Bildverarbeitungsvorrichtung der vorliegenden Ausführungsform.
  • Ausführliche Erklärung
  • Nachstehend erfolgt unter Bezugnahme auf die beiliegenden Zeichnungen eine ausführliche Besprechung einer Ausführungsform der Bildverarbeitungsvorrichtung und des Bildverarbeitungsverfahrens nach der vorliegenden Erfindung. 1 ist eine Ansicht, die ein Beispiel für ein Werkzeugmaschinensystem 100A, das eine Steuervorrichtung für einen optischen Sensor umfasst, in der eine Bildverarbeitungsvorrichtung der vorliegenden Erfindung angewendet wird, schematisch zeigt, und 2 ist eine Ansicht, die ein Beispiel für ein Robotersystem 100B, das eine Steuervorrichtung für einen optischen Sensor umfasst, in der eine Bildverarbeitungsvorrichtung der vorliegenden Erfindung angewendet wird, schematisch zeigt.
  • In 1 zeigt das Bezugszeichen 101 ein Zielobjekt, 102 einen Werktisch, 110 einen optischen Sensor, 120 eine Steuervorrichtung für den optischen Sensor, und 121 eine Bildverarbeitungsvorrichtung. Bei dem Zielobjekt (ein Werkstück) 101 kann es sich um Objekte mit verschiedenen Formen aus verschiedenen Materialien wie Metall, Holz, Stein, Harz oder dergleichen handeln. Die Werkzeugmaschine (die Werkzeugmaschine selbst ist nicht dargestellt) ist eine Vorrichtung, um an diesen Zielobjekten 101 eine Bearbeitung wie Schneiden, Bohren, Schleifen, Polieren, Walzen, Schmieden, Biegen oder dergleichen vorzunehmen, und sie kann eine Drehbank, eine Bohrbank, eine Bohrmaschine, eine Fräsmaschine, eine Zahnradfräsmaschine, eine Schleifmaschine oder dergleichen sein. Es muss nicht betont werden, das sie auch CNC-Werkzeugmaschinen (computerisierte numerisch gesteuerte Werkzeugmaschinen) umfasst.
  • Wie in 1 gezeigt umfasst die Steuervorrichtung 120 für den optischen Sensor eine Bildverarbeitungsvorrichtung 121, und erhält sie zum Beispiel Eingangsbilddaten (ein Eingangsbild) von dem optischen Sensor 110, der an einer Stelle, an der er das auf dem Werktisch 102 angeordnete Zielobjekt 101 aufnehmen kann, fixiert eingerichtet ist. Dann nimmt die Werkzeugmaschine auf Basis des Ausgangs von der Steuervorrichtung 120 für den optischen Sensor sowie eines eingegebenen bestimmten Programms eine bestimmte Verarbeitung an dem Zielobjekt 101 vor.
  • Der optische Sensor 110 kann eine elektronische Kamera sein, die ein Aufnahmeelement wie eine CCD (ladungsgekoppelte Vorrichtung) oder dergleichen aufweist, das ein Graustufenbild oder ein Farbbild aufnimmt, doch kann er zum Beispiel auch eine Stereokamera oder ein 3D-Sensor sein, die bzw. der ein Distanzbild oder eine dreidimensionale Punktgruppe erlangen kann. Die dreidimensionale Punktgruppe kann eine Punktgruppe auf der Konturlinie des Zielobjekts 101 sein, aber auch eine Punktgruppe auf der Fläche des Zielobjekts 101 sein.
  • In 2 bezeichnet das Bezugszeichen 111 einen Roboter, 112 eine Hand und 113 eine Robotersteuervorrichtung. Wie in 2 gezeigt umfasst die Steuervorrichtung 120 für den optischen Sensor die Bildverarbeitungsvorrichtung 121, und erhält sie zum Beispiel Eingangsbilddaten (ein Eingangsbild) einer Aufnahme des auf dem Werktisch 102 angeordneten Zielobjekts 101 durch den an einer bestimmten Stelle an der Fingerspitze des Roboters 111 angebrachten optischen Sensor 110. Dann steuert die Robotersteuervorrichtung 113 den Roboter 111 und die Hand 112 und dergleichen auf Basis des Ausgangs von der Steuervorrichtung 120 für den optischen Sensor und eines eingegebenen bestimmten Programms und wird eine bestimmte Handlung an dem Zielobjekt 101 vorgenommen.
  • 3 ist ein Blockdiagramm, das die vorliegende Ausführungsform der Bildverarbeitungsvorrichtung zeigt. Wie in 3 gezeigt weist die Bildverarbeitungsvorrichtung 121 eine Bildverarbeitungseinheit 122, die eine maschinelle Lerneinrichtung 2 umfasst, eine Modellmusterspeichereinheit 126 und eine Erfassungsergebnisspeichereinheit 127 auf. An die Bildverarbeitungsvorrichtung 121 sind der optische Sensor 110, ein Steuerpult 131 und eine Anzeigevorrichtung 132 und dergleichen angeschlossen. Die Bildverarbeitungseinheit 122 umfasst neben der maschinellen Lerneinrichtung 2 eine Zielobjekterfassungseinheit 123, eine Entsprechungspunktwahleinheit 124 und eine Modellmusterkorrektureinheit 125. Die Zielobjekterfassungseinheit 123 verwendet das erlernte Modellmuster und erfasst das Zielobjekt aus den Eingangsdaten (dem Eingangsbild), und die Entsprechungspunktwahleinheit 124 beurteilt und wählt zum Beispiel, ob ein extrahierter Merkmalspunkt als diesem Merkmalspunkt entsprechender Entsprechungspunkt gültig ist oder nicht. Die Modellmusterkorrektureinheit 125 nimmt zum Beispiel eine Korrekturverarbeitung des Modellmusters vor.
  • Die Modellmusterspeichereinheit 126 speichert zum Beispiel ein erlerntes Modellmuster. Die Erfassungsergebnisspeichereinheit 127 speichert das Erfassungsergebnis des unter Verwendung des erlernten Modellmusters aus den Eingangsdaten (dem Eingangsbild) erfassten Zielobjekts. Die einzelnen in der Bildverarbeitungsvorrichtung 121 enthaltenen Einheiten werden durch Software an einem Computer, der eine MPU (Mikroverarbeitungseinheit), einen ROM (Nurlesespeicher) und einen RAM (Direktzugriffsspeicher) umfasst, ausgeführt. Die maschinelle Lerneinrichtung 2 wird später unter Bezugnahme auf Zeichnungen ausführlich beschrieben.
  • Der optische Sensor 110 ist über ein Kommunikationskabel an die Bildverarbeitungsvorrichtung 121 angeschlossen und gibt zum Beispiel aufgenommene Bilddaten an die Bildverarbeitungsvorrichtung 121 aus. Das Steuerpult 131 ist über ein Kommunikationskabel an die Bildverarbeitungsvorrichtung 121 angeschlossen und wird zum Beispiel für Einstellungen und dergleichen zur Erfassung des Zielobjekts 101 durch die Bildverarbeitungsvorrichtung 121 verwendet. Die Anzeigevorrichtung 132 ist durch ein Kommunikationskabel an die Bildverarbeitungsvorrichtung 121 angeschlossen und zeigt zum Beispiel das durch den optischen Sensor 110 aufgenommene Bild oder die mittels des Steuerpults 131 eingestellten Einstellinhalte an.
  • Es muss nicht betont werden, dass der optische Sensor 110, das Steuerpult 131 und die Anzeigevorrichtung 132 auch einstückig mit der Bildverarbeitungsvorrichtung 121 ausgeführt sein können und verschiedene Abwandlungen und Änderungen möglich sind. Die maschinelle Lerneinheit 2 (die Bildverarbeitungsvorrichtung 121) kann zum Beispiel auch in die Robotersteuervorrichtung 113 des Robotersystems 100B von 2 aufgenommen sein, doch können die Steuervorrichtung 120 für den optischen Sensor und die Robotersteuervorrichtung 113 auch als gesonderte unabhängige Vorrichtungen ausgebildet werden.
  • 4 ist eine Ansicht, die ein Beispiel für die maschinelle Lerneinrichtung, die in der Bildverarbeitungsvorrichtung der vorliegenden Ausführungsform ausgebildet ist, schematisch zeigt. Wie in 4 gezeigt umfasst die maschinelle Lerneinrichtung 2 eine Zustandsbeobachtungseinheit 21, eine Lerneinheit 22, eine Ausgangsverwendungseinheit 23 und eine Labelerlangungseinheit 24. Die Zustandsbeobachtungseinheit 21 erhält zum Beispiel die Erfassungsposition, die Lage, die Größe und ein Bild der erfassten Stelle als Eingangsdaten von der Umgebung 1, und die Labelerlangungseinheit 24 erhält zum Beispiel den Erfolg oder Misserfolg der Erfassung. Die Ausgangsverwendungseinheit 23 berechnet (ermittelt) zum Beispiel die Wahrscheinlichkeit (die Wahrscheinlichkeit, dass das Bild des Zielobjekts richtig ist, oder den Grad, der die Sicherheit des Bilds des Zielobjekts zeigt, die Plausibilität des Erfolgs bei der Erfassung). Die Ausgangsverwendungseinheit 23 kann neben der Berechnung der Wahrscheinlichkeit mit verschiedenen anderen Funktionen, bei denen der Ausgang der maschinellen Lerneinheit 22 verwendet wird, versehen werden.
  • Das heißt, die Labelerlangungseinheit 24 erlangt ein Label (Lehrdaten), verwendet zum Beispiel das Eingangsbild (die Bilddaten), und erhält für jedes von wenigstens einem aus dem Eingangsbild ausgeschnittenen Teilbild eine Kombination mit einem Lehrlabel (OK/NG, Erfolg/Misserfolg, ganzzahliger Wert, reeller Wert). Als Bereich für das Ausschneiden des Teilbilds ist zum Beispiel der Bereich, der das Modellmuster umgibt, möglich, doch kann auch ein vorab relativ in Bezug auf das Modellmuster festgelegter Bereich angewendet werden. Die Lerneinheit 22 erhält das Teilbild, wofür das Bild in dem Bereich ausgeschnitten wurde, und das Lehrlabel, nimmt ein maschinelles Lernen (maschinelles Lernen: überwachtes Lernen) vor, erstellt ein Lernmodell, und berechnet unter Verwendung dieses Lernmodells die Bildwahrscheinlichkeit des Zielobjekts 101 aus dem Teilbild.
  • Hier nimmt die Lerneinheit ein „überwachtes Lernen“ vor und erstellt auf Basis von durch die Zustandsbeobachtungseinheit 21 beobachteten Zustandsvariablen (Erfassungsposition, Lage, Größe und Teilbild der erfassten Stelle) sowie durch die Labelerlangungseinheit 24 erlangter Label (Erfolg/Misserfolg der Erfassung: OK/NG) ein Lernmodell. In 4 wird als Umgebung 1 beispielhaft die an dem Werkzeugmaschinensystem 100A ausgebildete Bildverarbeitungsvorrichtung 121 (die Steuervorrichtung 120 für den optischen Sensor) erklärt, doch besteht selbstverständlich keine Beschränkung darauf.
  • 5 ist ein Blockdiagramm, das ein Beispiel für die in 4 gezeigte maschinelle Lerneinrichtung zeigt, wobei die Lerneinheit 22 durch eine Fehlerberechnungseinheit 221 und eine Lernmodellaktualisierungseinheit 222 gebildet ist. Wie in 5 gezeigt umfasst die Lerneinheit 22 die Fehlerberechnungseinheit 221, die den Ausgang der Zustandsbeobachtungseinheit 21 (Zustandsvariable) und Label (Lehrdaten) erhält und einen Fehler berechnet, und die Lernmodellaktualisierungseinheit 222, die den Ausgang der Zustandsbeobachtungseinheit und den Ausgang der Fehlerberechnungseinheit 221 erhält und das Lernmodell aktualisiert. Die maschinelle Lerneinrichtung 2 (die Lerneinheit 22) ist nicht auf die Vornahme des überwachten Lernens beschränkt, sondern kann auch ein Lernen, das nur mit „Erfolg“ (OK) versehene Kombinationen verwendet, vornehmen und für die Teilbilder, die für dieses Lernen verwendet wurden, als Wahrscheinlichkeit ausgeben, in welchem Ausmaß sie sich unterscheiden, oder für alle Erfassungen OK ansetzen und das Lernen (unüberwachtes Lernen) darauf basierend vornehmen. Das heißt, es wird möglich, dass die maschinelle Lerneinrichtung 2 durch enges (strenges) Fassen der bei dem Erfassungsalgorithmus verwendeten Parameter nur die ungefähr als OK angesehenen Bilddaten verwendet und ein unüberwachtes Lernen vornimmt.
  • Die in die Fehlerberechnungseinheit 221 eingegebenen Label entsprechen dem Ausgang der Labelerlangungseinheit 24 in 4. Die Wahrscheinlichkeitsberechnungseinheit 25 entspricht zum Beispiel der Ausgangsverwendungseinheit 23 in der oben besprochenen 4 und berechnet (ermittelt) auf Basis des Ausgangs der Lerneinheit 22 (der Lernmodellaktualisierungseinheit 222) die Wahrscheinlichkeit (die Wahrscheinlichkeit, dass das Bild des Zielobjekts richtig ist, oder den Grad, der die Sicherheit des Bilds des Zielobjekts zeigt, die Plausibilität des Erfolgs bei der Erfassung) und gibt diese aus. Auf diese Weise kann durch die Bildverarbeitungsvorrichtung der vorliegenden Ausführungsform die Bildwahrscheinlichkeit des Zielobjekts passend berechnet werden und das Zielobjekt richtig erfasst werden.
  • Die maschinelle Lerneinrichtung 2 kann auch einen Allzweck-Rechner oder Prozessor verwenden, doch wenn zum Beispiel eine GPGPU (Allzweck-Berechnung auf Grafikprozessoreinheiten) oder ein großformatiger PC-Cluster oder dergleichen verwendet wird, wird eine schnellere Verarbeitung möglich. Außerdem kann die maschinelle Lerneinrichtung 2 mit wenigstens einer anderen maschinellen Lerneinrichtung verbunden werden und ist ein wechselseitiger Austausch oder eine gemeinsame Nutzung des durch die Lerneinheit 22 der maschinellen Lerneinrichtung 2 erstellten Lernmodells mit der wenigstens einen anderen maschinellen Lerneinrichtung möglich. Es muss nicht betont werden, dass die maschinelle Lerneinrichtung 2 (die Lerneinheit 22) zum Beispiel ein durch die oben genannte GPGPU oder dergleichen gebildetes neuronales Netzwerk enthalten kann.
  • Um eine Fehlerfassung eines Hintergrundbilds als Bild (Iw) des Zielobjekts 101 zu vermeiden, können zum Beispiel zufällig aus dem Hintergrundbild erlangte Stellen als Nichterfassungs-Lehrdaten hinzugefügt werden. Bei der Lernberechnung und der Berechnung der Wahrscheinlichkeit nach dem Lernen kann ein durch Skalieren oder Scherverformen gemäß der Größe des Erfassungsergebnisses geändertes Bild als Bild des vorab für die Erfassungsposition und Lage festgelegten Bereichs eingesetzt werden. Konkret wird es möglich, das Lernen rasch voranzutreiben, wenn zum Beispiel bei einer Erfassung des Zielobjekts mit dem Doppelten des gelehrten Modellmusters das Bild des bestimmten Bereichs auf das Doppelte vergrößert verwendet wird.
  • Außerdem kann das Lernen durch Verwenden eines Merkmals (zum Beispiel einer Kante), das durch das gleiche Verfahren wie das bei dem Erfassungsalgorithmus verwendete Merkmalsextraktionsverfahren extrahiert wurde, oder eines Merkmals (zum Beispiel der Helligkeit oder des Helligkeitsgradienten), das durch ein anderes Verfahren als das bei dem Erfassungsalgorithmus verwendete Merkmalsextraktionsverfahren extrahiert wurde, aus dem Bild des Bereichs, der vorab für die Erfassungsstelle und die Lage festgelegt wurde, rascher als bei Verwendung des Bilds, so wie es ist, vorangetrieben werden.
  • Ferner wird das Lernen stufenweise vorgenommen und werden die Lehrdaten bei der ersten Stufe unter weitem Fassen der Erfassungsparameter (mit einem großen Fehlerbereich) erstellt und die Erfassungsparameter im Verlauf des Lernens allmählich verengt (der Fehlerbereich verkleinert). Dann wird die Wahrscheinlichkeit nach dem ersten Lernen durch das neu erlernte Berechnungsverfahren berechnet und das Ergebnis verwendet. Dadurch kann das Lernen vorangetrieben werden, ohne dass zu viele Fehlerfassungen auftreten.
  • Durch die Wahrscheinlichkeit, die durch das erlernte Berechnungsverfahren berechnet wurde, kann dann der Schwellenwert für die Bestimmung der Erfassung oder der Nichterfassung automatisch festgelegt werden. Die Wahrscheinlichkeit kann eine skalare Größe sein oder eine Vektorgröße sein. Oder die maschinelle Lerneinrichtung 2 kann nicht die Wahrscheinlichkeit ausgeben, sondern zum Beispiel in der maschinellen Lerneinrichtung 2 den Erfolg oder Misserfolg (OK/NG) der Erfassung bestimmen und direkt ein Label ausgeben. Nachstehend wird die Verarbeitung durch die Bildverarbeitungsvorrichtung nach der vorliegenden Ausführungsform ausführlich besprochen.
  • 6 ist ein Ablaufdiagramm, das ein Beispiel für die Modellmuster-Erstellungsverarbeitung durch die Bildverarbeitungsvorrichtung nach der vorliegenden Ausführungsform zeigt, und 7 ist eine Ansicht, die ein Beispiel für den Modellmuster-Bestimmungsbereich in einem aufgenommenen Bild zeigt. Wie in 6 gezeigt wird bei Beginn der Modellmuster-Erstellungsverarbeitung in Schritt ST11 ein Zielobjekt 101 auf dem Werkstisch 102, das als Modellmuster erlernt werden soll, durch den optischen Sensor (die Kamera) 110 aufgenommen, und zu Schritt ST12 übergegangen. Vorzugsweise wird so vorgegangen, dass die Positionsbeziehung zwischen dem optischen Sensor 110 und dem Zielobjekt 101 jener bei der Erfassung eines Zielobjekts 101 bei der tatsächlichen Tätigkeit oder dergleichen gleich wird.
  • In Schritt ST12 wird wie in 7 gezeigt der Bereich Ia in dem aufgenommenen Bild, in dem das Bild Iw des Zielobjekts 101 abgebildet ist, durch ein Rechteck als Mustermodellbestimmungsbereich bestimmt. Es muss nicht betont werden, dass die Verarbeitung zur Bestimmung des Mustermodellbereichs Ia in Schritt ST12 nicht auf einen wie in 7 gezeigten Rechteckbereich beschränkt ist, sondern auch ein kreisförmiger oder elliptischer Bereich möglich ist. Das heißt, in 7 wird in dem aufgenommenen Bild ein Bildkoordinatensystem definiert und der rechteckige Modellmusterbestimmungsbereich Ia so festgelegt, dass er das Bild des Zielobjekts 101 in diesem Bildkoordinatensystem enthält. Die Verarbeitung zur Bestimmung des Modellmusterbestimmungsbereichs Ia kann zum Beispiel mittels Eingaben durch den Betreiber (Verwender) an dem Steuerpult 131, während er das Bild durch die Anzeigevorrichtung 132 betrachtet, vorgenommen werden, doch kann zum Beispiel auch die Bildverarbeitungseinheit 122 Stellen mit einem großen Helligkeitsgradienten in dem Bild als Kontur des Bilds Iw des Zielobjekts 101 ermitteln und den Modellmusterbestimmungsbereich Ia automatisch so bestimmen, dass dieses Bild Iw darin enthalten ist.
  • Dann wird zu Schritt ST13 übergegangen und werden zum Beispiel Kantenpunkte in dem Bereich des Modellmusterbestimmungsbereichs Ia als Merkmalspunkte extrahiert und physikalische Größen wie die Position, die Lage (die Richtung des Helligkeitsgradienten) und die Größe des Helligkeitsgradienten usw. ermittelt. Es ist zum Beispiel auch möglich, in dem bestimmten Bereich ein Modellmusterkoordinatensystem zu definieren und die Position und die Lage der Kantenpunkte von Werten, die durch das Bildkoordinatensystem ausgedrückt sind, in Werte, die durch das Modellmusterkoordinatensystem ausgedrückt sind, umzuwandeln.
  • Dann wird zu Schritt S14 übergegangen und werden die physikalischen Größen der extrahierten Kantenpunkte als Merkmalspunkte, die das Modellmuster bilden, in der Modellmusterspeichereinheit 126 gespeichert. Bei der obigen Erklärung wurden Kantenpunkte als Merkmalspunkte verwendet, doch braucht nicht betont zu werden, dass die Merkmalspunkte nicht auf Kantenpunkte beschränkt sind. Es ist auch möglich, aus dem Bild Iw des Zielobjekts 101 Kantenpunkte oder SIFT(skaleninvariante Merkmalstransformations)-Merkmalspunkte oder dergleichen zu extrahieren und nicht als Merkmalspunkte, die das Modellmuster bilden, einzusetzen, sondern das Modellmuster durch derartiges Anordnen von geometrischen Figuren wie Linienabschnitten, Rechtecken, Kreisen oder dergleichen, dass sie der Konturlinie des in dem Bild Iw abgebildeten Zielobjekt 101 entsprechen, zu erstellen. In diesem Fall werden die Merkmalspunkte zum Beispiel in passenden Abständen auf den geometrischen Formen, die die Konturlinie bilden, eingerichtet.
  • Ferner kann das Modellmuster auch auf Basis von CAD-Daten oder dergleichen erstellt werden, wobei das Modellmuster im Fall von zweidimensionalen CAD-Daten durch das gleiche Verfahren wie das Verfahren, das geometrische Figuren verwendet, erstellt wird, während im Fall von dreidimensionalen CAD-Daten die durch die CAD-Daten ausgedrückte Form des Zielobjekts auf ein Bild projiziert wird und aus dem projizierten Bild Merkmalspunkte extrahiert werden und als Merkmalspunkte eingesetzt werden können.
  • 8 ist ein Ablaufdiagramm, das ein Beispiel für die Lernverarbeitung durch die Bildverarbeitungsvorrichtung nach der vorliegenden Ausführungsform zeigt. Wie in 8 gezeigt wird bei Beginn der Lernverarbeitung zunächst in Schritt ST21 die Erstellung (das Lehren) eines Modellmusters vorgenommen, und dann zu Schritt ST22 übergegangen und die Bestimmung der Eingangsbilder vorgenommen. Hier wird das Modellmuster in Schritt ST21 unter Verwendung der durch die Kamera (den optischen Sensor) 110 aufgenommenen Bilder gelehrt, und werden als Eingangsbilder in Schritt ST21 zum Beispiel mehrere Bilder, die das Bild Iw des Zielobjekts 101 enthalten, vorbereitet.
  • Als nächstes wird zu Schritt ST23 übergegangen und wird für jedes der Eingangsbilder eine Erfassung des Zielobjekts (101) vorgenommen und zu Schritt ST24 übergegangen. Da hier erwünscht ist, dass sowohl richtige Erfassungen als auch falsche Erfassungen erlangt werden können, wird die Erfassung bei weit gefassten Erfassungsparametern (mit einem vergrößerten Fehlerbereich) vorgenommen. Die Verarbeitung zur Erfassung des Zielobjekts in Schritt ST23 wird zum Beispiel für eine der Bildanzahl NI entsprechende Anzahl von Malen vorgenommen. Als Erfassungsparameter gibt es verschiedene Parameter wie zum Beispiel den Bereich der Größe in Bezug auf das Modellmuster, den Bereich der Scherverformung, den Bereich der erfassten Stelle, den Bereich des Winkels, den Prozentsatz der Übereinstimmung von Kantenpunkten des Modellmusters und Kantenpunkten des Bilds, den Schwellenwert für die Entfernung, damit ein Kantenpunkt des Modellmusters als mit einem Kantenpunkt des Bilds übereinstimmend angesehen wird, und den Schwellenwert für den Kontrast der Kantenpunkte.
  • In Schritt ST24 wird zum Beispiel das Erfassungsergebnis an der Anzeigevorrichtung 132 angezeigt und durch den Betreiber visuell überprüft und mit dem Label „Erfolg“ (OK) oder „Misserfolg“ (NG) versehen. 9 ist eine Ansicht zur Erklärung der Labelbestimmungsverarbeitung in dem in 8 gezeigten Ablaufdiagramm, und wie in 9 gezeigt versieht die Labelbestimmungsverarbeitung in Schritt ST24 die Bilder Iw1, Iw21, Iw22, Iw31 bis Iw33, ... von Zielobjekten 101, die in mehreren Modellmusterbestimmungsbereichen Ia1, Ia2, Ia3, ... enthalten sind, mit dem Label OK oder NG. Hier kann die Erfassung zum Beispiel auch unter engem Fassen der Erfassungsparameter vorgenommen werden und das Lernen nur durch richtige Erfassungsergebnisse vorgenommen werden. In diesem Fall ist zum Beispiel eine visuelle Überprüfung durch den Betreiber (das Versehen mit dem Label OK oder NG) nicht erforderlich. Es muss nicht betont werden, dass die Bilder Iw1, Iw21, Iw22, Iw31 bis Iw33, ... des Zielobjekts 101 auch einzeln aufgegriffen werden können und das Versehen mit dem Label OK oder NG für die jeweiligen aufgegriffenen Bilder Iw1, Iw21, Iw22, Iw31 bis Iw33, ... vorgenommen werden kann.
  • In 9 sind alle in den Modellmusterbestimmungsbereichen Ia1, Ia2, Ia3 enthaltenen Bilder Iw1, Iw21, Iw22, Iw31 bis Iw33 von Zielobjekten 101 mit den Labeln OK, NG und OK versehen, doch muss nicht betont werden, dass es wie in dem Modellmusterbestimmungsbereich Ian auch möglich ist, das Bild Iwnl eines Zielobjekts 101 als OK anzusetzen und Iwn2 als NG anzusetzen. Das Versehen mit dem Label OK oder NG kann zum Beispiel automatisch - mit OK (Erfolg), wenn das Erfassungsergebnis wenigstens einen Schwellenwert beträgt, und NG (Misserfolg), wenn es geringer als der Schwellenwert ist - vorgenommen werden, doch ist es auch möglich, dass der Betreiber Label nach der automatischen Vornahme der Labelvergabe korrigiert.
  • Dann wird zu Schritt ST25 übergegangen, das Lernen (maschinelles Lernen: zum Beispiel überwachtes Lernen) vorgenommen, und die Verarbeitung beendet. Das Lernen in diesem Schritt ST25 wird zum Beispiel durch die unter Bezugnahme auf 4 und 5 erklärte maschinelle Lerneinrichtung 2 vorgenommen. Die Lernverarbeitung in Schritt ST25 kann zum Beispiel für eine der Anzahl der Modellmuster NR entsprechende Anzahl von Malen vorgenommen werden oder für eine vorab festgelegte Anzahl von Malen vorgenommen werden. Wenn zum Beispiel nach dem Lernen eine Erfassung vorgenommen wird, wird die Wahrscheinlichkeit durch das erlernte Lernmuster berechnet und bestimmt, ob es sich um eine richtige Erfassung handelt oder nicht. Eine Berechnung der Wahrscheinlichkeit vor der Vornahme des Lernens kann zum Beispiel vorgenommen werden, um den bei der Fehlerrückführung während des Lernens verwendeten Fehler zu berechnen. Eine Berechnung der Wahrscheinlichkeit nach der Vornahme des Lernens kann zum Beispiel verwendet werden, um zu bestimmen, ob ein Bild eines tatsächlich erfassten Zielobjekts richtig ist oder nicht. Die Berechnungen der Wahrscheinlichkeit von Bildern von Zielobjekten vor und nach der Vornahme des Lernens können Bilder verwenden, für die Bilder von vorab festgelegten Bereichen in Bezug auf die Position und die Lage des erfassten Zielobjekts verarbeitet und umgewandelt wurden.
  • 10 ist ein Ablaufdiagramm zur Erklärung eines Beispiels für die Lernverarbeitung in dem in 8 gezeigten Ablaufdiagramm und dient zur Erklärung eines Beispiels für das in Schritt ST25 vorgenommene Lernen (unterstütztes Lernen). 11 ist eine Ansicht zur Erklärung eines Beispiels für die Teilbildausschneideverarbeitung in dem in 10 gezeigten Ablaufdiagramm.
  • Wie in 10 gezeigt werden bei Beginn der Lernverarbeitung in Schritt ST31 Teilbilder von Bereichen, die zum Beispiel durch die erfasste Position und Lage vorab festgelegt wurden, aus einem Eingangsbild ausgeschnitten, und wird zu Schritt ST32 übergegangen. Das heißt, in Schritt ST31 werden dann, wenn wie in 11 gezeigt in dem Eingangsbild (dem Bild des Bereichs Ia) zum Beispiel Bilder IwA bis IwD von vier Zielobjekten 101 enthalten sind, vier Bereiche IaA, IaB, IaC, IaD, die jeweils ein Teilbild IwA, IwB, IwC, IwD enthalten, ausgeschnitten.
  • In Schritt ST32 werden die einzelnen Pixelwerte der Teilbilder in das Lernmodell eingegeben und wird die Wahrscheinlichkeit berechnet. Hier ist als Bewertung zum Beispiel eine Einrichtung auf einen Wert von 0 bis 1 möglich.
  • Dann wird zu Schritt ST33 übergegangen und zum Beispiel bei einem Label des Erfassungsergebnisses „Erfolg“ (OK) 1,0 und umgekehrt bei „Misserfolg“ (NG) 0,0 angesetzt, die Abweichung zu der berechneten Wahrscheinlichkeit berechnet, und zu Schritt ST34 übergegangen. In Schritt ST34 wird das Lernmodell (werden die Parameter des Lernmodells) aktualisiert. Das heißt, in Schritt ST34 wird bei dem Lernmodell eine Fehlerrückführung des Fehlers vorgenommen und werden die Parameter des Lernmodells aktualisiert. Die Verarbeitung von Schritt ST31 bis ST34 wird zum Beispiel für eine der Anzahl der Erfassungsergebnisse NR entsprechende Anzahl von Malen ausgeführt.
  • Wenn nun zum Beispiel die Lernverarbeitung abgeschlossen ist, kann die maschinelle Lerneinrichtung 2, die gelernt hat, verwendet werden und eine Berechnung der Wahrscheinlichkeit vorgenommen werden. Das heißt, es wird eine Erfassung von Zielobjekten aus neu erlangten Eingangsbildern unter Verwendung des bereits vorhandenen Erfassungsalgorithmus vorgenommen, und aus den Eingangsbildern werden Teilbilder, in denen ein Zielobjekt enthalten ist, ausgeschnitten. Dann werden die jeweiligen Teilbilder in die maschinelle Lerneinrichtung 2 eingegeben und wird die Wahrscheinlichkeit berechnet. Auf Basis dieser berechneten Wahrscheinlichkeit kann beurteilt werden, ob Bilder von erfassten Zielobjekten richtige Erfassungsergebnisse sind oder nicht. Dadurch wird es auch möglich, nicht richtige Erfassungsergebnisse nicht zu verwenden, oder kann bei Detektion eines gewissen Zielobjekts auch beurteilt werden, ob dieses Zielobjekt qualitativ gut oder mangelhaft ist.
  • 12 ist eine Ansicht zur Erklärung einer Abwandlung der Verarbeitung in der Bildverarbeitungsvorrichtung der vorliegenden Ausführungsform. Nachdem Teilbilder von Bereichen, die durch die erfasste Position und Lage vorab festgelegt wurden, aus dem oben genannten Eingangsbild ausgeschnitten wurden, können die Teilbilder so umgewandelt werden, dass zum Beispiel die Position, die Lage, die Größe und die Verdrehung mit dem Modellmuster übereingestimmt wird. Das heißt, wenn wie in 12 gezeigt die Position, die Lage, die Größe und die Verdrehung für die Teilbilder IwAA, IwBB, IwCC, IwDD von vier Zielobjekten 101, für die Teilbilder von Bereichen, die durch die erfasste Position und Lage vorab festgelegt wurden, aus einem Eingangsbild (Ia) ausgeschnitten wurden, so umgewandelt (standardisiert) werden, dass sie mit dem Modellmuster übereingestimmt werden, kommt es dazu, dass die vier Bereiche IaAA, IaBB, IaCC, IaDD jeweils standardisierte Teilbilder IwAA', IwBB', IwCC', IwDD' enthalten.
  • Dadurch kommt es dazu, dass an gleichen Eingabestellen des Lernmodells Pixelwerte von gleichen Teilen (entsprechenden Teilen) eingegeben werden. Hier kann dann, wenn zum Beispiel die Erfassungsposition in einer kleineren Einheit als ein Pixel (Bildelement) erlangt werden kann, auch das Teilbild in einer kleineren Einheit als ein Pixel verschoben werden.
  • Ferner werden nach dem Ausschneiden der Teilbilder Merkmalsgrößen aus den Teilbildern extrahiert und diese Merkmalsgrößen in das Lernmodell eingegeben. Hier können die Merkmalsgrößen auch mehrere Arten sein, und können sie zum Beispiel der Helligkeitsgradient, die Neigung des Helligkeitsgradienten oder Kantenpunkte oder dergleichen sein. Es ist auch möglich, die aus den Teilbildern extrahierten Merkmalsgrößen und die Teilbilder gleichzeitig in das Lernmodell einzugeben.
  • Bei der Vornahme des Lernens können auch Ausschlussbereiche, die nicht für das Lernen verwendet werden, bestimmt werden. Wenn so Ausschlussbereiche in Bezug auf das Modellmuster bestimmt werden, können die Ausschlussbereiche an das Erfassungsergebnis angepasst verschoben werden. Dadurch können in den für das Lernen verwendeten Teilbildern Ausschlussbereiche bestimmt werden, und wird es zum Beispiel dann, wenn an Teilbildern eine Drehung oder eine Positionsanpassung vorgenommen wurde, möglich, die Ausschlussbereiche so, wie sie sind, zu verwenden.
  • Ferner kann die Lernverarbeitung als anderes Abwandlungsbeispiel stufenweise vorgenommen werden. Das heißt, zu Beginn (bei der ersten Stufe) werden Lehrdaten erstellt, während die Erfassungsparameter weit gefasst sind (der Fehlerbereich groß ist), und im Verlauf des Lernens (mit dem Übergang zu späteren Stufen) werden die Erfassungsparameter allmählich verengt (wird der Fehlerbereich verkleinert) und kann das Lernen erneut vorgenommen werden.
  • Konkret wird bei der anfänglichen Bildung von Lehrdaten zum Beispiel die Größe auf 0,9 bis 1,1 eingerichtet und der Prozentsatz der Übereinstimmung der Kanten auf wenigstens 60 % eingerichtet. Dann wird bei der Bildung der Lehrdaten für das nächste Lernen zum Beispiel die Größe auf 0,95 bis 1,05 eingerichtet und der Prozentsatz der Übereinstimmung der Kanten auf 80 % eingerichtet. Es muss nicht betont werden, dass diese Werte lediglich Beispiele darstellen.
  • 13A und 13B sind Ansichten zur Erklärung von weiteren Abwandlungen der Verarbeitung in der Bildverarbeitungsvorrichtung der vorliegenden Ausführungsform, wobei 13A einen Fall zeigt, in dem die Klassifikation in „Erfolg“ (OK) und „Misserfolg“ (NG) durch einen Schwellenwert Tha erfolgt, und 13B einen Fall zeigt, in dem der „Erfolg“ durch einen Schwellenwert Thb klassifiziert wird. Als weiteres Abwandlungsbeispiel für die Verarbeitung in der Bildverarbeitungsvorrichtung der vorliegenden Ausführungsform kann zum Beispiel der Schwellenwert für die Bestimmung der Erfassung oder der Nichterfassung mit der von der maschinellen Lerneinheit 2 ausgegebenen Wahrscheinlichkeit automatisch festgelegt werden. Dies kann zum Beispiel durch die folgende Vorgangsweise erfolgen.
  • Zunächst werden die Teilbilder in den Lehrdaten einzeln in die maschinelle Lerneinrichtung 2 eingegeben und wird der Übereinstimmungsgrad erlangt. Der erlangte Übereinstimmungsgrad wird demgemäß, ob das Label der „Erfolg“ oder der „Misserfolg“ ist, klassifiziert und gespeichert. Dann wird aus der Ansammlung der Übereinstimmungsgrade, deren Label der „Erfolg“ ist, und der Ansammlung der Übereinstimmungsgrade, deren Label der „Misserfolg“ ist, die jeweilige Wahrscheinlichkeitsverteilung ermittelt. Hier kann für die Wahrscheinlichkeitsverteilung zum Beispiel die normale Mischverteilung angewendet werden. Aus der ermittelten Wahrscheinlichkeitsverteilung wird der Schwellenwert für die Klassifikation in „Erfolg“ und „Misserfolg“ berechnet.
  • Hier ist es wie in 13A gezeigt möglich, den Wert Tha, an dem die beiden Wahrscheinlichkeitsverteilungen des „Erfolgs“ und des „Misserfolgs“ einander schneiden, als Schwellenwert festzulegen, doch kann auch ein Wert, der gleich oder höher als eine vorab festgelegte Wahrscheinlichkeit in der Wahrscheinlichkeitsverteilung des „Erfolgs“ wird, als Schwellenwert Thb festgelegt werden.
  • Ferner ist es auch möglich, den Lehrdaten andere Bereiche als das Zielobjekt in einem Eingangsbild als Beispiel für einen „Misserfolg“ hinzuzufügen. Dies kann zum Beispiel durch die folgende Vorgangsweise erfolgen. Zunächst wird zufällig ein Erfassungsergebnis erzeugt. Dann wird verifiziert, dass das Erfassungsergebnis für wenigstens einen bestimmten Bereich von einem richtigen Erfassungsergebnis abweicht. Zum Beispiel wird verifiziert, dass das Erfassungsergebnis beispielweise im Hinblick auf die Position, den Winkel oder den Maßstab im Raum der Position, des Winkels oder des Maßstabs für wenigstens einen bestimmten Bereich abweicht. Dann wird das Erfassungsergebnis mit dem Label „Misserfolg“ versehen gespeichert.
  • Dadurch können zum Beispiel andere Bereiche als das Zielobjekt in einem Eingabebild nur schwer als „Erfolg“ erfasst werden. Durch Vornehmen der Erfassung unter Verengen der Erfassungsparameter, Ansetzen des Erfassungsergebnisses als „Erfolg“, und Lernen unter Kombination mit automatisch hinzugefügten „Misserfolgen“ kann das Lernen (überwachtes Lernen) zum Beispiel ohne Anfügen von Labeln durch den Betreiber vorgenommen werden.
  • Durch die Bildverarbeitungsvorrichtung und das Bildverarbeitungsverfahren nach der vorliegenden Erfindung wird die Wirkung hervorgebracht, dass die Bildwahrscheinlichkeit eines Zielobjekts passend berechnet wird und das Zielobjekt richtig erfasst werden kann.
  • Im Vorhergehenden wurde eine Ausführungsform beschrieben, doch wurden alle angegebenen Beispiele und Bedingungen mit der Absicht angegeben, das Verständnis des Konzepts der Erfindung und der auf die Technik angewandten Erfindung zu unterstützen. Insbesondere ist nicht beabsichtigt, dass die angegebenen Beispiele und Bedingungen den Umfang der Erfindung beschränken. Derartige Angaben in der Beschreibung zeigen auch keine Vorteile und Nachteile der Erfindung. Es wurde eine ausführliche Erklärung einer Ausführungsform der Erfindung vorgenommen, doch sollte sich verstehen, dass verschiedene Änderungen, Ersetzungen oder Abwandlungen erfolgen können, ohne von dem Geist und dem Umfang der Erfindung abzuweichen.

Claims (14)

  1. Bildverarbeitungsvorrichtung (121), die ein Eingangsbild erhält und auf Basis eines Erfassungsalgorithmus ein Bild eines Zielobjekts (101) erfasst, dadurch gekennzeichnet, dass eine maschinelle Lerneinrichtung (2) bereitgestellt ist, die - ein maschinelles Lernen unter Verwendung mehrerer Teilbilder vornimmt, die aus dem Eingangsbild ausgeschnitten wurden, basierend auf einem Erfassungsergebnis des Bilds des Zielobjekts (101), wobei die mehreren Teilbilder, nachdem sie aus dem Eingangsbild von Bereichen ausgeschnitten wurden, die durch die erfasste Position, Lage, Größe und Verdrehung vorab festgelegt wurden, durch Standardisierung erhalten werden, um mindestens eine ihrer Größen und Verdrehungen in Übereinstimmung mit einem Modellmuster anzupassen; wobei die maschinelle Lerneinrichtung (2) das maschinelle Lernen stufenweise vornimmt, indem bei der Erzeugung von ersten Trainingsdaten in einer ersten Stufe Erfassungsparameter weit gefasst werden, und bei der Erzeugung von weiteren Trainingsdaten mit dem Übergang zu späteren Stufen allmählich verengt werden; und - eine Bildwahrscheinlichkeit des Zielobjekts (101) berechnet.
  2. Bildverarbeitungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die maschinelle Lerneinrichtung (2) eine Zustandsbeobachtungseinheit (21), die wenigstens eines aus einer Erfassungsposition, einer Lage, einer Größe und eines Bilds der erfassten Stelle im Zusammenhang mit dem Zielobjekt (101) als Zustandsvariable beobachtet, und eine Lerneinheit (22), die auf Basis der durch die Zustandsbeobachtungseinheit (21) beobachteten Zustandsvariablen ein Lernmodell zur Berechnung der Bildwahrscheinlichkeit des Zielobjekts (101) erstellt, umfasst und ein unüberwachtes Lernen vornimmt.
  3. Bildverarbeitungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die maschinelle Lerneinrichtung (2) eine Zustandsbeobachtungseinheit (21), die wenigstens eines aus einer Erfassungsposition, einer Lage, einer Größe und eines Bilds der erfassten Stelle im Zusammenhang mit dem Zielobjekt (101) als Zustandsvariable beobachtet, eine Labelerlangungseinheit (24), die Label „Erfolg“ oder „Misserfolg“, die jedem der mehreren Teilbilder angefügt werden, erlangt, und eine Lerneinheit (22), die auf Basis der durch die Zustandsbeobachtungseinheit (21) beobachteten Zustandsvariablen und der durch die Labelerlangungseinheit (24) erlangten Label ein Lernmodell zur Berechnung der Bildwahrscheinlichkeit des Zielobjekts (101) erstellt, umfasst und ein überwachtes Lernen vornimmt.
  4. Bildverarbeitungsvorrichtung nach Anspruch 3, dadurch gekennzeichnet, dass die Lerneinheit (22) eine Fehlerberechnungseinheit (221), die auf Basis der durch die Zustandsbeobachtungseinheit (21) beobachteten Zustandsvariablen und der durch die Labelerlangungseinheit (24) erlangten Label einen Fehler berechnet, und eine Lernmodellaktualisierungseinheit (222), die das Lernmodell auf Basis der Ausgänge der Zustandsbeobachtungseinheit (21) und der Fehlerberechnungseinheit (221) aktualisiert, umfasst.
  5. Bildverarbeitungsvorrichtung nach Anspruch 3 oder Anspruch 4, dadurch gekennzeichnet, dass die Lerneinheit (22) Teilbildern, die aus Bereichen in dem Eingangsbild, in dem das Zielobjekt (101) nicht abgebildet ist, ausgeschnitten wurden, das Label „Misserfolg“ anfügt.
  6. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die maschinelle Lerneinrichtung (2) bei der Berechnung der Bildwahrscheinlichkeit des Zielobjekts (101) vor und nach der Vornahme des maschinellen Lernens ein Bild verwendet, wofür das Bild eines vorab in Bezug auf die Position und die Lage des Zielobjekts (101) festgelegten Bereichs verarbeitet und umgewandelt wurde.
  7. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die maschinelle Lerneinrichtung (2) bei der Berechnung der Bildwahrscheinlichkeit des Zielobjekts (101) vor und nach der Vornahme des maschinellen Lernens aus dem Bild eines vorab in Bezug auf die Position und die Lage des Zielobjekts (101) festgelegten Bereichs ein Merkmal, das durch das gleiche Verfahren wie das bei dem Erfassungsalgorithmus verwendete Merkmalsextraktionsverfahren extrahiert wurde, erlangt und die Bildwahrscheinlichkeit des Zielobjekts (101) berechnet.
  8. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die maschinelle Lerneinrichtung (2) bei der Berechnung der Bildwahrscheinlichkeit des Zielobjekts (101) vor und nach der Vornahme des maschinellen Lernens aus dem Bild eines vorab in Bezug auf die Position und die Lage des Zielobjekts (101) festgelegten Bereichs ein Merkmal, das durch ein anderes Verfahren als das bei dem Erfassungsalgorithmus verwendete Merkmalsextraktionsverfahren extrahiert wurde, erlangt und die Bildwahrscheinlichkeit des Zielobjekts (101) berechnet.
  9. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die maschinelle Lerneinrichtung (2) einen Schwellenwert zur Bestimmung der Erfassung oder der Nichterfassung auf Basis der ausgegebenen Wahrscheinlichkeit automatisch festlegt.
  10. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die maschinelle Lerneinrichtung (2) mit wenigstens einer anderen maschinellen Lerneinrichtung verbunden werden kann, und das durch die maschinelle Lerneinrichtung (2) erstellte Lernmodell wechselseitig mit der wenigstens einen anderen maschinellen Lerneinrichtung ausgetauscht oder gemeinsam genutzt wird.
  11. Bildverarbeitungsverfahren, das ein Eingangsbild erhält und auf Basis eines Erfassungsalgorithmus ein Bild eines Zielobjekts (101) erfasst, dadurch gekennzeichnet, dass ein maschinelles Lernen auf Basis eines Erfassungsergebnisses des Bilds des Zielobjekts unter Verwendung mehrerer Teilbilder vorgenommen wird, wobei - die mehreren Teilbilder, nachdem sie aus dem Eingangsbild von Bereichen ausgeschnitten wurden, die durch die erfasste Position, Lage, Größe und Verdrehung vorab festgelegt wurden, durch Standardisierung erhalten werden, um mindestens eine ihrer Größen und Verdrehungen in Übereinstimmung mit einem Modellmuster anzupassen, wobei das maschinelle Lernen stufenweise vorgenommen wird, indem bei der Erzeugung von ersten Trainingsdaten in einer ersten Stufe Erfassungsparameter weit gefasst werden, und bei der Erzeugung von weiteren Trainingsdaten mit dem Übergang zu späteren Stufen allmählich verengt werden; und - eine Bildwahrscheinlichkeit des Zielobjekts (101) berechnet wird.
  12. Bildverarbeitungsverfahren nach Anspruch 11, dadurch gekennzeichnet, dass bei der Berechnung der Bildwahrscheinlichkeit des Zielobjekts (101) unter Vornahme des maschinellen Lernens wenigstens eines aus einer Erfassungsposition, einer Lage, einer Größe und eines Bilds der erfassten Stelle im Zusammenhang mit dem Zielobjekt (101) als Zustandsvariable beobachtet wird, auf Basis der Zustandsvariablen ein Lernmodell zur Berechnung der Bildwahrscheinlichkeit des Zielobjekts (101) erstellt wird, und ein unüberwachtes Lernen vorgenommen wird.
  13. Bildverarbeitungsverfahren nach Anspruch 11, dadurch gekennzeichnet, dass bei der Berechnung der Bildwahrscheinlichkeit des Zielobjekts (101) unter Vornahme des maschinellen Lernens wenigstens eines aus einer Erfassungsposition, einer Lage, einer Größe und eines Bilds der erfassten Stelle im Zusammenhang mit dem Zielobjekt (101) als Zustandsvariable beobachtet wird, Label „Erfolg“ oder „Misserfolg“, die jedem der mehreren Teilbilder angefügt werden, erlangt werden, und auf Basis der Zustandsvariablen und der Label ein Lernmodell zur Berechnung der Bildwahrscheinlichkeit des Zielobjekts (101) erstellt wird, und ein überwachtes Lernen vorgenommen wird.
  14. Bildverarbeitungsverfahren nach Anspruch 13, dadurch gekennzeichnet, dass bei der Erstellung des Lernmodells auf Basis der Zustandsvariablen und der Label ein Fehler berechnet wird, und das Lernmodell auf Basis der Zustandsvariablen und des berechneten Fehlers aktualisiert wird.
DE102018105334.7A 2017-03-13 2018-03-08 Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren zur Berechnung der Bildwahrscheinlichkeit eines aus einem Eingangsbild erfassten Zielobjekts Active DE102018105334B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017047444A JP6542824B2 (ja) 2017-03-13 2017-03-13 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法
JP2017-047444 2017-03-13

Publications (2)

Publication Number Publication Date
DE102018105334A1 DE102018105334A1 (de) 2018-09-13
DE102018105334B4 true DE102018105334B4 (de) 2024-01-25

Family

ID=63258750

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018105334.7A Active DE102018105334B4 (de) 2017-03-13 2018-03-08 Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren zur Berechnung der Bildwahrscheinlichkeit eines aus einem Eingangsbild erfassten Zielobjekts

Country Status (4)

Country Link
US (2) US20180260628A1 (de)
JP (1) JP6542824B2 (de)
CN (1) CN108573486A (de)
DE (1) DE102018105334B4 (de)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US10676085B2 (en) 2018-04-11 2020-06-09 Aurora Innovation, Inc. Training machine learning model based on training instances with: training instance input based on autonomous vehicle sensor data, and training instance output based on additional vehicle sensor data
US11550061B2 (en) 2018-04-11 2023-01-10 Aurora Operations, Inc. Control of autonomous vehicle based on environmental object classification determined using phase coherent LIDAR data
JP7154823B2 (ja) * 2018-05-28 2022-10-18 キヤノン株式会社 情報処理装置、ロボット制御装置、情報処理方法及びプログラム
DE102019125117B4 (de) * 2018-09-18 2020-12-10 Kinova Inc. Sichtgeführter Roboterarm und Verfahren zum Betreiben desselben
EP3651163A1 (de) * 2018-11-06 2020-05-13 Koninklijke Philips N.V. Vorrichtung für medizinische bilder und betriebsverfahren
JP6863946B2 (ja) * 2018-10-31 2021-04-21 ファナック株式会社 画像処理装置
US11209821B2 (en) 2018-11-02 2021-12-28 Aurora Operations, Inc. Labeling autonomous vehicle data
US11829143B2 (en) 2018-11-02 2023-11-28 Aurora Operations, Inc. Labeling autonomous vehicle data
US11403492B2 (en) 2018-11-02 2022-08-02 Aurora Operations, Inc. Generating labeled training instances for autonomous vehicles
US11256263B2 (en) 2018-11-02 2022-02-22 Aurora Operations, Inc. Generating targeted training instances for autonomous vehicles
US11086319B2 (en) 2018-11-02 2021-08-10 Aurora Operations, Inc. Generating testing instances for autonomous vehicles
US20210281745A1 (en) * 2018-11-13 2021-09-09 Sony Corporation Information processing apparatus, information processing method, and program
JP6915605B2 (ja) * 2018-11-29 2021-08-04 オムロン株式会社 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム
CN109754003B (zh) * 2018-12-20 2023-05-19 上海裕芯电子科技有限公司 基于深度学习的智能机器人视觉技术应用检测***和方法
US11544938B2 (en) * 2018-12-21 2023-01-03 Continental Autonomous Mobility US, LLC Systems and methods for automatic labeling of images for supervised machine learning
JP6756961B1 (ja) * 2019-03-29 2020-09-16 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
WO2020149242A1 (ja) * 2019-01-17 2020-07-23 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
JP6508797B1 (ja) * 2019-01-17 2019-05-08 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
JP6978454B2 (ja) * 2019-02-22 2021-12-08 ファナック株式会社 物体検出装置、制御装置及び物体検出用コンピュータプログラム
WO2020202332A1 (ja) * 2019-03-29 2020-10-08 武蔵精密工業株式会社 検査装置及び検査方法
DE102019211557A1 (de) * 2019-08-01 2021-02-04 Siemens Mobility GmbH Bahnsignalerkennung für autonome Schienenfahrzeuge
JP7372076B2 (ja) * 2019-08-07 2023-10-31 ファナック株式会社 画像処理システム
EP4023398A4 (de) * 2019-08-26 2023-09-13 Kawasaki Jukogyo Kabushiki Kaisha Informationsverarbeitungsvorrichtung, konfigurationsvorrichtung, bilderkennungssystem, robotersystem, konfigurationsverfahren, lernvorrichtung und verfahren zur erzeugung eines gelernten modells
US11475313B2 (en) 2020-02-13 2022-10-18 International Business Machines Corporation Unsupervised, semi-supervised, and supervised learning using deep learning based probabilistic generative models
DE112021001435T5 (de) 2020-03-05 2023-01-12 Fanuc Corporation Maschinen-Lern-Vorrichtung
JP7332040B2 (ja) * 2020-05-01 2023-08-23 日本電信電話株式会社 3次元モデル生成装置、方法及びプログラム
CN115668283A (zh) 2020-05-18 2023-01-31 发那科株式会社 机器学习装置和机器学习***
US11633862B2 (en) * 2020-11-25 2023-04-25 Metal Industries Research & Development Centre Automatic control method of mechanical arm and automatic control system
CN115205636B (zh) * 2022-09-15 2023-04-07 苏州浪潮智能科技有限公司 一种图像的目标检测方法、***、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62524A (ja) 1985-06-26 1987-01-06 Showa Highpolymer Co Ltd 硬化可能な不飽和アルキツドおよびその製造法
JP2010191772A (ja) 2009-02-19 2010-09-02 Sony Corp 学習装置、学習方法、識別装置、識別方法、及び、プログラム
JP5234833B2 (ja) 2010-01-19 2013-07-10 日本電信電話株式会社 表情識別器作成装置,表情識別器作成方法,表情認識装置,表情認識方法およびそれらのプログラム
WO2014084218A1 (ja) 2012-11-27 2014-06-05 国立大学法人大阪大学 対象物検知装置
US20160026900A1 (en) 2013-04-26 2016-01-28 Olympus Corporation Image processing device, information storage device, and image processing method
JP2016057918A (ja) 2014-09-10 2016-04-21 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080172781A1 (en) * 2006-12-15 2008-07-24 Terrance Popowich System and method for obtaining and using advertising information
JP5126115B2 (ja) * 2009-02-25 2013-01-23 株式会社デンソー 検出対象判定装置,インテグラルイメージ生成装置。
JP5285748B2 (ja) * 2011-07-08 2013-09-11 富士フイルム株式会社 オブジェクト検出装置、方法およびプログラム
JP5801237B2 (ja) * 2012-03-29 2015-10-28 パナソニック株式会社 部位推定装置、部位推定方法、および部位推定プログラム
US8989442B2 (en) * 2013-04-12 2015-03-24 Toyota Motor Engineering & Manufacturing North America, Inc. Robust feature fusion for multi-view object tracking
JP6395481B2 (ja) * 2014-07-11 2018-09-26 キヤノン株式会社 画像認識装置、方法及びプログラム
JP6435740B2 (ja) 2014-09-22 2018-12-12 日本電気株式会社 データ処理システム、データ処理方法およびデータ処理プログラム
CN104573669B (zh) * 2015-01-27 2018-09-04 中国科学院自动化研究所 图像物体检测方法
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
DE102016009030B4 (de) * 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
CN105574527B (zh) * 2015-12-14 2019-03-29 北京工业大学 一种基于局部特征学习的快速物体检测方法
JP2017146840A (ja) * 2016-02-18 2017-08-24 富士ゼロックス株式会社 画像処理装置およびプログラム
WO2017171891A1 (en) * 2016-04-02 2017-10-05 Intel Corporation Systems, methods, and apparatuses for modeling reticle compensation for post lithography processing using machine learning algorithms
CN105976401B (zh) * 2016-05-20 2019-03-12 河北工业职业技术学院 基于分块多示例学习算法的目标跟踪方法和***
CN106295636A (zh) * 2016-07-21 2017-01-04 重庆大学 基于多特征融合级联分类器的消防通道车辆检测方法
JP2018126799A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62524A (ja) 1985-06-26 1987-01-06 Showa Highpolymer Co Ltd 硬化可能な不飽和アルキツドおよびその製造法
JP2010191772A (ja) 2009-02-19 2010-09-02 Sony Corp 学習装置、学習方法、識別装置、識別方法、及び、プログラム
JP5234833B2 (ja) 2010-01-19 2013-07-10 日本電信電話株式会社 表情識別器作成装置,表情識別器作成方法,表情認識装置,表情認識方法およびそれらのプログラム
WO2014084218A1 (ja) 2012-11-27 2014-06-05 国立大学法人大阪大学 対象物検知装置
US20160026900A1 (en) 2013-04-26 2016-01-28 Olympus Corporation Image processing device, information storage device, and image processing method
JP2016057918A (ja) 2014-09-10 2016-04-21 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WU, B.; NEVATIA, R.: Improving part based object detection by unsupervised, online boosting. In: 2007 IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2007

Also Published As

Publication number Publication date
US11741367B2 (en) 2023-08-29
US20200210702A1 (en) 2020-07-02
US20180260628A1 (en) 2018-09-13
JP6542824B2 (ja) 2019-07-10
CN108573486A (zh) 2018-09-25
JP2018151843A (ja) 2018-09-27
DE102018105334A1 (de) 2018-09-13

Similar Documents

Publication Publication Date Title
DE102018105334B4 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren zur Berechnung der Bildwahrscheinlichkeit eines aus einem Eingangsbild erfassten Zielobjekts
DE10043460C2 (de) Auffinden von Körperpartien durch Auswerten von Kantenrichtungsinformation
EP2187351B1 (de) Verfahren und Vorrichtung zum Erkennen von Objekten
DE102017220307A1 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
DE112019002848T5 (de) System und verfahren zum auffinden und klassifizieren von mustern in einem bild mit einem bildverarbeitungssystem
DE102019124810A1 (de) Bildverarbeitungsgerät und Bildverarbeitungsverfahren
EP2787485B1 (de) Verfahren und Vorrichtung zur automatischen Fehlerstellenerkennung bei biegeschlaffen Körpern
DE112020005416T5 (de) Numerisches Steuerungsgerät und numerisches Steuerungsverfahren
DE102019115139A1 (de) Nahtprüfeinrichtung
DE102021201124A1 (de) Trainieren von bildklassifizierernetzen
DE102016100134B4 (de) Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen
DE102006045828B4 (de) Verfahren und Vorrichtung zum Erkennen eines Gesichts sowie ein Gesichtserkennungsmodul
WO2012013186A2 (de) Verfahren und vorrichtung zur bestimmung der augentorsion
DE10297595T5 (de) Verfahren zum automatischen Definieren eines Teilemodells
DE102019101634A1 (de) Werkstückbilderzeugungsvorrichtung
DE19834718C2 (de) Digitale Bildverarbeitung für ein Qualitätskontrollsystem
DE102020205541A1 (de) Vorrichtung und Verfahren für Bildverarbeitung
EP3582140B1 (de) System zur automatischen erkennung von laborarbeitsgegenständen sowie verfahren zum betrieb eines systems zur automatischen erkennung von laborgegenständen
DE112021000595T5 (de) Bildverarbeitungssystem
DE102021201031A1 (de) Programmerstellungsvorrichtung, Objekterkennungssystem, Ankersetzverfahren und Ankersetzprogramm
EP3581935A1 (de) System zur automatischen erkennung von laborarbeitsgegenständen sowie verfahren zum betrieb eines systems zur automatischen erkennung von laborarbeitsgegenständen
DE112021005038T5 (de) Modellerzeugungsvorrichtung für die sichtprüfung und sichtprüfungsvorrichtung
DE102004050942B4 (de) Bootstrap-Verfahren zum überwachten Einlernen eines Mustererkennungssystems
DE102022204009A1 (de) Verfahren und Einrichtung zur Bestimmung der 6D-Geste eines Objekts
AT511399B1 (de) Verfahren zur automatisierten klassifikation von einschlüssen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G06V0010000000

R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06V0010000000

Ipc: G06V0010700000

R018 Grant decision by examination section/examining division