DE102018111370B4 - Werkstückaufnahmesystem - Google Patents

Werkstückaufnahmesystem Download PDF

Info

Publication number
DE102018111370B4
DE102018111370B4 DE102018111370.6A DE102018111370A DE102018111370B4 DE 102018111370 B4 DE102018111370 B4 DE 102018111370B4 DE 102018111370 A DE102018111370 A DE 102018111370A DE 102018111370 B4 DE102018111370 B4 DE 102018111370B4
Authority
DE
Germany
Prior art keywords
robot
partial region
workpiece
dimensional
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018111370.6A
Other languages
English (en)
Other versions
DE102018111370A1 (de
Inventor
Toshiyuki Ando
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018111370A1 publication Critical patent/DE102018111370A1/de
Application granted granted Critical
Publication of DE102018111370B4 publication Critical patent/DE102018111370B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/16Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring distance of clearance between spaced objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39058Sensor, calibration of sensor, potentiometer
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39473Autonomous grasping, find, approach, grasp object, sensory motor coordination
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39527Workpiece detector, sensor mounted in, near hand, gripper
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

Werkstückaufnahmesystem (1), umfassend:einen Roboter (2);eine Hand (4), die an einem Handspitzenabschnitt (3) des Roboters (2) befestigt ist, zum Aufnehmen eines Werkstücks (W);einen dreidimensionalen Sensor (5), der an dem Handspitzenabschnitt (3) des Roboters (2) befestigt ist, zum Erfassen von Positionsinformationen einer Gruppe dreidimensionaler Punkte in einer Teilregion in einem Behälter (Y);eine Werkstückzustand-Berechnungseinheit (8), die das Werkstück (W) erkennt und eine Position und eine Stellung des erkannten Werkstücks (W) basierend auf Positionsinformationen einer Gruppe dreidimensionaler Punkte (B, B1) in einer ersten Teilregion (A) berechnet, die von dem dreidimensionalen Sensor (5) erfasst werden;eine Datenerfassungsposition-Berechnungseinheit (9), die eine Roboterposition entsprechend einer zweiten Teilregion (A) berechnet, in der als Nächstes Positionsinformationen zu erfassen sind, basierend auf den Positionsinformationen der Gruppe dreidimensionaler Punkte in der ersten Teilregion (A), die von dem dreidimensionalen Sensor (5) erfasst werden; undeine Steuereinheit (7), die den Roboter (2) und die Hand (4) basierend auf der Position und der Stellung des Werkstücks (W) steuert, die von der Werkstückzustand-Berechnungseinheit (8) berechnet werden, und basierend auf der Roboterposition entsprechend der zweiten Teilregion (A), die von der Datenerfassungsposition-Berechnungseinheit (9) berechnet wird,wobei die Datenerfassungsposition-Berechnungseinheit (9) als eine Referenz einen dreidimensionalen Punkt (B, B1) verwendet, der sich an einer höchsten Position von der Gruppe dreidimensionaler Punkte (B, B1) in der ersten Teilregion (A) befindet, um die Roboterposition entsprechend der zweiten Teilregion (A) zu berechnen.

Description

  • Die vorliegende Erfindung betrifft ein Werkstückaufnahmesystem.
  • Herkömmlicherweise ist ein Werkstückaufnahmesystem bekannt, das mittels eines Roboters in einem Behälter ungeordnet gelagerte Werkstücke aufnimmt (siehe beispielsweise JP 2004-188562 A ). In dem Werkstückaufnahmesystem ist ein dreidimensionaler Sensor an einem Handspitzenabschnitt eines Roboters befestigt, wobei der dreidimensionale Sensor ausgestaltet ist, ein Bild mit einer gesamten oberen Öffnung eines Behälters aufzunehmen, das in einem Sichtfeld aufgenommen wird, und in der Lage zu sein, eine Gruppe dreidimensionaler Punkte eines Werkstücks in dem Sichtfeld zu erfassen.
  • Die Größe der oberen Öffnung eines Behälters ist jedoch manchmal größer als ein Sichtfeldbereich des dreidimensionalen Sensors zum Erfassen der Gruppe dreidimensionaler Punkte eines Werkstücks. In solch einem Fall besteht, wenn ein Verfahren angenommen wird, gemäß dem, um Positionsinformationen der Gruppe dreidimensionaler Punkte für alle Werkstücke in einem Behälter zu erfassen, ein Roboter, an dem der dreidimensionale Sensor montiert ist, sequenziell zu einer Vielzahl von Positionen und Stellungen bewegt wird, die im Voraus eingelernt werden, und Positionsinformationen einer Gruppe dreidimensionaler Punkte in einer Teilregion im Innern des Behälters an jeder Position erfasst werden, das Problem, dass ein Erfassungsprozess für die Positionsinformationen einer Gruppe dreidimensionaler Punkte selbst dann ausgeführt wird, wenn ein Werkstück nicht mehr in einer erreichten Region vorhanden ist.
  • Des Weiteren ist in DE 10 2014 212 304 B4 ein System zum Aufnehmen eines Werkstücks von einem Haufen von Werkstücken offenbart, dass eine Informationsverarbeitungsvorrichtung aufweist. Außerdem sind in DE 10 2013 012 068 A1 eine Vorrichtung und ein Verfahren zum Entnehmen von lose gelagerten Objekten durch einen Roboter beschrieben.
  • Weiterhin zeigt EP 2 524 776 B1 ein Robotersystem mit einer Transportpassage, einer Transportpassagedetektiereinheit und einer Umordnunginstruierungseinheit. Ferner beschreibt EP 2 345 515 B1 ein Verfahren zum Aufnehmen von Werkstücken. Darüber hinaus sind in US 9,156,162 B2 eine Vorrichtung und ein Verfahren zur Informationsverarbeitung offenbart, wobei die Positionen und Orientierungen von Zielobjekten aus dem Ergebnis der Messung einer Reihe von Zielobjekten mit einem ersten Sensor erhalten werden. Schließlich ist in JP 2011-083882 A ein Robotersystem zur Durchführung der Kommissionierung von Behältern beschrieben.
  • Eine Aufgabe der Erfindung ist es, ein Werkstückaufnahmesystem bereitzustellen, das in Lage ist, unnötige Bewegungen eines Roboters und unnötiges Erfassen von Positionsinformationen einer Gruppe dreidimensionaler Punkte durch einen dreidimensionalen Sensor zu verhindern, und ein Werkstück effizient aufzunehmen, selbst wenn ein dreidimensionaler Sensor, der in der Lage ist, nur teilweise Positionsinformationen einer Gruppe dreidimensionaler Punkte zu erfassen, in einem Behälter montiert ist.
  • Um die zuvor beschriebene Aufgabe zu erfüllen, sieht die vorliegende Offenbarung die folgenden Lösungen vor.
  • Die Aufgabe wird gelöst durch ein Werkstückaufnahmesystem, umfassend einen Roboter, eine Hand zum Aufnehmen eines Werkstücks, die an einem Handspitzenabschnitt des Roboters befestigt ist, einen dreidimensionalen Sensor zum Erfassen von Positionsinformationen einer Gruppe dreidimensionaler Punkte in einer Teilregion in einem Behälter, der an dem Handspitzenabschnitt des Roboters befestigt ist, eine Werkstückzustand-Berechnungseinheit, die ein Werkstück erkennt und eine Position und Stellung des erkannten Werkstücks basierend auf Positionsinformationen einer Gruppe dreidimensionaler Punkte in einer ersten Teilregion berechnet, die von dem dreidimensionalen Sensor erfasst wurden, eine Datenerfassungsposition-Berechnungseinheit, die eine Roboterposition entsprechend einer zweiten Teilregion berechnet, in der als Nächstes Positionsinformationen zu erfassen sind, basierend auf den Positionsinformationen der Gruppe dreidimensionaler Punkte in der ersten Teilregion, die von dem dreidimensionalen Sensor erfasst werden, und eine Steuereinheit, die den Roboter und die Hand basierend auf der Position und der Stellung des Werkstücks, die von der Werkstückzustand-Berechnungseinheit berechnet werden, und basierend auf der Roboterposition entsprechend der zweiten Teilregion steuert, die von der Datenerfassungsposition-Berechnungseinheit berechnet wird, wobei die Datenerfassungsposition-Berechnungseinheit als eine Referenz einen dreidimensionalen Punkt verwendet, der sich an einer höchsten Position von der Gruppe dreidimensionaler Punkte in der ersten Teilregion befindet, um die Roboterposition entsprechend der zweiten Teilregion zu berechnen.
  • Gemäß dem vorliegenden Aspekt werden, wenn der Roboter betrieben wird und der dreidimensionale Sensor, der an dem Handspitzenabschnitt befestigt ist, in Bezug auf den Behälter positioniert wird und Positionsinformationen einer Gruppe dreidimensionaler Punkte in einer Teilregion in dem Behälter erfasst werden, die Position und Stellung eines Werkstücks, das in der Gruppe dreidimensionaler Punkte in der erfassten ersten Teilregion umfasst ist, von der Werkstückzustand-Berechnungseinheit berechnet. Die Steuereinheit kann dadurch den Roboter und die Hand basierend auf der berechneten Position und Stellung des Werkstücks berechnen, um das Werkstück zu handhaben und das Werkstück aus dem Behälter aufzunehmen.
  • In diesem Fall wird die Roboterposition der zweiten Teilregion, in der als Nächstes die Positionsinformationen eines Werkstücks zu erfassen sind, mittels der Datenerfassungsposition-Berechnungseinheit basierend auf den Positionsinformationen der Gruppe dreidimensionaler Punkte in der ersten Teilregion, die von dem dreidimensionalen Sensor erfasst werden, berechnet. Das heißt, die Datenerfassungsposition des dreidimensionalen Sensors für die nächste Gruppe dreidimensionaler Punkte wird nicht basierend auf einer Position bestimmt, die im Voraus eingelernt wird, sondern basierend auf den Positionsinformationen einer Gruppe dreidimensionaler Punkte, die von dem dreidimensionalen Sensor erfasst werden, und somit können, selbst wenn ein dreidimensionaler Sensor, der nur teilweise eine Gruppe dreidimensionaler Punkte erfassen kann, in dem Behälter montiert ist, unnötige Bewegung des Roboters und unnötiges Erfassen von Positionsinformationen einer Gruppe dreidimensionaler Punkte mittels des dreidimensionalen Sensors verhindert werden, und das Werkstück kann effizient aufgenommen werden.
  • Gemäß der Erfindung verwendet die Datenerfassungsposition-Berechnungseinheit als eine Referenz einen dreidimensionalen Punkt, der sich an einer höchsten Position von der Gruppe dreidimensionaler Punkte in der ersten Teilregion befindet, um die Roboterposition entsprechend der zweiten Teilregion zu berechnen. Von ungeordnet gelagerten Werkstücken in dem Behälter ist ein Werkstück, das sich an der höchsten Position befindet, sehr wahrscheinlich ein Werkstück, das am einfachsten aufgenommen werden kann. Dementsprechend kann, durch Berechnen der Position der zweiten Teilregion, in der als Nächstes die Positionsinformationen zu erfassen sind, mit Bezug auf eine Gruppe dreidimensionaler Punkte, die sich an der höchsten Position von der zuvor erfassten Gruppe von Punkten befindet, eine Gruppe dreidimensionaler Punkte in einer zweiten Teilregion, in der mindestens ein Werkstück erkannt werden kann, erfasst werden.
  • Darüber hinaus kann, gemäß dem zuvor beschriebenen Aspekt, die Datenerfassungsposition-Berechnungseinheit die Roboterposition entsprechend der zweiten Teilregion derart berechnen, dass eine Horizontalrichtungsposition des dreidimensionalen Punkts, der von der Gruppe dreidimensionaler Punkte in der ersten Teilregion am höchsten ist, an einer Mitte der zweiten Teilregion positioniert wird und eine Vertikalrichtungsposition des dreidimensionalen Sensors eine vorbestimmte Höhe wird. Dies erlaubt, dass die Roboterposition einfach für eine horizontale zweite Teilregion berechnet wird, die mit einem Bereich übereinstimmt, der in der Mitte den dreidimensionalen Punkt aufweist, der sich an der höchsten Position von der Gruppe dreidimensionaler Punkte in der ersten Teilregion befindet.
  • Ferner wird die Aufgabe gelöst durch ein Werkstückaufnahmesystem, umfassend einen Roboter, eine Hand zum Aufnehmen eines Werkstücks, die an einem Handspitzenabschnitt des Roboters befestigt ist, einen dreidimensionalen Sensor zum Erfassen von Positionsinformationen einer Gruppe dreidimensionaler Punkte in einer Teilregion in einem Behälter, der an dem Handspitzenabschnitt des Roboters befestigt ist, eine Werkstückzustand-Berechnungseinheit, die ein Werkstück erkennt und eine Position und Stellung des erkannten Werkstücks basierend auf Positionsinformationen einer Gruppe dreidimensionaler Punkte in einer ersten Teilregion berechnet, die von dem dreidimensionalen Sensor erfasst werden, eine Datenerfassungsposition-Berechnungseinheit, die eine Roboterposition entsprechend einer zweiten Teilregion berechnet, in der als Nächstes Positionsinformationen zu erfassen sind, basierend auf den Positionsinformationen der Gruppe dreidimensionaler Punkte in der ersten Teilregion, die von dem dreidimensionalen Sensor erfasst werden, und eine Steuereinheit, die den Roboter und die Hand basierend auf der Position und der Stellung des Werkstücks, die von der Werkstückzustand-Berechnungseinheit berechnet werden, und basierend auf der Roboterposition entsprechend der zweiten Teilregion steuert, die von der Datenerfassungsposition-Berechnungseinheit berechnet wird, wobei die Datenerfassungsposition-Berechnungseinheit als eine Referenz eine Schwerpunktposition einer planaren Region verwendet, die von einem Teil der Gruppe dreidimensionaler Punkte in der ersten Teilregion gebildet wird, um die Roboterposition entsprechend der zweiten Teilregion zu berechnen. Weil ein Werkstück sehr wahrscheinlich erfolgreich von dem Roboter von einem Teil aufgenommen wird, der als eine planare Region in der Gruppe dreidimensionaler Punkte erkannt wird, wenn die Schwerpunktposition der planaren Region als eine Referenz verwendet wird, kann eine Gruppe dreidimensionaler Punkte in einer zweiten Teilregion, in der mindestens ein Werkstück erkannt und aufgenommen werden kann, erfasst werden.
  • Darüber hinaus kann gemäß dem zuvor beschriebenen Aspekt die Datenerfassungsposition-Berechnungseinheit die Roboterposition der zweiten Teilregion derart berechnen, dass eine Horizontalrichtungsposition der Schwerpunktposition an einer Mitte der zweiten Teilregion positioniert wird und eine Vertikalrichtungsposition des dreidimensionalen Sensors eine vorbestimmte Höhe wird. Dies erlaubt, dass die Roboterposition einfach für eine horizontale zweite Teilregion berechnet wird, die mit einem Bereich übereinstimmt, der an der Schwerpunktposition der planaren Region in der Gruppe dreidimensionaler Punkte in der ersten Teilregion zentriert ist.
  • Darüber hinaus kann, gemäß dem zuvor beschriebenen Aspekt, in einem Fall, in dem die Anzahl der dreidimensionalen Punkte, die in der planaren Region vorhanden sind, gleich oder weniger ist als ein vorbestimmter Schwellenwert, die Datenerfassungsposition-Berechnungseinheit die Roboterposition entsprechend der zweiten Teilregion berechnen, die einen Neigungswinkel des dreidimensionalen Sensors ändert. Wenn die Anzahl der dreidimensionalen Punkte, die in einer planaren Region vorhanden sind, gleich oder weniger ist als ein vorbestimmter Schwellenwert, ist die planare Region in Bezug auf den dreidimensionalen Sensor möglicherweise in hohem Maße geneigt, und somit kann durch Ändern des Neigungswinkels des dreidimensionalen Sensors die Roboterposition für eine zweite Teilregion berechnet werden, in der die Gruppe dreidimensionaler Punkte korrekt erkannt werden kann.
  • Gemäß der vorliegenden Erfindung besteht eine vorteilhafte Wirkung darin, dass, selbst wenn ein dreidimensionaler Sensor, der in der Lage ist, nur teilweise Positionsinformationen einer Gruppe dreidimensionaler Punkte zu erfassen, in einem Behälter montiert ist, unnötige Bewegung eines Roboters und unnötiges Erfassen von Positionsinformationen einer Gruppe dreidimensionaler Punkte mittels des dreidimensionalen Sensors verhindert werden können und ein Werkstück effizient aufgenommen werden kann.
    • 1 ist eine Abbildung einer Gesamtausgestaltung eines Werkstückaufnahmesystems gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 2 ist ein Flussdiagramm, das ein Werkstückaufnahmeverfahren des Werkstückaufnahmesystems von 1 beschreibt.
    • 3 ist eine Draufsicht eines Behälters, in dem Werkstücke gelagert sind, in dem ein Teilbereich, in dem zuerst Datenerfassung in Schritt S2 des Werkstückaufnahmeverfahrens von 2 ausgeführt wird, auf überlappende Weise gezeigt ist.
    • 4 ist eine Draufsicht des Behälters, in dem Werkstücke gelagert sind, in dem ein Werkstück, das in Schritt S3 des Werkstückaufnahmeverfahrens von 2 erkannt wird, auf überlappende Weise gezeigt ist.
    • 5 ist eine Draufsicht des Behälters, in dem Werkstücke gelagert sind, in dem eine Roboterposition, an der als Nächstes Datenerfassung auszuführen ist, die in Schritt S8 des Werkstückaufnahmeverfahrens von 2 berechnet wird, auf überlappende Weise gezeigt ist.
    • 6 ist eine Draufsicht des Behälters, in dem Werkstücke gelagert sind, in dem ein Teilbereich, in dem als Nächstes Datenerfassung in Schritt S2 des Werkstückaufnahmeverfahrens von 2 auszuführen ist, auf überlappende Weise gezeigt ist.
    • 7 ist ein Flussdiagramm, das ein abgewandeltes Beispiel des Werkstückaufnahmeverfahrens von 2 beschreibt.
  • Ein Werkstückaufnahmesystem 1 gemäß einer Ausführungsform der vorliegenden Erfindung wird nachfolgend mit Bezug auf die Zeichnungen beschrieben.
  • Wie in 1 gezeigt, umfasst das Werkstückaufnahmesystem 1 gemäß der vorliegenden Ausführungsform einen Roboter 2, der in der Nähe eines Behälters Y aufgestellt ist, der zum Lagern einer Vielzahl von Werkstücken W dient und der oben offen ist, eine Hand 4, die an einem Handspitzenabschnitt 3 des Roboters 2 befestigt ist, zum Greifen eines Werkstücks W, einen dreidimensionalen Sensor 5, der an dem Handspitzenabschnitt 3 des Roboters 2 befestigt ist, zum Erfassen von dreidimensionalen Informationen eines Werkstücks W in dem Behälter Y, eine Informationsverarbeitungseinheit 6 zum Verarbeiten der dreidimensionalen Informationen, die von dem dreidimensionalen Sensor 5 erfasst werden, und eine Steuereinheit 7 zum Steuern des Roboters 2 und der Hand 4 basierend auf einem Verarbeitungsergebnis der Informationsverarbeitungseinheit 6. Die Informationsverarbeitungseinheit 6 und die Steuereinheit 7 umfassen einen Speicher, nicht gezeigt, zum Speichern von Informationen, und einen Prozessor, nicht gezeigt, zum Ausführen von Informationsverarbeitung.
  • In dem Beispiel, das in 1 gezeigt ist, ist der Roboter 2 ein vertikaler Gelenkroboter, doch es kann ein Roboter jeder Art angenommen werden.
  • Wie in 3 gezeigt, weist der dreidimensionale Sensor 5 einen Datenerfassungsbereich A auf, der kleiner ist als eine Größe einer oberen Öffnung des Behälters Y, und ist ausgestaltet, von einer Oberseite Informationen über dreidimensionale Positionen einer Vielzahl von Punkten (Gruppe dreidimensionaler Punkte) auf Oberflächen der Werkstücke innerhalb des Datenerfassungsbereichs A von den Oberflächen einer Vielzahl von ungeordnet gelagerten Werkstücken W in dem Behälter Y zu erfassen und die Informationen an die Informationsverarbeitungseinheit 6 zu übermitteln. In der Zeichnung gibt ein Bezugszeichen B einen von dreidimensionalen Punkten an, die in dem Datenerfassungsbereich A vorhanden sind.
  • Die Informationsverarbeitungseinheit 6 umfasst eine Werkstückzustand-Berechnungseinheit 8 zum Erkennen, basierend auf Positionsinformationen der Gruppe dreidimensionaler Punkte, die von dem dreidimensionalen Sensor 5 übermittelt werden, eines Werkstücks W, das in dem Datenerfassungsbereich (der ersten Teilregion) A vorhanden ist, und zum Berechnen einer Position und Stellung des erkannten Werkstücks W, und eine Datenerfassungsposition-Berechnungseinheit 9 zum Berechnen einer Position einer Region (einer zweiten Teilregion), in der als Nächstes die Positionsinformationen der Gruppe dreidimensionaler Punkte zu erfassen sind.
  • Beispielsweise erkennt die Werkstückzustand-Berechnungseinheit 8 ein Werkstück W mittels Ausführen von Modellanpassung unter Verwendung von dreidimensionalen Modelldaten, die im Voraus registriert werden. Darüber hinaus werden Positionskoordinaten des erkannten Werkstücks W beispielsweise basierend auf einer Schwerpunktposition des Werkstücks W berechnet, und eine Stellung des Werkstücks W, wie ein Neigungswinkel und eine Neigungsrichtung, wird basierend auf einem Verformungsgrad in Bezug auf die dreidimensionalen Modelldaten oder den Positionsinformationen des dreidimensionalen Punkts B auf der Oberfläche des erkannten Werkstücks W berechnet.
  • Wie in 5 und 6 gezeigt, stellt die Datenerfassungsposition-Berechnungseinheit 9 als den nächsten Datenerfassungsbereich A eine Region ein, die in der Mitte (Referenz) einen dreidimensionalen Punkt B1 aufweist, der sich an der höchsten Position von den dreidimensionalen Punkten B befindet, die beispielsweise im Datenerfassungsbereich A vorhanden sind. Das heißt, der nächste Datenerfassungsbereich (zweite Teilregion) A ist ein Sichtfeldbereich (der den dreidimensionalen Punkt B1 in der Mitte des Sichtfelds aufweist), der durch Anordnen des dreidimensionalen Sensors 5 an einer Position erfasst wird, die vertikal oberhalb des dreidimensionalen Punkts B1 liegt, der sich an der höchsten Position von den dreidimensionalen Punkten B befindet, die in dem Datenerfassungsbereich A vorhanden sind, und der um einen vorbestimmten Abstand von diesem getrennt ist.
  • Eine Funktion des Werkstückaufnahmesystems 1 gemäß der vorliegenden Ausführungsform, die auf die obige Weise ausgestaltet ist, wird nachfolgend beschrieben.
  • Wie in 2 gezeigt wird, um ungeordnet gelagerte Werkstücke W in dem Behälter Y unter Verwendung des Werkstückaufnahmesystems 1 der vorliegenden Ausführungsform aufzunehmen, zuerst der Roboter 2 betrieben, den dreidimensionalen Sensor 5 an einer ersten Datenerfassungsposition anzuordnen, die im Vorfeld eingestellt wurde, wie eine Position, die eine vorbestimmte Region in der Mitte des Behälters Y als den Datenerfassungsbereich A einnimmt (Schritt S1).
  • Der dreidimensionale Sensor 5 wird in diesem Zustand betrieben, um Datenerfassung für den Datenerfassungsbereich A auszuführen, der in dem Behälter Y eingestellt ist, um Positionskoordinaten einer Vielzahl von dreidimensionalen Punkten B auf einer Oberfläche eines Werkstücks W, das in dem Behälter Y vorhanden ist, zu erkennen und zu erfassen (Schritt S2). Als Nächstes wird Modellanpassung basierend auf der erfassten Gruppe dreidimensionaler Punkte und unter Verwendung dreidimensionaler Modelldaten ausgeführt, und es wird eine Erkennung des Werkstücks W ausgeführt (Schritt S3).
  • In dem Fall, in dem ein Werkstück W im Innern des Datenerfassungsbereichs A erkannt wird (Schritt S4), werden die Positionen und Stellungen aller erkannten Werkstücke W berechnet (Schritt S5). In dem in 4 gezeigten Beispiel weist das Werkstück W eine Ringkammerform auf, und dreidimensionale Koordinaten eines dreidimensionalen Punkts B in der Mitte einer Mittelbohrung W1 werden als die Position des Werkstücks W berechnet, und ein Neigungswinkel und eine Neigungsrichtung des Werkstücks W werden als die Stellung berechnet.
  • Der Roboter 2 wird in Bezug auf mindestens ein Werkstück W betrieben, von dem die Position und Stellung berechnet wurden, und die Werkstücke W werden aufgenommen und mittels der Hand 4, die an dem Handspitzenabschnitt 3 befestigt ist, eines nach dem anderen zu einem Transportziel transportiert (Schritt S6). Wenn alle erkannten Werkstücke W aufgenommen wurden, wird bestimmt, ob alle Werkstücke W in dem Behälter Y aufgenommen wurden oder nicht (Schritt S7), und wenn alle Werkstücke W aufgenommen wurden, ist der Prozess beendet, und wenn das Aufnehmen nicht vollständig ist, wird ein Berechnen der nächsten Datenerfassungsposition ausgeführt (Schritt S8).
  • Dann wird der Datenerfassungsbereich A, der den dreidimensionalen Punkt B1 aufweist, der sich an der höchsten Position befindet, in der Mitte als die nächste Datenerfassungsposition berechnet, basierend auf der Gruppe dreidimensionaler Punkte, die in Schritt S2 erfasst wird. Dann werden in dem Fall, in dem die nächste Datenerfassungsposition berechnet wird, die Schritte ab Schritt S1 wiederholt. In dem Fall, in dem in Schritt S4 kein Werkstück W erkannt wird, werden die Schritte ab Schritt S7 wiederholt.
  • Wie zuvor beschrieben, wird bei dem Werkstückaufnahmesystem 1 gemäß der vorliegenden Ausführungsform die Datenerfassungsposition des dreidimensionalen Sensors 5 für die Positionsinformationen der nächsten Gruppe dreidimensionaler Punkte nicht basierend auf einer Position bestimmt, die im Vorfeld eingelernt wird, sondern basierend auf den Positionsinformationen einer Gruppe dreidimensionaler Punkte, die von dem dreidimensionalen Sensor 5 erfasst wird.
  • Dementsprechend besteht ein Vorteil darin, dass, selbst wenn der dreidimensionale Sensor 5, der nur teilweise eine Gruppe dreidimensionaler Punkte erfassen kann, in dem Behälter Y montiert ist, unnötige Bewegung des Roboters 2 und unnötiges Erfassen von Positionsinformationen einer Gruppe dreidimensionaler Punkte mittels des dreidimensionalen Sensors 5 verhindert werden können und das Werkstück W effizient aufgenommen werden kann.
  • Das heißt, in einem Fall, in dem man einen Raum im Innern des Behälters Y in eine Vielzahl von Regionen unterteilt und in dem sequenziell in jeder Region Erfassen von Positionsinformationen einer Gruppe dreidimensionaler Punkte mittels des dreidimensionalen Sensors 5 und Erkennen des Werkstücks W ausgeführt werden, müssen Erfassen der Positionsinformationen und der Erkennungsprozess für das Werkstück W sogar in einem Fall ausgeführt werden, in dem das Werkstück bereits aufgenommen wurde und nicht mehr vorhanden ist, und somit werden unnötige Bewegung des Roboters 2, unnötiges Erfassen von Positionsinformationen einer Gruppe dreidimensionaler Punkte mittels des dreidimensionalen Sensors 5 und Ähnliches ausgeführt. Andererseits wird bei dem Werkstückaufnahmesystem 1 gemäß der vorliegenden Ausführungsform die nächste Datenerfassungsposition unter Verwendung bereits erfasster Positionsinformationen einer Gruppe dreidimensionaler Punkte bestimmt, und somit können unnötige Bewegung des Roboters 2 und unnötiges Erfassen von Positionsinformationen einer Gruppe dreidimensionaler Punkte mittels des dreidimensionalen Sensors 5 verhindert werden.
  • Insbesondere weil ein nächster Datenerfassungsbereich A, der den dreidimensionalen Punkt B1 aufweist, der sich an der höchsten Position der Gruppe dreidimensionaler Punkte in einem erfassten Datenerfassungsbereich A befindet, in der Mitte bestimmt wird, kann eine neue Gruppe dreidimensionaler Punkte mit einer Position erfasst werden, an der die Möglichkeit, dass das Werkstück W vorhanden ist, als die Mitte am höchsten ist, und es besteht ein Vorteil darin, dass das Werkstück W effizienter aufgenommen werden kann.
  • Zudem stellt in der vorliegenden Ausführungsform die Datenerfassungsposition-Berechnungseinheit 9 den Datenerfassungsbereich A an einer Region ein, die in der Mitte den dreidimensionalen Punkt B1 aufweist, der sich an der höchsten Position von der Gruppe dreidimensionaler Punkte befindet, für die die Positionsinformationen in Schritt S2 erfasst werden, und der Roboter 2 wird betrieben, den dreidimensionalen Sensor 5 an einer Position anzubringen, die vertikal oberhalb des dreidimensionalen Punkts B1 und um einen vorbestimmten Abstand von diesem getrennt ist, ist jedoch nicht darauf beschränkt.
  • Beispielsweise kann der Roboter 2 betrieben werden, den dreidimensionalen Sensor 5 an einer Position an einer vorbestimmten Höhe vertikal oberhalb des dreidimensionalen Punkts B1 anzuordnen, der sich an der höchsten Position befindet.
  • Zudem kann ein dreidimensionaler Punkt B, der sich auf einer gleichen Ebene befindet, von einer erfassten Gruppe dreidimensionaler Punkte extrahiert werden, und ein Bereich (zweite Teilregion), der in der Mitte eine Schwerpunktposition einer planaren Region aufweist, die von einer extrahierten Gruppe dreidimensionaler Punkte gebildet ist, kann als der nächste Datenerfassungsbereich A berechnet werden. Von einer Gruppe dreidimensionaler Punkte auf der gleichen Ebene wird angenommen, dass sie auf der Oberfläche des gleichen Werkstücks W ist, und somit kann, durch Erfassen von Positionsinformationen der Gruppe dreidimensionaler Punkte in dem Bereich, der den Schwerpunkt als die Mitte aufweist, eine Gruppe dreidimensionaler Punkte in einem Bereich erfasst werden, in dem die Wahrscheinlichkeit hoch ist, dass ein Werkstück W vorhanden ist.
  • In dem Fall, in dem eine Vielzahl von Gruppen dreidimensionaler Punkte auf einer gleichen Ebene extrahiert werden, kann der Schwerpunkt eines planaren Abschnitts, der die größte Fläche aufweist, als die Mitte eines Bereichs eingestellt werden, in dem als Nächstes die Positionsinformationen einer Gruppe dreidimensionaler Punkte zu erfassen sind. Die Fläche eines planaren Abschnitts kann einfach durch die Anzahl von dreidimensionalen Punkten B bestimmt werden, die den planaren Abschnitt bilden.
  • Ein Fall, in dem die Anzahl von dreidimensionalen Punkten B, die als die Gruppe dreidimensionaler Punkte auf einer gleichen Ebene extrahiert werden, gering ist, ist ein Fall, in dem die Fläche des extrahierten planaren Abschnitts physisch klein ist, oder beispielsweise ein Fall, in dem die Fläche groß ist, aber der planare Abschnitt nicht orthogonal ist und in Bezug auf eine Messrichtung des dreidimensionalen Sensors 5 geneigt ist. Dementsprechend können, in dem Fall, in dem die Anzahl von dreidimensionalen Punkten B, die als die Gruppe dreidimensionaler Punkte auf einer gleichen Ebene extrahiert werden, auf oder unterhalb eines vorbestimmten Schwellenwerts ist, die Positionsinformationen der Gruppe dreidimensionaler Punkte erneut von dem dreidimensionalen Sensor 5 erfasst werden, nachdem der Roboter 2 derart betrieben wird, dass der dreidimensionale Sensor 5 in einer beliebigen der Richtungen um eine horizontale Linie gedreht wird, die durch den Schwerpunkt des planaren Abschnitts verläuft, der von der extrahierten Gruppe dreidimensionaler Punkte gebildet wird und entlang des planaren Abschnitts liegt, und der Neigungswinkel des dreidimensionalen Sensors 5 geändert wird.
  • Wenn folglich die Anzahl von dreidimensionalen Punkten B, die den planaren Abschnitt bilden, größer als der vorbestimmte Schwellenwert wird, können die Positionsinformationen einer Gruppe dreidimensionaler Punkte, die an der Position erfasst werden, verwendet werden, um ein Werkstück W zu erkennen. Wenn die Anzahl von dreidimensionalen Punkten B, die den planaren Abschnitt bilden, aufgrund von Drehung vermindert wird, kann Drehung in der entgegengesetzten Richtung ausgeführt werden.
  • Darüber hinaus wird in der vorliegenden Ausführungsform eine Datenerfassungsposition, an der als Nächstes die Positionsinformationen der Gruppe dreidimensionaler Punkte zu erfassen sind, unter Verwendung der Positionsinformationen der Gruppe dreidimensionaler Punkte bestimmt, die in Schritt S2 erfasst wurden. Alternativ kann, wie in 7 gezeigt, in dem Fall, in dem nach dem Aufnehmen eines Werkstücks W bestimmt wird, dass das Aufnehmen aller Werkstücke W in dem Behälter Y noch nicht abgeschlossen ist (Schritt S7), der Roboter 2 zu der ersten Datenerfassungsposition bewegt werden, und Positionsinformationen der Gruppe dreidimensionaler Punkte in der gleichen Region wie in Schritt S2 können erneut erfasst werden (Schritt S9), und die nächste Datenerfassungsposition kann basierend auf den neu erfassten Positionsinformationen der Gruppe dreidimensionaler Punkte berechnet werden (Schritt S8).
  • Das heißt, wenn die Größe eines aufgenommenen Werkstücks W groß ist oder Positionen anderer Werkstücke W aufgrund des Aufnehmens eines Werkstücks W geändert werden, werden die Positionsinformationen der Gruppe dreidimensionaler Punkte, die in Schritt S2 erfasst werden, möglicherweise geändert.
  • Dementsprechend können die Positionsinformationen der Gruppe dreidimensionaler Punkte während des Transports eines aufgenommenen Werkstücks W in Schritt S2 erneut an der Datenerfassungsposition erfasst werden. Eine Gruppe dreidimensionaler Punkte, die ein genaues Erkennen eines Werkstücks W ermöglicht, kann somit erfasst werden.
  • Bezugszeichenliste
  • 1
    Werkstückaufnahmesystem
    2
    Roboter
    3
    Handspitzenabschnitt
    4
    Hand
    5
    dreidimensionaler Sensor
    7
    Steuereinheit
    8
    Werkstückzustand-Berechnungseinheit
    9
    Datenerfassungsposition-Berechnungseinheit
    A
    Datenerfassungsbereich (erste Teilregion, zweite Teilregion)
    B, B1
    dreidimensionaler Punkt
    W
    Werkstück
    Y
    Behälter

Claims (5)

  1. Werkstückaufnahmesystem (1), umfassend: einen Roboter (2); eine Hand (4), die an einem Handspitzenabschnitt (3) des Roboters (2) befestigt ist, zum Aufnehmen eines Werkstücks (W); einen dreidimensionalen Sensor (5), der an dem Handspitzenabschnitt (3) des Roboters (2) befestigt ist, zum Erfassen von Positionsinformationen einer Gruppe dreidimensionaler Punkte in einer Teilregion in einem Behälter (Y); eine Werkstückzustand-Berechnungseinheit (8), die das Werkstück (W) erkennt und eine Position und eine Stellung des erkannten Werkstücks (W) basierend auf Positionsinformationen einer Gruppe dreidimensionaler Punkte (B, B1) in einer ersten Teilregion (A) berechnet, die von dem dreidimensionalen Sensor (5) erfasst werden; eine Datenerfassungsposition-Berechnungseinheit (9), die eine Roboterposition entsprechend einer zweiten Teilregion (A) berechnet, in der als Nächstes Positionsinformationen zu erfassen sind, basierend auf den Positionsinformationen der Gruppe dreidimensionaler Punkte in der ersten Teilregion (A), die von dem dreidimensionalen Sensor (5) erfasst werden; und eine Steuereinheit (7), die den Roboter (2) und die Hand (4) basierend auf der Position und der Stellung des Werkstücks (W) steuert, die von der Werkstückzustand-Berechnungseinheit (8) berechnet werden, und basierend auf der Roboterposition entsprechend der zweiten Teilregion (A), die von der Datenerfassungsposition-Berechnungseinheit (9) berechnet wird, wobei die Datenerfassungsposition-Berechnungseinheit (9) als eine Referenz einen dreidimensionalen Punkt (B, B1) verwendet, der sich an einer höchsten Position von der Gruppe dreidimensionaler Punkte (B, B1) in der ersten Teilregion (A) befindet, um die Roboterposition entsprechend der zweiten Teilregion (A) zu berechnen.
  2. Werkstückaufnahmesystem (1) nach Anspruch 1, wobei die Datenerfassungsposition-Berechnungseinheit (9) die Roboterposition entsprechend der zweiten Teilregion derart berechnet, dass eine Horizontalrichtungsposition des dreidimensionalen Punkts (B, B1), der von der Gruppe dreidimensionaler Punkte (B, B1) in der ersten Teilregion (A) am höchsten ist, an einer Mitte der zweiten Teilregion (A) positioniert ist und eine Vertikalrichtungsposition des dreidimensionalen Sensors (5) eine vorbestimmte Höhe wird.
  3. Werkstückaufnahmesystem (1), umfassend: einen Roboter (2); eine Hand (4), die an einem Handspitzenabschnitt (3) des Roboters (2) befestigt ist, zum Aufnehmen eines Werkstücks (W); einen dreidimensionalen Sensor (5), der an dem Handspitzenabschnitt (3) des Roboters (2) befestigt ist, zum Erfassen von Positionsinformationen einer Gruppe dreidimensionaler Punkte (B, B1) in einer Teilregion (A) in einem Behälter (Y); eine Werkstückzustand-Berechnungseinheit (8), die das Werkstück (W) erkennt und eine Position und eine Stellung des erkannten Werkstücks (W) basierend auf Positionsinformationen einer Gruppe dreidimensionaler Punkte (B, B1) in einer ersten Teilregion (A) berechnet, die von dem dreidimensionalen Sensor (5) erfasst werden; eine Datenerfassungsposition-Berechnungseinheit (9), die eine Roboterposition entsprechend einer zweiten Teilregion (A) berechnet, in der als Nächstes Positionsinformationen zu erfassen sind, basierend auf den Positionsinformationen der Gruppe dreidimensionaler Punkte (B, B1) in der ersten Teilregion (A), die von dem dreidimensionalen Sensor (5) erfasst werden; und eine Steuereinheit (7), die den Roboter (2) und die Hand (4) basierend auf der Position und der Stellung des Werkstücks (W) steuert, die von der Werkstückzustand-Berechnungseinheit (8) berechnet werden, und basierend auf der Roboterposition entsprechend der zweiten Teilregion (A), die von der Datenerfassungsposition-Berechnungseinheit (9) berechnet wird, wobei die Datenerfassungsposition-Berechnungseinheit (9) als eine Referenz eine Schwerpunktposition einer planaren Region verwendet, die von einem Teil der der Gruppe dreidimensionaler Punkte (B, B1) in der ersten Teilregion (A) gebildet wird, um die Roboterposition entsprechend der zweiten Teilregion (A) zu berechnen.
  4. Werkstückaufnahmesystem (1) nach Anspruch 3, wobei die Datenerfassungsposition-Berechnungseinheit (9) die Roboterposition der zweiten Teilregion derart berechnet, dass eine Horizontalrichtungsposition der Schwerpunktposition an einer Mitte der zweiten Teilregion (A) positioniert wird und eine Vertikalrichtungsposition des dreidimensionalen Sensors (5) eine vorbestimmte Höhe wird.
  5. Werkstückaufnahmesystem (1) nach Anspruch 3 oder 4, wobei in einem Fall, in dem die Anzahl der dreidimensionalen Punkte, die in der planaren Region (A) vorhanden sind, gleich oder weniger ist als ein vorbestimmter Schwellenwert, die Datenerfassungsposition-Berechnungseinheit (9) die Roboterposition entsprechend der zweiten Teilregion, die einen Neigungswinkel des dreidimensionalen Sensors (5) ändert, berechnet.
DE102018111370.6A 2017-05-19 2018-05-14 Werkstückaufnahmesystem Active DE102018111370B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017100353A JP6487495B2 (ja) 2017-05-19 2017-05-19 ワーク取出しシステム
JP2017-100353 2017-05-19

Publications (2)

Publication Number Publication Date
DE102018111370A1 DE102018111370A1 (de) 2018-11-22
DE102018111370B4 true DE102018111370B4 (de) 2019-11-28

Family

ID=64269920

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018111370.6A Active DE102018111370B4 (de) 2017-05-19 2018-05-14 Werkstückaufnahmesystem

Country Status (4)

Country Link
US (1) US10434652B2 (de)
JP (1) JP6487495B2 (de)
CN (1) CN108942916B (de)
DE (1) DE102018111370B4 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019084601A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、把持システムおよび情報処理方法
JP7107249B2 (ja) * 2019-02-26 2022-07-27 株式会社ダイフク 物品移載装置
DE102019106068B3 (de) 2019-03-11 2020-06-10 Hiwin Technologies Corp. System zur beseitigung von überlagerungen zufällig angeordneter werkstücke
JP7120153B2 (ja) * 2019-05-21 2022-08-17 トヨタ自動車株式会社 ワーク識別方法
JP7376268B2 (ja) * 2019-07-22 2023-11-08 ファナック株式会社 三次元データ生成装置及びロボット制御システム
JP7368135B2 (ja) * 2019-07-31 2023-10-24 ファナック株式会社 複数の可動部を有する物品搬送システム
EP3809211B1 (de) * 2019-10-15 2021-12-15 Tyrolon-Schulnig GmbH System mit einer datenerzeugungseinheit in einem greifarm
JP2022110868A (ja) * 2021-01-19 2022-07-29 株式会社イシダ 物品集積装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004188562A (ja) * 2002-12-13 2004-07-08 Fanuc Ltd ワーク取出し装置
JP2011083882A (ja) * 2009-10-19 2011-04-28 Yaskawa Electric Corp ロボットシステム
EP2345515B1 (de) * 2008-10-10 2013-04-17 Honda Motor Co., Ltd. Verfahren zum anheben von werkstücken
DE102013012068A1 (de) * 2012-07-26 2014-01-30 Fanuc Corp Vorrichtung und Verfahren zum Entnehmen von lose gelagerten Objekten durch einen Roboter
US9156162B2 (en) * 2012-03-09 2015-10-13 Canon Kabushiki Kaisha Information processing apparatus and information processing method
DE102014212304B4 (de) * 2013-06-28 2016-05-12 Canon K.K. Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Speichermedium
EP2524776B1 (de) * 2011-05-17 2017-01-18 Kabushiki Kaisha Yaskawa Denki Robotersystem

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6478103A (en) * 1987-09-19 1989-03-23 Nissan Motor Work recognizing method by image processing
US4985846A (en) 1989-05-11 1991-01-15 Fallon Patrick J Acoustical/optical bin picking system
JP2000326273A (ja) * 1999-05-17 2000-11-28 Pioneer Electronic Corp 水晶素板の配列装置
JP2002200588A (ja) * 2000-12-28 2002-07-16 Denso Corp ロボットによる把持可能部品の把持位置検出方法及びその装置
JP2004160567A (ja) 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP4309439B2 (ja) * 2007-03-30 2009-08-05 ファナック株式会社 対象物取出装置
WO2011031523A2 (en) 2009-08-27 2011-03-17 Abb Research Ltd. Robotic picking of parts from a parts holding bin
JP5596373B2 (ja) 2010-03-04 2014-09-24 株式会社関電工 中高層ビルにおける垂直幹線の延線工法及びこれに使用する装置
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
US9089966B2 (en) * 2010-11-17 2015-07-28 Mitsubishi Electric Corporation Workpiece pick-up apparatus
JP5614553B2 (ja) * 2012-09-14 2014-10-29 株式会社安川電機 ロボット装置
JP5642759B2 (ja) 2012-10-31 2014-12-17 ファナック株式会社 物品取出装置及び物品取出方法
JP5754454B2 (ja) * 2013-03-18 2015-07-29 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
JP5786896B2 (ja) 2013-06-07 2015-09-30 株式会社安川電機 ワーク検出装置、ロボットシステム、被加工物の製造方法及びワーク検出方法
JP5929854B2 (ja) * 2013-07-31 2016-06-08 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP5905549B1 (ja) * 2014-09-16 2016-04-20 ファナック株式会社 バラ積みされた物品を取出す物品取出装置
JP2016099257A (ja) 2014-11-21 2016-05-30 キヤノン株式会社 情報処理装置及び情報処理方法
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004188562A (ja) * 2002-12-13 2004-07-08 Fanuc Ltd ワーク取出し装置
EP2345515B1 (de) * 2008-10-10 2013-04-17 Honda Motor Co., Ltd. Verfahren zum anheben von werkstücken
JP2011083882A (ja) * 2009-10-19 2011-04-28 Yaskawa Electric Corp ロボットシステム
EP2524776B1 (de) * 2011-05-17 2017-01-18 Kabushiki Kaisha Yaskawa Denki Robotersystem
US9156162B2 (en) * 2012-03-09 2015-10-13 Canon Kabushiki Kaisha Information processing apparatus and information processing method
DE102013012068A1 (de) * 2012-07-26 2014-01-30 Fanuc Corp Vorrichtung und Verfahren zum Entnehmen von lose gelagerten Objekten durch einen Roboter
DE102014212304B4 (de) * 2013-06-28 2016-05-12 Canon K.K. Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Speichermedium

Also Published As

Publication number Publication date
JP2018192592A (ja) 2018-12-06
DE102018111370A1 (de) 2018-11-22
CN108942916B (zh) 2019-08-23
US10434652B2 (en) 2019-10-08
CN108942916A (zh) 2018-12-07
US20180333857A1 (en) 2018-11-22
JP6487495B2 (ja) 2019-03-20

Similar Documents

Publication Publication Date Title
DE102018111370B4 (de) Werkstückaufnahmesystem
DE102014102943B4 (de) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE112019000125B4 (de) Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
DE102016000995B4 (de) Förderrobotersystem mit dreidimensionalem Sensor
DE112011103794B4 (de) Aufnehmervorrichtung für Werkstücke
DE102019108787B4 (de) Handsteuerungsvorrichtung und Handsteuerungssystem
DE102015208584B4 (de) Greifvorrichtung und Greifverfahren
DE102019003332B4 (de) Robotersystem und Steuerungsverfahren eines Robotersystems zur Entnahme von lose geladenen Werkstücken
DE102014016033B4 (de) Vorrichtung und Verfahren zum Aufnehmen von regellos verteilten Gegenständen mit einem Roboter
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102018101375B4 (de) Artikelbeförderungsvorrichtung, die mindestens einen Sensor nutzt
DE102013018222B4 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE102016001174B4 (de) Robotersystem zum Entnehmen von Werkstücken mit Umrechenfunktion von Position und Orientierung und Verfahren zum Entnehmen von Werkstücken
DE102014005758B4 (de) Robotersystem, aufweisend einen Roboter zur Beförderung eines Werkstücks
DE102013014873B4 (de) Aufnahmevorrichtung, die die Halteposition und -orientierung eines Roboters auf der Grundlage einer Auswahlbedingung bestimmt
DE102018132213A1 (de) Artikelübertragungsvorrichtung, Robotersystem und Artikelübertragungsverfahren
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE112018007727B4 (de) Robotersystem
DE102020207368A1 (de) Objekthandhabungssteuervorrichtung, Objekthandhabungsvorrichtung, Objekthandhabungsverfahren und Computerprogrammprodukt
DE102019208187B4 (de) Robotersystem und Steuerungsverfahren für ein Robotersystem
DE102018212531B4 (de) Artikeltransfervorrichtung
DE102018117829A1 (de) Steuereinheit für Gelenkroboter
DE102018202406B4 (de) Werkstückaufnahmesystem
EP3993958B1 (de) Verfahren zur positionierung eines biegeschlaffen flächenwerkstücks sowie positionierungsvorrichtung
DE102018109309B4 (de) Objekterkennungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final