DE102019109624B4 - Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung - Google Patents

Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung Download PDF

Info

Publication number
DE102019109624B4
DE102019109624B4 DE102019109624.3A DE102019109624A DE102019109624B4 DE 102019109624 B4 DE102019109624 B4 DE 102019109624B4 DE 102019109624 A DE102019109624 A DE 102019109624A DE 102019109624 B4 DE102019109624 B4 DE 102019109624B4
Authority
DE
Germany
Prior art keywords
robot
workpiece
movement
movement path
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019109624.3A
Other languages
English (en)
Other versions
DE102019109624A1 (de
Inventor
Wenjie Chen
Kaimeng Wang
Tetsuaki Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102019109624A1 publication Critical patent/DE102019109624A1/de
Application granted granted Critical
Publication of DE102019109624B4 publication Critical patent/DE102019109624B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1651Programme controls characterised by the control loop acceleration, rate control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35464Glove, movement of fingers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36422During teaching shut off, disable motor to move arm easy

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

Roboterbewegungseinlernvorrichtung (10), umfassend:eine Bewegungspfadextraktionseinheit (14), konfiguriert zum Verarbeiten von zeitvariierenden Bildern eines ersten Werkstücks (W1) und von Fingern (F) oder Armen eines Menschen (H), der an dem ersten Werkstück (W1) arbeitet, und dadurch einen Bewegungspfad (A, A') der Finger (F) oder Arme des Menschen (H) zu extrahieren;eine Zuordnungserzeugungseinheit (17), konfiguriert zum Erzeugen einer Transformationsfunktion für die Transformation von dem ersten Werkstück (W1) auf ein zweites Werkstück (W2) basierend auf Merkmalspunkten des ersten Werkstücks (W1) und Merkmalspunkten des zweiten Werkstücks (W2), wobei das zweite Werkstück (W2) durch einen Roboter (2) bearbeitet wird; undeine Bewegungspfaderzeugungseinheit (18), konfiguriert zum Erzeugen eines Bewegungspfads (A, A') des Roboters (2) basierend auf dem Bewegungspfad (A, A') der Finger (F) oder der Arme des Menschen (H), die durch die Bewegungspfadextraktionseinheit (14) extrahiert wurden, und basierend auf der Transformationsfunktion, die durch die Zuordnungserzeugungseinheit (17) erzeugt wurde, gekennzeichnet durcheine Ortsoptimierungseinheit, die konfiguriert ist, den Roboterbewegungspfad (A, A'), der durch die Bewegungspfaderzeugungseinheit (18) erzeugt wird, basierend auf einer Bewegungszeit, für die sich der Roboter (2) entlang des Bewegungspfads (A, A') bewegt, und basierend auf Beschleunigung jeder Welle des Roboters (2) zu optimieren.

Description

  • Die vorliegende Erfindung bezieht sich auf eine Roboterbewegungseinlernvorrichtung, ein Robotersystem und eine Robotersteuerung.
  • Bewegungseinlernvorrichtungen sind bekannt, die Roboter dazu bringen, menschliche manuelle Arbeit zu imitieren.
  • Die Druckschrift DE 10 2018 201 589 A1 offenbart ein Verfahren zur Programmierung der Steuerung eines Industrieroboters. In einem Schritt werden dabei Bahnsteuerungsdaten zur Steuerung einer Bewegung des Industrieroboters in Abhängigkeit von einer manuell bewirkten Bewegung des Industrieroboters erzeugt. In Abhängigkeit der Bahnsteuerungsdaten wird dann eine virtuellen Bahnkurve ermittelt. Die reale Werkstückgeometrie eines Werkstücks wird erfasst, mit der virtuellen Bahnkurve überlagert sowie angezeigt. Schließlich wird die virtuellen Bahnkurve in Abhängigkeit der überlagerten Anzeige bearbeitet und geänderte Bahnsteuerungsdaten werden in Abhängigkeit von der bearbeiteten virtuellen Bahnkurve erzeugt.
  • Die Druckschrift DE 11 2016 006 116 T5 offenbart eine Änderungserkennungseinheit zum Erkennen einer Änderung einer Position eines Arbeitsobjekts aus einem mithilfe einer Bildeingabevorrichtung erfassten Bild, eine Fingerbewegungs-Erkennungseinheit zum Erkennen einer Bewegung von Fingern eines Arbeiters aus dem mithilfe der Bildeingabevorrichtung erfassten Bild, eine Arbeitsinhalts-Schätzeinheit zum Schätzen eines Arbeitsinhalts des Arbeiters in Bezug auf das Arbeitsobjekt aus der mithilfe der Fingerbewegungs-Erkennungseinheit erkannten Bewegung der Finger und eine Steuerprogramm-Erzeugungseinheit zum Erzeugen eines Steuerprogramms eines Roboters zum Wiedergeben des Arbeitsinhalts und Befördern des Arbeitsobjekts aus dem von der Arbeitsinhalts-Schätzeinheit geschätzten Arbeitsinhalt und der Änderung der Position des Arbeitsobjekts, die von der Änderungserkennungseinheit erkannt wird.
  • Die Druckschrift DE 10 2013 110 847 B3 offenbart eine Steuervorrichtung zum Steuern eines Robotersystems mit wenigstens einem Roboterarm, an dem ein chirurgisches Instrument befestigt ist, das einen Endeffektor aufweist, wobei die Steuervorrichtung ein Bilderfassungssystem umfasst, das die Steuervorgabe wenigstens einer Hand aufzeichnet, auswertet und in entsprechende Steuerbefehle für eine oder mehrere Komponenten des Robotersystems umsetzt. Um die Steuerung des Robotersystems zu vereinfachen und insbesondere intuitiv zu gestalten, ist eine Steuereinheit vorgesehen, die die Orientierung und/oder die Position und/oder den Öffnungsgrad des Endeffektors eines chirurgischen Instruments als erste Größe bzw. erste Größen ermittelt, und ferner die Orientierung und/oder die Position und/oder den Öffnungsgrad wenigstens einer Hand als zweite Größe bzw. zweite Größen ermittelt und im Falle einer Abweichung einer oder mehrerer der ersten Größen von der jeweils entsprechenden zweiten Größe eine manuelle Steuerung des Endeffektors unterbindet, und im Falle einer Übereinstimmung einer oder mehrerer der ersten Größen mit der jeweils entsprechenden zweiten Größe eine Gestensteuerung freigibt, so dass das chirurgische Instrument von Hand betätigt werden kann.
  • Die Druckschrift DE 10 2010 029 745 A1 trifft ein Werkstück-Handhabungssystem, aufweisend mindestens zwei zur Handhabung von Werkstücken kooperierende Manipulatoren, die mittels wenigstens einer frei programmierbaren Steuervorrichtung in drei oder mehr Achsen automatisch steuerbar und/oder programmierbar sind, wobei mindestens ein erster Manipulator in wenigstens einem seiner Freiheitsgrade zum manuell geführten Bewegen eingerichtet ist, und die Steuervorrichtung eingerichtet ist, mindestens einen zweiten Manipulator in Abhängigkeit des manuell geführten Manipulators automatisch zusteuern. Die Druckschrift offenbart außerdem ein zugehöriges Verfahren zum Manipulieren von Werkstücken mittels kooperierender Manipulatoren, die von wenigstens einer Steuervorrichtung gesteuert sind.
  • Die Druckschrift US 2016 / 0 243 704 A1 offenbart ein Verfahren zum Programmieren mindestens eines Roboters durch Vorführung. Das Verfahren umfasst das Durchführen mindestens einer Demonstration mindestens einer Aufgabe im Sichtfeld mindestens einer feststehenden Kamera, um mindestens eine beobachtete Aufgabentrajektorie mindestens eines manipulierten Objekts, vorzugsweise mindestens einen Satz von beobachteten Aufgabentrajektorien, zu erhalten. Danach wird eine einer verallgemeinerte Aufgabentrajektorie aus der mindestens einen beobachteten Aufgabentrajektorie erzeugt, vorzugsweise aus dem mindestens einen Satz von beobachteten Aufgabentrajektorien.
  • Schließlich wird mindestens eine Aufgabe durch den mindestens einen Roboter im Sichtfeld der mindestens einen feststehenden Kamera ausgeführt, vorzugsweise unter Verwendung einer bildbasierten visuellen Servosteuerung, um die Differenz zwischen der ausgeführten Trajektorie während der Ausführung und der verallgemeinerten Aufgabentrajektorie zu minimieren.
  • Die Druckschrift US 2016 / 0 059 407 A1 offenbart eine Roboter-Lehrvorrichtung zum Lehren einer Operation eines Roboters. Die Roboter-Lehrvorrichtung misst einen Zustand einer Aktion eines Mechanismus an einem Zielobjekt, während der Mechanismus auf das Zielobjekt einwirkt. Der Mechanismus hat eine Form oder eine Funktion, die einer Handeinheit des Roboters entspricht. Die Roboter-Lehrvorrichtung erzeugt eine Betriebsanweisung für den Roboter auf der Grundlage des gemessenen Zustands und zeichnet die erzeugte Betriebsanweisung auf.
  • Die Bewegungseinlernvorrichtung in der Druckschrift JP S60 - 205 721 A verwendet mehrere Kameras zum Erhalten von Zeitreihendaten zu mehreren dreidimensionalen Positionen, die den Bewegungen der Arme, Hände und Fingerspitzen eines Menschen entsprechen, der an einem Gegenstand arbeitet, oder den Bewegungen des Objekts, an dem gearbeitet wird. Die Bewegungseinlernvorrichtung verwendet auch Sensoren, die an den Händen und Fingerspitzen des Menschen befestigt sind, um die Kraft zu erkennen, die auf den Gegenstand ausgeübt wird, an dem gearbeitet wird, und Zeitreihendaten über die Kraft zu erhalten. Die Vorrichtung transformiert die zwei Zeitreihendatensätze, die für denselben Zeitraum erhalten wurden, in Wellenortsdaten, die den Bewegungen der Gelenkwellen mehrerer Roboterarme entsprechen.
  • Die Bewegungseinlernvorrichtung in der Druckschrift JP S60 - 205 721 A nimmt jedoch an, dass ein Werkstück, an dem ein Mensch manuell arbeitet und ein Werkstück, an dem Roboter arbeiten, denselben Typ aufweisen. Daher ist es schwer für die Bewegungseinlernvorrichtung, Robotern Bewegungen beizubringen, wenn die Werkstücke auch nur leicht unterschiedlich geformt sind.
  • Die vorliegende Erfindung wurde mit Blick auf das obige Problem durchgeführt. Ein Aufgabe der Erfindung ist es, eine Roboterbewegungseinlernvorrichtung, ein Robotersystem und eine Robotersteuerung bereitzustellen, die einem Roboter leicht Bewegungen basierend auf einem arbeitenden Menschen beibringen können, um die Herstellungseffizienz selbst in dem Fall zu verbessern, dass ein Werkstück, das manuell durch den Menschen bearbeitet wird, und ein Werkstück, das durch den Roboter bearbeitet wird, unterschiedliche Typen aufweisen. Diese Aufgabe wir durch die Roboterbewegungseinlernvorrichtung gemäß Anspruch 1, das Robotersystem gemäß Anspruch 6 und die Robotersteuerung gemäß Anspruch 7 gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Ein Aspekt der vorliegenden Erfindung ist eine Roboterbewegungseinlernvorrichtung, enthaltend: eine Bewegungspfadextraktionseinheit, konfiguriert zum Verarbeiten von zeitvariierenden Bildern eines ersten Werkstücks und Fingern oder Armen eines Menschen, der an dem ersten Werkstück arbeitet, und dadurch einen Bewegungspfads der Finger oder Arme des Menschen zu extrahieren; Zuordnungserzeugungseinheit, konfiguriert zum Erzeugen einer Transformationsfunktion zur Transformation von dem ersten Werkstück zu einem zweiten Werkstück, das durch einen Roboter bearbeitet wird, basierend auf Merkmalspunkten des ersten Werkstücks und Merkmalspunkten des zweiten Werkstücks; und einer Bewegungspfaderzeugungseinheit, konfiguriert zum Erzeugen eines Bewegungspfads des Roboters basierend auf dem Bewegungspfad der Finger oder Arme des Menschen, die durch die Bewegungspfadextraktionseinheit extrahiert werden, und basierend auf der Transformationsfunktion, die durch die Zuordnungserzeugungseinheit erzeugt wird.
  • Nach diesem Aspekt verarbeitet die Bewegungspfadextraktionseinheit die zeitvariierenden Bilder des ersten Werkstücks und der Finger oder Arme des Menschen, der an dem ersten Werkstück arbeitet, und extrahiert dadurch den Bewegungspfad der Finger oder Arme des Menschen, und die Zuordnungserzeugungseinheit erzeugt die Transformationsfunktion für die Transformation von dem ersten Werkstück zu dem zweiten Werkstück, an dem der Roboter arbeitet, basierend auf den Merkmalspunkten des ersten Werkstücks und den Merkmalspunkten des zweiten Werkstücks. Die Bewegungspfaderzeugungseinheit erzeugt dann den Bewegungspfad des Roboters basierend auf dem extrahierten Bewegungspfad der Finger oder Arme des Menschen und der erzeugten Transformationsfunktion. Dieser Prozess ermöglicht die Verbesserung der Herstellungseffizienz durch leichtes Einlernen von Bewegungen für den Roboter basierend auf menschlicher Manueller Arbeit, selbst, wenn das erste Werkstück, an dem ein Mensch manuell arbeitet, und das zweite Werkstück, an dem der Roboter arbeitet, unterschiedliche Typen sind.
  • Erfindungsgemäß umfasst die Vorrichtung eine Ortsoptimierungseinheit, die konfiguriert ist, den Roboterbewegungspfad, der durch die Bewegungspfaderzeugungseinheit erzeugt wird, basierend auf einer Bewegungszeit, für die sich der Roboter entlang des Bewegungspfads bewegt, und basierend auf der Beschleunigung jeder Welle des Roboters zu optimieren.
    Die Ortsoptimierungseinheit optimiert den Roboterbewegungspfad in einer Weise, um die Bewegungszeit zu verringern und übermäßig Beschleunigung zu regulieren.
  • In dem obigen Aspekt kann die Vorrichtung auch einen ersten visuellen Sensor enthalten, der konfiguriert ist, zeitvariierende Bilder des ersten Werkstücks und der Finger oder Arme des Menschen, der an dem ersten Werkstück arbeitet, zu erfassen, und eine erste Merkmalspunktextraktionseinheit, die konfiguriert ist, die Merkmalspunkte des ersten Werkstücks aus einem Bild zu extrahieren, das durch einen ersten visuellen Sensor erhalten wurde. Die Bewegungspfadextraktionseinheit kann konfiguriert sein, den Bewegungspfad der Finger oder Arme des Menschen aus den Bildern zu extrahieren, die durch den ersten optischen Sensor erhalten wurden.
  • In dieser Konfiguration erhält der erste optische Sensor zeitvariierende Bilder des ersten Werkstücks und der Finger oder Arme des Menschen, die Bewegungspfadextraktionseinheit extrahiert den Bewegungspfad der Finger oder Arme des Menschen aus den erhaltenen Bildern und die erste Merkmalspunktextraktionseinheit extrahiert die Merkmalspunkte des ersten Werkstücks aus den erhaltenen Bildern.
  • In dem obigen Aspekt kann die Vorrichtung auch einen zweiten optischen Sensor enthalten, der konfiguriert ist, ein Bild des zweiten Werkstücks zu erfassen, und eine zweite Merkmalspunktextraktionseinheit, die konfiguriert ist, die Merkmalspunkte des zweiten Werkstücks aus dem Bild zu extrahieren, das durch den zweiten optischen Sensor erhalten wurde.
  • In dieser Konfiguration erhält der zweite optische Sensor ein Bild des zweiten Werkstücks, und die zweite Merkmalspunktextraktionseinheit extrahiert die Merkmalspunkte des zweiten Werkstücks aus dem erhaltenen Bild.
  • In dem obigen Aspekt kann die Arbeit des Menschen an dem ersten Werkstück in einem virtuellen Raum ausgeführt werden.
  • Dies eliminiert die Notwendigkeit einer echten Arbeitsumgebung für das erste Werkstück und den Menschen und erlaubt die Extraktion des Bewegungspfads der Finger des Menschen, wenn der Mensch in dem ersten virtuellen Raum an einem ersten Werkstück, das durch Software erzeugt wurde, arbeitet, und dieses bewegt.
  • In dem obigen Aspekt kann die Vorrichtung auch eine Speichereinheit enthalten, die konfiguriert ist, die Merkmalspunkte des zweiten Werkstücks und den Roboterbewegungspfad in Assoziation miteinander zu speichern.
  • Dies verbessert die Arbeitseffizienz durch Lesen der Roboterbewegungspfad aus der Speichereinheit, wenn an dem zweiten Werkstück erneut gearbeitet wird.
  • Ein anderer Aspekt der vorliegenden Erfindung ist ein Robotersystem, enthaltend: mehrere Roboter; mehrere Controller, konfiguriert, jeweils die Roboter zu steuern; ein Netzwerk, konfiguriert zum Verbinden der Controller; und die obige Roboterbewegungseinlernvorrichtung, die mit dem Netzwerk verbunden ist.
  • Dieser Aspekt erlaubt den Controllern für die Roboter das Lesen des Bewegungspfads jedes Roboters von der Speichereinheit der Bewegungseinlernvorrichtung über das Netzwerk basierend auf den Merkmalspunkten des zweiten Werkstücks, und die Roboter können die Informationen untereinander austauschen.
  • Noch ein weiterer Aspekt der vorliegenden Erfindung ist eine Robotersteuerung, einschließlich der Roboterbewegungseinlernvorrichtung. Die zweite Merkmalspunktextraktionseinheit ist konfiguriert zum Extrahieren von Positionen der Merkmalspunkte des zweiten Werkstücks in vorgegebenen Intervallen. Die Robotersteuerung enthält eine Positions-/Haltungsberechnungseinheit, die konfiguriert ist, eine Gleichung aus der Bewegung jedes Merkmalspunkts in den vorgegebenen Intervallen basierend auf den extrahierten Positionen der Merkmalspunkte zu extrahieren, und eine Position oder Haltung des zweiten Werkstücks basierend auf jeder Merkmalspunktposition berechnet, die aus der jeweiligen aktualisierten Gleichung der Bewegung berechnet wurde. Die Robotersteuerung steuert den Roboter basierend auf der zweiten Werkstückposition oder -haltung, die durch die Positions-/Haltungsberechnungseinheit berechnet wurde, und veranlasst dadurch den Roboter, dem zweiten Werkstück zu folgen.
  • Nach diesem Aspekt extrahiert die zweite Merkmalspunktextraktionseinheit die Positionen der Merkmalspunkte des zweiten Werkstücks in den vorgegebenen Intervallen aus den Bildern, die durch den optischen Sensor erhalten wurden. Die Positions-/Haltungsberechnungseinheit aktualisiert dann die Gleichung der Bewegung jedes Merkmalspunkts in den vorgegebenen Intervallen basierend auf den Positionen der Merkmalspunkte, die durch die zweite Merkmalspunktextraktionseinheit extrahiert wurden. Die Positions-/Haltungsberechnungseinheit berechnet auch die Positionen der Merkmalspunkte erneut auf den aktualisierten Gleichungen der Bewegung, und berechnet die Position oder Haltung des zweiten Werkstücks basierend auf den berechneten Merkmalspunktpositionen. Die Robotersteuerung steuert dann den Roboter basierend auf der zweiten Werkstückposition oder - haltung, die durch die Positions-/Haltungsberechnungseinheit berechnet wurde, und veranlasst dadurch den Roboter, dem zweiten Werkstück zu folgen.
  • In dieser Weise werden die Gleichung der Bewegung jedes Merkmalspunkts in den vorgegebenen Intervallen aktualisiert und die Gleichung der Bewegung des zweiten Werkstücks kann so online festgestellt werden. Dies erlaubt es dem Roboter, dem zweiten Werkstück, selbst dann, wenn es sich zufällig bewegt, zuverlässig zu folgen.
  • Die vorliegende Erfindung kann vorteilhaft die Herstellungseffizienz durch leichtes Einlernen von Bewegungen für den Roboter basierend auf menschlicher Manueller Arbeit verbessern, selbst, wenn ein Werkstück, an dem ein Mensch manuell arbeitet, und ein Werkstück, an dem der Roboter arbeitet, unterschiedliche Typen sind.
    • 1 illustriert eine ganze Konfiguration eines Robotersystems nach einer Ausführungsform der vorliegenden Erfindung.
    • 2 ist ein Blockdiagramm einer Bewegungseinlernvorrichtung, die in dem Robotersystem in 1 enthalten ist.
    • 3 illustriert die Transformationsfunktionserzeugungsverarbeitung durch eine Zuordnungserzeugungseinheit, die in der Bewegungseinlernvorrichtung in 2 enthalten ist.
  • Eine Roboterbewegungseinlernvorrichtung 10 und ein Robotersystem 1 nach einer Ausführungsform der vorliegenden Erfindung wird nun mit Verweis auf die Zeichnungen beschrieben.
  • Wie in 1 illustriert, enthält das Robotersystem 1 nach der vorliegenden Ausführungsform einen Roboter 2, eine Robotersteuerung 3, die mit dem Roboter 2 verbunden ist, und die Bewegungseinlernvorrichtung 10 nach der vorliegenden Ausführungsform, verbunden mit der Robotersteuerung 3.
  • Die Bewegungseinlernvorrichtung 10 enthält eine erste Kamera (einen ersten optischen Sensor) 11, die zeitvariierende Bilder eines ersten Werkstücks W1 und Finger F eines Menschen H erfasst, wenn der Mensch H an dem ersten Werkstück W1 arbeitet, eine zweite Kamera (einen zweiten optischen Sensor) 12, die Bilder eines zweiten Werkstücks W2 erfasst, an dem der Roboter 2 arbeitet, und eine Bildverarbeitungseinheit 13, die mit der ersten Kamera 11 und der zweiten Kamera 12 verbunden ist.
  • Wie in 2 illustriert, enthält die Bildverarbeitungseinheit 13 eine Bewegungspfadextraktionseinheit 14, die mit der ersten Kamera 11 verbunden ist, eine erste Merkmalspunktextraktionseinheit 15, die mit der ersten Kamera 11 verbunden ist, eine zweite Merkmalspunktextraktionseinheit 16, die mit der zweiten Kamera 12 verbunden ist, eine Zuordnungserzeugungseinheit 17, die mit der ersten Merkmalspunktextraktionseinheit 15 und einer zweiten Merkmalspunktextraktionseinheit 16 verbunden ist, und eine Bewegungspfaderzeugungseinheit 18, die mit der Bewegungspfadextraktionseinheit 14 und der Zuordnungserzeugungseinheit 17 verbunden ist.
  • Die Bewegungspfadextraktionseinheit 14 extrahiert den Bewegungspfad der Finger F des Menschen H aus den Bildern, die durch die erste Kamera 11 erhalten wurden. Genauer gesagt wird mit den Markierungen an den Fingern F des Menschen H eine bekannte Bewegungserfassungstechnik verwendet, um die Bewegungsspur der Markierungen aus den zeitvariierenden Bildern zu extrahieren, die durch die erste Kamera 11 erfasst werden.
  • Die erste Merkmalspunktextraktionseinheit 15 führt die Bildverarbeitung durch, um das erste Werkstück W1 in einem der Bilder zu extrahieren, die durch die erste Kamera 11 erhalten wurden, und extrahiert die Koordinaten der mehreren Merkmalspunkte, wie etwa Eckpunkte und Kanten.
  • Die zweite Merkmalspunktextraktionseinheit 16 führt die Bildverarbeitung durch, um das zweite Werkstück W2 in einem der Bilder zu extrahieren, die durch die zweite Kamera 12 erhalten wurden, und extrahiert die Koordinaten mehrerer Merkmalspunkte, wie etwa Eckpunkte und Kanten.
  • Die Zuordnungserzeugungseinheit 17 berechnet eine Transformationsfunktion f unter Verwendung der Zuordnung einer theoretischen Formel (1) unten, basierend auf den Koordinaten der Merkmalspunkte, die durch die erste Merkmalspunktextraktionseinheit 15 extrahiert wurden, und der Koordinaten der Merkmalspunkte, die durch die zweite Merkmalspunktextraktionseinheit 16 extrahiert wurden. ƒ = a r g   m i n ƒ k ƒ ( x ( k ) ) x ( k ) 2   + x 1 x 2 [ ( 2 ƒ x 1 2 ) 2 + 2 ( 2 ƒ x 1 x 2 ) 2 + ( 2 ƒ x 2 2 ) 2 ] d x 1   d x 2
    Figure DE102019109624B4_0001
  • Wobei Referenzzeichen f die Transformationsfunktion bezeichnet, k die Anzahl der Merkmalspunkte des ersten Werkstücks W1 bezeichnet, x(k) die Koordinaten des k-ten Merkmalspunkts bezeichnet, x1 und x2 die Koordinaten (x1, x2) für eine zweidimensionale Form in einem zweidimensionalen Koordinatensystem bezeichnen, x(k)' die Koordinaten des k-ten Merkmalspunkts des zweiten Werkstücks W2 bezeichnen und f(x(k)) die Koordinaten an dem zweiten Werkstück W2 bezeichnen, auf das die k-ten Koordinaten x(k) des ersten Werkstücks W1 durch die Zuordnungsfunktion f zugeordnet werden.
  • Das Berechnungsverfahren wird nun durch Verweis auf 3 beschrieben. 3 illustriert eine rechteckige Form B und eine Form B' als ein Beispiel. Die Form B ist die Form des ersten Werkstücks W1 und die Form B' ist die Form des zweiten Werkstücks W2, die sich von der Form des ersten Werkstücks W1 unterscheidet.
  • In 3 wird ein Punkt C in einer frei gewählten Position auf dem ersten Werkstück W1 definiert. Die Form B des ersten Werkstücks W1, die Form B' des zweiten Werkstücks W2, und der Punkt C sind in 3 als Koordinaten in einem Koordinatensystem C2 dargestellt.
  • 3 zeigt einen Punkt C', der die Position an der Form des zweiten Werkstücks W2 ist, die der Position des Punkts C an der Form des ersten Werkstücks W1 entspricht. Wenn die Koordinaten der Form B des ersten Werkstücks W1 und der Form B' des zweiten Werkstücks W2 in dem Koordinatensystem C2 bekannt sind, kann die Position des Punkts C' (d. h die Koordinaten im Koordinatensystem C2) durch Ersetzen dieser Koordinaten in der Transformationsfunktion f der Formel (1) berechnet werden.
  • Die Bewegungspfaderzeugungseinheit 18 verwendet ein solches Berechnungsverfahren zur Berechnung des Bewegungspfads für die Form B' des zweiten Werkstücks W2, die dem Bewegungspfad der Finger F des Menschen H entspricht, die für die Form B des ersten Werkstücks W1 erhalten werden. Genauer kann die Bewegungspfaderzeugungseinheit 18 in dem Koordinatensystem in 1 einen Bewegungspfad A' des Roboters 2 für das zweite Werkstück W2 berechnen, indem es in der Transformationsfunktion f einen Bewegungspfad A der Finger F des Menschen H für das erste Werkstück W1 ersetzt, der durch die Bewegungspfadextraktionseinheit 14 extrahiert wurde.
  • Wenn der Robotersteuerung 3 den Bewegungspfad A von der Bewegungspfaderzeugungseinheit 18 empfängt, multipliziert die Robotersteuerung 3 die Koordinaten der Punkte des Bewegungspfads A mit einer Koordinatentransformationsmatrix (z. B. eine Jacobimatrix) zur Transformation der Koordinaten des Bewegungspfads A in Koordinaten auf dem dreidimensionalen Roboterkoordinatensystem. Die entstehenden Koordinaten können als Einlernpunkte verwendet werden, um den Roboter 2 dem Bewegungspfad A' entsprechend zu bewegen.
  • Die Bewegungseinlernvorrichtung 10 und das Robotersystem 1 nach der vorliegenden Ausführungsform transformieren den Bewegungspfad A der Finger F des Menschen H, der durch eine Bewegungserfassungstechnik erhalten wurde, in den Bewegungspfad A' des Roboters 2. Die Bewegungseinlernvorrichtung 10 und das Robotersystem 1 können so den Zeitraum zum Einlernen eines komplizierten Bewegungspfads A im Verglich mit einer Technik, die einen Lernanhänger verwendet, verkürzen. Der einlernende Mensch H kann den Bewegungspfad A vorteilhaft durch intuitive Bewegungen einlernen. Weiterhin kann der einlernende Mensch H im Gegensatz zu einer Technik, die einen Lernanhänger verwendet, vorteilhaft auch nicht qualifiziert sein.
  • In der Bewegungseinlernvorrichtung 10 und dem Robotersystem 1 nach der vorliegenden Ausführungsform erzeugt die Zuordnungserzeugungseinheit 17, selbst, wenn das erste Werkstück W1, an dem der Mensch H arbeitet, und das zweite Werkstück W2, an dem der Roboter 2 arbeitet, nicht eine identische Form aufweisen, eine Transformationsfunktion, die die Transformation des Bewegungspfads A der Finger F des Menschen H in den Bewegungspfad A' des Roboters 2 basierend auf der Differenz der Formen der Werkstücke W1 und W2 erlauben.
  • Selbst wenn beispielsweise das erste Werkstück W1 und das zweite Werkstück W2 sich in der Form ähneln oder sich in einer Dimension unterscheiden, kann der Bewegungspfad A' des Roboters 2 genau erzeugt werden. Dies erlaubt dem Menschen H vorteilhaft das einfache Einlernen von Bewegungen für den Roboter 2 basierend auf intuitiver manueller Arbeit, was die Herstellungseffizienz erhöht.
  • Weiterhin müssen im Gegensatz zum Einlernen mit einer Computersimulation vorteilhaft nicht unbedingt genaue CAD-Daten erzeugt werden.
  • Die vorliegende Ausführungsform kann auch eine Ortsoptimierungseinheit (nicht dargestellt) umfassen, die den Bewegungspfad A' des Roboters 2 optimiert, der durch die Bewegungspfaderzeugungseinheit 18 erzeugt wird. Die Ortsoptimierungseinheit kann die Verarbeitung der Optimierung des Bewegungspfads A' beispielsweise unter Verwendung der Technik durchführen, die in Changliu Liu, Masayoshi Tomizuka, Real time trajectory optimization for nonlinear robotics systems: Relaxation and convexification, Systems & Control Letters 108 (2017), S. 56 bis 63, beschrieben ist.
  • Die Optimierungsverarbeitung optimiert den Ort nach der Ortsplanung, um ein Hindernis zu vermeiden. In der Ortsplanung werden die Bewertungsfunktion und die einschränkenden Bedingungen, die durch die Formeln (2) bis (5) unten dargestellt sind, verwendet, um einen Ort zu bestimmen, der mit einem geringen Motordrehmoment und einer kleinen Abweichung von dem erzeugten Bewegungspfad A' einen vorgegebenen Abstand von dem Hindernis einhält. m i n x , u   J ( x , u ) = w 1 x x r Q 2 + w 2 u R 2
    Figure DE102019109624B4_0002
    x t X , u t u
    Figure DE102019109624B4_0003
    x t = ƒ ( x t 1 , u t 1 )
    Figure DE102019109624B4_0004
    d ( x t , O t ) d m i n ,   t = 1, , N
    Figure DE102019109624B4_0005
  • Die Formel (2) stellt eine Bewertungsfunktion J(x, u) für die Ortsplanung dar und bestimmt den Ort x und das Drehmoment u, die die Summe der quadrierten Norm der Menge einer Abweichung von dem vorgegebenen Bewegungspfad xr des Roboters 2 (x - xr) und der quadrierten Norm des Motordrehmoments u, darstellt, wobei die vorgegebenen Gewichtungen ω1 und ω2 jeweils den quadrierten Normen zugewiesen werden.
  • Die Formeln (3), (4) und (5) sind einschränkende Bedingungen für die Formel (2).
  • Die Formel (4) ist ein Dynamikmodell.
  • Die Formel (5) gibt den Zustand vor, dass der Abstand von dem Hindernis größer ist, als der Mindestabstand.
  • In der Ortsoptimierung werden die Ortsbewertungsfunktion und die einschränkenden Bedingungen, die durch die Formeln (6) bis (8) unten dargestellt sind, verwendet, um den Ort in einer Weise zu bestimmen, um die Bewegungszeit für die Bewegung entlang des Bewegungspfads A' zu verringern und auch die Beschleunigung zu verringern. m i n τ , α   J T ( τ , α ) = w 3 τ 1 + w 4 α R 2
    Figure DE102019109624B4_0006
    τ > 0, α A
    Figure DE102019109624B4_0007
    g T ( τ , α ) = 0
    Figure DE102019109624B4_0008
  • Die Formel (6) stellt eine Bewertungsfunktion JT(τ, a) für die Ortsoptimierung dar und bestimmt die Bewegungszeit τ und die Beschleunigung a, die die Summe der quadrierten Norm der Bewegungszeit τ und der quadrierten Norm der Beschleunigung a minimieren, wobei die vorgegebenen Gewichtungen ω3 und ω4 jeweils den quadrierten Normen zugewiesen werden.
  • Die Formeln (7) und (8) sind einschränkende Bedingungen für die Formel (6), und die Formel (8) stellt die Beziehung zwischen Zeit und Beschleunigung dar.
  • Die Verarbeitung der Optimierung des Bewegungspfads A' ermöglicht das Einlernen des Bewegungspfads A', der eine schnelle Bewegung ohne Kollision mit einem Hindernis in der Nähe erlaubt.
  • Wenn sich das zweite Werkstück W2 zufällig bewegt, kann beispielsweise die Robotersteuerung, die in der japanischen ungeprüften Patentanmeldung Veröffentlichungsnr. JP 2018 - 027 580 A offenbart ist, verwendet werden. Genauer kann die zweite Merkmalspunktextraktionseinheit 16 die Positionen mehrerer Merkmalspunkte des zweiten Werkstücks W2 zu vorgegebenen Intervallen extrahieren, und eine Positions-/Haltungsberechnungseinheit kann die Gleichung der Bewegung jedes Merkmalspunkts in denselben Intervallen basierend auf den extrahierten Positionen der Merkmalspunkte aktualisieren und die Position oder Haltung des zweiten Werkstücks W2 basierend auf der Position jedes Merkmalspunkts berechnen, der aus der jeweiligen aktualisierten Gleichung der Bewegung berechnet wurde. Der Roboter 2 kann basierend auf der berechneten Position oder Haltung des zweiten Werkstücks W2 gesteuert werden. Dies erlaubt dem Roboter 2 vorteilhaft, durch optisches Servoing dem zweiten Werkstück W2 zu folgen, das sich zufällig bewegt.
  • Wenn das zweite Werkstück W2 eine unbestimmte Form aufweist, wie etwa ein Kabel, kann ein Bild, das durch die erste Kamera 11 erhalten wird, verwendet werden, die Form durch Simulation zu erkennen, und die Zuordnungserzeugungseinheit 17 kann die Transformationsfunktion basierend auf der erkannten Funktion bestimmen.
  • In der vorliegenden Ausführungsform wird eine bekannte Bewegungserfassungstechnik verwendet, um die Bewegungsspur der Markierungen von den zeitvariierenden Bildern zu extrahieren, die durch die erste Kamera 11 mit den Markierungen an den Fingern F des Menschen H erhalten wurden. Stattdessen kann der Mensch H an dem ersten Werkstück W1 in einem Virtual-Reality-(VR) Raum arbeiten. Dies erlaubt es, den Bewegungspfad A der Finger F des Menschen H zu extrahieren, ohne eine echte Arbeitsumgebung für das erste Werkstück W1 und den Menschen H bereitzustellen.
  • Weiterhin kann eine Speichereinheit enthalten sein, um die Merkmalspunkte des zweiten Werkstücks W2 zu speichern und den Bewegungspfad A' des Roboters 2 in Assoziation miteinander zu erzeugen. Dies verbessert die Arbeitseffizienz durch Lesen des Bewegungspfads A! des Roboters 2 aus der Speichereinheit, wenn an dem zweiten Werkstück W2 erneut gearbeitet wird.
  • Ein Robotersystem kann verwendet werden, das mehrere Roboter 2, Controller, die die Roboter 2, ein Netzwerk, das die Controller verbindet, und die Bewegungseinlernvorrichtung 10, die eine Speichereinheit enthält, die mit dem Netzwerk verbunden ist, umfasst.
  • Das Robotersystem erlaubt den Controllern für die Roboter 2 das Lesen des Bewegungspfads jedes Roboters 2 von der Speichereinheit der Bewegungseinlernvorrichtung 10 über das Netzwerk basierend auf den Merkmalspunkten des zweiten Werkstücks W2, und die Roboter 2 können die Informationen vorteilhaft untereinander austauschen.
  • Bezugszeichenliste
  • 1
    Robotersystem
    2
    Roboter
    3
    Robotersteuerung
    10
    Bewegungseinlernvorrichtung
    11
    Erste Kamera (erster optischer Sensor)
    12
    Zweite Kamera (zweiter optischer Sensor)
    14
    Bewegungspfadextraktionseinheit
    15
    Erste Merkmalspunktextraktionseinheit
    16
    Zweite Merkmalspunktextraktionseinheit
    17
    Zuordnungserzeugungseinheit
    18
    Bewegungspfaderzeugungseinheit
    W1
    Erstes Werkstück
    W2
    Zweites Werkstück
    A, A'
    Bewegungspfad
    F
    Finger
    H
    Mensch

Claims (7)

  1. Roboterbewegungseinlernvorrichtung (10), umfassend: eine Bewegungspfadextraktionseinheit (14), konfiguriert zum Verarbeiten von zeitvariierenden Bildern eines ersten Werkstücks (W1) und von Fingern (F) oder Armen eines Menschen (H), der an dem ersten Werkstück (W1) arbeitet, und dadurch einen Bewegungspfad (A, A') der Finger (F) oder Arme des Menschen (H) zu extrahieren; eine Zuordnungserzeugungseinheit (17), konfiguriert zum Erzeugen einer Transformationsfunktion für die Transformation von dem ersten Werkstück (W1) auf ein zweites Werkstück (W2) basierend auf Merkmalspunkten des ersten Werkstücks (W1) und Merkmalspunkten des zweiten Werkstücks (W2), wobei das zweite Werkstück (W2) durch einen Roboter (2) bearbeitet wird; und eine Bewegungspfaderzeugungseinheit (18), konfiguriert zum Erzeugen eines Bewegungspfads (A, A') des Roboters (2) basierend auf dem Bewegungspfad (A, A') der Finger (F) oder der Arme des Menschen (H), die durch die Bewegungspfadextraktionseinheit (14) extrahiert wurden, und basierend auf der Transformationsfunktion, die durch die Zuordnungserzeugungseinheit (17) erzeugt wurde, gekennzeichnet durch eine Ortsoptimierungseinheit, die konfiguriert ist, den Roboterbewegungspfad (A, A'), der durch die Bewegungspfaderzeugungseinheit (18) erzeugt wird, basierend auf einer Bewegungszeit, für die sich der Roboter (2) entlang des Bewegungspfads (A, A') bewegt, und basierend auf Beschleunigung jeder Welle des Roboters (2) zu optimieren.
  2. Roboterbewegungseinlernvorrichtung (10) nach Anspruch 1, ferner umfassend: einen ersten optischen Sensor (11), konfiguriert zum Erhalten zeitvariierender Bilder des ersten Werkstücks (W1) und der Finger (F) oder der Arme des Menschen (H), der an dem ersten Werkstück (W1) arbeitet; und eine erste Merkmalspunktextraktionseinheit (15), konfiguriert zum Extrahieren der Merkmalspunkte des ersten Werkstücks (W1) aus einem Bild, das durch den ersten optischen Sensor (11) erhalten wurde, wobei die Bewegungspfadextraktionseinheit (14) konfiguriert ist, einen Bewegungspfad (A, A') der Finger (F) oder der Arme des Menschen (H) aus den Bildern zu extrahieren, die durch den ersten optischen Sensor (11) erhalten wurden.
  3. Roboterbewegungseinlernvorrichtung (10) nach einem der Ansprüche 1 bis 2, ferner umfassend: einen zweiten optischen Sensor (12), konfiguriert zum Erfassen eines Bilds des zweiten Werkstücks (W2); und eine zweite Merkmalspunktextraktionseinheit (16), konfiguriert zum Extrahieren der Merkmalspunkte des zweiten Werkstücks (W2) aus einem Bild, das durch den zweiten optischen Sensor (12) erhalten wurde.
  4. Roboterbewegungseinlernvorrichtung (10) nach Anspruch 1, wobei die Arbeit des Menschen (H) an dem ersten Werkstück (W1) in einem virtuellen Raum ausgeführt wird.
  5. Roboterbewegungseinlernvorrichtung (10) nach einem der Ansprüche 1 bis 4, ferner umfassend eine Speichereinheit, die konfiguriert ist, die Merkmalspunkte des zweiten Werkstücks (W2) und den Roboterbewegungspfad (A, A') in Assoziation miteinander zu speichern.
  6. Robotersystem (1), umfassend: mehrere Roboter (2); mehrere Controller, die konfiguriert sind, jeweils die Roboter (2) zu steuern; ein Netzwerk, das konfiguriert ist, sich mit den Controllern zu verbinden; und die Roboterbewegungseinlernvorrichtung (10) nach Anspruch 5, wobei die Vorrichtung mit dem Netzwerk verbunden ist.
  7. Robotersteuerung (3), umfassend die Roboterbewegungseinlernvorrichtung (10) nach Anspruch 3, wobei die zweite Merkmalspunktextraktionseinheit (16) zum Extrahieren von Positionen der Merkmalspunkte des zweiten Werkstücks (W2) in vorgegebenen Intervallen konfiguriert ist, die Robotersteuerung (3) eine Positions-/Haltungsberechnungseinheit umfasst, die konfiguriert ist, eine Gleichung aus der Bewegung jedes Merkmalspunkts in den vorgegebenen Intervallen basierend auf den extrahierten Positionen der Merkmalspunkte zu extrahieren, und eine Position oder Haltung des zweiten Werkstücks (W2) basierend auf jeder Merkmalspunktposition berechnet, die aus der jeweiligen aktualisierten Gleichung der Bewegung berechnet wurde; und die Robotersteuerung (3) den Roboter (2) basierend auf der zweiten Werkstückposition oder -haltung steuert, die durch die Positions-/Haltungsberechnungseinheit berechnet wurde, und dadurch den Roboter (2) veranlasst, dem zweiten Werkstück (W2) zu folgen.
DE102019109624.3A 2018-04-18 2019-04-11 Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung Active DE102019109624B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-079583 2018-04-18
JP2018079583A JP6826069B2 (ja) 2018-04-18 2018-04-18 ロボットの動作教示装置、ロボットシステムおよびロボット制御装置

Publications (2)

Publication Number Publication Date
DE102019109624A1 DE102019109624A1 (de) 2019-10-24
DE102019109624B4 true DE102019109624B4 (de) 2022-11-03

Family

ID=68105579

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019109624.3A Active DE102019109624B4 (de) 2018-04-18 2019-04-11 Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung

Country Status (4)

Country Link
US (1) US11130236B2 (de)
JP (1) JP6826069B2 (de)
CN (1) CN110385694A (de)
DE (1) DE102019109624B4 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6838017B2 (ja) * 2018-08-31 2021-03-03 ファナック株式会社 レーザ加工のための教示装置、教示方法、及び教示プログラム
DE102018124671B4 (de) * 2018-10-06 2020-11-26 Bystronic Laser Ag Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms
TWI725630B (zh) * 2019-11-21 2021-04-21 財團法人工業技術研究院 加工路徑生成裝置及其方法
CN111360789B (zh) * 2020-03-23 2021-11-16 广东美的白色家电技术创新中心有限公司 工件加工的示教方法、控制方法及机器人示教***
CN111360794B (zh) * 2020-03-31 2022-08-26 上海捷勃特机器人有限公司 一种适配多种型号机器人的示教***及其示教方法
US11813749B2 (en) * 2020-04-08 2023-11-14 Fanuc Corporation Robot teaching by human demonstration
US20230278211A1 (en) * 2020-06-25 2023-09-07 Hitachi High-Tech Corporation Robot Teaching Device and Work Teaching Method
JP7491115B2 (ja) * 2020-07-22 2024-05-28 セイコーエプソン株式会社 ロボットの教示制御方法、ロボットシステム、及び、コンピュータープログラム
US12017371B2 (en) 2022-03-15 2024-06-25 Fanuc Corporation Efficient and robust line matching approach

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60205721A (ja) 1984-03-30 1985-10-17 Matsushita Electric Ind Co Ltd ロボツト動作教示装置
DE102010029745A1 (de) 2010-06-07 2011-12-08 Kuka Laboratories Gmbh Werkstück-Handhabungssystem und Verfahren zum Manipulieren von Werkstücken mittels kooperierender Manipulatoren
DE102013110847B3 (de) 2013-10-01 2015-01-22 gomtec GmbH Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung
US20160059407A1 (en) 2014-08-27 2016-03-03 Canon Kabushiki Kaisha Robot teaching apparatus, method, and robot system
US20160243704A1 (en) 2013-10-25 2016-08-25 Aleksandar Vakanski Image-based trajectory robot programming planning approach
JP2018027580A (ja) 2016-08-17 2018-02-22 ファナック株式会社 ロボット制御装置
DE112016006116T5 (de) 2016-01-29 2018-09-13 Mitsubishi Electric Corporation Roboterlehrvorrichtung und Verfahren zum Erzeugen eines Robotersteuerprogramms
DE102018201589A1 (de) 2018-02-01 2019-08-01 KORIS Vision & Force GmbH Verfahren zur Programmierung der Steuerung eines Industrieroboters, Verfahren zum Betreiben eines Industrieroboters, Programmiervorrichtung sowie Industrierobotersystem mit einer solchen Programmiervorrichtung

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197416A (ja) 1992-01-20 1993-08-06 Nippon Telegr & Teleph Corp <Ntt> ロボット動作点教示装置
JP3529158B2 (ja) * 1994-05-18 2004-05-24 ファナック株式会社 ロボット動作プログラミング方法及びプログラミング装置
JPH07314359A (ja) * 1994-05-30 1995-12-05 Nippon Telegr & Teleph Corp <Ntt> マニピュレータ用追従装置およびその制御方法
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
JP4410208B2 (ja) 2005-03-17 2010-02-03 独立行政法人科学技術振興機構 高速検索方法を用いたロボットの駆動方法
JP4976883B2 (ja) 2007-02-23 2012-07-18 パナソニック株式会社 マニピュレータシステム
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
US9052710B1 (en) * 2009-03-20 2015-06-09 Exelis Inc. Manipulation control based upon mimic of human gestures
JP5921248B2 (ja) * 2012-02-16 2016-05-24 キヤノン株式会社 ロボットの制御装置、ロボット、そのプログラム及びその制御方法
US20150094855A1 (en) * 2012-05-04 2015-04-02 Leoni Cia Cable Systems Sas Imitation learning method for a multi-axis manipulator
EP2931485B1 (de) 2012-12-14 2023-09-13 ABB Schweiz AG Freihändiges roboterpfad-training
JP6228079B2 (ja) * 2014-07-16 2017-11-08 本田技研工業株式会社 移動ロボットの動作目標生成装置
DE102015209900A1 (de) * 2015-05-29 2016-12-01 Kuka Roboter Gmbh Verfahren zum Bestimmen eines Bahnpunktes
JP6333790B2 (ja) 2015-10-21 2018-05-30 ファナック株式会社 ネットワークを介して接続された複数の制御装置を備えるロボットシステム
US11337652B2 (en) * 2016-07-25 2022-05-24 Facebook Technologies, Llc System and method for measuring the movements of articulated rigid bodies
JP6883392B2 (ja) * 2016-07-29 2021-06-09 川崎重工業株式会社 ロボットシステム
JP6680720B2 (ja) 2017-04-10 2020-04-15 ファナック株式会社 ロボットの動作軌跡を自動で生成する装置、システム、および方法
JP6499716B2 (ja) 2017-05-26 2019-04-10 ファナック株式会社 形状認識装置、形状認識方法及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60205721A (ja) 1984-03-30 1985-10-17 Matsushita Electric Ind Co Ltd ロボツト動作教示装置
DE102010029745A1 (de) 2010-06-07 2011-12-08 Kuka Laboratories Gmbh Werkstück-Handhabungssystem und Verfahren zum Manipulieren von Werkstücken mittels kooperierender Manipulatoren
DE102013110847B3 (de) 2013-10-01 2015-01-22 gomtec GmbH Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung
US20160243704A1 (en) 2013-10-25 2016-08-25 Aleksandar Vakanski Image-based trajectory robot programming planning approach
US20160059407A1 (en) 2014-08-27 2016-03-03 Canon Kabushiki Kaisha Robot teaching apparatus, method, and robot system
DE112016006116T5 (de) 2016-01-29 2018-09-13 Mitsubishi Electric Corporation Roboterlehrvorrichtung und Verfahren zum Erzeugen eines Robotersteuerprogramms
JP2018027580A (ja) 2016-08-17 2018-02-22 ファナック株式会社 ロボット制御装置
DE102018201589A1 (de) 2018-02-01 2019-08-01 KORIS Vision & Force GmbH Verfahren zur Programmierung der Steuerung eines Industrieroboters, Verfahren zum Betreiben eines Industrieroboters, Programmiervorrichtung sowie Industrierobotersystem mit einer solchen Programmiervorrichtung

Also Published As

Publication number Publication date
US20190321983A1 (en) 2019-10-24
JP2019188477A (ja) 2019-10-31
US11130236B2 (en) 2021-09-28
DE102019109624A1 (de) 2019-10-24
JP6826069B2 (ja) 2021-02-03
CN110385694A (zh) 2019-10-29

Similar Documents

Publication Publication Date Title
DE102019109624B4 (de) Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung
DE102014108287B4 (de) Schnelles Erlernen durch Nachahmung von Kraftdrehmoment-Aufgaben durch Roboter
DE102014103738B3 (de) Visuelle fehlersuche bei roboteraufgaben
DE102018116053B4 (de) Robotersystem und Roboterlernverfahren
DE102015208584B4 (de) Greifvorrichtung und Greifverfahren
DE102013203381B4 (de) Verfahren und system zum trainieren eines roboters unter verwendung einer von menschen unterstützten aufgabendemonstration
DE102015002760B4 (de) Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
DE102019119319B4 (de) Abtastsystem, Arbeitssystem, Verfahren zum Anzeigen von Augmented-Reality-Bildern, Verfahren zum Speichern von Augmented-Reality-Bildern und Programme dafür
DE102018213985B4 (de) Robotersystem
EP1447770B1 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102019002898A1 (de) Robotorsimulationsvorrichtung
DE102019006800A1 (de) Robotersteuerung und Anzeigevorrichtung unter Verwendung von erweiterter Realität und gemischter Realität
DE112018002565B4 (de) System und Verfahren zum direkten Anlernen eines Roboters
DE102021107532A1 (de) System und Verfahren zum Anlernen eines Roboters mittels Demonstration durch einen Menschen
EP3578321B1 (de) Verfahren zum verwenden mit einer maschine zum erstellen einer erweiterte-realität-anzeigeumgebung
DE102017202717A1 (de) Roboteranlernung per menschlicher demonstration von aufgaben mit kraft- und positionszielen
DE102019122865B4 (de) Erfassungssystem, Arbeitssystem, Anzeigeverfahren für ein Erweiterte-Realität-Bild und Programm
EP3098034B1 (de) Auswahl eines gerätes oder eines objektes mit hilfe einer kamera
DE102020110252B4 (de) Vibrationsanzeigeeinrichtung, Betriebsprogrammerstellungseinrichtung und System
WO2021001312A1 (de) Durchführen einer applikation mithilfe wenigstens eines roboters
DE112017007903B4 (de) Haltepositions- und Orientierungslehreinrichtung, Haltepositions- und Orientierungslehrverfahren und Robotersystem
DE102018124671B4 (de) Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms
DE102018004326B4 (de) Robotereinlernvorrichtung zum Einstellen von Einlernpunkten basierend auf einem Bewegtbild eines Werkstücks
DE112021004779T5 (de) Vorrichtung zum Einstellen eines Parameters, Robotersystem, Verfahren und Computerprogramm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final