DE102004006596B4 - Handeingabe von Werkstückposen - Google Patents

Handeingabe von Werkstückposen Download PDF

Info

Publication number
DE102004006596B4
DE102004006596B4 DE102004006596A DE102004006596A DE102004006596B4 DE 102004006596 B4 DE102004006596 B4 DE 102004006596B4 DE 102004006596 A DE102004006596 A DE 102004006596A DE 102004006596 A DE102004006596 A DE 102004006596A DE 102004006596 B4 DE102004006596 B4 DE 102004006596B4
Authority
DE
Germany
Prior art keywords
workpiece
screen
template
robot
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE102004006596A
Other languages
English (en)
Other versions
DE102004006596A1 (de
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VISION TOOLS BILDANALYSE SYSTE
VISION TOOLS BILDANALYSE SYSTEME GmbH
Original Assignee
VISION TOOLS BILDANALYSE SYSTE
VISION TOOLS BILDANALYSE SYSTEME GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VISION TOOLS BILDANALYSE SYSTE, VISION TOOLS BILDANALYSE SYSTEME GmbH filed Critical VISION TOOLS BILDANALYSE SYSTE
Priority to DE102004006596A priority Critical patent/DE102004006596B4/de
Publication of DE102004006596A1 publication Critical patent/DE102004006596A1/de
Application granted granted Critical
Publication of DE102004006596B4 publication Critical patent/DE102004006596B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/05Programmable logic controllers, e.g. simulating logic interconnections of signals according to ladder diagrams or function charts
    • G05B19/056Programming the PLC
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/10Plc systems
    • G05B2219/14Plc safety
    • G05B2219/14109Repair on or off-line
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32214Display on screen what fault and which tool and what order to repair fault
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Verfahren zur Handeingabe von Werkstückposen eines Werkstücks (1), das mittels eines Roboters (3) gegriffen oder bearbeitet wird, wobei mit einem aus mindestens einer Kamera (2) bestehenden Sensorsystem das Werkstück (1) erfaßt wird, mit einem Bildauswertesystem (5) die Werkstückpose im Normalfall automatisch berechnet wird, auf einem Bildschirm (4) das mit dem Sensorsystem gewonnene Bild des Werkstücks dargestellt wird, und zur Steuerung die aktuelle Werkstückpose an den Roboter übermittelt wird, dadurch gekennzeichnet, daß, bei Störungen des Normalfalls mittels Handbedienung auf dem Bildschirm eine Schablone (12) so verändert wird, daß die Darstellung der Schablone (12) auf dem Bildschirm mit der Darstellung des Werkstücks (1) korrespondiert, aus dieser Veränderung am Bildschirm die aktuelle Werkstückpose berechnet wird, und an den Roboter zur Steuerung übermittelt wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Handeingabe der Pose von Werkstücken, die mittels Roboter gegriffen oder bearbeitet werden, nach dem Oberbegriff des Anspruchs 1.
  • Handeingaben sind aus den folgenden Druckschriften bekannt:
    In JP 11-239989 A handelt es sich um die Kalibrierung der Grafikausgabe in einer Robotersimulation. Aufgrund der Handeingabe werden die Bewegungsparameter des Roboters aktualisiert, und zwar so, daß ein Kamerabild und die Grafikausgabe korrespondieren. Hierbei ist kein automatisches Sensorsystem im Spiel. Die Roboterparameter werden gegenüber dem ursprünglich gegebenen Robotermodell verändert. Anschauliches Beispiel: der Roboter wurde auf der Erde kalibriert und wird im Weltall betrieben. Über die Handeingabe wird eine Kalibrierung des Roboters auf die neuen Verhältnisse realisiert. Die grafische Ausgabe geschieht aufgrund eines (zu kalibrierenden) Simulationsmodells.
  • Bei einem chirurgischen System für Teleoprationen nach EP 0 776 739 B1 werden Manipulatoren mit End-Wirkungsgliedern, die an einer chirurgischen Behandlungs- bzw. Arbeitsstelle aneordnet sind, durch manuuell betätigte Mittel an einer Fernbedienungsstation gesteuert. Stereografische visuelle Anzeigemittel liefern dem Chirurgen ein Bild des Arbeitsraumes. Durch Anordnung des Bildes des Arbeitsraums neben den manuell betätigten Mitteln erhält der Chirurg das Gefühl, daß die End-Wirkungsglieder und die manuell betätigten Mittel integral sind. Es werden Kameras in Stereoanordnung eingesetzt, d.h. zwei Kameras betrachten gleiche Merkmale aus verschiedenen Winkeln, woraus für den Chirurgen der Eindruch räumlichen Sehens erreicht wird. Ein virtuelles Bild ist ein eingespiegeltes Kamerabild, das von einem Bildspeicher stammen kann; es handelt sich dabei nicht um eine Grafik. Der Chirurg beeinflußt manuell (indirekt) Wirkungslieder.
  • Bei EP 1 020 383 A1 geht es um die Generierung eines Ladeschemas beim Palettieren, indem das Ablademuster interaktiv am Bildschirm eingegeben wird.
  • Zum Steuern von Robotern oder sonstigen Handhabungssystemen oder Bearbeitungssystemen (im folgenden einfach Roboter genannt) werden Sensorsysteme eingesetzt, die die Position und Drehlage (kurz Pose) von Werkstücken in mehreren Freiheitsgraden bestimmen und an den Roboter weitergeben. Solche Sensorsysteme können verschiedener Art sein, z.B. Bildverarbeitungssysteme, Laser-Meßsysteme, Ultraschall-Meßsysteme.
  • Wenn in solchen Anlagen Störungen auftreten, sei es durch Ausfall des Sensorsystems oder eines Teils davon oder aufgrund von Problemen mit dem aktuellen Werkstück, das vorgegebenen Bedingungen nicht genügt, entstehen größere Ausfallzeiten durch die notwendigen Eingriffe (Öffnen der Schutztür, Herausnehmen des Werkstücks, Wiederstarten der Anlage..). Außerdem muß das herausgenommene Werkstück gehandhabt und ggf. verschrottet werden.
  • Aufgabe der Erfindung ist es, die bei solchen Störungen unumgänglichen Ausfallzeiten zu minimieren und verarbeitbare Werkstücke nicht verschrotten zu müssen.
  • Das Problem wird durch die Merkmale des Anspruchs 1 gelöst.
  • Dabei kann es sich bei dem Sensorsystem um ein Bildverarbeitungssystem handeln, das im Normalfall die Position und Drehlage des Werkstücks automatisch bestimmt, bei bestimmten Problemfällen (Beispiel: Fehlen normalerweise vorhandener Werkstückmerkmale bei Guß-Rohlingen) jedoch Rückweisungen liefern muss. Für die Handeingabe nach Anspruch 1 werden dann vorzugsweise Kamera und Bildschirm des Bildverarbeitungssystems benutzt.
  • Bei Störungen wird nach Anspruch 1 alleine aufgrund der Handbedienung am Bildschirm und automatisch durch geführter Rechnungen, ohne in den Prozeß selbst mechanisch eingreifen zu müssen, die aktuelle Pose des Werkstücks berechnet und an den Roboter übermittelt. Hierzu verändert die Bedienperson eine auf dem Bildschirm dargestellte Schablone derart, daß die Schablone auf dem Bildschirm mit der Darstellung des Werkstücks korrespondiert. Bei einfachen 2D-Systemen (Freiheitsgrade x, y, alpha) genügt als Veränderung eine Verschiebung und Verdrehung einer starren Schablone. Bei 3D-Systemen mit 6 Freiheitsgraden besteht die Schablone vorzugsweise aus mehreren Einzelmerkmalen (z.-B. Ecken, Löcher), die einzeln manuell am Bildschirm verschoben und ggf. verdreht werdne können. In Sonderfällen genügt bei 3D-Systemen (z.B. bei Freiheitsgraden x, y, z, alpha) eine verschiebbare, verdrehbare und größenveränderbare Schablone.
  • Die Erfindung wird nun anhand der nachfolgenden Zeichnungen näher erläutert:
  • 1 zeigt eine schematische Ansicht des Roboters mit Sensorund Bildauswertesystem,
  • 2 und 3 eine Ansicht einer einfachen 2D-Aufgabe.
  • 1 zeigt eine solche Szene, in der ein Bildauswertesystem als Sensorsystem eingesetzt wird, mit einem Werkstück 1, einer Kamera 2, einem Roboter 3, einem Bildschirm 4, und dem Bildauswertesystem 5, das mit Kamera 2 und Bildschirm 4 verbunden ist und ein Mittel zur Übertragung von Posedaten an den Roboter besitzt.
  • Die Kamera kann fest montiert sein oder beweglich, z.B. am Roboter selbst.
  • Die 2 und 3 zeigen eine einfache 2D-Aufgabe (Freiheitsgrade x, y, alpha).
  • 2 zeigt eine Bildschirmszene mit der 11 des Werkstückes 1, mit einer Schablone 12, bestehend aus einzelnen Merkmalen, im speziellen Kanten 13 und Ecken 14, optional mit verbindenden (punktierten) Linien 15.
  • 3 zeigt die gleiche Werkstückaufnahme, jedoch mit der Schablone per Handeingabe zurechtgeschoben und zurechtgedreht.
  • Die Veränderung kann allgemein realisiert werden mit bekannten Verfahren wie Betätigen von realen Knöpfen oder Joysticks, oder in den Bildschirm eingeblendeten Bedienelementen oder durch Drag-and-Drop-Technik oder durch Anclicken signifikanter Punkte als Merkmale. (Beispiel: Löcher und Ecken). Die verbindenden Linien 15 zwischen den Merkmalen müssen nicht notwendigerweise realen Kanten entprechen und werden zur besseren Verständlichkeit für den Benutzer eingeblendet.
  • In besonderer Ausgestaltung handelt es sich um einen Touch Screen Monitor, auf dem die Schablone bzw. die Merkmale direkt verschoben und verdreht werden können, wie dies bei CAD-Systemen üblich ist.
  • Die Schablone kann verschiedenste Ausführungsformen besitzten. Prinzipiell genügen bei 2D-Systemen (Freiheitsgrade x, y, alpha) beispielsweise zwei gerade Kanten, oder zwei Punkte oder ein Punkt und eine Kante, die grafisch als Overlay in das Bild eingeblendet werden. In der Praxis wird man jedoch eine mehr bildhafte Darstellung des Werkstücks wählen, um der Bedienperson die Assoziation zu der Erscheinungsweise des Werkstücks zu erleichtern. Vorteilhaft ist es dabei, signifikante Punkte besonders herausgehoben darzustellen.
  • In Sonderfällen genügt es, eine Visualisierung der im Normalfall verwendeten Bildverarbeitungsmerkmale des Bildverarbeitungssystems (Beispiele: Konturen, Löcher, Testpunkte, Templates) als Schablone für die Handeingabe zu verwenden.
  • In besonderer Ausgestaltung wird für 3D-Systeme eine Kamera mit kurzberennweitigem Objektiv eingesetzt und eine Schablone mit mindestens drei punktuellen, im Bild weit auseinder liegenden Merkmalen. In besonderer Ausgestaltung werden für 3D-Systeme mindestens zwei Kameras eingesetzt mit mindestens einer Schablone pro Kamera. Über die Handeingabe ist es auch in diesen Fällen möglich, die Werktückpose automatisch zu berechnen. Dazu werden die bekannten Methoden verwendet, wie sie aus der automatischen 3D-Bildanalyse bekannt sind. Damit können zum Beispiel aufgrund einfacher Handeingabe schwierige, nicht automatisch voll beherrschbare Einzelfälle beim sog. Griff in die Kiste oder durcheinander und übereinander auf einem Förderband liegender Teile gehandhabt werden. Ein spezieller Fall ist dabei der Einsatz von vorzugsweise drei Kameras, die aus verschiedenen Richtungen auf das Werkstück bzw. auf die Werkstücke orientiert sind, wobei bei der Handbedienung pro Kamera je mindestens ein punktuelles Merkmal (z.B. ein Loch, für jede Kamera ein anderes Merkmal) angeclickt wird. Aus den so manuell gewonnenen Daten kann bei kalibrierten Kameras mit Verfahren, die aus der Bildauswertung bekannt sind, die 3D-Werkstückpose berechnet werden.
  • Notwendige Anzahl der Kameras sowie Art und Anzahl der Schablonenmerkmale ergeben sich generell aus geometrischen Überlegungen, wie aus der automatischen Bildanalyse bekannt (Schablonenmerkmale sind explizit oder implizit Bestandteil der Schablone, z.B. besitzt eine Rechteckschablone 2 Geraden, aus denen sich eine 2D-Pose ergibt, die restlichen Geraden sind redundant).
  • Beispiele:
    Figure 00060001
  • Natürlich genügt beim Einsatz von mehreren Kameras ein einzelner Bildschirm, auf dem die Werkstückbilder gleichzeitig (nebeneinander) oder zeitlich hintereinander dargestellt werden.
  • Die vorliegende Erfindung besitzt eine besondere Bedeutung für sogenannte Assistenzsysteme, wie sie derzeit intensiv erforscht bzw. entwickelt werden; bei Ihnen befindet sich in der Nähe des Roboters immer eine Bedienperson, die bei Problemen sofort für die Handeingabe zur Verfügung steht.

Claims (5)

  1. Verfahren zur Handeingabe von Werkstückposen eines Werkstücks (1), das mittels eines Roboters (3) gegriffen oder bearbeitet wird, wobei mit einem aus mindestens einer Kamera (2) bestehenden Sensorsystem das Werkstück (1) erfaßt wird, mit einem Bildauswertesystem (5) die Werkstückpose im Normalfall automatisch berechnet wird, auf einem Bildschirm (4) das mit dem Sensorsystem gewonnene Bild des Werkstücks dargestellt wird, und zur Steuerung die aktuelle Werkstückpose an den Roboter übermittelt wird, dadurch gekennzeichnet, daß, bei Störungen des Normalfalls mittels Handbedienung auf dem Bildschirm eine Schablone (12) so verändert wird, daß die Darstellung der Schablone (12) auf dem Bildschirm mit der Darstellung des Werkstücks (1) korrespondiert, aus dieser Veränderung am Bildschirm die aktuelle Werkstückpose berechnet wird, und an den Roboter zur Steuerung übermittelt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Veränderung der Schablone (12) diese am Bildschirm (4) verschoben und/oder verdreht wird.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß für die Handeingabe einer dreidimensionalen Werkstückpose eine Kamera (2) mit kurzbrennweitigem Objektiv eingesetzt wird und daß die Schablone (12) aus mindestens drei Merkmalen (13, 14, 15) besteht, die am Bildschirm manuell verändert werden.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß für die Handeingabe einer dreidimensionalen Werkstückpose mindestens zwei Kameras eingesetzt werden und dass für jede Kamera eine Schablone verändert wird, daß jede Schablone mindestens ein Merkmal besitzt und daß insgesamt mindestens drei Merkmale (13, 14, 15) verwendet werden, die am Bildschirm manuell verändert werden.
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß für die Handeingabe einer dreidimensionalen Werkstückpose mindestens drei Kameras eingesetzt werden, dass für jede Kamera eine Schablone verändert wird und dass jede Schablone mindestens ein Merkmal besitzt, das am Bildschirm manuell verändert wird.
DE102004006596A 2004-02-10 2004-02-10 Handeingabe von Werkstückposen Expired - Lifetime DE102004006596B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102004006596A DE102004006596B4 (de) 2004-02-10 2004-02-10 Handeingabe von Werkstückposen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004006596A DE102004006596B4 (de) 2004-02-10 2004-02-10 Handeingabe von Werkstückposen

Publications (2)

Publication Number Publication Date
DE102004006596A1 DE102004006596A1 (de) 2005-09-01
DE102004006596B4 true DE102004006596B4 (de) 2007-02-15

Family

ID=34813239

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004006596A Expired - Lifetime DE102004006596B4 (de) 2004-02-10 2004-02-10 Handeingabe von Werkstückposen

Country Status (1)

Country Link
DE (1) DE102004006596B4 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007009851B3 (de) * 2007-02-28 2008-05-29 Kuka Roboter Gmbh Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt
CN111851295B (zh) * 2019-08-26 2021-12-28 东南大学 一种桥墩模板智能装卸装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4871252A (en) * 1986-10-30 1989-10-03 The Regents Of The University Of California Method and apparatus for object positioning
DE4421699A1 (de) * 1994-06-21 1996-01-04 Hartmut Prof Janocha Verfahren zur sensorgestützten Anpassung oder Generierung von Posen zur Steuerung von Handhabungsgeräten zur Verbesserung der absoluten Posegenauigkeit dieser Handhabungsgeräte in Verbindung mit Off-line-Programmiersystemen und zur Übertragung von Roboterprogrammen auf verschiedene Exemplare der Handhabungsgeräte mit gleicher Aufgabe unter Reduzierung der Auswirkungen exemplarspezifischer Positionierunterschiede sowie Unterschiede im Aufbau der den einzelnen Handhabungsgeräten zugehörigen Arbeitszellen
EP1020383A1 (de) * 1997-10-27 2000-07-19 Kabushiki Kaisha Yaskawa Denki Verfahren zur erzeugung von lademustern
DE19930087A1 (de) * 1999-06-30 2001-01-11 Charalambos Tassakos Verfahren und Vorrichtung zur Regelung der Vorhalteposition eines Manipulators eines Handhabungsgeräts
DE10118514A1 (de) * 2001-04-16 2002-10-24 Vmt Bildverarbeitungssysteme G Verfahren zur Arbeitspunktstabilisierung bei berührungsloser 3D- Positionserkennung eines Objektes mittels Digitalkameras
EP0776739B1 (de) * 1992-01-21 2003-04-23 Sri International Chirurgisches System
DE10159574A1 (de) * 2001-10-15 2003-04-30 Hermann Tropf Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen
US6681151B1 (en) * 2000-12-15 2004-01-20 Cognex Technology And Investment Corporation System and method for servoing robots based upon workpieces with fiducial marks using machine vision

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4871252A (en) * 1986-10-30 1989-10-03 The Regents Of The University Of California Method and apparatus for object positioning
EP0776739B1 (de) * 1992-01-21 2003-04-23 Sri International Chirurgisches System
DE69332914T2 (de) * 1992-01-21 2004-02-26 Sri International, Menlo Park Chirurgisches System
DE4421699A1 (de) * 1994-06-21 1996-01-04 Hartmut Prof Janocha Verfahren zur sensorgestützten Anpassung oder Generierung von Posen zur Steuerung von Handhabungsgeräten zur Verbesserung der absoluten Posegenauigkeit dieser Handhabungsgeräte in Verbindung mit Off-line-Programmiersystemen und zur Übertragung von Roboterprogrammen auf verschiedene Exemplare der Handhabungsgeräte mit gleicher Aufgabe unter Reduzierung der Auswirkungen exemplarspezifischer Positionierunterschiede sowie Unterschiede im Aufbau der den einzelnen Handhabungsgeräten zugehörigen Arbeitszellen
EP1020383A1 (de) * 1997-10-27 2000-07-19 Kabushiki Kaisha Yaskawa Denki Verfahren zur erzeugung von lademustern
DE19930087A1 (de) * 1999-06-30 2001-01-11 Charalambos Tassakos Verfahren und Vorrichtung zur Regelung der Vorhalteposition eines Manipulators eines Handhabungsgeräts
US6681151B1 (en) * 2000-12-15 2004-01-20 Cognex Technology And Investment Corporation System and method for servoing robots based upon workpieces with fiducial marks using machine vision
DE10118514A1 (de) * 2001-04-16 2002-10-24 Vmt Bildverarbeitungssysteme G Verfahren zur Arbeitspunktstabilisierung bei berührungsloser 3D- Positionserkennung eines Objektes mittels Digitalkameras
DE10159574A1 (de) * 2001-10-15 2003-04-30 Hermann Tropf Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JP 11-239989 A (Internet: http://aipn.ipdl.ncipi. go.jp/AI2/cgi-bin/AIPNSEARCH)
JP 11239989 A (Internet: http://aipn.ipdl.ncipi. go.jp/AI2/cgi-bin/AIPNSEARCH) *

Also Published As

Publication number Publication date
DE102004006596A1 (de) 2005-09-01

Similar Documents

Publication Publication Date Title
DE102018009025B4 (de) Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems
DE102018009023B4 (de) Einlernvorrichtung zum Ausführen von Robotereinlernvorgängen und Einlernverfahren
DE102018116053B4 (de) Robotersystem und Roboterlernverfahren
EP1447770B1 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE102018107231B4 (de) Robotereinlernvorrichtung
EP2546711B1 (de) Verfahren zum Programmieren eines Roboters
DE102010036499B4 (de) Werkzeugvektor-Anzeigevorrichtung für eine Werkzeugmaschine mit Drehachse
DE69735269T2 (de) Steuerverfahren zum schrittbetrieb eines roboters
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
DE102015107436B4 (de) Lernfähige Bahnsteuerung
DE102015105687B4 (de) Roboter
DE102017124502B4 (de) Simulationsvorrichung und Simulationsverfahren, die eine Betriebssimulation eines Robotersystems ausführen, und Aufzeichnungsmedium, das ein Computerprogramm aufzeichnet
DE102009029062A1 (de) Verfahren und Vorrichtung zur Bearbeitungszustandsüberwachung
DE102013113165A1 (de) Kalibrierungsverfahren für Robotersystem
DE102016102902A1 (de) Numerische Steuereinheit zur Steuerung einer Werkzeugmaschine
DE102006061752A1 (de) Roboter und Verfahren zum Programmieren eines Roboters
DE102018107857A1 (de) Vorrichtung, System und Verfahren zur automatischen Erzeugung eines Bewegungspfads eines Roboters
DE102013106076A1 (de) Werkzeugweg-Anzeigeeinheit zur Darstellung des Werkzeugvektors einer Werkzeugmaschine
DE102014118001A1 (de) Verfahren zur Bewegungssimulation eines Manipulators
DE102017108492A1 (de) Steuervorrichtung eines Roboters, die ein Betriebsprogramm, in dem der Zustand einer zusätzlichen Achse enthalten ist, anzeigt
DE102007009851B3 (de) Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt
EP3168701B1 (de) Verfahren zur darstellung der bearbeitung in einer werkzeugmaschine
EP1700175A1 (de) Vorrichtung und verfahren zum programmieren eines industrieroboters
DE102018124671B4 (de) Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms
DE102004006596B4 (de) Handeingabe von Werkstückposen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R071 Expiry of right