DE102018124595A1 - Vorrichtung zur Erfassung einer Position und Lage eines Endeffektors eines Roboters - Google Patents

Vorrichtung zur Erfassung einer Position und Lage eines Endeffektors eines Roboters Download PDF

Info

Publication number
DE102018124595A1
DE102018124595A1 DE102018124595.5A DE102018124595A DE102018124595A1 DE 102018124595 A1 DE102018124595 A1 DE 102018124595A1 DE 102018124595 A DE102018124595 A DE 102018124595A DE 102018124595 A1 DE102018124595 A1 DE 102018124595A1
Authority
DE
Germany
Prior art keywords
end effector
optical marker
basis
optical
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018124595.5A
Other languages
English (en)
Other versions
DE102018124595B4 (de
Inventor
Heiko Goller
Peter Hoffmann
Ivan Kausz
Gernot Sattelmayer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE102018124595.5A priority Critical patent/DE102018124595B4/de
Priority to CN201910939767.3A priority patent/CN111002304B/zh
Priority to US16/594,014 priority patent/US11554494B2/en
Publication of DE102018124595A1 publication Critical patent/DE102018124595A1/de
Application granted granted Critical
Publication of DE102018124595B4 publication Critical patent/DE102018124595B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39192Compensate thermal effects, expansion of links
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40595Camera to monitor deviation of each joint, due to bending of link

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Vorrichtung (10) zur Erfassung einer Position und Lage eines Endeffektors (12) eines Roboters (14), der einen Roboterarm (22) mit einer Vielzahl von Bewegungsachsen (24, 26, 28, 30, 32, 34) aufweist, die über eine Vielzahl von Gelenkverbindungen (36, 38, 40, 42, 44, 46) miteinander gekoppelt sind, wobei an einem ersten Ende des Roboterarms (22) der Endeffektor (12) angeordnet ist, wobei ein erster optischer Marker (60) an einer ersten Bewegungsachse (24) der Vielzahl von Bewegungsachsen (24, 26, 28, 30, 32, 34) angeordnet ist, wobei ein zweiter optischer Marker (62) an einer zweiten Bewegungsachse (26) der Vielzahl von Bewegungsachsen (24, 26, 28, 30, 32, 34) angeordnet ist, und wobei zwischen dem Endeffektor (12) und der ersten Bewegungsachse (24) eine geringere Anzahl von Gelenkverbindungen (36, 38, 40, 42, 44, 46) als zwischen dem Endeffektor (12) und der zweiten Bewegungsachse (26) angeordnet ist, wobei die Vorrichtung (10) aufweist: einen optischen Sensor (16), der dazu eingerichtet ist, Bilddaten des ersten und/oder zweiten optischen Markers (60, 62) zu erfassen; eine Speichereinheit (18), die dazu eingerichtet ist, ein kinematisches Modell des Roboterarms (22) zu speichern; eine Auswerteeinheit (20), die dazu eingerichtet ist, in einem ersten Fall, in dem der erste optische Marker (60) für den optischen Sensor (16) sichtbar ist, eine erste Position des ersten optischen Markers (60) anhand der Bilddaten zu ermitteln und anhand der ersten Position die Position und Lage des Endeffektors (12) zu ermitteln, und, in einem zweiten Fall, in dem der erste optische Marker (60) für den optischen Sensor (16) nicht sichtbar ist, jedoch der zweite optische Marker (62) für den optischen Sensor (16) sichtbar ist, eine zweite Position des zweiten optischen Markers (62) anhand der Bilddaten zu ermitteln und die Position und Lage des Endeffektors (12) anhand der zweiten Position sowie anhand des kinematischen Modells zu ermitteln.

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung sowie ein Verfahren zur Erfassung einer Position und Lage eines Endeffektors eines Roboters, bspw. während eines durch den Roboter ausgeführten Arbeitsablaufs in einem industriellen Umfeld. Ferner betrifft die vorliegende Erfindung ein Positionserfassungssystem, das zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet sind.
  • Roboter, bspw. Industrieroboter, sind universell einsetzbare, programmierbare Maschinen, die beispielsweise bei der Vermessung, Montage, Bearbeitung, Handhabung und/oder Qualitätskontrolle von Werkstücken im industriellen Umfeld eingesetzt werden.
  • Die Roboter weisen im Allgemeinen einen Roboterarm (einen sog. Manipulator), eine Steuereinheit sowie einen Endeffektor auf. An dem Endeffektor kann bspw. ein Werkzeug, ein Greifer und/oder ein oder mehrere Sensoren angeordnet sein, die bspw. zur Vermessung, Bearbeitung, Montage, Handhabung und/oder Qualitätskontrolle von Werkstücken eingesetzt werden. Bedingt durch das autonome Ausführen einer Vielzahl von Arbeitsabläufen durch Roboter steigen der Automatisierungsgrad sowie die Effizienz, was dazu führt, dass immer größere Stückzahlen mit geringerem Zeitaufwand und geringeren Ausschussquoten produzierbar sind.
  • Um die Durchführungsgenauigkeit robotergeführter Arbeitsabläufe zu gewährleisten, ist es notwendig, die oftmals komplexen Bewegungsabläufe der Roboter möglichst genau nachzuverfolgen bzw. positionsgenau zu steuern. Dabei weisen die Roboter oftmals eine Vielzahl von Bewegungsachsen mit einer Vielzahl von Gelenkverbindungen auf, durch die eine Vielzahl verschiedener Bewegungsabläufe mit möglichst vielen Freiheitsgraden gewährleistet wird.
  • Vor allem bei bearbeitenden Robotern, die bspw. zum Setzen von Schweißpunkten an Karosserieteilen verwendet werden, ist es notwendig, zu jedem Zeitpunkt dieses Arbeitsvorgangs die Position und Lage des Endeffektors, an dem bspw. eine Schweißpistole angeordnet ist, möglichst ermitteln zu können.
  • Auch bei einem Einsatz von Robotern in der sogenannten Inline-Messtechnik, bei der Messdaten innerhalb einer Fertigungslinie taktgebunden, bspw. über optische Messsensoren, erfasst werden und in der Fertigungslinie als Prozesssteuergröße dienen können, ist die möglichst genaue Bestimmung der Position und Lage des Endeffektors notwendig. An dem Endeffektor kann bspw. ein optische Messsensor angeordnet sein, der das Werkstück/Karosserieteil vermisst, um Fertigungsfehler festzustellen und/oder die Einhaltung der geforderten Messtoleranzen zu überprüfen. In einem solchen Fall ist die Ermittlung der Position und Lage des Endeffektors zwingend notwendig, um eine exakte Ermittlung der Messdaten gewährleisten zu können. Gerade in hochautomatisierten Fertigungsstraßen können nur sehr geringe Abweichungen toleriert werden, da sich die einzelnen Fehler bei den nachfolgenden Arbeitsschritten überlagern.
  • Ein erster Ansatz zur möglichst genauen Bestimmung der Position und Lage des Endeffektors eines Roboters erfolgt durch ständiges (Re-)Kalibrieren eines Roboter-Steuermodells während eines Arbeitsablaufs. Dabei wird das Steuermodell des Roboters, durch das sämtliche Bewegungsabläufe des Roboters gesteuert werden, während eines Arbeitsablaufs durch Messungen an Objekten im Raum (sog. Artefakten), deren jeweilige Position im Raum bekannt ist, ständig neu kalibriert. Eine solche (Re-)Kalibrierung ist bspw. notwendig, um eine temperaturbedingte Materialausdehnung einzelner Teile des Roboters zumindest teilweise zu kompensieren. Solche Materialausdehnungen werden bspw. durch ein Aufheizen einzelner Teile des Roboters während des Arbeitsablaufs hervorgerufen.
  • Eine Problematik des ersten Ansatzes liegt darin, dass das ständige Kalibrieren des Robotermodells anhand der Artefakte nicht ausreicht, um eine hinreichende Genauigkeit bei der Bestimmung der Position und Lage des Endeffektors (d.h. bei der Vermessung von Werkstücken) zu gewährleisten.
  • Zur Steigerung der Genauigkeit. können bspw. die durch den Roboter erfassten Messwerte (d.h. die des Inline-Messsystems) mit Messwerten eines (externen) Koordinatenmessgeräts korreliert und damit die Absolut-Werte der Position und Lage des Endeffektors des Roboters korrigiert werden. Allerdings sind diese Korrelationen sehr aufwendig und gehen im Allgemeinen mit einem hohen Kostenaufwand einher.
  • Eine Variante des ersten Ansatzes kann auch darin liegen, dass bei einer Inbetriebnahme eines Roboters einmalig alle möglichen Positionen des Endeffektors an allen geplanten Messpunkten durch ein externes System bestimmt werden. Allerdings ist die Flexibilität des Systems, bspw. bei einer Umorientierung des Endeffektors, einer Montage eines neuen Sensors und/oder bei einem Anfahren neuer Messpositionen, beschränkt.
  • Ein zweiter Ansatz zur möglichst genauen Bestimmung der Position und Lage des Endeffektors eines Roboters erfolgt durch ein Nachverfolgen des robotergeführten Sensors bzw. Endeffektors mit einem meist externen Positionserfassungssystem.
  • Allerdings setzt der zweite Ansatz voraus, dass sich der nachzuverfolgende Endeffektor des Roboters stets in einem Sichtbereich des externen Positionserfassungssystems befindet. Dies kann jedoch bei einer Vielzahl von Fertigungsprozessen nicht gewährleistet werden. Bspw. können einige Teile des Roboters durch andere Teile des Roboters verdeckt werden (eine sog. Eigenverdeckung), oder Teile des Roboters, bspw. der Endeffektor, bei der Durchführung eines Fertigungsschritts durch das zu bearbeitende Werkstück verdeckt werden. Bei der Automobilfertigung „tauchen“ Roboter bspw. bei der Überprüfung oder dem Setzen von Schweißpunkten in die Radkästen und/oder den Motorraum einer zu bearbeitenden Karosserie ein. In solchen Positionen ist der Endeffektor und eventuell auch weitere Teile des Roboterarms für ein Positionserfassungssystem nicht sichtbar (Sichtbarkeitsproblem).
  • Daher sind die bekannten Ansätze zur Bestimmung einer Position und Lage eines Endeffektors eines Roboters entweder sehr aufwändig und mit einem hohen Kostenaufwand verbunden oder nicht für das Ermitteln der Position und Lage des Endeffektors in jeder Arbeitsposition anwendbar.
  • Es ist somit eine Aufgabe der vorliegenden Erfindung eine Vorrichtung zur Erfassung einer Position und Lage des Endeffektors eines Roboters bereitzustellen, mit der auf den Einsatz aufwendiger und kostenintensiver Korrelationssysteme verzichtet werden kann und gleichzeitig eine Positions- und Lagebestimmung des Endeffektors in jeder Arbeitsposition bei gleichbleibend hoher Flexibilität des Roboters gewährleistet ist.
  • Diese Aufgabe wird erfindungsgemäß durch eine Vorrichtung zur Erfassung einer Position und Lage eines Endeffektors eines Roboters gelöst, wobei der Roboter einen Roboterarm mit einer Vielzahl von Bewegungsachsen aufweist, die über eine Vielzahl von Gelenkverbindungen miteinander gekoppelt sind, wobei an einem ersten Ende des Roboterarms der Endeffektor angeordnet ist, wobei ein erster optischer Marker an einer ersten Bewegungsachse der Vielzahl von Bewegungsachsen angeordnet ist, wobei ein zweiter optischer Marker an einer zweiten Bewegungsachse der Vielzahl von Bewegungsachsen angeordnet ist, und wobei zwischen dem Endeffektor und der ersten Bewegungsachse eine geringere Anzahl von Gelenkverbindungen als zwischen dem Endeffektor und der zweiten Bewegungsachse angeordnet ist, und wobei die erfindungsgemäße Vorrichtung folgende Bauteile aufweist: (i) einen optischen Sensor, der dazu eingerichtet ist, Bilddaten des ersten und/oder zweiten optischen Markers zu erfassen; (ii) eine Speichereinheit, die dazu eingerichtet ist, ein kinematisches Modell des Roboterarms zu speichern; und (iii) eine Auswerteeinheit, die dazu eingerichtet ist, in einem ersten Fall, in dem der erste optische Marker für den optischen Sensor sichtbar ist, eine erste Position des ersten optischen Markers anhand der Bilddaten zu ermitteln und anhand der ersten Position die Position und Lage des Endeffektors zu bestimmen, und, in einem zweiten Fall, in dem der erste optische Marker für den optischen Sensor nicht sichtbar ist, jedoch der zweite optische Marker für den optischen Sensor sichtbar ist, eine zweite Position des zweiten optischen Markers anhand der Bilddaten zu ermitteln und die Position und Lage des Endeffektors anhand der zweiten Position sowie anhand des kinematischen Modells zu ermitteln.
  • Ferner wird die Aufgabe durch ein Verfahren sowie ein Positionserfassungssystem zur Durchführung dieses Verfahrens gelöst. Das erfindungsgemäße Verfahren weist die folgenden Schritte auf: (i) Erfassen von Bilddaten des ersten und/oder zweiten optischen Markers; (ii) Bereitstellen eines kinematischen Modells des Roboterarms; und (iii) Ermitteln der Position und Lage des Endeffektors, wobei in einem ersten Fall, in dem der erste optische Marker erfassbar ist, eine erste Position des ersten optischen Markers anhand der Bilddaten sowie die Position und Lage des Endeffektors anhand der ersten Position ermittelt wird, und in einem zweiten Fall, in dem der erste optische Marker nicht erfassbar ist, jedoch der zweite optische Marker erfassbar ist, eine zweite Position des zweiten optischen Markers anhand der Bilddaten sowie die Position und Lage des Endeffektors anhand der zweiten Position sowie anhand des kinematischen Modells ermittelt wird.
  • Ein Vorteil der erfindungsgemäßen Vorrichtung bzw. des Verfahrens liegt darin, dass die Genauigkeit eines rein modellbasierten Ansatzes durch das Einbeziehen der Bilddaten erheblich gesteigert werden kann. Zudem kann durch die Verknüpfung der externen Positionserfassung mit dem kinematischen Modell das Sichtbarkeitsproblem des zweiten Ansatzes vollständig gelöst werden.
  • Über die Ermittlung der Position der dem Endeffektor am nächsten liegenden, sichtbaren Bewegungsachse in Verbindung mit der simulativen Ermittlung der (Relativ-)Position und (Relativ-)Lage des Endeffektors ausgehend von dieser Position anhand des kinematischen Modells, kann die Position und Lage des Endeffektors in jeder Arbeitsposition des Roboterarms eindeutig ermittelt werden. Der eingangs genannte zweite Ansatz würde in dem erfindungsgemäßen zweiten Fall ohnehin keine Ergebnisse liefern, da der Endeffektor bzw. die erste Bewegungsachse für den optischen Sensor nicht sichtbar ist.
  • Erfindungsgemäß wird das oben beschriebene Sichtbarkeitsproblem auf die geringste, mögliche Anzahl an nicht sichtbaren Bewegungsachsen reduziert. D.h. mit anderen Worten, dass die Bestimmung einer Position und Lage einer Bewegungsachse vorzugsweise durch eine optische Auswertung von erfassten Bilddaten (anhand der optischen Marker) erfolgt. Lediglich bei nicht sichtbaren Bewegungsachsen wird die Position und Lage anhand des kinematischen Modells ermittelt, wodurch die Gesamtgenauigkeit der Vorrichtung im Vergleich zu dem eingangs genannte ersten und/oder zweiten Ansatz gesteigert werden kann.
  • Durch die erfindungsgemäße Vorrichtung tragen beispielsweise Bewegungsachsen mit einem großen Hebelarm im Vergleich zu einem rein modellbasierten Ansatz nichtmehr zu Fehlern bei der Bestimmung der Position und Lage des Endeffektors bei. Dies wird dadurch erreicht, dass vorzugsweise die Bewegungsachse des Roboterarms (bzw. der an dieser angeordnete optische Marker) anhand der Auswertung von Bilddaten durch die Auswerteeinheit ermittelt wird, zwischen der die geringste Anzahl an Gelenkverbindungen zu dem Endeffektor im Vergleich mit den anderen Bewegungsachsen des Roboterarms angeordnet ist. Somit reduziert sich das Sichtbarkeitsproblem lediglich auf die Bewegungsachse, die außerhalb des Sichtbereichs des optischen Sensors liegen.
  • In dem zweiten Fall erfolgt die Bestimmung der Position und Lage des Endeffektors dadurch, dass durch die Auswerteeinheit die zweite Position des zweiten optischen Markers ermittelt wird, und ausgehend von der zweiten Position die Position und Lage des Endeffektors anhand des kinematischen Modells ermittelt wird. D.h. mit anderen Worten, dass die Auswerteeinheit die Position und Lage des Roboters über die Auswertung der Bilddaten des zweiten optischen Markers bis zu der zweiten Position ermittelt, wodurch sich das Sichtbarkeitsproblem lediglich auf die erste Bewegungsachse beschränkt. Durch die Anwendung des kinematischen Modells kann ausgehend von der zweiten Position die Position und Lage des Endeffektors bestimmt werden. Somit reduzieren sich die durch das kinematische Modell erzeugten Fehler, d.h. die Abweichung zwischen einer durch das kinematische Modell bestimmten Position des Endeffektors mit dessen realer Position, auf lediglich eine Bewegungsachse.
  • Dies bietet einen besonderen Vorteil gegenüber dem oben erwähnten, rein modellbasierten Ansatz zur Bestimmung der Position und Lage des Endeffektors. Bei dem modellbasierten Ansatz stehen für die Positionsermittlung lediglich die Messdaten von Achswinkeln zwischen der Vielzahl von Bewegungsachsen zur Verfügung. Es liegen bspw. keine Informationen über eine mögliche Fehlstellung einzelner Bewegungsachsen vor. Solche Fehlstellungen können beispielsweise dazu führen, dass sich Fehler einzelner Bewegungsachsen überlagern. Liegen solche Fehler bspw. bereits an Bewegungsachsen vor, die an einem dem Endeffektor gegenüberliegenden Ende des Roboterarms angeordnet sind, überträgt sich dieser Fehler (und überlagert sich ggf. mit anderen Fehlern) entlang eines durch den Roboterarm definierten kinematischen Pfads bis zu dem Endeffektor, wodurch es bei der Positions- und Lagebestimmung zu großen Abweichungen im Vergleich zu der Realposition kommt.
  • Durch die erfindungsgemäße Vorrichtung können Fehlstellungen einzelner sichtbarer Bewegungsachsen über die Auswertung von Bilddaten ermittelt werden. Somit unterliegt die Positionsbestimmung für alle sichtbaren Bewegungsachsen lediglich einer sehr geringen Abweichung.
  • Unabhängig davon, ob der zuvor beschriebene erste oder der zuvor beschriebene zweite Fall vorliegt, schließt das erwähnte Prinzip der vorliegenden Erfindung nicht aus, dass die Auswerteeinheit zur Ermittlung der Position und Lage des Endeffektors mehr als nur die Position eines optischen Markers anhand der Bilddaten ermittelt. Gemäß einer Ausgestaltung der vorliegenden Erfindung ist es bevorzugt, dass der optische Sensor Bilddaten von möglichst vielen sichtbaren optischen Markern erfasst, die Auswerteeinheit die Position von mehr als nur einem optischen Marker anhand der Bilddaten ermittelt und die Auswerteinheit die Position und Lage des Endeffektors anhand dieser Positionen und ggf. dem kinematischen Modell ermittelt. In dem ersten Fall (erster Marker sichtbar) könnte die Auswerteeinheit also beispielsweise die Position des ersten, zweiten, dritten und vierten Markers ermitteln und auf Basis dieser Position die Position und Lage des Endeffektors ermitteln. In dem zweiten Fall (erster Marker nicht sichtbar) könnte die Auswerteeinheit beispielsweise die Position des zweiten, dritten und vierten Markers ermitteln und auf Basis dieser Position die Position und Lage des Endeffektors ermitteln.
  • Die Ermittlung der Position mehrerer Marker basierend auf den Bilddaten und die anschließende Ermittlung der Position und Lage des Endeffektors auf Basis mehrerer Markerpositionen hat unter Anderem die folgenden Vorteile: Zum einen wird dadurch die Stabilität und Genauigkeit der Auswertung vergrößert. Unstimmigkeiten oder Widersprüche in deren Positionsbestimmungen lassen sich dadurch aufdecken. Andererseits vereinfacht dieser Ansatz die Bestimmung der räumlichen Lage des Endeffektors, da diese basierend auf zwei oder mehr Markerpositionen einfacher bestimmbar ist als basierend auf nur einer Markerposition.
  • Unter dem Begriff „Vielzahl“ wird in dem hier vorliegenden Fall eine Anzahl von zwei oder mehreren verstanden.
  • Die optischen Marker können bspw. in Form von Markierungen einer bestimmten Form, Größe und/oder Geometrie als zusätzliche Teile an den Bewegungsachsen angeordnet sein. Die optischen Marker sind dabei vorzugsweise derart ausgestaltet, dass sie für den optischen Sensor eindeutig erfassbare Bildinformationen bei der Aufnahme der Bilddaten liefern. Diese eindeutig erfassbaren Bildinformationen können durch die Auswerteeinheit vorzugsweise eindeutig von einer Umgebungsperipherie abgegrenzt und somit ermittelt werden. Die optischen Marker können bspw. auch als Schrauben, Nietpunkte, Vertiefungen, Auswölbungen und/oder Ähnliches ausgeführt sein. Die Schrauben, Nietpunkte, Vertiefungen, Auswölbungen und/oder Ähnliches können bspw. an den Bewegungsachsen bzw. auf einer Oberfläche des Roboterarms angeordnet sein und als optische Marker fungieren.
  • Das kinematische Modell kann bspw. ein vordefinierter Algorithmus sein, der die Bewegungsabläufe des Roboterarms bspw. als Simulation abbildet. Vorzugsweise kann das kinematische Modell eine oder mehrere Eingangsgrößen aufweisen, die. Echtzeitinformation über den Bewegungsablauf umfassen. Allerdings kann auch eine rein simulative Abbildung von Bewegungsabläufen des Roboters ohne eine Einbeziehung von externen Eingangsgrößen erfolgen. Das kinematische Modell kann bspw. in Form eines Programms in der Speichereinheit gespeichert sein, das von der Auswerteeinheit ausgeführt werden kann. Ebenfalls ist ein virtueller Speicher, bspw. in Form einer internetbasierten Cloud, denkbar, in dem das kinematische Modell bspw. in Form eines ausführbaren Skripts hinterlegt ist.
  • Die Positionen der optischen Marker, welche erfindungsgemäß anhand der Bilddaten und/oder anhand des kinematischen Modells ermittelt werden, sind vorliegend durchnummeriert. Diese Nummerierung dient jedoch lediglich zur Vereinfachung der Nomenklatur sowie zur besseren Differenzierung der einzelnen Positionen voneinander.
  • Gemäß einer Ausgestaltung der vorliegenden Erfindung ist die Auswerteeinheit dazu eingerichtet, in dem zweiten Fall eine Relativposition und eine Relativlage des Endeffektors relativ zu der zweiten Position anhand des kinematischen Modells zu ermitteln.
  • Das kinematische Model kann bspw. die zweite Position (d.h. die anhand der Bilddaten ermittelte Position des zweiten optischen Markers) als Eingangsgröße erhalten und ausgehend von der zweiten Position die Position und Lage des Endeffektors relativ zu der zweiten Position ermitteln. Temperaturbedingte Fehler bei der Positionsbestimmung durch das kinematische Modell können somit lediglich auf die erste Bewegungsachse reduziert werden. Somit ist ein potenzieller Fehler des kinematischen Modells auf lediglich eine Bewegungsachse entlang des kinematischen Pfades beschränkt, wodurch die Gesamtgenauigkeit bei der Erfassung der Position und Lage des Endeffektors im Vergleich zu dem rein modellbasierten Ansatz gesteigert werden kann.
  • Gemäß einer weiteren Ausgestaltung ist der optische Sensor dazu eingerichtet, Bilddaten eines dritten optischen Markers zu erfassen, der an einer dritten Bewegungsachse der Vielzahl von Bewegungsachsen angeordnet ist, wobei zwischen dem Endeffektor und der zweiten Bewegungsachse eine geringere Anzahl von Gelenkverbindungen als zwischen dem Endeffektor und der dritten Bewegungsachse angeordnet ist, und wobei die Auswerteeinheit dazu eingerichtet ist, in einem dritten Fall, in dem sowohl der erste als auch der zweite optische Marker für den optischen Sensor nicht sichtbar ist, jedoch der dritte optische Marker für den optischen Sensor sichtbar ist, eine dritte Position des dritten optischen Markers anhand der Bilddaten zu ermitteln und die Position und Lage des Endeffektors anhand der dritten Position sowie anhand des kinematischen Modells zu ermitteln.
  • Diese Ausgestaltung hat den Vorteil, dass bei einer Verdeckung der ersten und zweiten Bewegungsachse, beispielsweise durch ein Karosserieteil beim Eintauchen des Roboterarms in einen Radkasten, die Bestimmung der Position und Lage des Endeffektors bis zu der dritten Position des dritten optischen Markers anhand der Bilddaten erfolgen kann. Die Ermittlung der Position und Lage des Endeffektors erfolgt dadurch, dass die Auswerteeinheit dazu eingerichtet ist, in dem dritten Fall eine Relativposition und eine Relativlage des Endeffektors relativ zu der dritten Position anhand des kinematischen Modells zu ermitteln. Somit kann die Genauigkeit im Vergleich zu dem rein modellbasierten Ansatz, bei dem die Ermittlung der Position und Lage des Endeffektors ohne ein Einbeziehen von Positionsdaten des dritten optischen Markers erfolgt, gesteigert werden. Der o. g. zweite Ansatz würde in dem dritten Fall ohnehin keine Ergebnisse liefern, da die erste und zweite Bewegungsachse für den optischen Sensor nicht sichtbar sind.
  • In einer weiteren Ausgestaltung ist die Auswerteeinheit dazu eingerichtet, in dem ersten Fall, die erste Position des ersten optischen Markers anhand der Bilddaten sowie eine vierte Position des ersten optischen Markers anhand des kinematischen Modells zu ermitteln, und das kinematische Modell auf Basis eines Abgleichs der ersten Position mit der vierten Position zu kalibrieren.
  • Aus der Verbindung der optischen Auswertung mit der Auswertung anhand des kinematischen Modells resultiert der Vorteil, dass bspw. Temperatureinflüsse und dadurch bedingte Position- und/oder Lageänderungen durch die Auswertung der erfassten Bilddaten eindeutig in Form von Realdaten (der ersten Position) ermittelbar sind. Diese Realdaten können bei der Kalibrierung des kinematischen Modells verwendet werden, um die rein rechnerisch ermittelte vierte Position durch den Abgleich mit der ersten Position zu kalibrieren. Die anhand des kinematischen Modells errechnete Position des ersten optischen Markers (die vierte Position) kann bspw. aufgrund von nicht berücksichtigten Temperatureinflüssen von der Realposition (der ersten Position) abweichen. Die Ausgestaltung hat zudem den Vorteil, dass beispielsweise bei der Kalibrierung an zusätzlichen Artefakten bereits Informationen über die tatsächlichen Positionen der einzelnen Bewegungsachsen des Roboters vorliegen. Somit kann die Genauigkeit der Positionsbestimmung erhöht werden.
  • Gemäß einer weiteren Ausgestaltung ist die Auswerteeinheit dazu eingerichtet, in dem zweiten Fall, die zweite Position des zweiten optischen Markers anhand der Bilddaten sowie eine fünfte Position des zweiten optischen Markers anhand des kinematischen Modells zu ermitteln, und das kinematische Modell auf Basis eines Abgleichs der zweiten Position mit der fünften Position zu kalibrieren.
  • Diese Ausgestaltung hat den Vorteil, dass ein Kalibrieren des kinematischen Modells auch bei einer (oder mehreren) nicht sichtbaren Bewegungsachsen bis zu einer noch sichtbaren Bewegungsachse möglich ist. Somit können Temperatureinflüsse durch den Abgleich der Differenz zwischen der Position des zweiten optischen Markers, welche anhand des kinematischen Modells ermittelt wird (fünfte Position), basierend auf der Position des zweiten optischen Markers, welche anhand der Bilddaten ermittelt wird (zweite Position), korrigiert werden. Der Einfluss temperaturbedingter Abweichungen kann auf die nicht sichtbaren Bewegungsachsen zwischen der noch sichtbaren Bewegungsachse und dem Endeffektor reduziert werden.
  • In einer weiteren Ausgestaltung weist der optische Sensor eine Vielzahl von Kameras auf.
  • Vorzugsweise ist die Vielzahl von Kameras an verschiedenen Positionen in einem den Roboter umgebenden Raum angeordnet und blickt somit aus unterschiedlichen Blickwinkeln auf den Arbeitsbereich des Roboters. Dadurch können auch bei komplexen Arbeitsvorgängen mit komplexen Bewegungsabläufen möglichst viele der Bewegungsachsen/optischen Marker durch zumindest eine der Vielzahl von Kameras erfasst werden. Die Vielzahl von Kameras ist vorzugsweise sowohl intrinsisch als auch extrinsisch untereinander kalibriert. Über die intrinsische und extrinsische Kalibrierung ist die Position und Lage der einzelnen Kameras sowohl einzeln (intrinsisch) als auch untereinander (extrinsisch) eindeutig bestimmt.
  • In einer weiteren Ausgestaltung ist die Auswerteeinheit ferner dazu eingerichtet, Steuerbefehle einer Steuereinheit zur Steuerung des Roboterarms zu erhalten und in dem zweiten Fall, die Position und Lage des Endeffektors anhand der zweiten Position, anhand des kinematischen Modells sowie anhand der Steuerbefehle zu ermitteln.
  • Die Steuereinheit ist vorzugsweise dazu eingerichtet, die einzelnen Bewegungsachsen des Roboterarms jeweils individuell, bspw. über eine Ansteuerung der Vielzahl von Gelenkverbindungen, zu steuern. Die einzelnen Gelenkverbindungen der Vielzahl von Gelenkverbindungen können beispielsweise über Rotationssensoren, bspw. Drehgeber oder Encoder, verfügen, die jeweils ein Sensorsignal in Abhängigkeit eines Drehwinkels erzeugen. Das jeweilige Sensorsignal der Rotationssensoren wird vorzugsweise an die Steuereinheit übermittelt.
  • Die Steuereinheit gleicht vorzugsweise eine vorgegebene Soll-Position der jeweiligen Gelenkverbindung mit einer durch das jeweilige Sensorsignal übermittelten Ist-Position der jeweiligen Gelenkverbindung ab. Der Abgleich erfolgt vorzugsweise in Form der Steuerbefehle, die an die jeweilige Gelenkverbindung der Vielzahl von Gelenkverbindungen übermittelt werden. In den Steuerbefehlen sind demnach bereits aktuelle Informationen über die Position und Lage der Vielzahl von Bewegungsachsen des Roboterarms erfasst. Diese können vorteilhafterweise bei der Auswertung der Position und Lage, bspw. als zusätzliche Eingangsgrößen, in das kinematische Modell miteinbezogen werden. Dadurch kann die Genauigkeit der Positions- und Lagebestimmung des Endeffektors noch weiter erhöht werden.
  • Die vorliegende Erfindung betrifft neben der Positionserfassungsvorrichtung auch das gesamte Positionserfassungssystem, das die erfindungsgemäße Vorrichtung sowie den Roboter umfasst. zuvor genannten Ausgestaltungen beziehen sich daher nicht nur auf die Positionserfassungsvorrichtung selbst, sondern in gleicher bzw. äquivalenter Weise auch auf das gesamte Positionserfassungssystem.
  • In einer Ausgestaltung des Positionserfassungssystems weist der Roboterarm insgesamt sechs Bewegungsachsen auf.
  • Roboterarme, die über sechs Bewegungsachsen verfügen, werden bspw. bei der Automobilfertigung verwendet, da die sechs Bewegungsachsen bzw. die damit einhergehenden sechs Freiheitsgrade des Roboterarms hoch komplexe Bewegungsabläufe ermöglichen. Dadurch können bspw. Werkstücke mit einer komplexen Geometrie, z.B. Karosserie(bau)teile, vermessen, bearbeitet und/oder überprüft werden.
  • Gemäß einer weiteren Ausgestaltung ist zwischen dem Endeffektor und der ersten Bewegungsachse keine Gelenkverbindung angeordnet.
  • In dieser Ausgestaltung ist der Endeffektor bereits das letzte bewegbare Glied des Roboterarms, an dem beispielsweise ein Bearbeitungswerkzeug und/oder ein oder eine Vielzahl von Sensoren angeordnet ist.
  • In einer weiteren Ausgestaltung ist zwischen dem Endeffektor und der zweiten Bewegungsachse mindestens eine Gelenkverbindung angeordnet.
  • In dieser Ausgestaltung weist der Roboterarm entlang eines betrachteten kinematischen Pfades, der von der zweiten Bewegungsachse ausgeht und in Richtung des Endeffektors entlang des Roboterarms verläuft, zumindest eine weitere Gelenkverbindung, d.h., einen weiteren Freiheitsgrad auf. Vergleicht man den Roboterarm beispielsweise mit einem menschlichen Arm, bei dem der Endeffektor das „Handgelenk“ bildet, so ist bspw. nach der zweiten Bewegungsachse zumindest eine weitere Gelenkverbindung, d.h. eine weitere Bewegungsachse angeordnet. Durch die zweite Bewegungsachse wird bspw. eine Ausführung einer vertikalen Rotation ermöglicht. Durch die weitere Bewegungsachse kann bspw. eine horizontale Rotationsbewegung des „Handgelenks“ ermöglicht werden.
  • In einer weiteren Ausgestaltung ist der erste optische Marker an dem Endeffektor angeordnet.
  • Dies hat den Vorteil, dass bei einer Sichtbarkeit des Endeffektors (bspw. in dem ersten Fall) dessen Position und Lage bereits eindeutig anhand der Bilddaten ermittelt werden kann, ohne das kinematische Modell miteinbeziehen zu müssen.
  • In einer weiteren Ausgestaltung ist an dem Endeffektor ein taktiler und/oder ein optischer Messsensor angeordnet.
  • Diese Ausgestaltung ist insbesondere von Vorteil, wenn es sich bei dem Roboter um einen Messroboter zur taktilen und/oder optischen Vermessung eines Werkstücks handelt. Der taktile und/oder optische Messsensor tastet dabei das zu vermessende Werkstück ab. Der taktile und/oder optische Messsensor kann aber auch dazu verwendet werden, um den Roboter während eines Messvorgangs immer wieder anhand von Artefakten zu kalibrieren. Zudem ist eine solche Ausgestaltung vorteilhaft, da beispielsweise bei einem Arbeitsvorgang über den taktilen und/oder den optischen Messsensor ein notwendiger Mindestabstand des Endeffektors von einem Werkstück, z.B. einem Karosserieteil, überprüfbar ist und mithin eingehalten werden kann.
  • Es versteht sich, dass die vorstehend genannten Ausgestaltungen in äquivalenter Form für das erfindungsgemäße Verfahren zum Erfassen der Position und Lage des Endeffektors des Roboters gelten.
  • Zudem versteht es sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur einzeln, sondern auch in beliebiger Kombination untereinander gelten, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • In den Zeichnungen sind Ausführungsbeispiele der erfindungsgemäßen Vorrichtung, Ausführungsbeispiele des erfindungsgemäßen Positionserfassungssystems sowie des erfindungsgemäße Verfahrens gezeigt. Es zeigen:
    • 1 ein erstes Ausführungsbeispiel der erfindungsgemäßen Vorrichtung bzw. des erfindungsgemäßen Positionserfassungssystems in dem ersten Fall;
    • 2 das erste Ausführungsbeispiel der erfindungsgemäßen Vorrichtung bzw. des erfindungsgemäßen Positionserfassungssystems in dem zweiten Fall;
    • 3 ein zweites Ausführungsbeispiel der erfindungsgemäßen Vorrichtung bzw. des erfindungsgemäßen Positionserfassungssystems in dem ersten Fall;
    • 4 das zweites Ausführungsbeispiel der erfindungsgemäßen Vorrichtung bzw. des erfindungsgemäßen Positionserfassungssystems in dem zweiten Fall; und
    • 5 ein Verfahrensfließbild des erfindungsgemäßen Verfahrens zur Erfassung einer Position und Lage eines Endeffektors eines Roboters.
  • 1 zeigt ein erstes Ausführungsbeispiel einer Vorrichtung 10 zur Erfassung einer Position und Lage eines Endeffektors 12 eines Roboters 14. Die erfindungsgemäße Vorrichtung 10 weist einen optischen Sensor 16 auf. Der optische Sensor 16 kann beispielsweise eine Kamera 17 oder eine sonstige Sensorik zur Aufnahme von Bilddaten sein. In anderen Ausführungsbeispielen kann der optische Sensor 16 beispielsweise auch eine Vielzahl von optischen Sensoren 16 aufweisen, die beispielsweise in einem gemeinsamen Gehäuse oder voneinander beabstandet in einem Raum angeordnet sein können.
  • Die erfindungsgemäße Vorrichtung 10 weist zusätzlich zu dem optischen Sensor 16 eine Speichereinheit 18 sowie eine Auswerteeinheit 20 auf.
  • Die Speichereinheit 18 kann beispielsweise als ein Hardware-Speicher, bspw. ein Festplattenspeicher, ausgestaltet sein. In andern Ausführungsbeispielen kann die Speichereinheit 18 beispielsweise auch in Form eines virtuellen Speichers, z.B. eines Cloud-Speichers, ausgestaltet sein. Die Speichereinheit 18 kann von der Auswerteinheit 20 separat angeordnet, in dieser zumindest teilweise integriert, oder an dieser angeordnet sein.
  • Die Auswerteeinheit 20 kann bspw. durch eine oder mehrere Recheneinheiten, bspw. Mikrocontroller, Systems on a Chip (SoC)s und/oder Computer realisiert sein. In anderen Ausführungsbeispielen sind rein Internet- und/oder Ethernet-basierte Systeme vorstellbar, bei denen die Auswertung auf Großrechnern bzw. in (vorzugsweise autarken) Rechenzentren erfolgt.
  • Die Vorrichtung 10 zur Erfassung der Position und Lage des Endeffektors 12 des Roboters 14 bildet zusammen mit dem Roboter 14 ein Positionserfassungssystem 100.
  • Der Roboter 14 des Positionserfassungssystems 100 weist einen Roboterarm 22 auf. Der Roboterarm 22 hat eine Vielzahl von Bewegungsachsen 24, 26, 28, 30, 32, 34. Die Vielzahl von Bewegungsachsen 24-34 ist über eine Vielzahl von Gelenkverbindungen 36, 38, 40, 42, 44, 46 miteinander gekoppelt. Es sei erwähnt, dass der in den Figuren dargestellte Roboter 14 mit dem Roboterarm 22 nur eines vieler verschiedener, möglicher Beispiele von Robotern ist, in bzw. mit denen die vorliegenden Erfindung realisierbar ist. Ohne den Rahmen der vorliegenden Erfindung zu verlassen, kann der Roboter 14 beispielsweise auch mit mehr oder weniger als sechs Bewegungsachsen ausgestaltet sein.
  • Ausgehend von einem ersten Ende des Roboterarms 22, das an dem der Endeffektor 12 angeordnet ist, ist ein erstes Glied 48 des Roboterarms 22 über eine erste Gelenkverbindung 36 mit dem Endeffektor 12 verbunden. Die erste Gelenkverbindung 36 definiert eine Drehbewegung um eine erste Bewegungsachse 24 der Vielzahl von Bewegungsachsen 24-34. Das erste Glied 48 des Roboterarms 22 ist über eine zweite Gelenkverbindung 38 der Vielzahl von Gelenkverbindungen 36-46 mit einem zweiten Glied 50 des Roboterarms 22 verbunden. Die zweite Gelenkverbindung 38 definiert eine Drehbewegung um eine zweite Bewegungsachse 26. Das zweite Glied 50 des Roboterarms 22 ist über eine dritte Gelenkverbindung 40 mit einem dritten Glied 52 des Roboterarms 22 verbunden. Die dritte Gelenkverbindung 40 definiert eine Drehbewegung um eine dritte Bewegungsachse 28 der Vielzahl von Bewegungsachsen 24-34. Das dritte Glied 52 des Roboterarms 22 ist über eine vierte Gelenkverbindung 42 mit einem vierten Glied 54 des Roboterarms 22 verbunden. Die vierte Gelenkverbindung 42 definiert eine Drehbewegung um eine vierte Bewegungsachse 30. Das vierte Glied 54 des Roboterarms ist über eine fünfte Gelenkverbindung 44 mit einem fünften Glied 56 des Roboterarms 22 verbunden. Die fünfte Gelenkverbindung 44 definiert eine Drehbewegung um eine fünfte Bewegungsachse 32. Das fünfte Glied 56 des Roboterarms 22 ist über eine sechste Gelenkverbindung 46 mit einem Montagesockel 58 verbunden. Die sechste Gelenkverbindung 46 definiert eine Drehbewegung um eine sechste Bewegungsachse 34.
  • Der Montagesockel 58 ist in dem in 1 gezeigten Fall lediglich beispielhaft als eine Art Basisplatte des Roboters 14 vorgesehen. In anderen Ausführungsbeispielen kann der Roboter 14 bzw. der Roboterarm 22 auch anderweitig angeordnet sein.
  • Der Roboter 14 bzw. der Roboterarm 22 weist somit sechs Gelenkverbindungen 36-46 sowie sechs Bewegungsachsen 24-34 auf. In anderen Ausführungsbeispielen kann der Roboter 14 auch über mehr oder weniger als sechs Bewegungsachsen 24-34 bzw. Gelenkverbindungen 36-46 verfügen. Eine Ausgestaltung, in der der Roboter 14 sechs Freiheitsgrade, d.h. sechs Bewegungsachsen 24-34, aufweist, ist somit lediglich beispielhaft zu verstehen. Als Gelenkverbindungen 36-46 kommen beispielsweise Kugelgelenke, Eigelenke, Sattelgelenke, Scharniergelenke, Zapfengelenke und/oder Andere in Frage, die je nach Gelenktyp über eine oder eine Vielzahl von Freiheitsgraden verfügen können. Somit ist es nicht zwingend notwendig, dass die Anzahl der Gelenkverbindungen 36-46 mit der Anzahl der Bewegungsachsen 24-34, d.h., der Freiheitsgrade, übereinstimmt.
  • An der ersten Bewegungsachse 24 der Vielzahl von Bewegungsachsen 24-34 ist ein erster optischer Marker 60 angeordnet. Der erste optische Marker 60 ist beispielhaft in Form eines schwarzen Kreises dargestellt. Der erste optische Marker 60 ist in dem hier vorliegenden Ausführungsbeispiel an dem Endeffektor 12 angeordnet. In anderen Ausführungsbeispielen kann der erste optische Marker 60 beispielsweise auch an dem ersten Glied 48 des Roboterarms 22, d.h., nach der ersten Gelenkverbindung 36 angeordnet sein. An der zweiten Bewegungsachse 26 ist ein zweiter optischer Marker 62 angeordnet. An der dritten Bewegungsachse 28 ist ein dritter optischer Marker 64 in der Nähe der zweiten Gelenkverbindung 38 angeordnet. Ein vierter optischer Marker 66 ist an der vierten Bewegungsachse 30 in einem weiten Abstand von der vierten Gelenkverbindung 42, angeordnet. Ein fünfter optischer Marker 68 ist an der fünften Bewegungsachse 32 in einem weiten Abstand von der fünften Gelenkverbindung 44 angeordnet. Ein sechster optischer Marker 70 ist an der sechsten Bewegungsachse 34 angeordnet. Die Anordnung des vierten und fünften optischen Markers 66, 68 in weiter Entfernung von der jeweiligen Gelenkverbindung 42, 44 ist vorteilhaft, da es bei der Positionserfassung durch die Positionierung der optischen Marker 66, 68 an einem oberen Ende des jeweiligen Hebelarms (des vierten und fünften Glieds 54, 56 des Roboterarms 22) ausgehend von der jeweiligen Gelenkverbindung 42, 44 zu geringeren Fehlern im Vergleich zu einer Positionierung in der Nähe der Gelenkverbindung 42, 44 kommt.
  • Zwischen dem Endeffektor 12 und der ersten Bewegungsachse 24 ist eine geringere Anzahl von Gelenkverbindungen 36-46 als zwischen dem Endeffektor 12 und der zweiten Bewegungsachse 28 angeordnet. Im hier vorliegenden Fall ist zwischen dem Endeffektor 12 und der ersten Bewegungsachse 24 die erste Gelenkverbindung 36 angeordnet. Zwischen dem Endeffektor 12 und der zweiten Bewegungsachse 26 sind hingegen die erste Gelenkverbindung 36 sowie die zweite Gelenkverbindung 38 angeordnet.
  • Erfindungsgemäß ist der optische Sensor 16 dazu eingerichtet, Bilddaten des ersten und/oder zweiten optischen Markers 60, 62 zu erfassen. Im hier vorliegenden Fall ist der optische Sensor ferner dazu eingerichtet, Bilddaten des ersten bis sechsten optischen Markers 60-70 zu erfassen. Die durch den optischen Sensor 16 erfassten Bilddaten werden beispielsweise über ein oder mehrere Kabel oder kabellos an die Auswerteeinheit 20 übertragen. Die Auswerteeinheit 20 der Vorrichtung 10 ist in dem in 1 gezeigten ersten Fall, in dem der erste optische Marker 60 für den optischen Sensor 16 sichtbar ist, dazu eingerichtet, eine erste Position des ersten optischen Markers 60 anhand der Bilddaten zu ermitteln. Die Auswerteeinheit 20 ist dazu eingerichtet, anhand der ersten Position die Position und Lage des Endeffektors 12 zu ermitteln. In dem in 1 gezeigten Ausführungsbeispiel entspricht die erste Position des ersten optischen Markers der Position und Lage des Endeffektors 12, da der erste optische Marker 60 unmittelbar an dem Endeffektor 12 angeordnet ist.
  • In dem in 1 gezeigten ersten Fall befindet sich der Roboterarm 22 in einer Arbeitsposition, indem er nicht durch ein Karosserieteil 72 verdeckt ist. Somit ist der erste optische Marker 60 für den optischen Sensor 16 sichtbar. Das Karosserieteil 72 ist in 1 auf einem exemplarisch dargestellten Fertigungstisch 74 angeordnet. In anderen hier nicht gezeigten Ausführungsbeispielen kann das Karosserieteil 72 beispielsweise auch auf einer Förderlinie angeordnet sein und an der Arbeitsposition des Roboters 14 vorbeifahren. Während des Vorbeifahrens des Karosserieteils 72 kann der Roboter 14 bspw. einen Arbeitsvorgang, beispielsweise die Vermessung von Schweißpunkten an dem Karosserieteil, durchführen. Die Arbeitsposition des Roboters 14 in 1 entspricht bspw. einer Arbeitsposition vor Beginn eines Arbeitsvorgangs.
  • An dem Endeffektor 12 in 1 ist zudem ein vorteilhaft vorhandener optischer Messsensor 76 angeordnet. Der optische Messsensor 76 kann beispielsweise dazu eingerichtet sein, Messungen an einem Werkstück, im hier vorliegenden Fall an dem Karosserieteil 72, durchzuführen. In anderen Ausgestaltungen kann an dem Endeffektor 12 auch ein taktiler Messsensor angeordnet sein, der beispielsweise eine Oberflächenkontur eines Werkstücks, bzw. des Karosserieteils 72, durch eine Abtastbewegung erfasst. In anderen hier nicht gezeigten Ausführungsbeispielen können auch ein oder mehrere optische und/oder taktile Messsensoren zusammen mit einem oder mehreren Werkzeugen an dem Endeffektor 12 des Roboterarms 22 des Roboters 14 angeordnet sein.
  • 2 zeigt das erste Ausführungsbeispiel in einem zweiten Fall. In dem zweiten Fall ist der erste optische Marker 60 für den optischen Sensor 16 nicht sichtbar. Der optische Sensor 16 kann jedoch den zweiten optischen Marker 62 erfassen, d.h. mit anderen Worten, dass der zweite optische Marker 62 für den optischen Sensor 16 sichtbar ist. Der Roboter 14 bzw. der Roboterarm 22 befindet sich in 2 in einer von der 1 abweichenden Bearbeitungsposition. Der Endeffektor 12 ist zumindest teilweise durch das Karosserieteil 72 verdeckt, so dass der erste optische Marker 60 für den optischen Sensor 16 nicht sichtbar ist.
  • Die Auswerteeinheit 20 ist in dem zweiten Fall dazu eingerichtet, eine zweite Position des zweiten optischen Markers 64 anhand der durch den optischen Sensor 16 erzeugten bzw. erfassten Bilddaten zu ermitteln und die Position und Lage des Endeffektors 12 anhand der zweiten Position sowie anhand eines in der Speichereinheit 18 gespeicherten kinematischen Modells des Roboters 14 zu ermitteln.
  • In einem hier nicht gezeigten dritten Fall kann beispielsweise auch die erste und die zweite Bewegungsachse 24, 26 bzw. der erste und der zweite optische Marker 60, 62 durch das Karosserieteil 72 verdeckt sein, so dass sowohl der erste als auch der zweite optische Marker 60, 62 für den optischen Sensor 16 nicht sichtbar ist, jedoch der dritte optische Marker 64 für den optischen Sensor 16 sichtbar ist. In dem dritten Fall ist die Auswerteeinheit 20 dazu eingerichtet, eine dritte Position des dritten optischen Markers 64 anhand der Bilddaten zu ermitteln und die Position und Lage des Endeffektors 12 anhand der dritten Position sowie anhand des kinematischen Modells zu ermitteln.
  • D.h. mit andern Worten, dass die Ermittlung der Position des Roboterarms 22 in dem dritten Fall bis zu der dritten Position des dritten optischen Markers 64 anhand der erfassten Bilddaten erfolgt und von der dritten Position ausgehend die Position und Lage des Endeffektors 12 anhand des kinematischen Modells ermittelt wird. Das kinematische Modell ermittelt dabei beispielsweise ausgehend von der dritten Position des dritten optischen Markers 64 eine Soll-Position bzw. einen Soll-Drehwinkel der zweiten Gelenkverbindung 38 sowie eine Soll-Position bzw. einen Soll-Drehwinkel der ersten Gelenkverbindung 36. Über die optisch erfasste dritte Position des dritten optischen Markers 64 sowie die durch das kinematische Modell berechenbaren Soll-Drehwinkel der ersten und zweiten Gelenkverbindung 36, 38 kann die Position und Lage des Endeffektors 12 ermittelt werden.
  • 3 zeigt das zweite Ausführungsbeispiel der erfindungsgemäßen Vorrichtung 10 sowie des erfindungsgemäßen Positionserfassungssystems 100 in dem ersten Fall. Der optische Sensor 16 der Vorrichtung 10 weist in dem zweiten Ausführungsbeispiel eine Vielzahl von Kameras 17, 17' auf. In 2 sind zwei Kameras 17, 17' stellvertretend für die Vielzahl von Kameras 17, 17' abgebildet. Die beiden Kameras 17, 17' sind an unterschiedlichen Positionen (hier vorliegend übereinanderliegend) angeordnet und weisen dadurch zwei unterschiedliche Sichtbereiche auf. In hier nicht gezeigten Ausführungsformen kann die Vielzahl von Kameras 17, 17' beispielsweise auch in einem einzigen Gehäuse oder an verschiedenen Positionen in einem Raum verteilt angeordnet sein.
  • Das Positionserfassungssystem 100 weist in dem zweiten Ausführungsbeispiel eine Steuereinheit 78 auf, die vorzugsweise dazu eingerichtet ist, den Roboter 14 anhand von Steuerbefehlen zu steuern. Die Steuereinheit 78 ist vorzugsweise über ein oder mehrere Kabel oder kabellos mit dem Roboter 14 und/oder der Auswerteeinheit 20 verbunden. In dem in 3 gezeigten Fall ist die Steuereinheit 78 sowohl mit dem Roboter 14 als auch mit der Auswerteeinheit 20 über mehrere Kabel verbunden.
  • Die Auswerteeinheit ist vorzugsweise ferner dazu eingerichtet, die Steuerbefehle der Steuereinheit 78 zur Steuerung des Roboterarms 22 zu erhalten. Die Erfassung der Position und Lage des Endeffektors 12 erfolgt analog zu 1 anhand der Auswertung der Bilddaten des ersten optischen Markers 60, d.h., der Bestimmung der ersten Position des ersten optischen Markers 60. In 3 werden die Bilddaten durch die beiden Kameras 17, 17', vorzugsweise in teilweise redundanter Form aufgrund sich überlappender Sichtbereiche, erfasst.
  • In dem zweiten Ausführungsbeispiel in 3 ist die Auswerteeinheit 20 ferner dazu eingerichtet, zusätzlich zu der ersten Position eine vierte Position des ersten optischen Markers 60 anhand des kinematischen Modells zu ermitteln. Die Auswerteeinheit ist dabei vorzugsweise dazu eingerichtet, das kinematische Modell auf Basis eines Abgleiches der ersten Position mit der vierten Position zu kalibrieren. Der Abgleich der ersten Position mit der vierten Position kann dabei vorzugsweise über einen Vergleich der durch die beiden Kameras 17, 17', erfassten Ist-Position mit einer durch das kinematische Modell ermittelten (errechneten) Position erfolgen. Der Abgleich führt zu einer Korrektur des kinematischen Modells, da es bei der Berechnung der vierten Position beispielsweise bedingt durch eine Temperaturausdehnung von Teilen (bspw. der Glieder 48-56) des Roboterarms 22 zu einer Abweichung der berechneten Position von der Ist-Position kommen kann. Die Abweichung kann durch den Abgleich der ersten Position mit der vierten Position korrigiert werden.
  • 4 zeigt das zweite Ausführungsbeispiel der Vorrichtung 10 bzw. des Positionserfassungssystems 100 in dem zweiten Fall. Die Positions- und Lagebestimmung des Endeffektors 12 erfolgt in analoger Weise zu 2.
  • Die Auswerteeinheit 20 ist vorzugsweise dazu eingerichtet, zusätzlich zu der zweiten Position des zweiten optischen Markers 62, die durch Auswertung der Bilddaten ermittelt wird, eine fünfte Position des zweiten optischen Markers 62 anhand des kinematischen Modells zu ermitteln. Das kinematische Modell kann auf Basis eines Abgleichs der zweiten Position mit der fünften Position kalibriert werden.
  • 5 zeigt ein Verfahrensfließbild des erfindungsgemäßen Verfahrens zur Erfassung einer Position und Lage des Endeffektors 12 des Roboters 14, das folgende Schritte aufweist. In einem Schritt S100 erfolgt das Erfassen von Bilddaten des ersten und/oder zweiten optischen Markers 60, 62. In einem Schritt S101 erfolgt ein Bereitstellen eines kinematischen Modells des Roboterarms 22. In einem Schritt S102 erfolgt das Ermitteln der Position und Lage des Endeffektors 12 in Abhängigkeit davon, welcher der optischen Marker (z.B. 60-70) erfassbar ist.
  • Beispielsweise erfolgt in einem Schritt S102a das Ermitteln der Position und Lage des Endeffektors 12 in dem ersten Fall, in dem der erste optische Marker 60 erfassbar ist, anhand der ermittelten ersten Position des ersten optischen Markers 60. Wohingegen in einem Schritt S102b, der alternativ zu dem Schritt S102a ausführbar ist, das Ermitteln der Position und Lage des Endeffektors 12 in dem zweiten Fall, in dem der erste optische Marker 60 nicht erfassbar ist, jedoch der zweite optische Marker 62 erfassbar ist, anhand der zweiten Position des zweiten optischen Markers 62 sowie anhand des kinematischen Modells.
  • Ein Schritt S102c stellt eine weitere Alternative zu den Schritten S102a sowie S102b dar. In dem Schritt S102c ist bspw. der erste und zweite optische Marker 60, 62 nicht erfassbar, jedoch ein dritter optischer Marker 64 erfassbar. Das Ermitteln der Position und Lage des Endeffektors 12 erfolgt anhand der dritten Position des dritten optischen Markers 64 (durch die Auswertung der Bilddaten) sowie anhand des kinematischen Modells.
  • Zusätzlich ist in 5 noch eine Vielzahl von fiktiven Schritten S102d-S102xxx dargestellt, bei denen die Bestimmung der Position und Lage des Endeffektors 12 je nach Erfassbarkeit der an dem Roboterarm 22 angeordneten optischen Marker erfolgt. Die Auswerteeinheit 20 sucht dabei vorzugsweise jeweils nach dem optischen Marker einer Vielzahl von optischen Markern 60-70, der die geringste Anzahl an Gelenkverbindungen 36-36 zwischen dem Endeffektor 12 und den jeweiligen Bewegungsachsen 24-34 aufweist und zudem für den optischen Sensor 16 sichtbar ist.

Claims (15)

  1. Vorrichtung zur Erfassung einer Position und Lage eines Endeffektors (12) eines Roboters (14), der einen Roboterarm (22) mit einer Vielzahl von Bewegungsachsen (24, 26, 28, 30, 32, 34) aufweist, die über eine Vielzahl von Gelenkverbindungen (36, 38, 40, 42, 44, 46) miteinander gekoppelt sind, wobei an einem ersten Ende des Roboterarms (22) der Endeffektor (12) angeordnet ist, wobei ein erster optischer Marker (60) an einer ersten Bewegungsachse (24) der Vielzahl von Bewegungsachsen (24, 26, 28, 30, 32, 34) angeordnet ist, wobei ein zweiter optischer Marker (62) an einer zweiten Bewegungsachse (26) der Vielzahl von Bewegungsachsen (24, 26, 28, 30, 32, 34) angeordnet ist, und wobei zwischen dem Endeffektor (12) und der ersten Bewegungsachse (24) eine geringere Anzahl von Gelenkverbindungen (36, 38, 40, 42, 44, 46) als zwischen dem Endeffektor (12) und der zweiten Bewegungsachse (26) angeordnet ist, wobei die Vorrichtung (10) aufweist: - einen optischen Sensor (16), der dazu eingerichtet ist, Bilddaten des ersten und/oder zweiten optischen Markers (60, 62) zu erfassen; - eine Speichereinheit (18), die dazu eingerichtet ist, ein kinematisches Modell des Roboterarms (22) zu speichern; und - eine Auswerteeinheit (20), die dazu eingerichtet ist, in einem ersten Fall, in dem der erste optische Marker (60) für den optischen Sensor (16) sichtbar ist, eine erste Position des ersten optischen Markers (60) anhand der Bilddaten zu ermitteln und anhand der ersten Position die Position und Lage des Endeffektors (12) zu ermitteln, und, in einem zweiten Fall, in dem der erste optische Marker (60) für den optischen Sensor (16) nicht sichtbar ist, jedoch der zweite optische Marker (62) für den optischen Sensor (16) sichtbar ist, eine zweite Position des zweiten optischen Markers (62) anhand der Bilddaten zu ermitteln und die Position und Lage des Endeffektors (12) anhand der zweiten Position sowie anhand des kinematischen Modells zu ermitteln.
  2. Vorrichtung nach Anspruch 1, wobei die Auswerteeinheit (20) dazu eingerichtet ist, in dem zweiten Fall eine Relativposition und eine Relativlage des Endeffektors (12) relativ zu der zweiten Position anhand des kinematischen Modells zu ermitteln.
  3. Vorrichtung nach Anspruch 1 oder 2, wobei der optischen Sensor (16) dazu eingerichtet ist, Bilddaten eines dritten optischen Markers (64) zu erfassen, der an einer dritten Bewegungsachse (28) der Vielzahl von Bewegungsachsen (24, 26, 28, 30, 32, 34) angeordnet ist, wobei zwischen dem Endeffektor (12) und der zweiten Bewegungsachse (26) eine geringere Anzahl von Gelenkverbindungen (36, 38, 40, 42, 44, 46) als zwischen dem Endeffektor (12) und der dritten Bewegungsachse (28) angeordnet ist, und wobei die Auswerteeinheit (20) dazu eingerichtet ist, in einem dritten Fall, in dem sowohl der erste als auch der zweite optische Marker (60, 62) für den optischen Sensor (16) nicht sichtbar ist, jedoch der dritte optische Marker (64) für den optischen Sensor (16) sichtbar ist, eine dritte Position des dritten optischen Markers (64) anhand der Bilddaten zu ermitteln und die Position und Lage des Endeffektors (12) anhand der dritten Position sowie anhand des kinematischen Modells zu ermitteln.
  4. Vorrichtung nach einem der Ansprüche 1 oder 2, wobei die Auswerteeinheit (20) dazu eingerichtet ist, in dem ersten Fall, die erste Position des ersten optischen Markers (60) anhand der Bilddaten sowie eine vierte Position des ersten optischen Markers (60) anhand des kinematischen Modells zu ermitteln, und das kinematische Modell auf Basis eines Abgleichs der ersten Position mit der vierten Position zu kalibrieren.
  5. Vorrichtung nach einem der Ansprüche 1 oder 2, wobei die Auswerteeinheit (20) dazu eingerichtet ist, in dem zweiten Fall, die zweite Position des zweiten optischen Markers (62) anhand der Bilddaten sowie eine fünfte Position des zweiten optischen Markers (62) anhand des kinematischen Modells zu ermitteln, und das kinematische Modell auf Basis eines Abgleichs der zweiten Position mit der fünften Position zu kalibrieren.
  6. Vorrichtung nach einem der Ansprüche 1 bis 5, wobei der optische Sensor (16) eine Vielzahl von Kameras (17, 17') aufweist.
  7. Vorrichtung nach einem der Ansprüche 1 bis 6, wobei die Auswerteeinheit (20) ferner dazu eingerichtet ist, Steuerbefehle einer Steuereinheit (78) zur Steuerung des Roboterarms (22) zu erhalten und in dem zweiten Fall, die Position und Lage des Endeffektors (12) anhand der zweiten Position, anhand des kinematischen Modells sowie anhand der Steuerbefehle zu ermitteln.
  8. Positionserfassungssystem (100), das die Vorrichtung (10) nach einem der Ansprüche 1 bis 7 sowie den Roboter (14) aufweist.
  9. Positionserfassungssystem (100) nach Anspruch 8, wobei der Roboterarm (22) insgesamt sechs Bewegungsachsen (24, 26, 28, 30, 32, 34) aufweist.
  10. Positionserfassungssystem (100) nach Anspruch 8 oder 9, wobei zwischen dem Endeffektor (12) und der ersten Bewegungsachse (24) keine Gelenkverbindung angeordnet ist.
  11. Positionserfassungssystem (100) nach Anspruch 10, wobei zwischen dem Endeffektor (12) und der zweiten Bewegungsachse (26) mindestens eine Gelenkverbindung (36) angeordnet ist.
  12. Positionserfassungssystem (100) nach einem der Ansprüche 8 bis 11, wobei der erste optische Marker (60) an dem Endeffektor (12) angeordnet ist.
  13. Positionserfassungssystem (100) nach einem der Ansprüche 8 bis 12, wobei an dem Endeffektor (12) ein taktiler und/oder ein optischer Messsensor (76) angeordnet ist.
  14. Verfahren zur Erfassung einer Position und Lage eines Endeffektors (12) eines Roboters (14), der einen Roboterarm (22) mit einer Vielzahl von Bewegungsachsen (24, 26, 28, 30, 32, 34) aufweist, die über eine Vielzahl von Gelenkverbindungen (36, 38, 40, 42, 44, 46) miteinander gekoppelt sind, wobei an einem ersten Ende des Roboterarms (22) der Endeffektor (12) angeordnet ist, wobei ein erster optischer Marker (60) an einer ersten Bewegungsachse (24) der Vielzahl von Bewegungsachsen (24, 26, 28, 30, 32, 34) angeordnet ist, wobei ein zweiter optischer Marker (62) an einer zweiten Bewegungsachse (26) der Vielzahl von Bewegungsachsen (24, 26, 28, 30, 32, 34) angeordnet ist, und wobei zwischen dem Endeffektor (12) und der ersten Bewegungsachse (24) eine geringere Anzahl von Gelenkverbindungen (36, 38, 40, 42, 44, 46) als zwischen dem Endeffektor (12) und der zweiten Bewegungsachse (26) angeordnet ist, wobei das Verfahren die folgenden Schritte aufweist: - Erfassen (S100) von Bilddaten des ersten und/oder zweiten optischen Markers (60, 62); - Bereitstellen (S101) eines kinematischen Modells des Roboterarms (22); - Ermitteln (S102) der Position und Lage des Endeffektors (12), wobei in einem ersten Fall (S102a), in dem der erste optische Marker (60) erfassbar ist, eine erste Position des ersten optischen Markers (60) anhand der Bilddaten sowie die Position und Lage des Endeffektors (12) anhand der ersten Position ermittelt wird, und in einem zweiten Fall (S102b), in dem der erste optische Marker (60) nicht erfassbar ist, jedoch der zweite optische Marker (62) erfassbar ist, eine zweite Position des zweiten optischen Markers (62) anhand der Bilddaten sowie die Position und Lage des Endeffektors (12) anhand der zweiten Position sowie anhand des kinematischen Modells ermittelt wird.
  15. Positionserfassungssystem zur Durchführung des Verfahrens nach Anspruch 14.
DE102018124595.5A 2018-10-05 2018-10-05 Vorrichtung zur Erfassung einer Position und Lage eines Endeffektors eines Roboters Active DE102018124595B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102018124595.5A DE102018124595B4 (de) 2018-10-05 2018-10-05 Vorrichtung zur Erfassung einer Position und Lage eines Endeffektors eines Roboters
CN201910939767.3A CN111002304B (zh) 2018-10-05 2019-09-29 用于获取机械手的末端执行器的位置和定位的装置
US16/594,014 US11554494B2 (en) 2018-10-05 2019-10-05 Device for acquiring a position and orientation of an end effector of a robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018124595.5A DE102018124595B4 (de) 2018-10-05 2018-10-05 Vorrichtung zur Erfassung einer Position und Lage eines Endeffektors eines Roboters

Publications (2)

Publication Number Publication Date
DE102018124595A1 true DE102018124595A1 (de) 2020-04-09
DE102018124595B4 DE102018124595B4 (de) 2022-02-17

Family

ID=69886440

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018124595.5A Active DE102018124595B4 (de) 2018-10-05 2018-10-05 Vorrichtung zur Erfassung einer Position und Lage eines Endeffektors eines Roboters

Country Status (3)

Country Link
US (1) US11554494B2 (de)
CN (1) CN111002304B (de)
DE (1) DE102018124595B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020209486B3 (de) 2020-07-28 2021-09-30 Carl Zeiss Industrielle Messtechnik Gmbh Aktuator
CN114102574A (zh) * 2020-08-28 2022-03-01 北京极智嘉科技股份有限公司 定位误差评估***、方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230100638A1 (en) * 2021-02-05 2023-03-30 Shenzhen Institutes Of Advanced Technology Chinese Academy Of Sciences Soft-bodied apparatus and method for opening eyelid
CN114074329B (zh) * 2022-01-19 2022-04-15 成都博恩思医学机器人有限公司 一种机器人远心不动点的校验控制方法及相关装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003117861A (ja) * 2001-10-15 2003-04-23 Denso Corp ロボットの位置補正システム
DE102009042702A1 (de) * 2009-09-23 2011-03-31 Carl Zeiss Ag Verfahren und Vorrichtung zur Bestimmung von Orientierung und Position eines Punktes einer Mehrachskinematik
DE102014209371A1 (de) * 2013-05-17 2014-11-20 Ifm Electronic Gmbh System zur Steuerung einer Arbeitsmaschine mit einem Ausleger
DE102014215321A1 (de) * 2014-08-04 2016-02-04 Bayerische Motoren Werke Aktiengesellschaft Robotersystem und Verfahren zum Kalibrieren von Achsen eines Roboters
DE102016116811A1 (de) * 2015-09-15 2017-03-16 Fanuc Corporation Auslenkungsmesssystem zum Messen der Auslenkung eines Gelenkroboters
DE102016225613A1 (de) * 2016-12-20 2018-06-21 Kuka Roboter Gmbh Verfahren zum Kalibrieren eines Manipulators eines diagnostischen und/oder therapeutischen Manipulatorsystems

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030215130A1 (en) * 2002-02-12 2003-11-20 The University Of Tokyo Method of processing passive optical motion capture data
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
JP4819957B1 (ja) * 2010-06-01 2011-11-24 ファナック株式会社 ロボットの位置情報復元装置および位置情報復元方法
US10118714B2 (en) 2014-04-30 2018-11-06 The Boeing Company System and method for positioning an automated assembly tool relative to a structure
DE102015205738A1 (de) 2015-03-30 2016-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Bewegungsmesssystem einer Maschine und Verfahren zum Betreiben des Bewegungsmesssystems
DE102015221337A1 (de) * 2015-10-30 2017-05-04 Keba Ag Verfahren und Steuerungssystem zum Steuern der Bewegungen von Gelenkarmen eines Industrieroboters sowie dabei eingesetztes Bewegungsvorgabemittel
FR3054468B1 (fr) 2016-07-29 2018-08-31 Staubli Faverges Procede de commande d'un robot a usage industriel
DE102016118620A1 (de) 2016-09-30 2018-04-05 Carl Zeiss Industrielle Messtechnik Gmbh Messsystem und Messverfahren
JP6564428B2 (ja) * 2017-08-03 2019-08-21 ファナック株式会社 キャリブレーションシステムおよびキャリブレーション方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003117861A (ja) * 2001-10-15 2003-04-23 Denso Corp ロボットの位置補正システム
DE102009042702A1 (de) * 2009-09-23 2011-03-31 Carl Zeiss Ag Verfahren und Vorrichtung zur Bestimmung von Orientierung und Position eines Punktes einer Mehrachskinematik
DE102014209371A1 (de) * 2013-05-17 2014-11-20 Ifm Electronic Gmbh System zur Steuerung einer Arbeitsmaschine mit einem Ausleger
DE102014215321A1 (de) * 2014-08-04 2016-02-04 Bayerische Motoren Werke Aktiengesellschaft Robotersystem und Verfahren zum Kalibrieren von Achsen eines Roboters
DE102016116811A1 (de) * 2015-09-15 2017-03-16 Fanuc Corporation Auslenkungsmesssystem zum Messen der Auslenkung eines Gelenkroboters
DE102016225613A1 (de) * 2016-12-20 2018-06-21 Kuka Roboter Gmbh Verfahren zum Kalibrieren eines Manipulators eines diagnostischen und/oder therapeutischen Manipulatorsystems

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020209486B3 (de) 2020-07-28 2021-09-30 Carl Zeiss Industrielle Messtechnik Gmbh Aktuator
CN114102574A (zh) * 2020-08-28 2022-03-01 北京极智嘉科技股份有限公司 定位误差评估***、方法
CN114102574B (zh) * 2020-08-28 2023-05-30 北京极智嘉科技股份有限公司 定位误差评估***、方法

Also Published As

Publication number Publication date
CN111002304B (zh) 2023-05-30
CN111002304A (zh) 2020-04-14
US11554494B2 (en) 2023-01-17
DE102018124595B4 (de) 2022-02-17
US20200108506A1 (en) 2020-04-09

Similar Documents

Publication Publication Date Title
DE102018124595B4 (de) Vorrichtung zur Erfassung einer Position und Lage eines Endeffektors eines Roboters
DE102018213985B4 (de) Robotersystem
EP1602456B1 (de) Verfahren und Vorrichtung zum Steuern von Handhabungsgeräten
EP2298508B1 (de) Vermessung eines Manipulators
EP2435217B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE102010023736B4 (de) Robotersystem mit Problemerkennungsfunktion
DE102017209178B4 (de) Verfahren zur Ermittlung der Raumlage eines bewegten Koordinatensystems, eines Messpunkts seines Sensors oder eines Arbeitspunktes eines Werkzeugs bei einem Roboter
DE102017111543B4 (de) Robotersteuerungsvorrichtung und ein Verfahren zur Steuerung eines Roboters
DE102014017307B4 (de) Verfahren und System zum Bearbeiten eines Bauteils mit einem robotergeführten Werkzeug
DE102007050232A1 (de) Handhabungsroboter und Verfahren zur Steuerung eines Handhabungsroboters
EP2199036A2 (de) Verfahren und Vorrichtung zur Kompensation einer kinematischen Abweichung
EP3426444A1 (de) Industrieroboter mit mindestens zwei bilderfassungseinrichtungen
DE102017003993B4 (de) Kalibrierung eines Roboters
DE202013101050U1 (de) Führungssystem für eine Roboteranordnung
DE102018125841B4 (de) Roboter, Robotersystem und Verfahren zum Festlegen eines Koordinatensystems eines Roboters
DE102021209178A1 (de) Verfahren und Vorrichtung zum Bestimmen von Relativposen und zur Kalibrierung bei einem Koordinatenmessgerät oder Roboter
WO2003035333A2 (de) 3d-koordinatenmesssystem
DE10349361B4 (de) Verfahren und Vorrichtung zum Positionieren eines Handhabungsgeräts
EP3441200A1 (de) Referenzierverfahren und vorrichtung für industrieroboter
DE102021114598B4 (de) Verfahren zum Durchführen einer Herstellungsoperation sowie Herstellungssystem zur Durchfürung des Verfahrens
EP1468792A2 (de) Verfahren zum Kalibrieren eines Roboters
DE102016013083B4 (de) Kalibrieren eines Modells eines Prozess-Roboters und Betreiben eines Prozess-Roboters
DE102019115379B4 (de) Robotersystem und Roboter
DE102019109718B4 (de) Arbeitsrobotersystem und Arbeitsroboter
WO2017080649A2 (de) Sensitive roboter durch sensorik vor der ersten roboterachse

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final