DE102015017282B3 - Robotersystem und Verfahren zur Steuerung eines Robotersystems - Google Patents

Robotersystem und Verfahren zur Steuerung eines Robotersystems Download PDF

Info

Publication number
DE102015017282B3
DE102015017282B3 DE102015017282.4A DE102015017282A DE102015017282B3 DE 102015017282 B3 DE102015017282 B3 DE 102015017282B3 DE 102015017282 A DE102015017282 A DE 102015017282A DE 102015017282 B3 DE102015017282 B3 DE 102015017282B3
Authority
DE
Germany
Prior art keywords
robot arm
robot
haptic
robot system
assigned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015017282.4A
Other languages
English (en)
Inventor
Sami Haddadin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Franka Emika GmbH
Original Assignee
Franka Emika GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Franka Emika GmbH filed Critical Franka Emika GmbH
Priority to DE102015017282.4A priority Critical patent/DE102015017282B3/de
Application granted granted Critical
Publication of DE102015017282B3 publication Critical patent/DE102015017282B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/423Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35444Gesture interface, controlled machine observes operator, executes commands
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40627Tactile image sensor, matrix, array of tactile elements, tixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

Robotersystem mit zumindest einem Roboterarm, einer Anzeigevorrichtung, einer Steuereinheit zur Steuerung des Roboterarms und einer Roboterarm-Sensorik, wobei die Steuerung und Roboterarm-Sensorik so ausgelegt sind, dass sie auf vorherbestimmte haptische Gesten des Benutzers, die auf den Roboterarm wirken, so reagieren, dass das Robotersystem mindestens eine vorherbestimmte Operation ausführt, die der haptischen Geste zugeordnet ist,wobei die Gehäusestruktur des Roboterarms zumindest abschnittsweise mit einer taktilen Haut überzogen ist, über die die haptischen Gesten eingegeben werden können,dadurch gekennzeichnet, dassdie haptische Geste einer Steuerung auf der graphischen Benutzeroberfläche der Anzeigevorrichtung des Robotersystems zugeordnet ist.

Description

  • Die vorliegende Erfindung betrifft ein Robotersystem und ein Verfahren zur Steuerung eines Robotersystems.
  • Üblicherweise werden Robotersysteme so programmiert, dass ein Bediener über ein separates Gerät, bspw. einen Rechner, die notwendigen Befehle für das Robotersystem über eine entsprechende Benutzeroberfläche eingibt, beispielsweise im Rahmen einer Programmierung oder Parametrierung des Robotersystems.
  • Des Weiteren ist es bekannt, separate Eingabevorrichtungen am Robotersystem direkt vorzusehen, beispielsweise unmittelbar an einem Roboterarm, wie bspw. Schalter oder Taster, mit Hilfe von welchen unterschiedliche Operationen am Roboterarm aktiviert und dann durchgeführt werden können. Derartige Operationen umfassen z.B. Verfahren des Roboterarms im Raum, Notausschaltung bei Gefahr, Bestätigung einer Position usw.. Stets bewegt sich dabei der Bediener in unmittelbarer Umgebung des Robotersystems.
  • In einer direkten Mensch-Roboter Kollaboration (MRK) wird darüber hinaus meist nur das Positionieren des Endeffektors am Roboterarm durch haptische Interaktion zwischen Mensch und Roboter erledigt, indem der Mensch den Roboterarm per Hand in die gewünschte Stellung bringt.
  • Eine weiterführende und meist komplexere Interaktion wird derzeit nur über zusätzliche Eingabegeräte durchgeführt, wie dies bei der Programmierung oder Parametrierung des Robotersystems der Fall ist.
  • Für diese Art der Kollaboration ist es notwendig, dass der Nutzer immer wieder zwischen Roboterführung und der Bedienung des zusätzlichen Eingabegerätes hin und her wechselt. Dies ist umständlich und kann zudem zu gefährlichen Situationen führen, da der Nutzer sich immer wieder auf die Eingabegeräte konzentrieren und den sich potentiell bewegenden Roboter aus den Augen lassen muss.
  • Aus der DE 101 62 412 A1 ist beispielsweise ein Roboter bekannt, der ein taktiles Sensorsystem aufweist, das eine zufällige Berührung mit einem Menschen oder einem Gegenstand erkennt, um dann bspw. ein Notlaufprogramm in Sinne einer entgegengesetzten Bewegung in Gang zu setzen.
  • Ausgehend davon ist es eine Aufgabe der vorliegenden Erfindung, die Interaktion zwischen Mensch und einem Robotersystem zu erweitern und dabei eine verbesserte MRK-Umgebung zu schaffen. Darüber hinaus soll eine einfachere Bedienbarkeit des Robotersystems zur Ansteuerung diverser Operationen, die entweder von dem Robotersystem selbst durchgeführt werden sollen oder mit diesem in einer funktionalen Verbindung stehen, zur Verfügung gestellt werden.
  • Gelöst wird diese Aufgabe mit einem Robotersystem mit den Merkmalen nach Anspruch 1 sowie mit einem Verfahren zur Steuerung eines Robotersystems mit den Merkmalen nach Anspruch 9.
  • Die Erfindung schlägt folglich ein Robotersystem vor mit zumindest einem Roboterarm, einer Steuereinheit zur Steuerung des Roboterarms und einer Roboterarm-Sensorik, wobei die Steuerung und Roboterarm-Sensorik so ausgelegt sein sollen, dass sie auf vorherbestimmte haptische Gesten des Benutzers, die auf den Roboterarm wirken, so reagieren, dass das Robotersystem mindestens eine vorherbestimmte Operation ausführt, die der haptischen Geste zugeordnet ist.
  • Hierfür sind die Zuordnungen zwischen den möglichen haptischen Gesten und den mit diesen in Zusammenhang stehenden Operationen in einem Speicher abgelegt, der mit der Steuerung zusammenarbeitet.
  • Die Erfindung richtet sich vorzugsweise, jedoch nicht ausschließlich, an Robotersysteme, die zum manuellen Führen durch einen Bediener ausgelegt sind. Diese verfügen über eine integrierte Kraft- und Drehmomentsensorik, die gemäß der Erfindung dazu herangezogen werden kann und dementsprechend hierfür auch ausgebildet ist, die durch die haptischen Gesten eines Bedieners auf den Roboterarm oder nur auf Teile seiner Armglieder einwirkenden externen Kräfte, Momente und Drehmomente aufzunehmen und an die Steuereinheit weiterzuleiten.
  • Die Kräfte, Momente und Drehmomente können durch diverse Sensoren, wie bspw. Kraftmesssensoren, Drehmomentsensoren usw., aufgenommen werden, die sich entweder in den Gelenken, in der Basis und/oder allgemein in der Struktur des Robotersystems befinden. Gemäß der Erfindung ist die Gehäusestruktur eines Roboterarms zumindest abschnittsweise mit einer taktilen Haut überzogen, die eine Eingabe über einen oder mehrere Finger im Wege der haptischen Geste gestattet.
  • In einer Ausführungsform kann die Steuereinheit dementsprechend ausgebildet sein, die durch die haptischen Gesten erzeugten Kräfte und/oder Momente in Abhängigkeit ihrer jeweiligen Richtungen und/oder ihres jeweiligen Verlaufs unterschiedlichen Operationen zuzuordnen.
  • In einer weiteren Ausführungsform kann die Steuereinheit ausgebildet sein, die durch die haptischen Gesten erzeugten Kräfte und/oder Momente in Abhängigkeit ihrer jeweiligen Größen unterschiedlichen Operationen zuzuordnen.
  • Auch ist es möglich, dass die Steuereinheit ausgebildet ist, eine unterschiedliche zeitliche Abfolge von haptischen Gesten unterschiedlichen Operationen zuzuordnen, die dann in einer logischen Abfolge durchgeführt werden.
  • Die in diesen Robotersystemen bereits vorhandene Sensorik kann nicht nur dazu verwendet wird, eine reine Positionskontrolle des Endeffektors und Trajektoriensteuerung des Roboterarms, sowohl im Betrieb als auch während der Programmierung, zu unterstützen, sondern auch herangezogen werden kann, von einem Bediener durch haptische Gesten, wie bspw. Ziehen, Drücken, Stoßen, Drehen, bewusst erzeugte Kräfte, Momente und Drehmomente aufzunehmen und einer weiteren abstrakten Interaktion zwischen Mensch und Robotersystem zuzuführen. Gemäß der Erfindung sollen die haptischen Gesten jedoch über die taktile Haut des Roboterarms aufgenommen bzw. erkannt werden.
  • Gemäß der Erfindung weist das Robotersystem eine Anzeigevorrichtung mit einer graphischen Benutzeroberfläche auf, in der einfachsten Form einen mit dem Robotersystem zur Steuerungs- oder Programmierungszwecken in Verbindung stehenden Rechner. Gemäß der Erfindung sind die haptischen Gesten dann einer Steuerung auf der graphischen Benutzeroberfläche zugeordnet. Die Steuerung kann dabei zwei- oder dreidimensional erfolgen. Der Bediener kann in dieser Ausführungsform durch gezielten räumlich gerichteten Druck auf den Roboterarm einen Cursor oder eine Menüführung auf der Benutzeroberfläche bewegen.
  • Der Bediener muss nicht zwangsläufig die Hilfe einer graphischen Benutzeroberfläche in Anspruch nehmen, um entsprechende Bestätigungen oder Rückmeldungen seiner Aktionen von einem Programmiersystem zu erhalten.
  • So kann es gemäß der Erfindung vorgesehen sein, dass die Steuereinheit ausgebildet ist, eine Rückmeldung in Abhängigkeit der haptischen Geste zu erzeugen.
  • Die Rückmeldung kann auditiv und/oder visuell ausgebildet sein.
  • Vorzugsweise kann diese Rückmeldung jedoch auch durch den Bediener haptisch erfassbar ausgebildet sein. Für einen solchen Fall ist die Steuereinheit ausgelegt, das Ausmaß der Nachgiebigkeit für die Beweglichkeit des Roboterarms zu verändern, während die haptische Geste auf diesen einwirkt.
  • Drückt beispielsweise der Bediener seitlich gegen ein Armglied des Roboterarms, kann sukzessiv der Widerstand des Roboterarms gegen den durch die haptische Geste ausgeübten Druck erhöht werden, um den Bediener eine entsprechende Rückmeldung zu liefern. Die Erhöhung des Widerstands kann dabei durch eine entsprechende Ansteuerung der in den Gelenkpunkten zwischen Armgliedern des Roboterarms angeordneten Antriebseinheiten erfolgen.
  • Die hierdurch erzeugte Rückmeldung kann dann zur Orientierung in komplexeren Interaktionen dienen, wie bspw. haptischen Menüs, oder als eine Art Bestätigung, wenn eine vorherbestimmte haptische Geste von der Steuereinheit erkannt wurde.
  • Die Erfindung betrifft darüber hinaus auch ein Verfahren zur Steuerung auf der graphischen Benutzeroberfläche einer Anzeigevorrichtung eines Robotersystems, das zumindest einen Roboterarm, eine Steuereinheit zur Steuerung des Roboterarms und eine Roboterarm-Sensorik aufweist, aufweisend die Schritte:
    • - Manipulieren der taktilen Haut des Roboterarms durch zumindest eine vorherbestimmte haptische Geste;
    • - Erzeugen von Signalen durch die Roboterarm-Sensorik in Abhängigkeit der vorherbestimmten haptischen Geste;
    • - Übertragen der Signale in die Steuereinheit; und
    • - Zuordnen der Signale zu unterschiedlichen vorherbestimmten Operationen durch die Steuereinheit, die der graphischen Benutzeroberfläche zugeordnet sind.
  • Weitere Schritte des erfindungsgemäßen Verfahrens umfassen
    • - Erzeugen zumindest einer Rückmeldung in Abhängigkeit der unterschiedlichen vorherbestimmten Operationen; sowie
    • - Einstellen der Nachgiebigkeit des Roboterarms in Abhängigkeit einer vorherbestimmten haptischen Geste.
  • Grundsätzlich sind der Art und Weise, wie hierfür vorherbestimmte haptische Gesten diversen vorbestimmten Operationen zugeordnet werden sollen, keine Grenzen gesetzt.
  • Das Prinzip der haptisch gesteuerten Führung des Roboterarms, wobei der Roboterarm quasi selbst als eine Eingabevorrichtung fungiert, kann für diverse Interaktionen herangezogen werden.
  • So kann eine derartige Steuerung beispielweise bei der Programmierung des Robotersystems und auch bei der Parametrierung von einzelnen durchzuführenden Operationen verwendet werden, wodurch sich die Rüstzeiten bei gleichzeitiger Kostenminimierung für solche Robotersysteme reduzieren lassen.
  • Darüber hinaus ist es denkbar, dass das Robotersystem im Betrieb in einer MRK-Umgebung haptisch angesteuert wird. Z.B. kann ein kräftiger Schlag des Bedieners gegen den Roboterarm einen Notfall im Arbeitsbereich signalisieren, wodurch das Robotersystem zum Abbruch gezwungen wird. Hierdurch wird die Reaktionszeit verkürzt, da der Bediener nicht erst in die Nähe eines Notschalters gelangen muss, um diesen zu bedienen.
  • Weitere Merkmale und Vorteile ergeben sich aus der nachfolgenden Beschreibung eines anhand der einzigen 1 gezeigten Ausführungsbeispiels.
  • In der 1 ist in perspektivischer Ansicht ein mehrachsiger Leichtbauroboter gezeigt, der aus mehreren gelenkig miteinander verbunden Armgliedern 10 zusammengesetzt ist.
  • Am Beispiel des vorderen Glieds 20, das mit einem nicht dargestellten Endeffektor zusammenwirkt, sind schematisch die möglichen Richtungen angegeben, die durch haptische Gesten auf das Robotersystem einwirken können.
  • So ist es möglich, dass ein Bediener auf das Glied 20 Zug- oder Druckkräfte in den Richtungen X, Y, Z ausübt.
  • Ein leichtes Drücken auf das Glied 20 in Z-Richtung kann beispielsweise das Drücken eines Tastschalters symbolisieren, wobei dieser haptischen Geste dann ein Start-Befehl zugeordnet ist, der eine vorherbestimmte Operation aktiviert.
  • Durch seitliches Drücken des Glieds 20 nach links (L) oder rechts (R) kann der Bediener durch ein komplexes Menü einer graphischen Benutzeroberfläche auf einer nicht dargestellten Anzeigevorrichtung, wie dem Bildschirm eines Rechners, geführt werden. Durch Drücken in Z- oder Y-Richtung kann der im graphischen Menü durch diese haptischen Gesten ausgewählte Eintrag dann bestätigt werden.
  • Ebenso ist es möglich, die Bewegung des Glieds 20 in der X-Y-Ebene auf die Bewegung eines Mauszeigers auf einem Bildschirm zu übertragen sowie durch Drücken in Z-Richtung einen „Mausklick“ auszuführen.
  • Des Weiteren ist es möglich, dass der Bediener auf das Glied 20 eine haptische Drehung R ausführt, wobei die Höhe des dadurch aufgebrachten Drehmoments als Signal für die Stärke eines durch diese Drehung auszuwählenden Parameters herangezogen werden kann. Die haptische Drehung in R-Richtung simuliert hierbei quasi einen Drehregler.
  • Für einen Notfall kann es vorgesehen sein, dass ein Bediener einfach gegen den Roboterarm schlägt, angedeutet durch Pfeil P. Das Robotersystem erkennt anhand der Kraft bzw. der Beschleunigung, dass es sich um einen solchen Notfall handelt und unterbricht dann unverzüglich seine Bewegung.
  • Die haptischen Gesten sind nicht auf das vorderste Glied 20 beschränkt. Prinzipiell kann jedes einzelne Armglied 10 mit einer solchen Funktionalität versehen sein.
  • Darüber hinaus ist es möglich, dass durch virtuelle, da frei programmierbare Widerstände beim Bewegen des Roboterarms das Verhalten von physikalischen Oberflächen, Knöpfen oder Drehreglern simuliert werden kann. Auf diese Weise kann das Robotersystem für sich selbst als eine Steuer- bzw. Eingabevorrichtung verwendet werden, um komplexe Systeme und Operationen anzusteuern, die in einem engen funktionalen Zusammenhang mit dem Robotersystem bzw. seiner gewünschten Funktionsweise stehen.

Claims (11)

  1. Robotersystem mit zumindest einem Roboterarm, einer Anzeigevorrichtung, einer Steuereinheit zur Steuerung des Roboterarms und einer Roboterarm-Sensorik, wobei die Steuerung und Roboterarm-Sensorik so ausgelegt sind, dass sie auf vorherbestimmte haptische Gesten des Benutzers, die auf den Roboterarm wirken, so reagieren, dass das Robotersystem mindestens eine vorherbestimmte Operation ausführt, die der haptischen Geste zugeordnet ist, wobei die Gehäusestruktur des Roboterarms zumindest abschnittsweise mit einer taktilen Haut überzogen ist, über die die haptischen Gesten eingegeben werden können, dadurch gekennzeichnet, dass die haptische Geste einer Steuerung auf der graphischen Benutzeroberfläche der Anzeigevorrichtung des Robotersystems zugeordnet ist.
  2. Robotersystem nach Anspruch 1, bei dem die durch die haptische Geste erzeugten Kräfte und/oder Momente in Abhängigkeit ihrer jeweiligen Richtungen unterschiedlichen Operationen zugeordnet sind.
  3. Robotersystem nach Anspruch 1 oder 2, bei dem die durch die haptische Geste erzeugten Kräfte und/oder Momente in Abhängigkeit ihrer jeweiligen Größen unterschiedlichen Operationen zugeordnet sind.
  4. Robotersystem nach einem der Ansprüche 1 bis 3, bei dem eine unterschiedliche zeitliche Abfolge von haptischen Gesten unterschiedlichen Operationen zugeordnet ist.
  5. Robotersystem nach einem der Ansprüche 1 bis 4, bei dem die Steuereinheit ausgebildet ist, eine Rückmeldung in Abhängigkeit der haptischen Geste zu erzeugen.
  6. Robotersystem nach Anspruch 5, bei dem die Rückmeldung auditiv und/oder visuell ausgebildet ist.
  7. Robotersystem nach Anspruch 5, bei dem die Rückmeldung haptisch erfassbar ausgebildet ist.
  8. Robotersystem nach Anspruch 7, bei dem die Nachgiebigkeit des Roboterarms veränderbar ist.
  9. Verfahren zur Steuerung auf der graphischen Benutzeroberfläche einer Anzeigevorrichtung eines Robotersystem, das zumindest einen Roboterarm, eine Steuereinheit zur Steuerung des Roboterarms und eine Roboterarm-Sensorik aufweist, wobei die Gehäusestruktur des Roboterarms zumindest abschnittsweise mit einer taktilen Haut überzogen ist, aufweisend die Schritte: - Manipulieren der taktilen Haut des Roboterarms durch zumindest eine vorherbestimmte haptische Geste; - Erzeugen von Signalen durch die Roboterarm-Sensorik in Abhängigkeit der vorherbestimmten haptischen Geste; - Übertragen der Signale in die Steuereinheit; und - Zuordnen der Signale zu unterschiedlichen vorherbestimmten Operationen durch die Steuereinheit, die der graphischen Benutzeroberfläche zugeordnet sind.
  10. Verfahren nach Anspruch 9, weiter aufweisend: - Erzeugen zumindest einer Rückmeldung in Abhängigkeit der unterschiedlichen vorherbestimmten Operationen.
  11. Verfahren nach Anspruch 10, weiter aufweisend: - Einstellen der Nachgiebigkeit des Roboterarms in Abhängigkeit einer vorherbestimmten haptischen Geste.
DE102015017282.4A 2015-10-08 2015-10-08 Robotersystem und Verfahren zur Steuerung eines Robotersystems Active DE102015017282B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015017282.4A DE102015017282B3 (de) 2015-10-08 2015-10-08 Robotersystem und Verfahren zur Steuerung eines Robotersystems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015017282.4A DE102015017282B3 (de) 2015-10-08 2015-10-08 Robotersystem und Verfahren zur Steuerung eines Robotersystems

Publications (1)

Publication Number Publication Date
DE102015017282B3 true DE102015017282B3 (de) 2021-09-16

Family

ID=77457466

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015017282.4A Active DE102015017282B3 (de) 2015-10-08 2015-10-08 Robotersystem und Verfahren zur Steuerung eines Robotersystems

Country Status (1)

Country Link
DE (1) DE102015017282B3 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10162412A1 (de) 2001-12-19 2003-07-10 Kuka Roboter Gmbh Einrichtung und Verfahren zum Sichern von Vorrichtungen mit frei im Raum beweglichen Teilen
DE102007062245A1 (de) 2007-12-21 2009-06-25 Robert Bosch Gmbh Kollisionsdetektionsvorrichtung sowie Handhabungsgerät
DE102008062622A1 (de) 2008-12-17 2010-06-24 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Befehlseingabe in eine Steuerung eines Manipulators
DE102010063223A1 (de) 2010-12-16 2012-06-21 Robert Bosch Gmbh Einrichtung zum Abführen von Wärme aus einer automatisierten Handhabungseinrichtung, insbesondere einem Handhabungsroboter, und Verwendung der Einrichtung
DE102013021387A1 (de) 2013-12-13 2015-06-18 Daimler Ag Roboter sowie Verfahren zum Betreiben eines solchen Roboters
DE102014014835A1 (de) 2014-10-07 2016-04-07 Audi Ag Anordnung zum Erkennen einer unfallbedingten Beschädigung eines Bauteils

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10162412A1 (de) 2001-12-19 2003-07-10 Kuka Roboter Gmbh Einrichtung und Verfahren zum Sichern von Vorrichtungen mit frei im Raum beweglichen Teilen
DE102007062245A1 (de) 2007-12-21 2009-06-25 Robert Bosch Gmbh Kollisionsdetektionsvorrichtung sowie Handhabungsgerät
DE102008062622A1 (de) 2008-12-17 2010-06-24 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Befehlseingabe in eine Steuerung eines Manipulators
DE102010063223A1 (de) 2010-12-16 2012-06-21 Robert Bosch Gmbh Einrichtung zum Abführen von Wärme aus einer automatisierten Handhabungseinrichtung, insbesondere einem Handhabungsroboter, und Verwendung der Einrichtung
DE102013021387A1 (de) 2013-12-13 2015-06-18 Daimler Ag Roboter sowie Verfahren zum Betreiben eines solchen Roboters
DE102014014835A1 (de) 2014-10-07 2016-04-07 Audi Ag Anordnung zum Erkennen einer unfallbedingten Beschädigung eines Bauteils

Similar Documents

Publication Publication Date Title
EP3359348B1 (de) Robotersystem und verfahren zur steuerung eines robotersystems
DE102013019869B4 (de) Roboterarm mit Eingabemodul
EP2987592B1 (de) Verfahren zum programmieren eines industrieroboters und zugehöriger industrieroboter
DE102012212754B4 (de) Verfahren zum Betreiben eines Sensorsystems sowie Sensorsystem
EP2546711B2 (de) Verfahren zum Programmieren eines Roboters
DE102013004692B4 (de) 3D-Eingabegerät mit einem zusätzlichen Drehregler
DE102015012961B4 (de) Robotersystem
WO2017060539A1 (de) Robotersystem
DE102010039540B4 (de) Handbediengerät zum manuellen Bewegen eines Roboterarms
EP3366434B1 (de) Verfahren zur überprüfung einer funktion eines fahrzeuges und/oder zumindest einer bedieneinrichtung
EP2299344B1 (de) Eingabevorrichtung und -verfahren für einen Manipulator
WO2015168716A1 (de) Bedieneinrichtung und steuersystem
DE102018127921B4 (de) Roboter und Verfahren zur Bestimmung eines Bewegungsraums mittels eines Roboters
EP3990231B1 (de) System zum vornehmen einer eingabe an einem robotermanipulator
EP3904984B1 (de) Verfahren für eine immersive mensch-maschine-interaktion
DE102015017282B3 (de) Robotersystem und Verfahren zur Steuerung eines Robotersystems
EP3298477B1 (de) Verfahren zum betreiben einer bedienvorrichtung sowie bedienvorrichtung für ein kraftfahrzeug
WO2017140569A1 (de) Kraftfahrzeug-bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung, um eine wechselwirkung zwischen einer virtuellen darstellungsebene und einer hand zu bewirken
EP3188922B1 (de) Bedienvorrichtung und verfahren zum bedienen von funktionen eines fahrzeugs, insbesondere eines kraftwagens
DE102019117217B3 (de) Verfahren zum Vorgeben eines Eingabewerts an einem Robotermanipulator
DE102019117219B4 (de) System zum Bedienen einer grafischen Benutzeroberfläche
DE102004048888B4 (de) Bedieneinrichtung
WO2015176707A1 (de) Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug
EP2624114A1 (de) Handsteuergerät zur Steuerung einer Vorrichtung und Verfahren
EP2085863A1 (de) Verfahren zur temporären Kopplung von Steuerbefehlen und Automatisierungsgerät

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed
R129 Divisional application from

Ref document number: 102015012959

Country of ref document: DE

R131 Declaration of division deemed not made
R073 Re-establishment requested
R074 Re-establishment allowed
R074 Re-establishment allowed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final