DE10216023A1 - Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen - Google Patents

Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen

Info

Publication number
DE10216023A1
DE10216023A1 DE2002116023 DE10216023A DE10216023A1 DE 10216023 A1 DE10216023 A1 DE 10216023A1 DE 2002116023 DE2002116023 DE 2002116023 DE 10216023 A DE10216023 A DE 10216023A DE 10216023 A1 DE10216023 A1 DE 10216023A1
Authority
DE
Germany
Prior art keywords
person
parts
robot unit
sensor system
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE2002116023
Other languages
English (en)
Other versions
DE10216023B4 (de
Inventor
Evert Helms
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE2002116023 priority Critical patent/DE10216023B4/de
Publication of DE10216023A1 publication Critical patent/DE10216023A1/de
Application granted granted Critical
Publication of DE10216023B4 publication Critical patent/DE10216023B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/027Electromagnetic sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Manipulator (AREA)

Abstract

Beschrieben wird ein Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person sowie eine hierzu geeignete Vorrichtung. Ebenso wird eine diesbezügliche Vorrichtung beschrieben. DOLLAR A Die Erfindung zeichnet sich durch folgende Verfahrensschritte aus: DOLLAR A - Erfassen der sich räumlich und zeitlich verändernden Position der Person oder Teile der Person mit Hilfe eines Sensorsystems, DOLLAR A - Bewerten der dynamisch erfassten Position der Person oder Teile der Person, unter Maßgabe eines die Person beschreibenden Verhaltensmodells, durch Vergleich der dynamisch erfassten Position mit Referenzdaten, DOLLAR A - gezieltes Ansteuern der Robotereinheit zur kontrollierten Einflußnahme auf die Eigenbewglichkeit der Robotereinheit in Abhängigkeit der bewerteten, dynamisch erfassten Position der Person.

Description

    Technisches Gebiet
  • Die Erfindung bezieht sich auf ein Verfahren sowie eine Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person.
  • Stand der Technik
  • Der Einsatz von Industrierobotern, vorzugsweise zu Produktionszwecken, wird bereits Jahrzehnte lang überaus erfolgreich angewandt, um Produktionsgüter in hohen Stückzahlen unter gleichbleibend hohen Produktqualitäten herzustellen. Zwar sind derartige Industrieroboter in der industriellen Fertigung weit verbreitet, doch werden sie zu Montagezwecken lediglich in Teilgebieten eingesetzt, in denen der Mensch aus Sicherheitsgründen keinen Zugang hat. So fordert beispielsweise die Sicherheitsnorm ISO 10218 eine strikte Trennung der Arbeitsräume von Mensch und Roboter, um die durch den Roboter bedingte für den Menschen bestehende Verletzungsgefahr vollständig auszuschließen. Die vorstehend zitierte Sicherheitsnorm beschränkt sich ausschließlich auf stationäre Industrieroboter, deren Aktionsradius definiert vorgegeben ist. Vergleichbare Sicherheitsnormen bzw. -richtlinien für mobile Roboter, die beispielsweise auf einer eigenfortbewegungsfähigen Plattform angebracht sind, existieren derzeit jedoch nicht. Derartige, zur Eigenfortbewegung befähigte Roboter verfügen vielmehr über automatische Abschaltmechanismen, die im Falle aktiviert werden, wenn ein externer Gegenstand, beispielsweise eine Person, einen vorgegebenen Mindestabstand zum Roboter unterschreitet. Der Bewegungsvorgang des Roboters wird unterbrochen und mögliche durch den Roboter vorgenommene Manipulationsvorgänge gestoppt.
  • Die derzeit am häufigsten in der industriellen Produktion im Einsatz befindlichen Industrieroboter betreffen jedoch stationäre Robotersysteme mit jeweils an die unterschiedlichen Montagebedingungen angepaßte Manipulatorarmen, die über zumeist über ein Vielzahl von Bewegungsfreiheitsgraden verfügen. Die maximale Gesamtlänge einer Roboterarmanordnung sowie deren zugänglicher Bewegungsraum definiert den durch den Roboter erreichbaren maximalen Arbeits- bzw. Aktionsbereich, der aus sicherheitstechnischen Gründen vielerorts durch einen Käfig und/oder Lichtschranken umgeben und dadurch gesichert ist.
  • Ist ein Industrieroboter durch einen entsprechend ausgestatteten Sicherheitskäfig umgeben, so ist es ohnehin für einen Menschen nicht möglich, in den Aktionsbereich des Roboters zu gelangen. Durch Vorsehen entsprechender Lichtschranken, die zumeist mit einem Sicherheitsabschalt-System verbunden sind, wird der Industrieroboter durch eine festgestellte Lichtschrankenunterbrechung abrupt abgeschaltet, so dass in Fällen, in denen beispielsweise ein Mensch unbeabsichtigt in den Aktionsbereich eines Roboters gelangt, von diesem nicht verletzt werden kann.
  • Auch sind derzeit noch im experimentellen Stadium befindliche Schutzsysteme für stationäre sowie auch mobile Industrieroboter bekannt, die über sensorische Detektionssysteme verfügen, mit denen die Erfassung der Annäherung eines Objektes möglich ist. Beispielsweise werden hierzu Manipulatorarme eines Industrieroboter-Systems mit Ultraschall- oder Infrarot-Sensoren bestückt, die die Relativannäherung zu einem Objekt oder zu einem Menschen zu detektieren vermögen. Wird mit Hilfe derartiger Sensoren eine entsprechende Objektannäherung festgestellt, so wird zur Vermeidung von Kollisionen bzw. etwaiger Verletzungen die Eigenbeweglichkeit des Roboters gestoppt oder zumindest seine Fortbewegungsgeschwindigkeit stark herabgesetzt.
  • Schließlich sind Robotersysteme bekannt, die an ausgewiesenen Manipulatorarmbereichen über taktile Sensoren verfügen, die im Falle einer Berührung mit einem Objekt Steuersignale für ein abruptes Ausschalten des Roboters generieren.
  • Allen bekannten Schutzsystemen, die zur Vermeidung von Kollisionen zwischen den Robotern und bewegten Objekten, allen voran einem Menschen dienen, haftet der Nachteil an, dass eine Zusammenarbeit zwischen Mensch und Roboter im wirtschaftlichen Sinne nicht möglich ist. Entweder ist eine gewünschte Interaktion zwischen Mensch und Maschine aufgrund systembedingter Sicherheitsmaßnahmen überhaupt nicht möglich, wie im Falle der durch Schutzgitter sowie Lichtschranken geschützter Robotersysteme, oder die Arbeitsgeschwindigkeit der mit Schutzmechanismen ausgestatteten Industrieroboter wird zur Vermeidung von Verletzungen derart reduziert, dass eine angestrebte Interaktion rein aus wirtschaftlichen Überlegungen nicht weiter interessant erscheint.
  • So existieren derzeit aufgrund der einzuhaltenden Sicherheitsbestimmungen keine Robotersysteme, die unter industriellen Produktionsbedingungen eine unmittelbare und direkte Zusammenarbeit mit einer Person erlauben. Eine derartige Zusammenarbeit ist jedoch an vielen Produktionsstellen wünschenswert, beispielsweise um den Produktionsfluss und die Auslastung derartiger Industrieroboter-Systeme zu optimieren. Dies betrifft insbesondere Übergabevorgänge von Halbfertigprodukten von einem Menschen an eine, das Halbfertigprodukt weiter verarbeitende Robotereinheit, bei denen gegenwärtig üblicherweise das Robotersystem kurzzeitig stillgelegt und nach erfolgter Übergabe erneut aktiviert werden muss. Dies führt zu größeren Stand- und Nebenzeiten, die es gilt, aus wirtschaftlichen Überlegungen zu reduzieren bzw. vollständig zu vermeiden.
  • Darstellung der Erfindung
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren sowie eine Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person anzugeben, wobei unter Bedacht auf die geltenden Sicherheitsnormen und -richtlinien eine für den Menschen gefährdungsfreie Zusammenarbeit mit der Robotereinheit möglich sein soll. Insbesondere gilt es eine direkte Zusammenarbeit zwischen einem Menschen und der Robotereinheit zu ermöglichen und gleichzeitig das Leistungspotential der Robotereinheit nicht oder nur unwesentlich zu beeinträchtigen.
  • Die Lösung der der Erfindung zugrundeliegenden Aufgabe ist im Anspruch 1 angegeben, in dem ein erfindungsgemäßes Verfahren beschrieben ist. Gegenstand des Anspruches 12 ist eine erfindungsgemäße Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person. Den Erfindungsgedanken vorteilhaft weiterbildende Merkmale sind Gegenstand der Unteransprüche sowie der gesamten Beschreibung unter Bezugnahme auf die Ausführungsbeispiele zu entnehmen.
  • Das erfindungsgemäße Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person sieht grundsätzlich folgende Verfahrensschritte vor:
    Mit Hilfe eines Sensorsystems wird das unmittelbare Umfeld der Robotereinheit derart erfasst und überwacht, dass bewegte Objekte, die in einen von dem Sensorsystem erfassbaren Detektionsbereich eindringen, erfasst und lokalisiert werden. Der durch das Sensorsystem erfassbare Detektionsbereich ist vorzugsweise derart einzustellen, dass der Detektionsbereich in etwa mit dem Aktionsbereich der Robotereinheit übereinstimmt. Im weiteren wird angenommen, dass es sich bei den bewegten Objekten um eine Person handelt, die mit der Robotereinheit in Interaktion treten wird. Das Sensorsystem erfasst somit die sich räumlich und zeitlich verändernde Position der Person oder zumindest Teile der Person. Hierbei wird nicht nur die exakte räumliche Relativlage zwischen der Person und der Robotereinheit erfasst, sondern überdies auch die der Person innewohnende Bewegungsdynamik, d. h. das Sensorsystem erfasst zusätzlich die Fortbewegungsgeschwindigkeit der gesamten Person und/oder Teile der Person sowie auch Geschwindigkeitsgradienten bzw. Beschleunigungswerte der Person oder Teile der Person.
  • Diese mit dem Sensorsystem erfassten Informationen werden in einem zweiten Schritt unter Zugrundelegung eines die Person beschreibenden Verhaltensmodells bewertet. Der Begriff "Verhaltensmodell" umfasst eine Vielzahl das Verhalten einer jeweiligen Person innerhalb des Aktionsbereiches der Robotereinheit beschreibende Informationen, die in Form einer daten- und/oder wissensbasierten Datenbank abgespeichert sind. Die das Verhalten der jeweiligen Person beschreibende Informationen umfasst für die Person charakteristische Posen und Lagen sowie auch für die Person typische Bewegungsinformationen, damit sind insbesondere Fortbewegungsgeschwindigkeiten bzw. Beschleunigungswerte der Person oder Teile der Person, wie Arme, Beine, Kopf etc. gemeint.
  • Betrachtet man an dieser Stelle das Beispiel einer Übergabe von Produkten von einer Person an eine Robotereinheit, die das jeweilige Produkt weiterverarbeitet, so hält sich die Person für diesen konkreten Übergabevorgang in einem bestimmten räumlichen Sektor in Bezug auf die Robotereinheit auf und führt für jeden einzelnen Übergabevorgang einen bestimmten Bewegungsablauf aus. Für diese Interaktion nimmt die Person eine Vielzahl erlaubter Bewegungszustände bzw. räumliche Posen ein, um erfolgreich und damit verletzungsfrei mit der Robotereinheit zusammen zu arbeiten. Liegen diese für eine erfolgreiche Interaktion mit der Robotereinheit erlaubten Bewegungszustände bzw. Posen beispielsweise in Form von Referenzdaten in einer Datenbank vor, in der wie eingangs erwähnt, zusätzliche, die Bewegungsdynamik der Person beschreibende Informationen enthalten sind, ist es möglich, die mittels des Sensorsystems aktuell erfasste Position der Person oder Teile der Person mit den vorstehend abgespeicherten Referenzdaten zu vergleichen. Mit Hilfe geeigneter Bewertungskriterien, die dem Verhaltensmodell zugrundegelegt sind, werden in einem dritten Schritt Steuersignale generiert, die die Eigenbeweglichkeit der Robotereinheit kontrolliert beeinflussen, um eine gewünschte Interaktion zwischen Mensch und Robotereinheit zu ermöglichen.
  • Die bei der Bewertung der dynamisch erfassten Position der Person oder Teile der Person unter Maßgabe eines die Person beschreibenden Verhaltensmodells zugrundeliegenden Bewertungskriterien richten sich nach Art und Umfang der jeweiligen Interaktion zwischen der Person und der Robotereinheit. Handelt es sich beispielsweise um einen Übergabevorgang eines Gegenstandes von der Person auf die Robotereinheit, so ist die genaue Erfassung der Armposition der Person sowie die Armbewegungsgeschwindigkeit besonders relevant. Gerät beispielsweise die Person beim Übergabevorgang ins Stolpern, wodurch beispielsweise die Armbewegung ungewöhnlich ruckartig und hastig erfolgt, so wird dies vom Sensorsystem erfasst. Die hastigen Armbewegungen werden mit den abgespeicherten Referenzdaten verglichen und letztlich bewertend festgestellt, dass die Armposition sowie deren Geschwindigkeit nicht mit den erlaubten Verhaltensmustern übereinstimmen. Als Folge werden Steuersignale für die Robotereinheit generiert, durch die der Roboter veranlasst wird entsprechend zurückzuweichen oder aber der Roboter wird kurzzeitig abgeschaltet.
  • Von entscheidender Bedeutung für eine erfolgreiche Anwendung des Verfahrens zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist die exakte Erfassung der Person oder Teile der Person sowohl im Hinblick auf ihrer aktuelle räumlichen Lage und Position, als auch im Hinblick ihrer aktuellen Bewegungsdynamik. Zur vereinfachten weiteren Beschreibung wird angenommen, dass die Person in ihrer Gesamtheit erfasst werden soll. Hierbei soll jedoch nicht außer Acht gelassen werden, dass es auch Fälle gibt, in denen eine Person lediglich in Teilbereichen erfasst wird, bspw. in Fällen in denen eine Person ausschließlich mit ihren Händen an einem Arbeitsplatz mit einer Robotereinheit zusammenarbeitet, so dass für eine diesbezügliche Interaktion lediglich die Hände bzw. Arme der Person, also Teile der Person, relevant sind.
  • Um die Person für die erwünschte Interaktion räumlich und in ihrer Bewegungsdynamik exakt mit Hilfe des Sensorsystems erfassen zu können, wird die Person an ausgewählten Stellen mit Markierungsmitteln versehen, die vorzugsweise in entsprechenden Bekleidungsstücken, die die Person trägt, integriert sind. Die mit den Markierungsmitteln versehenen ausgewählten Stellen sind vorzugsweise End- und/oder Gelenkbereiche von Extremitäten. So können beispielsweise geeignete Markierungsmittel in Handschuhen, Ellbogenschützer, Kopfbedeckungen, Schuhe etc. vorgesehen werden.
  • Je nach der technischen Art und Ausbildung des verwendeten Sensorsystems sind die Markierungsmittel geeignet zu wählen. Beispielsweise eignen sich besonders auf funk, optische oder akustische Ortung basierende Sensorsysteme, auf die im weiteren im einzelnen eingegangen wird. Auch ist es möglich, eine räumlich zeitaufgelöste Positionsbestimmung einer Person mit Hilfe geeigneter Kameraaufnahmen und nachfolgender Bildauswertung vorzunehmen.
  • Für die Durchführung des vorstehend beschriebenen Verfahrens zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist wenigstens ein Sensorsystem erforderlich, mit dem die aktuelle räumliche Position einer Person oder Teile der Person erfassbar ist, eine Auswerteeinheit mit einer Referenzposen der Person oder Teile der Person enthaltenden Datenbank, in der die erfasste aktuelle räumliche Position mit Referenzposen verglichen und unter Zugrundelegung eines Bewertungskriteriums Steuersignale generiert wird und schließlich eine Steuereinheit zur Ansteuerung von die Eigenbeweglichkeit der Robotereinheit bestimmenden Antriebsmitteln.
  • Wie bereits vorstehend erwähnt, bildet das Kernstück der Vorrichtung das Sensorsystem zum Erfassen der jeweiligen aktuellen räumlichen Position der Person, das in seinen vielseitigen Ausgestaltungsmöglichkeiten unter Bezugnahme auf die nachstehenden Ausführungsbeispiele im einzelnen näher erläutert wird.
  • Kurze Beschreibung der Erfindung
  • Die Erfindung wird nachstehend ohne Beschränkung des allgemeinen Erfindungsgedankens anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen exemplarisch beschrieben. Es zeigen:
  • Fig. 1 schematisierte Darstellung zur Ermittlung der Relativlage einer Person zu einer Robotereinheit mittels funkbasierter Ortung,
  • Fig. 2 Darstellung eines funkbasierten Sensorsystems,
  • Fig. 3 schematisierte Darstellung zur Modellierung einer Person,
  • Fig. 4 schematisierte Darstellung zur räumlichen Ortung einer Person relativ zu einer Robotereinheit mittels Schall,
  • Fig. 5 schematisierte Darstellung der räumlichen Ermittlung der relativen Position einer Person relativ zu einer Robotereinheit mittels Beschleunigungssensoren,
  • Fig. 6 Darstellung der Positionserfassung eines Teils einer Person mittels Differenzbildtechnik, sowie
  • Fig. 7 Darstellung zur Positionsermittlung mittels optischer Kameras.
  • Wege zur Ausführung der Erfindung, gewerbliche Verwendbarkeit
  • Die unter Bezugnahme auf die Ausführungsbeispiele gemäß der Fig. 1 bis 7 dargestellten Sensorsysteme ermöglichen eine exakte Erfassung und Lokalisierung einer Person innerhalb des Aktionsbereiches einer Robotereinheit. Je nach technischer Ausbildung des Sensorsystems ist die räumliche Detektionsreichweite des Sensorsystems individuell einzustellen, vorzugsweise an den maximalen Arbeits- bzw. Aktionsbereich der Robotereinheit anzupassen. Auf diese Weise können Bewegungsvorgänge, die außerhalb des Aktionsbereiches des Roboters stattfinden, unbeachtet bleiben. Erst wenn eine Person den Aktionsbereich betritt, wird diese vom Sensorsystem entsprechend erfasst. Hierzu gibt es eine Reihe alternativ arbeitender Sensorsysteme.
  • In Fig. 1 ist eine schematisiert dargestellte Situation zur Erfassung der räumlichen Relativlage einer Person P in Bezug auf eine Robotereinheit R dargestellt. Zur Ermittlung der räumlichen Position und Pose der Person P sind in extra angepassten Kleidungsstücken, beispielsweise Jacke, Handschuhe oder Kopfbedeckung, als Transponder T ausgebildete Markierungsmittel an Stellen der Person, wie beispielsweise Handgelenk, Ellbogen, Schulter etc. angebracht, die für die Kinematik der Person P relevant sind.
  • Ein im Bereich der Robotereinheit R installierter Sender S sendet Funksignale aus, die von den einzelnen Transpondern T empfangen und in einer anderen Frequenz als der Sendefrequenz des Senders S zurückgesendet werden. Vorzugsweise sind mehrere Empfänger (nicht in Fig. 1 dargestellt) vorgesehen, die die von den Transpondern T abgesandten Signale empfangen. Schließlich werden die dabei gewonnenen Messsignale auf der Grundlage des Triangulationsverfahrens ausgewertet und die dreidimensionale Position des jeweiligen Transponders T im Raum (local positioning system) berechnet. Aufgrund der auf diese Weise gewonnenen, genauen Kenntnisse über die räumliche Lage der einzelnen Transponderpositionen kann auf die Lage der einzelnen, die Transponder T enthaltenen Kleidungsstücke und somit die Lage bzw. Pose der Person geschlossen werden.
  • Fig. 2 zeigt eine schematisierte Darstellung eines auf der Transpondertechnik beruhenden Sensorsystems. Ein an einem festen Punkt, vorzugsweise in räumlich fester Lagebeziehung zur Robotereinheit, angebrachter Sender S sendet ein Signal aus, das von einem Transponder T empfangen wird. Der Transponder T ist wie vorstehend beschrieben, an der zu detektierenden Person angebracht und empfängt das von dem Sender abgesandte Funksignal, das vom Transponder T mit einer anderen Frequenz zurückgesendet wird. Das zurückgesendete Signal wird von einem Empfänger E1 am Ort des Senders S sowie zusätzlich von einem weiteren Empfänger E2 empfangen. Durch entsprechende Laufzeitmessungen können die Signallaufzeiten t1, sowie t2 ermittelt werden, die das Funksignal vom Sender S zum Transponder T und zum Empfänger E1 bzw. E2 benötigt. Unter Zugrundelegung der Lichtgeschwindigkeit c können auf diese Weise die Positionskoordinaten des Transponders T in folgender Weise berechnet werden:


  • Äquivalent zum vorstehend betrachteten Fall zur Bestimmung der Positionskoordinaten des Transponders in einer Ebene gemäß Fig. 2 kann die dreidimensionale Positionsbestimmung eines Transponders T im Raum mit Hilfe eines weiteren, dritten Empfängers durchgeführt werden. Eingedenk der Tatsache, dass eine Vielzahl von Transpondern T an verschiedenen Positionen der zu detektierenden Person angebracht sind, können Bewegungen und Posen der jeweiligen Person exakt ermittelt werden.
  • Zur eindeutigen Beschreibung eines Bewegungszustandes bzw. einer Pose der jeweiligen Person werden die einzelnen räumlich und zeitlich erfassten Transponderpositionen in einem vereinfachten Menschmodell gemäß der Bilddarstellung in Fig. 3 vereint. Es sei angenommen, dass die Person P u. a. am Handgelenk des linken Arms einen Transponder T (siehe rechte Bilddarstellung gemäß Fig. 3) trägt. Diese Transponderposition kann mit Hilfe des Sensorsystems exakt ermittelt werden und liegt in Weltkoordinaten vor. Durch die naturgegebene, bedingt durch die natürlichen Freiheitsgrade der einzelnen Gelenke des Menschen vorgegebene Kinematik des Menschen können bereits durch das bloße Erfassen der räumlichen Position des Transponders T sowie dessen Bewegungsgeschwindigkeit bzw. der am Transponder einwirkenden Beschleunigungen Rückschlüsse auf die übrigen Teilbereiche des Menschen im Wege der inversen Kinematik geschlossen werden. So kann das in Fig. 3 dargestellte Menschmodell in den Weltkoordinaten bzw. kartesischen Koordinaten (x, y, z) (siehe hierzu rechte Bilddarstellung in Fig. 3) in einen Konfigurationsraum transformiert werden, in dem das Menschmodell durch seine Eigenfortbewegungsgeschwindigkeit sowie durch die in den Gelenksbereichen auftretenden Winkelgeschwindigkeiten ω definiert wird. Durch die Betrachtungsweise der inversen Kinematik kann die Bestimmung der gesamten Pose eines Menschen mit einer nur geringen Anzahl von Markierungsmitteln durchgeführt werden, da sich die Lage unterschiedlicher, direkt über Gelenke zusammenhängender Körperteile nicht unabhänig voneinander ändern kann.
  • So sind einerseits die minimalen und maximalen Winkelwerte bzw. Beugezustände der einzelnen Gelenksbereiche sowie die maximalen Winkelgeschwindigkeiten, die die einzelnen Gelenkachsen annehmen können, im Rahmen der Menschmodell- Kinematik bekannt bzw. festgelegt. Unter Zugrundelegung dieser Informationen lässt sich somit durch Vergleichsbildung mit den aktuell erfassten Positionen und Posen einer Person abschätzen bzw. vorausberechnen, wo sich die Person auch einige Zeit nach der Messung durch das Sensorsystem aufhalten wird bzw. kann, so dass die Ortsbestimmung mit Hilfe des Sensorsystems nicht notwendigerweise kontinuierlich, sondern lediglich in kurzen Intervallen durchgeführt werden kann.
  • Alternativ zu der vorstehend erläuterten Transpondertechnik ist es ebenso möglich, Schallsender AS an den zu ermittelnden Positionen der Kleidung der Person P anzubringen, die modulierten Schall, beispielsweise hörbaren Schall oder vorzugsweise Ultraschall aussenden. Durch die Aufnahme der Schallsignale mit einem Empfänger M, der in diesem Fall als Mikrofon ausgebildet ist, kann durch entsprechende Auswertung der Signale die Position der einzelnen Schallquellen AS und damit die Position der Person ermittelt werden. Zur Positionsbestimmung dient auch in diesem Fall das bereits vorstehende Prinzip der Triangulation.
  • Abweichend vom Triangulationsverfahren ermöglichen Beschleunigungssensoren und/oder Kreisel, die als Trägheits-abhängige Sensoren TR bekannt sind, eine Positionserfassung im Wege der räumlichen Kopplung ausgehend von einem räumlichen Referenzpunkt (siehe Fig. 5). Werden derartige, Trägheits-abhängige Sensoren TR an ausgewählten Stellen der Person angebracht, so kann nach anfänglicher Referenzierung der Sensoren die Position, Orientierung und Geschwindigkeit der Sensoren relativ zu einem räumlichen Referenzpunkt ermittelt werden. Die durch die Sensoren aufgenommenen Beschleunigungswerte werden über Funk an eine Basisstation übertragen, in der die Signale entsprechend ausgewertet werden.
  • Befindet sich die mit Trägheits-abhängigen Sensoren ausgerüstete Person zum Zeitpunkt t0 in einer Ausgangslage, der sogenannten Referenzlage, so sind die Positionen der Beschleunigungssensoren und Kreisel bekannt. In jedem darauffolgenden Zeitintervall ΔT wird pro Beschleunigungssensor bzw. Kreisel ein Beschleunigungsvektor aufgenommen, der in Verbindung mit allen übrigen Beschleunigungsvektoren als Rechnungsgrundlage für eine Positionsberechnung der Person nach jedem einzelnen Zeitintervall dient.
  • Schließlich ist es möglich, eine Positionsbestimmung einer Person bzw. Teile einer Person im Wege optischer Beobachtung mit Hilfe einer Kamera unter Einsatz der Differenzbildtechnik vorzunehmen. Bezugnehmend auf die Darstellung gemäß Fig. 6 wird mit Hilfe wenigstens einer Kamera ein einmaliges Referenzbild eines Arbeitsbereiches ohne Gegenwart einer Person bzw. Teile einer Person aufgenommen (siehe linke Bilddarstellung). Im weiteren werden von einer Kameraeinheit laufend Bilder vom Arbeitsbereiches aufgezeichnet, in den gemäß der mittleren Bilddarstellung in Fig. 6 die Hand einer Person hineinreicht. Diese Bilder werden mit dem ursprünglich aufgenommenen Referenzbild verglichen. Eine Differenzbildung der Pixelwerte von dem Referenzbild und dem aktuell aufgenommenen Bild ergibt eine Darstellung (siehe hierzu rechte Darstellung in Fig. 6), die Bereiche angibt, in denen eine Veränderung stattgefunden hat und im vorliegenden Fall den Bereich der Hand mit einem Werkstück der Person zeigt.
  • Somit ist es auch mit dieser Technik möglich, Positionen und Posen einer Person, vorzugsweise Teile einer Person, zu erfassen.
  • Bedient man sich anstelle einer Aufnahmekamera K gemäß linker Bilddarstellung in Fig. 7 mehrerer Aufnahmekameras K, beispielsweise zwei Kameras gemäß rechte Bilddarstellung in Fig. 7, so kann der zu überwachende Raumbereich durch entsprechende Überlagerung der Sichtbereiche der beiden Kameras lokal eingegrenzt werden.
  • Soll mit Hilfe der vorstehend beschriebenen, rein optischen Überwachungstechnik die aktuelle Position und Pose einer ganzen Person bestimmt werden, so dienen als Farbmarkierungen ausgebildete Markiermittel, die an entsprechenden Stellen der Kleidung der Person angebracht werden können, als entsprechende, von den Kameras zu detektierende Positionsmarken.
  • Mit Hilfe des erfindungsgemäßen Verfahrens sowie Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist es möglich, einerseits ein Eintreten einer Person in den Aktionsbereich der Robotereinheit festzustellen und von Seiten der Robotereinheit auf dieses Ereignis in geeigneter Weise zu reagieren, beispielsweise durch Not-Ausschaltung oder andere Steuerungsstrategien. Insbesondere kann die Robotereinheit seine Bewegungsdynamik gezielt auf die Bewegungen der Person abstimmen und auf diese Weise ein gemeinsames Arbeiten ermöglichen.
  • Nachstehend seien reihenhaft die mit dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung verbundenen Vorteile zusammengefasst:
  • Schaffung einer neuartigen Möglichkeit der Zusammenarbeitung zwischen Mensch und Roboter.
  • Die Durchlaufzeit von Werkstücken längs einer Produktionsstrasse kann erhöht werden, da durch den gemeinsamen Arbeitsraum zwischen Roboter und Mensch die Transportwege kleiner werden.
  • Der Einsatz von mobilen Robotermanipulatoren in Produktionsbereichen, in denen auf manuelle Zuarbeit nicht verzichtet werden kann, wird durch die erfindungsgemäße Maßnahme erst ermöglicht.
  • Der räumliche Platzbedarf für Robotereinheiten wird entscheidend reduziert, da keine aufwendigen Abgrenzungsmaßnahmen und Lichtschrankenanlagen erforderlich sind. Bezugszeichenliste AS Schallquelle
    E Empfänger
    K Kamera
    M Mikrophon
    P Person
    R Robotereinheit
    S Sender
    T Transponder, Markierungsmittel
    TR Trägheits-abhäniger Sensor

Claims (21)

1. Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit (R) und einer Person (P) gekennzeichnet durch folgende Verfahrensschritte:
- Erfassen der sich räumlich und zeitlich verändernden Position der Person (P) oder Teile der Person mit Hilfe eines Sensorsystems,
- Bewerten der dynamisch erfassten Position der Person (P) oder Teile der Person unter Massgabe eines die Person beschreibenden Verhaltensmodells durch Vergleich der dynamisch erfassten Position mit Referenzdaten,
- Gezieltes Ansteuern der Robotereinheit (R) zur kontrollierten Einflußnahme auf die Eigenbeweglichkeit der Robotereinheit (R) in Abhängigkeit der bewerteten, dynamisch erfassten Position der Person (P).
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zum Erfassen der Person (P) oder Teile der Person die Kinematik der Person oder Teile der Person charakterisierende, ausgewählte Stellen an der Person orts- und zeitaufgelöst erfasst werden.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass zum sensoriellen Erfassen der ausgewählten Stellen Markierungsmittel (T) an den Stellen verwendet werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Markierungsmittel (T) in von der Person (P) getragenen Bekleidungsstücken integriert werden.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das dynamische Erfassen der räumlichen Position der Person (P) oder Teile der Person im Wege funkbasierter, optischer oder akustischer Ortung auf der Grundlage des Triangulationsverfahrens durchgeführt wird.
6. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das dynamische Erfassen der räumlichen Position der Person (P) oder Teile der Person unter Verwendung Trägheits-abhängiger Sensoren (TR), deren Sensorsignale einer räumlichen Referenzierung unterzogen werden, durchgeführt wird.
7. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das dynamische Erfassen der räumlichen Position der Person (P) oder Teile der Person durch optische Bilderfassung der Person (P) oder Teile der Person mit nachfolgender Bildauswertung durchgeführt wird.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Referenzdaten die Person (P) beschreibende Referenzposen sowie die Bewegungsdynamik der Person charakteristische Informationen, wie Fortbewegungsgeschwindigkeit und Beschleunigungen, umfasst.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass zur Schaffung und Hinterlegung von die Person (P) beschreibenden Referenzdaten die Person oder Teile der Person zumindest in einer Vielzahl von die Interaktion zwischen der Robotereinheit (R) und der Person (P) repräsentierenden Positionen mit dem Sensorsystem dynamisch erfasst werden.
10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass auf der Grundlage der erfassten Referenzdaten ein die Person oder Teile der Person charakterisierendes Verhaltensmodell gewonnen wird, das die Interaktion zwischen der Robotereinheit (R) und der Person (P) beschreibt.
11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass durch die Bewertung der dynamisch erfassten Position der Person (P) oder Teile der Person Steuersignale für die Eigenbewegung der Robotereinheit (R) dienenden Antriebseinheiten generiert werden.
12. Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit (R) und einer Person (P), die folgende Komponenten aufweist:
- Sensorsystem zum Erfassen einer aktuellen räumlichen Position einer Person (P) oder Teile einer Person,
- Auswerteeinheit mit einer Referenzposen der Person oder Teile der Person enthaltenden Datenbank, in der die erfasste aktuelle räumliche Position mit Referenzposen verglichen und unter Zugrundelegung eines Bewertungskriteriums Steuersignale generiert wird, und
- Steuereinheit zur Ansteuerung von die Eigenbeweglichkeit der Robotereinheit bestimmenden Antriebsmitteln.
13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass das Sensorsystem Markierungsmittel (T) umfasst, die an ausgewählte Stellen an der Person vorgesehen sind, die die Kinematik der Person oder Teile der Person charakterisieren.
14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, dass die Markierungsmittel an der Person unmittelbar befestigt sind oder in Bekleidungsstücken der Person eingebracht sind.
15. Vorrichtung nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die ausgewählten Stellen Endbereiche von Extremitäten oder Gelenkbereiche der Person sind.
16. Vorrichtung nach einem der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass die Markierungsmittel jeweils als Funk-Transponder, Schallquelle oder als Farb- oder Mustermarkierung ausgebildet sind, und dass das Sensorsystem eine Detektionseinheit vorsieht, die Funk- oder akustische Signale detektiert.
17. Vorrichtung nach Anspruch 16, dadurch gekennzeichnet, dass die Auswerteeinheit die detektierten Funk- oder akustischen Signale im Wege des Triangulationsverfahrens auswertet.
18. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass das Sensorsystem an die Kinematik der Person oder Teile der Person charakterisierende ausgewählte Stellen an der Person Trägheits- abhängige Sensoren vorgesehen sind.
19. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, dass die Trägheits-abhängigen Sensoren Beschleunigungssensoren und/oder Kreiselsensoren sind.
20. Vorrichtung nach Anspruch 18 oder 19, dadurch gekennzeichnet, dass die Auswerteeinheit die von den Trägheits- abhängigen Sensoren stammenden Sensorsignale mit einem räumlichen Referenzsystem referenziert.
21. Vorrichtung nach einem der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass das Sensorsystem wenigstens eine Kameraeinheit umfasst, die die räumliche Lage der Person erfasst.
DE2002116023 2002-04-11 2002-04-11 Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen Expired - Fee Related DE10216023B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2002116023 DE10216023B4 (de) 2002-04-11 2002-04-11 Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2002116023 DE10216023B4 (de) 2002-04-11 2002-04-11 Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen

Publications (2)

Publication Number Publication Date
DE10216023A1 true DE10216023A1 (de) 2003-11-06
DE10216023B4 DE10216023B4 (de) 2013-08-14

Family

ID=28798376

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2002116023 Expired - Fee Related DE10216023B4 (de) 2002-04-11 2002-04-11 Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen

Country Status (1)

Country Link
DE (1) DE10216023B4 (de)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10320343A1 (de) * 2003-05-07 2004-12-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen
DE102004030144A1 (de) * 2004-06-22 2006-01-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit
DE102004038906A1 (de) * 2004-08-11 2006-03-09 Sick Ag Verfahren zur Erfassung beweglicher Objekte in einer Überwachungseinrichtung und Überwachungseinrichtung
DE102004048563A1 (de) * 2004-10-04 2006-04-13 Benteler Automobiltechnik Gmbh Überwachungseinrichtung für Roboter
DE102005027522A1 (de) * 2005-06-15 2006-12-21 Heiligensetzer, Peter, Dr. Auswertverfahren
DE102005003827B4 (de) * 2005-01-26 2007-01-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz
WO2009155946A1 (en) * 2008-06-26 2009-12-30 Abb Ag Adaptive robot system
DE102008041602A1 (de) * 2008-08-27 2010-03-04 Deutsches Zentrum für Luft- und Raumfahrt e.V. Roboter und Verfahren zum Steuern eines Roboters
DE102010017857A1 (de) * 2010-04-22 2011-10-27 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
DE102010063125A1 (de) * 2010-12-15 2012-06-21 Robert Bosch Gmbh Verfahren und Vorrichtung zur sicheren Übertragung von elektromagnetischer Energie
DE102013001987A1 (de) * 2013-02-06 2014-08-07 Salvavidas GmbH Verfahren und Ortungssystem zur Ortung von Menschen und/oder sich insbesondere bewegenden Gegenständen insbesondere für den Einsatz in hybriden Arbeitssystemen
DE202014100411U1 (de) 2014-01-30 2015-05-05 Kuka Systems Gmbh Sicherheitseinrichtung
DE102013020596A1 (de) * 2013-12-13 2015-06-18 Daimler Ag Arbeitsstation und Verfahren zum Durchführen wenigstens eines Arbeitsschritts, insbesondere zum Herstellen eines Kraftwagens
DE102014210594A1 (de) * 2014-06-04 2015-12-17 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben einer Fertigungsanlage
EP2838698B1 (de) 2012-07-10 2016-05-04 Siemens Aktiengesellschaft Roboteranordnung und verfahren zum steuern eines roboters
DE102016200455A1 (de) * 2016-01-15 2017-07-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sicherheitsvorrichtung und -verfahren zum sicheren Betrieb eines Roboters
WO2017137558A1 (de) * 2016-02-11 2017-08-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. Verfahren und anordnung zur hochgenauen positionierung einer robotergeführten interaktionsvorrichtung mittels radar
DE102014114596B4 (de) 2014-01-28 2018-09-06 Franka Emika Gmbh Steuerung eines Roboterarms
US10245728B2 (en) 2010-02-23 2019-04-02 pmdtechnologies ag Monitoring system
DE102017112770B4 (de) * 2016-06-13 2019-11-07 Fanuc Corporation Robotersystem
EP2114630B2 (de) 2007-03-06 2020-02-26 Rockwell Automation Safety AG Sensorvorrichtung sowie anlage mit einem förderer und einer sensorvorrichtung
DE102014219754B4 (de) 2013-10-01 2022-07-07 Avago Technologies International Sales Pte. Ltd. Gestenbasierte industrielle Überwachung
WO2022148810A1 (de) * 2021-01-06 2022-07-14 Technische Universität Hamburg System zur unterstützung von manuellen arbeitsvorgängen in gegenwart eines ansteuerbaren kollaborativen roboters

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4115846A1 (de) * 1991-05-15 1992-11-19 Ameling Walter Verfahren zur beruehrungslosen raeumlichen positionsmessung in roboterarbeitsraeumen
DE19708240C2 (de) * 1997-02-28 1999-10-14 Siemens Ag Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
GB2332053B (en) * 1997-12-04 2002-01-09 Olivetti Res Ltd Detection system for determinning positional and other information about objects
DE19843602A1 (de) * 1997-11-13 1999-05-20 Werner Wolfrum Verfahren und Vorrichtung zum Erfassen der Bewegungen von Prozeßeinheiten während eines Produktionsprozesses in einem vorgegebenen Auswertebereich

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10320343B4 (de) * 2003-05-07 2008-05-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen
DE10320343A1 (de) * 2003-05-07 2004-12-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen
DE102004030144A1 (de) * 2004-06-22 2006-01-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit
DE102004030144B4 (de) * 2004-06-22 2007-09-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit
DE102004038906A1 (de) * 2004-08-11 2006-03-09 Sick Ag Verfahren zur Erfassung beweglicher Objekte in einer Überwachungseinrichtung und Überwachungseinrichtung
DE102004038906B4 (de) * 2004-08-11 2007-10-25 Sick Ag Verfahren zur Erfassung beweglicher Objekte in einer Überwachungseinrichtung und Überwachungseinrichtung
DE102004048563A1 (de) * 2004-10-04 2006-04-13 Benteler Automobiltechnik Gmbh Überwachungseinrichtung für Roboter
DE102005003827B4 (de) * 2005-01-26 2007-01-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz
DE102005027522A1 (de) * 2005-06-15 2006-12-21 Heiligensetzer, Peter, Dr. Auswertverfahren
DE102005027522B4 (de) * 2005-06-15 2013-01-17 Peter Heiligensetzer Auswertverfahren
EP2114630B2 (de) 2007-03-06 2020-02-26 Rockwell Automation Safety AG Sensorvorrichtung sowie anlage mit einem förderer und einer sensorvorrichtung
WO2009155946A1 (en) * 2008-06-26 2009-12-30 Abb Ag Adaptive robot system
DE102008041602A1 (de) * 2008-08-27 2010-03-04 Deutsches Zentrum für Luft- und Raumfahrt e.V. Roboter und Verfahren zum Steuern eines Roboters
US9579793B2 (en) 2008-08-27 2017-02-28 Kuka Roboter Gmbh Robot and method for controlling a robot
DE102008041602B4 (de) * 2008-08-27 2015-07-30 Deutsches Zentrum für Luft- und Raumfahrt e.V. Roboter und Verfahren zum Steuern eines Roboters
US10245728B2 (en) 2010-02-23 2019-04-02 pmdtechnologies ag Monitoring system
DE102010002250B4 (de) 2010-02-23 2022-01-20 pmdtechnologies ag Überwachungssystem
EP2380709A3 (de) * 2010-04-22 2013-06-19 Sick AG 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
DE102010017857B4 (de) 2010-04-22 2019-08-08 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
DE102010017857A1 (de) * 2010-04-22 2011-10-27 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
DE102010063125A1 (de) * 2010-12-15 2012-06-21 Robert Bosch Gmbh Verfahren und Vorrichtung zur sicheren Übertragung von elektromagnetischer Energie
EP2838698B1 (de) 2012-07-10 2016-05-04 Siemens Aktiengesellschaft Roboteranordnung und verfahren zum steuern eines roboters
US9694497B2 (en) 2012-07-10 2017-07-04 Siemens Aktiengesellschaft Robot arrangement and method for controlling a robot
EP2838698B2 (de) 2012-07-10 2020-01-01 Siemens Aktiengesellschaft Roboteranordnung und verfahren zum steuern eines roboters
DE102013001987A1 (de) * 2013-02-06 2014-08-07 Salvavidas GmbH Verfahren und Ortungssystem zur Ortung von Menschen und/oder sich insbesondere bewegenden Gegenständen insbesondere für den Einsatz in hybriden Arbeitssystemen
DE102014219754B4 (de) 2013-10-01 2022-07-07 Avago Technologies International Sales Pte. Ltd. Gestenbasierte industrielle Überwachung
DE102013020596A1 (de) * 2013-12-13 2015-06-18 Daimler Ag Arbeitsstation und Verfahren zum Durchführen wenigstens eines Arbeitsschritts, insbesondere zum Herstellen eines Kraftwagens
DE102014114596B4 (de) 2014-01-28 2018-09-06 Franka Emika Gmbh Steuerung eines Roboterarms
DE202014100411U1 (de) 2014-01-30 2015-05-05 Kuka Systems Gmbh Sicherheitseinrichtung
WO2015114089A1 (de) * 2014-01-30 2015-08-06 Kuka Systems Gmbh Sicherheitseinrichtung und sicherheitsverfahren
DE102014210594A1 (de) * 2014-06-04 2015-12-17 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben einer Fertigungsanlage
DE102016200455A1 (de) * 2016-01-15 2017-07-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sicherheitsvorrichtung und -verfahren zum sicheren Betrieb eines Roboters
WO2017137558A1 (de) * 2016-02-11 2017-08-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. Verfahren und anordnung zur hochgenauen positionierung einer robotergeführten interaktionsvorrichtung mittels radar
DE102017112770B4 (de) * 2016-06-13 2019-11-07 Fanuc Corporation Robotersystem
WO2022148810A1 (de) * 2021-01-06 2022-07-14 Technische Universität Hamburg System zur unterstützung von manuellen arbeitsvorgängen in gegenwart eines ansteuerbaren kollaborativen roboters

Also Published As

Publication number Publication date
DE10216023B4 (de) 2013-08-14

Similar Documents

Publication Publication Date Title
DE10216023B4 (de) Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen
DE102016209576B4 (de) Bewegungssteuerung für ein mobiles Medizingerät
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
Chen et al. Human performance issues and user interface design for teleoperated robots
EP2838698B2 (de) Roboteranordnung und verfahren zum steuern eines roboters
DE102012211071B3 (de) Interaktion zwischen einem mobilen Roboter und einer Alarmanlage
DE112017002639T5 (de) Robotersteuerungsvorrichtung
US20130178980A1 (en) Anti-collision system for moving an object around a congested environment
EP3552921B1 (de) Autonome geschwindigkeitsplanung eines auf einen vorbestimmten pfad beschränkten beweglichen akteurs
DE112010003000T5 (de) Sichtsystem zum Überwachen von Menschen in dynamischen Umgebungen
Tittle et al. The remote perception problem
DE202014100411U1 (de) Sicherheitseinrichtung
DE102021103038A1 (de) Verfahren und System zur Beförderung eines Roboters in einem Aufzug
DE102017218917A1 (de) Überwachungsvorrichtung, Industrieanlage, Verfahren zur Überwachung sowie Computerprogramm
EP1521211A2 (de) Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
AT513130A4 (de) Verfahren und System zur Unterstützung eines Arbeiters in einer Anlage zur Manipulation von Waren
DE102019002928B4 (de) Simulationsvorrichtung für Roboter
CN112706158B (zh) 基于视觉和惯导定位的工业人机交互***及方法
DE102013001987A1 (de) Verfahren und Ortungssystem zur Ortung von Menschen und/oder sich insbesondere bewegenden Gegenständen insbesondere für den Einsatz in hybriden Arbeitssystemen
DE102018116065A1 (de) Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Servicegerätes
DE102019112043A1 (de) Robotersystem
DE102018101162B4 (de) Messsystem und Verfahren zur extrinsischen Kalibrierung
DE102020206403A1 (de) Konfigurieren, Durchführen und/oder Analysieren einer Applikation eines mobilen und/oder kollaborativen Roboters
EP3216743B1 (de) Flurförderzeug mit assistenzvorrichtung
Morison et al. 42 Human-Robot Interaction as Extending Human Perception to New Scales

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative
R020 Patent grant now final

Effective date: 20131115

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee