DE10216023B4 - Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen - Google Patents

Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen Download PDF

Info

Publication number
DE10216023B4
DE10216023B4 DE2002116023 DE10216023A DE10216023B4 DE 10216023 B4 DE10216023 B4 DE 10216023B4 DE 2002116023 DE2002116023 DE 2002116023 DE 10216023 A DE10216023 A DE 10216023A DE 10216023 B4 DE10216023 B4 DE 10216023B4
Authority
DE
Germany
Prior art keywords
person
parts
robot unit
sensor system
reference data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE2002116023
Other languages
English (en)
Other versions
DE10216023A1 (de
Inventor
Evert Helms
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE2002116023 priority Critical patent/DE10216023B4/de
Publication of DE10216023A1 publication Critical patent/DE10216023A1/de
Application granted granted Critical
Publication of DE10216023B4 publication Critical patent/DE10216023B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/027Electromagnetic sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Manipulator (AREA)

Abstract

Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person, gekennzeichnet durch folgende Verfahrensschritte: – Erfassen der sich räumlich und zeitlich verändernden Position der Person oder von Teilen der Person durch Orts- und zeitaufgelöstes Erfassen von Fortbewegungsgeschwindigkeit sowie Geschwindigkeitsgradienten bzw. Beschleunigungswerten an die Kinematik der Person oder Teile der Person charakterisierenden, ausgewählten Stellen der Person und/oder den Teilen der Person mit Hilfe eines Sensorsystems, wobei zum sensoriellen Erfassen an den ausgewählten Stellen der Person Markierungsmittel (T) angebracht sind, – Bewerten der dynamisch erfassten Position der Person oder von Teilen der Person unter Zugrundelegung eines die Person beschreibenden Verhaltensmodells, das in Form einer daten- und/oder wissensbasierten Datenbank bevorratet wird, in der für die Person charakteristische Posen und Lagen sowie für die Person typische Bewegungsinformationen als Referenzdaten abgespeichert sind, durch Vergleich der dynamisch erfassten Position mit den in der Datenbank abgespeicherten Referenzdaten, – Generieren von Steuersignalen unter Zugrundelegung eines Bewertungskriteriums, – Gezieltes Ansteuern der Antriebsmittel der Robotereinheit zur kontrollierten Einflussnahme auf die Eigenbeweglichkeit der Robotereinheit in Abhängigkeit der bewerteten, dynamisch erfassten Position der Person.

Description

  • Technisches Gebiet
  • Die Erfindung bezieht sich auf ein Verfahren sowie eine Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person.
  • Stand der Technik
  • Der Einsatz von Industrierobotern, vorzugsweise zu Produktionszwecken, wird bereits Jahrzehnte lang überaus erfolgreich angewandt, um Produktionsgüter in hohen Stückzahlen unter gleichbleibend hohen Produktqualitäten herzustellen. Zwar sind derartige Industrieroboter in der industriellen Fertigung weit verbreitet, doch werden sie zu Montagezwecken lediglich in Teilgebieten eingesetzt, in denen der Mensch aus Sicherheitsgründen keinen Zugang hat. So fordert beispielsweise die Sicherheitsnorm ISO 10218 eine strikte Trennung der Arbeitsräume von Mensch und Roboter, um die durch den Roboter bedingte für den Menschen bestehende Verletzungsgefahr vollständig auszuschließen. Die vorstehend zitierte Sicherheitsnorm beschränkt sich ausschließlich auf stationäre Industrieroboter, deren Aktionsradius definiert vorgegeben ist. Vergleichbare Sicherheitsnormen bzw. -richtlinien für mobile Roboter, die beispielsweise auf einer eigenfortbewegungsfähigen Plattform angebracht sind, existieren derzeit jedoch nicht. Derartige, zur Eigenfortbewegung befähigte Roboter verfügen vielmehr über automatische Abschaltmechanismen, die im Falle aktiviert werden, wenn ein externer Gegenstand, beispielsweise eine Person, einen vorgegebenen Mindestabstand zum Roboter unterschreitet. Der Bewegungsvorgang des Roboters wird unterbrochen und mögliche durch den Roboter vorgenommene Manipulationsvorgänge gestoppt.
  • Die derzeit am häufigsten in der industriellen Produktion im Einsatz befindlichen Industrieroboter betreffen jedoch stationäre Robotersysteme mit jeweils an die unterschiedlichen Montagebedingungen angepaßte Manipulatorarmen, die über zumeist über ein Vielzahl von Bewegungsfreiheitsgraden verfügen. Die maximale Gesamtlänge einer Roboterarmanordnung sowie deren zugänglicher Bewegungsraum definiert den durch den Roboter erreichbaren maximalen Arbeits- bzw. Aktionsbereich, der aus sicherheitstechnischen Gründen vielerorts durch einen Käfig und/oder Lichtschranken umgeben und dadurch gesichert ist.
  • Ist ein Industrieroboter durch einen entsprechend ausgestatteten Sicherheitskäfig umgeben, so ist es ohnehin für einen Menschen nicht möglich, in den Aktionsbereich des Roboters zu gelangen. Durch Vorsehen entsprechender Lichtschranken, die zumeist mit einem Sicherheitsabschalt-System verbunden sind, wird der Industrieroboter durch eine festgestellte Lichtschrankenunterbrechung abrupt abgeschaltet, so dass in Fällen, in denen beispielsweise ein Mensch unbeabsichtigt in den Aktionsbereich eines Roboters gelangt, von diesem nicht verletzt werden kann.
  • Auch sind derzeit noch im experimentellen Stadium befindliche Schutzsysteme für stationäre sowie auch mobile Industrieroboter bekannt, die über sensorische Detektionssysteme verfügen, mit denen die Erfassung der Annäherung eines Objektes möglich ist. Beispielsweise werden hierzu Manipulatorarme eines Industrieroboter-Systems mit Ultraschall- oder Infrarot-Sensoren bestückt, die die Relativannäherung zu einem Objekt oder zu einem Menschen zu detektieren vermögen. Wird mit Hilfe derartiger Sensoren eine entsprechende Objektannäherung festgestellt, so wird zur Vermeidung von Kollisionen bzw. etwaiger Verletzungen die Eigenbeweglichkeit des Roboters gestoppt oder zumindest seine Fortbewegungsgeschwindigkeit stark herabgesetzt.
  • Schließlich sind Robotersysteme bekannt, die an ausgewiesenen Manipulatorarmbereichen über taktile Sensoren verfügen, die im Falle einer Berührung mit einem Objekt Steuersignale für ein abruptes Ausschalten des Roboters generieren.
  • Allen bekannten Schutzsystemen, die zur Vermeidung von Kollisionen zwischen den Robotern und bewegten Objekten, allen voran einem Menschen dienen, haftet der Nachteil an, dass eine Zusammenarbeit zwischen Mensch und Roboter im wirtschaftlichen Sinne nicht möglich ist. Entweder ist eine gewünschte Interaktion zwischen Mensch und Maschine aufgrund systembedingter Sicherheitsmaßnahmen überhaupt nicht möglich, wie im Falle der durch Schutzgitter sowie Lichtschranken geschützter Robotersysteme, oder die Arbeitsgeschwindigkeit der mit Schutzmechanismen ausgestatteten Industrieroboter wird zur Vermeidung von Verletzungen derart reduziert, dass eine angestrebte Interaktion rein aus wirtschaftlichen Überlegungen nicht weiter interessant erscheint.
  • So existieren derzeit aufgrund der einzuhaltenden Sicherheitsbestimmungen keine Robotersysteme, die unter industriellen Produktionsbedingungen eine unmittelbare und direkte Zusammenarbeit mit einer Person erlauben. Eine derartige Zusammenarbeit ist jedoch an vielen Produktionsstellen wünschenswert, beispielsweise um den Produktionsfluss und die Auslastung derartiger Industrieroboter-Systeme zu optimieren. Dies betrifft insbesondere Übergabevorgänge von Halbfertigprodukten von einem Menschen an eine, das Halbfertigprodukt weiter verarbeitende Robotereinheit, bei denen gegenwärtig üblicherweise das Robotersystem kurzzeitig stillgelegt und nach erfolgter Übergabe erneut aktiviert werden muss. Dies führt zu größeren Stand- und Nebenzeiten, die es gilt, aus wirtschaftlichen Überlegungen zu reduzieren bzw. vollständig zu vermeiden.
  • Aus dem Artikel „Direkte Mensch-Roboter-Kooperation”, J. Spingler, S. Thiemermann, Carl Hanser Verlag. ZWF 96/2001, S. 616–620 ist ein Verfahren zur Kooperation zwischen Mensch und Roboter zu entnehmen, bei dem die Position, Geschwindigkeit und Beschleunigung exponierter Punkte des Menschen sowie des Roboters bestimmt werden. Hierbei gilt es, jeweils den kürzesten Abstand zwischen Mensch und Roboter zu ermitteln und diesen mit zulässigen Mindestabständen zu vergleichen. Bei Unterschreiten des Mindestabstandes werden entsprechende Robotersteuersignale generiert, die zur Vermeidung von Kollisionen ein spontanes Zurückweisen des Roboters zur Folge haben.
  • In einem weiteren Artikel, „MORPHA: Intelligente antropomorphe Assistenzsysteme – Die Interaktion zwischen Mensch und mobilen Assistenzsystemen als grundlegende Variante der Mensch-Technik-Interaktion”, K. Lay, Oldenbourg Verlag, Informationstechnik und Technische Informatik 42/2000, S. 38–43, wird die Interaktion zwischen einem Menschen und einem mobilen Assistenzsystem beschrieben, beispielsweise in Form eines intelligenten Roboters, wobei der Druckschrift lediglich an ein derartiges System zu stellende Anforderungen entnehmbar sind, nicht jedoch wie die einzelnen Anforderungen technisch zu lösen sind.
  • Darstellung der Erfindung
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren sowie eine Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person anzugeben, wobei unter Bedacht auf die geltenden Sicherheitsnormen und -richtlinien eine für den Menschen gefährdungsfreie Zusammenarbeit mit der Robotereinheit möglich sein soll. Insbesondere gilt es eine direkte Zusammenarbeit zwischen einem Menschen und der Robotereinheit zu ermöglichen und gleichzeitig das Leistungspotential der Robotereinheit nicht oder nur unwesentlich zu beeinträchtigen.
  • Die Lösung der der Erfindung zugrundeliegenden Aufgabe ist im Anspruch 1 angegeben, in dem ein erfindungsgemäßes Verfahren beschrieben ist. Gegenstand des Anspruches 10 ist eine erfindungsgemäße Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person. Den Erfindungsgedanken vorteilhaft weiterbildende Merkmale sind Gegenstand der Unteransprüche sowie der gesamten Beschreibung unter Bezugnahme auf die Ausführungsbeispiele zu entnehmen.
  • Das erfindungsgemäße Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person sieht grundsätzlich folgende Verfahrensschritte vor:
    Mit Hilfe eines Sensorsystems wird das unmittelbare Umfeld der Robotereinheit derart erfasst und überwacht, dass bewegte Objekte, die in einen von dem Sensorsystem erfassbaren Detektionsbereich eindringen, erfasst und lokalisiert werden. Der durch das Sensorsystem erfassbare Detektionsbereich ist vorzugsweise derart einzustellen, dass der Detektionsbereich in etwa mit dem Aktionsbereich der Robotereinheit übereinstimmt. Im Weiteren wird angenommen, dass es sich bei den bewegten Objekten um eine Person handelt, die mit der Robotereinheit in Interaktion treten wird. Das Sensorsystem erfasst somit die sich räumlich und zeitlich verändernde Position der Person oder zumindest Teile der Person. Hierbei wird nicht nur die exakte räumliche Relativlage zwischen der Person und der Robotereinheit erfasst, sondern überdies auch die der Person innewohnende Bewegungsdynamik, d. h. das Sensorsystem erfasst zusätzlich die Fortbewegungsgeschwindigkeit der gesamten Person und/oder Teile der Person sowie auch Geschwindigkeitsgradienten bzw. Beschleunigungswerte der Person oder Teile der Person. Zum Erfassen der sich räumlich und zeitlich verändernden Position der Person oder von Teilen der Person durch Orts- und zeitaufgelöstes Erfassen von Fortbewegungsgeschwindigkeit sowie Geschwindigkeitsgradienten bzw. Beschleunigungswerten sind an die Kinematik der Person oder Teile der Person charakterisierenden, ausgewählten Stellen der Person und/oder den Teilen der Person Markierungsmittel angebracht, die mit Hilfe des Sensorsystems erfasst werden.
  • Diese mit dem Sensorsystem erfassten Informationen werden in einem zweiten Schritt unter Zugrundelegung eines die Person beschreibenden Verhaltensmodells bewertet. Der Begriff „Verhaltensmodell” umfasst eine Vielzahl das Verhalten einer jeweiligen Person innerhalb des Aktionsbereiches der Robotereinheit beschreibende Informationen, die in Form einer daten- und/oder wissensbasierten Datenbank abgespeichert sind. Die das Verhalten der jeweiligen Person beschreibende Informationen umfasst für die Person charakteristische Posen und Lagen sowie auch für die Person typische Bewegungsinformationen, damit sind insbesondere Fortbewegungsgeschwindigkeiten bzw. Beschleunigungswerte der Person oder Teile der Person, wie Arme, Beine, Kopf etc. gemeint.
  • Betrachtet man an dieser Stelle das Beispiel einer Übergabe von Produkten von einer Person an eine Robotereinheit, die das jeweilige Produkt weiterverarbeitet, so hält sich die Person für diesen konkreten Übergabevorgang in einem bestimmten räumlichen Sektor in Bezug auf die Robotereinheit auf und führt für jeden einzelnen Übergabevorgang einen bestimmten Bewegungsablauf aus. Für diese Interaktion nimmt die Person eine Vielzahl erlaubter Bewegungszustände bzw. räumliche Posen ein, um erfolgreich und damit verletzungsfrei mit der Robotereinheit zusammen zu arbeiten. Liegen diese für eine erfolgreiche Interaktion mit der Robotereinheit erlaubten Bewegungszustände bzw. Posen beispielsweise in Form von Referenzdaten in einer Datenbank vor, in der wie eingangs erwähnt, zusätzliche, die Bewegungsdynamik der Person beschreibende Informationen enthalten sind, ist es möglich, die mittels des Sensorsystems aktuell erfasste Position der Person oder Teile der Person mit den vorstehend abgespeicherten Referenzdaten zu vergleichen. Mit Hilfe geeigneter Bewertungskriterien, die dem Verhaltensmodell zugrundegelegt sind, werden in einem dritten Schritt Steuersignale generiert, die die Eigenbeweglichkeit der Robotereinheit kontrolliert beeinflussen, um eine gewünschte Interaktion zwischen Mensch und Robotereinheit zu ermöglichen.
  • Die bei der Bewertung der dynamisch erfassten Position der Person oder Teile der Person unter Maßgabe eines die Person beschreibenden Verhaltensmodells zugrundeliegenden Bewertungskriterien richten sich nach Art und Umfang der jeweiligen Interaktion zwischen der Person und der Robotereinheit. Handelt es sich beispielsweise um einen Übergabevorgang eines Gegenstandes von der Person auf die Robotereinheit, so ist die genaue Erfassung der Armposition der Person sowie die Arm bewegungsgeschwindigkeit besonders relevant. Gerät beispielsweise die Person beim Übergabevorgang ins Stolpern, wodurch beispielsweise die Armbewegung ungewöhnlich ruckartig und hastig erfolgt, so wird dies vom Sensorsystem erfasst. Die hastigen Armbewegungen werden mit den abgespeicherten Referenzdaten verglichen und letztlich bewertend festgestellt, dass die Armposition sowie deren Geschwindigkeit nicht mit den erlaubten Verhaltensmustern übereinstimmen. Als Folge werden Steuersignale für die Robotereinheit generiert, durch die der Roboter veranlasst wird entsprechend zurückzuweichen oder aber der Roboter wird kurzzeitig abgeschaltet.
  • Von entscheidender Bedeutung für eine erfolgreiche Anwendung des Verfahrens zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist die exakte Erfassung der Person oder Teile der Person sowohl im Hinblick auf ihrer aktuelle räumlichen Lage und Position, als auch im Hinblick ihrer aktuellen Bewegungsdynamik. Zur vereinfachten weiteren Beschreibung wird angenommen, dass die Person in ihrer Gesamtheit erfasst werden soll. Hierbei soll jedoch nicht außer Acht gelassen werden, dass es auch Fälle gibt, in denen eine Person lediglich in Teilbereichen erfasst wird, bspw. in Fällen in denen eine Person ausschließlich mit ihren Händen an einem Arbeitsplatz mit einer Robotereinheit zusammenarbeitet, so dass für eine diesbezügliche Interaktion lediglich die Hände bzw. Arme der Person, also Teile der Person, relevant sind.
  • Um die Person für die erwünschte Interaktion räumlich und in ihrer Bewegungsdynamik exakt mit Hilfe des Sensorsystems erfassen zu können, wird die Person an ausgewählten Stellen mit Markierungsmitteln versehen, die vorzugsweise in entsprechenden Bekleidungsstücken, die die Person trägt, integriert sind. Die mit den Markierungsmitteln versehenen ausgewählten Stellen sind vorzugsweise End- und/oder Gelenkbereiche von Extremitäten. So können beispielsweise geeignete Markierungsmittel in Handschuhen, Ellbogenschützer, Kopfbedeckungen, Schuhe etc. vorgesehen werden.
  • Je nach der technischen Art und Ausbildung des verwendeten Sensorsystems sind die Markierungsmittel geeignet zu wählen. Beispielsweise eignen sich besonders auf funk, optische oder akustische Ortung basierende Sensorsysteme, auf die im weiteren im einzelnen eingegangen wird. Auch ist es möglich, eine räumlich zeitaufgelöste Positionsbestimmung einer Person mit Hilfe geeigneter Kameraaufnahmen und nachfolgender Bildauswertung vorzunehmen.
  • Für die Durchführung des vorstehend beschriebenen Verfahrens zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist wenigstens ein Sensorsystem erforderlich, mit dem die aktuelle räumliche Position einer Person oder Teile der Person erfassbar ist, eine Auswerteeinheit mit einer Referenzposen der Person oder Teile der Person enthaltenden Datenbank, in der die erfasste aktuelle räumliche Position mit Referenzposen verglichen und unter Zugrundelegung eines Bewertungskriteriums Steuersignale generiert wird und schließlich eine Steuereinheit zur Ansteuerung von die Eigenbeweglichkeit der Robotereinheit bestimmenden Antriebsmitteln.
  • Wie bereits vorstehend erwähnt, bildet das Kernstück der Vorrichtung das Sensorsystem zum Erfassen der jeweiligen aktuellen räumlichen Position der Person, das in seinen vielseitigen Ausgestaltungsmöglichkeiten unter Bezugnahme auf die nachstehenden Ausführungsbeispiele im einzelnen näher erläutert wird.
  • Kurze Beschreibung der Erfindung
  • Die Erfindung wird nachstehend ohne Beschränkung des allgemeinen Erfindungsgedankens anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen exemplarisch beschrieben. Es zeigen:
  • 1 Schematisierte Darstellung zur Ermittlung der Relativlage einer Person zu einer Robotereinheit mittels funkbasierter Ortung,
  • 2 Darstellung eines funkbasierten Sensorsystems,
  • 3 Schematisierte Darstellung zur Modellierung einer Person,
  • 4 Schematisierte Darstellung zur räumlichen Ortung einer Person relativ zu einer Robotereinheit mittels Schall,
  • 5 Schematisierte Darstellung der räumlichen Ermittlung der relativen Position einer Person relativ zu einer Robotereinheit mittels Beschleunigungssensoren,
  • 6 Darstellung der Positionserfassung eines Teils einer Person mittels Differenzbildtechnik, sowie
  • 7 Darstellung zur Positionsermittlung mittels optischer Kameras.
  • Wege zur Ausführung der Erfindung, gewerbliche Verwendbarkeit
  • Die unter Bezugnahme auf die Ausführungsbeispiele gemäß der 1 bis 7 dargestellten Sensorsysteme ermöglichen eine exakte Erfassung und Lokalisierung einer Person innerhalb des Aktionsbereiches einer Robotereinheit. Je nach technischer Ausbildung des Sensorsystems ist die räumliche Detektionsreichweite des Sensorsystems individuell einzustellen, vorzugsweise an den maximalen Arbeits- bzw. Aktionsbereich der Robotereinheit anzupassen. Auf diese Weise können Bewegungsvorgänge, die außerhalb des Aktionsbereiches des Roboters stattfinden, unbeachtet bleiben. Erst wenn eine Person den Aktionsbereich betritt, wird diese vom Sensorsystem entsprechend erfasst. Hierzu gibt es eine Reihe alternativ arbeitender Sensorsysteme.
  • In 1 ist eine schematisiert dargestellte Situation zur Erfassung der räumlichen Relativlage einer Person P in Bezug auf eine Robotereinheit R dargestellt. Zur Ermittlung der räumlichen Position und Pose der Person P sind in extra angepassten Kleidungsstücken, beispielsweise Jacke, Handschuhe oder Kopfbedeckung, als Transponder T ausgebildete Markierungsmittel an Stellen der Person, wie beispielsweise Handgelenk, Ellbogen, Schulter etc. angebracht, die für die Kinematik der Person P relevant sind.
  • Ein im Bereich der Robotereinheit R installierter Sender S sendet Funksignale aus, die von den einzelnen Transpondern T empfangen und in einer anderen Frequenz als der Sendefrequenz des Senders S zurückgesendet werden. Vorzugsweise sind mehrere Empfänger (nicht in 1 dargestellt) vorgesehen, die die von den Transpondern T abgesandten Signale empfangen. Schließlich werden die dabei gewonnenen Messsignale auf der Grundlage des Triangulationsverfahrens ausgewertet und die dreidimensionale Position des jeweiligen Transponders T im Raum (local positioning system) berechnet. Aufgrund der auf diese Weise gewonnenen, genauen Kenntnisse über die räumliche Lage der einzelnen Transponderpositionen kann auf die Lage der einzelnen, die Transponder T enthaltenen Kleidungsstücke und somit die Lage bzw. Pose der Person geschlossen werden.
  • 2 zeigt eine schematisierte Darstellung eines auf der Transpondertechnik beruhenden Sensorsystems. Ein an einem festen Punkt, vorzugsweise in räumlich fester Lagebeziehung zur Robotereinheit, angebrachter Sender S sendet ein Signal aus, das von einem Transponder T empfangen wird. Der Transponder T ist wie vorstehend beschrieben, an der zu detektierenden Person angebracht und empfängt das von dem Sender abgesandte Funksignal, das vom Transponder T mit einer anderen Frequenz zurückgesendet wird. Das zurückgesendete Signal wird von einem Empfänger E1 am Ort des Senders S sowie zusätzlich von einem weiteren Empfänger E2 empfangen. Durch entsprechende Laufzeitmessungen können die Signallaufzeiten t1 sowie t2 ermittelt werden, die das Funksignal vom Sender S zum Transponder T und zum Empfänger E1 bzw. E2 benötigt. Unter Zugrundelegung der Lichtgeschwindigkeit c können auf diese Weise die Positionskoordinaten des Transponders T in folgender Weise berechnet werden:
    Figure 00110001
  • Äquivalent zum vorstehend betrachteten Fall zur Bestimmung der Positionskoordinaten des Transponders in einer Ebene gemäß 2 kann die dreidimensionale Positionsbestimmung eines Transponders T im Raum mit Hilfe eines weiteren, dritten Empfängers durchgeführt werden. Eingedenk der Tatsache, dass eine Vielzahl von Transpondern T an verschiedenen Positionen der zu detektierenden Person angebracht sind, können Bewegungen und Posen der jeweiligen Person exakt ermittelt werden.
  • Zur eindeutigen Beschreibung eines Bewegungszustandes bzw. einer Pose der jeweiligen Person werden die einzelnen räumlich und zeitlich erfassten Transponderpositionen in einem vereinfachten Menschmodell gemäß der Bilddarstellung in 3 vereint. Es sei angenommen, dass die Person P u. a. am Handgelenk des linken Arms einen Transponder T (siehe rechte Bilddarstellung gemäß 3) trägt. Diese Transponderposition kann mit Hilfe des Sensorsystems exakt ermittelt werden und liegt in Weltkoordinaten vor. Durch die naturgegebene, bedingt durch die natürlichen Freiheitsgrade der einzelnen Gelenke des Menschen vorgegebene Kinematik des Menschen können bereits durch das bloße Erfassen der räumlichen Position des Transponders T sowie dessen Bewegungsgeschwindigkeit bzw. der am Transponder einwirkenden Beschleunigungen Rückschlüsse auf die übrigen Teilbereiche des Menschen im Wege der inversen Kinematik geschlossen werden. So kann das in 3 dargestellte Menschmodell in den Weltkoordinaten bzw. kartesischen Koordinaten (x, y, z) (siehe hierzu rechte Bilddarstellung in 3) in einen Konfigurationsraum transformiert werden, in dem das Menschmodell durch seine Eigenfortbewegungsgeschwindigkeit sowie durch die in den Gelenksbereichen auftretenden Winkelgeschwindigkeiten ω definiert wird. Durch die Betrachtungsweise der inversen Kinematik kann die Bestimmung der gesamten Pose eines Menschen mit einer nur geringen Anzahl von Markierungsmitteln durchgeführt werden, da sich die Lage unterschiedlicher, direkt über Gelenke zusammenhängender Körperteile nicht unabhänig voneinander änder kann.
  • So sind einerseits die minimalen und maximalen Winkelwerte bzw. Beugezustände der einzelnen Gelenksbereiche sowie die maximalen Winkelgeschwindigkeiten, die die einzelnen Gelenkachsen annehmen können, im Rahmen der Menschmodell-Kinematik bekannt bzw. festgelegt. Unter Zugrundelegung dieser Informationen lässt sich somit durch Vergleichsbildung mit den aktuell erfassten Positionen und Posen einer Person abschätzen bzw. vorausberechnen, wo sich die Person auch einige Zeit nach der Messung durch das Sensorsystem aufhalten wird bzw. kann, so dass die Ortsbestimmung mit Hilfe des Sensorsystems nicht notwendigerweise kontinuierlich, sondern lediglich in kurzen Intervallen durchgeführt werden kann.
  • Alternativ zu der vorstehend erläuterten Transpondertechnik ist es ebenso möglich, Schallsender AS an den zu ermittelnden Positionen der Kleidung der Person P anzubringen, die modulierten Schall, beispielsweise hörbaren Schall oder vorzugsweise Ultraschall aussenden. Durch die Aufnahme der Schallsignale mit einem Empfänger M, der in diesem Fall als Mikrofon ausgebildet ist, kann durch entsprechende Auswertung der Signale die Position der einzelnen Schallquellen AS und damit die Position der Person ermittelt werden. Zur Positionsbestimmung dient auch in diesem Fall das bereits vorstehende Prinzip der Triangulation.
  • Abweichend vom Triangulationsverfahren ermöglichen Beschleunigungssensoren und/oder Kreisel, die als Trägheits-abhängige Sensoren TR bekannt sind, eine Positionserfassung im Wege der räumlichen Kopplung ausgehend von einem räumlichen Referenzpunkt (siehe 5). Werden derartige, Trägheits-abhängige Sensoren TR an ausgewählten Stellen der Person angebracht, so kann nach anfänglicher Referenzierung der Sensoren die Position, Orientierung und Geschwindigkeit der Sensoren relativ zu einem räumlichen Referenzpunkt ermittelt werden. Die durch die Sensoren aufgenommenen Beschleunigungswerte werden über Funk an eine Basisstation übertragen, in der die Signale entsprechend ausgewertet werden.
  • Befindet sich die mit Trägheits-abhängigen Sensoren ausgerüstete Person zum Zeitpunkt t0 in einer Ausgangslage, der sogenannten Referenzlage, so sind die Positionen der Beschleunigungssensoren und Kreisel bekannt. In jedem darauffolgenden Zeitintervall ΔT wird pro Beschleunigungssensor bzw. Kreisel ein Beschleunigungsvektor aufgenommen, der in Verbindung mit allen übrigen Beschleunigungsvektoren als Rechnungsgrundlage für eine Positionsberechnung der Person nach jedem einzelnen Zeitintervall dient.
  • Schließlich ist es möglich, eine Positionsbestimmung einer Person bzw. Teile einer Person im Wege optischer Beobachtung mit Hilfe einer Kamera unter Einsatz der Differenzbildtechnik vorzunehmen. Bezugnehmend auf die Darstellung gemäß 6 wird mit Hilfe wenigstens einer Kamera ein einmaliges Referenzbild eines Arbeitsbereiches ohne Gegenwart einer Person bzw. Teile einer Person aufgenommen (siehe linke Bilddarstellung). Im weiteren werden von einer Kameraeinheit laufend Bilder vom Arbeitsbereiches aufgezeichnet, in den gemäß der mittleren Bilddarstellung in 6 die Hand einer Person hineinreicht. Diese Bilder werden mit dem ursprünglich aufgenommenen Referenzbild verglichen. Eine Differenzbildung der Pixelwerte von dem Referenzbild und dem aktuell aufgenommenen Bild ergibt eine Darstellung (siehe hierzu rechte Darstellung in 6), die Bereiche angibt, in denen eine Veränderung stattgefunden hat und im vorliegenden Fall den Bereich der Hand mit einem Werkstück der Person zeigt.
  • Somit ist es auch mit dieser Technik möglich, Positionen und Posen einer Person, vorzugsweise Teile einer Person, zu erfassen.
  • Bedient man sich anstelle einer Aufnahmekamera K gemäß linker Bilddarstellung in 7 mehrerer Aufnahmekameras K, beispielsweise zwei Kameras gemäß rechte Bilddarstellung in 7, so kann der zu überwachende Raumbereich durch entsprechende Überlagerung der Sichtbereiche der beiden Kameras lokal eingegrenzt werden.
  • Soll mit Hilfe der vorstehend beschriebenen, rein optischen Überwachungstechnik die aktuelle Position und Pose einer ganzen Person bestimmt werden, so dienen als Farbmarkierungen ausgebildete Markiermittel, die an entsprechenden Stellen der Kleidung der Person angebracht werden können, als entsprechende, von den Kameras zu detektierende Positionsmarken.
  • Mit Hilfe des erfindungsgemäßen Verfahrens sowie Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist es möglich, einerseits ein Eintreten einer Person in den Aktionsbereich der Robotereinheit festzustellen und von Seiten der Robotereinheit auf dieses Ereignis in geeigneter Weise zu reagieren, beispielsweise durch Not-Ausschaltung oder andere Steuerungsstrategien. Insbesondere kann die Robotereinheit seine Bewegungsdynamik gezielt auf die Bewegungen der Person abstimmen und auf diese Weise ein gemeinsames Arbeiten ermöglichen.
  • Nachstehend seien reihenhaft die mit dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung verbundenen Vorteile zusammengefasst: Schaffung einer neuartigen Möglichkeit der Zusammenarbeitung zwischen Mensch und Roboter.
  • Die Durchlaufzeit von Werkstücken längs einer Produktionsstrasse kann erhöht werden, da durch den gemeinsamen Arbeitsraum zwischen Roboter und Mensch die Transportwege kleiner werden.
  • Der Einsatz von mobilen Robotermanipulatoren in Produktionsbereichen, in denen auf manuelle Zuarbeit nicht verzichtet werden kann, wird durch die erfindungsgemäße Maßnahme erst ermöglicht.
  • Der räumliche Platzbedarf für Robotereinheiten wird entscheidend reduziert, da keine aufwendigen Abgrenzungsmaßnahmen und Lichtschrankenanlagen erforderlich sind.
  • AS
    Schallquelle
    E
    Empfänger
    K
    Kamera
    M
    Mikrophon
    P
    Person
    R
    Robotereinheit
    S
    Sender
    T
    Transponder, Markierungsmittel
    TR
    Trägheits-abhäniger Sensor

Claims (18)

  1. Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person, gekennzeichnet durch folgende Verfahrensschritte: – Erfassen der sich räumlich und zeitlich verändernden Position der Person oder von Teilen der Person durch Orts- und zeitaufgelöstes Erfassen von Fortbewegungsgeschwindigkeit sowie Geschwindigkeitsgradienten bzw. Beschleunigungswerten an die Kinematik der Person oder Teile der Person charakterisierenden, ausgewählten Stellen der Person und/oder den Teilen der Person mit Hilfe eines Sensorsystems, wobei zum sensoriellen Erfassen an den ausgewählten Stellen der Person Markierungsmittel (T) angebracht sind, – Bewerten der dynamisch erfassten Position der Person oder von Teilen der Person unter Zugrundelegung eines die Person beschreibenden Verhaltensmodells, das in Form einer daten- und/oder wissensbasierten Datenbank bevorratet wird, in der für die Person charakteristische Posen und Lagen sowie für die Person typische Bewegungsinformationen als Referenzdaten abgespeichert sind, durch Vergleich der dynamisch erfassten Position mit den in der Datenbank abgespeicherten Referenzdaten, – Generieren von Steuersignalen unter Zugrundelegung eines Bewertungskriteriums, – Gezieltes Ansteuern der Antriebsmittel der Robotereinheit zur kontrollierten Einflussnahme auf die Eigenbeweglichkeit der Robotereinheit in Abhängigkeit der bewerteten, dynamisch erfassten Position der Person.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Markierungsmittel (T) in von der Person (P) getragenen Bekleidungsstücken integriert werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das dynamische Erfassen der räumlichen Position der Person (P) oder von den Teilen der Person im Wege funkbasierter, optischer oder akustischer Ortung auf der Grundlage des Triangulationsverfahrens durchgeführt wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das dynamische Erfassen der räumlichen Position der Person (P) oder von den Teilen der Person unter Verwendung Trägheitsabhängiger Sensoren (TR), deren Sensorsignale einer räumlichen Referenzierung unterzogen werden, durchgeführt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das dynamische Erfassen der räumlichen Position der Person (P) oder von den Teilen der Person durch optische Bilderfassung der Person (P) oder von den Teilen der Person mit nachfolgender Bildauswertung durchgeführt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Referenzdaten die Person (P) beschreibende Referenzposen sowie die Bewegungsdynamik der Person charakteristische Informationen, wie Fortbewegungsgeschwindigkeit und Beschleunigungen, umfasst.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass zur Schaffung und Hinterlegung von die Person (P) beschreibenden Referenzdaten die Person oder die Teile der Person zumindest in einer Vielzahl von die Interaktion zwischen der Robotereinheit (R) und der Person (P) repräsentierenden Positionen mit dem Sensorsystem dynamisch erfasst werden.
  8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass auf der Grundlage der erfassten Referenzdaten ein die Person oder die Teile der Person charakterisierendes Verhaltensmodell gewonnen wird, das die Interaktion zwischen der Robotereinheit (R) und der Person (P) beschreibt.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass durch die Bewertung der dynamisch erfassten Position der Person (P) oder der Teile der Person die Steuersignale für die Eigenbewegung der Robotereinheit (R) dienenden Antriebseinheiten generiert werden.
  10. Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person, die folgende Komponenten aufweist: – Sensorsystem zum Erfassen der sich räumlich und zeitlich verändernden Position der Person oder von Teilen der Person durch Orts- und zeitaufgelöstes Erfassen von Fortbewegungsgeschwindigkeit sowie Geschwindigkeitsgradienten bzw. Beschleunigungswerten an die Kinematik der Person oder von Teilen der Person charakterisierenden, ausgewählten Stellen der Person und/oder den Teilen der Person mit Hilfe eines Sensorsystems, wobei zum sensoriellen Erfassen an den ausgewählten Stellen der Person Markierungsmittel (T) angebracht sind, – Auswerteeinheit zum Bewerten der dynamisch erfassten Position der Person oder von Teilen der Person unter Zugrundelegung eines die Person beschreibenden Verhaltensmodells, das in Form einer daten- und/oder wissensbasierten Datenbank bevorratet wird, in der für die Person charakteristische Posen und Lagen sowie für die Person typische Bewegungsinformationen als Referenzdaten abgespeichert sind, durch Vergleich der dynamisch erfassten Position mit den in der Datenbank abgespeicherten Referenzdaten, und zum Generieren von Steuersignalen unter Zugrundelegung eines Bewertungskriteriums, und – Steuereinheit zur gezielten Ansteuerung von die Eigenbeweglichkeit der Robotereinheit bestimmenden Antriebsmitteln in Abhängigkeit der bewerteten, dynamisch erfassten Position der Person.
  11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die Markierungsmittel an der Person unmittelbar befestigt sind oder in Bekleidungsstücken der Person eingebracht sind.
  12. Vorrichtung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass die ausgewählten Stellen Endbereiche von Extremitäten oder Gelenkbereiche der Person sind.
  13. Vorrichtung nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, dass die Markierungsmittel jeweils als Funk-Transponder, Schallquelle oder als Farb- oder Mustermarkierung ausgebildet sind, und dass das Sensorsystem eine Detektionseinheit vorsieht, die Funk- oder akustische Signale detektiert.
  14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, dass die Auswerteeinheit die detektierten Funk- oder akustischen Signale im Wege des Triangulationsverfahrens auswertet.
  15. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass das Sensorsystem an die Kinematik der Person oder Teile der Person charakterisierende ausgewählte Stellen an der Person Trägheits-abhängige Sensoren vorgesehen sind.
  16. Vorrichtung nach Anspruch 15, dadurch gekennzeichnet, dass die Trägheits-abhängigen Sensoren Beschleunigungssensoren und/oder Kreiselsensoren sind.
  17. Vorrichtung nach Anspruch 15 oder 16, dadurch gekennzeichnet, dass die Auswerteeinheit die von den Trägheits-abhängigen Sensoren stammenden Sensorsignale mit einem räumlichen Referenzsystem referenziert.
  18. Vorrichtung nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, dass das Sensorsystem wenigstens eine Kameraeinheit umfasst, die die räumliche Lage der Person erfasst.
DE2002116023 2002-04-11 2002-04-11 Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen Expired - Fee Related DE10216023B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2002116023 DE10216023B4 (de) 2002-04-11 2002-04-11 Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2002116023 DE10216023B4 (de) 2002-04-11 2002-04-11 Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen

Publications (2)

Publication Number Publication Date
DE10216023A1 DE10216023A1 (de) 2003-11-06
DE10216023B4 true DE10216023B4 (de) 2013-08-14

Family

ID=28798376

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2002116023 Expired - Fee Related DE10216023B4 (de) 2002-04-11 2002-04-11 Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen

Country Status (1)

Country Link
DE (1) DE10216023B4 (de)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10320343B4 (de) * 2003-05-07 2008-05-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen
DE102004030144B4 (de) * 2004-06-22 2007-09-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit
DE102004038906B4 (de) * 2004-08-11 2007-10-25 Sick Ag Verfahren zur Erfassung beweglicher Objekte in einer Überwachungseinrichtung und Überwachungseinrichtung
DE102004048563A1 (de) * 2004-10-04 2006-04-13 Benteler Automobiltechnik Gmbh Überwachungseinrichtung für Roboter
DE102005003827B4 (de) * 2005-01-26 2007-01-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz
DE102005027522B4 (de) * 2005-06-15 2013-01-17 Peter Heiligensetzer Auswertverfahren
DE102007013299A1 (de) 2007-03-06 2008-09-11 Cedes Ag Sensorvorrichtung sowie Anlage mit einem Förderer und einer Sensorvorrichtung
WO2009155946A1 (en) * 2008-06-26 2009-12-30 Abb Ag Adaptive robot system
DE102008041602B4 (de) 2008-08-27 2015-07-30 Deutsches Zentrum für Luft- und Raumfahrt e.V. Roboter und Verfahren zum Steuern eines Roboters
DE102010002250B4 (de) 2010-02-23 2022-01-20 pmdtechnologies ag Überwachungssystem
DE102010017857B4 (de) * 2010-04-22 2019-08-08 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
DE102010063125A1 (de) * 2010-12-15 2012-06-21 Robert Bosch Gmbh Verfahren und Vorrichtung zur sicheren Übertragung von elektromagnetischer Energie
US9694497B2 (en) 2012-07-10 2017-07-04 Siemens Aktiengesellschaft Robot arrangement and method for controlling a robot
DE102013001987A1 (de) * 2013-02-06 2014-08-07 Salvavidas GmbH Verfahren und Ortungssystem zur Ortung von Menschen und/oder sich insbesondere bewegenden Gegenständen insbesondere für den Einsatz in hybriden Arbeitssystemen
DE102014219754B4 (de) 2013-10-01 2022-07-07 Avago Technologies International Sales Pte. Ltd. Gestenbasierte industrielle Überwachung
DE102013020596A1 (de) * 2013-12-13 2015-06-18 Daimler Ag Arbeitsstation und Verfahren zum Durchführen wenigstens eines Arbeitsschritts, insbesondere zum Herstellen eines Kraftwagens
DE102014114596B4 (de) 2014-01-28 2018-09-06 Franka Emika Gmbh Steuerung eines Roboterarms
DE202014100411U1 (de) 2014-01-30 2015-05-05 Kuka Systems Gmbh Sicherheitseinrichtung
DE102014210594A1 (de) * 2014-06-04 2015-12-17 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben einer Fertigungsanlage
DE102016200455A1 (de) * 2016-01-15 2017-07-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sicherheitsvorrichtung und -verfahren zum sicheren Betrieb eines Roboters
DE102016202052B3 (de) * 2016-02-11 2017-04-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Anordnung zur hochgenauen Positionierung einer robotergeführten Interaktionsvorrichtung mittels Radar
JP6360105B2 (ja) * 2016-06-13 2018-07-18 ファナック株式会社 ロボットシステム
DE102021100112A1 (de) * 2021-01-06 2022-07-07 Helmut-Schmidt-Universität Hamburg System zur Unterstützung von manuellen Arbeitsvorgängen in Gegenwart eines ansteuerbaren kollaborativen Roboters

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4115846A1 (de) * 1991-05-15 1992-11-19 Ameling Walter Verfahren zur beruehrungslosen raeumlichen positionsmessung in roboterarbeitsraeumen
DE19843602A1 (de) * 1997-11-13 1999-05-20 Werner Wolfrum Verfahren und Vorrichtung zum Erfassen der Bewegungen von Prozeßeinheiten während eines Produktionsprozesses in einem vorgegebenen Auswertebereich
WO1999028761A1 (en) * 1997-12-04 1999-06-10 At&T Laboratories-Cambridge Limited Detection system for determining positional and other information about objects
DE19708240C2 (de) * 1997-02-28 1999-10-14 Siemens Ag Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4115846A1 (de) * 1991-05-15 1992-11-19 Ameling Walter Verfahren zur beruehrungslosen raeumlichen positionsmessung in roboterarbeitsraeumen
DE19708240C2 (de) * 1997-02-28 1999-10-14 Siemens Ag Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
DE19843602A1 (de) * 1997-11-13 1999-05-20 Werner Wolfrum Verfahren und Vorrichtung zum Erfassen der Bewegungen von Prozeßeinheiten während eines Produktionsprozesses in einem vorgegebenen Auswertebereich
WO1999028761A1 (en) * 1997-12-04 1999-06-10 At&T Laboratories-Cambridge Limited Detection system for determining positional and other information about objects

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LAY, K: "MORPHA: Intelligente anthropomorphe Assistenzsysteme - Die Interaktion zwischen Mensch und mobilen Assistenzsystemen als grundlegende Variante der Mensch-Technik-Interaktion", In: it + ti - Informationstechnik und Technische Informatik 42 (2000) 1, S. 38-43 *
MITTERMAYER, Ch.; SCHWEINZER, H.: "Sensorintegration für Industrie-Robotersteuerungen", In: e&i 117.Jg. (2000). H. 11, S. 707-713 *
SPINGLER, J.; THIEMERMANN, S.: "Direkte Mensch-Roboter-Kooperation", In: ZWF Jahrg. 96 (2001) 11-12, S.616-620 *
TOLLE, H: "Autonomieerhöhung durch Lernen Teil II: Erlernen von Heuristiken, Planungs- und Kommunikationsgrundlagen", In: at - Automatisierungstechnik 49 (2001) 6, S. 260-270 *

Also Published As

Publication number Publication date
DE10216023A1 (de) 2003-11-06

Similar Documents

Publication Publication Date Title
DE10216023B4 (de) Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen
Vasic et al. Safety issues in human-robot interactions
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
Chen et al. Human performance issues and user interface design for teleoperated robots
EP2838698B2 (de) Roboteranordnung und verfahren zum steuern eines roboters
Tittle et al. The remote perception problem
DE112017002639T5 (de) Robotersteuerungsvorrichtung
DE102018112403B4 (de) Robotersystem, das informationen zur unterweisung eines roboters anzeigt
DE102016216441B3 (de) Verfahren und Vorrichtung zur Mensch-Roboter Kooperation
DE202014100411U1 (de) Sicherheitseinrichtung
DE102013001987A1 (de) Verfahren und Ortungssystem zur Ortung von Menschen und/oder sich insbesondere bewegenden Gegenständen insbesondere für den Einsatz in hybriden Arbeitssystemen
DE102007059480B4 (de) Verfahren und Vorrichtung zur Posenüberwachung eines Manipulators
EP3552921B1 (de) Autonome geschwindigkeitsplanung eines auf einen vorbestimmten pfad beschränkten beweglichen akteurs
DE102019002928B4 (de) Simulationsvorrichtung für Roboter
EP2888185A1 (de) Verfahren und system zur unterstützung eines arbeiters in einer anlage zur manipulation von waren
WO2019081135A1 (de) Überwachungsvorrichtung, industrieanlage, verfahren zur überwachung sowie computerprogramm
Bolano et al. Transparent robot behavior using augmented reality in close human-robot interaction
DE102019112043A1 (de) Robotersystem
DE102018101162B4 (de) Messsystem und Verfahren zur extrinsischen Kalibrierung
Hermann et al. Anticipate your surroundings: Predictive collision detection between dynamic obstacles and planned robot trajectories on the GPU
DE102020206403A1 (de) Konfigurieren, Durchführen und/oder Analysieren einer Applikation eines mobilen und/oder kollaborativen Roboters
CN112706158A (zh) 基于视觉和惯导定位的工业人机交互***及方法
DE102019211770B3 (de) Verfahren zur rechnergestützten Erfassung und Auswertung eines Arbeitsablaufs, bei dem ein menschlicher Werker und ein robotisches System wechselwirken
Cabrera et al. Cohaptics: Development of human-robot collaborative system with forearm-worn haptic display to increase safety in future factories
Wang et al. Integrated and automated Systems for Safe Construction Sites

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative
R020 Patent grant now final

Effective date: 20131115

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee