DE10216023A1 - Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen - Google Patents
Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem MenschenInfo
- Publication number
- DE10216023A1 DE10216023A1 DE2002116023 DE10216023A DE10216023A1 DE 10216023 A1 DE10216023 A1 DE 10216023A1 DE 2002116023 DE2002116023 DE 2002116023 DE 10216023 A DE10216023 A DE 10216023A DE 10216023 A1 DE10216023 A1 DE 10216023A1
- Authority
- DE
- Germany
- Prior art keywords
- person
- parts
- robot unit
- sensor system
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J3/00—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/027—Electromagnetic sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
Abstract
Beschrieben wird ein Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person sowie eine hierzu geeignete Vorrichtung. Ebenso wird eine diesbezügliche Vorrichtung beschrieben. DOLLAR A Die Erfindung zeichnet sich durch folgende Verfahrensschritte aus: DOLLAR A - Erfassen der sich räumlich und zeitlich verändernden Position der Person oder Teile der Person mit Hilfe eines Sensorsystems, DOLLAR A - Bewerten der dynamisch erfassten Position der Person oder Teile der Person, unter Maßgabe eines die Person beschreibenden Verhaltensmodells, durch Vergleich der dynamisch erfassten Position mit Referenzdaten, DOLLAR A - gezieltes Ansteuern der Robotereinheit zur kontrollierten Einflußnahme auf die Eigenbewglichkeit der Robotereinheit in Abhängigkeit der bewerteten, dynamisch erfassten Position der Person.
Description
- Die Erfindung bezieht sich auf ein Verfahren sowie eine Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person.
- Der Einsatz von Industrierobotern, vorzugsweise zu Produktionszwecken, wird bereits Jahrzehnte lang überaus erfolgreich angewandt, um Produktionsgüter in hohen Stückzahlen unter gleichbleibend hohen Produktqualitäten herzustellen. Zwar sind derartige Industrieroboter in der industriellen Fertigung weit verbreitet, doch werden sie zu Montagezwecken lediglich in Teilgebieten eingesetzt, in denen der Mensch aus Sicherheitsgründen keinen Zugang hat. So fordert beispielsweise die Sicherheitsnorm ISO 10218 eine strikte Trennung der Arbeitsräume von Mensch und Roboter, um die durch den Roboter bedingte für den Menschen bestehende Verletzungsgefahr vollständig auszuschließen. Die vorstehend zitierte Sicherheitsnorm beschränkt sich ausschließlich auf stationäre Industrieroboter, deren Aktionsradius definiert vorgegeben ist. Vergleichbare Sicherheitsnormen bzw. -richtlinien für mobile Roboter, die beispielsweise auf einer eigenfortbewegungsfähigen Plattform angebracht sind, existieren derzeit jedoch nicht. Derartige, zur Eigenfortbewegung befähigte Roboter verfügen vielmehr über automatische Abschaltmechanismen, die im Falle aktiviert werden, wenn ein externer Gegenstand, beispielsweise eine Person, einen vorgegebenen Mindestabstand zum Roboter unterschreitet. Der Bewegungsvorgang des Roboters wird unterbrochen und mögliche durch den Roboter vorgenommene Manipulationsvorgänge gestoppt.
- Die derzeit am häufigsten in der industriellen Produktion im Einsatz befindlichen Industrieroboter betreffen jedoch stationäre Robotersysteme mit jeweils an die unterschiedlichen Montagebedingungen angepaßte Manipulatorarmen, die über zumeist über ein Vielzahl von Bewegungsfreiheitsgraden verfügen. Die maximale Gesamtlänge einer Roboterarmanordnung sowie deren zugänglicher Bewegungsraum definiert den durch den Roboter erreichbaren maximalen Arbeits- bzw. Aktionsbereich, der aus sicherheitstechnischen Gründen vielerorts durch einen Käfig und/oder Lichtschranken umgeben und dadurch gesichert ist.
- Ist ein Industrieroboter durch einen entsprechend ausgestatteten Sicherheitskäfig umgeben, so ist es ohnehin für einen Menschen nicht möglich, in den Aktionsbereich des Roboters zu gelangen. Durch Vorsehen entsprechender Lichtschranken, die zumeist mit einem Sicherheitsabschalt-System verbunden sind, wird der Industrieroboter durch eine festgestellte Lichtschrankenunterbrechung abrupt abgeschaltet, so dass in Fällen, in denen beispielsweise ein Mensch unbeabsichtigt in den Aktionsbereich eines Roboters gelangt, von diesem nicht verletzt werden kann.
- Auch sind derzeit noch im experimentellen Stadium befindliche Schutzsysteme für stationäre sowie auch mobile Industrieroboter bekannt, die über sensorische Detektionssysteme verfügen, mit denen die Erfassung der Annäherung eines Objektes möglich ist. Beispielsweise werden hierzu Manipulatorarme eines Industrieroboter-Systems mit Ultraschall- oder Infrarot-Sensoren bestückt, die die Relativannäherung zu einem Objekt oder zu einem Menschen zu detektieren vermögen. Wird mit Hilfe derartiger Sensoren eine entsprechende Objektannäherung festgestellt, so wird zur Vermeidung von Kollisionen bzw. etwaiger Verletzungen die Eigenbeweglichkeit des Roboters gestoppt oder zumindest seine Fortbewegungsgeschwindigkeit stark herabgesetzt.
- Schließlich sind Robotersysteme bekannt, die an ausgewiesenen Manipulatorarmbereichen über taktile Sensoren verfügen, die im Falle einer Berührung mit einem Objekt Steuersignale für ein abruptes Ausschalten des Roboters generieren.
- Allen bekannten Schutzsystemen, die zur Vermeidung von Kollisionen zwischen den Robotern und bewegten Objekten, allen voran einem Menschen dienen, haftet der Nachteil an, dass eine Zusammenarbeit zwischen Mensch und Roboter im wirtschaftlichen Sinne nicht möglich ist. Entweder ist eine gewünschte Interaktion zwischen Mensch und Maschine aufgrund systembedingter Sicherheitsmaßnahmen überhaupt nicht möglich, wie im Falle der durch Schutzgitter sowie Lichtschranken geschützter Robotersysteme, oder die Arbeitsgeschwindigkeit der mit Schutzmechanismen ausgestatteten Industrieroboter wird zur Vermeidung von Verletzungen derart reduziert, dass eine angestrebte Interaktion rein aus wirtschaftlichen Überlegungen nicht weiter interessant erscheint.
- So existieren derzeit aufgrund der einzuhaltenden Sicherheitsbestimmungen keine Robotersysteme, die unter industriellen Produktionsbedingungen eine unmittelbare und direkte Zusammenarbeit mit einer Person erlauben. Eine derartige Zusammenarbeit ist jedoch an vielen Produktionsstellen wünschenswert, beispielsweise um den Produktionsfluss und die Auslastung derartiger Industrieroboter-Systeme zu optimieren. Dies betrifft insbesondere Übergabevorgänge von Halbfertigprodukten von einem Menschen an eine, das Halbfertigprodukt weiter verarbeitende Robotereinheit, bei denen gegenwärtig üblicherweise das Robotersystem kurzzeitig stillgelegt und nach erfolgter Übergabe erneut aktiviert werden muss. Dies führt zu größeren Stand- und Nebenzeiten, die es gilt, aus wirtschaftlichen Überlegungen zu reduzieren bzw. vollständig zu vermeiden.
- Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren sowie eine Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person anzugeben, wobei unter Bedacht auf die geltenden Sicherheitsnormen und -richtlinien eine für den Menschen gefährdungsfreie Zusammenarbeit mit der Robotereinheit möglich sein soll. Insbesondere gilt es eine direkte Zusammenarbeit zwischen einem Menschen und der Robotereinheit zu ermöglichen und gleichzeitig das Leistungspotential der Robotereinheit nicht oder nur unwesentlich zu beeinträchtigen.
- Die Lösung der der Erfindung zugrundeliegenden Aufgabe ist im Anspruch 1 angegeben, in dem ein erfindungsgemäßes Verfahren beschrieben ist. Gegenstand des Anspruches 12 ist eine erfindungsgemäße Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person. Den Erfindungsgedanken vorteilhaft weiterbildende Merkmale sind Gegenstand der Unteransprüche sowie der gesamten Beschreibung unter Bezugnahme auf die Ausführungsbeispiele zu entnehmen.
- Das erfindungsgemäße Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person sieht grundsätzlich folgende Verfahrensschritte vor:
Mit Hilfe eines Sensorsystems wird das unmittelbare Umfeld der Robotereinheit derart erfasst und überwacht, dass bewegte Objekte, die in einen von dem Sensorsystem erfassbaren Detektionsbereich eindringen, erfasst und lokalisiert werden. Der durch das Sensorsystem erfassbare Detektionsbereich ist vorzugsweise derart einzustellen, dass der Detektionsbereich in etwa mit dem Aktionsbereich der Robotereinheit übereinstimmt. Im weiteren wird angenommen, dass es sich bei den bewegten Objekten um eine Person handelt, die mit der Robotereinheit in Interaktion treten wird. Das Sensorsystem erfasst somit die sich räumlich und zeitlich verändernde Position der Person oder zumindest Teile der Person. Hierbei wird nicht nur die exakte räumliche Relativlage zwischen der Person und der Robotereinheit erfasst, sondern überdies auch die der Person innewohnende Bewegungsdynamik, d. h. das Sensorsystem erfasst zusätzlich die Fortbewegungsgeschwindigkeit der gesamten Person und/oder Teile der Person sowie auch Geschwindigkeitsgradienten bzw. Beschleunigungswerte der Person oder Teile der Person. - Diese mit dem Sensorsystem erfassten Informationen werden in einem zweiten Schritt unter Zugrundelegung eines die Person beschreibenden Verhaltensmodells bewertet. Der Begriff "Verhaltensmodell" umfasst eine Vielzahl das Verhalten einer jeweiligen Person innerhalb des Aktionsbereiches der Robotereinheit beschreibende Informationen, die in Form einer daten- und/oder wissensbasierten Datenbank abgespeichert sind. Die das Verhalten der jeweiligen Person beschreibende Informationen umfasst für die Person charakteristische Posen und Lagen sowie auch für die Person typische Bewegungsinformationen, damit sind insbesondere Fortbewegungsgeschwindigkeiten bzw. Beschleunigungswerte der Person oder Teile der Person, wie Arme, Beine, Kopf etc. gemeint.
- Betrachtet man an dieser Stelle das Beispiel einer Übergabe von Produkten von einer Person an eine Robotereinheit, die das jeweilige Produkt weiterverarbeitet, so hält sich die Person für diesen konkreten Übergabevorgang in einem bestimmten räumlichen Sektor in Bezug auf die Robotereinheit auf und führt für jeden einzelnen Übergabevorgang einen bestimmten Bewegungsablauf aus. Für diese Interaktion nimmt die Person eine Vielzahl erlaubter Bewegungszustände bzw. räumliche Posen ein, um erfolgreich und damit verletzungsfrei mit der Robotereinheit zusammen zu arbeiten. Liegen diese für eine erfolgreiche Interaktion mit der Robotereinheit erlaubten Bewegungszustände bzw. Posen beispielsweise in Form von Referenzdaten in einer Datenbank vor, in der wie eingangs erwähnt, zusätzliche, die Bewegungsdynamik der Person beschreibende Informationen enthalten sind, ist es möglich, die mittels des Sensorsystems aktuell erfasste Position der Person oder Teile der Person mit den vorstehend abgespeicherten Referenzdaten zu vergleichen. Mit Hilfe geeigneter Bewertungskriterien, die dem Verhaltensmodell zugrundegelegt sind, werden in einem dritten Schritt Steuersignale generiert, die die Eigenbeweglichkeit der Robotereinheit kontrolliert beeinflussen, um eine gewünschte Interaktion zwischen Mensch und Robotereinheit zu ermöglichen.
- Die bei der Bewertung der dynamisch erfassten Position der Person oder Teile der Person unter Maßgabe eines die Person beschreibenden Verhaltensmodells zugrundeliegenden Bewertungskriterien richten sich nach Art und Umfang der jeweiligen Interaktion zwischen der Person und der Robotereinheit. Handelt es sich beispielsweise um einen Übergabevorgang eines Gegenstandes von der Person auf die Robotereinheit, so ist die genaue Erfassung der Armposition der Person sowie die Armbewegungsgeschwindigkeit besonders relevant. Gerät beispielsweise die Person beim Übergabevorgang ins Stolpern, wodurch beispielsweise die Armbewegung ungewöhnlich ruckartig und hastig erfolgt, so wird dies vom Sensorsystem erfasst. Die hastigen Armbewegungen werden mit den abgespeicherten Referenzdaten verglichen und letztlich bewertend festgestellt, dass die Armposition sowie deren Geschwindigkeit nicht mit den erlaubten Verhaltensmustern übereinstimmen. Als Folge werden Steuersignale für die Robotereinheit generiert, durch die der Roboter veranlasst wird entsprechend zurückzuweichen oder aber der Roboter wird kurzzeitig abgeschaltet.
- Von entscheidender Bedeutung für eine erfolgreiche Anwendung des Verfahrens zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist die exakte Erfassung der Person oder Teile der Person sowohl im Hinblick auf ihrer aktuelle räumlichen Lage und Position, als auch im Hinblick ihrer aktuellen Bewegungsdynamik. Zur vereinfachten weiteren Beschreibung wird angenommen, dass die Person in ihrer Gesamtheit erfasst werden soll. Hierbei soll jedoch nicht außer Acht gelassen werden, dass es auch Fälle gibt, in denen eine Person lediglich in Teilbereichen erfasst wird, bspw. in Fällen in denen eine Person ausschließlich mit ihren Händen an einem Arbeitsplatz mit einer Robotereinheit zusammenarbeitet, so dass für eine diesbezügliche Interaktion lediglich die Hände bzw. Arme der Person, also Teile der Person, relevant sind.
- Um die Person für die erwünschte Interaktion räumlich und in ihrer Bewegungsdynamik exakt mit Hilfe des Sensorsystems erfassen zu können, wird die Person an ausgewählten Stellen mit Markierungsmitteln versehen, die vorzugsweise in entsprechenden Bekleidungsstücken, die die Person trägt, integriert sind. Die mit den Markierungsmitteln versehenen ausgewählten Stellen sind vorzugsweise End- und/oder Gelenkbereiche von Extremitäten. So können beispielsweise geeignete Markierungsmittel in Handschuhen, Ellbogenschützer, Kopfbedeckungen, Schuhe etc. vorgesehen werden.
- Je nach der technischen Art und Ausbildung des verwendeten Sensorsystems sind die Markierungsmittel geeignet zu wählen. Beispielsweise eignen sich besonders auf funk, optische oder akustische Ortung basierende Sensorsysteme, auf die im weiteren im einzelnen eingegangen wird. Auch ist es möglich, eine räumlich zeitaufgelöste Positionsbestimmung einer Person mit Hilfe geeigneter Kameraaufnahmen und nachfolgender Bildauswertung vorzunehmen.
- Für die Durchführung des vorstehend beschriebenen Verfahrens zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist wenigstens ein Sensorsystem erforderlich, mit dem die aktuelle räumliche Position einer Person oder Teile der Person erfassbar ist, eine Auswerteeinheit mit einer Referenzposen der Person oder Teile der Person enthaltenden Datenbank, in der die erfasste aktuelle räumliche Position mit Referenzposen verglichen und unter Zugrundelegung eines Bewertungskriteriums Steuersignale generiert wird und schließlich eine Steuereinheit zur Ansteuerung von die Eigenbeweglichkeit der Robotereinheit bestimmenden Antriebsmitteln.
- Wie bereits vorstehend erwähnt, bildet das Kernstück der Vorrichtung das Sensorsystem zum Erfassen der jeweiligen aktuellen räumlichen Position der Person, das in seinen vielseitigen Ausgestaltungsmöglichkeiten unter Bezugnahme auf die nachstehenden Ausführungsbeispiele im einzelnen näher erläutert wird.
- Die Erfindung wird nachstehend ohne Beschränkung des allgemeinen Erfindungsgedankens anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen exemplarisch beschrieben. Es zeigen:
- Fig. 1 schematisierte Darstellung zur Ermittlung der Relativlage einer Person zu einer Robotereinheit mittels funkbasierter Ortung,
- Fig. 2 Darstellung eines funkbasierten Sensorsystems,
- Fig. 3 schematisierte Darstellung zur Modellierung einer Person,
- Fig. 4 schematisierte Darstellung zur räumlichen Ortung einer Person relativ zu einer Robotereinheit mittels Schall,
- Fig. 5 schematisierte Darstellung der räumlichen Ermittlung der relativen Position einer Person relativ zu einer Robotereinheit mittels Beschleunigungssensoren,
- Fig. 6 Darstellung der Positionserfassung eines Teils einer Person mittels Differenzbildtechnik, sowie
- Fig. 7 Darstellung zur Positionsermittlung mittels optischer Kameras.
- Die unter Bezugnahme auf die Ausführungsbeispiele gemäß der Fig. 1 bis 7 dargestellten Sensorsysteme ermöglichen eine exakte Erfassung und Lokalisierung einer Person innerhalb des Aktionsbereiches einer Robotereinheit. Je nach technischer Ausbildung des Sensorsystems ist die räumliche Detektionsreichweite des Sensorsystems individuell einzustellen, vorzugsweise an den maximalen Arbeits- bzw. Aktionsbereich der Robotereinheit anzupassen. Auf diese Weise können Bewegungsvorgänge, die außerhalb des Aktionsbereiches des Roboters stattfinden, unbeachtet bleiben. Erst wenn eine Person den Aktionsbereich betritt, wird diese vom Sensorsystem entsprechend erfasst. Hierzu gibt es eine Reihe alternativ arbeitender Sensorsysteme.
- In Fig. 1 ist eine schematisiert dargestellte Situation zur Erfassung der räumlichen Relativlage einer Person P in Bezug auf eine Robotereinheit R dargestellt. Zur Ermittlung der räumlichen Position und Pose der Person P sind in extra angepassten Kleidungsstücken, beispielsweise Jacke, Handschuhe oder Kopfbedeckung, als Transponder T ausgebildete Markierungsmittel an Stellen der Person, wie beispielsweise Handgelenk, Ellbogen, Schulter etc. angebracht, die für die Kinematik der Person P relevant sind.
- Ein im Bereich der Robotereinheit R installierter Sender S sendet Funksignale aus, die von den einzelnen Transpondern T empfangen und in einer anderen Frequenz als der Sendefrequenz des Senders S zurückgesendet werden. Vorzugsweise sind mehrere Empfänger (nicht in Fig. 1 dargestellt) vorgesehen, die die von den Transpondern T abgesandten Signale empfangen. Schließlich werden die dabei gewonnenen Messsignale auf der Grundlage des Triangulationsverfahrens ausgewertet und die dreidimensionale Position des jeweiligen Transponders T im Raum (local positioning system) berechnet. Aufgrund der auf diese Weise gewonnenen, genauen Kenntnisse über die räumliche Lage der einzelnen Transponderpositionen kann auf die Lage der einzelnen, die Transponder T enthaltenen Kleidungsstücke und somit die Lage bzw. Pose der Person geschlossen werden.
- Fig. 2 zeigt eine schematisierte Darstellung eines auf der Transpondertechnik beruhenden Sensorsystems. Ein an einem festen Punkt, vorzugsweise in räumlich fester Lagebeziehung zur Robotereinheit, angebrachter Sender S sendet ein Signal aus, das von einem Transponder T empfangen wird. Der Transponder T ist wie vorstehend beschrieben, an der zu detektierenden Person angebracht und empfängt das von dem Sender abgesandte Funksignal, das vom Transponder T mit einer anderen Frequenz zurückgesendet wird. Das zurückgesendete Signal wird von einem Empfänger E1 am Ort des Senders S sowie zusätzlich von einem weiteren Empfänger E2 empfangen. Durch entsprechende Laufzeitmessungen können die Signallaufzeiten t1, sowie t2 ermittelt werden, die das Funksignal vom Sender S zum Transponder T und zum Empfänger E1 bzw. E2 benötigt. Unter Zugrundelegung der Lichtgeschwindigkeit c können auf diese Weise die Positionskoordinaten des Transponders T in folgender Weise berechnet werden:
- Äquivalent zum vorstehend betrachteten Fall zur Bestimmung der Positionskoordinaten des Transponders in einer Ebene gemäß Fig. 2 kann die dreidimensionale Positionsbestimmung eines Transponders T im Raum mit Hilfe eines weiteren, dritten Empfängers durchgeführt werden. Eingedenk der Tatsache, dass eine Vielzahl von Transpondern T an verschiedenen Positionen der zu detektierenden Person angebracht sind, können Bewegungen und Posen der jeweiligen Person exakt ermittelt werden.
- Zur eindeutigen Beschreibung eines Bewegungszustandes bzw. einer Pose der jeweiligen Person werden die einzelnen räumlich und zeitlich erfassten Transponderpositionen in einem vereinfachten Menschmodell gemäß der Bilddarstellung in Fig. 3 vereint. Es sei angenommen, dass die Person P u. a. am Handgelenk des linken Arms einen Transponder T (siehe rechte Bilddarstellung gemäß Fig. 3) trägt. Diese Transponderposition kann mit Hilfe des Sensorsystems exakt ermittelt werden und liegt in Weltkoordinaten vor. Durch die naturgegebene, bedingt durch die natürlichen Freiheitsgrade der einzelnen Gelenke des Menschen vorgegebene Kinematik des Menschen können bereits durch das bloße Erfassen der räumlichen Position des Transponders T sowie dessen Bewegungsgeschwindigkeit bzw. der am Transponder einwirkenden Beschleunigungen Rückschlüsse auf die übrigen Teilbereiche des Menschen im Wege der inversen Kinematik geschlossen werden. So kann das in Fig. 3 dargestellte Menschmodell in den Weltkoordinaten bzw. kartesischen Koordinaten (x, y, z) (siehe hierzu rechte Bilddarstellung in Fig. 3) in einen Konfigurationsraum transformiert werden, in dem das Menschmodell durch seine Eigenfortbewegungsgeschwindigkeit sowie durch die in den Gelenksbereichen auftretenden Winkelgeschwindigkeiten ω definiert wird. Durch die Betrachtungsweise der inversen Kinematik kann die Bestimmung der gesamten Pose eines Menschen mit einer nur geringen Anzahl von Markierungsmitteln durchgeführt werden, da sich die Lage unterschiedlicher, direkt über Gelenke zusammenhängender Körperteile nicht unabhänig voneinander ändern kann.
- So sind einerseits die minimalen und maximalen Winkelwerte bzw. Beugezustände der einzelnen Gelenksbereiche sowie die maximalen Winkelgeschwindigkeiten, die die einzelnen Gelenkachsen annehmen können, im Rahmen der Menschmodell- Kinematik bekannt bzw. festgelegt. Unter Zugrundelegung dieser Informationen lässt sich somit durch Vergleichsbildung mit den aktuell erfassten Positionen und Posen einer Person abschätzen bzw. vorausberechnen, wo sich die Person auch einige Zeit nach der Messung durch das Sensorsystem aufhalten wird bzw. kann, so dass die Ortsbestimmung mit Hilfe des Sensorsystems nicht notwendigerweise kontinuierlich, sondern lediglich in kurzen Intervallen durchgeführt werden kann.
- Alternativ zu der vorstehend erläuterten Transpondertechnik ist es ebenso möglich, Schallsender AS an den zu ermittelnden Positionen der Kleidung der Person P anzubringen, die modulierten Schall, beispielsweise hörbaren Schall oder vorzugsweise Ultraschall aussenden. Durch die Aufnahme der Schallsignale mit einem Empfänger M, der in diesem Fall als Mikrofon ausgebildet ist, kann durch entsprechende Auswertung der Signale die Position der einzelnen Schallquellen AS und damit die Position der Person ermittelt werden. Zur Positionsbestimmung dient auch in diesem Fall das bereits vorstehende Prinzip der Triangulation.
- Abweichend vom Triangulationsverfahren ermöglichen Beschleunigungssensoren und/oder Kreisel, die als Trägheits-abhängige Sensoren TR bekannt sind, eine Positionserfassung im Wege der räumlichen Kopplung ausgehend von einem räumlichen Referenzpunkt (siehe Fig. 5). Werden derartige, Trägheits-abhängige Sensoren TR an ausgewählten Stellen der Person angebracht, so kann nach anfänglicher Referenzierung der Sensoren die Position, Orientierung und Geschwindigkeit der Sensoren relativ zu einem räumlichen Referenzpunkt ermittelt werden. Die durch die Sensoren aufgenommenen Beschleunigungswerte werden über Funk an eine Basisstation übertragen, in der die Signale entsprechend ausgewertet werden.
- Befindet sich die mit Trägheits-abhängigen Sensoren ausgerüstete Person zum Zeitpunkt t0 in einer Ausgangslage, der sogenannten Referenzlage, so sind die Positionen der Beschleunigungssensoren und Kreisel bekannt. In jedem darauffolgenden Zeitintervall ΔT wird pro Beschleunigungssensor bzw. Kreisel ein Beschleunigungsvektor aufgenommen, der in Verbindung mit allen übrigen Beschleunigungsvektoren als Rechnungsgrundlage für eine Positionsberechnung der Person nach jedem einzelnen Zeitintervall dient.
- Schließlich ist es möglich, eine Positionsbestimmung einer Person bzw. Teile einer Person im Wege optischer Beobachtung mit Hilfe einer Kamera unter Einsatz der Differenzbildtechnik vorzunehmen. Bezugnehmend auf die Darstellung gemäß Fig. 6 wird mit Hilfe wenigstens einer Kamera ein einmaliges Referenzbild eines Arbeitsbereiches ohne Gegenwart einer Person bzw. Teile einer Person aufgenommen (siehe linke Bilddarstellung). Im weiteren werden von einer Kameraeinheit laufend Bilder vom Arbeitsbereiches aufgezeichnet, in den gemäß der mittleren Bilddarstellung in Fig. 6 die Hand einer Person hineinreicht. Diese Bilder werden mit dem ursprünglich aufgenommenen Referenzbild verglichen. Eine Differenzbildung der Pixelwerte von dem Referenzbild und dem aktuell aufgenommenen Bild ergibt eine Darstellung (siehe hierzu rechte Darstellung in Fig. 6), die Bereiche angibt, in denen eine Veränderung stattgefunden hat und im vorliegenden Fall den Bereich der Hand mit einem Werkstück der Person zeigt.
- Somit ist es auch mit dieser Technik möglich, Positionen und Posen einer Person, vorzugsweise Teile einer Person, zu erfassen.
- Bedient man sich anstelle einer Aufnahmekamera K gemäß linker Bilddarstellung in Fig. 7 mehrerer Aufnahmekameras K, beispielsweise zwei Kameras gemäß rechte Bilddarstellung in Fig. 7, so kann der zu überwachende Raumbereich durch entsprechende Überlagerung der Sichtbereiche der beiden Kameras lokal eingegrenzt werden.
- Soll mit Hilfe der vorstehend beschriebenen, rein optischen Überwachungstechnik die aktuelle Position und Pose einer ganzen Person bestimmt werden, so dienen als Farbmarkierungen ausgebildete Markiermittel, die an entsprechenden Stellen der Kleidung der Person angebracht werden können, als entsprechende, von den Kameras zu detektierende Positionsmarken.
- Mit Hilfe des erfindungsgemäßen Verfahrens sowie Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist es möglich, einerseits ein Eintreten einer Person in den Aktionsbereich der Robotereinheit festzustellen und von Seiten der Robotereinheit auf dieses Ereignis in geeigneter Weise zu reagieren, beispielsweise durch Not-Ausschaltung oder andere Steuerungsstrategien. Insbesondere kann die Robotereinheit seine Bewegungsdynamik gezielt auf die Bewegungen der Person abstimmen und auf diese Weise ein gemeinsames Arbeiten ermöglichen.
- Nachstehend seien reihenhaft die mit dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung verbundenen Vorteile zusammengefasst:
- Schaffung einer neuartigen Möglichkeit der Zusammenarbeitung zwischen Mensch und Roboter.
- Die Durchlaufzeit von Werkstücken längs einer Produktionsstrasse kann erhöht werden, da durch den gemeinsamen Arbeitsraum zwischen Roboter und Mensch die Transportwege kleiner werden.
- Der Einsatz von mobilen Robotermanipulatoren in Produktionsbereichen, in denen auf manuelle Zuarbeit nicht verzichtet werden kann, wird durch die erfindungsgemäße Maßnahme erst ermöglicht.
- Der räumliche Platzbedarf für Robotereinheiten wird entscheidend reduziert, da keine aufwendigen Abgrenzungsmaßnahmen und Lichtschrankenanlagen erforderlich sind. Bezugszeichenliste AS Schallquelle
E Empfänger
K Kamera
M Mikrophon
P Person
R Robotereinheit
S Sender
T Transponder, Markierungsmittel
TR Trägheits-abhäniger Sensor
Claims (21)
1. Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen
Robotereinheit (R) und einer Person (P)
gekennzeichnet durch folgende Verfahrensschritte:
- Erfassen der sich räumlich und zeitlich verändernden Position der Person (P)
oder Teile der Person mit Hilfe eines Sensorsystems,
- Bewerten der dynamisch erfassten Position der Person (P) oder Teile der
Person unter Massgabe eines die Person beschreibenden Verhaltensmodells durch
Vergleich der dynamisch erfassten Position mit Referenzdaten,
- Gezieltes Ansteuern der Robotereinheit (R) zur kontrollierten Einflußnahme
auf die Eigenbeweglichkeit der Robotereinheit (R) in Abhängigkeit der bewerteten,
dynamisch erfassten Position der Person (P).
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet, dass zum Erfassen der Person (P) oder Teile der Person
die Kinematik der Person oder Teile der Person charakterisierende, ausgewählte
Stellen an der Person orts- und zeitaufgelöst erfasst werden.
3. Verfahren nach Anspruch 2,
dadurch gekennzeichnet, dass zum sensoriellen Erfassen der ausgewählten Stellen
Markierungsmittel (T) an den Stellen verwendet werden.
4. Verfahren nach Anspruch 3,
dadurch gekennzeichnet, dass die Markierungsmittel (T) in von der Person (P)
getragenen Bekleidungsstücken integriert werden.
5. Verfahren nach einem der Ansprüche 1 bis 4,
dadurch gekennzeichnet, dass das dynamische Erfassen der räumlichen Position
der Person (P) oder Teile der Person im Wege funkbasierter, optischer oder
akustischer Ortung auf der Grundlage des Triangulationsverfahrens durchgeführt
wird.
6. Verfahren nach einem der Ansprüche 1 bis 4,
dadurch gekennzeichnet, dass das dynamische Erfassen der räumlichen Position
der Person (P) oder Teile der Person unter Verwendung Trägheits-abhängiger
Sensoren (TR), deren Sensorsignale einer räumlichen Referenzierung unterzogen
werden, durchgeführt wird.
7. Verfahren nach einem der Ansprüche 1 bis 4,
dadurch gekennzeichnet, dass das dynamische Erfassen der räumlichen Position
der Person (P) oder Teile der Person durch optische Bilderfassung der Person (P)
oder Teile der Person mit nachfolgender Bildauswertung durchgeführt wird.
8. Verfahren nach einem der Ansprüche 1 bis 7,
dadurch gekennzeichnet, dass die Referenzdaten die Person (P) beschreibende
Referenzposen sowie die Bewegungsdynamik der Person charakteristische
Informationen, wie Fortbewegungsgeschwindigkeit und Beschleunigungen, umfasst.
9. Verfahren nach einem der Ansprüche 1 bis 8,
dadurch gekennzeichnet, dass zur Schaffung und Hinterlegung von die Person (P)
beschreibenden Referenzdaten die Person oder Teile der Person zumindest in einer
Vielzahl von die Interaktion zwischen der Robotereinheit (R) und der Person (P)
repräsentierenden Positionen mit dem Sensorsystem dynamisch erfasst werden.
10. Verfahren nach Anspruch 8 oder 9,
dadurch gekennzeichnet, dass auf der Grundlage der erfassten Referenzdaten ein
die Person oder Teile der Person charakterisierendes Verhaltensmodell gewonnen
wird, das die Interaktion zwischen der Robotereinheit (R) und der Person (P)
beschreibt.
11. Verfahren nach einem der Ansprüche 1 bis 10,
dadurch gekennzeichnet, dass durch die Bewertung der dynamisch erfassten
Position der Person (P) oder Teile der Person Steuersignale für die Eigenbewegung
der Robotereinheit (R) dienenden Antriebseinheiten generiert werden.
12. Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen
Robotereinheit (R) und einer Person (P), die folgende Komponenten aufweist:
- Sensorsystem zum Erfassen einer aktuellen räumlichen Position einer Person
(P) oder Teile einer Person,
- Auswerteeinheit mit einer Referenzposen der Person oder Teile der Person
enthaltenden Datenbank, in der die erfasste aktuelle räumliche Position mit
Referenzposen verglichen und unter Zugrundelegung eines Bewertungskriteriums
Steuersignale generiert wird, und
- Steuereinheit zur Ansteuerung von die Eigenbeweglichkeit der Robotereinheit
bestimmenden Antriebsmitteln.
13. Vorrichtung nach Anspruch 12,
dadurch gekennzeichnet, dass das Sensorsystem Markierungsmittel (T) umfasst,
die an ausgewählte Stellen an der Person vorgesehen sind, die die Kinematik der
Person oder Teile der Person charakterisieren.
14. Vorrichtung nach Anspruch 13,
dadurch gekennzeichnet, dass die Markierungsmittel an der Person unmittelbar
befestigt sind oder in Bekleidungsstücken der Person eingebracht sind.
15. Vorrichtung nach Anspruch 13 oder 14,
dadurch gekennzeichnet, dass die ausgewählten Stellen Endbereiche von
Extremitäten oder Gelenkbereiche der Person sind.
16. Vorrichtung nach einem der Ansprüche 12 bis 15,
dadurch gekennzeichnet, dass die Markierungsmittel jeweils als Funk-Transponder,
Schallquelle oder als Farb- oder Mustermarkierung ausgebildet sind, und
dass das Sensorsystem eine Detektionseinheit vorsieht, die Funk- oder akustische
Signale detektiert.
17. Vorrichtung nach Anspruch 16,
dadurch gekennzeichnet, dass die Auswerteeinheit die detektierten Funk- oder
akustischen Signale im Wege des Triangulationsverfahrens auswertet.
18. Vorrichtung nach Anspruch 12,
dadurch gekennzeichnet, dass das Sensorsystem an die Kinematik der Person oder
Teile der Person charakterisierende ausgewählte Stellen an der Person Trägheits-
abhängige Sensoren vorgesehen sind.
19. Vorrichtung nach Anspruch 18,
dadurch gekennzeichnet, dass die Trägheits-abhängigen Sensoren
Beschleunigungssensoren und/oder Kreiselsensoren sind.
20. Vorrichtung nach Anspruch 18 oder 19,
dadurch gekennzeichnet, dass die Auswerteeinheit die von den Trägheits-
abhängigen Sensoren stammenden Sensorsignale mit einem räumlichen
Referenzsystem referenziert.
21. Vorrichtung nach einem der Ansprüche 12 bis 15,
dadurch gekennzeichnet, dass das Sensorsystem wenigstens eine Kameraeinheit
umfasst, die die räumliche Lage der Person erfasst.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2002116023 DE10216023B4 (de) | 2002-04-11 | 2002-04-11 | Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2002116023 DE10216023B4 (de) | 2002-04-11 | 2002-04-11 | Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10216023A1 true DE10216023A1 (de) | 2003-11-06 |
DE10216023B4 DE10216023B4 (de) | 2013-08-14 |
Family
ID=28798376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2002116023 Expired - Fee Related DE10216023B4 (de) | 2002-04-11 | 2002-04-11 | Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10216023B4 (de) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10320343A1 (de) * | 2003-05-07 | 2004-12-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen |
DE102004030144A1 (de) * | 2004-06-22 | 2006-01-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit |
DE102004038906A1 (de) * | 2004-08-11 | 2006-03-09 | Sick Ag | Verfahren zur Erfassung beweglicher Objekte in einer Überwachungseinrichtung und Überwachungseinrichtung |
DE102004048563A1 (de) * | 2004-10-04 | 2006-04-13 | Benteler Automobiltechnik Gmbh | Überwachungseinrichtung für Roboter |
DE102005027522A1 (de) * | 2005-06-15 | 2006-12-21 | Heiligensetzer, Peter, Dr. | Auswertverfahren |
DE102005003827B4 (de) * | 2005-01-26 | 2007-01-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz |
WO2009155946A1 (en) * | 2008-06-26 | 2009-12-30 | Abb Ag | Adaptive robot system |
DE102008041602A1 (de) * | 2008-08-27 | 2010-03-04 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Roboter und Verfahren zum Steuern eines Roboters |
DE102010017857A1 (de) * | 2010-04-22 | 2011-10-27 | Sick Ag | 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine |
DE102010063125A1 (de) * | 2010-12-15 | 2012-06-21 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur sicheren Übertragung von elektromagnetischer Energie |
DE102013001987A1 (de) * | 2013-02-06 | 2014-08-07 | Salvavidas GmbH | Verfahren und Ortungssystem zur Ortung von Menschen und/oder sich insbesondere bewegenden Gegenständen insbesondere für den Einsatz in hybriden Arbeitssystemen |
DE202014100411U1 (de) | 2014-01-30 | 2015-05-05 | Kuka Systems Gmbh | Sicherheitseinrichtung |
DE102013020596A1 (de) * | 2013-12-13 | 2015-06-18 | Daimler Ag | Arbeitsstation und Verfahren zum Durchführen wenigstens eines Arbeitsschritts, insbesondere zum Herstellen eines Kraftwagens |
DE102014210594A1 (de) * | 2014-06-04 | 2015-12-17 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben einer Fertigungsanlage |
EP2838698B1 (de) | 2012-07-10 | 2016-05-04 | Siemens Aktiengesellschaft | Roboteranordnung und verfahren zum steuern eines roboters |
DE102016200455A1 (de) * | 2016-01-15 | 2017-07-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Sicherheitsvorrichtung und -verfahren zum sicheren Betrieb eines Roboters |
WO2017137558A1 (de) * | 2016-02-11 | 2017-08-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. | Verfahren und anordnung zur hochgenauen positionierung einer robotergeführten interaktionsvorrichtung mittels radar |
DE102014114596B4 (de) | 2014-01-28 | 2018-09-06 | Franka Emika Gmbh | Steuerung eines Roboterarms |
US10245728B2 (en) | 2010-02-23 | 2019-04-02 | pmdtechnologies ag | Monitoring system |
DE102017112770B4 (de) * | 2016-06-13 | 2019-11-07 | Fanuc Corporation | Robotersystem |
EP2114630B2 (de) † | 2007-03-06 | 2020-02-26 | Rockwell Automation Safety AG | Sensorvorrichtung sowie anlage mit einem förderer und einer sensorvorrichtung |
DE102014219754B4 (de) | 2013-10-01 | 2022-07-07 | Avago Technologies International Sales Pte. Ltd. | Gestenbasierte industrielle Überwachung |
WO2022148810A1 (de) * | 2021-01-06 | 2022-07-14 | Technische Universität Hamburg | System zur unterstützung von manuellen arbeitsvorgängen in gegenwart eines ansteuerbaren kollaborativen roboters |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4115846A1 (de) * | 1991-05-15 | 1992-11-19 | Ameling Walter | Verfahren zur beruehrungslosen raeumlichen positionsmessung in roboterarbeitsraeumen |
DE19708240C2 (de) * | 1997-02-28 | 1999-10-14 | Siemens Ag | Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich |
GB2332053B (en) * | 1997-12-04 | 2002-01-09 | Olivetti Res Ltd | Detection system for determinning positional and other information about objects |
DE19843602A1 (de) * | 1997-11-13 | 1999-05-20 | Werner Wolfrum | Verfahren und Vorrichtung zum Erfassen der Bewegungen von Prozeßeinheiten während eines Produktionsprozesses in einem vorgegebenen Auswertebereich |
-
2002
- 2002-04-11 DE DE2002116023 patent/DE10216023B4/de not_active Expired - Fee Related
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10320343B4 (de) * | 2003-05-07 | 2008-05-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen |
DE10320343A1 (de) * | 2003-05-07 | 2004-12-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen |
DE102004030144A1 (de) * | 2004-06-22 | 2006-01-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit |
DE102004030144B4 (de) * | 2004-06-22 | 2007-09-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit |
DE102004038906A1 (de) * | 2004-08-11 | 2006-03-09 | Sick Ag | Verfahren zur Erfassung beweglicher Objekte in einer Überwachungseinrichtung und Überwachungseinrichtung |
DE102004038906B4 (de) * | 2004-08-11 | 2007-10-25 | Sick Ag | Verfahren zur Erfassung beweglicher Objekte in einer Überwachungseinrichtung und Überwachungseinrichtung |
DE102004048563A1 (de) * | 2004-10-04 | 2006-04-13 | Benteler Automobiltechnik Gmbh | Überwachungseinrichtung für Roboter |
DE102005003827B4 (de) * | 2005-01-26 | 2007-01-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz |
DE102005027522A1 (de) * | 2005-06-15 | 2006-12-21 | Heiligensetzer, Peter, Dr. | Auswertverfahren |
DE102005027522B4 (de) * | 2005-06-15 | 2013-01-17 | Peter Heiligensetzer | Auswertverfahren |
EP2114630B2 (de) † | 2007-03-06 | 2020-02-26 | Rockwell Automation Safety AG | Sensorvorrichtung sowie anlage mit einem förderer und einer sensorvorrichtung |
WO2009155946A1 (en) * | 2008-06-26 | 2009-12-30 | Abb Ag | Adaptive robot system |
DE102008041602A1 (de) * | 2008-08-27 | 2010-03-04 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Roboter und Verfahren zum Steuern eines Roboters |
US9579793B2 (en) | 2008-08-27 | 2017-02-28 | Kuka Roboter Gmbh | Robot and method for controlling a robot |
DE102008041602B4 (de) * | 2008-08-27 | 2015-07-30 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Roboter und Verfahren zum Steuern eines Roboters |
US10245728B2 (en) | 2010-02-23 | 2019-04-02 | pmdtechnologies ag | Monitoring system |
DE102010002250B4 (de) | 2010-02-23 | 2022-01-20 | pmdtechnologies ag | Überwachungssystem |
EP2380709A3 (de) * | 2010-04-22 | 2013-06-19 | Sick AG | 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine |
DE102010017857B4 (de) | 2010-04-22 | 2019-08-08 | Sick Ag | 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine |
DE102010017857A1 (de) * | 2010-04-22 | 2011-10-27 | Sick Ag | 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine |
DE102010063125A1 (de) * | 2010-12-15 | 2012-06-21 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur sicheren Übertragung von elektromagnetischer Energie |
EP2838698B1 (de) | 2012-07-10 | 2016-05-04 | Siemens Aktiengesellschaft | Roboteranordnung und verfahren zum steuern eines roboters |
US9694497B2 (en) | 2012-07-10 | 2017-07-04 | Siemens Aktiengesellschaft | Robot arrangement and method for controlling a robot |
EP2838698B2 (de) † | 2012-07-10 | 2020-01-01 | Siemens Aktiengesellschaft | Roboteranordnung und verfahren zum steuern eines roboters |
DE102013001987A1 (de) * | 2013-02-06 | 2014-08-07 | Salvavidas GmbH | Verfahren und Ortungssystem zur Ortung von Menschen und/oder sich insbesondere bewegenden Gegenständen insbesondere für den Einsatz in hybriden Arbeitssystemen |
DE102014219754B4 (de) | 2013-10-01 | 2022-07-07 | Avago Technologies International Sales Pte. Ltd. | Gestenbasierte industrielle Überwachung |
DE102013020596A1 (de) * | 2013-12-13 | 2015-06-18 | Daimler Ag | Arbeitsstation und Verfahren zum Durchführen wenigstens eines Arbeitsschritts, insbesondere zum Herstellen eines Kraftwagens |
DE102014114596B4 (de) | 2014-01-28 | 2018-09-06 | Franka Emika Gmbh | Steuerung eines Roboterarms |
DE202014100411U1 (de) | 2014-01-30 | 2015-05-05 | Kuka Systems Gmbh | Sicherheitseinrichtung |
WO2015114089A1 (de) * | 2014-01-30 | 2015-08-06 | Kuka Systems Gmbh | Sicherheitseinrichtung und sicherheitsverfahren |
DE102014210594A1 (de) * | 2014-06-04 | 2015-12-17 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben einer Fertigungsanlage |
DE102016200455A1 (de) * | 2016-01-15 | 2017-07-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Sicherheitsvorrichtung und -verfahren zum sicheren Betrieb eines Roboters |
WO2017137558A1 (de) * | 2016-02-11 | 2017-08-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. | Verfahren und anordnung zur hochgenauen positionierung einer robotergeführten interaktionsvorrichtung mittels radar |
DE102017112770B4 (de) * | 2016-06-13 | 2019-11-07 | Fanuc Corporation | Robotersystem |
WO2022148810A1 (de) * | 2021-01-06 | 2022-07-14 | Technische Universität Hamburg | System zur unterstützung von manuellen arbeitsvorgängen in gegenwart eines ansteuerbaren kollaborativen roboters |
Also Published As
Publication number | Publication date |
---|---|
DE10216023B4 (de) | 2013-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10216023B4 (de) | Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen | |
DE102016209576B4 (de) | Bewegungssteuerung für ein mobiles Medizingerät | |
DE102017128543B4 (de) | Störbereich-einstellvorrichtung für einen mobilen roboter | |
Chen et al. | Human performance issues and user interface design for teleoperated robots | |
EP2838698B2 (de) | Roboteranordnung und verfahren zum steuern eines roboters | |
DE102012211071B3 (de) | Interaktion zwischen einem mobilen Roboter und einer Alarmanlage | |
DE112017002639T5 (de) | Robotersteuerungsvorrichtung | |
US20130178980A1 (en) | Anti-collision system for moving an object around a congested environment | |
EP3552921B1 (de) | Autonome geschwindigkeitsplanung eines auf einen vorbestimmten pfad beschränkten beweglichen akteurs | |
DE112010003000T5 (de) | Sichtsystem zum Überwachen von Menschen in dynamischen Umgebungen | |
Tittle et al. | The remote perception problem | |
DE202014100411U1 (de) | Sicherheitseinrichtung | |
DE102021103038A1 (de) | Verfahren und System zur Beförderung eines Roboters in einem Aufzug | |
DE102017218917A1 (de) | Überwachungsvorrichtung, Industrieanlage, Verfahren zur Überwachung sowie Computerprogramm | |
EP1521211A2 (de) | Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung | |
AT513130A4 (de) | Verfahren und System zur Unterstützung eines Arbeiters in einer Anlage zur Manipulation von Waren | |
DE102019002928B4 (de) | Simulationsvorrichtung für Roboter | |
CN112706158B (zh) | 基于视觉和惯导定位的工业人机交互***及方法 | |
DE102013001987A1 (de) | Verfahren und Ortungssystem zur Ortung von Menschen und/oder sich insbesondere bewegenden Gegenständen insbesondere für den Einsatz in hybriden Arbeitssystemen | |
DE102018116065A1 (de) | Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Servicegerätes | |
DE102019112043A1 (de) | Robotersystem | |
DE102018101162B4 (de) | Messsystem und Verfahren zur extrinsischen Kalibrierung | |
DE102020206403A1 (de) | Konfigurieren, Durchführen und/oder Analysieren einer Applikation eines mobilen und/oder kollaborativen Roboters | |
EP3216743B1 (de) | Flurförderzeug mit assistenzvorrichtung | |
Morison et al. | 42 Human-Robot Interaction as Extending Human Perception to New Scales |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8120 | Willingness to grant licences paragraph 23 | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R082 | Change of representative | ||
R020 | Patent grant now final |
Effective date: 20131115 |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |