DE102009046107A1 - System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine - Google Patents
System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine Download PDFInfo
- Publication number
- DE102009046107A1 DE102009046107A1 DE200910046107 DE102009046107A DE102009046107A1 DE 102009046107 A1 DE102009046107 A1 DE 102009046107A1 DE 200910046107 DE200910046107 DE 200910046107 DE 102009046107 A DE102009046107 A DE 102009046107A DE 102009046107 A1 DE102009046107 A1 DE 102009046107A1
- Authority
- DE
- Germany
- Prior art keywords
- person
- marking means
- machine
- movement
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39387—Reflex control, follow movement, track face, work, hand, visual servoing
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40202—Human robot coexistence
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40203—Detect position of operator, create non material barrier to protect operator
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40617—Agile eye, control position of camera, active vision, pan-tilt camera, follow object
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
System für eine Interaktion zwischen einer Person und einer Maschine, insbesondere einem Roboter, - mit Markierungsmitteln, die an der Person an bestimmten Positionen, vorzugsweise Endpositionen von Extremitäten oder Gelenken, angeordnet sind, - mit mindestens einer 3-D-TOF-Kamera zur dreidimensionalen Erfassung des Interaktionsbereichs und zur Erfassung der Markierungsmittel, - mit einer Auswerteeinheit, die derart ausgestaltet ist, dass ausgehend von den erfassten Markierungsmitteln ein Modell der Person erstellt und eine Position und eine Bewegung der Person erfasst und/oder vorbestimmt wird, - mit einer Steuereinheit, die die Maschine derart ansteuert, dass bei einer sicherheitskritischen Position und/oder Bewegung der Person, die Person nicht gefährdet wird.
Description
- Die Erfindung betrifft ein System und ein Verfahren zur Interaktion zwischen einer Person und einer Maschine, insbesondere einem Roboter, bei dem an der Person an bestimmten Positionen Markierungsmittel angeordnet sind und mithilfe einer 3D-TOF-Kamera erfasst werden können. Die Maschine wird über eine Steuereinheit derart angesteuert, dass die erkannte Person nicht in ihrer Sicherheit gefährdet wird.
- Aus der
DE 10 2005 003 827 B4 ist bereits eine Vorrichtung und ein Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz bekannt, bei der die Annäherung eines Menschen anhand zweier Sicherheitsschwellen überwacht wird. Über eine erste Sensoreinheit wird eine Annäherung eines Menschen an den Arbeitsplatz derart erfasst, dass bei einem Unterschreiten eines ersten Sicherheitsabstandes ein erstes Signal und bei einem Unterschreiten eines zweiten Sicherheitsabstandes ein zweites Signal erzeugt wird. Bei Vorliegen des ersten Signals ist es vorgesehen, die Robotereinheit in einem vorgebbaren Zustand, in einen so genannten sicheren Betriebshalt zu überführen. Liegt das zweite Signal vor, wird die Robotereinheit in einen so genannten Not-Aus-Zustand überführt, in dem die Robotereinheit bewegungslos in ihrer momentanen Stellung verharrt. Weiterhin ist es vorgesehen, dass am Arbeitsplatz der Robotereinheit ein zusätzlicher Sicherheitsschalter angeordnet ist, der die Robotereinheit in den Zustand des sicheren Betriebshaltes überführt. - Aus der
DE 103 20 343 B4 ist ein Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen bekannt, bei dem nach einem vorgebbaren Programmablauf Handhabungsschritte innerhalb eines sowohl von der Robotereinheit als auch vom Menschen zugänglichen gemeinsamen Arbeitsraumes durchgeführt werden. Hierbei ist es vorgesehen, dass der Robotereinheit bei relativer Annäherung an den Menschen ein Bewegungsmuster aufgeprägt wird, dass sich durch die Bewegungsrichtung, Bewegungsgeschwindigkeit sowie dem Abstand der Robotereinheit relativ zum Menschen auszeichnet. Aus einer Vielzahl unterschiedlicher abgespeicherter Bewegungsmuster wird ein für den Menschen individuelles Bewegungsmuster ausgewählt, so dass dem Menschen ein Gefühl an Arbeitssicherheit und Kontrolle über die Robotereinheit vermittelt wird. Jedes Bewegungsmuster liegt mindestens in einer ersten und zweiten Qualitätsstufe vor, die sich beispielsweise in ihrer Bewegungsgeschwindigkeit und/oder Bewegungsrichtung unterscheiden. Unter Berücksichtigung eines aktuellen Abbremsweges der Robotereinheit sowie einer maximalen eigenen Bewegungsgeschwindigkeit des Menschen wird die Robotereinheit solange abgebremst oder zum Stillstand gebracht, bis eine Kollisionsgefahr auszuschließen ist. - Aus dem Stand der Technik sind ferner Systeme zur dreidimensionalen Bilderfassung bekannt, welche mit Hilfe einer aktiven Beleuchtung arbeiten. Dazu gehören so genannten Time-of-flight-(TOF-) oder Laufzeitmesssysteme. Diese verwenden eine amplitudenmodulierte oder gepulste Beleuchtung, zur Ausleuchtung der zu erfassenden dreidimensionalen Szenerie.
- Mit Kamerasystem soll insbesondere alle 3D-TOF-Kamerasysteme mit umfasst sein, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als 3D-TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie u. a. in den Anmeldungen
DE 196 35 932 ,EP 1 777 747 ,US 6 587 186 und auchDE 197 04 496 beschrieben und beispielsweise von der Firma ,ifm electronic gmbh' als Frame-Grabber O3D101/M01594 zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können. - Aufgabe der Erfindung ist es ein System mit einer 3D-TOF-Kamera für ein Interaktions-System zwischen einer Person und einer Maschine weiter zu bilden.
- Die Aufgabe wird in vorteilhafter Weise durch die erfindungsgemäße Vorrichtung und dem erfindungsgemäßen Verfahren der unabhängigen Ansprüche gelöst.
- Vorteilhaft sieht das erfindungsgemäße System für eine Interaktion zwischen einer Person und einer Maschine, insbesondere einem Roboter, Markierungsmittel vor, die an bestimmten Positionen der Person, vorzugsweise an Endpositionen von Extremitäten oder Gelenken, angeordnet sind. Mindestens eine 3D-TOF-Kamera dient zur dreidimensionalen Erfassung des Interaktionsbereichs und zur Erfassung der Markierungsmittel. Mit Hilfe einer Auswerteeinheit wird ausgehend von den erfassten Markierungsmitteln ein Modell der Person erstellt und eine Position und eine Bewegung der Person erfasst und/oder vorbestimmt. Anhand der erfassten und/oder vorbestimmten Position und Bewegung der Person wird die Maschine über eine Steuereinheit derart angesteuert, dass bei einer sicherheitskritischen Position und/oder Bewegung der Person, die Person nicht weiter gefährdet wird.
- Zweckmäßiger Weise sind die Markierungsmittel als Reflektoren ausgebildet, so wird in vorteilhafter Weise sichergestellt, dass auch bei starkem Umgebungslicht das Markierungsmittel eindeutig und sicher vom Hintergrund unterschieden werden kann.
- Weiterhin ist es nützlich die Markierungsmittel mit unterschiedlichen optischen Eigenschaften auszugestalten. So ist es möglich, für bestimmte Positionen Markierungsmittel mit besonderen optischen Eigenschaften bereitzustellen. So kann beispielsweise ein Reflektor, der am Kopf der Person angeordnet ist, eine andere optische Eigenschaft aufweisen als die Reflektoren die an der Schulter oder an der Hand angeordnet sind. Prinzipiell ist es denkbar, für jede Position eine eigene optische Eigenschaft vorzusehen.
- Gemäß einer weiteren Ausgestaltung ist es vorgesehen, eine Arbeitskleidung der interagierenden Person mit Markierungsmittel an den bestimmten Positionen auszustatten.
- Weiterhin ist es von Vorteil mehr als eine 3D-TOF-Kamera vorzusehen. Die Verwendung mehrerer Kameras erlaubt es insbesondere, die Sicherheit der erfassten Daten zu erhöhen. Darüber hinaus ist es mithilfe mehrerer Kameras möglich auch gegebenenfalls durch die Person oder der Maschine verdeckte Bereiche zu erfassen.
- In einer weiteren Ausgestaltung ist es vorteilhaft, innerhalb des Interaktionsbereichs mindestens zwei, personenunabhängige Referenzmarkierungen, insbesondere Reflektoren, vorzusehen. Ort und Abstand dieser Referenzmarkierungen sind in Bezug auf mindestens eine 3D-TOF-Kamera bekannt, sodass ausgehend von diesen Referenzmarkierungen das 3D-Modell einer 3D-TOF-Kamera kalibriert werden kann. Ferner ist es von Vorteil, auch ein Verfahren zum Betreiben des vorgenannten Systems bereitzustellen, bei dem die mit der Maschine interagierende Person anhand von Markierungsmitteln, die an bestimmten Stellen der Person angeordnet sind, in seiner Position und Bewegung erfasst wird, wobei anhand der erfassten Markierungsmittel zunächst ein Modell der Person ermittelt wird, anhand dessen die weiteren Berechungen erfolgen.
- Das Verfahren lässt sich weiter verbessern, indem vor der Interaktion der Person mit der Maschine in einer Startphase zunächst alle Markierungsmittel der Person erfasst werden. So kann sichergestellt werden, dass für die Person ein geeignetes Modell für die weiteren Berechungen hinterlegt werden kann.
- Zweckmäßiger Weise ist es vorgesehen, dass die Person in der Startphase bestimmte Positionen einnimmt und/oder bestimmte Gesten durchführt. So wird beispielsweise sichergestellt, dass alle Gelenkpunkte der Person erkannt und eine maximale Bewegungsmöglichkeit der Person erfasst wird.
- Vorteilhaft wird die Interaktion mit der Maschine nur dann freigegeben, wenn in der Startphase alle erwarteten Markierungsmittel eindeutig erkannt wurden.
- In einer weiteren Ausgestaltung ist es vorgesehen, bei einer erkannten oder prognostizierten Sicherheitskritischen Position und/oder Bewegung der Person die Maschine so anzusteuern, dass eine Gefährdung der Person auszuschließen ist.
- Liegen die erkannten oder prognostizierten Positionen und/oder Bewegung der Person innerhalb eines erwarteten Prozessbereiches, ist es vorteilhaft vorgesehen einen kooperativen Prozessablauf zwischen Maschine und der Person aufrechtzuerhalten.
- Es zeigen:
-
1 schematisch ein erfindungsgemäßes System, -
2 einen Maschinenarbeitsbereich mit einer kooperierenden Person, -
3 eine kooperierende Person innerhalb eines Interaktionsbereichs, -
4 eine kooperierende Person außerhalb des Interaktionsbereichs in der Startphase. -
1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einem 3D-TOF-Kamerasystem, wie es beispielsweise aus derDE 197 04 496 bekannt ist. - Das 3D-TOF-Kamerasystem umfasst hier eine Sendeeinheit bzw. ein Beleuchtungsmodul
100 mit einer Lichtquelle12 und einer dazugehörigen Strahlformungsoptik50 sowie eine Empfangseinheit bzw. 3D-TOF-Kamera200 mit einer Empfangsoptik150 und einem Fotosensor15 . Der Fotosensor15 ist vorzugsweise als Pixel-Array, insbesondere als PMD-Sensor, ausgebildet. Die Empfangsoptik besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik50 der Sendeeinheit100 ist vorzugsweise als Reflektor ausgebildet. Es können jedoch auch diffraktive Elemente oder Kombinationen aus reflektierenden und diffraktiven Elementen eingesetzt werden. - Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasendifferenz des emittierten und empfangenen Lichts die Laufzeit des emittierten und reflektierten Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle und der Fotosensor
15 über einen Modulator18 gemeinsam mit einer bestimmten Modulationsfrequenz mit einer ersten Phasenlage a beaufschlagt. Entsprechend der Modulationsfrequenz sendet die Lichtquelle12 ein amplitudenmoduliertes Signal mit der Phase a aus. Dieses Signal bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt20 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben mit einer zweiten Phasenlage b auf den Fotosensor15 . Im Photosensor15 wird das Signal der ersten Phasenlage a des Modulators18 mit dem empfangenen Signal, das mittlerweile eine zweite Phasenlage b angenommen hat, gemischt und aus dem resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung ermittelt. -
2 zeigt schematisch einen Maschinenarbeitsplatz mit einem Roboter30 und einer kooperierenden Person300 . Der Roboter30 ist hier als Greif- bzw. Werkzeug-Roboter mit mehreren Gelenkarmen32 und Gelenken33 ausgestaltet. Zwischen der Person300 und dem Roboter30 befindet sich ein Arbeitsplatz500 , der gemeinsam von der Person300 und dem Roboter30 vorzugsweise kooperierend genutzt wird. Die gesamte Situation in der sich der Roboter30 und die Person300 befinden wird von einer 3D-TOF-Kamera10 erfasst. Zur besseren Erkennung der Extremitäten der Person300 sind an bevorzugten Stellen wie beispielsweise Kopf, Schulter, Handgelenk, Arm- und Kniegelenk sowie im Fußbereich Markierungsmittel, vorzugsweise Reflektoren, angeordnet. Die von der 3D-TOF-Kamera erfasste Situation wird mithilfe einer Auswerteeinheit bzw. Bildverarbeitung210 verarbeitet und insbesondere im Hinblick auf Position und Bewegung der Person300 ausgewertet. Die Daten der Auswerteeinheit210 werden vorzugsweise einer Steuereinheit35 des Roboters30 zu Verfügung gestellt. Ausgehend von den Position-, Bewegungs- und Lagedaten der Person300 kann in Relation zu den bekannten Positions- und Bewegungsplänen des Roboters eine sicherheitskritische Lage der Person300 erkannt werden. Um die Gefahr für die Person zu reduzieren oder gegebenenfalls auch abzuwenden, kann es vorgesehen sein, beispielsweise die Geschwindigkeit der Robotergelenke bei Annäherung zu verringern, sodass sichergestellt werden kann, dass der Roboterarm jederzeit gefahrlos zum Stillstand gebracht werden kann. - Bei einer kooperierenden Interaktion zwischen Person
300 und Roboter30 werden von der Person300 vorbestimmte Bewegungsmuster erwartet. Kooperiert die Person300 innerhalb dieser Bewegungsmuster, hält die Maschine den kooperativen Prozessablauf aufrecht. Weicht die Person300 jedoch von diesem Prozessablauf ab, geht die Maschine gegebenenfalls in einen Sicherheitsmodus oder weicht den Bewegungen der Person300 aus. - Auch für den kooperierenden Prozessablauf ist es vorgesehen, dass die maximale Geschwindigkeit des Roboters so gewählt ist, dass er innerhalb einer vorgegebenen Sicherheitsgrenze bei Gefahr zum Stillstand kommt. Beispielsweise kann es vorgesehen sein, dass die Geschwindigkeit des Roboters mit abnehmendem Abstand der Person
300 von dem Roboter30 reduziert wird. -
3 zeigt schematisch die interaktive Situation in einer Aufsicht. Beispielhaft sind in diesem Ausführungsbeispiel drei 3D-TOF-Kameras10 vorgesehen, die innerhalb ihres Erfassungsbereiches E den Interaktionsbereich I der Maschine30 vollständig erfassen. Der Interaktionsbereich I der Maschine30 wird vornehmlich durch die maximalen Bewegungsmöglichkeiten des Roboters aufgespannt und umfasst selbstverständlich nicht nur eine zweidimensionale Ebene, sondern auch einen entsprechenden Volumenbereich. In der Darstellung befindet sich die Person300 am Maschinenarbeitsplatz500 und kann beispielsweise das auf dem Arbeitsplatz500 befindliche Arbeitsmittel510 dem Roboter30 kooperativ zur Verfügung stellen. -
4 zeigt eine mögliche Startphase der in3 gezeigten Arbeitssituation. Im dargestellten Fall befindet sich die Person300 in einer vorbestimmten Startposition SP. Diese Startposition befindet sich vorzugsweise außerhalb des Interaktionsbereiches, sodass in dieser Phase zunächst keine potenzielle Gefahr von der Maschine30 ausgeht. Innerhalb der Startphase ist es erfindungsgemäß vorgesehen, dass die Person300 sich vor Beginn einer Interaktion dem System in der Startposition SP zu erkennen gibt. Vorteilhaft nimmt die Person eine bestimmte Haltung oder eine bestimmte Geste ein, um dem System die Erkennung der Markierungsmittel zu erleichtern bzw. die Zuverlässigkeit der Erkennung zu verbessern. Zu einer weiteren Verbesserung der Erkennung kann es zudem auch vorgesehen sein, mehrere Positionen oder Gesten einzunehmen. Nachdem die Person anhand der Erfassung aller erwarteten Markierungsmittel sicher erfasst und erkannt wurde gibt das System eine mögliche Interaktion frei. - Personen die ohne Markierungsmittel in den Erfassungsbereich E eindringen werden als potenziell gefährdet eingestuft. Abhängig von Geschwindigkeit und Richtung des eindringenden Objektes werden sicherheitsrelevante Maßnahmen bis hin zum Not-Halt der Maschine durchgeführt.
- Durch dieses Vorgehen wird sichergestellt, dass nur entsprechend autorisierte Personen, nämlich solche, die durch bestimmte Markierungsmittel gekennzeichnet sind, kooperativ mit der Maschine in Wechselwirkung treten können. Nicht autorisierte Personen bzw. unbekannte Objekte werden vorsorglich als Sicherheitsrisiko eingestuft.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102005003827 B4 [0002]
- DE 10320343 B4 [0003]
- DE 19635932 [0005]
- EP 1777747 [0005]
- US 6587186 [0005]
- DE 19704496 [0005, 0024]
Claims (13)
- System für eine Interaktion zwischen einer Person und einer Maschine, insbesondere einem Roboter, – mit Markierungsmitteln, die an der Person an bestimmten Positionen, vorzugsweise Endpositionen von Extremitäten oder Gelenken, angeordnet sind, – mit mindestens einer 3D-TOF-Kamera zur dreidimensionalen Erfassung des Interaktionsbereichs und zur Erfassung der Markierungsmittel, – mit einer Auswerteeinheit, die derart ausgestaltet ist, dass ausgehend von den erfassten Markierungsmitteln ein Modell der Person erstellt und eine Position und eine Bewegung der Person erfasst und/oder vorbestimmt wird, – mit einer Steuereinheit, die die Maschine derart ansteuert, dass bei einer sicherheitskritischen Position und/oder Bewegung der Person, die Person nicht gefährdet wird.
- System nach Anspruch 1, bei dem die Markierungsmittel als Reflektoren ausgebildet sind.
- System nach einem der vorhergehenden Ansprüche, bei dem die Markierungsmittel mit unterschiedlichen optischen Eigenschaften ausgestaltet sind
- System nach einem der vorhergehenden Ansprüche, bei dem eine Arbeitskleidung der interagierenden Person Markierungsmitteln an den bestimmten Positionen aufweist.
- System nach einem der vorhergehenden Ansprüche, mit mindestens zwei 3D-TOF-Kameras.
- System nach einem der vorhergehenden Ansprüche, bei dem innerhalb des Interaktionsbereichs mindestens zwei, personenunabhängige Referenzmarkierung, insbesondere Reflektoren, angebracht sind.
- Verfahren zum Betreiben eines Systems nach einem der vorhergehenden Ansprüchen, bei dem eine mit der Maschine interagierende Person anhand von Markierungsmittel, die an bestimmten Stellen der Person angeordnet sind, in seiner Position und Bewegung erfasst wird, wobei anhand der erfassten Markierungsmittel zunächst ein Modell der Person ermittelt wird, anhand dessen die weiteren Berechnungen erfolgen.
- Verfahren nach Anspruch 7, bei dem vor der Interaktion der Person mit der Maschine in einer Startphase zunächst alle Markierungsmittel der Person erfasst werden.
- Verfahren nach einem der Ansprüche 7 bis 8, bei dem die Person in der Startphase bestimmte Positionen einnimmt und/oder Gesten durchführt.
- Verfahren nach einem der Ansprüche 7 bis 9, bei dem in der Startphase erst bei einer Erkennung aller erwarteten Markierungsmittel die Interaktion mit der Maschine freigegeben wird.
- Verfahren nach einem der Ansprüche 7 bis 10, bei dem anhand der letzten Positionen und/oder Bewegungen der Person unter Berücksichtigung des ermittelten Modells die nächste Bewegung der Person vorbestimmt bzw. prognostiziert wird.
- Verfahren nach einem der Ansprüche 7 bis 11, bei beim bei einer erkannte oder prognostizierten sicherheitskritischen Position und/oder Bewegung der Person die Maschine so angesteuert wird, dass eine Gefährdung der Person auszuschließen ist.
- Verfahren nach einem der Ansprüche 7 bis 12, bei dem die Maschine mit der Person einen kooperativen Prozessablauf aufrechterhält, wenn die erkannte oder prognostizierten Position und/oder Bewegung der Person innerhalb eines erwarteten Prozessbereiches liegt.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE200910046107 DE102009046107A1 (de) | 2009-10-28 | 2009-10-28 | System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine |
PCT/EP2010/066163 WO2011051285A1 (de) | 2009-10-28 | 2010-10-26 | System und verfahren für eine interaktion zwischen einer person und einer maschine |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE200910046107 DE102009046107A1 (de) | 2009-10-28 | 2009-10-28 | System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102009046107A1 true DE102009046107A1 (de) | 2011-05-05 |
Family
ID=43639143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE200910046107 Ceased DE102009046107A1 (de) | 2009-10-28 | 2009-10-28 | System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102009046107A1 (de) |
WO (1) | WO2011051285A1 (de) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012007242A1 (de) * | 2012-03-09 | 2013-09-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur sicheren Mensch-Roboter-Kooperation |
DE202014100411U1 (de) | 2014-01-30 | 2015-05-05 | Kuka Systems Gmbh | Sicherheitseinrichtung |
DE102014210362A1 (de) * | 2014-06-02 | 2015-12-03 | Kuka Systems Gmbh | MRK-Arbeitsplatz mit einer Aufspannvorrichtung |
DE102015225587A1 (de) | 2015-12-17 | 2017-06-22 | Volkswagen Aktiengesellschaft | Interaktionssystem und Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit |
DE102016200455A1 (de) * | 2016-01-15 | 2017-07-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Sicherheitsvorrichtung und -verfahren zum sicheren Betrieb eines Roboters |
DE102016004902A1 (de) * | 2016-04-22 | 2017-10-26 | Kuka Roboter Gmbh | Überwachung eines Roboters |
DE102016007520A1 (de) * | 2016-06-20 | 2017-12-21 | Kuka Roboter Gmbh | Überwachung einer Roboteranordnung |
DE102016007519A1 (de) * | 2016-06-20 | 2017-12-21 | Kuka Roboter Gmbh | Überwachung einer Anlage mit wenigstens einem Roboter |
DE112012005650B4 (de) * | 2012-01-13 | 2018-01-25 | Mitsubishi Electric Corporation | Risikomesssystem |
CN108858184A (zh) * | 2017-05-11 | 2018-11-23 | 发那科株式会社 | 机器人控制装置以及计算机可读介质 |
US10245728B2 (en) | 2010-02-23 | 2019-04-02 | pmdtechnologies ag | Monitoring system |
DE102018108445B3 (de) | 2018-04-10 | 2019-08-01 | Ifm Electronic Gmbh | Verfahren zum Programmieren eines Fertigungsschritts für einen Industrieroboter |
DE102019211770B3 (de) * | 2019-08-06 | 2020-09-03 | BIBA - Bremer Institut für Produktion und Logistik GmbH | Verfahren zur rechnergestützten Erfassung und Auswertung eines Arbeitsablaufs, bei dem ein menschlicher Werker und ein robotisches System wechselwirken |
DE102019128782A1 (de) * | 2019-10-24 | 2021-04-29 | Sick Ag | Bewegbare Maschine |
CN114072255A (zh) * | 2019-07-31 | 2022-02-18 | X开发有限责任公司 | 移动机器人传感器配置 |
DE102022116026A1 (de) | 2022-06-28 | 2023-12-28 | Blickfeld GmbH | Mobiles überwachungssystem |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2890529A2 (de) * | 2012-08-31 | 2015-07-08 | Rethink Robotics Inc. | Systeme und verfahren für sicheren betrieb eines roboters |
CN103345064B (zh) * | 2013-07-16 | 2015-08-26 | 深圳市智帽科技开发有限公司 | 一种集成3d识别的帽子及帽子的3d识别方法 |
DE102014202733B4 (de) * | 2014-02-14 | 2022-09-01 | Homag Plattenaufteiltechnik Gmbh | Verfahren zum Betreiben einer Maschine, insbesondere einer Plattenaufteilanlage |
CN107932560B (zh) * | 2017-11-14 | 2021-04-27 | 上海交通大学 | 一种人机安全防护***和防护方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19704496A1 (de) | 1996-09-05 | 1998-03-12 | Rudolf Prof Dr Ing Schwarte | Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle |
US6587186B2 (en) | 2000-06-06 | 2003-07-01 | Canesta, Inc. | CMOS-compatible three-dimensional image sensing using reduced peak energy |
DE102005003827B4 (de) | 2005-01-26 | 2007-01-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz |
EP1777747A1 (de) | 2005-10-19 | 2007-04-25 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern |
DE10320343B4 (de) | 2003-05-07 | 2008-05-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004030144B4 (de) * | 2004-06-22 | 2007-09-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit |
DE102006048166A1 (de) * | 2006-08-02 | 2008-02-07 | Daimler Ag | Verfahren zur Beobachtung einer Person in einem industriellen Umfeld |
EP1914609A1 (de) * | 2006-10-18 | 2008-04-23 | Sick Ag | Zustimmschalter mit Mitteln zur Bestimmung seiner Position |
DE102007048684B4 (de) * | 2007-10-10 | 2010-09-09 | Polysius Ag | Laborsystem |
-
2009
- 2009-10-28 DE DE200910046107 patent/DE102009046107A1/de not_active Ceased
-
2010
- 2010-10-26 WO PCT/EP2010/066163 patent/WO2011051285A1/de active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19704496A1 (de) | 1996-09-05 | 1998-03-12 | Rudolf Prof Dr Ing Schwarte | Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle |
US6587186B2 (en) | 2000-06-06 | 2003-07-01 | Canesta, Inc. | CMOS-compatible three-dimensional image sensing using reduced peak energy |
DE10320343B4 (de) | 2003-05-07 | 2008-05-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen |
DE102005003827B4 (de) | 2005-01-26 | 2007-01-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz |
EP1777747A1 (de) | 2005-10-19 | 2007-04-25 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010002250B4 (de) | 2010-02-23 | 2022-01-20 | pmdtechnologies ag | Überwachungssystem |
US10245728B2 (en) | 2010-02-23 | 2019-04-02 | pmdtechnologies ag | Monitoring system |
DE112012005650B4 (de) * | 2012-01-13 | 2018-01-25 | Mitsubishi Electric Corporation | Risikomesssystem |
DE102012007242A1 (de) * | 2012-03-09 | 2013-09-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur sicheren Mensch-Roboter-Kooperation |
DE202014100411U1 (de) | 2014-01-30 | 2015-05-05 | Kuka Systems Gmbh | Sicherheitseinrichtung |
DE102014210362A1 (de) * | 2014-06-02 | 2015-12-03 | Kuka Systems Gmbh | MRK-Arbeitsplatz mit einer Aufspannvorrichtung |
DE102015225587A1 (de) | 2015-12-17 | 2017-06-22 | Volkswagen Aktiengesellschaft | Interaktionssystem und Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit |
DE102016200455A1 (de) * | 2016-01-15 | 2017-07-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Sicherheitsvorrichtung und -verfahren zum sicheren Betrieb eines Roboters |
DE102016004902A1 (de) * | 2016-04-22 | 2017-10-26 | Kuka Roboter Gmbh | Überwachung eines Roboters |
DE102016007519A1 (de) * | 2016-06-20 | 2017-12-21 | Kuka Roboter Gmbh | Überwachung einer Anlage mit wenigstens einem Roboter |
DE102016007520A1 (de) * | 2016-06-20 | 2017-12-21 | Kuka Roboter Gmbh | Überwachung einer Roboteranordnung |
CN108858184A (zh) * | 2017-05-11 | 2018-11-23 | 发那科株式会社 | 机器人控制装置以及计算机可读介质 |
US10486307B2 (en) | 2017-05-11 | 2019-11-26 | Fanuc Corporation | Robot control device and computer readable medium |
DE102018108445B3 (de) | 2018-04-10 | 2019-08-01 | Ifm Electronic Gmbh | Verfahren zum Programmieren eines Fertigungsschritts für einen Industrieroboter |
CN114072255A (zh) * | 2019-07-31 | 2022-02-18 | X开发有限责任公司 | 移动机器人传感器配置 |
DE102019211770B3 (de) * | 2019-08-06 | 2020-09-03 | BIBA - Bremer Institut für Produktion und Logistik GmbH | Verfahren zur rechnergestützten Erfassung und Auswertung eines Arbeitsablaufs, bei dem ein menschlicher Werker und ein robotisches System wechselwirken |
DE102019128782A1 (de) * | 2019-10-24 | 2021-04-29 | Sick Ag | Bewegbare Maschine |
DE102019128782B4 (de) | 2019-10-24 | 2022-06-09 | Sick Ag | Bewegbare Maschine mit einem Sicherheitssystem, mit einer Sicherheitssteuerung, mit einem Lokalisierungssystem, mit einem Entfernungssensor und mit einer Konturerkennungseinheit |
DE102022116026A1 (de) | 2022-06-28 | 2023-12-28 | Blickfeld GmbH | Mobiles überwachungssystem |
Also Published As
Publication number | Publication date |
---|---|
WO2011051285A1 (de) | 2011-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009046107A1 (de) | System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine | |
DE102010002250B4 (de) | Überwachungssystem | |
DE102009031732B3 (de) | Entfernungsmessender optoelektronischer Sensor | |
DE102010037744B3 (de) | Optoelektronischer Sensor | |
EP3421189B1 (de) | Verfahren zum überwachen einer maschine | |
EP2095008B1 (de) | Verfahren und vorrichtung zum überwachen eines dreidimensionalen raumbereichs | |
DE102007025373B3 (de) | Visuelle Überwachung mit Entfernungsbestimmung und Plausibilitätsprüfung anhand von Bildgrößen | |
DE102018118265B4 (de) | Verfahren und Überwachungssystem zum Absichern einer Maschine | |
EP3650740B1 (de) | Sicherheitssystem und verfahren zum überwachen einer maschine | |
EP2025991A1 (de) | Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren | |
DE102014000747B4 (de) | System zur Überwachung eines Zwischenraums zwischen einer Ladeplatte einer stationären Induktionsladevorrichtung und einer Ladeplatte eines geparkten Fahrzeugs | |
EP3220164A1 (de) | Verfahren zum betreiben eines abstandsmessenden überwachungssensors und überwachungssensor | |
DE102013007886B3 (de) | Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt | |
DE102019128782B4 (de) | Bewegbare Maschine mit einem Sicherheitssystem, mit einer Sicherheitssteuerung, mit einem Lokalisierungssystem, mit einem Entfernungssensor und mit einer Konturerkennungseinheit | |
DE102019008840A1 (de) | Verfahren zur Detektion von Objekten auf Schnellstraßen | |
DE102004030144B4 (de) | Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit | |
EP3026459B1 (de) | Sensorsystem | |
DE102014219538A1 (de) | Verfahren zum Betreiben von mobilen Plattformen und mobile Plattform | |
DE102015217314A1 (de) | Überwachungssystem | |
DE102018211943A1 (de) | Radarsystem zur Kollisionsvermeidung eines Roboters | |
DE102009038406A1 (de) | Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs | |
EP2270424B1 (de) | Optoelektronischer Sensor und Verfahren zur Überwachung | |
EP3825731B1 (de) | Optoelektronischer sicherheitssensor und verfahren zur sicheren bestimmung der eigenen position | |
EP2932188A1 (de) | Gerät mit beweglichem geräteteil, insbesondere koordinatenmessgerät oder werkzeugmaschine | |
DE102018115176B3 (de) | Stereokamera und Verfahren zum Ausrichten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OR8 | Request for search as to paragraph 43 lit. 1 sentence 1 patent law | ||
R163 | Identified publications notified | ||
R163 | Identified publications notified |
Effective date: 20130320 |
|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: PMDTECHNOLOGIES AG, DE Free format text: FORMER OWNER: IFM ELECTRONIC GMBH, 45128 ESSEN, DE |
|
R016 | Response to examination communication | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |