DE102022131352A1 - Verfahren zur Steuerung eines mit einem Menschen kollaborierenden Roboters und System mit einem kollaborativen Roboter - Google Patents

Verfahren zur Steuerung eines mit einem Menschen kollaborierenden Roboters und System mit einem kollaborativen Roboter Download PDF

Info

Publication number
DE102022131352A1
DE102022131352A1 DE102022131352.2A DE102022131352A DE102022131352A1 DE 102022131352 A1 DE102022131352 A1 DE 102022131352A1 DE 102022131352 A DE102022131352 A DE 102022131352A DE 102022131352 A1 DE102022131352 A1 DE 102022131352A1
Authority
DE
Germany
Prior art keywords
human
robot
reference points
dimensional reference
obstacle information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022131352.2A
Other languages
English (en)
Inventor
Wai Yang Chan
Eng Liang Justin Koh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Schaeffler Technologies AG and Co KG
Original Assignee
Schaeffler Technologies AG and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Schaeffler Technologies AG and Co KG filed Critical Schaeffler Technologies AG and Co KG
Priority to DE102022131352.2A priority Critical patent/DE102022131352A1/de
Publication of DE102022131352A1 publication Critical patent/DE102022131352A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40201Detect contact, collision with human
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

Die Erfindung betrifft Verfahren zur Steuerung eines mit einem Menschen kollaborierenden Roboters, aufweisend folgende Verfahrensschritte:- Erfassen von zweidimensionalen Bilddaten des Menschen mittels einer Bilderfassungsvorrichtung;- Detektieren von zweidimensionalen Referenzpunkten des Menschen in den zweidimensionalen Bilddaten;- Ermitteln von dreidimensionalen Referenzpunkten des Menschen anhand der detektierten zweidimensionalen Referenzpunkte des Menschen;- Bereitstellen einer Hindernisinformation anhand der ermittelten dreidimensionalen Referenzpunkte des Menschen; und- Steuern einer Bewegung des kollaborativen Roboters in Abhängigkeit von der Hindernisinformation.

Description

  • Die Erfindung betrifft ein Verfahren zur Steuerung eines mit einem Menschen kollaborierenden Roboters. Ferner betrifft die Erfindung ein System bestehend aus einem mit einem Menschen kollaborierenden Roboter und einer Bilderfassungsvorrichtung und einer Steuereinrichtung.
  • Mit Menschen kollaborierende Roboter, auch Cobots genannt, werden typischerweise in Fabrikationsprozessen eingesetzt, in denen sowohl die Flexibilität menschlicher Arbeit als auch die Effizienz von Robotern Synergieeffekte erzeugt, bzw. von Nöten ist. Beispielsweise ergibt sich mit fortschreitender Digitalisierung in Fabriken eine Vielzahl von Möglichkeiten für den Einsatz und Kombination dieser beiden Aspekte in Produktionslinien und im Bereich der Fließbandarbeit.
  • Ein großes Sicherheitsproblem in diesen Fabrikationsprozessen stellt die Mensch-Roboter-Interaktion dar. Bedingt durch z.B. unvorhergesehene menschliche Bewegungen, komplexe menschliche Handlungen, bzw. Bewegungen und/oder eine Verzögerung seitens des Roboters birgt diese Interaktion ein hohes Sicherheitsrisiko für Mensch und Roboter. Konventionelle Lösungsansätze verwenden Schutzeinrichtungen, wie beispielsweise Schutzkäfige, zwischen dem Menschen und dem kollaborierenden Roboter, jedoch mindern solche Schutzeinrichtungen signifikant die Effizienz dieser Fabrikationsprozesse.
  • Im Stand der Technik sind Lösungsansätze bekannt, die mit dem kollaborierenden Roboter gekoppelte Abstandssensoren nach Art von RADAR- oder LIDAR-Sensoren vorsehen, um das Umfeld des Roboters zu überwachen. Diese Sensoren sind jedoch mit hohen Hardwarekosten und einem gesteigerten Rechenaufwand verbunden.
  • Vor diesem Hintergrund stellt sich die Aufgabe, die Zusammenarbeit eines kollaborativen Roboters mit einem Menschen mit reduziertem Aufwand zu ermöglichen.
  • Die Aufgabe wird gelöst durch ein Verfahren zur Steuerung eines mit einem Menschen kollaborierenden Roboters, aufweisend folgende Verfahrensschritte:
    • - Erfassen von zweidimensionalen Bilddaten des Menschen mittels einer Bilderfassungsvorrichtung;
    • - Detektieren von zweidimensionalen Referenzpunkten des Menschen in den zweidimensionalen Bilddaten;
    • - Ermitteln von dreidimensionalen Referenzpunkten des Menschen anhand der detektierten zweidimensionalen Referenzpunkte des Menschen;
    • - Bereitstellen einer Hindernisinformation anhand der ermittelten dreidimensionalen Referenzpunkte des Menschen; und
    • - Steuern einer Bewegung des kollaborativen Roboters in Abhängigkeit von der Hindernisinformation.
  • Bei dem erfindungsgemäßen Verfahren kann auf eine aufwändige und teure Abstandssensoren zur Erfassung dreidimensionaler Bilddaten verzichtet werden. Hingegen erfolgt die Detektion des Menschen anhand von zweidimensionalen Bilddaten einer Bilderfassungsvorrichtung. In diesen zweidimensionalen Bilddaten werden Referenzpunkte des Menschen detektiert. Anhand der zweidimensionalen Referenzpunkte werden erfindungsgemäß dreidimensionale Referenzpunkte ermittelt. Das Verfahrens erlaubt es ferner, anhand der dreidimensionalen Referenzpunkte eine Hindernisinformation zu ermitteln, die zur Steuerung der Bewegung des Roboters herangezogen wird. Eine direkte Erfassung dreidimensionaler Bilddaten mittels Abstandssensoren ist nicht erforderlich.
  • Bevorzugt definieren die zweidimensionalen Referenzpunkte vorgegebene Punkte des menschlichen Körpers, wie z.B. das rechte und linke Schultergelenk, das rechte und linke Ellbogengelenk und das rechte und linke Handgelenk, in der zweidimensionalen Bildebene. Diese Referenzpunkte können über eine Detektionsalgorithmus zuverlässig in den zweidimensionalen Bilddaten erkannt werden. Die dreidimensionalen Referenzpunkte können eine Transformation der entsprechenden zweidimensionalen Bildpunkte aus der zweidimensionalen Bildebene in den dreidimensionalen Raum bilden.
  • Gemäß einer vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass das Verfahren folgenden zusätzlichen Verfahrensschritt aufweist:
    • - Ermitteln eines volumetrischen Körpermodells des Menschen anhand der ermittelten dreidimensionalen Referenzpunkte des Menschen, wobei die Hindernisinformation anhand des ermittelten volumetrischen Körpermodells des Menschen bereitgestellt wird.
  • Das volumetrische Körpermodell kann ein Volumen um die dreidimensionalen Referenzpunkte beschreiben, welches den erfassten Menschen wiedergibt. Die Ermittlung kann ausgehend von einem vorgegebenen, generischen Körpermodell eines Menschen erfolgen, welches durch die ermittelten dreidimensionalen Referenzpunkte parametrisiert wird. Das volumetrische Körpermodell kann gegenüber den dreidimensionalen Referenzpunkten eine detailliertere Hindernisinformation zur Verfügung stellen. Der mit dem Roboter interagierende Mensch kann mit größerer Genauigkeit in der Hindernisinformation abgebildet werden. Somit trägt dieser Verfahrensschritt zur Verbesserung der Sicherheit des mit dem Roboter kollaborierenden Menschen bei.
  • Gemäß einer vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass das Verfahren folgenden zusätzlichen Verfahrensschritt aufweist:
    • - Ermitteln von Voxeln des volumetrischen Körpermodells, die sich in einem vorgegebenen Arbeitsbereich des Roboters befinden, wobei die Hindernisinformation anhand der ermittelten Voxel in dem Arbeitsbereich bereitgestellt wird und Voxel außerhalb des Arbeitsbereichs unberücksichtigt bleiben.
  • Durch die Ermittlung der Voxel im Arbeitsbereich des Roboters kann der Rechenaufwand für die Kollionsvermeidung reduziert werden, da für außerhalb des Arbeitsbereichs liegende Voxel des volumetrischen Körpermodells keine Rechenoperationen ausgeführt werden müssen. Dies wirkt sich wiederum auf die Geschwindigkeit der Informationserfassung aus und trägt somit zur Verbesserung der Sicherheit des Menschen bei.
  • Gemäß einer vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass das Verfahren folgenden zusätzlichen Verfahrensschritt aufweist:
    • - Ermitteln einer Geste, insbesondere einer Handgeste, des Menschen anhand der ermittelten dreidimensionalen Referenzpunkte des Menschen, wobei die Hindernisinformation anhand der ermittelten Geste des Menschen bereitgestellt wird.
  • Durch das Ermitteln von Gesten wird es möglich, zusätzlich zu der erfassten Gestalt des Menschen auch dessen Bewegung bzw. Haltung bei der Steuerung des Roboters zu berücksichtigen. Das Ermitteln von Gesten kann beispielsweise zusätzliche Hindernisinformationen betreffend eine Wahrscheinlichkeit einer Bewegung oder eines Bewegungsmusters des Menschen liefern. Somit kann eine Voraussage erfolgen, wie sich der Mensch bewegen wird. Alternativ oder zusätzlich kann die Ermittlung von Gesten dazu genutzt werden, bestimmte Aktionen des Roboters zu steuern und/oder dem Roboter Befehle zu übermitteln.
  • Gemäß einer vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass das Verfahren folgenden zusätzlichen Verfahrensschritt aufweist:
    • - Ermitteln einer Kopfstellung des Menschen anhand der ermittelten dreidimensionalen Referenzpunkte des Menschen, wobei die Hindernisinformation anhand der ermittelten Kopfstellung des Menschen bereitgestellt wird.
  • Durch das Ermitteln der Kopfstellung wird es möglich, zusätzlich zu der erfassten Gestalt des Menschen auch dessen Kopfstellung bei der Steuerung des Roboters zu berücksichtigen. Das Ermitteln der Kopfstellung kann beispielsweise zusätzliche Hindernisinformationen betreffend eine Wahrscheinlichkeit einer Bewegung oder eines Bewegungsmusters des Menschen liefern. Somit kann eine Voraussage erfolgen, wie sich der Mensch bewegen wird, beispielsweise in welche Richtung. Alternativ oder zusätzlich kann die Ermittlung der Kopfstellung dazu genutzt werden, bestimmte Aktionen des Roboters zu steuern und/oder dem Roboter Befehle zu übermitteln.
  • Gemäß einer vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass die Bewegung des Roboters anhand der Hindernisinformation derart gesteuert wird, dass eine Kollision mit dem Menschen vermieden wird. Somit lässt sich die Bewegung des Roboters dynamisch steuern und auf unvorhergesehene und komplexe menschliche Verhaltensmuster zu reagieren. Weiter lässt sich so eine hohe Sicherheit für den Menschen gewährleisten.
  • Gemäß einer vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass die Bewegung des Roboters anhand der Hindernisinformation derart gesteuert wird, dass eine Aktion in Abhängigkeit von einer erkannten Geste oder einer erkannten Kopfstellung des Menschen ausgeführt wird. Daher kann eine effiziente und dynamisch gestaltete Interaktion zwischen dem Menschen und dem Roboter erzielt werden, sowie eine hohe Sicherheit beider gewährleistet werden.
  • Gemäß einer vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass der Roboter ein Industrieroboter mit einem mehrgelenkigen Arm ist.
  • Gemäß einer vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass die Bilderfassungsvorrichtung eine Kamera oder mehrere separate Kameras umfasst. Bei der Kamera kann es sich mit eine CMOS- oder CCD-Kamera handeln. Derartige Kameras stellen eine kostengünstigere Alternative gegenüber Abstandssensoren wie LIDAR- und RADAR-Sensoren dar. Sofern die Bilderfassungsvorrichtung mehrere separate Kameras umfasst, sind diese bevorzugt in verschiedene Raumrichtungen ausgerichtet, so dass das Umfeld des Roboters aus verschiedenen Perspektiven erfasst werden kann.
  • Ein weiterer Gegenstand der Erfindung ist ein System bestehend aus einem mit einem Menschen kollaborierenden Roboter und einer Bilderfassungsvorrichtung und einer Steuereinrichtung, wobei die Steuereinrichtung dazu konfiguriert ist folgende Verfahrensschritte auszuführen:
    • - Erhalten von zweidimensionalen Bilddaten des Menschen, die mittels der Bilderfassungsvorrichtung erfasst wurden;
    • - Detektieren von zweidimensionalen Referenzpunkten des Menschen in den zweidimensionalen Bilddaten;
    • - Ermitteln von dreidimensionalen Referenzpunkten des Menschen anhand der detektierten zweidimensionalen Referenzpunkte des Menschen;
    • - Bereitstellen einer Hindernisinformation anhand der ermittelten dreidimensionalen Referenzpunkte des Menschen; und
    • - Steuern einer Bewegung des kollaborativen Roboters in Abhängigkeit von der Hindernisinformation.
  • Bei dem System können dieselben Vorteile erreicht werden, die bereits im Zusammenhang mit dem Verfahren zur Steuerung eines mit einem Menschen kollaborierenden Roboters beschrieben wurden. Es können auch die in diesem Zusammenhang beschriebenen vorteilhaften Ausgestaltungen und Merkmale bei dem System zur Anwendung kommen.
  • Weitere Einzelheiten und Vorteile der Erfindung sollen nachfolgend anhand der in den Zeichnungen dargestellten Ausführungsbeispiele erläutert werden. Hierin zeigt:
    • 1a ein erstes Ausführungsbeispiel eines erfindungsgemäßen Systems mit einem kollaborativen Roboter, einer Bilderfassungsvorrichtung und einer Steuereinrichtung;
    • 1b ein zweites Ausführungsbeispiel eines erfindungsgemäßen Systems mit einem kollaborativen Roboter, einer Bilderfassungseinheit und einer Steuereinrichtung;
    • 2 ein Ablaufdiagramm eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens zur Steuerung eines mit einem Menschen kollaborierenden Roboters;
    • 3 eine Darstellung von zweidimensionale Bilddaten eines Menschen, in denen zweidimensionale Referenzpunkte des Menschen detektiert wurden;
    • 4 eine Darstellung zweidimensionaler Referenzpunkte und entsprechender dreidimensionale Referenzpunkte;
    • 5a eine Darstellung dreidimensionaler Referenzpunkte eines Menschen
    • 5b eine Darstellung eines aus den dreidimensionalen Referenzpunkten ermittelten volumetrischen Körpermodells des Menschen;
    • 6 eine Darstellungen von Voxeln eines volumetrischen Körpermodells; und
    • 7 zweidimensionale Bilddaten mit detektierten zweidimensionalen Referenzpunkten und, auf den ausgewerteten dreidimensionalen Referenzpunkten basierenden, Gestiken- und Kopfstellungserfassungen.
  • In der 1a ist ein erstes Ausführungsbeispiel eines erfindungsgemäßen Systems gezeigt. Das System umfasst einen kollaborativen Roboter 100, eine Bilderfassungsvorrichtung 101 sowie eine Steuereinrichtung 103 zum Steuern des Roboters 100. Der Roboter 100 ist als Industrieroboter mit einem mehrgelenkigen Arm ausgebildet. Die Bilderfassungsvorrichtung 101 umfasst in diesem Ausführungsbeispiel genau eine Kamera zum Erfassen zweidimensionaler Bilddaten.
  • Die 1b zeigt ein zweites Ausführungsbeispiel eines erfindungsgemäßen Systems, welches einen kollaborativen Roboter 100, eine Bilderfassungsvorrichtung 102 sowie eine Steuereinrichtung 103 zum Steuern des Roboters 100 umfasst. Wie bei dem ersten Ausführungsbeispiel ist der Roboter 100 gemäß dem zweiten Ausführungsbeispiel als Industrieroboter mit einem mehrgelenkigen Arm ausgebildet. Im Unterschied zum ersten Ausführungsbeispiel weist die Bilderfassungsvorrichtung mehrere, hier genau drei, Kameras zum Erfassen zweidimensionaler Bilddaten auf, die in unterschiedliche Raumrichtungen ausgerichtet sind.
  • Bei den Systemen gemäß 1a und 1b sind die Steuereinrichtungen 103 jeweils mit der Bilderfassungsvorrichtung 101, 102 verbunden, so dass von der Bilderfassungsvorrichtung erfasste zweidimensionale Bilddaten an die Steuereinrichtung übermittelt werden können. Zur Steuerung des jeweiligen Roboters 100 sind die Steuereinrichtungen 103 jeweils mit dem Roboter 100 verbunden. Die Steuereinrichtungen sind ferner dazu konfiguriert, folgende Verfahrensschritte auszuführen:
    • - Erhalten von zweidimensionalen Bilddaten des Menschen, die mittels der Bilderfassungsvorrichtung 101, 102 erfasst wurden;
    • - Detektieren von zweidimensionalen Referenzpunkten des Menschen in den zweidimensionalen Bilddaten;
    • - Ermitteln von dreidimensionalen Referenzpunkten des Menschen anhand der detektierten zweidimensionalen Referenzpunkte des Menschen;
    • - Bereitstellen einer Hindernisinformation anhand der ermittelten dreidimensionalen Referenzpunkte des Menschen; und
    • - Steuern einer Bewegung des kollaborativen Roboters 100 in Abhängigkeit von der Hindernisinformation.
  • In der 2 ist ein Ablaufdiagramm eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens 100 gezeigt, welches beispielsweise bei den in 1a und 1b gezeigten Systemen Anwendung finden kann.
  • Zunächst werden in einem ersten Schritt 202 zweidimensionale Bilddaten der Umgebung des Roboters 100 und damit auch eines sich in der Umgebung aufhaltenden Menschen 201 durch die Bilderfassungsvorrichtung 101, 102 erfasst und an die Steuereinrichtung 103 übermittelt. Die Steuereinheit 103 ermittelt in einem dem ersten Schritt 202 nachfolgenden zweiten Schritt 203 zweidimensionale Referenzpunkte des Menschen 201. Dabei werden beispielsweise charakteristische Gelenke des Menschen, wie Schultergelenke, Ellenbogengelenke, Handgelenke, Hüftgelenke, Kniegelenke oder das Halsgelenk in den zweidimensionalen Bilddaten erkannt.
  • In einem dem zweiten Schritt 203 nachfolgenden dritten Schritt 204 werden anhand der zweidimensionalen Referenzpunkte des Menschen entsprechende dreidimensionale Referenzpunkte ermittelt. Anhand dieser ermittelten dreidimensionalen Referenzpunkte werden dann in einem Bereitstellungsschritt 206 Hindernisinformationen bereitgestellt, die zur Steuerung der Bewegung des Roboters herangezogen werden. Diese Hindernisinformationen umfassen bei dem Ausführungsbeispiel sowohl Informationen zur erfassten Gestalt und Position des Menschen als auch Informationen zu Gesten bzw. der Kopfstellung des Menschen.
  • Die Detektion von Gesten bzw. der Kopfstellung des Menschen erfolgt in einem dem dritten Schritt 204 nachfolgenden Erkennungsschritt 205. Die im Erkennungsschritt 205 erkannten Gesten bzw. Kopfstellung wird in dem nachfolgenden Bereitstellungsschritt 206 herangezogen, um die aktuelle Position des Menschen in der Umgebung des Roboters darzustellen aber auch um zukünftige Positionen des Menschen in dieser Umgebung abzuschätzen. Zur Abschätzung kann beispielsweise eine wahrscheinliche zukünftige Bewegung des Menschen bereitgestellt werden. Zudem können aus den erkannten Gesten bzw. der Kopfstellung Befehle zur Steuerung des Roboters abgeleitet werden. Diese Befehle können im Bereitstellungsschritt 206 zusätzlich bereitgestellt werden und dann zur Steuerung des Roboters in einem nachfolgenden Steuerungsschritt 207 herangezogen werden.
  • Die Informationen zur erfassten Gestalt und Position des Menschen werden bei dem Ausführungsbeispiel in einem parallelen Ablauf aus den dreidimensionalen Referenzpunkten gewonnen. In einem dem dritten Schritt 204 nachfolgenden vierten Schritt 208 wird anhand der ermittelten dreidimensionalen Referenzpunkte des Menschen ein volumetrisches Körpermodells des Menschen ermittelt. Diese volumetrische Körpermodell umfasst Voxel, die zusätzlich zu den dreidimensionalen Referenzpunkte auch einen Raum um die dreidimensionalen Referenzpunkte einnehmen. In einem Abfrageschritt 209 werden diejenigen Voxel identifiziert, die innerhalb eines vorgegebenen Arbeitsbereichs des Roboters 100 angeordnet sind. Es verbleiben in einem fünften Schritt 210 somit nur diejenigen Voxel im Arbeitsbereich, wobei Voxel außerhalb des Arbeitsberiechs unberücksichtigt bleiben. Nur die innerhalb des vorgegebenen Arbeitsbereichs angeordneten Voxel werden zur Bereitstellung der Hindernisinformation im Bereitstellungsschritt 206 herangezogen.
  • Die im Bereitstellungsschritt 206 bereitgestellten Hindernisinformationen werden im nachfolgenden Steuerungsschritt 207 herangezogen, um den Roboter 100 zu steuern.
  • In der 3 sind beispielhafte zweidimensionale Bilddaten eines Menschen 230 gezeigt, wie sie im ersten Schritt 202 des Verfahrens nach 2 erfasst werden können. 3 zeigt ferner zweidimensionale Referenzpunkte 231, die im zweiten Schritt 203 detektiert worden sind. Diese zweidimensionalen Referenzpunkte 231 entsprechen vorgegebenen Gelenken sowie vorgegebenen Punkten am Kopf des Menschen 230, hier den Augen und den Ohren.
  • In der 4 sind zweidimensionale Referenzpunkte 231 und die diesen entsprechenden, ermittelten dreidimensionalen Referenzpunkte 232 eines Menschen 230 dargestellt.
  • 5a zeigt eine Darstellung dreidimensionaler Referenzpunkte 232 eines Menschen 230. In 5b ist eine Darstellung eines aus den dreidimensionalen Referenzpunkten 232 ermittelten volumetrischen Körpermodells 233 des Menschen 230 gezeigt.
  • In der 6 ist eine Darstellung von Voxeln eines volumetrischen Körpermodells 233 in gezeigt, die sich in einem vorgegebenen Arbeitsbereich des Roboters 100 befinden.
  • In der 7 sind beispielhaft zweidimensionale Bilddaten und detektierte Gesten und Kopfstellungen dargestellt. Dabei zeigt die 7a) eine detektierte Kopfstellung sowie eine detektierte Gesichtsgestik. In 7b) ist eine gegenüber der 7a) veränderte Kopfstellung mit derselben Gesichtsgestik gezeigt. Die 7c) zeigt eine detektierte Gestik des gesamten Körpers. Die 7d) zeigt eine detektierte Handgestik sowie eine detektierte Gesichtsgestik.

Claims (10)

  1. Verfahren (200) zur Steuerung eines mit einem Menschen (230) kollaborierenden Roboters (100), aufweisend folgende Verfahrensschritte: - Erfassen von zweidimensionalen Bilddaten des Menschen (230) mittels einer Bilderfassungsvorrichtung (101,102); - Detektieren von zweidimensionalen Referenzpunkten (231) des Menschen (230) in den zweidimensionalen Bilddaten; - Ermitteln von dreidimensionalen Referenzpunkten (232) des Menschen (230) anhand der detektierten zweidimensionalen Referenzpunkte (231) des Menschen (230); - Bereitstellen einer Hindernisinformation anhand der ermittelten dreidimensionalen Referenzpunkte (232) des Menschen (230); und - Steuern einer Bewegung des kollaborativen Roboters (100) in Abhängigkeit von der Hindernisinformation.
  2. Verfahren (200) nach Anspruch 1, gekennzeichnet durch folgenden zusätzlichen Verfahrensschritt: - Ermitteln eines volumetrischen Körpermodells (233) des Menschen (230) anhand der ermittelten dreidimensionalen Referenzpunkte (232) des Menschen (230), wobei die Hindernisinformation anhand des ermittelten volumetrischen Körpermodells (233) des Menschen (230) bereitgestellt wird.
  3. Verfahren (200) nach Anspruch 2, gekennzeichnet durch folgenden zusätzlichen Verfahrensschritt: - Ermitteln von Voxeln des volumetrischen Körpermodells (233), die sich in einem vorgegebenen Arbeitsbereich des Roboters (100) befinden, wobei die Hindernisinformation anhand der ermittelten Voxel in dem Arbeitsbereich bereitgestellt wird und Voxel außerhalb des Arbeitsbereichs unberücksichtigt bleiben.
  4. Verfahren (200) nach einem der vorhergehenden Ansprüche, gekennzeichnet durch folgenden zusätzlichen Verfahrensschritt: - Ermitteln einer Geste, insbesondere einer Handgeste, des Menschen (230) anhand der ermittelten dreidimensionalen Referenzpunkte (232) des Menschen (230), wobei die Hindernisinformation anhand der ermittelten Geste des Menschen (230) bereitgestellt wird
  5. Verfahren (200) nach einem der vorhergehenden Ansprüche, gekennzeichnet durch folgenden zusätzlichen Verfahrensschritt: - Ermitteln einer Kopfstellung des Menschen (230) anhand der ermittelten dreidimensionalen Referenzpunkte (232) des Menschen (230), wobei die Hindernisinformation anhand der ermittelten Kopfstellung des Menschen (230) bereitgestellt wird.
  6. Verfahren (200) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bewegung des Roboters (100) anhand der Hindernisinformation derart gesteuert wird, dass eine Kollision mit dem Menschen (230) vermieden wird.
  7. Verfahren (200) nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass die Bewegung des Roboters (100) anhand der Hindernisinformation derart gesteuert wird, dass eine Aktion in Abhängigkeit von einer erkannten Geste oder einer erkannten Kopfstellung des Menschen (230) ausgeführt wird.
  8. Verfahren (200) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Roboter (100) ein Industrieroboter mit einem mehrgelenkigen Arm ist.
  9. Verfahren (200) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bilderfassungsvorrichtung (101, 102) eine Kamera (101) oder mehrere separate Kameras (102) umfasst.
  10. System bestehend aus einem mit einem Menschen (230) kollaborierenden Roboter (100) und einer Bilderfassungsvorrichtung (101, 102) und einer Steuereinrichtung (103), wobei die Steuereinrichtung dazu konfiguriert ist folgende Verfahrensschritte (200) auszuführen: - Erhalten von zweidimensionalen Bilddaten des Menschen (230), die mittels der Bilderfassungsvorrichtung (101, 102) erfasst wurden; - Detektieren von zweidimensionalen Referenzpunkten (231) des Menschen (230) in den zweidimensionalen Bilddaten; - Ermitteln von dreidimensionalen Referenzpunkten (232) des Menschen (230) anhand der detektierten zweidimensionalen Referenzpunkte (231) des Menschen (230); - Bereitstellen einer Hindernisinformation anhand der ermittelten dreidimensionalen Referenzpunkte (232) des Menschen (230); und - Steuern einer Bewegung des kollaborativen Roboters (100) in Abhängigkeit von der Hindernisinformation.
DE102022131352.2A 2022-11-28 2022-11-28 Verfahren zur Steuerung eines mit einem Menschen kollaborierenden Roboters und System mit einem kollaborativen Roboter Pending DE102022131352A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022131352.2A DE102022131352A1 (de) 2022-11-28 2022-11-28 Verfahren zur Steuerung eines mit einem Menschen kollaborierenden Roboters und System mit einem kollaborativen Roboter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022131352.2A DE102022131352A1 (de) 2022-11-28 2022-11-28 Verfahren zur Steuerung eines mit einem Menschen kollaborierenden Roboters und System mit einem kollaborativen Roboter

Publications (1)

Publication Number Publication Date
DE102022131352A1 true DE102022131352A1 (de) 2024-05-29

Family

ID=91026594

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022131352.2A Pending DE102022131352A1 (de) 2022-11-28 2022-11-28 Verfahren zur Steuerung eines mit einem Menschen kollaborierenden Roboters und System mit einem kollaborativen Roboter

Country Status (1)

Country Link
DE (1) DE102022131352A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202014100411U1 (de) 2014-01-30 2015-05-05 Kuka Systems Gmbh Sicherheitseinrichtung
US20150131896A1 (en) 2013-11-11 2015-05-14 Industrial Technology Research Institute Safety monitoring system for human-machine symbiosis and method using the same
DE102014106210B4 (de) 2014-04-14 2015-12-17 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Probabilistische Personennachführung unter Verwendung der Mehr- Ansichts-Vereinigung
DE102017007908A1 (de) 2017-08-21 2019-02-21 Hochschule Bochum Verfahren zur Steuerung der Bewegung eines mobilen Roboters
US10783491B2 (en) 2018-07-16 2020-09-22 Accel Robotics Corporation Camera-based tracking and authorization extension system
DE112017008089B4 (de) 2017-11-17 2021-11-25 Mitsubishi Electric Corporation Vorrichtung zur Überwachung eines dreidimensionalen Raumes, Verfahren zur Überwachung eines dreidimensionalen Raumes und Programm zur Überwachung eines dreidimensionalen Raumes

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150131896A1 (en) 2013-11-11 2015-05-14 Industrial Technology Research Institute Safety monitoring system for human-machine symbiosis and method using the same
DE202014100411U1 (de) 2014-01-30 2015-05-05 Kuka Systems Gmbh Sicherheitseinrichtung
DE102014106210B4 (de) 2014-04-14 2015-12-17 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Probabilistische Personennachführung unter Verwendung der Mehr- Ansichts-Vereinigung
DE102017007908A1 (de) 2017-08-21 2019-02-21 Hochschule Bochum Verfahren zur Steuerung der Bewegung eines mobilen Roboters
DE112017008089B4 (de) 2017-11-17 2021-11-25 Mitsubishi Electric Corporation Vorrichtung zur Überwachung eines dreidimensionalen Raumes, Verfahren zur Überwachung eines dreidimensionalen Raumes und Programm zur Überwachung eines dreidimensionalen Raumes
US10783491B2 (en) 2018-07-16 2020-09-22 Accel Robotics Corporation Camera-based tracking and authorization extension system

Similar Documents

Publication Publication Date Title
DE102016216441B3 (de) Verfahren und Vorrichtung zur Mensch-Roboter Kooperation
DE102015001527B4 (de) Robotersystem, das visuelle Rückmeldung verwendet
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE112017002639T5 (de) Robotersteuerungsvorrichtung
DE102012212754B4 (de) Verfahren zum Betreiben eines Sensorsystems sowie Sensorsystem
DE102006007623B4 (de) Roboter mit einer Steuereinheit zum Steuern einer Bewegung zwischen einer Anfangspose und einer Endpose
DE102019111640A1 (de) Verfahren zum Absichern einer Gefahrenstelle
DE102018203552A1 (de) Robotersystem und robotersteuerungsverfahren
DE102021107532A1 (de) System und Verfahren zum Anlernen eines Roboters mittels Demonstration durch einen Menschen
DE102006048166A1 (de) Verfahren zur Beobachtung einer Person in einem industriellen Umfeld
DE102018118265B4 (de) Verfahren und Überwachungssystem zum Absichern einer Maschine
DE102017111885B4 (de) Verfahren und System zum Überwachen einer Maschine
DE102019212452A1 (de) Interferenzvermeidungsvorrichtung und Robotersystem
DE102013017425A1 (de) Verfahren für die Erkennung von Gesten eines menschlichen Körpers
DE102007059480A1 (de) Verfahren und Vorrichtung zur Posenüberwachung eines Manipulators
DE102017202004A1 (de) Vorrichtung zur Absicherung eines maschinell gesteuerten Handhabungsgeräts und Verfahren
EP3650740A1 (de) Sicherheitssystem und verfahren zum überwachen einer maschine
DE10215885A1 (de) Automatische Prozesskontrolle
WO2019037890A1 (de) Verfahren zur steuerung der bewegung eines mobilen roboters
DE102019007186A1 (de) Robotersystem und Robotersteuerungsverfahren für kooperatives Arbeiten mit Menschen
WO2008058783A1 (de) Integrierter schaltkreis zur erkennung von bewegungen von personen
DE102019211770B3 (de) Verfahren zur rechnergestützten Erfassung und Auswertung eines Arbeitsablaufs, bei dem ein menschlicher Werker und ein robotisches System wechselwirken
DE112017007903B4 (de) Haltepositions- und Orientierungslehreinrichtung, Haltepositions- und Orientierungslehrverfahren und Robotersystem
DE102022131352A1 (de) Verfahren zur Steuerung eines mit einem Menschen kollaborierenden Roboters und System mit einem kollaborativen Roboter
EP3893145B1 (de) Absicherung einer gefahrenstelle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings