DE102015225587A1 - Interaktionssystem und Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit - Google Patents

Interaktionssystem und Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit Download PDF

Info

Publication number
DE102015225587A1
DE102015225587A1 DE102015225587.5A DE102015225587A DE102015225587A1 DE 102015225587 A1 DE102015225587 A1 DE 102015225587A1 DE 102015225587 A DE102015225587 A DE 102015225587A DE 102015225587 A1 DE102015225587 A1 DE 102015225587A1
Authority
DE
Germany
Prior art keywords
person
unit
data
robot unit
communication interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015225587.5A
Other languages
English (en)
Inventor
Nadja Fischer
Jonathan Naar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102015225587.5A priority Critical patent/DE102015225587A1/de
Publication of DE102015225587A1 publication Critical patent/DE102015225587A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40203Detect position of operator, create non material barrier to protect operator

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

Gegenstand der Erfindung ist ein Interaktionssystem (100) mit mindestens einer Kameraeinheit (10), welche eine Tiefensensorfunktion zur Erfassung von Tiefendaten in einem Arbeitsraum (13) aufweist und welche derart ausgebildet ist, dass diese Positionsdaten und Bewegungsdaten einer Person (14) innerhalb eines Arbeitsraumes (13) erfasst, mindestens einer Robotereinheit (11), welche derart ausgebildet ist, dass diese in Abhängigkeit der Positionsdaten und Bewegungsdaten der Person (14) innerhalb des Arbeitsraumes (13) steuerbar und bewegbar ist, und einer Kommunikationsschnittstelle (12), welche zwischen der mindestens einen Kameraeinheit (10) und der mindestens einen Robotereinheit (11) angeordnet ist, wobei die Kommunikationsschnittstelle (12) derart ausgebildet ist, dass diese von der mindestens einen Kameraeinheit (10) die Positionsdaten und die Bewegungsdaten der Person (14) empfängt und die empfangenen Positionsdaten und die Bewegungsdaten der Person (14) in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der Robotereinheit (11) steuerbar ist.

Description

  • Die Erfindung betrifft ein Interaktionssystem. Ferner betrifft die Erfindung ein Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit innerhalb eines Arbeitsraumes.
  • Arbeiten in einem definierten, abgegrenzten Arbeitsraum eine Person und mindestens eine Robotereinheit zusammen, so ist es üblicherweise vorgesehen, dass die Robotereinheit nach einem speziellen Ablaufschema programmiert ist und die Robotereinheit entsprechend dieser Programmierung arbeitet und ihre Bewegungen ausführt. Eine direkte, unmittelbare Interaktion bzw. Kommunikation zwischen der Person und der Robotereinheit kann dabei jedoch nicht erreicht werden, da eine Reaktion der Robotereinheit auf ein menschliches Verhalten der Person nicht möglich ist. Die Zusammenarbeit zwischen der Person und der Robotereinheit ist dadurch erschwert und zudem auch wenig effektiv.
  • Aus der DE 10 2009 046 107 A1 ist ein System für eine Interaktion zwischen einer Person und einem Robotereinheit bekannt, welches Markierungsmittel, die an der Person an bestimmten Positionen, vorzugsweise Endpositionen von Extremitäten oder Gelenken angeordnet sind, aufweist. Ferner weist das System mindestens eine Kameraeinheit zur Erfassung des Interaktionsbereiches und zur Erfassung der Markierungsmittel auf. Zudem weist das System eine Auswerteeinheit auf, die derart gesteuert ist, dass ausgehend von den erfassten Markierungsmitteln ein Modell der Person erstellt wird und eine Position und eine Bewegung der Person erfasst und/oder vorbestimmt wird. Weiter ist eine Steuereinheit vorgesehen, die die Robotereinheit derart ansteuert, dass bei einer sicherheitskritischen Position und/oder Bewegung der Person die Person nicht gefährdet wird. Hierbei spielen die an der Person zu befestigenden Markierungsmittel eine wesentliche Rolle, da mittels der Kameraeinheit die Markierungsmittel erfasst werden und damit ein Modell der Person erstellt wird, um eine Interaktion zwischen der Person und der Robotereinheit innerhalb eines Arbeitsraumes generieren zu können. Dieses System bedingt jedoch einen hohen Aufwand, aufgrund des notwendigen Vorsehens der Markierungsmittel, welche an der Person an vorher genau definierten Positionen befestigt werden müssen, da ohne diese Markierungsmittel das System nicht anwendbar ist. Die an der Person befestigten Markierungsmittel können zudem verrutschen oder sich sogar vollständig lösen, wodurch eine fehlerfreie Interaktion zwischen der Person und der Robotereinheit nicht mehr möglich ist.
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein Interaktionssystem und ein Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit innerhalb eines Arbeitsraumes zur Verfügung zu stellen, mittels welchen eine Kommunikation zwischen der Person und der Robotereinheit verbessert und sicherer ausgeführt werden kann.
  • Diese Aufgabe wird mit den Merkmalen der unabhängigen Ansprüche gelöst. Bevorzugte Ausgestaltungen und Weiterbildungen sind in den Unteransprüchen angegeben.
  • Das Interaktionssystem gemäß der Erfindung weist mindestens eine Kameraeinheit auf, welche eine Tiefensensorfunktion zur Erfassung von Tiefendaten in einem Arbeitsraum aufweist, und welche derart ausgebildet ist, dass diese Positionsdaten und Bewegungsdaten einer Person innerhalb eines Arbeitsraumes erfasst. Weiter weist das Interaktionssystem gemäß der Erfindung mindestens eine Robotereinheit auf, welche derart ausgebildet ist, dass diese in Abhängigkeit der Positionsdaten und Bewegungsdaten der Person innerhalb des Arbeitsraumes steuerbar und bewegbar ist. Zudem weist das Interaktionssystem gemäß der Erfindung eine Kommunikationsschnittstelle auf, welche zwischen der mindestens einen Kameraeinheit und der mindestens einen Robotereinheit angeordnet ist, wobei die Kommunikationsschnittstelle derart ausgebildet ist, dass diese von der mindestens einen Kameraeinheit die Positionsdaten und die Bewegungsdaten der Person empfängt und die empfangenen Positionsdaten und Bewegungsdaten der Person in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der Robotereinheit steuerbar ist.
  • Die Lösung der erfindungsgemäßen Aufgabe erfolgt ferner mittels eines Verfahrens zur Interaktion zwischen einer Person und mindestens einer Robotereinheit innerhalb eines Arbeitsraumes, bei welchem mindestens eine eine Tiefensensorfunktion zur Erfassung von Tiefendaten aufweisende Kameraeinheit Positionsdaten und Bewegungsdaten der Person innerhalb des Arbeitsraumes erfasst, die Positionsdaten und Bewegungsdaten an eine Kommunikationsschnittstelle gesendet werden, welche die Positionsdaten und Bewegungsdaten in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der mindestens einen Robotereinheit gesteuert wird.
  • Das erfindungsgemäße Interaktionssystem und das erfindungsgemäße Verfahren zeichnen sich somit dadurch aus, dass mittels der in dem definierten Arbeitsraum befindlichen Person eine Steuerung der mindestens einen Robotereinheit, welche sich ebenfalls innerhalb dieses Arbeitsraumes befindet, über Gesten, Bewegungen und die Position der Person in dem Arbeitsraum erfolgen kann. Hierdurch kann eine Synchronisierung der Arbeitsabläufe zwischen einer Person und einer Robotereinheit innerhalb eines Arbeitsraumes erreicht werden, wodurch eine verbesserte Kommunikation und damit auch ein effizienteres Arbeiten zwischen der Person und der Robotereinheit erreicht werden kann. Die Arbeitsabläufe von der Person und der Robotereinheit können dadurch effizient aneinander angepasst werden. Durch die Bewegungserfassung der Person mittels einer oder mehrerer Kameraeinheiten innerhalb des Arbeitsraumes können Befehle, beispielsweise Startbefehle, wie „Bauteil holen“, aber auch Pausenbefehle oder Stoppbefehle an die Robotereinheit gesendet werden, wobei das Senden über die Kommunikationsschnittstelle, welche zwischen der Kameraeinheit und der Robotereinheit geschaltet ist, erfolgt. Dies ermöglicht eine besonders gute Austaktung zwischen der Person und der Robotereinheit. Die Robotereinheit kann dadurch den Bewegungen und der Geschwindigkeit der Person innerhalb des Arbeitsraumes unterstellt und angepasst werden. Die Robotereinheit kann hierdurch ihre ihr zugeordneten Tätigkeiten zur richtigen Zeit und am richtigen Ort durchführen und bewegt sich nicht nach einer hinterlegten Programmierung in einem festgelegten Taktzeitrhythmus. Mittels des erfindungsgemäßen Interaktionssystem passt sich die Robotereinheit der Person und damit dem Menschen an und nicht anders herum. Durch die Synchronisierung ist es nicht mehr nötig, der Robotereinheit zusätzliche Befehle beispielsweise mittels eines Handschalters zu geben. Die Tätigkeiten der Robotereinheit, wie zum Beispiel „Zurücktreten von der Maschine“ oder „Hineingreifen in einen Behälter“, werden automatisiert durch die Bewegungen, die Gesten und die Position der Person gesteuert. Dies erlaubt ein „natürlicheres“ Arbeiten der Robotereinheit. Die Kameraeinheit übernimmt zudem eine Überwachungsfunktion, wobei mittels der Überwachung mit der Kameraeinheit erreicht werden kann, dass zusätzlich zu dem effizienteren und intelligenteren Arbeiten der Robotereinheit ein Kontakt zwischen der Robotereinheit und der Person innerhalb des Arbeitsraumes vermieden werden kann. Hierdurch kann eine erhöhte Sicherheit bei dem Arbeiten einer Robotereinheit zusammen mit einer Person erreicht werden. Dies ermöglicht ein sicheres Arbeiten von einer Person und einer Robotereinheit auch auf einem reduzierten Arbeitsraumbereich. Die Kameraeinheit ermöglicht zudem eine kontinuierliche Überwachung des Arbeitsraumes und der Person. Die Kameraeinheit weist eine Tiefensensorfunktion auf, wodurch eine 3-D-Raumerfassung ermöglicht wird. Mittels dieser Kameraeinheit ist eine Tiefenmessung möglich, wobei hierbei die Tiefendaten über einen geeigneten Rechenalgorithmus ermittelt werden können. Die Kameraeinheit kann dabei Lichtimpulse senden und empfangen. Weiter kann die Kameraeinheit auch einen Farbsensor aufweisen, mittels welchem Bilddaten ermittelt werden können. Die Kameraeinheit ist in der Lage, dreidimensionale Daten in Echtzeit aufzuzeigen. Die Kameraeinheit überwacht den Arbeitsraum und ermittelt ununterbrochen die Position der Person. Diese Daten werden kontinuierlich mit der Position der Robotereinheit abgeglichen. Durch diese Berechnung kann, sobald ein festgelegter Mindestabstand unterschritten wird, die Robotereinheit beispielsweise in einen Stoppzustand versetzt, die Bahnplanung der Robotereinheit angepasst, die Geschwindigkeit der Robotereinheit reduziert, etc. werden. Die Kommunikation zwischen der Robotereinheit und der Kameraeinheit erfolgt über die Kommunikationsschnittstelle, welche vorzugsweise als eine interaktive Mensch-Roboter-Schnittstelle ausgebildet ist. Beispielsweise kann die Kommunikationsstelle ein Computer sein oder aber auch eine speicherprogrammierbare Steuerung (SPS), wenn die Kameraeinheit einen eigenen Systemcontroller aufweist. Das erfindungsgemäße Interaktionssystem ermöglicht damit eine Realisierung einer „echten“ Zusammenarbeit zwischen einer Person und einer Robotereinheit durch eine intelligente Bewegungserfassung der Person und einer darauf angepassten Bewegungssteuerung der Robotereinheit. Eine Kommunikation zwischen einer Person und einer Robotereinheit in einem Arbeitsraum ist dadurch gegenüber herkömmlichen Systemen wesentlich verbessert. Zudem ist dadurch eine Verbesserung des Prozessablaufes bei einer Interaktion zwischen einer Person und einer Robotereinheit möglich. In der Produktion können hierdurch beispielsweise Taktzeitverkürzungen, eine Erhöhung der Produktivität und eine deutliche Senkung der ergonomischen Belastung der Person erreicht werden, da die Robotereinheit mehr Arbeitsaufgaben übernehmen kann und eine gezielte Aufteilung der Arbeitsinhalte zwischen der Person und der Robotereinheit ermöglicht sind. Damit kann ein Hand-in-Hand-Arbeiten zwischen der Person und der Robotereinheit erreicht werden, wobei die Robotereinheit in ihren Bewegungen auf die Gesten, Bewegungen und die Position der Person reagieren kann.
  • Bevorzugt ist es vorgesehen, dass die Kommunikationsschnittstelle eine Steuereinheit aufweist, welche die Steuerungsbefehle jeweils einer Indexierung zuordnet, über welche in der Robotereinheit gespeicherte Programmabläufe startbar sind. Jede Indexierung stellt vorzugsweise eine Arbeitsanweisung dar, wie beispielsweise „Start Beladen“. Die in der Robotereinheit gespeicherten Programmabläufe sind auf die in der Steuereinheit gespeicherten Indexierungen abgestimmt, so dass vorzugsweise jeder Indexierung ein Programmablauf zugeordnet ist. Die einzelnen Programmabläufe sind vorzugsweise als Unterprogramme in einem Hauptprogramm gespeichert, wodurch ein Fehlaufruf eines Programmablaufes vermieden werden kann.
  • Weiter ist es bevorzugt vorgesehen, dass die Kommunikationsschnittstelle eine Auswerteeinheit aufweist, in welcher definierte Standortdaten der Person gespeichert sind, wobei die Auswerteeinheit vorzugsweise derart ausgebildet ist, dass diese die von der mindestens einen Kameraeinheit empfangenen Positionsdaten und/oder Bewegungsdaten der Person mit den gespeicherten Standortdaten der Person abgleicht. Durch den Abgleich zwischen den gesendeten Positionsdaten der Person und den gespeicherten Standortdaten der Person können vorzugsweise die Steuerungsbefehle generiert werden, über welche die Steuerung der Bewegungen der Robotereinheit erfolgt. Durch den Abgleich der gesendeten Positionsdaten mit den gespeicherten Standortdaten und damit von Ist-Positionsdaten mit Soll-Positionsdaten der Person kann kontinuierlich eine optimale Anpassung der Arbeitsabläufe zwischen der Person und der mindestens einen Robotereinheit innerhalb des Arbeitsraumes ermöglicht werden. Zudem kann durch den Abgleich der gesendeten Positionsdaten mit den gespeicherten Standortdaten der Person eine Vermeidung von ungewollten Kollisionen zwischen der Person und der Robotereinheit erreicht werden.
  • Die mindestens eine Kameraeinheit ist bevorzugt derart positioniert, dass der gesamte Bewegungsbereich der Person innerhalb des Arbeitsraumes im Sichtfeld der mindestens einen Kameraeinheit ist. Damit kann eine gute und optimale Erkennung der Person innerhalb des Arbeitsraumes mittels der mindestens einen Kameraeinheit sichergestellt werden. Bevorzugt ist es vorgesehen, dass beim Einsatz genau einer Kameraeinheit diese derart positioniert ist, dass die Person möglichst frontal zur Kameraeinheit steht. Damit ist eine Erfassung der gesamten Person und insbesondere ihrer gesamten Bewegungen und Gesten mittels der Kameraeinheit möglich. Um zu vermeiden, dass Totwinkel entstehen können, kann es vorgesehen sein, dass das Interaktionssystem zwei oder mehr als zwei Kameraeinheiten aufweist, welche an verschiedenen Positionen innerhalb des Arbeitsraumes aufgestellt werden können, wodurch ein komplettes Abdecken des Arbeitsraumes unter Vermeidung von Totwinkeln sichergestellt werden kann.
  • Weiter bevorzugt ist es vorgesehen, dass die mindestens eine Kameraeinheit ein in dem Arbeitsraum befindliches Hindernis erfasst und Daten zu dem Hindernis an die Kommunikationsschnittstelle sendet. Die Daten zu dem Hindernis können insbesondere die Anzahl der Hindernisse und die Position der Hindernisse in dem Arbeitsraum sein. Durch das Erfassen eines Hindernisses kann die Position der Robotereinheit mit der Position des Hindernisses mittels der Kommunikationsschnittstelle abgeglichen werden, so dass die Robotereinheit an dem Hindernis vorbeigeführt werden kann und dadurch eine Kollision der Robotereinheit mit dem Hindernis verhindert werden kann.
  • Weiter kann es vorgesehen sein, dass die Kommunikationsschnittstelle in Abhängigkeit der Daten zu dem Hindernis eine Ausweichstrategie generiert und dass die Kommunikationsschnittstelle die mindestens eine Robotereinheit entsprechend der Ausweichstrategie steuert. Die Robotereinheit bewegt sich vorzugsweise auf einer fest definierten Bewegungsbahn. Jedoch ist ein Abweichen der Robotereinheit von dieser definierten Bewegungsbahn möglich, falls ein Hindernis von der Kameraeinheit erkannt wird. Sobald ein Hindernis erkannt wird, kann die Kommunikationsschnittstelle eine Ausweichstrategie ermitteln, um eine Kollision der Robotereinheit mit dem Hindernis zu vermeiden. Die Ausweichstrategie kann derart ausgebildet sein, dass die Robotereinheit auf eine alternative, fest hinterlegte weitere Bewegungsbahn umgelenkt wird. Alternativ ist es auch möglich, dass eine dynamisch freie Ausweichroute durch die Kommunikationsschnittstelle generiert werden kann und die Robotereinheit entsprechend der generierten Ausweichroute gesteuert werden kann.
  • Weiter ist es bevorzugt vorgesehen, dass die mindestens eine Kameraeinheit die Anzahl der Personen in dem Arbeitsraum erfasst und Daten zu der Anzahl der Personen an die Kommunikationsschnittstelle sendet. Innerhalb der Kommunikationsschnittstelle kann hinterlegt sein, dass bei einer bestimmten Anzahl von Personen innerhalb des Arbeitsraumes ein Abbruch der Arbeit bzw. der Bewegungen der Robotereinheit erfolgt. Demzufolge kann über eine Abbruchbedingung gesteuert werden, ob bei einer bestimmten Anzahl von identifizierten Personen in dem Arbeitsraum die Robotereinheit gestoppt wird. Die Sicherheit des Interaktionssystems kann dadurch weiter verbessert werden.
  • Die Robotereinheit kann in Form einer sensitiven Robotereinheit ausgebildet sein. Eine derartige sensitive Robotereinheit kann interne oder externe Sensoren aufweisen. Bei Überschreitung einer bestimmten, vorher definierten Kraft, beispielsweise nach TS ISO 15066, kann dann beispielsweise die Robotereinheit zur Sicherheit der Person gestoppt werden.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung einer bevorzugten Ausgestaltung der Erfindung anhand der Figuren näher dargestellt. Es zeigen:
  • 1 eine schematische Blockdarstellung eines Interaktionssystems gemäß der Erfindung,
  • 2 eine schematische Darstellung eines Arbeitsraumes mit einer darin arbeitenden Person und einer darin arbeitenden Robotereinheit,
  • 3A3D eine schematische Darstellung eines Arbeitsablaufes in einem wie in 2 gezeigten Arbeitsraum zwischen der Person und der Robotereinheit gemäß des in 1 gezeigten Interaktionssystems, und
  • 4 eine schematische Darstellung der Steuerung des wie in 1 gezeigten Interaktionssystems gemäß der Erfindung.
  • 1 zeigt ein Interaktionssystem 100 gemäß der Erfindung, welche eine Kameraeinheit 10, eine Robotereinheit 11 und eine Kommunikationsschnittstelle 12, welche zwischen der Kameraeinheit 10 und der Robotereinheit 11 angeordnet ist, aufweist.
  • Die Kameraeinheit 10 ist derart ausgebildet, dass diese eine Tiefensensorfunktion zur Erfassung von Tiefendaten in einem wie in 2 gezeigten Arbeitsraum 13, innerhalb welchem sich eine Person 14 und die Robotereinheit 11 zur Ausführung ihrer Arbeitstätigkeiten bewegen, aufweist. Die Kameraeinheit 10 ist derart ausgebildet, dass diese Positionsdaten und Bewegungsdaten der Person 14 innerhalb des Arbeitsraumes 13 erfasst. Dabei erfasst die Kameraeinheit 10 die gesamte Person 14, vorzugsweise von Kopf bis Fuß, wodurch die gesamten Bewegungen und Gesten der Person 14 mittels der Kameraeinheit 10 bestimmt und erfasst werden können. Beispielsweise kann die Kameraeinheit 10 beispielsweise durch eine hinterlegte Software derart ausgebildet sein, dass sie eine Datenerfassung der Person 14 ermöglicht und anhand dieser Datenerfassung die Position und die Bewegungen der Person 14 ermitteln kann. Die dabei generierten Positionsdaten und Bewegungsdaten der Person 14 werden von der Kameraeinheit 10 an die Kommunikationsschnittstelle 12 gesendet.
  • Die Kommunikationsschnittstelle 12 kann beispielsweise ein Computer sein. Die Kommunikationsschnittstelle 12 ist derart ausgebildet, dass diese die Positionsdaten und Bewegungsdaten der Person 14 von der Kameraeinheit 10 empfängt und die empfangenen Positionsdaten und Bewegungsdaten der Person 14 in Steuerungsbefehle umwandelt, über welche eine Bewegung der Robotereinheit 11 steuerbar ist. Damit ist es möglich zu erreichen, dass die Robotereinheit 11 sich den Bewegungen und der Geschwindigkeit und auch der Position der Person 14 innerhalb des Arbeitsraumes 13 unterstellt und anpasst. Es erfolgt damit eine Steuerung der Bewegung der Robotereinheit 11 über die Bewegungen und die Position der Person 14 innerhalb des Arbeitsraumes 13.
  • Mittels des Interaktionssystems 100 kann erreicht werden, dass mittels der Kameraeinheit 10 und der von der Kameraeinheit 10 erfassten Positionsdaten und Bewegungsdaten der Person 14 eine permanente und damit kontinuierliche Planung der Bewegungsbahn der Robotereinheit 11 ermöglicht wird und die Robotereinheit 11 entsprechend dieser kontinuierlich geplanten Bewegungsbahn gesteuert werden kann.
  • Die Kommunikationsschnittstelle 12 umfasst eine Steuereinheit 16 und eine Auswerteeinheit 17.
  • Die Steuereinheit 16 ordnet die Steuerungsbefehle einer Indexierung zu, so dass die Steuerungsbefehle bestimmten, vorher fest definierten Arbeitsanweisungen, welche die Indexierung bilden, zugeteilt werden können. Über diese indexierten Steuerungsbefehle kann die Robotereinheit 11 gesteuert werden, indem in der Robotereinheit 11 gespeicherte Programmabläufe durch die indexierten Steuerungsbefehle gestartet werden können. Jedem indexierten Steuerungsbefehl ist damit vorzugsweise ein Programmablauf zugeordnet.
  • In der Auswerteeinheit 17 sind definierte Standortdaten und damit Soll-Positionsdaten der Person 14 gespeichert, wobei die Auswerteeinheit 17 derart ausgebildet ist, dass diese die von der mindestens einen Kameraeinheit 10 empfangenen Positionsdaten und/oder Bewegungsdaten der Person 14 mit den gespeicherten Standortdaten der Person 14 abgleicht. Dadurch ist ein Abgleich einer Ist-Position mit einer gespeicherten Soll-Position der Person 14 möglich. Über diesen Abgleich werden die Steuerungsbefehle generiert, über welche wiederum die Steuerung der Bewegungen der Robotereinheit 11 erfolgt.
  • In 2 ist beispielhaft ein entsprechender Arbeitsraum 13 gezeigt, innerhalb welchem eine Person 14 mit einer Robotereinheit 11 zusammenarbeitet. Innerhalb des Arbeitsraumes 13 ist die Kameraeinheit 10 derart positioniert, dass der gesamte Bewegungsbereich der Person 14 innerhalb des Arbeitsraumes 13 im Sichtfeld 24 der Kameraeinheit 10 positioniert ist, wie in 2 anhand des gestrichelt dargestellten Sichtfeldes 24 der Kameraeinheit 10 dargestellt ist. Die Kameraeinheit 10 ist dabei derart positioniert, dass die Person 14 frontal zu der Kameraeinheit 10 gerichtet ist.
  • Wie in 2 gezeigt ist, kann ein derartiger Arbeitsraum 13 beispielsweise eine Lagerstation 15, eine Bearbeitungsstation 25, einen Materialbereitstellungsplatz 26 und eine Ablagestation 18 aufweisen. Die Arbeitsbereiche zwischen der Robotereinheit 11 und der Person 14 sind fest definiert, so dass eine Aufteilung der Arbeitsinhalte zwischen der Robotereinheit 11 und der Person 14 ermöglicht wird.
  • Bei der hier gezeigten Darstellung ist die Robotereinheit 11 im Bereich der Lagerstation 15, der Bearbeitungsstation 25 und der Ablagestation 18 tätig, wohingegen der Arbeitsbereich der Person 14 im Wesentlichen im Bereich des Materialbereitstellungsplatzes 26 und der Bearbeitungsstation 25 liegt.
  • In 3A3D ist ein Arbeitsablauf schematisch dargestellt.
  • Zuerst entnimmt, wie in 3A gezeigt ist, die Robotereinheit 11 aus der Lagerstation 15 einen Artikel 19. Während der Entnahme des Artikels 19 durch die Robotereinheit 11 kann die Person 14 an der Bearbeitungsstation 25 beispielsweise eine Baugruppe, die in den Artikel 19 später eingesetzt werden kann, montieren, wie in 3A gezeigt ist.
  • Sobald sich die Person 14 dem Materialbereitstellungsplatz 26 zuwendet, kann die Robotereinheit 11 den Artikel 19 auf der Bearbeitungsstation 25 positionieren, wie in 3B zu erkennen ist.
  • Auf der Bearbeitungsstation 25 erfolgt die Bearbeitung des Artikels 19, wobei die Person 14 entsprechend eine Korrektur der Bearbeitung durchführen kann, wie in 3C gezeigt ist. Hierfür wendet sich die Person 14 der Bearbeitungsstation 25 zu, wohingegen die Robotereinheit 11 von der Bearbeitungsstation 25 wieder weggedreht wird, so dass eine Kollision zwischen der Person 14 und der Robotereinheit 11 vermieden werden kann. Während die Person 14 der Bearbeitungsstation 25 zugewandt ist, kann die Robotereinheit 11 den bearbeiteten Artikel 19 bzw. das bearbeitete Bauteil aus dem letzten Zyklus auf der Ablagestation 18, welche beispielsweise ein Transportband sein kann, ablegen.
  • Nach der Bearbeitung des Artikels 19 auf der Bearbeitungsstation 25 entnimmt die Robotereinheit 11 den Artikel 19 und legt diesen auf der Ablagestation 18 ab, wie ebenfalls in 3C gezeigt ist.
  • Ein Startbefehl der Robotereinheit 11 zum Entnehmen des Artikels 19 aus der Bearbeitungsstation 25 kann beispielsweise dadurch erfolgen, dass die Person 14 die Bearbeitungsstation 25 wieder verlässt und sich dem Materialbereitstellungsplatz 26 zuwendet, wobei dies durch die Kameraeinheit 10 erfasst wird.
  • Danach kann der Prozess erneut gestartet werden, wie in 3D gezeigt ist.
  • 4 zeigt schematisch eine Steuerung innerhalb des Interaktionssystems 100. Die Steuerung ist unterteilt in ein redundantes Steuerungssystem 20 und in ein einkanaliges Steuerungssystem 21. Das einkanalige Steuerungssystem 21 umfasst die Kommunikationsschnittstelle 12 und die Kameraeinheit 10, über welche die Bewegungserfassung der Person 14 erfolgt. Das redundante Steuerungssystem 20 umfasst die Robotereinheit 11 und auch die Steuerung 22 der Bearbeitungsstation 25 innerhalb des Arbeitsraumes 13 sowie die zu der Robotereinheit 11 gehörende Steuerung 23, welche einen Safety-Controller mit umfassen kann. Im Bereich des einkanaligen Steuerungssystems 21 erfolgt eine Kommunikation zwischen der Kameraeinheit 10 und der Kommunikationsschnittstelle 12, indem die Kameraeinheit 10 Daten an die Kommunikationsschnittstelle 12 sendet. Die Kommunikationsschnittstelle 12 kommuniziert wiederum mit dem redundanten Steuerungssystem 20, indem die Kommunikationsschnittstelle 12 sowohl mit der Steuerung 22 der Bearbeitungsstation 25 als auch mit der Steuerung 23 der Robotereinheit 11 kommuniziert. Die Steuerung 20 der Bearbeitungsstation 25 kommuniziert und sendet damit Daten zu der Steuerung 23 der Robotereinheit 11, wobei auch eine Kommunikation in die andere Richtung erfolgt von der Steuerung 23 hin zu der Steuerung 22. Weiter erfolgt auch eine Kommunikation zwischen der Steuerung 23 und der Robotereinheit 11, wobei Daten sowohl in Richtung der Robotereinheit 11 als auch von der Robotereinheit 11 hin zu der Steuerung 23 gesendet werden können.
  • Durch eine derartige Verschaltung der einzelnen Komponenten kann eine besonders hohe Sicherheit bei der Interaktion zwischen einer Person 14 und einer Robotereinheit 11 innerhalb eines Arbeitsraumes 13 gewährleistet werden.
  • Die Erfindung beschränkt sich in ihrer Ausführung nicht auf die vorstehend angegebenen bevorzugten Ausgestaltungen. Vielmehr ist eine Anzahl von Varianten denkbar, welche von den dargestellten Lösungen auch bei grundsätzlich anders gearteten Ausführungen Gebrauch macht. Sämtliche aus den Ansprüchen der Beschreibung oder den Zeichnungen hervorgehende Merkmale und/oder Vorteile einschließlich konstruktiven Einzelheiten räumlicher Anordnungen und Verfahrensschritte können sowohl für sich als auch in den verschiedensten Kombinationen erfindungswesentlich sein.
  • Bezugszeichenliste
  • 100
    Interaktionssystem
    10
    Kameraeinheit
    11
    Robotereinheit
    12
    Kommunikationsschnittstelle
    13
    Arbeitsraum
    14
    Person
    15
    Lagerstation
    16
    Steuereinheit
    17
    Auswerteeinheit
    18
    Ablagestation
    19
    Artikel
    20
    Redundantes Steuerungssystem
    21
    Einkanaliges Steuerungssystem
    22
    Steuerung
    23
    Steuerung
    24
    Sichtfeld
    25
    Bearbeitungsstation
    26
    Materialbereitstellungsplatz
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102009046107 A1 [0003]
  • Zitierte Nicht-Patentliteratur
    • TS ISO 15066 [0015]

Claims (10)

  1. Interaktionssystem (100), mit mindestens einer Kameraeinheit (10), welche eine Tiefensensorfunktion zur Erfassung von Tiefendaten in einem Arbeitsraum (13) aufweist und welche derart ausgebildet ist, dass diese Positionsdaten und Bewegungsdaten einer Person (14) innerhalb eines Arbeitsraumes (13) erfasst, mindestens einer Robotereinheit (11), welche derart ausgebildet ist, dass diese in Abhängigkeit der Positionsdaten und Bewegungsdaten der Person (14) innerhalb des Arbeitsraumes (13) steuerbar und bewegbar ist, und einer Kommunikationsschnittstelle (12), welche zwischen der mindestens einen Kameraeinheit (10) und der mindestens einen Robotereinheit (11) angeordnet ist, wobei die Kommunikationsschnittstelle (12) derart ausgebildet ist, dass diese von der mindestens einen Kameraeinheit (10) die Positionsdaten und die Bewegungsdaten der Person (14) empfängt und die empfangenen Positionsdaten und die Bewegungsdaten der Person (14) in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der Robotereinheit (11) steuerbar ist.
  2. Interaktionssystem (100) nach Anspruch 1, dadurch gekennzeichnet, dass die Kommunikationsschnittstelle (12) eine Steuereinheit (16) aufweist, welche die Steuerungsbefehle jeweils einer Indexierung zuordnet, über welche in der mindestens einen Robotereinheit (11) gespeicherte Programmabläufe startbar sind.
  3. Interaktionssystem (100) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Kommunikationsschnittstelle (12) eine Auswerteeinheit (17) aufweist, in welcher definierte Standortdaten der Person (14) gespeichert sind, wobei die Auswerteeinheit (17) derart ausgebildet ist, dass diese die von der mindestens einen Kameraeinheit (10) empfangenen Positionsdaten und/oder Bewegungsdaten der Person (14) mit den gespeicherten Standortdaten der Person (14) abgleicht.
  4. Interaktionssystem (100) nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die mindestens eine Kameraeinheit (10) derart positioniert ist, dass der gesamte Bewegungsbereich der Person (14) innerhalb des Arbeitsraumes (13) im Sichtfeld (24) der mindestens einen Kameraeinheit (10) ist.
  5. Verfahren zur Interaktion zwischen einer Person (14) und mindestens einer Robotereinheit (11) innerhalb eines Arbeitsraumes (13), bei welchem mindestens eine eine Tiefensensorfunktion zur Erfassung von Tiefendaten aufweisende Kameraeinheit (10) Positionsdaten und Bewegungsdaten der Person (14) innerhalb des Arbeitsraumes (13) erfasst, die Positionsdaten und Bewegungsdaten an eine Kommunikationsschnittstelle (12) gesendet werden, welche die Positionsdaten und Bewegungsdaten in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der mindestens einen Robotereinheit (11) gesteuert wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass in einer Steuereinheit (16) der Kommunikationsschnittstelle (12) die Steuerungsbefehle jeweils einer Indexierung zugeordnet werden, über welche in der mindestens einen Robotereinheit (11) gespeicherte Programmabläufe gestartet werden.
  7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass eine Auswerteeinheit (17) der Kommunikationsschnittstelle (12) die von der Kameraeinheit (10) empfangenen Positionsdaten und/oder Bewegungsdaten der Person (14) mit in der Auswerteeinheit (17) gespeicherten definierten Standortdaten der Person (14) abgleicht.
  8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass die mindestens eine Kameraeinheit (10) ein in dem Arbeitsraum (13) befindliches Hindernis erfasst und Daten zu dem Hindernis an die Kommunikationsschnittstelle (12) sendet.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Kommunikationsschnittstelle (12) in Abhängigkeit der von der Kommunikationseinheit (12) empfangenen Daten zu dem Hindernis eine Ausweichstrategie generiert und die mindestens eine Robotereinheit (11) entsprechend der Ausweichstrategie steuert.
  10. Verfahren nach einem der Ansprüche 5 bis 9, dadurch gekennzeichnet, dass die mindestens eine Kameraeinheit (10) die Anzahl der Personen (14) in dem Arbeitsraum (13) erfasst und Daten zu der Anzahl der Personen (14) an die Kommunikationsschnittstelle (12) sendet.
DE102015225587.5A 2015-12-17 2015-12-17 Interaktionssystem und Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit Pending DE102015225587A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015225587.5A DE102015225587A1 (de) 2015-12-17 2015-12-17 Interaktionssystem und Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015225587.5A DE102015225587A1 (de) 2015-12-17 2015-12-17 Interaktionssystem und Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit

Publications (1)

Publication Number Publication Date
DE102015225587A1 true DE102015225587A1 (de) 2017-06-22

Family

ID=58994300

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015225587.5A Pending DE102015225587A1 (de) 2015-12-17 2015-12-17 Interaktionssystem und Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit

Country Status (1)

Country Link
DE (1) DE102015225587A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019206010A1 (de) * 2019-04-26 2020-10-29 Kuka Aktiengesellschaft Verfahren und System zur Überwachung einer Roboteranordnung
DE102019206012A1 (de) * 2019-04-26 2020-10-29 Kuka Deutschland Gmbh Verfahren und System zum Betreiben eines Roboters

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4417128A1 (de) * 1994-05-16 1995-12-14 Elnic Gmbh Bilderfassungs- und -verarbeitungsverfahren insbesondere zur Steuerung von Vorrichtungen sowie zugehöriges Bilderfassungs- und -verarbeitungssystem
DE10152543A1 (de) * 2001-10-24 2003-05-08 Sick Ag Verfahren und Vorrichtung zum Steuern einer sicherheitsrelevanten Funktion einer Maschine
DE10245720A1 (de) * 2002-09-24 2004-04-01 Pilz Gmbh & Co. Verfahren un Vorrichtung zum Absichern eines Gefahrenbereichs
DE10320343A1 (de) * 2003-05-07 2004-12-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen
DE10324627A1 (de) * 2003-05-28 2005-01-05 Daimlerchrysler Ag Arbeitsraumüberwachung für automatisiert arbeitende Maschinen
DE102006048166A1 (de) * 2006-08-02 2008-02-07 Daimler Ag Verfahren zur Beobachtung einer Person in einem industriellen Umfeld
EP2023160A1 (de) * 2007-08-02 2009-02-11 Sick Ag Dreidimensionale Raumüberwachung mit Konfigurationsmodus zum Bestimmen der Schutzfelder
DE102009026091A1 (de) * 2008-07-02 2010-04-01 Elan Schaltelemente Gmbh & Co. Kg Verfahren und System zur Überwachung eines dreidimensionalen Raumbereichs mit mehreren Kameras
DE102009046107A1 (de) 2009-10-28 2011-05-05 Ifm Electronic Gmbh System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine
DE102010002250A1 (de) * 2010-02-23 2011-08-25 ifm electronic gmbh, 45128 Überwachungssystem
US20110264266A1 (en) * 2008-12-03 2011-10-27 Abb Research Ltd. Robot safety system and a method
DE102010017857A1 (de) * 2010-04-22 2011-10-27 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
DE102012007242A1 (de) * 2012-03-09 2013-09-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur sicheren Mensch-Roboter-Kooperation
US20140067121A1 (en) * 2012-08-31 2014-03-06 Rodney Brooks Systems and methods for safe robot operation
US20140244037A1 (en) * 2013-02-27 2014-08-28 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
DE112012005650T5 (de) * 2012-01-13 2014-10-09 Mitsubishi Electric Corporation Risikomesssystem
US20150217455A1 (en) * 2014-02-04 2015-08-06 Microsoft Corporation Controlling a robot in the presence of a moving object

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4417128A1 (de) * 1994-05-16 1995-12-14 Elnic Gmbh Bilderfassungs- und -verarbeitungsverfahren insbesondere zur Steuerung von Vorrichtungen sowie zugehöriges Bilderfassungs- und -verarbeitungssystem
DE10152543A1 (de) * 2001-10-24 2003-05-08 Sick Ag Verfahren und Vorrichtung zum Steuern einer sicherheitsrelevanten Funktion einer Maschine
DE10245720A1 (de) * 2002-09-24 2004-04-01 Pilz Gmbh & Co. Verfahren un Vorrichtung zum Absichern eines Gefahrenbereichs
DE10320343A1 (de) * 2003-05-07 2004-12-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen
DE10324627A1 (de) * 2003-05-28 2005-01-05 Daimlerchrysler Ag Arbeitsraumüberwachung für automatisiert arbeitende Maschinen
DE102006048166A1 (de) * 2006-08-02 2008-02-07 Daimler Ag Verfahren zur Beobachtung einer Person in einem industriellen Umfeld
EP2023160A1 (de) * 2007-08-02 2009-02-11 Sick Ag Dreidimensionale Raumüberwachung mit Konfigurationsmodus zum Bestimmen der Schutzfelder
DE102009026091A1 (de) * 2008-07-02 2010-04-01 Elan Schaltelemente Gmbh & Co. Kg Verfahren und System zur Überwachung eines dreidimensionalen Raumbereichs mit mehreren Kameras
US20110264266A1 (en) * 2008-12-03 2011-10-27 Abb Research Ltd. Robot safety system and a method
DE102009046107A1 (de) 2009-10-28 2011-05-05 Ifm Electronic Gmbh System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine
DE102010002250A1 (de) * 2010-02-23 2011-08-25 ifm electronic gmbh, 45128 Überwachungssystem
DE102010017857A1 (de) * 2010-04-22 2011-10-27 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
DE112012005650T5 (de) * 2012-01-13 2014-10-09 Mitsubishi Electric Corporation Risikomesssystem
DE102012007242A1 (de) * 2012-03-09 2013-09-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur sicheren Mensch-Roboter-Kooperation
US20140067121A1 (en) * 2012-08-31 2014-03-06 Rodney Brooks Systems and methods for safe robot operation
US20140244037A1 (en) * 2013-02-27 2014-08-28 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US20150217455A1 (en) * 2014-02-04 2015-08-06 Microsoft Corporation Controlling a robot in the presence of a moving object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TS ISO 15066

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019206010A1 (de) * 2019-04-26 2020-10-29 Kuka Aktiengesellschaft Verfahren und System zur Überwachung einer Roboteranordnung
DE102019206012A1 (de) * 2019-04-26 2020-10-29 Kuka Deutschland Gmbh Verfahren und System zum Betreiben eines Roboters

Similar Documents

Publication Publication Date Title
DE102018206077B4 (de) Robotersteuerungsvorrichtung und Robotersteuerungsprogramm
EP2838698B2 (de) Roboteranordnung und verfahren zum steuern eines roboters
EP2851331B1 (de) Verfahren zur Steuerung eines Kommissionierflurförderzeugs
EP3011225B1 (de) Vorrichtung und verfahren zum absichern einer automatisiert arbeitenden maschine
DE102016216441B3 (de) Verfahren und Vorrichtung zur Mensch-Roboter Kooperation
DE112017002639T5 (de) Robotersteuerungsvorrichtung
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102018212531B4 (de) Artikeltransfervorrichtung
DE102015012232A1 (de) Mit Menschen kollaborierendes Robotersystem
EP2380709A2 (de) 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
DE202013104860U1 (de) Arbeitsvorrichtung
WO2008014909A1 (de) Kamarabasierte überwachung von maschinen mit beweglichen maschinenelementen zur kollisionsverhinderung
DE102018118265B4 (de) Verfahren und Überwachungssystem zum Absichern einer Maschine
DE102012212754A1 (de) Verfahren zum Betreiben eines Sensorsystems sowie Sensorsystem
EP2888185A1 (de) Verfahren und system zur unterstützung eines arbeiters in einer anlage zur manipulation von waren
EP3587044B1 (de) Verfahren zum greifen von objekten in einem suchbereich und positioniersystem
EP3725472A1 (de) Verfahren zum ermitteln einer trajektorie eines roboters
DE102017202004A1 (de) Vorrichtung zur Absicherung eines maschinell gesteuerten Handhabungsgeräts und Verfahren
WO2015049207A2 (de) Mrk planungstechnologie
EP2594373B1 (de) Festlegen von zulässigem Verfahrbereich mittels eines Zeigers
EP3118706B1 (de) Verfahren zur steuerung eines kommissionierflurförderzeugs
WO2015049202A2 (de) Mrk planungs- und überwachungstechnologie
EP3333116A1 (de) Verfahren zur automatischen ausrichtung eines flurförderzeugs in einem warenlager sowie system aus einem flurförderzeug und einem warenlager
EP3118708B1 (de) Steuerverfahren für ein kommissionierflurförderzeug
WO2005039836A2 (de) Verfahren zur einrichtung einer bewegung eines handhabungsgeräts und bildverarbeitung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication