DE102016123945A1 - Mit einem Videoanzeigegerät, das ein Bild eines virtuellen Objekts überlagernd auf einem realen Bild eines Roboters anzeigt, ausgestattetes Robotersystem - Google Patents

Mit einem Videoanzeigegerät, das ein Bild eines virtuellen Objekts überlagernd auf einem realen Bild eines Roboters anzeigt, ausgestattetes Robotersystem Download PDF

Info

Publication number
DE102016123945A1
DE102016123945A1 DE102016123945.3A DE102016123945A DE102016123945A1 DE 102016123945 A1 DE102016123945 A1 DE 102016123945A1 DE 102016123945 A DE102016123945 A DE 102016123945A DE 102016123945 A1 DE102016123945 A1 DE 102016123945A1
Authority
DE
Germany
Prior art keywords
robot
image
camera
real
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102016123945.3A
Other languages
English (en)
Other versions
DE102016123945B4 (de
Inventor
Toshiaki KAMOI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102016123945A1 publication Critical patent/DE102016123945A1/de
Application granted granted Critical
Publication of DE102016123945B4 publication Critical patent/DE102016123945B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Das Robotersystem der vorliegenden Erfindung ist mit einer Steuerung, die einen Roboter steuert, und einem Videoanzeigegerät, das mit der Steuerung verbunden ist, versehen. Das Videoanzeigegerät ist mit einem Anzeigeteil, der ein von einer Kamera aufgenommenes Videobild eines realen Raums einschließlich eines Roboters in Echtzeit zeigt, und einem Bildverarbeitungsteil für erweiterte Realität, der ein virtuelles Videobild von einem Endeffektor oder einer Roboter-Peripherievorrichtung des Roboters überlagernd auf dem von der Kamera aufgenommenen realen Videobild des Roboters darstellt, ausgestattet. Mit einem solchen Robotersystem kann die Roboter-Instruktion auch ohne Endeffektor oder Roboter-Peripherievorrichtung unter dem Eindruck, dass diese vorhanden sind, durchgeführt werden

Description

  • Hintergrund der Erfindung
  • 1. Bereich der Erfindung
  • Bei der vorliegenden Erfindung handelt es sich um ein Robotersystem, das mit einem Videoanzeigegerät ausgestattet ist, das unter Verwendung einer Technik, die erweiterte Realität einsetzt, ein Bild eines virtuellen Objekts überlagernd auf einem Videobild eines Roboters anzeigt.
  • 2. Erläuterung der relevanten Technik
  • Bei Industrierobotersystemen, die in Produktionsstätten eingesetzt werden, ist am vorderen Ende des Roboterarms ein Endeffektor wie eine Roboterhand, ein Bearbeitungswerkzeug usw. angebracht. Außerdem ist im Umfeld des Roboters eine Roboter-Peripherievorrichtung wie ein Förderband, ein Schienentransportwagen usw. angeordnet.
  • Aber es kann sein, dass in dem Stadium, in dem die Instruktion des Roboters mit Arbeitsbewegungen erfolgen soll, der erwähnte Endeffektor oder die erwähnte Roboter-Peripherievorrichtung noch nicht bereitgestellt werden können. In diesem Fall kann der Arbeiter die Roboter-Instruktion nicht durchführen, bevor der Endeffektor oder die Roboter-Peripherievorrichtung bereitgestellt werden. Deswegen gibt es Bedarf dafür, dass die Roboter-Instruktion unter dem Eindruck, dass der Endeffektor oder die Roboter-Peripherievorrichtung vorhanden sind, auch dann durchgeführt werden kann, wenn diese nicht bereitgestellt werden.
  • Als Technik, mit der sich die geschilderte Aufgabe lösen lässt, ist eine Technik denkbar, die erweiterte Realität einsetzt und ein virtuelles Videobild überlagernd auf einem Echtzeit-Videobild anzeigt. Im Übrigen sind in den letzten Jahren Vorrichtungen vorgestellt worden, die eine solche mit dem Einsatz von erweiterter Realität verbundene Technik nutzen, um die Bedienbarkeit der Roboter-Instruktion zu verbessern.
  • Z. B. stellt die Veröffentlichung der Patentoffenlegung 4850984 eine Technik vor, mit der der Bewegungsraum eines Roboters, der sich nach einem Bewegungsplan bewegt, mit dem Einsatz von erweiterter Realität auf dem Videobild des realen Roboters durch Überlagerung dargestellt wird. Außerdem stellt die Veröffentlichung der Patentoffenlegung 2014-180707 eine Technik vor, mit der die Bewegungsspur eines Roboters, der sich einem Bewegungsprogramm folgend bewegt, mit Hilfe des Einsatzes von erweiterter Realität auf dem Videobild des realen Roboters durch Überlagerung dargestellt wird.
  • Aber weder die Veröffentlichung der Patentoffenlegung 4850984 und noch die Veröffentlichung der Patentoffenlegung 2014-180707 schlagen vor, mit einer Technik, die erweiterte Realität einsetzt, das Videobild des oben erwähnten Endeffektors oder der oben erwähnten Roboter-Peripherievorrichtung überlagernd auf dem Bild des realen Roboters anzuzeigen.
  • Überblick über die Erfindung
  • Die vorliegende Erfindung stellt ein Robotersystem zur Verfügung, bei dem die Roboter-Instruktion auch ohne Endeffektor oder Roboter-Peripherievorrichtung unter dem Eindruck, dass diese vorhanden sind, durchgeführt werden kann.
  • In einer ersten Ausprägung der vorliegenden Erfindung wird ein Robotersystem zur Verfügung gestellt, das mit einer Steuerung, die einen Roboter steuert, und einem Videoanzeigegerät, das mit der Steuerung verbunden ist, versehen ist, wobei das Videoanzeigegerät mit einem Anzeigeteil, der ein von einer Kamera aufgenommenes Videobild eines realen Raums einschließlich eines Roboters in Echtzeit zeigt, und einem Bildverarbeitungsteil für erweiterte Realität, der ein virtuelles Videobild von einem Endeffektor oder einer Roboter-Peripherievorrichtung des Roboters überlagernd auf dem von der Kamera aufgenommenen realen Videobild des Roboters darstellt, ausgestattet ist.
  • In einer zweiten Ausprägung der vorliegenden Erfindung wird ein Robotersystem zur Verfügung gestellt, das wie in der genannten ersten Ausprägung aufgebaut ist und bei dem das Videoanzeigegerät mit einem Bildgenerierungsteil für virtuelle Objekte ausgestattet ist, der das virtuelle Videobild des Endeffektors oder der Roboter-Peripherievorrichtung, mit dem das von der Kamera aufgenommene reale Bild des Roboters überlagert wird, in Entsprechung zu der relativen Position und dem relativen Winkel des Roboters zur Kamera erzeugt.
  • In einer dritten Ausprägung der vorliegenden Erfindung wird ein Robotersystem zur Verfügung gestellt, das wie in der genannten ersten oder zweiten Ausprägung aufgebaut ist und bei dem der Bildverarbeitungsteil für erweiterte Realität das virtuelle Videobild des Endeffektors oder der Roboter-Peripherievorrichtung abhängig von Positions- und Stellungsdaten des von der Steuerung gesteuerten Roboters bzw. von aus der Steuerung kommenden Pseudo-Signalen verschiebt, während es im Anzeigeteil angezeigt wird.
  • In einer vierten Ausprägung der vorliegenden Erfindung wird ein Robotersystem zur Verfügung gestellt, das wie in einer der genannten ersten drei Ausprägungen aufgebaut ist und bei dem die Steuerung mit einer Instruktions-Bedienkonsole ausgestattet ist, mit der die Bedienung für die Roboter-Instruktion erfolgt.
  • In einer fünften Ausprägung der vorliegenden Erfindung wird ein Robotersystem zur Verfügung gestellt, das wie in einer der genannten ersten vier Ausprägungen aufgebaut ist und bei dem das Videoanzeigegerät ein mit einer Kamera ausgestattetes Head-Mounted-Display ist.
  • Vereinfachte Erläuterung der Figuren
  • Diese und sonstige Ziele, Eigenschaften und Vorteile der vorliegenden Erfindung werden durch die ausführliche Erläuterung von typischen Ausführungsformen der vorliegenden Erfindung, die in den beigefügten Figuren dargestellt werden, weiter verdeutlicht.
  • 1 zeigt ein Blockdiagramm des Robotersystems einer Ausführungsform der vorliegenden Erfindung.
  • 2 zeigt ein Flussdiagramm für den Verarbeitungsfluss, um ein Bild eines virtuellen Objekts überlagernd auf einem Bild eines realen Roboters anzuzeigen.
  • 3 zeigt in einer schematischen Darstellung, wie die Verarbeitung in einem ersten Ausführungsbeispiel erfolgt.
  • 4 zeigt eine schematische Darstellung des Bildes, das im Anzeigeteil eines Augmented-Reality-Display angezeigt wird, wenn der Roboter bewegt wird.
  • 5 zeigt in einer schematischen Darstellung, wie die Verarbeitung in einem zweiten Ausführungsbeispiel erfolgt.
  • Ausführliche Erläuterung
  • Als Nächstes werden Ausführungsformen der vorliegenden Erfindung anhand der Figuren erläutert. In den hinzugezogenen Figuren sind gleiche Komponenten oder Funktionsteile mit gleichen Zeichen versehen. Das bedeutet, dass Komponenten, die in unterschiedlichen Figuren mit dem gleichen Zeichen versehen sind, die gleiche Funktion besitzen. Zum besseren Verständnis werden in den Figuren unterschiedliche Maßstäbe verwendet.
  • 1 zeigt ein Blockdiagramm für das Robotersystem einer Ausführungsform der vorliegenden Erfindung. Wie 1 zeigt, ist das Robotersystem 10 der vorliegenden Ausführungsform mit einem Roboter 11, einer Robotersteuerung 12, die den Roboter 11 steuert, einem mit der Robotersteuerung 12 verbundenen Videoanzeigegerät in Form eines Augmented-Reality-Display 13 und einer mit der Robotersteuerung 12 verbundenen Instruktions-Bedienkonsole 14, über das die Bedienung bei der Instruktion des Roboter 11 erfolgt, ausgestattet.
  • Der Roboter 11 ist z. B. ein vertikaler Mehrgelenk-Manipulator. An jeder Gelenkachse des Roboters 11 ist ein (in den Figuren nicht gezeigter) Servomotor angebracht. Außerdem sind im Roboter 11 Stellungssensoren 15, die die Achsstellung (Drehwinkel) des jeweiligen Servomotors nachweist, wie z. B. Impulsgeber angebracht.
  • Am vorderen Ende des Arms des Roboters 11 befindet sich ein (in den Figuren nicht gezeigter) Flansch für die Anbringung eines abnehmbaren Endeffektors wie einer Roboterhand oder eines Bearbeitungswerkzeugs.
  • Eine Funktion der Robotersteuerung 12 ist es, gemäß einem Bewegungsprogramm Steuersignale zu erzeugen und den Roboter 11 zu treiben. Im Übrigen empfängt die Robotersteuerung 12 zusammen mit der Ausgabe von Steuersignalen an den Roboter 11 Signale von dem Augmented-Reality-Display 13 und der Instruktions-Bedienkonsole 14.
  • Außerdem besitzt die Robotersteuerung 12 einen Programmhalteteil 16, in dem ein Bewegungsprogramm für den Roboter 11 gehalten wird, und einen Positions- und Stellungsdaten-Generierungsteil 17, der Daten zur Position und Stellung des Roboters 11 erzeugt.
  • Die Instruktions-Bedienkonsole 14 gibt das Bewegungsprogramm für den Roboter 11 in den Programmhalteteil 16 ein. Außerdem kann die Instruktions-Bedienkonsole 14 das Bewegungsprogramm im Programmhalteteil 16 überschreiben.
  • Die Robotersteuerung 12 gibt gemäß dem Bewegungsprogramm im Programmhalteteil 16 Stellanweisungen an die Servomotoren aus und steuert die Servomotoren so, dass die von den Stellungssensoren 15 nachgewiesenen Stellungen der Servomotoren in Übereinstimmung mit den Stellanweisungen sind. Als Folge bewegt sich der Roboter 11 wie vom Bewegungsprogramm im Programmhalteteil 16 vorgegeben.
  • Der Positions- und Stellungsdaten-Generierungsteil 17 erzeugt auf Basis der von den Stellungssensoren 15 ausgegebenen Signale zur Stellung der Servomotoren die Daten zur Position- und Stellung des Roboters 11 und gibt sie an das Augmented-Reality-Display 13 aus.
  • Bei der Durchführung der Instruktion des Roboters bedient der Arbeiter den Roboter 11 über die Instruktions-Bedienkonsole 14, während er sich visuell mit dem Augmented-Reality-Display 13 orientiert. Dabei erhält der Roboter 11 von der Instruktions-Bedienkonsole 14 über die Robotersteuerung 12 die Anweisungen für die gewünschten Arbeitsbewegungen. Die gewünschten Arbeitsbewegungen werden dadurch im Programmhalteteil 16 der Robotersteuerung 12 protokolliert.
  • Es kann vorkommen, dass der Endeffektor, der z. B. in Form einer Roboterhand oder eines Bearbeitungswerkzeugs am vorderen Ende des Arms des Roboters 11 angebracht werden soll, nicht für die oben beschriebene Roboter-Instruktion bereitgestellt werden kann. Weiter kann es vorkommen, dass eine Roboter-Peripherievorrichtung zum Transport von Werkstücken wie ein Förderband, ein Schienentransportwagen, usw. nicht im Umfeld des Roboters 11 angeordnet werden kann. Das Robotersystem 10 der vorliegenden Ausführungsform ist so aufgebaut, dass der Endeffektor oder die Roboter-Peripherievorrichtung auch in einem solchen Fall als virtuelles Bild auf dem Augmented-Reality-Display 13 angezeigt werden können.
  • Genauer ist das Augmented-Reality-Display 13 wie in 1 gezeigt mit einer Kamera 18, die zur Aufnahme des realen Raums einschließlich des Roboters 11 verwendet wird, einem Anzeigeteil 19, der das von der Kamera 18 aufgenommene Bild des realen Raums einschließlich des Roboters 11 in Echtzeit wiedergibt, und einem Rechner 20 ausgestattet.
  • Das Augmented-Reality-Display 13 kann z. B. ein Head-Mounted-Display sein (siehe 3 und 5). In diesem Fall sollten die Bildflächen des Anzeigeteils 19 etwa so groß wie Brillengläser und passend zu den beiden Augen des Menschen angeordnet sein. Im Übrigen ist das Augmented-Reality-Display 13 nicht auf ein Head-Mounted-Display beschränkt; es kommt alles in Frage, was es dem Arbeiter ermöglicht, das von der Kamera 18 erzeugte Bild visuell zu erfassen, während er die Instruktions-Bedienkonsole 14 hält.
  • Der Rechner 20 des Augmented-Reality-Display 13 ist wie in 1 gezeigt mit einem Schätzteil 21 für die Position und Stellung der Kamera, einem Datenhalteteil 22 für virtuelle Objekte, einem Bildgenerierungsteil 23 für virtuelle Objekte und einem Bildverarbeitungsteil 24 für erweiterte Realität ausgestattet. Dabei können der Datenhalteteil 22 für virtuelle Objekte und der Bildgenerierungsteil 23 für virtuelle Objekte in der Robotersteuerung 12 eingebaut sein.
  • Der Schätzteil 21 für die Position und Stellung der Kamera schätzt die Position und den Winkel (die Stellung) der Kamera 18, die den Roboter 11 aufnimmt, relativ zum Roboter 11.
  • Der Datenhalteteil 22 für virtuelle Objekte hält die Daten von virtuellen Objekten, die nicht in dem realen Raum vorhanden sind, in dem der Roboter 11 installiert ist. Die Daten der virtuellen Objekte werden von der Instruktions-Bedienkonsole 14 in den Datenhalteteil 22 für virtuelle Objekte eingegeben. Bei den beschriebenen Daten der virtuellen Objekte handelt es sich um Daten für die dreidimensionale Form und den Installationsort des oben beschriebenen Endeffektors, der Roboter-Peripherievorrichtung usw.
  • Der Datenhalteteil 22 für virtuelle Objekte gibt die beschriebenen Daten eines virtuellen Objekts in den Bildgenerierungsteil 23 für virtuelle Objekte ein. Dazu erhält der Bildgenerierungsteil 23 für virtuelle Objekte von dem Schätzteil 21 für die Position und Stellung der Kamera die Daten der Position und des Winkels (der Stellung), die der Roboter 11 und die Kamera 18 zueinander einnehmen.
  • Der Bildgenerierungsteil 23 für virtuelle Objekte erzeugt dann auf Basis der Daten des virtuellen Objekts und der Daten der Position und des Winkels, die der Roboter 11 und die Kamera 18 zueinander einnehmen, ein Bild des virtuellen Objekts, das dem von der Kamera 18 aufgenommenen realen Bild des Roboters 11 angepasst ist. Dabei wird das Bild des virtuellen Objekts, wenn sich der Winkel und die Position von Roboter 11 und Kamera 18 zueinander ändern, so geändert, dass es an das reale Bild des Roboters 11 angepasst bleibt.
  • In den Bildverarbeitungsteil 24 für erweiterte Realität wird die Bildinformation des virtuellen Objekts, die vom Bildgenerierungsteil 23 für virtuelle Objekte erzeugt wird, eingegeben. Weiter werden die Positions- und Stellungsdaten während der Bewegung des Roboters 11 von dem Positions- und Stellungsdaten-Generierungsteil 17 der Robotersteuerung 12 über den Rechner 20 in den Bildverarbeitungsteil 24 für erweiterte Realität eingegeben. Außerdem werden die Daten des von der Kamera 18 aufgenommenen realen Bildes des Roboters 11 in den Bildverarbeitungsteil 24 für erweiterte Realität eingegeben.
  • Der Bildverarbeitungsteil 24 für erweiterte Realität lässt damit das von dem Bildgenerierungsteil 23 für virtuelle Objekte erzeugte, den Positions- und Stellungsdaten des Roboters 11 gemäße Bild des virtuellen Objekts im Anzeigeteil 19 überlagernd auf dem realen Bild des Roboters 11 anzeigen. Wenn sich der Roboter 11 in Bewegung befindet, sollten die Daten des virtuellen Objekts, mit denen das reale Bild des Roboters 11 überlagert werden soll, in festgelegten Zeitabständen gemäß den Positions- und Stellungsdaten des sich bewegenden Roboters 11 aktualisiert werden.
  • 2 zeigt ein Flussdiagramm für den Verarbeitungsfluss, um das Bild eines virtuellen Objekts wie des oben beschriebenen Endeffektors, der oben beschriebenen Roboter-Peripherievorrichtung usw. überlagernd auf dem realen Bild des Roboters 11 anzuzeigen.
  • Wie 2 zeigt, prüft das Augmented-Reality-Display 13 zunächst, ob das reale Bild des Roboters 11 durch die Kamera 18 geladen worden ist (Schritt S11).
  • Wenn sich ergibt, dass das reale Bild des Roboters 11 geladen worden ist, schätzt der Schätzteil 21 für die Position und Stellung der Kamera des Augmented-Reality-Display 13 die Position und den Winkel, die der Roboter 11 und die Kamera 18 zueinander einnehmen (Schritt S12). Nach dem obigen Schritt S12 gibt die Robotersteuerung 12 die Positions- und Stellungsdaten des Roboters 11 aus dem Positions- und Stellungsdaten-Generierungsteil 17 an das Augmented-Reality-Display 13 aus (Schritt S13).
  • Anschließend lässt das Augmented-Reality-Display 13 das Bild des virtuellen Objekts wie des Endeffektors, der Roboter-Peripherievorrichtung usw. überlagernd auf dem von der Kamera 18 aufgenommenen realen Bild des Roboters 11 im Anzeigeteil 19 anzeigen (Schritt S14). Dabei wird das Bild des virtuellen Objekts wie oben beschrieben in Entsprechung zu der Position und dem Winkel, die der Roboter 11 und die Kamera 18 zueinander einnehmen, erzeugt und gemäß den Positions- und Stellungsdaten des Roboters 11 über das reale Bild des Roboters 11 gelagert.
  • Weiter prüft das Augmented-Reality-Display 13, ob das beschriebene überlagernde Bild, d. h. das auf dem realen Bild des Roboters 11 durch Überlagerung angezeigte Bild des virtuellen Objekts, bewegt werden muss (Schritt S15).
  • Wenn sich die Positions- und Stellungsdaten des Roboters 11, die der Positions- und Stellungsdaten-Generierungsteil 17 an das Augmented-Reality-Display 13 ausgibt, geändert haben, ist das Ergebnis des Augmented-Reality-Display 13 im obigen Schritt S15 ”YES”.
  • Wenn das Ergebnis im obigen Schritt S15 ”YES” ist, veranlasst das Augmented-Reality-Display 13, dass sich das oben beschriebene überlagernd angezeigte Bild bewegt (Schritt S16). Das kann in diesem Fall so erfolgen, dass die Daten des überlagernd angezeigten Bildes entsprechend zu den Positions- und Stellungsdaten des sich bewegenden Roboters 11 in festgelegten Zeitabständen aktualisiert werden.
  • Im Folgenden wird als konkretes Beispiel (im Folgenden erstes Ausführungsbeispiel genannt) der Fall vorgeführt, dass das virtuelle Bild eines Endeffektors auf dem Bild des realen Roboters 11 durch Überlagerung angezeigt wird.
  • (Erstes Ausführungsbeispiel)
  • 3 zeigt in einer schematischen Darstellung, wie die Verarbeitung im ersten Ausführungsbeispiel erfolgt.
  • Bei der Durchführung der Roboter-Instruktion trägt der Arbeiter wie in 3 gezeigt das Augmented-Reality-Display 13 und sieht darin den an einer bestimmten Stelle installierten Roboter 11. Dabei ist am vorderen Ende des Arms des Roboters 11 kein Endeffektor wie eine Roboterhand, ein Bearbeitungswerkzeug usw. angebracht. Außerdem ist im Umfeld des Roboters 11 auch keine Roboter-Peripherievorrichtung für den Werkstücktransport wie ein Förderband, ein Schienentransportwagen usw. angeordnet.
  • In diesem realen Umfeld lädt das Augmented-Reality-Display 13 ein von der Kamera 18 aufgenommenes Bild des realen Umfelds einschließlich des Roboters 11 (Pfeil A in 3).
  • Anschließend beurteilt der Schätzteil 21 für die Position und Stellung der Kamera des Augmented-Reality-Display 13 die Position und den Winkel, die der Roboter 11 und die Kamera 18 zueinander einnehmen. Der Grund dafür ist, dass bei der Anzeige der Überlagerung des realen Bildes R1 des realen Roboters 11 mit dem virtuellen Bild des Endeffektors das Bild R2 des virtuellen Endeffektors mit der passenden Richtung und Position angezeigt werden muss.
  • Im ersten Ausführungsbeispiel werden die Position und der Winkel, die der Roboter 11 und die Kamera 18 wie oben beschrieben zueinander einnehmen, mit der folgenden Methode geschätzt.
  • Der Roboter 11 wird in Ruhestellung mit der Kamera 18 aus mehreren Blickwinkeln im Voraus aufgenommen und dann werden im Schätzteil 21 für die Position und Stellung der Kamera im Voraus mehrere Bildmodelle des Roboters 11 hinterlegt. Dabei werden im Voraus die relative Position und der relative Winkel des Roboters 11 zur Kamera 18 zu jedem aufgenommenen Bildmodell des Roboters 11 protokolliert.
  • Wenn danach das reale Bild R1 des realen Roboters 11 von dem Augmented-Reality-Display 13 wie oben beschrieben geladen wird, wird geprüft, welches der im Voraus hinterlegten mehreren Bildmodelle M1, M2, ... Mn des Roboters 11 dem geladenen realen Bild R1 des Roboters 11 am nächsten kommt (Pfeil B in 3). Der Schätzteil 21 für die Position und Stellung der Kamera nimmt dann an, dass die relative Position und der relative Winkel des Roboters 11 zur Kamera 18, die dem am nächsten kommenden Bildmodell entsprechen, die Position und der Winkel sind, die der Roboter 11 und die Kamera 18 bei der aktuellen Aufnahme der Kamera 18 zueinander einnehmen.
  • Anschließend teilt der Schätzteil 21 für die Position und Stellung der Kamera der Robotersteuerung 12 mit, was er als relative Positionen und relativen Winkel des Roboters 11 zur Kamera 18 geschätzt hat (Pfeil C in 3).
  • Daraufhin sendet der Positions- und Stellungsdaten-Generierungsteil 17 der Robotersteuerung 12 die Daten der aktuellen Position und Stellung des Roboters 11 an das Augmented-Reality-Display 13 (Pfeil D in 3).
  • Anschließend generiert der Bildgenerierungsteil 23 für virtuelle Objekte im Augmented-Reality-Display 13 ein Bild R2 des virtuellen Endeffektors, das dem gerade von der Kamera 18 aufgenommenen realen Bild R1 des Roboters 11 angepasst ist. Dabei wird das Bild R2 des virtuellen Endeffektors auf Basis der im Datenhalteteil 22 für virtuelle Objekte abgelegten und gehaltenen Daten für die dreidimensionale Form usw. des Endeffektors und gemäß der Position und dem Winkel, die der Roboter 11 und die Kamera 18 nach der oben beschriebenen Schätzung zueinander einnehmen, erzeugt. D. h. in dem generierten Bild R2 des virtuellen Endeffektors passen Richtung, Position und Größe zum vorderen Ende des Arms in dem von der Kamera 18 aufgenommenen realen Bild R1 des Roboters 11.
  • Der Bildverarbeitungsteil 24 für erweiterte Realität im Augmented-Reality-Display 13 fügt das vom Bildgenerierungsteil 23 für virtuelle Objekte generierte Bild R2 des virtuellen Endeffektors an das vordere Ende des Arms in dem von der Kamera 18 aufgenommenen realen Bild R1 des Roboters 11 an und lässt das Ergebnis im Anzeigeteil 19 anzeigen (Pfeil E in 3). Dabei wird die Position des vorderen Endes des Arms im realen Bild R1 des Roboters 11 mit Hilfe der Positions- und Stellungsdaten des Roboters 11, die von der Robotersteuerung 12 gesendet worden sind, und der relativen Position und des relativen Winkels des Roboters 11 zur Kamera 18 identifiziert.
  • 4 zeigt eine schematische Darstellung des Bildes, das im Augmented-Reality-Display 13 angezeigt wird, wenn der Roboter 11 bewegt wird.
  • Bei der Durchführung der Roboter-Instruktion verwendet der Arbeiter die Instruktions-Bedienkonsole 14, um den Roboter 11 zu treiben. Dadurch ändern sich die Position und Stellung des Roboters 11, wodurch sich das reale Bild R1 des Roboters 11 im Anzeigeteil 19 wie in 4 gezeigt ändert. Der Bildverarbeitungsteil 24 für erweiterte Realität aktualisiert die Daten des Bildes R2 des virtuellen Endeffektors, das im realen Bild R1 des Roboters 11 nahe dem vorderen Ende des Arms anzuzeigen ist, gemäß den sich ändernden Daten der Position und Stellung des Roboters 11. Dabei sollte der Bildgenerierungsteil 23 für virtuelle Objekte das Bild R2 des virtuellen Endeffektors in Echtzeit entsprechend zur Veränderung des realen Bilds R1 des Roboters 11 generieren. Auf die beschriebene Weise bewegt sich das Bild R2 des virtuellen Endeffektors, das im realen Bild R1 des Roboters 11 nahe dem vorderen Ende des Arms angezeigt wird, (der mit einer gestrichelten Linie umschlossene Bildteil 25 in 4) zusammen mit der Veränderung des realen Bildes R1 des Roboters 11.
  • Gemäß dem oben erläuterten ersten Ausführungsbeispiel entsteht durch das Augmented-Reality-Display 13 auch dann, wenn am vorderen Ende des Arms des Roboters 11 kein Endeffektor angebracht ist, der Eindruck, dass der Endeffektor vorhanden ist, so dass die Roboter-Instruktion durchgeführt werden kann. Da ferner als Augmented-Reality-Display 13 ein Head-Mounted-Display verwendet wird, kann der Arbeiter die Instruktions-Bedienkonsole 14 bedienen, während er visuell das im Anzeigenteil 19 angezeigte Videobild der Kamera 18 erfasst.
  • Als Nächstes wird als konkretes Beispiel (im Folgenden zweites Ausführungsbeispiel genannt) der Fall vorgeführt, dass das Bild einer virtuellen Roboter-Peripherievorrichtung auf dem Bild des realen Roboters 11 durch Überlagerung angezeigt wird.
  • (Zweites Ausführungsbeispiel)
  • 5 zeigt in einer schematischen Darstellung, wie die Verarbeitung im zweiten Ausführungsbeispiel erfolgt.
  • Bei der Durchführung der Roboter-Instruktion trägt der Arbeiter wie in 5 gezeigt das Augmented-Reality-Display 13 und sieht darin den an einer bestimmten Stelle installierten Roboter 11. Dabei ist am vorderen Ende des Arms des Roboters 11 kein Endeffektor wie eine Roboterhand, ein Bearbeitungswerkzeug usw. angebracht. Außerdem ist im Umfeld des Roboters 11 ist auch keine Roboter-Peripherievorrichtung für den Werkstücktransport wie ein Förderband, ein Schienentransportwagen usw. angeordnet.
  • In diesem realen Umfeld lädt das Augmented-Reality-Display 13 ein von der Kamera 18 aufgenommenes Bild des realen Umfelds einschließlich des Roboters 11 (Pfeil F in 5). Dabei ist im Fall des zweiten Ausführungsbeispiels auf der Oberfläche des Roboters 11 mindestens eine Markierung 26 angebracht. Die Markierung 26 sollte eine bestimmte Form oder ein bestimmtes Muster haben und im von der Kamera 18 aufgenommenen Bild erkennbar sein.
  • Anschließend schätzt der Schätzteil 21 für die Position und Stellung der Kamera des Augmented-Reality-Display 13 die Position und den Winkel, die der Roboter 11 und die Kamera 18 zueinander einnehmen. Der Grund dafür ist der gleiche wie der oben beim ersten Ausführungsbeispiel erläuterte.
  • Im zweiten Ausführungsbeispiel werden die Position und der Winkel, die der Roboter 11 und die Kamera 18 wie oben beschrieben zueinander einnehmen, mit der folgenden Methode geschätzt.
  • Die im Vorfeld in einer Mehrzahl auf der Oberfläche des im realen Raum installierten Roboters 11 angebrachten Markierungen 26 werden mit der Kamera 18 aufgenommen. Die jeweilige Position einer Markierung 26 im realen Raum ist bekannt. Deswegen können die Position und die Stellung (der Winkel) der Kamera 18 im Koordinatensystem des realen Raums aus den auf die Bildkoordinaten der Kamera 18 projizierten Positionen der Markierungen 26 zurück berechnet werden. Mit einer solchen Rechnung schätzt der Schätzteil 21 für die Position und Stellung der Kamera die relative Position und den relativen Winkel des Roboters 11 zur Kamera 18. Außerdem sollte ein Bildmodell der gewünschten Roboter-Peripherievorrichtung in Beziehung zu den Positionen der Markierungen 26 gesetzt werden. Auf diese Weise können die Daten des Bildmodells der gewünschten Roboter-Peripherievorrichtung in einer gewünschten Position durch Überlagerung auf dem realen Bild des Roboters 11 entsprechend der Position und der Stellung (dem Winkel) der Kamera 18 im Koordinatensystem des realen Raums angezeigt werden.
  • Anschließend teilt der Schätzteil 21 für die Position und Stellung der Kamera der Robotersteuerung 12 die relative Position und den relativen Winkel des Roboters 11 zur Kamera 18 mit (Pfeil G in 5). Im Übrigen wird bei der zweiten Ausführungsform angenommen, dass anders als in der Darstellung von 1 der Datenhalteteil 22 für virtuelle Objekte und der Bildgenerierungsteil 23 für virtuelle Objekte in der Robotersteuerung 12 eingebaut sind.
  • Der in der Robotersteuerung eingebaute Bildgenerierungsteil 23 für virtuelle Objekte generiert das Bild R3 der virtuellen Roboter-Peripherievorrichtung, das dem gerade von der Kamera 18 aufgenommenen realen Bild R1 des Roboters 11 angefügt werden soll; die Roboter-Peripherievorrichtung kann z. B. ein Förderband sein. Dabei wird das Bild R3 der virtuellen Roboter-Peripherievorrichtung auf Basis der im Datenhalteteil 22 für virtuelle Objekte abgelegten und gehaltenen Daten für die dreidimensionale Form usw. der Roboter-Peripherievorrichtung und gemäß der Position und dem Winkel, die der Roboter 11 und die Kamera 18 nach der oben beschriebenen Rechnung zueinander einnehmen, erzeugt. D. h. in dem generierten Bild R3 der virtuellen Roboter-Peripherievorrichtung passen Richtung, Position und Größe zu dem von der Kamera 18 aufgenommenen realen Bild R1 des Roboters 11.
  • Anschließend sendet die Robotersteuerung 12 das im Bildgenerierungsteil 23 für virtuelle Objekte generierte Bild R3 der virtuellen Roboter-Peripherievorrichtung an den Bildverarbeitungsteil 24 für erweiterte Realität im Augmented-Reality-Display 13 (Pfeil H in 5).
  • Der Bildverarbeitungsteil 24 für erweiterte Realität lässt dann das von dem Bildgenerierungsteil 23 für virtuelle Objekte generierte Bild R3 der virtuellen Roboter-Peripherievorrichtung im Anzeigeteil 19 überlagernd auf dem von der Kamera 18 aufgenommenen realen Bild R1 des Roboters 11 anzeigen (Pfeil I in 5). Dabei wird die Position, in der das Bild R3 der virtuellen Roboter-Peripherievorrichtung bei der Überlagerung angezeigt werden soll, mit Hilfe der auf die Bildkoordinaten der Kamera 18 projizierten Positionen der Markierungen 26 und der relativen Position und des relativen Winkels des Roboters 11 zur Kamera 18 identifiziert.
  • Im Übrigen sollte die folgende Methode verwendet werden, um das auf dem realen Bild des Roboters 11 durch Überlagerung angezeigte Bild R3 der virtuellen Roboter-Peripherievorrichtung, die z. B. ein Förderband ist, zu bewegen. Zunächst werden im Vorfeld gemäß dem Bild R3 des virtuellen Förderbands mehrere Bewegungsbilder des Stück für Stück verschobenen beweglichen Bandteils des virtuellen Förderbands erstellt und im Datenhalteteil 22 für virtuelle Objekte hinterlegt. Die Robotersteuerung 12 wird so ausgelegt, dass sie zu einem gewünschten Zeitpunkt ein Pseudo-Signal für die Steuerung des virtuellen Förderbands an das Augmented-Reality-Display 13 ausgeben kann. Auf die Eingabe eines Pseudo-Signals von der Robotersteuerung 12 hin zeigt das Augmented-Reality-Display 13 in bestimmten Zeitabständen die oben beschriebenen Bewegungsbilder des beweglichen Bandteils mit einer passenden Richtung, Position und Größe überlagernd auf dem realen Bild des Roboters 11 an.
  • Gemäß dem oben erläuterten zweiten Ausführungsbeispiel entsteht durch das Augmented-Reality-Display 13 auch dann, wenn im Umfeld des Roboters keine Roboter-Peripherievorrichtung wie ein Förderband usw. angebracht ist, der Eindruck, dass die Roboter-Peripherievorrichtung vorhanden ist, so dass die Roboter-Instruktion durchgeführt werden kann. Da ferner als Augmented-Reality-Display 13 ein Head-Mounted-Display verwendet wird, kann der Arbeiter die Instruktions-Bedienkonsole 14 bedienen, während er visuell das im Anzeigenteil 19 angezeigte Videobild der Kamera 18 erfasst.
  • In der obigen Beschreibung wurde die vorliegende Erfindung anhand typischer Ausführungsbeispiele erläutert, aber ein Fachmann wird wohl verstehen, dass die oben beschriebenen Ausführungsbeispiele abgeändert werden können oder verschiedene sonstige Änderungen, Weglassungen oder Hinzufügungen vorgenommen werden können, ohne dass der Bereich der vorliegenden Erfindung verlassen wird. In geeigneter Weise vorgenommene Kombinationen der oben beschriebenen Ausführungsbeispiele gehören zum Bereich der vorliegenden Erfindung.
  • Wirkung der Erfindung
  • Mit der ersten, zweiten, dritten und vierten Ausprägung der vorliegenden Erfindung kann die Roboter-Instruktion auch dann durchgeführt werden, wenn kein Endeffektor oder keine Roboter-Peripherievorrichtung für den Roboter bereitgestellt sind, indem mit Hilfe einer Bildanzeigevorrichtung der Eindruck hervorgebracht wird, dass der Endeffektor oder die Roboter-Peripherievorrichtung vorhanden sind.
  • Mit der fünften Ausprägung der vorliegenden Erfindung kann der Arbeiter die Instruktions-Bedienkonsole bedienen, während er visuell das im Anzeigeteil angezeigte Videobild der Kamera erfasst.

Claims (5)

  1. Robotersystem (10), das mit einer Steuerung (12), die den Roboter (11) steuert, und einem Videoanzeigegerät (13), das mit der genannten Steuerung (12) verbunden ist, versehen ist und bei dem das genannte Videoanzeigegerät (13) mit einem Anzeigeteil (19), der ein von einer Kamera (18) aufgenommenes Videobild eines realen Raums einschließlich des genannten Roboters (11) in Echtzeit zeigt, und einem Bildverarbeitungsteil (24) für erweiterte Realität, der ein virtuelles Videobild von einem Endeffektor oder einer Roboter-Peripherievorrichtung des genannten Roboters (11) im genannten Anzeigeteil (19) überlagernd auf dem von der genannten Kamera (18) aufgenommenen realen Videobild des genannten Roboters (11) darstellt, ausgestattet ist.
  2. Robotersystem (10) nach Anspruch 1, bei dem das genannte Videoanzeigegerät (13) mit einem Bildgenerierungsteil (23) für virtuelle Objekte ausgestattet ist, der das virtuelle Videobild des Endeffektors oder der Roboter-Peripherievorrichtung, mit dem das von der genannten Kamera (18) aufgenommene reale Bild des genannten Roboters (11) überlagert wird, in Entsprechung zu der relativen Position und dem relativen Winkel des genannten Roboters (11) zur genannten Kamera (18) erzeugt.
  3. Robotersystem (10) nach Anspruch 1 oder 2, bei dem der genannte Bildverarbeitungsteil (24) für erweiterte Realität das virtuelle Videobild des genannten Endeffektors oder der genannten Roboter-Peripherievorrichtung abhängig von Positions- und Stellungsdaten des von der genannten Steuerung (12) gesteuerten Roboters (11) bzw. von aus der genannten Steuerung (12) kommenden Pseudo-Signalen verschiebt, während es im genannten Anzeigeteil (19) angezeigt wird.
  4. Robotersystem (10) nach einem der Ansprüche 1 bis 3, bei dem die genannte Steuerung (12) mit einer Instruktions-Bedienkonsole (14) ausgestattet ist, mit der die Bedienung für die Instruktion des genannten Roboters (11) erfolgt.
  5. Robotersystem (10) nach einem der Ansprüche 1 bis 4, bei dem das genannte Videoanzeigegerät (13) ein mit der genannten Kamera (18) ausgestattetes Head-Mounted-Display ist.
DE102016123945.3A 2015-12-10 2016-12-09 Mit einem Videoanzeigegerät, das ein Bild eines virtuellen Objekts überlagernd auf einem Videobild eines Roboters anzeigt, ausgestattetes Robotersystem Active DE102016123945B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015241007A JP6420229B2 (ja) 2015-12-10 2015-12-10 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP2015-241007 2015-12-10

Publications (2)

Publication Number Publication Date
DE102016123945A1 true DE102016123945A1 (de) 2017-06-14
DE102016123945B4 DE102016123945B4 (de) 2022-03-03

Family

ID=58773730

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016123945.3A Active DE102016123945B4 (de) 2015-12-10 2016-12-09 Mit einem Videoanzeigegerät, das ein Bild eines virtuellen Objekts überlagernd auf einem Videobild eines Roboters anzeigt, ausgestattetes Robotersystem

Country Status (4)

Country Link
US (2) US10543599B2 (de)
JP (1) JP6420229B2 (de)
CN (1) CN106863295B (de)
DE (1) DE102016123945B4 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017215114A1 (de) * 2017-08-30 2019-02-28 Deutsches Zentrum für Luft- und Raumfahrt e.V. Manipulatorsystem und Verfahren zum Steuern eines robotischen Manipulators
DE102019103349B3 (de) 2019-02-11 2020-06-18 Beckhoff Automation Gmbh Industrierobotersystem und Verfahren zur Steuerung eines Industrieroboters
DE102019006800B4 (de) 2018-10-02 2022-07-28 Fanuc Corporation Robotersteuerung und Anzeigevorrichtung unter Verwendung von erweiterter Realität und gemischter Realität
DE102019119319B4 (de) 2018-07-25 2022-12-22 Fanuc Corporation Abtastsystem, Arbeitssystem, Verfahren zum Anzeigen von Augmented-Reality-Bildern, Verfahren zum Speichern von Augmented-Reality-Bildern und Programme dafür
DE102019122865B4 (de) 2018-08-31 2023-01-12 Fanuc Corporation Erfassungssystem, Arbeitssystem, Anzeigeverfahren für ein Erweiterte-Realität-Bild und Programm
DE102021133633B3 (de) 2021-12-17 2023-01-26 J. Schmalz Gmbh Verfahren zum Bereitstellen einer Greifvorrichtung
DE102020000390B4 (de) 2019-01-29 2023-07-20 Fanuc Corporation Robotersystem

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
US10076840B2 (en) * 2015-04-03 2018-09-18 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
US10684480B2 (en) * 2017-03-16 2020-06-16 Denso Wave Incorporated Information display system
WO2018173178A1 (ja) * 2017-03-23 2018-09-27 株式会社Fuji ロボットシステム
JP6506348B2 (ja) * 2017-06-14 2019-04-24 ファナック株式会社 ロボットの軌道を修正するロボットの教示装置
US10712902B2 (en) * 2017-07-14 2020-07-14 Sst Systems, Inc. Augmented reality system for conveyor system and method
DE112018002565B4 (de) 2017-08-10 2021-07-01 Robert Bosch Gmbh System und Verfahren zum direkten Anlernen eines Roboters
CN107656505A (zh) * 2017-08-21 2018-02-02 杭州太若科技有限公司 使用增强现实设备控制人机协作的方法、装置和***
JP6795471B2 (ja) * 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
JP7066357B2 (ja) * 2017-08-31 2022-05-13 川崎重工業株式会社 ロボットシステム及びその運転方法
JP7259284B2 (ja) * 2017-11-28 2023-04-18 株式会社デンソーウェーブ 教示装置、教示方法
JP6669714B2 (ja) * 2017-11-28 2020-03-18 ファナック株式会社 教示操作盤およびロボット制御システム
US10751877B2 (en) 2017-12-31 2020-08-25 Abb Schweiz Ag Industrial robot training using mixed reality
JP6781201B2 (ja) 2018-06-05 2020-11-04 ファナック株式会社 仮想オブジェクト表示システム
CN109078334B (zh) * 2018-06-21 2020-04-14 广州市世平计算机科技有限公司 一种基于虚拟机器人的vr操作引导及陪练方法和***
JP6885909B2 (ja) * 2018-10-12 2021-06-16 ファナック株式会社 ロボット制御装置
CN109799771B (zh) * 2018-12-29 2021-01-05 深圳市越疆科技有限公司 一种工业机器人的控制***、方法及装置
US10592713B1 (en) 2018-12-31 2020-03-17 Datalogic Usa, Inc. Computationally-augmented video display facilitating package handling
CN109648563B (zh) * 2019-01-02 2021-10-29 南京邮电大学 串联机器人运动控制方法及计算机存储介质
CN109571507A (zh) * 2019-01-16 2019-04-05 鲁班嫡系机器人(深圳)有限公司 一种服务机器人***及服务方法
JP2020196060A (ja) 2019-05-31 2020-12-10 セイコーエプソン株式会社 教示方法
JP7260405B2 (ja) * 2019-06-07 2023-04-18 ファナック株式会社 オフラインプログラミング装置、ロボット制御装置および拡張現実システム
JP7388074B2 (ja) * 2019-09-17 2023-11-29 オムロン株式会社 シミュレーション装置、シミュレーションプログラムおよびシミュレーション方法
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
JP2021058972A (ja) * 2019-10-08 2021-04-15 ファナック株式会社 ロボットシステム
JP7443014B2 (ja) * 2019-10-08 2024-03-05 大豊精機株式会社 ロボットアーム試験装置
CN110815177B (zh) * 2019-10-29 2022-08-16 中科新松有限公司 一种复合机器人2d视觉引导示教的迁移方法
CN110815189B (zh) * 2019-11-20 2022-07-05 福州大学 基于混合现实的机器人快速示教***及方法
JP7409848B2 (ja) * 2019-12-04 2024-01-09 ファナック株式会社 表示装置及び表示プログラム
KR20210072463A (ko) * 2019-12-09 2021-06-17 한국전자통신연구원 인간-머신 상호작용 방법 및 이를 위한 장치
JP7424825B2 (ja) * 2019-12-26 2024-01-30 ファナック株式会社 I/o信号情報表示システム
US20210316450A1 (en) * 2020-04-14 2021-10-14 3Deo, Inc. Robotics for three-dimensional printing
JP7068416B2 (ja) * 2020-10-27 2022-05-16 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
TW202233368A (zh) * 2021-02-18 2022-09-01 日商發那科股份有限公司 教示裝置
JP7109699B1 (ja) * 2021-07-07 2022-07-29 三菱電機株式会社 遠隔操作システム
CN113524262A (zh) * 2021-08-20 2021-10-22 太仓中科信息技术研究院 摄像机器人虚实融合精度优化装置和方法
JP2023068343A (ja) * 2021-11-02 2023-05-17 ローレルバンクマシン株式会社 情報処理装置、ロボットの制御方法、プログラム、移動体及びロボットシステム
DE102022202562A1 (de) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Ermitteln wenigstens einer Grenze für ein Betreiben eines Roboters
DE102022202571B3 (de) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Prüfen einer vorgegebenen Bahn eines Roboters
DE102022202563B3 (de) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Planen einer Bahn eines Roboters
WO2024129802A1 (en) * 2022-12-13 2024-06-20 Acumino System for testing and training robot control

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03213278A (ja) * 1990-01-12 1991-09-18 Fujitsu Ltd ロボットの遠隔操作支援方式
SE0203908D0 (sv) 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
DE10305384A1 (de) 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE10345743A1 (de) 2003-10-01 2005-05-04 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
DE102005009437A1 (de) 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
US7818092B2 (en) * 2006-01-20 2010-10-19 Fisher Controls International Llc In situ emission measurement for process control equipment
KR100786351B1 (ko) * 2006-08-29 2007-12-14 울산대학교 산학협력단 Ar을 이용한 작업로봇 티칭 시스템 및 방법
WO2011080882A1 (ja) 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
US20120290130A1 (en) * 2011-05-10 2012-11-15 Agile Planet, Inc. Method to Model and Program a Robotic Workcell
CN102350700A (zh) * 2011-09-19 2012-02-15 华南理工大学 一种基于视觉的机器人控制方法
JP6193554B2 (ja) 2011-11-04 2017-09-06 ファナック アメリカ コーポレイション 3次元表示部を備えたロボット教示装置
JP5742862B2 (ja) * 2013-03-18 2015-07-01 株式会社安川電機 ロボット装置及び被加工物の製造方法
CN103302668B (zh) * 2013-05-22 2016-03-16 东南大学 基于Kinect的空间遥操作机器人的控制***及其方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017215114A1 (de) * 2017-08-30 2019-02-28 Deutsches Zentrum für Luft- und Raumfahrt e.V. Manipulatorsystem und Verfahren zum Steuern eines robotischen Manipulators
DE102019119319B4 (de) 2018-07-25 2022-12-22 Fanuc Corporation Abtastsystem, Arbeitssystem, Verfahren zum Anzeigen von Augmented-Reality-Bildern, Verfahren zum Speichern von Augmented-Reality-Bildern und Programme dafür
DE102019122865B4 (de) 2018-08-31 2023-01-12 Fanuc Corporation Erfassungssystem, Arbeitssystem, Anzeigeverfahren für ein Erweiterte-Realität-Bild und Programm
DE102019006800B4 (de) 2018-10-02 2022-07-28 Fanuc Corporation Robotersteuerung und Anzeigevorrichtung unter Verwendung von erweiterter Realität und gemischter Realität
DE102019009313B4 (de) 2018-10-02 2024-02-15 Fanuc Corporation Robotersteuerung, Verfahren und Computerprogramm unter Verwendung von erweiterter Realität und gemischter Realität
DE102020000390B4 (de) 2019-01-29 2023-07-20 Fanuc Corporation Robotersystem
DE102019103349B3 (de) 2019-02-11 2020-06-18 Beckhoff Automation Gmbh Industrierobotersystem und Verfahren zur Steuerung eines Industrieroboters
DE102021133633B3 (de) 2021-12-17 2023-01-26 J. Schmalz Gmbh Verfahren zum Bereitstellen einer Greifvorrichtung

Also Published As

Publication number Publication date
US20170165841A1 (en) 2017-06-15
US10543599B2 (en) 2020-01-28
JP2017104944A (ja) 2017-06-15
CN106863295A (zh) 2017-06-20
DE102016123945B4 (de) 2022-03-03
CN106863295B (zh) 2019-09-10
JP6420229B2 (ja) 2018-11-07
US20200078951A1 (en) 2020-03-12
US11345042B2 (en) 2022-05-31

Similar Documents

Publication Publication Date Title
DE102016123945B4 (de) Mit einem Videoanzeigegerät, das ein Bild eines virtuellen Objekts überlagernd auf einem Videobild eines Roboters anzeigt, ausgestattetes Robotersystem
EP1521211B1 (de) Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
DE102016209576B4 (de) Bewegungssteuerung für ein mobiles Medizingerät
EP4292420A3 (de) Autonomes landwirtschaftliches trägerfahrzeug
EP1701233B1 (de) Generierung virtueller Welten auf Basis einer realen Umgebung
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102017001131B4 (de) Verfahren und System zum Betreiben eines Roboters
DE102014118001A1 (de) Verfahren zur Bewegungssimulation eines Manipulators
DE102009023307A1 (de) Verfahren und Vorrichtung zur Steuerung eines Manipulators
DE102004026813A1 (de) Verfahren und Vorrichtung zum Steuern von Handhabungsgeräten
DE10216023B4 (de) Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen
DE102010032917A1 (de) Verfahren zur Offline-Programmierung eines NC-gesteuerten Manipulators
EP3546136B1 (de) Augmented-reality-system
DE102015011113B4 (de) Motorsteuersystem, das eine Interferenz zwischen Achsen kompensiert
DE102010008240B4 (de) Verfahren zum Betrieb eines mehrachsigen, vorzugsweise sechsachsigen, Roboters
EP1675709A2 (de) VERFAHREN ZUR EINRICHTUNG EINER BEWEGUNG EINES HANDHABUNGSGERÄTS UND BILDVERARBEITUNG
DE102019107964B3 (de) Projektionseinrichtung für einen Robotermanipulator
DE102017005194B3 (de) Steuern einer Roboteranordnung
DE102018201589A1 (de) Verfahren zur Programmierung der Steuerung eines Industrieroboters, Verfahren zum Betreiben eines Industrieroboters, Programmiervorrichtung sowie Industrierobotersystem mit einer solchen Programmiervorrichtung
DE102010047641A1 (de) Steuerung eines Roboters
WO2005050335A1 (de) Vorrichtung und verfahren zum programmieren eines industrieroboters
DE102016001073B4 (de) Mehrachsroboter sowie Verfahren zu dessen Steuerung bei der Lackierung von Gegenständen
DE102015008188B3 (de) Abfahren einer vorgegebenen Bahn mit einem Roboter
DE102013000743A1 (de) Vorrichtung für eine geführte Applikation entlang einer Applikationsbahn auf einem Gegenstand und Verfahren
DE102022202563B3 (de) Planen einer Bahn eines Roboters

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final