DE102015208584A1 - Greifvorrichtung und Greifverfahren - Google Patents

Greifvorrichtung und Greifverfahren Download PDF

Info

Publication number
DE102015208584A1
DE102015208584A1 DE102015208584.8A DE102015208584A DE102015208584A1 DE 102015208584 A1 DE102015208584 A1 DE 102015208584A1 DE 102015208584 A DE102015208584 A DE 102015208584A DE 102015208584 A1 DE102015208584 A1 DE 102015208584A1
Authority
DE
Germany
Prior art keywords
workpiece
opening
gripping
hand
robot arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015208584.8A
Other languages
English (en)
Other versions
DE102015208584B4 (de
Inventor
Yasunori Nishihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Machine Co Ltd
Original Assignee
Toshiba Machine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Machine Co Ltd filed Critical Toshiba Machine Co Ltd
Publication of DE102015208584A1 publication Critical patent/DE102015208584A1/de
Application granted granted Critical
Publication of DE102015208584B4 publication Critical patent/DE102015208584B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/375673-D vision, stereo vision, with two cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39476Orient hand relative to object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

Eine Greifvorrichtung, die beinhaltet: eine dreidimensionale Bildgebungseinrichtung, die dazu ausgestaltet ist, Werkstücke, die in großer Menge in einem Behälter enthalten sind, dreidimensional aufzunehmen; einen Roboterarm, der eine Hand aufweist, die dazu geeignet ist, ein Werkstück zu greifen; und eine Steuerungseinrichtung, die dazu ausgestaltet ist, eine Betätigung des Roboterarms zu steuern; wobei die Steuerungseinrichtung dazu ausgestaltet ist, eine Position und eine Stellung eines Zielwerkstücks, auf einem Aufnahmeergebnis der dreidimensionalen Bildgebungseinrichtung basierend, zu erkennen; eine Greifposition des Werkstücks und einen Näherungsvektor davon, auf der erkannten Positions- und Stellungsinformation basierend, zu erhalten; einen Kreuzungspunkt zwischen einer geraden Linie, die sich entlang des Näherungsvektors durch die Greifposition erstreckt, und einer Ebene, die eine Öffnung des Behälters beinhaltet, zu berechnen; und, auf einer Positionsbeziehung zwischen dem Kreuzungspunkt und der Öffnung basierend, zu bewerten, ob das Werkstück gegriffen werden kann oder nicht.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft eine Greifvorrichtung und ein Greifverfahren zum Greifen eines Werkstücks aus Werkstücken, die in großer Menge in einem Behälter enthalten sind.
  • STAND DER TECHNIK
  • Es ist eine Vorrichtung bekannt, die ein Zielwerkstück aus Werkstücken, die in großer Menge in einer Box enthalten sind, unter Verwendung einer dreidimensionalen Bilderkennungseinrichtung, die eine Position und eine Stellung eines Werkstücks erkennt, detektiert, die Informationen über die Position und die Stellung an eine Steuerung eines Roboterarms durch Kommunikationsmittel überträgt und das Werkstück durch Steuern einer Betätigung des Roboterarms, basierend auf der Information über die Position und die Stellung, greift.
  • Abhängig von der Position und der Stellung des Zielwerkstücks existiert die Möglichkeit, dass eine Hand des Roboterarms und die Box sich beim Greifen gegenseitig behindern, sodass die Hand oder die Box beschädigt wird. Beschädigung der Hand oder der Box senkt Arbeitseffizienz.
  • Um dieses Problem zu lösen, offenbart JP 2012-223845 A eine Vorrichtung, die dreidimensionale Poligondaten über eine Form der Hand des Roboterarms und eine Form der Box herstellt und eine Behinderung zwischen den Poligondaten der Hand und den Poligondaten der Box in Echtzeit überprüft.
  • DARSTELLUNG DER ERFINDUNG
  • Jedoch hat die Vorrichtung, die in JP 2012-223845 A beschrieben ist, die folgenden Nachteile. Es ist nämlich für diese Vorrichtung nötig, die Behinderung in Echtzeit während der Operation des Roboterarms zu bewerten. Zusätzlich, da eine Simulation vor der Operation auf Basis von mehreren Bewertungspositionen durchgeführt wird, ist die Simulation hochpräzise, aber nicht einfach oder zweckmäßig, da diese eine hohe Rechenleistung benötigt. Darüber hinaus wird jedes Mal eine Anpassung des Modells benötigt, wenn die Form der Hand oder die Form der Box geändert wird. Der Vorrichtung mangelt es an Vielseitigkeit.
  • Die vorliegende Erfindung wurde unter Betrachtung der obigen Umstände gemacht. Das Ziel der vorliegenden Erfindung ist es, eine Greifvorrichtung und ein Greifverfahren zur Verfügung zu stellen, die dazu geeignet sind, im Vorfeld also vor einer Operation eines Roboterarms zu bewerten, ob ein Werkstück ohne eine Behinderung mit einem Behältnis gegriffen werden kann oder nicht, und dazu geeignet sind, so eine Bewertung, ob ein Greifen möglich ist oder nicht, durch ein einfaches Verfahren zu erreichen, das kürzere Berechnungszeiten benötigt.
  • Die vorliegende Erfindung ist eine Greifvorrichtung, die beinhaltet: eine dreidimensionale Bildgebungseinrichtung, die dazu ausgestaltet ist, Werkstücke, die in großer Menge in einem Behälter enthalten sind, dreidimensional aufzunehmen; einen Roboterarm, der eine Hand aufweist, die dazu geeignet ist, ein Werkstück zu greifen; und eine Steuerungseinrichtung, die dazu ausgestaltet ist, eine Operation des Roboterarms zu steuern; wobei die Steuerungseinrichtung dazu ausgestaltet ist: eine Position und eine Stellung eines Zielwerkstücks auf Basis eines Aufnahmeergebnisses der dreidimensionalen Bildgebungseinrichtung zu erkennen, um eine Greifposition des Werkstücks und einen Näherungsvektor zu diesem auf Basis einer erkannten Positions- und Stellungsinformation zu erhalten; um einen Kreuzungspunkt zwischen einer geraden Linie, die sich entlang des Näherungsvektors durch die Greifposition erstreckt, und einer Ebene, die eine Öffnung des Behälters beinhaltet, zu berechnen; und um auf Basis einer Positionsbeziehung zwischen dem Kreuzungspunkt und der Öffnung zu bewerten, ob das Werkstück gegriffen werden kann oder nicht.
  • Entsprechend der vorliegenden Erfindung wird vor einer Operation des Roboterarms von der Steuerungseinrichtung bewertet, ob das Werkstück ohne eine Behinderung zwischen der Hand oder dem Werkstück, das durch die Hand gegriffen wird, und dem Behälter gegriffen werden kann oder nicht, wobei solch eine Bewertung, ob das Greifen möglich ist oder nicht, durch eine einfache Methode erreicht wird, die kürzere Berechnungszeiten erfordert. Folglich kann das Werkstück sicher und effizient ohne Beschädigen der Hand und des Behälters gegriffen werden.
  • Genauer gesagt, ist die Steuerungseinrichtung beispielsweise wie folgt konfiguriert: Bewerten, ob eine Bedingung, in welcher der Kreuzungspunkt innerhalb der Öffnung liegt und eine kürzeste Distanz zwischen dem Kreuzungspunkt und einem umfänglichen Teil, der die Öffnung definiert, größer als ein vorbestimmter Wert ist, erfüllt ist oder nicht; und zu verursachen, dass der Roboterarm das Werkstück greift, wenn die Bedingung erfüllt ist; oder nicht zu verursachen, dass der Roboterarm das Werkstück greift, wenn die Bedingung nicht erfüllt ist.
  • Vorzugsweise ist der vorbestimmte Wert das 1 bis 1,1-fache des größeren Werts einer maximalen Distanz zwischen der Greifposition und einem Profil des Werkstücks in einer Richtung, die orthogonal zu dem Näherungsvektor ist, und einer maximalen Distanz zwischen der Greifposition und einem Profil der Hand in der Richtung, die orthogonal zu dem Näherungsvektor ist. Entsprechend dieser Ausführungsform kann zuverlässig verhindert werden, dass die Hand, die linear entlang des Näherungsvektors bewegt wird, oder das Werkstück, das durch die Hand gegriffen wird, und der Behälter sich beim Greifen gegenseitig behindern.
  • Zusätzlich ist die Steuerungseinrichtung vorzugsweise dazu ausgestaltet, den Roboterarm zu betätigen, sodass die Hand in Kontakt mit einem umfänglichen Teil, der die Öffnung bildet, in Kontakt kommt, um dadurch eine Position des umfänglichen Teils zu erhalten. Entsprechend dieser Ausführungsform kann die Position des umfänglichen Teils, der die Öffnung bildet, einfach erhalten werden.
  • Alternativ beinhaltet die Greifvorrichtung ferner einen Sensor, der dazu ausgestaltet ist, eine Position eines Positionskennzeichnungsmarkers zu detektieren, der um die Öffnung angeordnet ist, wobei die Steuerungseinheit dazu ausgestaltet ist, eine Position eines umfänglichen Teils, das die Öffnung bildet, basierend auf einem Detektionsresultats des Sensors zu erhalten. Auch dieser Ausführungsform entsprechend, kann die Position des umfänglichen Teils, der die Öffnung bildet, einfach erhalten werden.
  • Zusätzlich betrifft die vorliegende Erfindung ein Greifverfahren, das beinhaltet: dreidimensionales Aufnehmen von Werkstücken, die in großer Menge in einem Behälter enthalten sind; und Steuerung einer Betätigung eines Roboterarms, der eine Hand aufweist, die dazu geeignet ist, ein Werkstück zu greifen; wobei die Steuerung der Betätigung des Roboterarms beinhaltet: Erkennen einer Position und einer Stellung eines Zielwerkstücks, auf der Basis eines Aufnahmeresultats des dreidimensionalen Aufnehmens; Erhalten einer Greifposition des Werkstücks und eines Näherungsvektors, basierend auf der erkannten Positions- und Stellungsinformation; Berechnen eines Kreuzungspunkts zwischen einer geraden Linie, die sich entlang des Näherungsvektors durch die Greifposition erstreckt, und einer Ebene, die eine Öffnung des Behälters beinhaltet; und Bewerten ob das Werkstück gegriffen werden kann oder nicht, basierend auf einer Positionsbeziehung zwischen dem berechneten Kreuzungspunkt und der Öffnung.
  • Entsprechend der vorliegenden Erfindung wird vor einer Betätigung des Roboterarms bewertet, ob das Werkstück ohne eine Behinderung zwischen der Hand oder dem Werkstück, das durch die Hand gegriffen wird, und dem Behälter gegriffen werden kann oder nicht, wobei eine solche Bewertung, ob das Greifen möglich ist oder nicht, durch eine einfache Methode erreicht wird, die eine kürzere Berechnungszeit benötigt. Folglich kann das Werkstück sicher und effizient ohne eine Zerstörung der Hand oder des Behälters gegriffen werden.
  • Genauer gesagt, beinhaltet zum Beispiel das Bewerten ob das Werkstück gegriffen werden kann oder nicht: Bewerten, ob eine Bedingung, in der der Kreuzungspunkt innerhalb der Öffnung liegt und eine kürzeste Distanz zwischen dem Kreuzungspunkt und einem umfänglichen Teil, der die Öffnung definiert, größer als ein vorbestimmter Wert ist, erfüllt ist oder nicht; und zu verursachen, dass der Roboterarm das Werkstück greift, wenn die Bedingung erfüllt ist; oder nicht zu verursachen, dass der Roboterarm das Werkstück greift, wenn die Bedingung nicht erfüllt ist.
  • Vorzugsweise ist der vorbestimmte Wert das 1 bis 1,1-fache des größeren Werts einer maximalen Distanz zwischen der Greifposition und einem Profil des Werkstücks in einer Richtung, die orthogonal zu dem Näherungsvektor ist, und einer maximalen Distanz zwischen der Greifposition und einem Profil der Hand in der, die Richtung orthogonal zu dem Näherungsvektor ist. Entsprechend dieser Ausführungsform kann zuverlässig verhindert werden, dass die Hand, die linear entlang des Näherungsvektors bewegt wird, oder das Werkstück, das durch die Hand gegriffen wird, und der Behälter sich beim Greifen gegenseitig behindern.
  • Zusätzlich beinhaltet das Greifverfahren vorzugseise ferner den Roboterarm zu betätigen, sodass die Hand in Kontakt mit einem umfänglichen Teil, der die Öffnung bildet, in Kontakt kommt, um dadurch eine Position des umfänglichen Teils zu erhalten. Entsprechend dieser Ausführungsform kann die Position des umfänglichen Teils, der die Öffnung bildet, einfach erhalten werden.
  • Alternativ beinhaltet die Greifvorrichtung ferner einen Sensor, der dazu ausgestaltet ist, eine Position eines Positionskennzeichnungsmarkers zu detektieren, der um die Öffnung angeordnet ist, wobei die Steuerungseinheit dazu ausgestaltet ist, eine Position eines umfänglichen Teils, der die Öffnung bildet, basierend auf einem Detektionsresultat des Sensors zu erhalten. Entsprechend dieser Ausführungsform kann die Position des umfänglichen Teils, der die Öffnung bildet, auch einfach erhalten werden.
  • KURZE BESCHREIBUNG DER FIGUREN
  • 1 ist eine schematische Strukturansicht, die eine Greifvorrichtung entsprechend einer Ausführungsform der vorliegenden Erfindung zeigt.
  • 2 ist eine vergrößerte schematische Ansicht, die eine Öffnung eines Behälters zeigt.
  • 3 ist eine schematische Ansicht zum Erklären eines Verfahrens zum Erhalten einer Gleichung einer Ebene, welche die Öffnung des Behältnisses beinhaltet.
  • 4 ist eine schematische Ansicht zum Erklären eines Schritts zum Erhalten eines Kreuzungspunkts zwischen einer geraden Linie, die parallel zu einem Näherungsvektor ist und eine Greifposition eines Werkstücks durchläuft, und der Ebene, welche die Öffnung des Behälters beinhaltet.
  • 5 ist eine schematische Ansicht zum Erklären eines Schritts zum Bewerten, ob eine Bedingung, in welcher der Kreuzungspunkt in der Öffnung liegt und eine kürzeste Distanz zwischen dem Kreuzungspunkt und einem umfänglichen Teil, der eine Öffnung bildet, größer als ein vorbestimmter Wert ist, erfüllt ist oder nicht.
  • 6 ist eine schematische Ansicht, die zeigt, dass der Kreuzungspunkt innerhalb der Öffnung liegt.
  • 7 ist eine schematische Ansicht, die zeigt, dass der Kreuzungspunkt außerhalb der Öffnung liegt.
  • 8 ist eine schematische Ansicht zum Erklären eines Abstands zwischen dem Kreuzungspunkt und dem umfänglichen Teil, der die Öffnung bildet.
  • 9 ist eine Querschnittsansicht eines Beispiels einer Hand und eines Werkstücks, die entlang einer Ebene, die orthogonal zum Näherungsvektor ist, gemacht wurde.
  • 10 ist eine Querschnittsansicht eines anderen Beispiels einer Hand und eines Werkstücks, die entlang einer Ebene, die orthogonal zum dem Näherungsvektor ist, gemacht wurde.
  • 11 ist ein Flowchart, das ein Greifverfahren entsprechend einer Ausführungsform der vorliegenden Erfindung zeigt.
  • DETAILBESCHREIBUNG DER ERFINDUNG
  • Eine Ausführungsform der vorliegenden Erfindung wird im Folgenden mit Bezug zu den beigefügten Zeichnungen detailliert erklärt.
  • 1 ist eine schematische Strukturansicht, die eine Greifvorrichtung entsprechend einer Ausführungsform der vorliegenden Erfindung zeigt. Wie in 1 gezeigt, beinhaltet die Greifvorrichtung 10 entsprechend dieser Ausführungsform eine dreidimensionale Bildgebungseinrichtung 11, die dazu ausgestaltet ist, Werkstücke dreidimensional abzubilden, die in großer Menge in einem Behälter 20 enthalten sind, einen Roboterarm 12, der eine Hand aufweist, die dazu geeignet ist, ein Werkstück 21 zu greifen, und eine Steuerungseinrichtung 14, die dazu ausgestaltet ist, eine Operation des Roboterarms 12 zu steuern.
  • Die dreidimensionale Bildgebungseinrichtung 11 ist per se als eine Bildgebungseinrichtung bekannt, die dazu geeignet ist, dreidimensionale Informationen eines Zielobjekts durch ein Verfahren wie zum Beispiel ein Stereoaufnahmeverfahren, ein optisches Schneidverfahren, ein Bandprojektionsverfahren und so weiter zu erhalten. Die dreidimensionale Bildgebungseinrichtung 11 ist so angeordnet, dass sie einer Öffnung 22 eines Behältners 20 zugewandt ist. Folglich kann die dreidimensionale Bildgebungseinrichtung 11 Werkstücke durch die Öffnung 22 dreidimensional abbilden, die in großer Menge in dem Behälter 20 enthalten sind.
  • 2 ist eine vergrößerte schematische Ansicht, welche die Öffnung 22 des Behälters zeigt. In dem dargestellten Beispiel hat die Öffnung 22 des Behälters 20 eine rechteckige Form, mit vier Spitzen B1, B2, B3 und B4. Ein umfänglicher Teil 23, der die Öffnung 22 bildet, besteht aus vier Linien. Hierbei liegen die jeweiligen Spitzen B1, B2, B3 und B4 in einem Laborsystem, das ein Referenzkoordinatensystem der Greifvorrichtung 10 ist, und sind in dieser Reihenfolge (B1, B2, B3, B4) um eine Z-Achse (Rechte-Hand-Regel) des Laborsystems definiert.
  • Wie in 1 gezeigt, beinhaltet die Steuerungseinrichtung 14 in dieser Ausführungsform eine Bilderkennungseinheit 15, eine Robotersteuerung 16 und einen Netzwerk-Hub 17, der die Robotersteuerung 16, die Bilderkennungseinheit 15 und die dreidimensionale Bildeinrichtung 11 kommunizierbar miteinander verbindet. Der Ethernet (Registered Trademark) Standard wird beispielsweise als ein geeigneter Kommunikationsverbindungsstandard angewendet.
  • Die Bilderkennungseinheit 15 ist dazu ausgestaltet, dreidimensionale Daten, die durch die dreidimensionale Bildgebungseinrichtung 11 aufgenommen wurden, durch den Netzwerk-Hub 17 auszulesen und ist dazu ausgestaltet, die dreidimensionalen Daten in einer Speichereinheit zu speichern. Die Bilderkennungseinheit 15 wird durch ein Computersystem, das eine Speichereinheit beinhaltet, die ein kommerziell erhältliches dreidimensionales Erkennungsprogramm oder dergleichen speichert, gebildet. Das dreidimensionale Bilderkennungsprogramm, das in der Speichereinheit gespeichert ist, ist dazu ausgestaltet, Werkstücke, die in großer Menge in dem Behälter 20 enthalten sind, zu analysieren auf Basis der dreidimensionalen Bilddaten, die von der dreidimensionalen Bildgebungseinrichtung 11 ausgelesen wurden, um daraus ein Teil (zum Beispiel Zielwerkstück) zu erhalten, das Bilddaten aufweist, die mit einer vorgespeicherten Modellwerkstückform konform sind, und eine Position und eine Stellung des empfangenen Teils zu erkennen.
  • Die Robotersteuerung 16 ist dazu ausgestaltet, die Informationen über die Position und die Stellung (Positions- und Stellungsinformationen), die durch die Bilderkennungseinheit 15 erkannt wurden, durch den Netzwerk-Hub 17 auszulesen. Basierend auf der Positions- und Stellungsinformationen, die von der Bilderkennungseinheit 15 ausgelesen wurden, ist die Robotersteuerung 16 dazu ausgestaltet, eine Greifposition des Zielwerkstücks 21 und einen Näherungsvektor desselben in dem Laborsystem zu erhalten. Der Näherungsvektor meint hierbei eine Richtung, in welche die Hand 13 des Roboterarms 12 die Greifposition des Werkstücks 21 beim Greifen linear erreicht. Basierend auf der Information über die Greifposition des Zielwerkstücks 21 und des Näherungsvektors desselben ist die Robotersteuerung 16 dazu ausgestaltet, eine Betätigung des Roboterarms 12 zu steuern.
  • Ein vertikaler Gelenkroboter, der per se bekannt ist, wird beispielsweise als Roboterarm 12 verwendet. In dem dargestellten Beispiel ist die Anzahl von Gelenken des Roboterarms 12 sechs (hexaxial). Eine Antriebsquelle (zum Beispiel Servomotor), der an jedem Gelenk vorgesehen ist, wird um eine gewünschten Wert durch eine Steuerungsausgabe von der Robotersteuerung 16 angetrieben, wobei der Roboterarm 12 so bewegt und/oder rotiert wird, dass ein distales Ende desselben in einer gewünschten Position mit einer gewünschten Haltung liegt.
  • Das distale Ende des Roboterarms 12 ist mit der Hand 13, die dazu geeignet ist, ein Werkstück 21 zu greifen, ausgestattet. Die Greifoperation kann hierbei eine Aufnahmeoperation durch eine magnetische Kraft oder einen negativen Druck und so weiter genauso wie eine Halteoperation wie eine Kneifoperation sein.
  • In dem dargestellten Beispiel hat die Hand 13 ein Paar von länglichen, beweglichen Elementen. Das Paar von länglichen beweglichen Elementen ist gegenüberliegend parallel zueinander angeordnet und ist zum Beispiel pneumatisch relativ zueinander beweglich. Wenn sich das Paar von länglichen, beweglichen Elementen einander nähert, wird ein Werkstück 21, das sich in einer Position zwischen dem Paar länglichen, beweglichen Elementen befindet, durch das Paar von länglichen, beweglichen Elementen gekniffen und gegriffen. Auf der anderen Seite, wenn das Paar von länglichen, beweglichen Elementen voneinander getrennt wird, wird das Werkstück 21, das zwischen dem Paar von länglichen, beweglichen Elementen gegriffen ist, freigegeben.
  • Eine Operation des Roboterarms 12, wenn dieser greift, wird beschrieben. Zuerst wird die Hand 13 an dem distalen Ende des Roboterarms 12 von einer vorbestimmten Stand-by Position zu einer Näherungsposition außerhalb des Behälters 20 bewegt. Die Näherungsposition meint hierbei eine vorbestimmte Position außerhalb des Behälters 20, die auf einer geraden Linie L liegt, die sich entlang des Näherungsvektors durch die Greifposition des Zielwerkstücks 21 (zum Beispiel eine Position, die von der Greifposition des Werkstücks 21 um 100 mm entfernt ist) erstreckt. An der Näherungsposition ist das Paar von länglichen, beweglichen Elementen der Hand 13 in einer Richtung orientiert, die sich entlang des Näherungsvektors erstreckt. Danach wird die Hand 13 linear von der Näherungsposition zu der Greifposition des Werkstücks entlang des Näherungsvektors bewegt, sodass das Zielwerkstück 21 in einer Position zwischen dem Paar von länglichen, beweglichen Elementen liegt. An der Greifposition des Werkstücks wird das Zielwerkstück 21 durch die Hand 13 gegriffen. Danach wird die Hand 13, die das Werkstück 21 greift, linear von der Greifposition des Werkstücks entlang des Näherungsvektors bewegt, um zu der Näherungsposition zurückzukehren. Danach wird die Hand 13 von der Näherungsposition zu der Stand-by Position oder einer vorbestimmten Freigabeposition des Werkstücks bewegt.
  • In dieser Ausführungsform ist die Robotersteuerung 16 dazu ausgestaltet, den Roboterarm 12 zu betätigen, sodass die Hand 13 in Kontakt mit dem umfänglichen Teil 23, der die Öffnung 22 des Behälters 20 bildet, zu bringen, um eine Position des umfänglichen Teils 23 in dem Laborsystem zu erhalten. Genauer gesagt betätigt die Robotersteuerung 16 den Roboterarm 12, sodass die Hand 13 in eine Nähe des umfänglichen Teils 23 des Behälters 20 gebracht wird. Durch Detektieren eines Druckkontakts, der durch Kontakt generiert wird, bewertet die Robotersteuerung 16, ob die Hand 13 in Kontakt mit dem umfänglichen Teil 23 gekommen ist oder nicht. Wenn bewertet wurde, dass die Hand 13 in Kontakt mit dem umfänglichen Teil 23 gekommen ist, wird ein Positionskoordinatenwert des umfänglichen Teils 23, der die Öffnung 22 bildet, von einem Positionskoordinatenwert der Hand 13 zu diesem Zeitpunkt erhalten.
  • Zusätzlich ist in dieser Ausführungsform die Robotersteuerung 16 dazu ausgestaltet, einen Kreuzungspunkt M zwischen einer geraden Linie L, die sich entlang des Näherungsvektors durch die Greifposition des Zielwerkstücks 21 erstreckt, und einer Ebene F, welche die Öffnung 22 beinhaltet, zu berechnen.
  • Ein Beispiel eines Verfahrens zum Berechnen des Kreuzungspunkts M wird beschrieben. Zuerst wird, wie in 3 gezeigt, eine Gleichung der Ebene F, welche die Öffnung 22 beinhaltet, von einer Position des umfänglichen Teils 23, der die Öffnung 22 bildet, erhalten. Speziell ist beispielsweise ein Normalenvektor N = (nx, ny, nz) der Ebene F ein äußeres Produkt eines Vektors von der Spitze B1 zu der Spitze B2 der Öffnung 22 und eines Vektors von der Spitze B1 zu der Spitze B4 und wird durch die folgende Gleichung (1) gezeigt.
    Figure DE102015208584A1_0002
  • Durch Verwenden eines Koordinatenwerts B1: (x1, y1, z1) in dem Laborsystem der Spitze B1 der Öffnung 22 wird eine Gleichung der Ebene F, die senkrecht zu dem Normalenvektor N durch die Spitze B1 ist, durch die folgende Gleichung (2) gezeigt. nx(x – x1) + ny(y – y1) + nz(z – z1) = 0 (2)
  • Danach, wie in 4 gezeigt, wird eine Gleichung der geraden Linie L, die sich entlang des Näherungsvektors durch die Greifposition des Werkstücks 21 erstreckt, erhalten. Speziell wird beispielsweise eine Stellungsmatrix Rabc des Werkstücks 21 von einer Position und einer Stellung Pwk erhalten: (xwk, ywk, zwk, awk, bwk, cwk) des Werkstücks 21, das durch die Bilderkennungseinheit 15 erkannt wurde. Hierbei zeigt (xwk, ywk, zwk) die Position (Ursprungsposition) des Werkstücks 21 in dem Laborsystem. Zusätzlich zeigt (awk, bwk, cwk) die Stellung des Werkstücks 21 in dem Laborsystem. Und zwar zweigt awk die Rotation um eine X-Achse des Laborsystems, bwk zeigt eine Rotation um eine Y-Achse des Koordinatensystems und cwk zeigt eine Rotation um eine Z-Achse des Laborsystems.
  • Genauer gesagt wird beispielsweise der „Z, Y, X Euler-Winkel-Ausdruck” als ein Stellungsausdruck des distalen Endes des Roboters angewendet und das Referenzkoordinatensystem (Laborsystem) „Σi” wird in der folgenden Reihenfolge rotiert. Und zwar wird das (i) Referenzkoordinatensystem „Σi” um die Z-Achse um cwk gedreht. (ii) Danach wird das gedrehte Koordinatensystem „Σi”” um die Y-Achse um bwk gedreht. (iii) Danach wird das rotierte Koordinatensystem „Σi”” um die X-Achse um awk gedreht.
  • Die jeweiligen Rotations-Matrizen der obigen Drehung (i) bis (iii) sind in der folgenden Gleichung (3) dargestellt).
    Figure DE102015208584A1_0003
    wobei sa = sin(awk), sb = sin(bwk), sc = sin(cwk), ca = cos(awk), cb = cos(bwk) und cc = cos(cwk).
  • In der Euler-Winkel-Schreibweise, da die Konvertierungs-Matrizen des rotierten Koordinatensystems von der rechten Seite nacheinander multipliziert werden, wird die Stellungsmatrix Rabc des Werkstücks 21 durch die folgende Gleichung (4) dargestellt.
    Figure DE102015208584A1_0004
  • Der Näherungsvektor des Werkstücks 21 ist der Z-Achsen-Vektor des Koordinatensystems, der die Stellung des Werkstücks 21 zeigt, und ist durch vZ = (r13, r23, r33) gegeben. Der Näherungsvektor des Werkstücks 12 ist zu einem Richtungsvektor der geraden Linie L äquivalent. Folglich, wenn die Greifposition des Werkstücks 21 mit der Ursprungsposition übereinstimmt, wird eine Gleichung der geraden Linie L durch die folgenden Gleichungen (5), (6) und (7) unter Verwendung eines Parameters t angegeben. x = xwk + t·r13 (5) y = ywk + t·r23 (6) z = zwk + t·r33 (7)
  • Um den Kreuzungspunkt M zwischen der Ebene F und der geraden Linie L zu erhalten, werden die Gleichungen (5), (6) und (7) in die Gleichung (2) eingesetzt und das Ergebnis wird nach t umgestellt, wodurch die folgende Gleichung (8) erhalten wird.
    Figure DE102015208584A1_0005
  • Durch jeweiliges Einsetzen der Gleichung (8) in die Gleichungen (5), (6) und (7) wird eine Kreuzungspunktkoordinate: (xM, yM, zM) zwischen der Ebene F und der geraden Linie L erhalten.
  • Zusätzlich ist in dieser Ausführungsform, wie in 4 gezeigt, die Robotersteuerung 16 dazu ausgestaltet, basierend auf einer Positionsbeziehung zwischen dem berechneten Kreuzungspunkt M und der Öffnung 22 zu bewerten, ob das Werkstück 21 gegriffen werden kann oder nicht.
  • Genauer gesagt ist zum Beispiel, wie in 5 gezeigt, die Robotersteuerung 16 dazu ausgestaltet, zu bewerten, ob eine Bedingung (die von nun an als Nicht-Behinderungsbedingung bezeichnet wird) erfüllt ist, bei welcher der Kreuzungspunkt M innerhalb der Öffnung 22 liegt und kürzeste Distanzen ΔL1, ΔL2, ΔL3, ΔL4 zwischen dem Kreuzungspunkt M und dem umfänglichen Teil 23, der die Öffnung 22 bildet, größer als ein vorbestimmter Wert Δr sind. Wenn die Bedingung erfüllt ist, ist die Robotersteuerung 16 dazu ausgestaltet, zu bewirken, dass der Roboterarm 12 das Werkstück 21 greift. Wenn die Bedingung nicht erfüllt ist, ist die Robotersteuerung 16 dazu ausgestaltet, nicht zu bewirken, dass der Roboterarm 12 das Werkstück 21 greift.
  • Wie in 9 gezeigt, ist, in einer Richtung orthogonal zu dem Näherungsvektor, wenn eine maximale Distanz Δrw zwischen der Greifposition C und einem Profil des Werkstücks 21 größer als ein maximaler Abstand Δrh zwischen der Greifposition C und einem Profil der Hand 13rw > Δrh) ist, ist der „vorbestimmte Wert Δr” vorzugsweise das 1 bis 1,1-fache der maximalen Distanz Δrw zwischen der Greifposition C und dem Profil des Werkstücks 21r = 1 × Δrw bis 1,1 × Δrw). Andererseits, wie in 10 gezeigt, ist, in der Richtung orthogonal zu dem Näherungsvektor, wenn die maximale Distanz Δrw zwischen der Greifposition C und dem Profil des Werkstücks 21 kleiner als die maximale Distanz Δrh zwischen der Greifposition C und dem Profil der Hand 13rw < Δrh) ist, ist der „vorbestimmte Wert Δr” vorzugsweise das 1 bis 1,1-fache der maximalen Distanz Δrh zwischen der Greifposition C und dem Profil der Hand 13r = 1 × Δrh bis 1,1 × Δrh). Wenn der vorbestimmte Wert Δr kleiner als das 1 fache ist, existiert eine Möglichkeit, dass die Hand 13 oder das Werkstück 21, das durch die Hand 13 gegriffen wird, sich mit dem Behälter 20 beim Greifen behindert. Auf der anderen Seite, wenn der vorbestimmte Wert Δr größer als 1,1 mal ist, erhöht sich ein Verhältnis von Werkstücken 21, die in der Nähe einer Seitenwand des Behälters 20 nicht gegriffen werden, was die Arbeitseffizienz verringert.
  • Als nächstes wird ein Beispiel eines Bewertens, ob die Nicht-Behinderungsbedingung erfüllt ist oder nicht, beschrieben. Zunächst wird, wie in 6 gezeigt, bewertet, ob eine Bedingung (erste Bedingung), in welcher der Kreuzungspunkt M innerhalb der Öffnung 22 liegt, erfüllt ist oder nicht. Genauer gesagt ist zum Beispiel in einem umfänglichen Teil 23, der die Öffnung 22 bildet, ein äußerer Produktvektor eines Gratvektors von der Spitze B1 zu der Spitze B2 und ein Vektor von der Spitze B1 zu dem Kreuzungspunkt M durch die folgende Gleichung (9) beschrieben.
    Figure DE102015208584A1_0006
  • Danach wird ein Z-Achsenwert des äußeren Produktvektors, der durch die obige Gleichung (9) erhalten wird, ausgewertet. Wenn der Z-Achsenwert gleich oder größer als Null ist, das heißt, wenn die folgende Gleichung (10) erfüllt ist, ist der Kreuzungspunkt M innerhalb der Öffnung 22 bezüglich dem Gratvektor von der Spitze B1 zu der Spitze B2, wie in 6 durch die Rechte-Hand-Regel gezeigt, gelegen.
    Figure DE102015208584A1_0007
  • Auf der anderen Seite, wenn der Z-Achsenwert des äußeren Produktvektors kleiner als Null ist, das heißt, wenn die folgende Gleichung (11) erfüllt ist, ist der Kreuzungspunkt M gegenüber der Öffnung 22 mit Bezug zu dem Fürstvektor von der Spitze B1 zu der Spitze B2, wie in 7 durch die Rechte-Hand-Regel gezeigt, gelegen.
    Figure DE102015208584A1_0008
  • Die anderen Gratvektoren des umfänglichen Teils 23, der die Öffnung 22 bildet, werden ähnlich ausgewertet. Und zwar werden die folgenden Gleichungen (12), (13) und (14) erhalten.
    Figure DE102015208584A1_0009
  • Danach wird bewertet, ob die folgende Gleichung (15) erfüllt ist oder nicht.
    Figure DE102015208584A1_0010
  • Wenn die obige Gleichung (15) erfüllt ist, ist der Kreuzungspunkt M innerhalb der Öffnung 22 gelegen. Auf der anderen Seite, wenn die obige Gleichung (15) nicht erfüllt ist, ist der Kreuzungspunkt M außerhalb der Öffnung 22 gelegen.
  • Als nächstes wird bewertet, ob eine Bedingung (zweite Bedingung), in der eine kürzeste Distanz zwischen dem Kreuzungspunkt M und dem umfänglichen Teil 23, der die Öffnung 22 bildet, größer als ein vorbestimmter Wert ist, erfüllt ist oder nicht. Genauer gesagt wird zum Beispiel in dem umfänglichen Teil 23, der die Öffnung 22 bildet, ein Winkel, der zwischen dem Gratvektor der Spitzte B1 zu der Spitze B2 und der Vektor von der Spitze B1 zu dem Kreuzungspunkt M definiert ist, wird durch die folgende Gleichung (16) erhalten.
    Figure DE102015208584A1_0011
  • Von der obigen Gleichung (16) wird eine kürzeste Distanz ΔL1 zwischen dem Gratvektor von der ersten Spitzte B1 zu der Spitze B2 und dem Kreuzungspunkt M durch die folgende Gleichung (17) erhalten.
    Figure DE102015208584A1_0012
  • Die anderen Gratvektoren des umfänglichen Teils 23, der die Öffnung 22 bildet, werden ähnlich ausgewertet. Und zwar werden die folgenden Gleichungen (18), (19) und (20) erhalten.
    Figure DE102015208584A1_0013
  • Danach werden kürzeste Distanzen ΔL2, ΔL3 und ΔL4 zwischen den anderen Gratvektoren des umfänglichen Teils 23, der die Öffnung 22 bildet, und dem Kreuzungspunkt M durch die folgenden Gleichungen (21), (22) und (23) erhalten.
    Figure DE102015208584A1_0014
  • Es wird bewertet, ob die jeweiligen kürzesten Distanzen ΔL1, ΔL2, ΔL3 und ΔL4 zwischen den jeweiligen Gratvektoren des umfänglichen Teils 23 und des Kreuzungspunkts M größer als ein vorbestimmter Wert Δr sind oder nicht. Wenn mindestens einer von ΔL1, ΔL2, ΔL3 und ΔL4 kleiner als der vorbestimmte Wert Δr ist, existiert eine Möglichkeit, dass die Hand 13 oder das Werkstück 21, das durch die Hand 13 gegriffen wird, durch den Behälter 20 behindert wird.
  • Folglich, wenn die vorgenannten erste und zweite Bedingung beide erfüllt sind, bewertet die Robotersteuerung 16, dass die Hand 13 oder das Werkstück 21, das durch die Hand 13 gegriffen wird, und der Behälter 20 sich nicht gegenseitig behindern und veranlasst den Roboterarm 12, das Werkstück 21 zu greifen. Auf der anderen Seite, wenn eine oder beide der ersten und zweiten Bedingung nicht erfüllt ist/sind, bewertet die Robotersteuerung 16, dass die Hand 13 oder das Werkstück 21, das durch die Hand 13 gegriffen wird, und der Behälter 20 sich gegenseitig behindern können und veranlasst den Roboterarm 12 nicht, das Werkstück 21 zu greifen.
  • In dieser Ausführungsform erhält die Robotersteuerung 16 eine Greifposition eines Zielwerkstücks und einen Näherungsvektor basierend auf Positions- und Stellungsinformationen, die durch die Bilderkennungseinheit 15 erkannt wurden. Jedoch, aber nicht darauf beschränkt, kann die Bilderkennungseinheit 15 eine Greifposition des Zielwerkstücks und einen Näherungsvektor zu dieser erhalten und die Robotersteuerung 16 kann durch den Netzwerk-Hub 17 die Information über die Greifposition und das Werkstück und den Näherungsvektor zu dieser auslesen, die durch die Bilderkennungseinheit erhalten wurden. Zusätzlich kann die Bilderkennungseinheit 15 den Kreuzungspunkt M zwischen der geraden Linie L, die sich entlang des Näherungsvektors durch die Greifposition des Zielwerkstücks 21 und der Ebene F, welche die Öffnung 22 beinhaltet, erstreckt, berechnen und kann bewerten, ob der Kreuzungspunkt M innerhalb der Öffnung 22 liegt oder nicht und ob die kürzeste Distanz zwischen dem Kreuzungspunkt M und dem umfänglichen Teil 23, der die Öffnung 22 bildet, größer als ein vorgegebener Wert Δr ist oder nicht. In diesem Fall kann die Robotersteuerung 16 durch den Netzwerk-Hub 17 das Ergebnis, das durch die Bilderkennungseinheit 15 bewertet wurde, auslesen.
  • Als nächstes wird eine Operation dieser Ausführungsform wie oben (Greifverfahren entsprechend einer Ausführungsform der vorliegenden Erfindung) mit Bezug zu 11 beschrieben.
  • Zuerst wird die Öffnung 22 des Behälters 20, der die Werkstücke in großer Menge enthält, positioniert, um der dreidimensionalen Bildgebungseinrichtung 11 der Greifvorrichtung 10 zugewandt zu sein.
  • Danach wird eine Betätigung des Roboterarms 12 durch die Robotersteuerung 16 gesteuert, sodass die Hand 13 des Roboterarms 12 in Kontakt mit dem umfänglichen Teil 23, der die Öffnung 22 des Behälters 20 bildet, gebracht wird, wodurch ein Positionskoordinatenwert des Laborsystems erhalten wird.
  • Danach wird ein Inneres des Behälters 20 mittels der dreidimensionalen Bildgebungseinrichtung 11 durch die Öffnung 22 dreidimensional abgebildet (Schritt S1). Das Abbildungsergebnis der dreidimensionalen Bildgebungseinrichtung 11 wird durch die Bilderkennungseinheit 15 über den Netzwerk-Hub 17 ausgelesen.
  • Die Bilderkennungseinheit 15 erkennt eine Position und eine Stellung des Zielwerkstücks basierend auf dem Abbildungsergebnis der dreidimensionalen Bildgebungseinrichtung 11 (Schritt S2). Genauer gesagt werden die Werkstücke, die in großer Menge in dem Behälter 20 enthalten sind, durch das dreidimensionale Bilderkennungsprogramm, das in der Speichereinheit der Bilderkennungseinheit 15 gespeichert ist, basierend auf den dreidimensionalen Bilddaten, die von der dreidimensionalen Bildgebungseinrichtung 11 ausgelesen wurden, analysiert. Aus diesen Werkstücken wird ein Teil (das heißt ein Zielwerkstück), das Bilddaten aufweist, die einer vorgespeicherten Modellwerkstückform entsprechen, erhalten und eine Position und eine Stellung des erhaltenen Teils werden erkannt. Positions- und Stellungsinformationen, die durch die Bilderkennungseinheit 15 erkannt wurden, werden durch die Robotersteuerung 16 über den Netzwerk-Hub 17 ausgelesen.
  • Die Robotersteuerung 16 erhält zum Beispiel mittels dem vorgenannten Verfahren basierend auf der Positions- und Stellungsinformationen eine Greifposition des Zielwerkstücks 21 und einen Näherungsvektor zu dieser in dem Weltkoordinatensystem, die durch die Bilderkennungseinheit 15 (Schritt S3) erkannt wurden.
  • Danach berechnet die Robotersteuerung 16 einen Kreuzungspunkt zwischen einer geraden Linie, die sich entlang des Näherungsvektors durch die Greifposition des Zielwerkstücks 21 erstreckt, und einer Ebene F, welche die Öffnung 22 beinhaltet mittels des vorgenannten Verfahrens, zum Beispiel (Schritt S4).
  • Danach wertet die Robotersteuerung 16 basierend auf einer Positionsbeziehung zwischen dem berechneten Kreuzungspunkt und der Öffnung 22 (Schritt S5) aus, ob das Zielwerkstücks 21 gegriffen werden kann oder nicht. Genauer gesagt bewertet die Robotersteuerung 16 zum Beispiel, ob die Bedingung (Nicht-Behinderungsbedingung), in welcher der Kreuzungspunkt M innerhalb der Öffnung 22 liegt und eine kürzeste Distanz zwischen dem Kreuzungspunkt M und dem umfänglichen Teil 23, der die Öffnung 22 bildet, größer als ein vorbestimmter Wert ist, erfüllt ist oder nicht.
  • Wenn die Nicht-Behinderungsbedingung als erfüllt bewertet wird, veranlasst die Robotersteuerung 16 den Roboterarm 12, das Werkstück 21 zu greifen (Schritt S6). Genauer gesagt steuert die Robotersteuerung 16 eine Betätigung einer Antriebseinheit von jedem Gelenk des Roboterarms 12, sodass die Hand 13 des Roboterarms 12 von einer Stand-by Position zu einer Näherungsposition bewegt wird und danach linear von der Näherungsposition zu einer Greifposition des Werkstücks entlang des Näherungsvektors bewegt wird. Zu diesem Zeitpunkt durchläuft die Hand 13 eine Position, die innerhalb der Öffnung 22 liegt und von dem umfänglichen Teil 23, der die Öffnung 22 bildet um den vorbestimmten Wert Δr oder mehr entfernt ist. Folglich wird eine Behinderung zwischen der Hand 13 und dem Behälter 20 verhindert. Danach, nachdem die Hand 13 das Werkstück 21 in der Greifposition das Werkstück gegriffen hat, wird die Hand 13 linear von der Greifposition des Werkstücks zu der Näherungsposition entlang des Näherungsvektors bewegt. Gleichzeitig wird zu diesem Zeitpunkt, da die Hand 13 eine Position durchläuft, die innerhalb der Öffnung 22 liegt und von dem umfänglichen Teil 23, der die Öffnung 22 bildet, um den vorbestimmten Wert Δr oder mehr entfernt ist, eine Behinderung zwischen der Hand 13 oder dem Werkstück 21, das durch die Hand 13 gegriffen ist, und dem Behälter 20 verhindert. Danach wird die Hand 13, die das Werkstück 21 greift, von der Näherungsposition zu der Stand-by Position oder einer vorbestimmten Freigabeposition des Werkstücks bewegt.
  • Auf der anderen Seite, wenn bewertet wurde, dass eine Bedingung nicht erfüllt ist, veranlasst die Robotersteuerung 16 den Roboterarm 12 nicht, das Werkstück 21 zu greifen. In diesem Fall werden die jeweiligen Schritte S1 bis S5 sequentiell für ein anderes Werkstück 21, das zu greifen ist, wiederholt.
  • Entsprechend der obigen Ausführungsform wird vor einer Betätigung des Roboterarms 12 bewertet, ob ein Werkstück 21 ohne eine Behinderung zwischen der Hand 13 oder dem Werkstück 21, das durch die Hand 13 gegriffen wurde, und dem Container 20 gegriffen werden kann oder nicht, vorher durch die Steuerungseinheit 14 bewertet, und so eine Bewertung, ob das Greifen möglich ist oder nicht, wird durch die einfache Methode erreicht, die geringere Berechnungszeiten benötigt. Folglich kann das Werkstück 21 sicher und effizient gegriffen werden, ohne die Hand 13 oder den Behälter 20 zu beschädigen.
  • Zusätzlich entsprechen diese Ausführungsformen, da ein vorbestimmter Wert Δr das 1 bis 1,1-fache eines größeren Werts der maximalen Distanz Δrw zwischen der Greifposition C und dem Profil des Werkstücks 21 in der Richtung, die orthogonal zu dem Näherungsvektor ist, und einer maximalen Distanz Δrh zwischen der Greifposition C und dem Profil der Hand 13 in der Richtung, die orthogonal zu dem Näherungsvektor ist, ist, kann zuverlässig verhindert werden, dass die Hand 13, die linear entlang des Näherungsvektors bewegt wird, oder das Werkstück 21, das durch die Hand 13 gegriffen wird, und der Behälter 20 sich gegenseitig beim Greifen behindern.
  • In dieser Ausführungsform ist die Steuerungseinheit 14 dazu ausgestaltet, basierend auf dem Fakt, dass die Bedingung, in welcher der Kreuzungspunkt M innerhalb der Öffnung 22 liegt und eine kürzeste Distanz zwischen Kreuzungspunkt M und dem umfänglichen Teil 23 der die Öffnung 22 bildet, größer als ein vorbestimmter Wert Δr ist, erfüllt ist oder nicht, zu bewerten, ob das Werkstück 21 gegriffen werden kann oder nicht. Jedoch kann, allerdings nicht darauf beschränkt, sogar wenn der berechnete Kreuzungspunkt M außerhalb der Öffnung 22 liegt, die Steuerungseinrichtung 14 bewerten, dass das Werkstück 21 durch geeignetes Ausführen einiger unterstützender Operationen wie einem Ändern einer Greifposition des Werkstücks 21 oder dergleichen gegriffen werden kann.
  • Zusätzlich kann in dieser Ausführungsform, wenn eine Position des umfänglichen Teils 23, der die Öffnung 22 bildet, erhalten wird, der Roboterarm 12 so betätigt werden, dass die Hand 13 in Kontakt mit dem umfänglichen Teil 23, der die Öffnung 22 bildet, gebracht wird, um dadurch den umfänglichen Teil 23 zu erhalten. Jedoch kann, allerdings nicht darauf beschränkt, beispielsweise ein Sensor (nicht dargestellt), der dazu ausgestaltet ist, eine Position eines Indizierungsmarkierers zu detektieren, der um die Öffnung 22 angeordnet ist, ferner vorgesehen sein und die Steuerungseinrichtung 14 kann eine Position des umfänglichen Teils 23, der die Öffnung 22 bildet, basierend auf einem Detektionsresultat des Sensors erhalten. In diesem Fall kann, obwohl nicht darauf beschränkt, ein optischer, elektronischer oder magnetischer Sensor als der Sensor verwendet werden. Alternativ kann die dreidimensionale Bildgebungseinrichtung 11 als der Sensor verwendet werden.
  • Bezugszeichenliste
  • 10
    Greifvorrichtung
    11
    dreidimensionale Bildgebungseinrichtung
    12
    Roboterarm
    13
    Hand
    14
    Kontrolleinrichtung
    15
    Bilderkennungseinheit
    16
    Robotersteuerung
    17
    Netzwerk-Hub
    20
    Behälter
    21
    Werkstück
    22
    Öffnung
    23
    umfänglicher Teil
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2012-223845 A [0004, 0005]

Claims (10)

  1. Greifvorrichtung, umfassend: eine dreidimensionale Bildgebungseinrichtung, die dazu ausgestaltet ist, dreidimensionale Bildaufnahmen von Werkstücken, die in großer Menge in einem Behälter enthalten sind, aufzunehmen; einen Roboterarm, der eine Hand aufweist, die dazu geeignet ist, ein Werkstück zu greifen; und eine Steuerungseinrichtung, die dazu ausgestaltet ist, eine Betätigung des Roboterarms zu steuern; wobei die Steuerungseinrichtung dazu ausgestaltet ist: eine Position und eine Stellung eines Zielwerkstücks, auf einem Bildaufnahmeergebnis der dreidimensionalen Bildgebungseinrichtung basierend, zu erkennen; eine Greifposition des Werkstücks und einen Näherungsvektor davon, auf einer bekannten Positions- und Stellungsinformation basierend, zu erhalten; einen Kreuzungspunkt zwischen einer geraden Linie, die sich entlang des Näherungsvektors durch die Greifposition erstreckt, und einer Ebene, die eine Öffnung des Behälters beinhaltet, zu berechnen und, auf einer Positionsbeziehung zwischen dem Kreuzungspunkt und der Öffnung basierend, zu bewerten, ob das Werkstück gegriffen werden kann oder nicht.
  2. Greifvorrichtung nach Anspruch 1, wobei die Steuerungseinheit dazu ausgestaltet ist: zu bewerten, ob eine Bedingung, in der der Kreuzungspunkt innerhalb der Öffnung liegt und eine kürzeste Distanz zwischen dem Kreuzungspunkt und einem umfänglichen Teil, der die Öffnung bildet, größer als ein vorbestimmter Wert ist, erfüllt ist oder nicht; und den Roboterarm zu veranlassen, das Werkstück zu greifen, wenn die Bedingung erfüllt ist; oder den Roboterarm nicht zu veranlassen, das Werkstück zu greifen, wenn die Bedingung nicht erfüllt ist.
  3. Greifvorrichtung nach Anspruch 2, wobei der vorbestimmte Wert das 1 bis 1,1-fache eines größeren Werts einer maximalen Distanz zwischen der Greifposition und einem Profil des Werkstücks in einer Richtung, die orthogonal zu dem Näherungsvektor ist, und einer maximalen Distanz zwischen der Greifposition und einem Profil der Hand, in der Richtung, die orthogonal zu dem Näherungsvektor ist, ist.
  4. Greifvorrichtung nach einem der Ansprüche 1 bis 3, wobei die Steuerungseinrichtung dazu ausgestaltet ist, den Roboterarm zu betätigen, sodass die Hand in Kontakt mit einem umfänglichen Teil, der die Öffnung bildet, gebracht wird, um dadurch eine Position des umfänglichen Teils zu erhalten.
  5. Greifvorrichtung nach einem der Ansprüche 1 bis 3, ferner einen Sensor umfassend, der dazu ausgestaltet ist, eine Position eines Positionskennzeichnungsmarkers zu detektieren, der um die Öffnung angeordnet ist, wobei die Steuerungseinheit dazu ausgestaltet ist, eine Position eines umfänglichen Teils, der die Öffnung bildet, basierend auf eine Detektionsresultat des Sensors zu erhalten.
  6. Greifverfahren, umfassend: Dreidimensionales Bildaufnehmen von Werkstücken, die in großer Menge in einem Behälter enthalten sind; und Steuerung einer Betätigung eines Roboterarms, der eine Hand aufweist, die dazu geeignet ist, ein Werkstück zu greifen; wobei die Steuerung der Betätigung des Roboterarms beinhaltet: Erkennen einer Position und einer Stellung eines Zielwerkstücks, auf einem Bildaufnahmeergebnis des dreidimensionalen Bildaufnehmens basierend; Erhalten einer Greifposition des Werkstücks und eines Näherungsvektors davon, auf der erkannten Positions- und Stellungsinformation basierend; Berechnen eines Kreuzungspunkts zwischen einer geraden Linie, die sich entlang des Näherungsvektors durch die Greifposition erstreckt, und einer Ebene, die eine Öffnung des Behälters beinhaltet; und, auf einer Positionsbeziehung zwischen dem Kreuzungspunkt und der Öffnung basierend, Bewerten, ob das Werkstück gegriffen werden kann oder nicht.
  7. Greifverfahren nach Anspruch 6, wobei das Bewerten, ob das Werkstück gegriffen werden kann oder nicht beinhaltet: Bewerten, ob eine Bedingung, in welcher der Kreuzungspunkt innerhalb der Öffnung liegt und eine kürzeste Distanz zwischen dem Kreuzungspunkt und einem umfänglichen Teil, der die Öffnung bildet, größer als ein vorbestimmter Wert ist, erfüllt ist oder nicht; und Veranlassen des Roboterarms, das Werkstück zu greifen, wenn die Bedingung erfüllt ist; oder Nicht-Veranlassen des Roboterarms, das Werkstück zu greifen, wenn die Bedingung nicht erfüllt ist.
  8. Greifverfahren nach Anspruch 7, wobei der vorbestimmte Wert das 1 bis 1,1-fache eines größere Werts einer maximalen Distanz zwischen der Greifposition und einem Profil des Werkstücks in einer Richtung, die orthogonal zu dem Näherungsvektor ist, und einer maximalen Distanz zwischen der Greifposition und einem Profil der Hand in der Richtung, die orthogonal zu dem Näherungsvektor ist, ist.
  9. Greifverfahren nach einem der Ansprüche 6 bis 8, ferner eine Betätigung des Roboterarms umfassend, sodass die Hand in Kontakt mit einem umfänglichen Teil, der die Öffnung bildet, gebracht wird, um dadurch eine Position des umfänglichen Teils zu erhalten.
  10. Greifverfahren nach einem der Ansprüche 6 bis 8, ferner umfassend: Detektieren einer Position eines P Positionskennzeichnungsmarkers, der um die Öffnung angeordnet ist; und Erhalten einer Position eines umfänglichen Teils, der die Öffnung bildet, auf einem Detektionsresultat des Detektierens basierend.
DE102015208584.8A 2014-05-08 2015-05-08 Greifvorrichtung und Greifverfahren Active DE102015208584B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-097129 2014-05-08
JP2014097129A JP5778311B1 (ja) 2014-05-08 2014-05-08 ピッキング装置およびピッキング方法

Publications (2)

Publication Number Publication Date
DE102015208584A1 true DE102015208584A1 (de) 2015-11-12
DE102015208584B4 DE102015208584B4 (de) 2019-05-09

Family

ID=54192728

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015208584.8A Active DE102015208584B4 (de) 2014-05-08 2015-05-08 Greifvorrichtung und Greifverfahren

Country Status (4)

Country Link
US (1) US9604364B2 (de)
JP (1) JP5778311B1 (de)
CN (1) CN105082133B (de)
DE (1) DE102015208584B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018205669A1 (de) * 2018-04-13 2019-10-17 Kuka Deutschland Gmbh Aufnehmen von Nutzlasten mittels eines robotergeführten Werkzeugs
DE112019000097B4 (de) * 2018-10-15 2020-12-17 Mujin, Inc. Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6642968B2 (ja) * 2014-03-20 2020-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6632208B2 (ja) * 2015-03-24 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
CN105665304A (zh) * 2016-02-01 2016-06-15 先驱智能机械(深圳)有限公司 物体的抓取与分拣***及分拣盘
CN106142082B (zh) * 2016-06-23 2018-07-10 苏州穿山甲机器人股份有限公司 机器人调整路径偏移的定位导航方法
JP6773588B2 (ja) 2017-03-10 2020-10-21 株式会社東芝 搬送装置
CN115385039A (zh) 2017-04-04 2022-11-25 牧今科技 控制装置、信息处理装置、控制方法以及信息处理方法
DE112017007394B4 (de) 2017-04-04 2020-12-03 Mujin, Inc. Informationsverarbeitungsvorrichtung, Greifsystem, Verteilersystem, Programm und Informationsverarbeitungsverfahren
DE112017007392B4 (de) 2017-04-04 2021-11-04 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
CN110494259B (zh) 2017-04-04 2020-11-10 牧今科技 控制装置、拾取***、物流***、程序、控制方法以及生产方法
DE112017007398B4 (de) 2017-04-04 2021-11-18 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm und Steuerverfahren
CN109540105A (zh) * 2017-09-22 2019-03-29 北京印刷学院 一种基于双目视觉的快递包裹抓取装置和抓取方法
JP6977634B2 (ja) * 2018-03-13 2021-12-08 オムロン株式会社 外観検査装置、外観検査方法及びプログラム
JP7118725B2 (ja) * 2018-04-27 2022-08-16 川崎重工業株式会社 ロボットの教示方法及びロボットの教示システム
CN110378636A (zh) * 2018-08-09 2019-10-25 北京京东尚科信息技术有限公司 一种交叉拣选方法和装置
CN109093625A (zh) * 2018-09-11 2018-12-28 国网山东省电力公司莱芜供电公司 一种用于机器人巡航的直线路径视觉识别方法
JP7204513B2 (ja) * 2019-02-13 2023-01-16 株式会社東芝 制御装置及びプログラム
JP7316114B2 (ja) * 2019-06-26 2023-07-27 ファナック株式会社 ワーク搬送装置
CN111687839B (zh) * 2020-06-03 2021-11-30 北京如影智能科技有限公司 一种夹取物品的方法及装置
TW202233370A (zh) 2021-02-18 2022-09-01 日商發那科股份有限公司 機器人系統及控制裝置
CN113478484B (zh) * 2021-07-01 2022-06-21 河南中烟工业有限责任公司 一种烟丝箱定位对中***以及方法
CN113910235A (zh) * 2021-10-29 2022-01-11 珠海格力智能装备有限公司 机器人抓取物料的碰撞检测方法、装置、设备和存储介质
CN114055472A (zh) * 2021-12-06 2022-02-18 珠海格力智能装备有限公司 机器人抓取控制方法、装置、存储介质和机器人
CN114700940B (zh) * 2022-03-24 2023-08-25 梅卡曼德(北京)机器人科技有限公司 抓取方法、装置及计算设备
WO2024019701A1 (en) * 2022-07-18 2024-01-25 Siemens Aktiengesellschaft Bin wall collision detection for robotic bin picking

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012223845A (ja) 2011-04-18 2012-11-15 Fanuc Ltd ロボットの着目部位と周辺物との干渉を予測する方法及び装置

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3525896B2 (ja) * 1999-03-19 2004-05-10 松下電工株式会社 3次元物体認識方法および同方法を使用したビンピッキングシステム
JP3377465B2 (ja) * 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3925020B2 (ja) 1999-12-21 2007-06-06 株式会社明電舎 ロボットの制御装置
JP3626400B2 (ja) * 2000-08-31 2005-03-09 株式会社東芝 ターゲットマーカを用いた対象物の位置計測方法及びロボットシステム
JP3782679B2 (ja) * 2001-05-09 2006-06-07 ファナック株式会社 干渉回避装置
CA2369845A1 (en) * 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
AU2003239171A1 (en) * 2002-01-31 2003-09-02 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
JP3768174B2 (ja) * 2002-07-24 2006-04-19 ファナック株式会社 ワーク取出し装置
JP4004899B2 (ja) * 2002-09-02 2007-11-07 ファナック株式会社 物品の位置姿勢検出装置及び物品取出し装置
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
JP3842233B2 (ja) * 2003-03-25 2006-11-08 ファナック株式会社 画像処理装置及びロボットシステム
JP3830477B2 (ja) * 2003-09-04 2006-10-04 ファナック株式会社 ワーク持ち替え装置
JP3834307B2 (ja) * 2003-09-29 2006-10-18 ファナック株式会社 ロボットシステム
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
SE529377C2 (sv) * 2005-10-18 2007-07-24 Morphic Technologies Ab Publ Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare
JP4087874B2 (ja) * 2006-02-01 2008-05-21 ファナック株式会社 ワーク取り出し装置
JP4153528B2 (ja) * 2006-03-10 2008-09-24 ファナック株式会社 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
WO2007130529A2 (en) * 2006-05-02 2007-11-15 Munroe Chirnomas Automated store for selling articles
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
JP4238256B2 (ja) * 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
US7313464B1 (en) * 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
JP4309439B2 (ja) * 2007-03-30 2009-08-05 ファナック株式会社 対象物取出装置
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
JP4516592B2 (ja) * 2007-12-06 2010-08-04 本田技研工業株式会社 移動型ロボット
DE102007060653A1 (de) * 2007-12-15 2009-06-18 Abb Ag Positionsermittlung eines Objektes
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP5282614B2 (ja) * 2009-03-13 2013-09-04 オムロン株式会社 視覚認識処理用のモデルデータの登録方法および視覚センサ
US8437537B2 (en) * 2009-03-27 2013-05-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for estimating 3D pose of specular objects
WO2011035723A1 (zh) * 2009-09-23 2011-03-31 Han Dingnan 一套人机交互方法及界面
JP5257335B2 (ja) * 2009-11-24 2013-08-07 オムロン株式会社 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
DE102009060551B4 (de) * 2009-12-23 2011-09-01 Deutsche Post Ag Sensorsystem zur Erfassung von Oberflächenstrukturen mehrerer Stückgüter
JP2011177863A (ja) * 2010-03-03 2011-09-15 Ihi Corp 把持装置
KR101743926B1 (ko) * 2010-09-20 2017-06-08 삼성전자주식회사 로봇 및 그 제어방법
FI20106090A0 (fi) * 2010-10-21 2010-10-21 Zenrobotics Oy Menetelmä kohdeobjektin kuvien suodattamiseksi robottijärjestelmässä
JP5630208B2 (ja) * 2010-10-25 2014-11-26 株式会社安川電機 形状計測装置、ロボットシステムおよび形状計測方法
US8165403B1 (en) * 2010-11-19 2012-04-24 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of specular objects
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
EP2745999A1 (de) * 2011-08-19 2014-06-25 Kabushiki Kaisha Yaskawa Denki Robotersystem, robotersteuerungsvorrichtung, roboterhand und verfahren zur robotersteuerung
JP5642738B2 (ja) * 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5469216B2 (ja) * 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
JP5670397B2 (ja) * 2012-08-29 2015-02-18 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5620445B2 (ja) * 2012-09-13 2014-11-05 ファナック株式会社 選択条件に基づいてロボットの保持位置姿勢を決定する物品取出装置
JP5664629B2 (ja) 2012-10-19 2015-02-04 株式会社安川電機 ロボットシステムおよび加工品の製造方法
JP5642759B2 (ja) * 2012-10-31 2014-12-17 ファナック株式会社 物品取出装置及び物品取出方法
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
JP5754454B2 (ja) * 2013-03-18 2015-07-29 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
JP5616478B1 (ja) * 2013-04-18 2014-10-29 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012223845A (ja) 2011-04-18 2012-11-15 Fanuc Ltd ロボットの着目部位と周辺物との干渉を予測する方法及び装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018205669A1 (de) * 2018-04-13 2019-10-17 Kuka Deutschland Gmbh Aufnehmen von Nutzlasten mittels eines robotergeführten Werkzeugs
DE102018205669B4 (de) 2018-04-13 2021-12-23 Kuka Deutschland Gmbh Aufnehmen von Nutzlasten mittels eines robotergeführten Werkzeugs
DE112019000097B4 (de) * 2018-10-15 2020-12-17 Mujin, Inc. Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
US11045948B2 (en) 2018-10-15 2021-06-29 Mujin, Inc. Control apparatus, work robot, non-transitory computer-readable medium, and control method
DE112019001256B3 (de) 2018-10-15 2022-08-18 Mujin, Inc. Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
US11839977B2 (en) 2018-10-15 2023-12-12 Mujin, Inc. Control apparatus, work robot, non-transitory computer-readable medium, and control method

Also Published As

Publication number Publication date
DE102015208584B4 (de) 2019-05-09
CN105082133A (zh) 2015-11-25
JP5778311B1 (ja) 2015-09-16
US20150321354A1 (en) 2015-11-12
JP2015213973A (ja) 2015-12-03
US9604364B2 (en) 2017-03-28
CN105082133B (zh) 2017-06-09

Similar Documents

Publication Publication Date Title
DE102015208584B4 (de) Greifvorrichtung und Greifverfahren
DE102014102943B4 (de) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE102016122678B4 (de) Werkstückpositions-/-Stellungsberechnungssystem und Handhabungssystem
DE112011103794B4 (de) Aufnehmervorrichtung für Werkstücke
DE102014016033B4 (de) Vorrichtung und Verfahren zum Aufnehmen von regellos verteilten Gegenständen mit einem Roboter
DE102013018222B4 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE102017108727B4 (de) Verfahren zur Erstellung einer Datenbank mit Greiferposen, Verfahren zum Steuern eines Roboters, computerlesbares Speichermedium und Handhabungssystem
DE102014005758B4 (de) Robotersystem, aufweisend einen Roboter zur Beförderung eines Werkstücks
DE102012007254B4 (de) Verfahren und Vorrichtung zum Vorausberechnen einer Behinderung zwischen einem Zielteil eines Roboters und einem peripheren Objekt
EP3020516B1 (de) Bestimmen von objektbezogenen greifräumen mittels eines roboters
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102016001174B4 (de) Robotersystem zum Entnehmen von Werkstücken mit Umrechenfunktion von Position und Orientierung und Verfahren zum Entnehmen von Werkstücken
DE102018116053A1 (de) Robotersystem und Roboterlernverfahren
DE102016000995A1 (de) Förderrobotersystem mit dreidimensionalem Sensor
DE102018112360B3 (de) Bereichsabhängige Kollisionsdetektion für einen Robotermanipulator
DE102021107568A1 (de) Adaptive planung von zugriffen zum aufheben von behältern
DE102021103726B4 (de) Messparameter-Optimierungsverfahren und -vorrichtung sowie Computersteuerprogramm
WO2018193130A1 (de) Verfahren zur erstellung einer datenbank mit greiferposen, verfahren zum steuern eines roboters, computerlesbares speichermedium und handhabungssystem
DE102021205324A1 (de) Greifverfahren und Greifvorrichtung eines Industrieroboters, Computerspeichermedium und Industrieroboter
DE102022130652A1 (de) Anlernen eines roboters durch vorführen mit visualservoing
DE102016120809B4 (de) Verfahren zum robotergestützten Einpassen eines männlichen Bauteils in ein weibliches Bauteil
DE102019007186A1 (de) Robotersystem und Robotersteuerungsverfahren für kooperatives Arbeiten mit Menschen
DE102018112370B4 (de) Richtungsabhängige Kollisionsdetektion für einen Robotermanipulator
EP3702108A1 (de) Verfahren zum ermitteln einer greifposition zum ergreifen eines werkstücks
DE102018124671B4 (de) Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final