DE102016115987A1 - Koordinatensystemeinstellungsverfahren, koordinatensystemeinstellungsvorrichtung und robotersystem mit koordinatensystemeinstellungsvorrichtung - Google Patents

Koordinatensystemeinstellungsverfahren, koordinatensystemeinstellungsvorrichtung und robotersystem mit koordinatensystemeinstellungsvorrichtung Download PDF

Info

Publication number
DE102016115987A1
DE102016115987A1 DE102016115987.5A DE102016115987A DE102016115987A1 DE 102016115987 A1 DE102016115987 A1 DE 102016115987A1 DE 102016115987 A DE102016115987 A DE 102016115987A DE 102016115987 A1 DE102016115987 A1 DE 102016115987A1
Authority
DE
Germany
Prior art keywords
coordinate system
conveyor
robot
coordinate
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102016115987.5A
Other languages
English (en)
Other versions
DE102016115987B4 (de
Inventor
Masafumi OOBA
Ichiro Kanno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102016115987A1 publication Critical patent/DE102016115987A1/de
Application granted granted Critical
Publication of DE102016115987B4 publication Critical patent/DE102016115987B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39106Conveyor, pick up article, object from conveyor, bring to test unit, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40554Object recognition to track object on conveyor
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)

Abstract

Eine Vorrichtung zum Einstellen eines Förderkoordinatensystems in einem Robotersystem. Die Vorrichtung umfasst Merkmale, die auf einem beweglichen Teil eines Förderers vorgesehen sind; einen Sensor, der auf einem Roboter vorgesehen ist; einen ersten Koordinatenerfassungsabschnitt, um den Sensor zu veranlassen, Positionen von zwei Merkmalen zu erfassen, wenn sich der bewegliche Teil in einer ersten Position befindet, und zwei erste Koordinaten in einem Basiskoordinatensystem des Roboters zu erhalten; einen Fördervorgangsausführungsabschnitt, um den beweglichen Teil zu veranlassen, einen Fördervorgang von der ersten Position zu einer zweiten Position durchzuführen; einen zweiten Kordinatenerfassungsabschnitt, um den Sensor zu veranlassen, eine Position eines Merkmals zu erfassen, wenn sich der bewegliche Teil in der zweiten Position befindet, und eine zweite Koordinate im Basiskoordinatensystem zu erhalten; und einen Koordinatensystembestimmungsabschnitt zum Bestimmen des Förderkoordinatensystems auf der Grundlage einer Förderbetriebsrichtung, zweier erster Koordinaten und einer zweiten Koordinate.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Einstellen eines Koordinatensystems (insbesondere eines Förderkoordinatensystems). Die vorliegende Erfindung betrifft auch ein Robotersystem, das mit einer Koordinatensystemeinstellungsvorrichtung versehen ist.
  • 2. Beschreibung des Standes der Technik
  • Ein System, das so konfiguriert ist, dass ein Sensor (z. B. ein Vision-Sensor) eine Position eines Artikels erfasst, der von einem Förderer transportiert wird, und ein Roboter den Artikel vom Förderer auf der Grundlage der erfassten Position aufnimmt. Ferner ist auch ein System bekannt, das so konfiguriert ist, dass ein Sensor (z. B. ein Fotozellensensor) eine Position einer Artikelschale, die durch einen Förderer transportiert wird, erfasst und ein Roboter einen Artikel auf der Artikelschale auf der Grundlage der erfassten Position absetzt. Bei dieser Art von Robotersystem wird im Allgemeinen ein Koordinatensystem (in der vorliegenden Anmeldung als ”Förderkoordinatensystem” bezeichnet), das eine vorbestimmte Beziehung zu einem Basiskoordinatensystem eines Roboters aufweist, als ein Koordinatensystem festgelegt, das für einen Förderer vorgesehen ist, um eine Position eines Artikels und/oder einer Artikelschale (in der vorliegenden Anmeldung allgemein als ein ”Objekt” bezeichnet) auf dem Förderer zu definieren.
  • Beispielsweise offenbart die japanische ungeprüfte Patentveröffentlichung Nr. H9-131683 A ( JP H9-131683 A ) einen Vision-Sensor und ein Robotersystem, welche so konfiguriert sind, dass ein Vision-Sensor die Positionen einer Vielzahl von Werkstücken erkennt, die von einem Förderer gefördert werden, und jeder von einer Mehrzahl von Robotern ein Werkstück durch einen Verfolgungsvorgang auf der Grundlage einer erkannten Position aufnimmt. Bei diesem System wird ein Verfolgungskoordinatensystem, das so konfiguriert ist, dass es mit einer Geschwindigkeit und in eine Richtung gleich jenen des Förderers versetzt wird, als ein Koordinatensystem zum Definieren der Position des Werkstücks auf dem Förderer eingestellt. Das Verfolgungskoordinatensystem ist an einer Anfangsposition vorgesehen, wobei der Ursprung stromaufwärts vom Basiskoordinatensystem des Roboters um einen vorbestimmten Abstand angeordnet ist und so eingestellt ist, dass seine X-Achse mit der Laufrichtung des Förderers zusammenfällt.
  • Andererseits verändert sich in einem Robotersystem, das einen Roboter und einen Förderer umfasst, infolge einer bereits erfolgten ergänzenden Arbeit, die für das Robotersystem durchgeführt wird, wie Wartung am Roboter und/oder Förderer, Verlagerung des Gesamtsystems an eine andere Stelle usw., manchmal eine Positionsbeziehung zwischen dem Roboter und dem Förderer zwischen vor und nach dem Ausführen der ergänzenden Arbeit. Wenn sich die Positionsbeziehung zwischen dem Roboter und dem Förderer ändert, ist es notwendig, einen für den Arbeitsvorgang angelernten Punkt, der dem Roboter angelernt wurde, zu korrigieren, bevor die ergänzende Arbeit ausgeführt wird, in Übereinstimmung mit der Änderung der Positionsbeziehung nach der Durchführung der ergänzenden Arbeit. Zum Beispiel offenbart das japanische Patent Nr. 3733364 B ( JP 3733364 B ) ein Verfahren zum Korrigieren einer angelernten Position, wobei es so konfiguriert ist, dass ein Vision-Sensor dreidimensionale Positionen von mindestens drei Punkten misst, die auf einem zu bearbeitenden Objekt definiert sind (d. h. einem Werkstück) oder an einem Halter desselben vor und nach dem örtlichen Umsetzen des Robotersystems durchgeführt wird, und dass Positionen der in einem Roboterbetriebsprogramm vorgesehenen angelernten Punkte, die vor Durchführung des Umsetzens angelernt worden sind, auf der Grundlage der gemessenen Positionsdaten korrigiert werden, um so eine Veränderung in einer Relativposition des Roboters zum Werkstück, die zwischen vor und nach dem Umsetzen entstanden ist, zu kompensieren.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Bei einem System mit einer Konfiguration, bei der eine Position eines von einem Förderer beförderten Objekts (z. B. eines Artikels, einer Artikelablageschale usw.) erfasst wird und ein Roboter eine Arbeit in Bezug auf das Objekt (z. B. eine Arbeit des Aufnehmens eines Artikels von einem Förderer, eine Arbeit des Anordnens eines Artikels auf einer Artikelträgerschale usw.) auf der Grundlage einer erfassten Position ausführt, ist es wünschenswert, es einfacher zu machen, in reproduzierbarer Weise ein Förderkoordinatensystem zum Definieren einer Position des Artikels auf dem Förderer einzustellen. Ferner wird es in dem Fall, in dem eine ergänzende Arbeit, wie beispielsweise eine Wartung oder eine Systemverlagerung für das bereits erwähnte System durchgeführt wird, angestrebt, es leichter zu machen, eine Rückstellung des Förderkoordinatensystems nach Durchführung der ergänzenden Arbeit durchzuführen.
  • Ein Aspekt der vorliegenden Erfindung ist ein Koordinatensystemeinstellungsverfahren, das konfiguriert ist, um ein Förderer-Koordinatensystem mit einer vorbestimmten Beziehung zu einem Basiskoordinatensystem eines Roboters als Koordinatensystem zum Definieren einer Position eines Objekts auf einem Förderer in einem System mit einer Konfiguration einzustellen, in der eine Position des vom Förderer beförderten Objekts erfasst wird und der Roboter eine Arbeit in Bezug auf das Objekt auf der Basis einer erfassten Position ausführt, wobei das Verfahren umfasst: Bereitstellen eines beweglichen Teils des Förderers mit einer Vielzahl von Merkmalen mit fester Positionsbeziehung zueinander, wobei der bewegliche Teil eine Objektförderoperation ausführt; Bereitstellen des Roboters mit einem Sensor, der dazu in der Lage ist, eine Position von jedem der Vielzahl von Merkmalen berührungslos zu erfassen; Erfassen von Positionen von mindestens zwei Merkmalen durch den Sensor, wenn sich der bewegliche Teil in einer ersten Betriebsposition befindet, und Übernehmen erfasster Positionen als mindestens zwei erste Koordinaten in das Basiskoordinatensystem; Veranlassen des Durchführens der Objektförderoperation von der ersten Betriebsposition zu einer zweiten Betriebsposition durch den beweglichen Teil; Erfassen einer Position mindestens eines Merkmals durch den Sensor, wenn sich der bewegliche Teil in der zweiten Betriebsposition befindet, und Übernehmen einer erfassten Position als mindestens eine zweite Koordinate in das Basiskoordinatensystem; und Bestimmen des Förderkoordinatensystems auf der Grundlage einer Richtung der Objektförderoperation, der mindestens zwei ersten Koordinaten und der mindestens einen zweiten Koordinate.
  • Das obige Koordinatensystemeinstellungsverfahren kann so konfiguriert sein, dass es ferner das Setzen einer Markierung an einem vorbestimmten Abschnitt eines unbeweglichen Teils des Förderers umfasst, wobei der unbewegliche Teil die Objektförderoperation nicht durchführt, wobei eine Position der Markierung durch den Sensor in einer berührungslose Weise erfassbar ist; Erfassen einer Position der Markierung durch den Sensor und Übernehmen einer erfassten Position als eine dritte Koordinate in das Basiskoordinatensystem; und Bestimmen des Förderkoordinatensystems unter Verwendung der dritten Koordinate als Ursprung des Förderkoordinatensystems.
  • Ein weiterer Aspekt der vorliegenden Erfindung ist eine Koordinatensystemeinstellungsvorrichtung, die konfiguriert ist, um ein Fördererkoordinatensystem mit einer vorbestimmten Beziehung zu einem Basiskoordinatensystem des Roboters als Koordinatensystem zum Definieren einer Position eines Objekts auf einem Förderer in einem System mit einer Konfiguration einzustellen, in der eine Position des von dem Förderer beförderten Objekts erfasst wird und der Roboter eine Arbeit in Bezug auf das Objekt auf der Basis einer erfassten Position ausführt, wobei die Vorrichtung eine Vielzahl von Merkmalen aufweist, die eine feste Positionsbeziehung zueinander aufweisen, wobei die Merkmale auf einem beweglichen Teil des Förderers vorgesehen sind, wobei der bewegliche Teil einen Objektfördervorgang ausführt; ein Sensor, der in der Lage ist, eine Position eines jeden der Vielzahl von Merkmalen berührungslos zu erfassen, wobei der Sensor auf dem Roboter vorgesehen ist; einen ersten Koordinatenübernahmeabschnitt, der konfiguriert ist, um den Sensor zu veranlassen, die Positionen von mindestens zwei Merkmalen zu erfassen, wenn sich der bewegliche Teil in einer ersten Betriebsposition befindet, und die erfassten Positionen als mindestens zwei erste Koordinaten im Basiskoordinatensystem zu übernehmen; ein Beförderungsausführungsabschnitt, der konfiguriert ist, um den bewegliche Teil zu veranlassen, den Objektfördervorgang von der ersten Betriebsposition zu einer zweiten Betriebsposition durchzuführen; ein zweiter Koordinatenübernahmeabschnitt, der konfiguriert ist, um den Sensor zu veranlassen, eine Position von mindestens einem Merkmal zu erfassen, wenn sich der bewegliche Teil in der zweiten Betriebsposition befindet, und eine erfasste Position als mindestens eine zweite Koordinate im Basiskoordinatensystem zu übernehmen; und ein Koordinatensystem-Bestimmungsabschnitt, der konfiguriert ist, um das Fördererkoordinatensystem auf der Grundlage einer Richtung der Objektförderoperation der mindestens zwei ersten Koordinaten und der mindestens einen zweiten Koordinate zu bestimmen.
  • Noch ein weiterer Aspekt der vorliegenden Erfindung ist ein Robotersystem mit einem Förderer; einem Objekterfassungsabschnitt, der konfiguriert ist, um eine Position eines von dem Förderer beförderten Objekts zu erfassen; mit einem Roboter, der konfiguriert ist, um eine Arbeit in Bezug auf das Objekt auf der Grundlage der Position durchzuführen, die von dem Objekterfassungsabschnitt erfasst wird; und mit der vorstehend erwähnten Koordinatensystemeinstellungsvorrichtung.
  • Gemäß dem Koordinatensystemeinstellungsverfahren gemäß einem Aspekt und gemäß einer Koordinatensystemeinstellungsvorrichtung des weiteren Aspekts ist es möglich, das Förderkoordinatensystem einzustellen, indem einfach der Förderer, der mit der Vielzahl von Merkmalen versehen ist, veranlasst wird, die Objektförderoperation von der ersten Betriebsposition in die zweite Betriebsposition auszuführen, und indem einfach den am Roboter vorgesehene Sensor veranlasst wird, die Position von mindestens zwei Merkmalen in der ersten Betriebsposition und die Position des mindestens einen Merkmals in der zweiten Betriebsposition zu erfassen. Daher ist es möglich, das Förderkoordinatensystem auf einfache Weise reproduzierbar einzustellen, ohne Bedienungsfähigkeit erforderlich zu machen.
  • Ferner ist es gemäß dem Robotersystem des weiteren Aspekts, das die vorstehend erwähnte Koordinatensystemeinstellungsvorrichtung umfasst, möglich, das Förderkoordinatensystem auf einfache Art und Weise in reproduzierbarer Weise einzustellen, ohne Fähigkeiten eines Bedieners anzufordern.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden Beschreibung der Ausführungsformen in Verbindung mit den beigefügten Zeichnungen deutlicher, wobei:
  • 1 eine Draufsicht ist, die schematisch die Konfiguration einer Ausführungsform eines Robotersystems zeigt;
  • 2 ein Blockdiagramm ist, das ein Beispiel der Hardwarekonfiguration eines Controllers des Robotersystems von 1 zeigt;
  • 3 ein Funktionsblockdiagramm ist, das die Konfiguration einer Ausführungsform einer Koordinatensystemeinstellungsvorrichtung zeigt;
  • 4 eine Draufsicht ist, die ein Beispiel eines Merkmals der Koordinatensystemeinstellungsvorrichtung von 3 zeigt;
  • 5 ein Flussdiagramm ist, das einen Koordinatensystemeinstellungsvorgang in einer Ausführungsform eines Koordinatensystemeinstellungsverfahrens zeigt;
  • 6 eine Draufsicht ist, die einen Positionserfassungsschritt im Koordinatensystemeinstellungsverfahren von 5 zeigt;
  • 7 eine Ansicht ist, die schematisch das Aussehen einer tatsächlichen Stelle zeigt, an der das Koordinatensystemeinstellungsverfahren von 5 durchgeführt wird;
  • 8 ein Funktionsblockdiagramm ist, das die Konfiguration einer weiteren Ausführungsform einer Koordinatensystemeinstellungsvorrichtung zeigt;
  • 9A eine Draufsicht ist, die ein Beispiel einer Markierung der Koordinatensystemeinstellungsvorrichtung von 8 zeigt;
  • 9B eine Ansicht ist, die die Markierung von 9A zusammen mit einem Koordinatensystem zeigt;
  • 10 ein Flussdiagramm ist, das einen Koordinatensystemeinstellungsvorgang in einer weiteren Ausführungsform eines Koordinatensystemeinstellungsverfahrens zeigt;
  • 11 ein Flussdiagramm ist, das einen Markierungserfassungsvorgang eines Markierungserfassungsschritts im Koordinatensystemeinstellungsverfahren von 10 zeigt;
  • 12 eine Ansicht ist, die schematisch einen Korrekturbetragsberechnungsschritt beim Markierungserfassungsvorgang von 11 zeigt;
  • 13 ein Flussdiagramm ist, das eine Koordinatensystemeinstellungsvorgang in einer weiteren Ausführungsform eines Koordinatensystemeinstellungsverfahrens zeigt;
  • 14 ein Flussdiagramm ist, das einen Koordinatensystemeinstellungsvorgang in einer weiteren Ausführungsform eines Koordinatensystemeinstellungsverfahrens zeigt;
  • 15 eine Ansicht ist, die schematisch das Aussehen einer tatsächlichen Stelle zeigt, an welcher der Koordinatensystemeinstellungsvorgang von 14 durchgeführt wird;
  • 16 ein Flussdiagramm ist, das einen Koordinatensystemeinstellungsvorgang in einer weiteren Ausführungsform eines Koordinatensystemeinstellungsverfahrens zeigt;
  • 17 ein Flussdiagramm ist, das einen Koordinatensystemeinstellungsvorgang in einer weiteren Ausführungsform eines Koordinatensystemeinstellungsverfahrens zeigt; und
  • 18 eine Ansicht ist, die schematisch einen Ursprungs-Transformationsschritt im Koordinatensystemeinstellungsvorgang von 17 zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • Ausführungsformen der vorliegenden Erfindung werden nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. In den Zeichnungen sind entsprechende Bauteile mit gleichen Bezugszeichen versehen.
  • 1 zeigt schematisch die Konfiguration einer Ausführungsform eines Robotersystems gemäß einem Aspekt der vorliegenden Erfindung. Das Robotersystem 10 gemäß dieser Ausführungsform umfasst einen Förderer 12, einen Objekterfassungsabschnitt 14, der konfiguriert ist, um eine Position eines vom Förderer 12 beförderten Objekts zu erfassen, und einen Roboter 16, der so konfiguriert ist, dass er eine Arbeit in Bezug auf das Objekt basierend auf der Position des vom Objekterfassungsabschnitt 14 erfassten Objekts ausführt.
  • In dieser Ausführungsform ist der Förderer 12 als ein Artikelzuführförderer 12 ausgebildet, der so konfiguriert ist, dass er eine Vielzahl von Artikeln R (d. h. Objekte) zu einem Arbeitsbereich des Roboters 16 befördert. Der Objekterfassungsabschnitt 14 weist eine Konfiguration eines Vision-Sensors auf, der so konfiguriert ist, um das Bild eines durch den Förderer 12 geförderten Artikels R einzufangen und die Position des Artikels R durch Bildverarbeitung zu erfassen. Der Roboter 16 führt eine Arbeit zum Aufnehmen des Artikels R vom Förderer 12 und zum Übertragen des Artikels zu einer anderen Stelle auf der Basis der Position des Artikels R, die durch den Objekterfassungsabschnitt 14 erfasst ist, durch. Im Robotersystem 10 sind zwei Roboter 16A, 16B so angeordnet, dass sie in Förderrichtung des Förderers 12 ausgerichtet sind, und zwei Austragsförderer 18A, 18B, die im allgemeinen als ”Austragsförderer 18” bezeichnet werden, sind so angeordnet, dass sie dem Förderer 12 benachbart sind, auf welche die Roboter 16A, 16B die von dem Förderer 12 aufgenommenen Artikel R übertragen.
  • Der Förderer 12 umfasst ein bekanntes Förderelement (d. h. ein beweglicher Teil), das in der Lage ist, die Vielzahl von Artikeln R in einer geeigneten Anordnung zu tragen und sie in eine Richtung (in der Zeichnung die Richtung eines Pfeils α) zu befördern, und einen bekannten Antriebsmechanismus, um das Förderelement kontinuierlich oder intermittierend anzutreiben. Das Robotersystem 10 ist mit einem Fördersensor 20 versehen, der so konfiguriert ist, dass er Förderbetriebsinformationen wie eine Betriebsposition des Förderers 12 erhält. Der Fördersensor 20 kann beispielsweise einen Codierer umfassen, der in der Lage ist, eine Position und/oder eine Geschwindigkeit des Förderelements oder des Antriebsmechanismus des Förderers 12 zu erfassen.
  • Jeder der Austragsförderer 18A, 18B umfasst ein bekanntes Förderelement (d. h. einen beweglichen Teil), das in der Lage ist, eine Artikelschale (nicht gezeigt) zu tragen, auf welcher der Artikel R in einer vorbestimmten Anordnung angeordnet ist, und in einer Richtung (in der Zeichnung, die Richtung eines Pfeils α) zu befördern, und einen bekannten Antriebsmechanismus, um das Förderelement kontinuierlich oder intermittierend anzutreiben. Bei dieser Ausführungsform ist die Förderrichtung α des Förderers 12 im Wesentlichen senkrecht zur Förderrichtung β des Austragsförderers 18A, 18B. Das Robotersystem 10 ist des Weiteren mit einem (nicht gezeigten) Förderersensor versehen, der so konfiguriert ist, dass er eine Förderbetriebsinformation wie etwa eine Betriebsposition jedes Austragsförderers 18 erhält. Der Fördersensor kann beispielsweise einen Codierer umfassen, der in der Lage ist, eine Position oder eine Geschwindigkeit des Förderelements oder des Antriebsmechanismus jedes Austragsförderers 18 zu erfassen.
  • Der Roboter 16 (erster Roboter 16A, zweiter Roboter 16B) kann einen mechanischen Teil (nicht gezeigt) aufweisen, der in geeigneter Weise aus verschiedenen bekannten mechanischen Teilen (d. h. Manipulatoren), wie einem gelenkigen Typ, einem Portaltyp, einem Parallelogrammgelenktyp und einem Handhaber (nicht gezeigt) ausgewählt ist, die geeigneterweise aus verschiedenen bekannten Handhabern ausgewählt ist, wie zum Beispiel einem Saugtyp, einem Greifertyp, usw. Der erste Roboter 16A, der in der Förderrichtung α des Förderers 12 stromaufwärts angeordnet ist, betreibt den mechanischen Teil und den Handhaber in dem vorbestimmten Arbeitsbereich des Roboters 16A, um einen beliebigen Artikel R unter den mehreren von dem Förderer 12 beförderten Artikeln R zu halten und aufzunehmen und den aufgenommenen Artikel zu dem Austragsförderer 18A zu übertragen. Der zweite Roboter 16B, der in der Förderbetriebsrichtung α des Förderers 12 stromabwärts angeordnet ist, betätigt den mechanischen Teil und den Handhaber in dem vorbestimmten Arbeitsbereich des Roboters 16B, um einen Artikel R, der nicht durch den ersten Roboter 16A aus der Vielzahl der Artikel R, die auf dem Förderer 12 befördert werden, aufgenommen worden ist, zu halten und aufzunehmen und den aufgenommenen Artikel zum Austragsförderer 18B zu übertragen. Der auf jeden der Austragsförderer 18 übertragene Artikel R wird in einer vorbestimmten Orientierung an einer vorbestimmten Stelle auf der vom Austragsförderer 18 beförderten Artikelschale (nicht gezeigt) abgesetzt und in Förderrichtung β transportiert.
  • Das Robotersystem 10 umfasst einen ersten Controller 22A, der so konfiguriert ist, dass er den ersten Roboter 16A steuert, und einen zweiten Controller 22B, der konfiguriert ist, dass er den zweiten Roboter 16B steuert. Der erste Controller 22A und der zweite Controller 22B können Daten über einen Netzwerkhub 24 und eine verdrahtete Leitung oder ein Kommunikationskabel 26 miteinander austauschen. Man beachte, dass das Kommunikationsmittel nicht auf das Kommunikationskabel 26 beschränkt ist. Details der Hardwarekonfiguration jedes Controllers 22A, 22B (allgemein als ”Controller 22” bezeichnet) werden später erläutert.
  • Der Objekterfassungsabschnitt 14 umfasst einen Bildaufnahmeabschnitt 28, wie eine CCD-Kamera, und einen Bildverarbeitungsabschnitt 30, der so konfiguriert ist, dass er eine Bildverarbeitung an zweidimensionalen Bilddaten durchführt, die durch den Bildaufnahmeabschnitt 28 erhalten werden. Der Bildaufnahmeabschnitt 28 ist an der stromaufwärtigen Seite des ersten Roboters 16A angeordnet, wie in Förderrichtung α des Förderers 12 gesehen, und weist ein Sichtfeld 32 (dargestellt durch eine strichpunktierte Linie) auf, das sich über einen vorbestimmten Bereich in der Förderbetriebsrichtung des Förderers 12 erstreckt. Der Bildaufnahmeabschnitt 28 erfasst von oben das Bild eines Artikels R und eines Teils des Förderers 12, die beide im Sichtfeld 32 vorhanden sind, und erhält die zweidimensionalen Bilddaten davon. Der Bildaufnahmeabschnitt 28 kann als Digitalkamera ausgebildet sein und kann willkürlich eine Auflösung und/oder einen Aufnahmebereich einstellen.
  • Der Bildverarbeitungsabschnitt 30 veranlasst, dass der Bildaufnahmeabschnitt 28 das Bild des Artikels R und des Förderers 12, die im Sichtfeld 32 vorhanden sind, aufnimmt und geeignet die zweidimensionalen Bilddaten verarbeitet, die durch den Bildaufnahmeabschnitt 28 erhalten werden, um so das Vorhandensein des Artikels R zu erfassen und Informationen über die Position (einen Koordinatenwert) und die Orientierung (einen Drehwinkel) eines jeweiligen Artikels R in einem vorbestimmten dreidimensionalen Koordinatensystem zu erhalten. Die Informationen, die durch den Bildverarbeitungsabschnitt 30 erhalten werden, enthalten üblicherweise Informationen über die Position und Orientierung eines Artikels R, müssen aber manchmal keine Informationen über die Ausrichtung eines Artikels R enthalten. In der vorliegenden Anmeldung werden nicht nur die Informationen über die Position und die Ausrichtung eines Artikels R verwendet, sondern auch die Information der Position eines Artikels R wird allgemein als ”Positionsinformation” bezeichnet.
  • Der Bildverarbeitungsabschnitt 30 ist als eine Funktion (d. h. Hardware und Software) des ersten Controllers 22A konfiguriert. Alternativ kann der Bildverarbeitungsabschnitt 30 als ein von dem ersten Controller 22A unabhängiges Bildverarbeitungsgerät konfiguriert sein. In jedem Fall wird die Positionsinformation eines Artikels R, der durch den Bildverarbeitungsabschnitt 30 aus den zweidimensionalen Bilddaten des Bildaufnahmeabschnitts 28 erhalten wird, kontinuierlich durch den ersten Controller 22A erhalten und auch kontinuierlich durch den zweiten Controller 22B durch die Netzwerkknoten 24 und das Kommunikationskabel 26 erhalten. Analog werden die vom Förderersensor 20 erfassten Förderbetriebsinformationen des Förderers 12 kontinuierlich durch den ersten Controller 22A und auch kontinuierlich durch den zweiten Controller 22B durch den Netzwerkhub 24 und die Kommunikationskabel 26 erhalten.
  • 2 zeigt ein Beispiel der Hardwarekonfiguration des ersten Controllers 22A. Der erste Controller 22A ist mit einer CPU 34 ausgestattet, die aus einem Mikroprozessor besteht. Die CPU 34 ist über einen Bus 46 mit einem ROM 36, einem RAM 38, einem SRAM 40, einem Datenspeicher 42 für einen digitalen Signalprozessor (DSP) und einem digitalen Signalprozessor (DSP) 44 verbunden. Das ROM 36 speichert ein Programm zum Steuern des gesamten Systems. Das RAM 38 speichert vorübergehend von der CPU 34 zu verarbeitende Daten. Das SRAM 40 speichert ein Betriebsprogramm und/oder Einstelldaten für den ersten Roboter 16A. Der DSP 44 ist ein Prozessor zum Verarbeiten des Ausgangssignals des Förderersensors 20 und der DSP-Datenspeicher 42 speichert die vom DSP 44 verarbeiteten Daten und/oder einen Einstellparameter. Der DSP 44 ist über ein Kabel 48 mit dem Förderersensor 20 verbunden und hat die Funktion, den Ausgang des Förderersensors 20 zu einem beliebigen Zeitpunkt gemäß einem Befehl von der CPU 34 zu erfassen und in einen vorbestimmten Bereich des DSP-Datenspeichers 42 zu schreiben.
  • Der erste Controller 22A umfasst einen Achsensteuerabschnitt 50 zum Steuern des ersten Roboters 16A. Der Achsensteuerabschnitt 50 ist über eine Servoschaltung 52 mit dem ersten Roboter 16A verbunden. Somit kann der erste Controller 22A den Betrieb des mechanischen Teils und/oder der Hand des ersten Roboters 16A steuern. Ferner umfasst der erste Controller 22A eine Kommunikationsschnittstelle 54 und eine I/O-Schnittstelle 56 und kann über diese Schnittstellen mit dem zweiten Controller 22B oder anderen Peripherieeinheiten kommunizieren.
  • Der erste Controller 22A umfasst ferner eine Überwachungsschnittstelle 60, an die ein extern installierter Monitor 58 angeschlossen ist, und eine Kameraschnittstelle 64, mit welcher der Bildaufnahmeabschnitt 28 über das Kabel 62 verbunden ist, als die Komponenten des Bildverarbeitungsabschnitts 30 (1). Die Überwachungsschnittstelle 60 und die Kameraschnittstelle 64 sind über den Bus 46 mit der CPU 34 verbunden. Das vom Bildaufnahmeabschnitt 28 aufgenommene Bild wird im RAM 38 über die Kameraschnittstelle 64 gespeichert. Die im RAM 38 gespeicherten Daten werden durch die CPU 34 analysiert und durch den Bildverarbeitungsabschnitt 30 als die Positionsinformation eines Artikels R empfangen. Der Bildverarbeitungsabschnitt 30 kann auch externe Merkmalsinformationen, wie eine Form und/oder eine Farbe, eines Artikels R aus den aufgenommenen Bilddaten erhalten, die im ROM 38 gespeichert sind. Das ROM 36 speichert verschiedene Einstellungsinformationen und/oder ein Analyseprogramm, das im Bildverarbeitungsabschnitt 30 vorgesehen ist. Auf diese Weise werden die CPU 34, das ROM 36 und das RAM 38 vom Bildverarbeitungsabschnitt 30 und von einem Robotersteuerabschnitt mit dem Achsensteuerabschnitt 50 gemeinsam genutzt.
  • Der zweite Controller 22B (1) verfügt über eine Konfiguration analog dem ersten Controller 22A, mit der Ausnahme, dass er nicht den Bildverarbeitungsabschnitt 30 umfasst. Insbesondere umfasst der zweite Controller 22B eine CPU 34, ein ROM 36, ein RAM 38, ein SRAM 40, einen DSP-Datenspeicher 42, einen DSP 44, einen Bus 46, einen Achsensteuerabschnitt 50, eine Servoschaltung 52, eine Kommunikationsschnittstelle 54 und eine I/O-Schnittstelle 56.
  • Wie in 1 gezeigt, ist ein dreidimensionales Förderkoordinatensystem 66, dessen X-Achse mit der Förderbetriebsrichtung α zusammenfällt, für den Förderer 12 als ein Koordinatensystem zum Festlegen der Position eines Artikels R auf dem Förderer 12 eingestellt. Das Koordinatensystem 66 ist als ein Koordinatensystem vorgesehen, welches in Richtung der X-Achse verschiebbar ist, um so dem Fördervorgang des Förderers 12 zu folgen. Andererseits ist ein dreidimensionales Basiskoordinatensystem 68 zur Festlegung der Position und/oder der Orientierung des mechanischen Teils und/oder der Hand für den Roboter 16 (erster Roboter 16A, zweiter Roboter 16B) eingestellt. Wenn eine gegenseitige Beziehung bezüglich der Position und Orientierung zwischen dem Förderkoordinatensystem 66 und dem Basiskoordinatensystem 68 vorher bestimmt worden ist, ist es dem ersten Controller 22A möglich, den ersten Roboter 16A in dem Förderkoordinatensystem 66 gemäß einem Befehl zu betreiben, der im Förderkoordinatensystem 66 vorgesehen ist, um so einen Artikel R auf dem Förderer 12 aufzunehmen, und es ist auch für den zweiten Controller 22B möglich, den zweiten Roboter 16B gemäß dem Befehl, der im Fördererkoordinatensystem 66 vorgesehen ist, im Förderkoordinatensystem 66 zu betreiben, um einen Artikel R vom Förderer 12 aufzunehmen. Ferner kann der Objekterfassungsabschnitt 14 den Bildaufnahmeabschnitt 28 im Förderkoordinatensystem 66 kalibrieren und dadurch die Positionsinformation eines erfassten Artikels R im Förderkoordinatensystem 66 ausdrücken.
  • Der Objekterfassungsabschnitt 14 führt die Bilderfassung und die Erfassung einer Vielzahl von Artikeln R durch, die sich durch den Objektfördervorgang des Förderers 12 mit einer Periode ”T” oder über jede reguläre Förderstrecke ”G” bewegen, was alle der Mehrzahl der Artikel R aufnehmbar und erfassbar werden lässt und die Positionsinformation jedes einzelnen der Artikel R im Förderkoordinatensystem 66 ergibt. Die Periode T und die Förderstrecke G sind jeweils als eine Periode und eine Förderstrecke definiert, welche es dem Bildaufnahmeabschnitt 28 ermöglichen, das gesamte Bild von jedem der Artikel R mindestens einmal im Sichtfeld 32 zu erfassen.
  • Als ein spezielles Beispiel werden bei einer Konfiguration, bei der die Länge des Sichtfeldes 32, gemessen entlang der Förderbetriebsrichtung α des Förderers 12 (d. h. entlang der X-Achsenrichtung des Förderkoordinatensystems 66), maximal 400 mm beträgt, die maximale Breite eines Artikels R in einer ebenen Form, von oberhalb des Förderers 12 gesehen, 100 mm beträgt und die Fördergeschwindigkeit des Förderers 12 200 mm/s beträgt, die Periode ”T” und die Förderstrecke ”G”, was eine einzelne ermöglicht Bildaufnahme eines Artikels R während eines Zeitraums von einem Augenblick an, wenn die Gesamtheit eines Artikels R in das Sichtfeld 32 kommt, zu einem Augenblick, wenn ein Teil des Artikels R außerhalb des Sichtfeldes 32 fällt, während er dem Objekffördervorgang des Förderers 12 folgt, jeweils wie folgt berechnet: T = (400 (mm) – 100 (mm))/200 (mm/s) = 1,5 (s) G = 400 (mm) – 100 (mm) = 300 (mm)
  • In dem Objekterfassungsabschnitt 14 erfasst der Bildaufnahmeabschnitt 28 die Bilder einer Vielzahl von Artikeln R, die durch den Förderer 12 zu den Arbeitsbereichen des ersten und des zweiten Roboters 16A, 16B mit der Periode T oder mit jeder regulären Förderstrecke G zugeführt werden und dadurch kann der Bildverarbeitungsabschnitt 30 alle Artikel R während einer Zeit erfassen, wenn sie in dem Sichtfeld 32 vorhanden sind, und die Positionsinformation jedes einzelnen der Artikel R erhalten.
  • Der erste Controller 22A erhält die vom Förderersensor 20 erfasste Förderbetriebsinformation (die Betriebsposition usw.) des Förderers 12 in Synchronisation mit der Bildaufnahmeoperation durch den Bildaufnahmeabschnitt 28 für die Artikel R mit der Periode T oder mit der jeweiligen Förderstrecke G und speichert die Information im DSP-Datenspeicher 42. Ferner erzeugt der erste Controller 22A einen Satz von Artikelinformationen, der durch Zusammenstellen der Positionsinformationen der Artikel R gebildet wird, die mit der Periode T oder mit der jeweiligen Förderstrecke G erfasst wurden, die Förderbewegungsinformationen des Förderers 12, die in Synchronisation mit der Periode T oder jedem Förderstrecke G erhalten werden, und die Artikel-IDs, welche die Artikel R durch Seriennummern darstellen, und, falls erforderlich, Informationen, die von anderen Sensoren als dem Objekterfassungsabschnitt 14 usw. erhalten werden. Der erste Controller 22A vergleicht kontinuierlich aktualisierte Förderbetriebsinformationen, die vom Förderersensor 20 gesendet werden, in Echtzeit mit den Förderbetriebsinformationen, die mit der Periode T oder jeder Förderstrecke G synchronisiert sind, der in dem Artikelinformationssatz enthalten ist, und macht es dadurch möglich, die gegenwärtige Position des Artikels R im Förderkoordinatensystem 66 zu erkennen. Der erste Controller 22A erzeugt einen Betriebsbefehl für den ersten Roboter 16A, um einen an der gegenwärtigen Position vorhandenen Artikel R zu halten und aufzunehmen, und steuert den ersten Roboter 16A durch den Betriebsbefehl und ermöglicht dadurch, dass der erste Roboter 16A den Artikel R aufnimmt. Der erste Controller 22A löscht die Positionsinformation des Artikels R, die von dem ersten Roboter 16A aufgenommen wurde, und überträgt die Positionsinformation des Artikels R, der nicht vom ersten Roboter 16A aufgenommen wurde, auf den zweiten Controller 22B aus dem Artikelinformationssatz, der erzeugt worden ist.
  • Der zweite Controller 22B arbeitet auf der Basis des Artikelinformationssatzes, der vom ersten Controller 22A übertragen wird, und analog zum ersten Controller 22A, um die kontinuierlich aktualisierte Echtzeit-Förderbetriebsinformation, die mit der Periode T oder mit der Förderbetriebsinformation synchronisiert ist, die in dem Artikelinformationssatz enthalten ist, zu vergleichen, und ermöglicht es somit, die gegenwärtige Position des Artikels R, der nicht durch den ersten Roboter 16A aufgenommen worden ist, zu erkennen. Der zweite Controller 22B erzeugt einen Betriebsbefehl für den zweiten Roboter 16B, um einen an der gegenwärtigen Position vorhandenen Artikel R zu halten und aufzunehmen, und steuert den zweiten Roboter 16B durch den Betriebsbefehl und ermöglicht dadurch dem zweiten Roboter 16B die Aufnahme des Artikels R. Man beachte, dass der Vorgang des Haltens und Aufnehmens der Artikel R durch den ersten Roboter 16A und den zweiten Roboter 16B als ein Verfolgungsvorgang ausgeführt werden kann, der konfiguriert ist, um den Objektfördervorgang des Förderers 12 zu verfolgen, oder in dem Zustand durchgeführt werden kann, wo der Förderer 12 vorübergehend gestoppt wird.
  • Zusätzlich zu der obigen Konfiguration ist das Robotersystem 10 mit einer Koordinatensystemeinstellungsvorrichtung 70 (3) ausgestattet, die konfiguriert ist, um ein Fördererkoordinatensystem 66 zum Definieren einer Position eines Objekts (oder eines Artikels R) auf dem Förderer 12 einzustellen, das durch den Förderer 12 gefördert wird. Die Konfiguration der Koordinatensystemeinstellungsvorrichtung 70 als eine Ausführungsform einer Koordinatensystemeinstellungsvorrichtung gemäß einem weiteren Aspekt der vorliegenden Erfindung wird nachfolgend unter Bezugnahme auf die 1 bis 4 erklärt.
  • Wie in 3 gezeigt, umfasst die Koordinatensystemeinstellungsvorrichtung 70 eine Vielzahl von Merkmalen 74, die eine feste Positionsbeziehung zueinander aufweisen, wobei die Merkmale 74 an einem beweglichen Teil (d. h. einem Förderelement) 72 des Förderers 12 vorgesehen sind, wobei der bewegliche Teil 72 einen Objektfördervorgang ausführt; einen Sensor 76, der in der Lage ist, eine Position eines jeden der Vielzahl von Merkmalen 74 berührungslos zu erfassen, wobei der Sensor 76 am Roboter 16 vorgesehen ist; einen ersten Koordinatenerfassungsabschnitt 78, der so konfiguriert ist, dass der Sensor 76 Positionen von mindestens zwei Merkmalen 74 erfassen kann, wenn sich der beweglichen Teil 72 in einer ersten Betriebsposition befindet und erfasste Positionen als mindestens zwei erste Koordinaten im Basiskoordinatensystem 68 erfasst (1); einen Förderbetriebsausführungsabschnitt 80, der konfiguriert ist, um den bewegliche Teil 72 zu veranlassen, den Objektfördervorgang von der ersten Betriebsposition zu einer zweiten Betriebsposition durchführen; einen zweiten Koordinatenerfassungsabschnitt 82, der konfiguriert ist, um zu bewirken, dass der Sensor 76 eine Position von mindestens einem Merkmal 74 erfasst, wenn sich der bewegliche Teil 72 in der zweiten Betriebsposition befindet, und eine erfasste Position als mindestens eine zweite Koordinate in der Basiskoordinatensystem 68 erhält; und einen Koordinatensystembestimmungsabschnitt 84, der konfiguriert ist, um das Förderkoordinatensystem 66 (1) auf der Grundlage einer Richtung des Objektfördervorgangs, der mindestens zwei ersten Koordinaten und der mindestens einen zweiten Koordinate zu bestimmen.
  • Wie in 4 gezeigt, kann jedes der Vielzahl von Merkmalen 74 ein Profil, ein Muster, eine Farbe usw. aufweisen, die durch den Sensor 76 erfasst und identifiziert werden können. Die Merkmale 74 können an vorbestimmten Positionen auf der Oberfläche einer flachen plattenartigen Einspannvorrichtung 86 ausgebildet sein, wie die Druckvorrichtung, durch verschiedene bekannte Techniken, wie beispielsweise Drucken, Stanzen, Plattieren, usw., hergestellt werden. In der in 4 gezeigten Ausführungsform sind zwei Merkmale 74A, 74B, die ein gegenseitig identisches kreisförmiges Profil mit innerem Kreuzmuster und wechselseitig unterschiedlichen Farben aufweisen, mit einer festen Positionsbeziehung auf der Oberfläche der Einspannvorrichtung 86 ausgebildet. In der Koordinatensystemeinstellungsvorrichtung 70 ist die Einspannvorrichtung 86, die mit zwei Merkmalen 74A, 74B versehen ist, zur Verwendung auf der Artikelstützfläche des beweglichen Teils 72 des Förderers 12 fest angeordnet. Unter der Voraussetzung, dass eine feste Positionsbeziehung aufrechterhalten werden kann, können in dieser Verbindung eine Vielzahl von Merkmalen 74, die jeweils an voneinander getrennten Elementen ausgebildet sind, ebenfalls verwendet werden.
  • Der Sensor 76 kann als ein Vision-Sensor ausgebildet sein, der die Position jedes Merkmals 74 auf dreidimensionale Weise erfassen kann. In der Koordinatensystemeinstellungsvorrichtung 70 erfasst der Sensor 76 die Position jedes Merkmals 74A, 74B auf der Einspannvorrichtung 86, die auf dem beweglichen Teil 72 des Förderers 12 angeordnet ist, als eine Position, die vom Roboter 16 durch eine bekannte dreidimensionale Messtechnik gesehen wird. Zu diesem Zweck kann der Sensor 76 eine Kamera 88 (1) mit einer abnehmbaren Konfiguration, wie zum Beispiel eine USB-Kamera, umfassen und kann so konfiguriert sein, um die Kamera 88 an einem vorderen Ende (z. B. der Handhaberbefestigungsfläche) des mechanischen Teils des Roboters 16 zur Verwendung zum Zeitpunkt des Einstellens des Förderkoordinatensystems 66 anzubringen. Alternativ dazu kann die Kamera 88 dauerhaft an einem Zwischenabschnitt des mechanischen Teils angebracht sein, der die Arbeit des Roboters 16 nicht stört.
  • Bei dem in 1 gezeigten Robotersystem 10 ist die Kamera 88 wahlweise entweder am ersten Roboter 16A oder am zweiten Roboter 16B angebracht und ist mit einem Programmierhandgerät 90 mit einer USB-Schnittstelle durch ein USB-Kabel 92 verbunden. Das Programmierhandgerät 90 ist durch das Programmierhandgerätkabel 94 mit dem ersten oder dem zweiten Controller 22A, 22B des ersten oder des zweiten Roboters 16A, 16B verbunden, an dem die Kamera 88 befestigt ist. Der Bediener kann das Programmierhandgerät 90 verwenden, um die Bilderfassungsoperation der Kamera 88, die an dem Roboter 16 befestigt ist, zu steuern. Die von der Kamera 88 aufgenommenen Bilddaten werden durch das Programmierhandgerät 90 zum ersten oder zum zweiten Controller 22A, 22B gesendet. Das Programmierhandgerät 90 kann auch eine Konfiguration haben, die es einem Bediener ermöglicht, den Förderer 12 anzuweisen, einen Objektfördervorgang auszuführen und/oder den Förderersensor 20 anzuweisen, einen Erfassungswert zu erhalten.
  • Wie in 2 gezeigt, ist der erste Controller 22A mit einer Programmierhandgerät-Schnittstelle 96 versehen, an die das Programmierhandgerät 90 angeschlossen ist. Die durch das Programmierhandgerät 90 gesendeten Bilddaten der USB-Kamera 88 werden im RAM 38 über die Programmierhandgerät-Schnittstelle 96 gespeichert und von der CPU 34 analysiert, um als Positionsdaten jedes Merkmals 74 erhalten zu werden. Folglich bilden die CPU 34, das ROM 36, das RAM 38 und die Programmierhandgerät-Schnittstelle 96 des ersten Controllers 22A den Bildverarbeitungsabschnitt des Sensors 76 in einem Fall, in dem die Kamera 88 am ersten Roboter 16A angebracht ist. Der zweite Controller 22B ist in analoger Weise mit einer Programmierhandgerät-Schnittstelle 96 versehen. Die CPU 34, das ROM 36, das RAM 38 und die Programmierhandgerät-Schnittstelle 96 des zweiten Controllers 22B bilden den Bildverarbeitungsabschnitt des Sensors 76 in einem Fall, wo die Kamera 88 am zweiten Roboter 16B angebracht ist.
  • Der erste Koordinatenerfassungsabschnitt 78, der zweite Koordinatenerfassungsabschnitt 82 und der Koordinatensystembestimmungsabschnitt 84 der Koordinatensystemeinstellungsvorrichtung 70 können in Abhängigkeit von der CPU 34 des Controllers 22 konfiguriert werden (erster Controller 22A, zweiter Controller 22B). Der Förderausführungsabschnitt 80 der Koordinatensystemeinstellungsvorrichtung 70 kann als eine Funktion einer CPU einer Steuereinheit (nicht gezeigt) zum Steuern des Antriebsmechanismus des Förderers 12 (oder alternativ einer CPU des Programmierhandgeräts 90) konfiguriert sein.
  • Die Koordinatensystemeinstellungsvorrichtung 70 mit der obigen Konfiguration kann ein Koordinatensystemeinstellungsverfahren gemäß einem anderen Aspekt der vorliegenden Erfindung durchführen. Das Koordinatensystemeinstellungsverfahren gemäß dem anderen Aspekt ist konfiguriert, um ein Förderkoordinatensystem mit einer vorbestimmten Beziehung zu einem Basiskoordinatensystem eines Roboters einzurichten, wobei das Förderkoordinatensystem als Koordinatensystem zum Definieren einer Position eines Objekts auf einem Förderer in einem System verwendet wird, das eine Konfiguration aufweist, in der eine Position des vom Förderer beförderten Objekts erfasst wird und der Roboter eine Arbeit in Bezug auf das Objekt auf der Grundlage einer erfassten Position ausführt, wobei das Verfahren die Schritte umfasst: Bereitstellen eines beweglichen Teils des Förderers mit einer Vielzahl von Merkmalen, die eine feste Positionsbeziehung zueinander haben, wobei der bewegliche Teil einen Objektfördervorgang ausführt; Bereitstellen des Roboters mit einem Sensor, der dazu in der Lage ist, eine Position von jedem der Vielzahl von Merkmalen berührungslos zu erfassen; Erfassen von Positionen von mindestens zwei Merkmalen durch den Sensor, wenn sich der bewegliche Teil in einer ersten Betriebsposition befindet, und Erhalten erfasster Positionen als mindestens zwei erste Koordinaten im Basiskoordinatensystem; Veranlassen des Durchführens des Objektfördervorgangs von der ersten Betriebsposition zu einer zweiten Betriebsposition durch den beweglichen Teil; Erfassen einer Position mindestens eines Merkmals durch den Sensor, wenn sich der bewegliche Teil in der zweiten Betriebsposition befindet, und Erhalten einer erfassten Position als mindestens eine zweite Koordinate in dem Basiskoordinatensystem; und Bestimmen des Förderkoordinatensystems auf der Grundlage einer Richtung des Objektfördervorgangs, der mindestens zwei ersten Koordinaten und der mindestens einen zweiten Koordinate.
  • Die Konfiguration einer Ausführungsform eines Koordinatensystemeinstellungsverfahrens, das durch die Koordinatensystemeinstellungsvorrichtung 70 durchgeführt wird, wird nachfolgend unter Bezugnahme auf die 5 und 6 sowie 1 bis 4 erklärt.
  • Bei einem in 5 gezeigten Koordinatensystemeinstellungsablauf wird zuerst bei Schritt S1 die Kamera 88 an einem vorbestimmten Abschnitt des Roboters 16 (dem ersten Roboter 16A oder dem zweiten Roboter 16B) angebracht und die Einspannvorrichtung 86 wird am beweglichen Teil 72 des Förderers 12 in einem angehaltenen Zustand angeordnet. Die Betriebsposition des beweglichen Teils 72, wenn die Einspannvorrichtung darauf angeordnet wird, ist als eine erste Betriebsposition definiert. In dieser Verbindung befindet sich die Einspannvorrichtung 86 auf der am weitesten stromaufwärtigen Seite in der Förderrichtung α des Förderers 12, vorausgesetzt, die Kamera 88 ist in der Lage, eine dreidimensionale Messung von zwei Merkmalen 74A, 74B durchzuführen. Die Einspannvorrichtung 86 ist in einer solchen Orientierung angeordnet, dass die gefluchtete Richtung von zwei Merkmalen 74A, 74B nicht mit der Förderbetriebsrichtung αα des Förderers 12 übereinstimmt. Wie beispielsweise in 6 gezeigt, ist die Einspannvorrichtung 86 in einer solchen Orientierung angeordnet, dass die gefluchtete Richtung von zwei Merkmalen 74A, 74B im Wesentlichen senkrecht zur Förderbetriebsrichtung α des Förderers 12 steht.
  • Als Nächstes wird in Schritt S2 der Wert (d. h. die erste Betriebsposition) E1 des Förderersensors 20 (1) zu dem Zeitpunkt, wenn die Vorrichtung 86 auf dem beweglichen Teil 72 angeordnet wird, erhalten (dies ist der Vorgang des ersten Koordinatenerfassungsabschnitts 78). Dann werden in Schritt S3 die Positionen der Mittelpunkte (d. h. die Mittelpunkte der kreuzförmigen Muster) von zwei Merkmalen 74A, 74B durch den Sensor 76 erfasst und die erfassten Positionen werden als zwei erste Koordinaten P1 (x1, y1, z1), P2 (x2, y2, z2) in dem Basiskoordinatensystem 68 (1) erhalten (dies ist der Vorgang des ersten Koordinatenerfassungsabschnitts 78).
  • Als Nächstes wird in Schritt S4 der bewegliche Teil 72 veranlasst, den Objektfördervorgang von der ersten Betriebsposition in Richtung α auszuführen, um so die Einspannvorrichtung 86 in die Förderrichtung α des Förderers 12 in die weitestmögliche stromabwärtige Position zu bewegen, vorausgesetzt, dass die Kamera 88 in der Lage ist, eine dreidimensionale Messung von zwei Merkmalen 74A, 74B durchzuführen, und der bewegliche Teil 72 wird an dieser Position gestoppt (dies ist der Vorgang des Beförderungsausführungsabschnitts 80). Die Betriebsposition des beweglichen Teils 72 bei Stillstand wird als zweite Betriebsposition definiert.
  • Als Nächstes wird in Schritt S5 der Wert (d. h. die zweite Betriebsposition) E2 des Förderersensors 20 (1) nach dem Bewegen der Einspannvorrichtung 86 in der Förderrichtung α erhalten (dies ist der Vorgang des zweiten Koordinatenerfassungsabschnitts 82). Dann wird in Schritt 56 die Position des Mittelpunkts (d. h. die Mitte des kreuzförmigen Musters) eines Merkmals 74A durch den Sensor 76 erfasst und die erfasste Position wird als eine einzige zweite Koordinate P3 (x3, y3, z3) in dem Basiskoordinatensystem 68 (1) eingespielt (dies ist der Vorgang des zweiten Koordinatenerfassungsabschnitts 82).
  • Als Nächstes wird in Schritt S7 das Förderkoordinatensystem 66 auf der Grundlage der Richtung α des Objektfördervorgangs, der beiden ersten Koordinaten P1, P2 und der einzelnen zweiten Koordinate P3 wie folgt bestimmt (dies ist der Vorgang des Koordinatensystembestimmungsabschnitts 84). Zuerst wird ein Maßstab ”S” (d. h. ein Koeffizient zum Umwandeln eines Wertes eines Codierers in einen Wert eines Koordinatensystems) des Codierers des Förderersensors 20 durch die Formel 1 unter Verwendung der ersten Betriebsposition ”E1”, der zweiten Betriebsposition ”E2”, der ersten Koordinate P1 und der zweite Koordinate P3 bestimmt.
  • Figure DE102016115987A1_0002
  • Hinsichtlich des Förderkoordinatensystems 66 wird die X-Achse (oder ein Grundvektor X) zunächst durch die Formel 2 unter Verwendung der ersten Koordinate P1 und der zweiten Koordinate P3 bestimmt. Die so bestimmte positive Richtung der X-Achse stimmt mit der Förderrichtung α des beweglichen Teils 72 überein (6).
  • Figure DE102016115987A1_0003
  • Bezüglich der Y-Achse (oder eines Grundvektors Y) und der Z-Achse (oder eines Grundvektors Z) wird zunächst durch die Formel 3 unter Verwendung der ersten Koordinaten P1 und P2 ein Vektor Y' bestimmt.
  • Figure DE102016115987A1_0004
  • Dann wird die Z-Achse (oder ein Fundamentalvektor Z) durch die Formel 4 bestimmt, und die Y-Achse (oder ein Grundvektor Y) wird durch die Formel 5 bestimmt, wobei beide das Kreuzprodukt verwenden.
  • Figure DE102016115987A1_0005
  • Die auf diese Weise ermittelte positive Richtung der Z-Achse ist als eine Richtung definiert, die von der Zeichenfläche von 6 vorsteht, während die positive Richtung der Y-Achse als eine Richtung von unten nach oben in der Zeichenfläche von 6 definiert ist. Nachdem die jeweiligen Grundvektoren der X-, Y- und Z-Achsen auf diese Weise bestimmt sind, wird das Förderkoordinatensystem 66 bestimmt, indem beispielsweise der Punkt P1 (x1, y1, z1) als Ursprung des Förderkoordinatensystems 66 definiert wird.
  • Nach der Bestimmung des Förderkoordinatensystems 66 wird in Schritt S8 die Kamera 88 von dem Roboter 16 (dem ersten Roboter 16A oder dem zweiten Roboter 16B) gelöst und die Einspannvorrichtung 86 wird vom beweglichen Teil 72 des Förderers 12 in einem gestoppten Zustand entfernt. Auf diese Weise ist der Einstellablauf des Förderkoordinatensystems 66 abgeschlossen.
  • Wenn der oben beschriebene Koordinatensystemeinstellungsablauf für den ersten Roboter 16A durchgeführt ist, ist es möglich, das Förderkoordinatensystem 66 einzustellen, in dem der erste Controller 22A den ersten Roboter 16A veranlasst, den Artikel R vom Förderer 12 aufzunehmen, während, wenn dies für den zweiten Roboter 16B durchgeführt wird, es möglich ist, das Förderkoordinatensystem 66 einzustellen, in dem der zweite Controller 22B den zweiten Roboter 16B veranlasst, den Artikel R vom Förderer 12 aufzunehmen.
  • 7 zeigt schematisch das Auftreten eines tatsächlichen Ortes, an dem das oben beschriebene Koordinatensystemeinstellungsverfahren durchgeführt wird. Die Kamera 88 ist an der Handbefestigungsfläche des mechanischen Teils des Roboters 16 befestigt und die Einspannvorrichtung 86 ist auf dem beweglichen Teil 72 des Förderers 12 angeordnet. Eine Bedienungsperson 98 verwendet das Programmierhandgerät 90, um so die Kamera 88 zu veranlassen, die Bilder der Merkmale 74A, 74B der Einspannvorrichtung 86 zu erfassen.
  • Gemäß der Koordinatensystemeinstellungsvorrichtung 70 mit der obigen Konfiguration und dem dazu analogen Koordinatensystemeinstellungsverfahren ist es möglich, das Förderkoordinatensystem 66 einzustellen, indem man einfach den mit zwei Merkmalen 74A, 74B versehenen Förderer 12 veranlasst, den Objektfördervorgang von der ersten Betriebsposition in die zweite Betriebsposition auszuführen, und indem man einfach den Sensor 76, der am Roboter 16 vorgesehen ist, veranlasst, die Positionen der beiden Merkmale 74A, 74B in der ersten Betriebsposition und die Position des einzelnen Merkmals 74A in der zweiten Betriebsposition zu erfassen. Daher ist es möglich, das Förderkoordinatensystem 66 in einfacher Weise reproduzierbar einzustellen, ohne Maschinführerfähigkeiten erforderlich zu machen.
  • In der obigen Konfiguration sind die entsprechenden Anzahlen der Roboter 16, der Controller 22 und der Austragsförderer 18, die in dem Robotersystem 10 umfasst sind, nicht auf zwei beschränkt, sondern können ein oder drei oder mehr betragen. Wenn die Anzahl der Roboter 16 zunimmt, ist es möglich, die Anzahl der Artikel R, die von dem Förderer 12 zum Austragsförderer 18 übertragen werden, oder die Übertragungsgeschwindigkeit derselben zu erhöhen. Auch ist die Anzahl der in der Koordinatensystemeinstellungsvorrichtung 70 vorgesehenen Merkmale 74 nicht auf zwei beschränkt, sondern kann drei oder mehr aufweisen. Mit zunehmender Anzahl der Merkmale 74 ist es möglich, die Einstellgenauigkeit des Förderkoordinatensystems 66 zu verbessern.
  • 8 zeigt eine Koordinatensystemeinstellungsvorrichtung 100 gemäß einer anderen Ausführungsform, die in dem Robotersystem 10 vorgesehen sein kann. Die Koordinatensystemeinstellungsvorrichtung 100 hat eine Konfiguration, die analog zu jener der oben erwähnten Koordinatensystemeinstellungsvorrichtung 70 ist, mit Ausnahme der Bereitstellung von einer Markierung 104, die zur Bestimmung des Ursprungs des Förderkoordinatensystems 66 verwendet wird. Dementsprechend werden Komponenten, die den Komponenten der Koordinatensystemeinstellungsvorrichtung 70 entsprechen, mit denselben Bezugszeichen bezeichnet und die detaillierten Erläuterungen davon werden nicht wiederholt.
  • Analog zur Koordinatensystemeinstellungsvorrichtung 70 umfasst die Koordinatensystemeinstellungsvorrichtung 100 eine Vielzahl von Merkmalen 74, die an einem beweglichen Teil 72 eines Förderers 12 vorgesehen sind, einen Sensor 76, der an einem Roboter 16 vorgesehen ist, einen ersten Koordinatenerfassungsabschnitt 78, der konfiguriert ist, um Positionen von wenigstens zwei Merkmalen 74, wenn sich der bewegliche Teil 72 in einer ersten Betriebsposition befindet, als mindestens zwei erste Koordinaten in einem Basiskoordinatensystem 68 (1) zu erfassen, einen Förderbetriebsausführungsabschnitt 80, der konfiguriert ist, um den beweglichen Teil 72 zu veranlassen, einen Objektfördervorgang von der ersten Betriebsposition zu einer zweiten Betriebsposition durchzuführen, einen zweiten Koordinatenerfassungsabschnitt 82, der konfiguriert ist, um eine Position von mindestens einem Merkmal 74, wenn sich der bewegliche Teil 72 in der zweiten Betriebsposition befindet, als mindestens eine zweite Koordinate im Basiskoordinatensystem 68 zu erfassen, und einen Koordinatensystembestimmungsabschnitt 84, der konfiguriert ist, um das Förderkoordinatensystem 66 (1) auf der Grundlage einer Richtung des Objektfördervorgangs, der mindestens zwei ersten Koordinaten und der mindestens einen zweiten Koordinate zu bestimmen.
  • Die Koordinatensystemeinstellungsvorrichtung 100 umfasst ferner eine Markierung 104, die an einem vorbestimmten Abschnitt eines unbeweglichen Teils (z. B. einer Rahmenkonstruktion zum Tragen eines Förderelements) 102 des Förderers 12 angeordnet ist, wobei der unbewegliche Teil den Objektfördervorgang nicht ausführt, wobei die Markierung durch den Sensor 76 berührungslos erkennbar ist, und einen dritten Koordinatenerfassungsabschnitt 106, der konfiguriert ist, um den Sensor 76 zu veranlassen, eine Position der Markierung 104 zu erfassen und eine erfasste Position als dritte Koordinate in dem Basiskoordinatensystem einzuspielen. Der Koordinatensystembestimmungsabschnitt 84 bestimmt das Förderkoordinatensystem 66 unter Verwendung der dritten Koordinate, die durch den dritten Koordinatenerfassungsabschnitt 106 als Ursprung des Förderkoordinatensystems 66 erfasst wurde. Es ist zu beachten, dass der dritte Koordinatenerfassungsabschnitt 106 der Koordinatensystemeinstellungsvorrichtung 100 als eine Funktion der CPU 34 des Controllers 22 (1) analog zum ersten Koordinatenerfassungsabschnitt 78, zum zweiten Koordinatenerfassungsabschnitt 82 und zum Koordinatensystem-Bestimmungsabschnitt 84 konfiguriert sein kann.
  • Wie in 9A gezeigt, kann die Markierung 104 ein Profil, ein Muster, eine Farbe usw. aufweisen, die durch den Sensor 76 erfasst und identifiziert werden können. Wie in 6 gezeigt, kann die Markierung 104 an einer vorbestimmten Position auf der Oberfläche des unbeweglichen Teils 102 durch verschiedene bekannte Techniken, wie beispielsweise Drucken, Stanzen, Plattieren usw., ausgebildet werden. Alternativ kann ein charakteristisches Element (Profil, Muster, Farbe, usw.), das im Wesentlichen auf der Oberfläche des unbeweglichen Teils 102 vorgesehen ist, als die Markierung 104 definiert werden. In der in 9A gezeigten Ausführungsform ist auf der Oberfläche des unbeweglichen Teils 102 eine einzelne Markierung 104 mit einem kreisförmigen Profil mit einem inneren Kreuzmuster und einem einzelnen geradlinigen Muster zum Bereitstellen der Richtcharakteristik für das kreuzförmige Muster ausgebildet. Wie in 9B gezeigt, ist es möglich, virtuell ein kartesisches Koordinatensystem mit einer V-Achse und einer W-Achse in die Markierung 104 mit zweidimensionaler Richtcharakteristik einzupassen.
  • Die Koordinatensystemeinstellungsvorrichtung 100 mit der obigen Konfiguration kann ein Koordinatensystemeinstellungsverfahren gemäß einem anderen Aspekt der vorliegenden Erfindung in Analogie zu der Koordinatensystemeinstellungsvorrichtung 70 durchführen. Die Konfiguration einer anderen Ausführungsform eines Koordinatensystemeinstellungsverfahrens, das durch die Koordinatensystemeinstellvorrichtung 100 durchgeführt wird, wird unten unter Bezugnahme auf 10 sowie die 8 bis 9B erläutert.
  • Bei einem in 10 gezeigten Koordinatensystemeinstellungsablauf werden während der Schritte S21 bis S26, welche die gleichen sind wie die Schritte S1 bis S6, in 5 gezeigt, zwei erste Koordinaten P1 (x1, y1, z1), P2 (x2, y2, z2) von zwei Merkmalen 74A, 74B und eine zweite Koordinate P3 (x3, y3, z3) eines Merkmals 74A erfasst. Als Nächstes wird in Schritt S27 die Position der Markierung 104 durch den Sensor 76 erfasst und die erfasste Position wird als eine dritte Koordinate P0 (x0, y0, z0) im Basiskoordinatensystem 68 erhalten (dies ist der Vorgang des dritten Koordinatenerfassungsabschnitts 106).
  • Als Nächstes werden in Schritt S28 die X-Achse, die Y-Achse und die Z-Achse des Förderkoordinatensystems 66 durch die vorstehend erwähnten Formeln 1 bis 5 auf der Grundlage der Richtung α des Objektfördervorgangs, der beiden ersten Koordinaten P1, P2 und der einzelnen zweiten Koordinate P3 bestimmt und das Förderkoordinatensystem 66 wird durch Definieren des Punktes P0 (x0, y0, z0) bestimmt, der beim Schritt S27 als der Ursprung des Förderkoordinatensystems 66 bestimmt wird (dies ist der Vorgang des Koordinatensystembestimmungsabschnitt 84). Der letzte Schritt S29 ist derselbe wie der Schritt S8 von 5. Auf diese Weise ist der Einstellablauf des Förderkoordinatensystems 66 abgeschlossen.
  • Gemäß der Koordinatensystemeinstellungsvorrichtung 100 mit der obigen Konfiguration und dem dazu analogen Koordinatensystemeinstellungsverfahren ist es möglich, dieselben Effekte wie jene der vorgenannten Koordinatensystemeinstellungsvorrichtung 70 zu zeigen. Zusätzlich ermöglicht es das Einstellen der Markierung 104 auf den unbeweglichen Teil 102 des Förderers 12 und das Erfassen der Position der Markierung 104 durch den Sensor 76, das Förderkoordinatensystem 66 mit dem durch die dritte Koordinate P0 der Markierung 104 definierten Ursprung einzustellen. Sobald die Markierung 104 auf den unbeweglichen Teil 102 des Förderers 12 eingestellt ist, ist es nicht mehr notwendig, die Position des Ursprungs zu überprüfen, wenn das Förderkoordinatensystem 66 eingestellt wird, so dass es möglich ist, das Förderkoordinatensystem 66 reproduzierbar einzustellen. In diesem Zusammenhang wird möglicherweise nur eine Markierung 104 benötigt, so dass es möglich ist, die Kamera 88 in geeigneter Weise zu bewegen und das Bild des Merkmals 74 oder der Markierung 104 zu erfassen, auch wenn der Arbeitsbereich eines Roboters relativ schmal ist.
  • Bei dem in 10 gezeigten Koordinatensystemeinstellungsablauf wird die Position der Markierung 104 bei Schritt S27 erfasst, alternativ ist es jedoch auch möglich, zusätzlich eine Orientierung der Markierung 104 durch den Sensor 76 in Schritt S27 zu erfassen. Der Erfassungsvorgang der Position und Ausrichtung der Markierung 104 in Schritt S27 wird unter Bezugnahme auf die 11 und 12 erklärt.
  • Bei dem in 11 gezeigten Markierungserfassungsablauf wird zuerst in Schritt S41 die Kamera 88 (1) an einem vorbestimmten Abschnitt des Roboters 16 (des ersten Roboters 16A oder des zweiten Roboters 16B) befestigt (oder alternativ wird der Zustand, an dem die Kamera 88 befestigt ist, am Roboter 16 bei Schritt S21 von 10 beibehalten). Als Nächstes wird in Schritt S42 der Roboter 16 entsprechend betätigt und dadurch wird die Kamera 88 vor der Markierung 104 in einer Position positioniert, die von der Markierung 104 um einen bestimmten Abstand beabstandet ist, und auf diese gerichtet. In diesem Zusammenhang wird ein Werkzeugkoordinatensystem definiert, bei dem eine Z-Achse durch die optische Achse der Kamera 88 definiert ist und der Ursprung durch die Position des Mittelpunktes der Markierung 104 (d. h. die Mitte des Kreuzmusters) definiert. Dann werden in Schritt S43 die Position und die Ausrichtung des Roboters 16 im Basiskoordinatensystem 68 (1) mit einer bekannten Beziehung mit dem Werkzeugkoordinatensystem als aktuelle Position Q aufgezeichnet.
  • Als Nächstes werden beim Schritt S44 im zweidimensionalen Bild der Kamera 88 die Position des Mittelpunkts der Markierung 104 und die positive Richtung der V-Achse (9B) erfasst (d. h. die Ausrichtung der Markierung 104) und aufgezeichnet. Die Erfassung der Position der Markierung 104 kann durch eine bekannte Musterabgleichungstechnik durchgeführt werden, wie beispielsweise ein normalisiertes Korrelationsverfahren, das konfiguriert ist, um ein Muster zu suchen, das mit einem zuvor registrierten Modellmuster von einem von der Kamera 88 aufgenommenen Bild übereinstimmt. Andererseits kann die Erfassung der positiven Richtung der V-Achse in einer solchen Weise durchgeführt werden, dass z. B. im normalisierten Korrelationsverfahren ein Modellmuster in einem Zustand angelernt wird, in dem die Richtung einer horizontalen Achse im zweidimensionalen Bild der Kamera 88 mit der Richtung der V-Achse der Markierung 104 zusammenfällt und somit die V-Achsenrichtung der Markierung 104 mit einem Rotationswinkel in Zusammenhang gebracht wird, der einer der Detektionsparameter der Musterabgleichung ist.
  • Als Nächstes wird in Schritt S45 der Roboter 16 so betätigt, dass er die Kamera 88 in der +X(plus X)-Achsenrichtung im Werkzeugkoordinatensystem mit einer bekannten Beziehung mit dem Basiskoordinatensystem 68 bewegt. Zu diesem Zeitpunkt wird, wenn die +X(plus X)-Achsenrichtung des Werkzeugkoordinatensystems nicht mit der +V(plus V)-Achsenrichtung der Markierung 104 auf dem Kamerabild übereinstimmt, die Markierung 104 auf dem Kamerabild in eine Richtung verschoben, die nicht parallel zur +V(plus V)-Achse ist, wie in 12 (die verschobene Markierung 104' ist dargestellt) gezeigt. Als Nächstes wird in Schritt S46 die Position des Mittelpunkts der verschobenen Markierung 104' auf dem Kamerabild erfasst und in einer Weise, die analog zu Schritt S44 ist, aufgezeichnet und in Schritt S47 wird die Verschiebungsrichtung der Markierung 104 auf dem Kamerabild auf der Grundlage der in den Schritten S44 und S46 aufgezeichneten Positionen der Markierungen 104, 104' berechnet.
  • Als Nächstes wird in Schritt S48 ein Korrekturbetrag θ (12) um die +Z(plus Z)-Achse des Werkzeugkoordinatensystems als ein Betrag berechnet, der eine Abweichung zwischen der +X(plus X)-Achsenrichtung des Werkzeugkoordinatensystems und der +V(plus V)-Achsenrichtung der Markierung 104 auf dem Kamerabild auf der Grundlage auf der Ausrichtung der in Schritt S44 aufgezeichneten Markierung 104 und der in Schritt S47 berechneten Verschiebungsrichtung der Markierung 104 darstellt. Dann wird in Schritt S49 der Absolutwert des Korrekturbetrags θ mit einem vorbestimmten Schwellenwert K verglichen und, wenn er kleiner als K ist, wird der Markierungspositionserfassungsablauf beendet. Wenn der Absolutbetrag des Korrekturbetrags θ gleich oder größer als der Schwellenwert K ist, wird der Roboter 16 in Schritt S50 von der aktuellen Position Q um den Korrekturbetrag θ bewegt, um so die Kamera 88 um den Winkel θ um die +Z(plus Z)-Achse des Werkzeugkoordinatensystems zu drehen. Danach werden nach Rückkehr auf Schritt S43 die Schritte S44 bis S49 erneut ausgeführt und es wird beurteilt, ob der Absolutwert des Korrekturbetrags θ kleiner als der Schwellenwert K wird. Bis das Ergebnis der Beurteilung von Schritt S49 zu JA wird, werden die Schritte S43 bis S50 wiederholt. In diesem Zusammenhang wird, obwohl es ideal ist, dass der Korrekturbetrag θ gegen Null konvergiert, der durch eine experimentelle Regel usw. bestimmte Schwellenwert K verwendet, da es schwierig ist, einen durch den Betrieb des Roboters 16 verursachten Fehler vollständig zu eliminieren usw.
  • Gemäß dem oben beschriebenen Markierungspositionserfassungsablauf wird zusätzlich zur Bestimmung der Koordinate P0 (x0, y0, z0) des Mittelpunkts der Markierung 104 im Basiskoordinatensystem 68 des Roboters 16 die Beziehung zwischen der Ausrichtung der Markierung 104 und der Ausrichtung des Basiskoordinatensystems 68 auf der Grundlage auf der Tatsache erkannt, dass die V-Achsenrichtung der Markierung 104 im Wesentlichen mit der X-Achsenrichtung des Werkzeugkoordinatensystems an der aktuellen Position Q des Roboters zusammenfällt. Wenn die obige Beziehung beibehalten wird, ist es möglich, je nach Bedarf eine Richtung oder Ausrichtung zu erkennen, in welcher die Markierung 104 oder der Förderer 12 in Bezug auf den Roboter 16 auf der Grundlage des Bildes der Kamera 88 angeordnet ist.
  • Wie zuvor bereits erwähnt, ändert im Robotersystem 10, in welchem der Roboter 16 eine Arbeit in Bezug auf den Förderer 12 durchführt, als Ergebnis einer ergänzenden Arbeit, die schon für das Robotersystem 10, das bereits eingestellt wurde, durchgeführt wurde, wie beispielsweise eine Wartung auf dem Förderer 12 und/oder des Roboters 16, die Verlagerung des Gesamtsystems an eine andere Stelle usw., sich manchmal eine Positionsbeziehung zwischen dem Förderer 12 und dem Roboter 16 zwischen, vor und nach der Durchführung der ergänzenden Arbeit. Die Koordinatensystemeinstellungsvorrichtung 100 kann so konfiguriert sein, dass in dem Fall, in dem eine ergänzende Arbeit, wie beispielsweise eine Wartung oder eine Systemverlagerung, für das bereits eingerichtete Robotersystem 10 durchgeführt wird, das Förderkoordinatensystem 66 nach der Durchführung der ergänzenden Arbeiten zurückgesetzt wird. Die Konfiguration einer weiteren Ausführungsform des Koordinatensystemeinstellungsverfahrens, die von der Koordinatensystemeinstellungsvorrichtung 100 durchgeführt wird, um das Förderkoordinatensystem 66 nach Durchführung der ergänzenden Arbeit zurückzusetzen, wird nachfolgend unter Bezugnahme auf 13 sowie 8 erläutert.
  • Ein Koordinatensystemeinstellungsablauf, der in 13 gezeigt ist, ist so konfiguriert, um das Förderkoordinatensystem 66 zurückzusetzen, um so eine Änderung der Positionsbeziehung zwischen dem Förderer 12 und dem Roboter 16 aufgrund der ergänzenden Arbeit (z. B. der Systemverlagerung) nach Beendigung der Einstellung des Förderkoordinatensystems 66 (d. h. die Bestimmung des Förderkoordinatensystems 66 in Schritt S28) durch den in 10 gezeigten Koordinatensystemeinstellungsablauf zu kompensieren. Zunächst wird in Schritt S61 die Kamera 88 (1) an einem vorbestimmten Abschnitt des Roboters 16 (des ersten Roboters 16A oder des zweiten Roboters 16B) angebracht. Bei diesem Koordinatensystemeinstellungsablauf werden die Verwendung der Einspannvorrichtung 86 und die Erfassung des Merkmals 74 im Koordinatensystemeinstellungsablauf von 10 nicht durchgeführt.
  • Als Nächstes werden in Schritt S62 die Position und die Ausrichtung der Markierung 104 in dem zweidimensionalen Bild der Kamera 88 in einer zu Schritt S44 aus 11 analogen Weise erneut erkannt oder neuerlich erfasst. Dann wird in Schritt S63 das Förderkoordinatensystem 66 auf der Grundlage eines Betrags der Änderung der Position und der Ausrichtung der Markierung 104 in einem Fall wiederum erfasst oder erneut erfasst, in dem die Position und die Ausrichtung der Markierung 104, die im Schritt S62 erneut erfasst worden sind, sich von der Position und der Ausrichtung der Markierung 104, die zum Zeitpunkt des Einstellens des Förderkoordinatensystems 66 erfasst wurden, vor dem Ausführen der ergänzenden Arbeit (d. h., erfasst im Schritt S27 von 10) geändert haben. Schließlich wird in Schritt S64 die Kamera 88 vom Roboter 16 abgenommen, wodurch der Rücksetzablauf des Förderkoordinatensystems 66 abgeschlossen ist.
  • In Schritt S63 wird das Förderkoordinatensystem 66 durch die Formel 6 neu bestimmt, wobei ”M1” eine Matrix bezeichnet, welche die Position und Orientierung der in Schritt S27 erfassten Markierung 104 darstellt, ”C1” eine Matrix bezeichnet, welche das Förderkoordinatensystem 66 darstellt, das bei Schritt S28 bestimmt wurde, ”M2” eine Matrix bezeichnet, welche die Position und Orientierung der in Schritt S62 erfassten Markierung 104 darstellt, und ”C2” eine Matrix bezeichnet, welche das im Schritt S63 bestimmte Förderkoordinatensystem 66 darstellt. C2 = (M2·M1–1)·C1 Formel 6
  • Gemäß der Koordinatensystemeinstellungsvorrichtung 100 mit der obigen Konfiguration und dem dazu analogen Koordinatensystemeinstellungsverfahren ist es ergänzend zu den vorgenannten Effekten möglich, das Förderkoordinatensystem 66 durch einfaches Erfassen der Position und Orientierung der Markierung 104 zurückzusetzen, so dass in dem Fall, in dem eine ergänzende Arbeit, wie beispielsweise eine Wartung oder eine Systemverlagerung, für das bereits eingestellte Robotersystem 10 durchgeführt wird, es möglich ist, das Zurücksetzen des Förderkoordinatensystems 66 nach Durchführung der ergänzenden Arbeit leicht auszuführen.
  • In einer Konfiguration, in der das Robotersystem 10 mit dem Objekterfassungsabschnitt 14 (insbesondere dem Bildaufnahmeabschnitt 28) in einer festen Positionsbeziehung mit Bezug auf den Roboter 16 versehen ist, wobei der Objekterfassungsabschnitt konfiguriert ist, um eine Position eines Objekts (oder eines Artikels R), das(der) von dem Förderer 12 gefördert wird, infolge einer ergänzenden Arbeit, wie Wartung oder Systemverlagerung, die für das bereits etablierte Robotersystem 10 durchgeführt wurde, zu erfassen, ändert sich manchmal eine Positionsbeziehung zwischen dem Förderer 12 und dem Bildaufnahmeabschnitt 28 zwischen vor und nach dem Ausführen der ergänzenden Arbeit. Wenn sich die Positionsbeziehung zwischen dem Förderer 12 und dem Bildaufnahmeabschnitt 28 ändert, ist es notwendig, nach dem Ändern der Positionsbeziehung ein Koordinatensystem des Bildaufnahmeabschnitts 28 (in der vorliegenden Anmeldung als ”Kamerakoordinatensystem” bezeichnet) erneut zu bestimmen, das durch Ausführen einer Kalibrierung des Bildaufnahmeabschnitts 28 im Förderkoordinatensystem 66 vor der Änderung bestimmt wurde. Die Koordinatensystemeinstellungsvorrichtung 100 kann so konfiguriert sein, dass im Fall, wo für das bereits eingerichtete Robotersystem 10 eine ergänzende Arbeit, wie beispielsweise eine Wartung oder eine Systemverlagerung, durchgeführt wird, das Kamerakoordinatensystem des Bildaufnahmeabschnittes 28 nach Durchführung der ergänzenden Arbeit zurückgesetzt wird. Die Konfiguration einer weiteren Ausführungsform des Koordinatensystemeinstellungsverfahrens, das von der Koordinatensystemeinstellungsvorrichtung 100 durchgeführt wird, um das Kamerakoordinatensystem nach Durchführung der ergänzenden Arbeit zurückzusetzen, wird nachfolgend unter Bezugnahme auf 14 sowie 8 erläutert.
  • Ein Koordinatensystemeinstellungsablauf, der in 14 gezeigt ist, ist konfiguriert, um das Kamerakoordinatensystem des Bildaufnahmeabschnitts 28 zurückzusetzen, um so eine Änderung in der Positionsbeziehung zwischen dem Förderer 12 und dem Objekterfassungsabschnitt 14 (insbesondere dem Bildaufnahmeabschnitt 28) aufgrund der ergänzenden Arbeit (z. B. die Systemverlagerung) zu kompensieren, nachdem die Einstellung des Förderkoordinatensystems 66 (d. h. die Bestimmung des Förderkoordinatensystems 66 in Schritt S28) durch den in 10 gezeigten Koordinatensystemeinstellungsablauf abgeschlossen ist, und ist als ein ergänzendes Verfahren konfiguriert, wenn das Förderkoordinatensystem 66 durch den in 13 gezeigten Koordinatensystemeinstellungsablauf zurückgesetzt wird. Es ist zu beachten, dass in dieser Ausführungsform das Zurücksetzen des Kamerakoordinatensystems des Bildaufnahmeabschnitts 28 gleichbedeutend mit der Änderung der Positionsbeziehung des Objekterfassungsabschnitts 14 (insbesondere des Bildaufnahmeabschnitts 28) in Bezug auf den Förderer 12 ist.
  • Bei dem in 14 gezeigten Koordinatensystemeinstellungsablauf werden während der Schritte S71 bis S78, welche dieselben sind wie die Schritte S21 bis S28 von 10, die beiden ersten Koordinaten P1 (x1, y1, z1), P2 (x2, y2, z2) der beiden Merkmale 74A, 74B, die eine zweite Koordinate P3 (x3, y3, z3) des einen Merkmals 74A und die dritte Koordinate P0 (x0, y0, z0) der Markierung 104 wieder erfasst oder neu ermittelt und das Förderkoordinatensystem 66 wird neu bestimmt. Als Nächstes wird bei Schritt S79 in einem Fall, in dem sich das in Schritt S78 neu ermittelte Förderkoordinatensystem 66 von dem zuvor ermittelten Förderkoordinatensystem 66 (d. h. im Schritt S28 von 10 bestimmt) verändert hat, das Kamerakoordinatensystem des Bildaufnahmeabschnitts 28 (d. h., die Positionsbeziehung des Objekterfassungsabschnitts 14 (insbesondere des Bildaufnahmeabschnitts 28) in Bezug auf den Förderer 12 ist verändert) auf der Grundlage des Veränderungsbetrags des Förderkoordinatensystems 66 zurückgesetzt.
  • Der letzte Schritt S80 ist derselbe wie Schritt S29 von 10. Auf diese Weise ist der Rücksetzablauf des Förderkoordinatensystems 66 abgeschlossen.
  • In Schritt S79 wird das Kamerakoordinatensystem durch die Formel 7 neu bestimmt, wobei ”L1” eine Matrix bezeichnet, die das Kamerakoordinatensystem des Bildaufnahmeabschnitts 28 darstellt, das durch ein bekanntes Kalibrierungsverfahren bestimmt wurde, bevor die ergänzende Arbeit durchgeführt wird, ”C1” eine Matrix bezeichnet, die das in Schritt S28 bestimmte Förderkoordinatensystem 66 darstellt, ”L2” eine Matrix bezeichnet, die das Kamerakoordinatensystem des Bildaufnahmeabschnitts 28 darstellt, das durch ein bekanntes Kalibrierverfahren nach Durchführung der ergänzenden Arbeit bestimmt wird, und ”C2” eine Matrix bezeichnet, die das in Schritt S63 bestimmte Förderkoordinatensystem 66 darstellt. L2 = (C2–1·CD·L1 Formel 7
  • 15 zeigt schematisch das Aussehen einer tatsächlichen Stelle, an der das oben beschriebene Koordinatensystemeinstellungsverfahren durchgeführt wird. Der Bildaufnahmeabschnitt 28 des Objekterfassungsabschnitts 14 ist zusammen mit dem mechanischen Teil des Roboters 16 an einem Rahmen 108 befestigt. Obwohl die Beziehung zwischen der Position und der Ausrichtung des Basiskoordinatensystems 68 des Roboters 16 und jener des Kamerakoordinatensystems 110 des Bildaufnahmeabschnitts 28 fixiert ist, kann die Beziehung zwischen der Position und der Ausrichtung des Kamerakoordinatensystems 110 und jenen des Förderkoordinatensystems 66 zwischen vor und nach dem Ausführen einer ergänzenden Arbeit, wie beispielsweise einer Wartung oder einer Systemverlagerung, verändert werden.
  • Gemäß der Koordinatensystemeinstellungsvorrichtung 100 mit der obigen Konfiguration und dem dazu analogen Koordinatensystemeinstellungsverfahren ist es zusätzlich zu den vorgenannten Effekten möglich, das Kamerakoordinatensystem des Bildaufnahmeabschnitts 28 durch einfaches Erfassen der Position des Merkmals 74 und der Position der Markierung 104 zurückzusetzen, so dass es in einem Fall, wo eine ergänzende Arbeit, wie beispielsweise eine Wartung oder eine Systemverlagerung für das bereits eingestellte Robotersystem 10, durchgeführt wird, möglich ist, das Zurücksetzen des Kamerakoordinatensystems nach Durchführung der ergänzenden Arbeit auszuführen.
  • Die Koordinatensystemeinstellungsvorrichtung 100 kann auch das Zurücksetzen des Kamerakoordinatensystems des Bildaufnahmeabschnitts 28 im Koordinatensystemeinstellungsablauf, der in 13 gezeigt ist, durchführen. 16 zeigt die Konfiguration einer weiteren Ausführungsform eines Koordinatensystemeinstellungsverfahrens, das konfiguriert ist, um einen derartigen alternativen Ablauf durchzuführen. In einem Koordinatensystemeinstellungsverfahren, das in 16 gezeigt ist, werden während der Schritte S91 bis S93, die dieselben sind wie die Schritte S61 bis S63 von 13, die Position und Ausrichtung der Markierung 104 erfasst und das Förderkoordinatensystem 66 wird basierend auf dem Betrag der Änderung in der Position und Ausrichtung der Markierung 104 neu bestimmt. Als Nächstes wird in Schritt S94 das Kamerakoordinatensystem des Bildaufnahmeabschnitts 28 zurückgesetzt (d. h., es wird die Positionsbeziehung des Objekterfassungsabschnitts 14 (insbesondere des Bildaufnahmeabschnitts 28) in Bezug auf den Förderer 12 geändert), basierend auf dem Betrag der Änderung in der Position und Orientierung der Markierung 104. Der letzte Schritt S95 ist derselbe wie der Schritt S64 von 13. Auf diese Weise ist der Rücksetzablauf des Förderkoordinatensystems 66 abgeschlossen.
  • In einer Konfiguration mit einer Mehrzahl von Robotern 16, wie einem Robotersystem 10, ist es möglich, einen Vorgang zum Einstellen eines Förderkoordinatensystems 66 in Verbindung mit einem Roboter 16 (in 1, dem zweiten Roboter 16B), der auf einer stromabwärtigen Seite in der Förderbetriebsrichtung α angeordnet ist, zu vereinfachen. Die Konfiguration einer weiteren Ausführungsform des Koordinatensystemeinstellungsverfahrens, das von der Koordinatensystemeinstellungsvorrichtung 100 durchgeführt wird, um das Förderkoordinatensystem 66 in Verbindung mit dem Roboter 16 einzustellen, der an der stromabwärtigen Seite in der Förderbetriebsrichtung α des Förderers 12 angeordnet ist, wird nachfolgend unter Bezugnahme auf die 17 und 18 sowie 8 erklärt. Ein Koordinatensystemeinstellungsablauf, der in 17 gezeigt ist, weist eine Konfiguration auf, bei der es unter der Voraussetzung, dass ein Förderkoordinatensystem 66 in Verbindung mit einem Roboter 16 (in 1 der erste Roboter 16A), der am weitesten stromaufwärts in der Förderrichtung α des Förderers 12 angeordnet ist, durch den in 10 gezeigten Koordinatensystemeinstellungsablauf möglich ist, ein Förderkoordinatensystem 66 in Verbindung mit einem Roboter 16 (in 1 dem zweiten Roboter 16B), der stromabwärts in Förderbetriebsrichtung α des Förderers 12 angeordnet ist, unter Verwendung der Position der Markierung 104, die bei Schritt S27 von 10 erfasst wurde, einzustellen, ohne die Position der Markierung 104 erneut zu erfassen.
  • Insbesondere weist das Koordinatensystemeinstellungsverfahren gemäß dieser Ausführungsform eine Konfiguration auf, in welcher das Robotersystem eine Vielzahl von Robotern 16A, 16B umfasst, wobei jeder Roboter konfiguriert ist, um eine Aufnehmarbeit an einem beliebigen Objekts in Verbindung mit einer Vielzahl von Objekten auszuführen, die durch den Förderer 12 transportiert wird, wobei das Verfahren als den Schritt des Bestimmens des Förderkoordinatensystems 66 das Bestimmen eines ersten Förderkoordinatensystems 66, das von einem am weitesten stromaufwärtsseitigen Roboter 16 (d. h. einem ersten Roboter 16A) verwendbar ist; und das Bestimmen eines zweiten Förderkoordinatensystems 66, das von einem stromabwärtsseitigen Roboter 16 (d. h. einem zweiten Roboter 16B) verwendbar ist, umfasst; wobei das Verfahren ferner das Setzen der Markierung 104 an einem vorbestimmten Abschnitt des unbeweglichen Teils 102 des Förderers (12) umfasst; wobei, wenn das erste Förderkoordinatensystem 66 bestimmt wird, eine Position der Markierung 104 durch den Sensor 76 erfasst wird, wobei die erfasste Position als eine dritte Koordinate P0 im Basiskoordinatensystem 68 erfasst wird und die dritte Koordinate P0 als der Ursprung des ersten Förderkoordinatensystems 66 verwendet wird und wobei bei der Bestimmung des zweiten Förderkoordinatensystems 66 die dritte Koordinate P0 unter Verwendung der ersten Betriebsposition des beweglichen Teils 72 zu einem Zeitpunkt, zu dem das erste Förderkoordinatensystem 66 bestimmt wird, und der ersten Betriebsposition des beweglichen Teils 72 zu einem Zeitpunkt, zu dem das zweite Förderkoordinatensystem 66 bestimmt wird, in eine Koordinate des Ursprungs des zweiten Förderkoordinatensystems 66 transformiert wird.
  • Zunächst wird in Schritt S101 der bewegliche Teil 72 in der Förderbetriebsrichtung α bewegt, ohne die Einspannvorrichtung 86 vom Förderer 12 bei Schritt S29 von 10 zu entfernen, nachdem das Förderkoordinatensystem 66 in Verbindung mit dem am weitesten stromaufwärtsseitigen Roboter 16 (oder dem ersten Roboter 16A) bestimmt wurde, und der Förderer 12 wird an einer Position gestoppt, in der die Einspannvorrichtung 86 in den Arbeitsbereich des stromabwärtsseitigen Roboters 16 (oder dem zweiten Roboter 16B) gelangt. Als Nächstes wird in Schritt S102 die Kamera 88, die vom am weitesten stromaufwärtsseitigen Roboter 16 (dem ersten Roboter 16A) in Schritt S29 von 10 abgenommen worden ist, an einem vorbestimmten Abschnitt des stromabwärtsseitigen Roboters 16 (des zweiten Roboters 16B) befestigt.
  • Während der Schritte S103 bis S107 im Koordinatensystemeinstellungsablauf von 17, die den Schritten S22 bis S26 von 10 entsprechen, werden zwei erste Koordinaten P1 (x1, y1, z1), P2 (x2, y2, z2) zweier Merkmale 74A, 74B und eine zweite Koordinate P3 (x3, y3, z3) eines Merkmals 74A in Verbindung mit dem stromabwärtsseitigen Roboter 16 (dem zweiten Roboter 16B) erhalten. Als Nächstes wird in Schritt S108 die Position der Markierung 104 in Verbindung mit dem stromabwärtsseitigen Roboter 16 (dem zweiten Roboter 16B) durch die folgende Berechnung anstelle der durch den Sensor 76 durchgeführten Erfassung bestimmt.
  • Bei der Berechnung wird der Wert des Förderersensors 20 (1), der in Schritt S22 von 10 erzielt wird, (d. h. die erste Betriebsstellung) in Verbindung mit dem am weitesten stromaufwärtsseitigen Roboter 16 (der erste Roboter 16A) mit ”e1” bezeichnet und der in Schritt S103 aus 17 erhaltene Wert des Förderersensors 20 (1) (d. h. die erste Betriebsposition) in Verbindung mit dem stromabwärtsseitigen Roboter 16 (der zweite Roboter 16B) wird mit ”e2” bezeichnet. Dann wird der Abstand ”d” zwischen der Position der Einspannvorrichtung 86 (d. h. der Merkmale 74A, 74B) in Schritt S23 von 10 und der Position der Einspannvorrichtung 86 (d. h. der Merkmale 74A, 74B) im Schritt S104 von 17 durch die Formel 8 bestimmt, wobei die Werte ”e1” und ”e2” sowie der Maßstab ”S” des Codierers des Förderersensors 20 durch die Formel 1 bestimmt werden. d = S·(e2 – e1) Formel 8
  • Eine Matrix ”Cn”, welche ein Förderkoordinatensystem 66, mit dem Ursprung, der durch die Position der Markierung 104 definiert ist, die vom stromabwärtsseitigen Roboter 16 (dem zweiten Roboter 16B) aus betrachtet wird, repräsentiert, wird durch die Formel 9 bestimmt, in der, wie in 18 gezeigt, ”C1” eine Matrix bezeichnet, die das im Schritt S28 von 10 bestimmte Förderkoordinatensystem 66 in Verbindung mit dem am weitesten stromaufwärtsseitigen Roboter 16 (dem ersten Roboter 16A) darstellt, ”J1” eine Matrix bezeichnet, die ein Koordinatensystem darstellt, das im Wesentlichen dem Förderkoordinatensystem 66 mit der Ausnahme entspricht, dass der Ursprung nicht durch die Markierung 104, sondern durch die im Schritt S23 erfasste erste Koordinate P1 definiert ist, ”Jn” eine Matrix bezeichnet, die ein Koordinatensystem darstellt, das zum Zeitpunkt des Abschlusses des Schrittes S107 von 17 in Verbindung mit dem stromabwärtsseitigen Roboter 16 (dem zweiten Roboter 16B) erhalten wird und den Ursprung aufweist, der durch die im Schritt S104 erfasste erste Koordinate P1 definiert ist, und ”D” eine Transformationsmatrix zur Bereitstellung eines Versatzes ”–d” (minus d) für eine Matrix in der X-Achsenrichtung des Förderkoordinatensystems 66 bezeichnet. Cn = Jn·D·J1–1·C1 Formel 9
  • Auf diese Weise ist es möglich, das Förderkoordinatensystem 66 mit dem durch die Koordinate der Markierung 104 definierten Ursprung in Verbindung mit dem stromabseitsseitigen Roboter 16 (dem zweiten Roboter 16B) ohne erneutes Erfassen oder wiederum Erfassen der Position der Markierung 104 einzustellen. Selbst wenn das Robotersystem 10 mit drei oder mehr Robotern 16 ausgestattet ist, ist es ebenfalls möglich, ein Förderkoordinatensystem 66 mit dem durch die Koordinate der Markierung 104 definierten Ursprung einzustellen, ohne die Position der Markierung 104 in Verbindung mit den Robotern zu erfassen, die nicht der am weitesten stromaufwärtsseitige Roboter 16 sind. Daher ist es gemäß der Koordinatensystemeinstellungsvorrichtung 100 mit der obigen Konfiguration und dem dazu analogen Koordinatensystemeinstellungsverfahren zusätzlich zu den vorgenannten Effekten möglich, die Einstellung von Förderkoordinatensystemen in Verbindung mit einer Vielzahl von Robotern 16 zu vereinfachen und zu beschleunigen.
  • Während verschiedene Ausführungsformen der vorliegenden Erfindung oben erläutert wurden, ist die vorliegende Erfindung nicht auf die oben beschriebenen Ausführungsformen beschränkt. Beispielsweise wird in dem Robotersystem 10, das in 1 gezeigt ist, um es dem Roboter 16 zu ermöglichen, die Arbeit des Anordnens eines Artikels auf einer Artikelschale (nicht gezeigt) in Bezug auf den Austragsförderer 18 durchzuführen, ein dreidimensionales Förderkoordinatensystem (nicht gezeigt) mit einer definierten X-Achse, die durch die Förderbetriebsrichtung β definiert ist, als ein Koordinatensystem zum Definieren der Position der Artikelschale auf dem Austragsförderer 18 eingestellt. Jede der Koordinatensystemeinstellungsvorrichtungen 70, 100, die in den 3 und 8 gezeigt sind, können ein Koordinatensystemeinstellungsverfahren entsprechend den oben beschriebenen verschiedenen Koordinatensystemeinstellungsverfahren durchführen und dadurch ein für den Austragsförderer 18 vorgesehenes Förderkoordinatensystem einstellen. Es ist zu beachten, dass in dieser Konfiguration ein Objekterfassungsabschnitt zum Erfassen der Position der Artikelschale durch eine berührungslose Detektionseinheit (nicht gezeigt), wie etwa ein Fotozellensensor, konfiguriert sein kann, welche benachbart zum Austragsförderer 18 angeordnet ist, anstelle des Bildaufnahmeabschnitts 28 des oben beschriebenen Objekterfassungsabschnitts 14.
  • Während die Erfindung unter Bezugnahme auf spezifische Ausführungsformen beschrieben worden ist, versteht es sich für Fachpersonen auf diesem Gebiet der Technik von selbst, dass verschiedene Änderungen oder Modifikationen daran vorgenommen werden können, ohne den Rahmen der folgenden Ansprüche zu verlassen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 9-131683 A [0003]
    • JP 3733364 B [0004]

Claims (10)

  1. Koordinatensystemeinstellungsverfahren, das konfiguriert ist, um ein Fördererkoordinatensystem (66) mit einer vorbestimmten Beziehung zu einem Basiskoordinatensystem (68) eines Roboters (16) als ein Koordinatensystem zum Definieren einer Position eines Objekts auf einem Förderer (12) einzurichten in einem System (10) mit einer Konfiguration, in der eine Position des vom Förderer (12) beförderten Objekts erfasst wird und der Roboter (16) auf der Grundlage einer erfassten Position eine Arbeit in Bezug auf das Objekt ausführt, wobei das Verfahren umfasst: Bereitstellen eines beweglichen Teils (72) des Förderers (12) mit einer Vielzahl von Merkmalen (74), die eine feste Positionsbeziehung zueinander aufweisen, wobei der bewegliche Teil einen Objektfördervorgang ausführt; Bereitstellen des Roboters (16) mit einem Sensor (76), der in der Lage ist, eine Position von jedem der Vielzahl von Merkmalen (74) berührungslos zu erfassen; Erfassen von Positionen von mindestens zwei Merkmalen (74) durch den Sensor (76), wenn sich der bewegliche Teil (72) in einer ersten Betriebsposition befindet, und Erhalten der erfassten Positionen als mindestens zwei erste Koordinaten (P1, P2) im Basiskoordinatensystem (68); Veranlassen, dass der bewegliche Teil (72) den Objektfördervorgang von der ersten Betriebsposition zu einer zweiten Betriebsposition durchführt; Erfassen einer Position von mindestens einem Merkmal (74) durch den Sensor (76), wenn sich der bewegliche Teil (72) in der zweiten Betriebsposition befindet, und Erhalten einer erfassten Position als mindestens eine zweite Koordinate (P3) im Basiskoordinatensystem (68); und Bestimmen des Förderkoordinatensystems (66) auf der Grundlage einer Richtung (α) des Objektfördervorgangs, der mindestens zwei ersten Koordinaten (P1, P2) und der mindestens einen zweiten Koordinate (P3).
  2. Verfahren nach Anspruch 1, ferner umfassend: Einstellen einer Markierung (104) an einem vorbestimmten Abschnitt eines unbeweglichen Teils (102) des Förderers (12), wobei der unbewegliche Teil den Objektfördervorgang nicht durchführt, wobei eine Position der Markierung durch den Sensor (76) auf berührungslose Weise erfassbar ist; Erfassen einer Position der Markierung (104) durch den Sensor (76) und Erhalten einer erfassten Position als eine dritte Koordinate (P0) im Basiskoordinatensystem (68); und Bestimmen des Förderkoordinatensystems (66) unter Verwendung der dritten Koordinate (P0) als ein Ursprung des Förderkoordinatensystems (66).
  3. Verfahren nach Anspruch 2, ferner umfassend: Erfassen einer Ausrichtung der Markierung (104) durch den Sensor (76); und Finden einer Beziehung zwischen einer erfassten Ausrichtung und einer Ausrichtung des Basiskoordinatensystems (68) und Beibehalten der Beziehung.
  4. Koordinatensystemeinstellungsverfahren nach Anspruch 3, ferner umfassend nach Bestimmung des Förderkoordinatensystems (66): erneutes Erfassen einer Position und einer Ausrichtung der Markierung (104) durch den Sensor (76); und erneutes Bestimmen des Förderkoordinatensystems (66), basierend auf einem Änderungsbetrag in einer Position und einer Ausrichtung der Markierung (104) in einem Fall, in dem sich eine neu erfasste Position und eine neu erfasste Ausrichtung der Markierung (104) zu einer Position und einer Ausrichtung der Markierung (104), die erfasst wird, wenn das Förderkoordinatensystem (66) bestimmt wird, geändert haben.
  5. Koordinatensystemeinstellungsverfahren nach Anspruch 4, in welchem das System (10) mit einem Objekterfassungsabschnitt (14) in einer festen Positionsbeziehung in Bezug auf den Roboter (16) vorgesehen ist, wobei der Objekterfassungsabschnitt konfiguriert ist, um eine Position des vom Förderer (12) beförderten Objekts zu erfassen, wobei das Verfahren ferner umfasst: Ändern einer Positionsbeziehung des Objekterfassungsabschnitts (14) in Bezug auf den Förderer (12), basierend auf dem Betrag der Änderung in der Position und der Ausrichtung der Markierung (104).
  6. Koordinatensystemeinstellungsverfahren nach Anspruch 2 oder 3, in welchem das System (10) mit einem Objekterfassungsabschnitt (14) in einer festen Positionsbeziehung in Bezug auf den Roboter (16) vorgesehen ist, wobei der Objekterfassungsabschnitt konfiguriert ist, um eine Position des vom Förderer (12) beförderten Objekts zu erfassen, wobei das Verfahren ferner nach Bestimmung des Förderkoordinatensystems (66) umfasst: Erneutes Erhalten der ersten Koordinaten (P1, P2), der zweiten Koordinate (P3) und der dritten Koordinate (P0) und erneutes Bestimmen des Förderkoordinatensystems (66); und Ändern einer Positionsbeziehung des Objekterfassungsabschnitts (14) in Bezug auf den Förderer (12) auf der Grundlage eines Änderungsbetrages im Förderkoordinatensystem (66) in einem Fall, in dem das neu bestimmte Förderkoordinatensystem (66) sich zum zuvor ermittelten Förderkoordinatensystem (66) verändert hat.
  7. Koordinatensystemeinstellungsverfahren nach Anspruch 1, in welchem das System (10) eine Vielzahl von Robotern (16A, 16B) umfasst, wobei jeder Roboter konfiguriert ist, um eine Aufnehmarbeit eines beliebigen Objekts in Verbindung mit einer Vielzahl von durch den Förderer (12) beförderten Objekten auszuführen, wobei das Verfahren bei der Bestimmung des Förderkoordinatensystems (66) umfasst: Bestimmen eines ersten Förderkoordinatensystems (66), das von einem ersten Roboter (16A) verwendbar ist, der an einer stromaufwärtigen Seite in einer Förderbetriebsrichtung des Förderers (12) angeordnet ist; und Bestimmen eines zweiten Förderkoordinatensystems (66), das von einem zweiten Roboter (16B) verwendbar ist, der an einer stromabwärtigen Seite relativ zum ersten Roboter (16A) in der Förderbetriebsrichtung angeordnet ist; wobei das Verfahren ferner umfasst: Setzen einer Markierung (104) an einem vorbestimmten Abschnitt eines unbeweglichen Teils (102) des Förderers (12), wobei der unbewegliche Teil den Objektfördervorgang nicht durchführt, wobei eine Position der Markierung durch den Sensor (76) auf berührungslose Weise erfassbar ist, wobei, wenn das erste Förderkoordinatensystem (66) bestimmt wird, eine Position der Markierung (104) durch den Sensor (76) erfasst wird, eine erfasste Position als eine dritte Koordinate (P0) im Basiskoordinatensystem (68) erhalten wird und die dritte Koordinate (P0) als ein Ursprung des ersten Förderkoordinatensystems (66) verwendet wird, und wobei, wenn das zweite Förderkoordinatensystem (66) bestimmt wird, die dritte Koordinate (P0) in eine Koordinate eines Ursprungs des zweiten Förderkoordinatensystems (66) unter Verwendung der ersten Betriebsposition des beweglichen Teils (72) zu einem Zeitpunkt, zu dem das erste Förderkoordinatensystem (66) bestimmt wird, und der ersten Betriebsposition des beweglichen Teils (72) zu einem Zeitpunkt, zu dem das zweite Förderkoordinatensystem (66) bestimmt wird, transformiert wird.
  8. Koordinatensystemeinstellungsvorrichtung (70; 100), die so konfiguriert ist, dass sie ein Förderkoordinatensystem (66) mit einer vorbestimmte Beziehung zu einem Basiskoordinatensystem (68) des Roboters (16) als ein Koordinatensystem zum Definieren einer Position eines Objekts auf einem Förderer (12) in einem System (10) mit einer Konfiguration einstellt, in welcher eine Position des Objekts, das vom Förderer (12) befördert wird, erfasst wird und der Roboter (16) eine Arbeit in Bezug auf das Objekt auf der Grundlage einer erfassten Position ausführt, wobei die Vorrichtung umfasst: eine Vielzahl von Merkmalen (74), die eine feste Positionsbeziehung zueinander aufweisen, wobei die Merkmale an einem beweglichen Teil (72) des Förderers (12) vorgesehen sind, wobei der bewegliche Teil einen Objektfördervorgang durchführt; einen Sensor (76), der in der Lage ist, eine Position eines jeden der Vielzahl von Merkmalen (74) berührungslos zu erfassen, wobei der Sensor auf dem Roboter (16) vorgesehen ist; einen ersten Koordinatenerfassungsabschnitt (78), der so konfiguriert ist, den Sensor (76) zu veranlassen, Positionen von mindestens zwei Merkmalen (74) zu erfassen, wenn sich der bewegliche Teil (72) in einer ersten Betriebsposition befindet, und erfasste Positionen als mindestens zwei erste Koordinaten (P1, P2) im Basiskoordinatensystem (68) zu erhalten; einen Beförderungsausführungsabschnitt (80), der so konfiguriert ist, um den beweglichen Teil (72) zu veranlassen, den Objektfördervorgang von der ersten Betriebsposition zu einer zweiten Betriebsposition auszuführen; einen zweiten Koordinatenerfassungsabschnitt (82), der so konfiguriert ist, dass der Sensor (76) eine Position mindestens eines Merkmals (74) erfassen kann, wenn sich der bewegliche Teil (72) in der zweiten Betriebsposition befindet, und eine erfasste Position als mindestens eine zweite Koordinate (P3) im Basiskoordinatensystem (68) erhalten kann; und einen Koordinatensystembestimmungsabschnitt (84), der konfiguriert ist, um das Förderkoordinatensystem (66) auf der Grundlage einer Richtung (α) des Objektfördervorgangs, der mindestens zwei ersten Koordinaten (P1, P2) und der mindestens einen zweiten Koordinate (P3) zu bestimmen.
  9. Koordinatensystemeinstellungsvorrichtung (70; 100) nach Anspruch 8, ferner umfassend: eine Markierung (104), die an einem vorbestimmten Abschnitt eines unbeweglichen Teils (102) des Förderers (12) angeordnet ist, wobei der unbewegliche Teil den Objektfördervorgang nicht durchführt, wobei eine Position der Markierung durch den Sensor (76) auf eine berührungslose Weise erfassbar ist; und einen dritten Koordinatenerfassungsabschnitt (106), der so konfiguriert ist, dass der Sensor (76) eine Position der Markierung (104) erfassen kann und eine erfasste Position als dritte Koordinate (P0) im Basiskoordinatensystem (68) erhalten kann, wobei der Koordinatensystembestimmungsabschnitt (84) das Förderkoordinatensystem (66) unter Verwendung der dritten Koordinate (P0) als einen Ursprung des Förderkoordinatensystems (66) bestimmt.
  10. Robotersystem (10), umfassend: einen Förderer (12); einen Objekterfassungsabschnitt (14), der konfiguriert ist, um eine Position eines vom Förderer (12) beförderten Objekts zu erfassen; einen Roboter (16), der konfiguriert ist, um eine Arbeit in Bezug auf das Objekt auf der Grundlage der Position durchzuführen, die vom Objekterfassungsabschnitt (14) erfasst wird; und die Koordinatensystemeinstellungsvorrichtung (70; 100) nach Anspruch 8 oder 9.
DE102016115987.5A 2015-09-03 2016-08-29 Koordinatensystemeinstellungsverfahren, Koordinatensystemeinstellungsvorrichtung und Robotersystem mit Koordinatensystemeinstellungsvorrichtung Active DE102016115987B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-173795 2015-09-03
JP2015173795A JP6407826B2 (ja) 2015-09-03 2015-09-03 座標系設定方法、座標系設定装置、及び座標系設定装置を備えたロボットシステム

Publications (2)

Publication Number Publication Date
DE102016115987A1 true DE102016115987A1 (de) 2017-03-16
DE102016115987B4 DE102016115987B4 (de) 2019-10-10

Family

ID=58160516

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016115987.5A Active DE102016115987B4 (de) 2015-09-03 2016-08-29 Koordinatensystemeinstellungsverfahren, Koordinatensystemeinstellungsvorrichtung und Robotersystem mit Koordinatensystemeinstellungsvorrichtung

Country Status (4)

Country Link
US (1) US10232512B2 (de)
JP (1) JP6407826B2 (de)
CN (1) CN106493728B (de)
DE (1) DE102016115987B4 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017007353A1 (de) * 2017-08-04 2019-02-07 Audi Ag Fertigungsanlage mit einem MRK-Roboter sowie Verfahren zum Betreiben einer solchen Fertigungsanlage
US10625415B2 (en) 2017-06-26 2020-04-21 Fanuc Corporation Robot system
US10850927B2 (en) 2017-10-16 2020-12-01 Fanuc Corporation Work system, method for executing work on object, and robot
DE102022127169B3 (de) 2022-10-18 2024-03-28 TRUMPF Werkzeugmaschinen SE + Co. KG Entladeverfahren und maschinelle Entladeanordnung zum Entladen eines Bearbeitungsprodukts einer Werkstückbearbeitung sowie Fertigungsverfahren und maschinelle Fertigungsanordnung

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9333649B1 (en) * 2013-03-15 2016-05-10 Industrial Perception, Inc. Object pickup strategies for a robotic device
US10556305B2 (en) * 2016-02-03 2020-02-11 The Boeing Company Aligning parts using multi-part scanning and feature based coordinate systems
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
WO2018109948A1 (ja) * 2016-12-16 2018-06-21 株式会社Fuji 基板生産ラインおよび基板生産機
EP3630417A1 (de) * 2017-05-22 2020-04-08 ABB Schweiz AG Roboterförderer-kalibrierungsverfahren, robotersystem und steuersystem
JP2019012040A (ja) * 2017-06-30 2019-01-24 ブラザー工業株式会社 制御装置及び制御方法
US10521871B2 (en) * 2017-07-12 2019-12-31 Fanuc Corporation Robot system
JP6506356B2 (ja) * 2017-07-26 2019-04-24 ファナック株式会社 物品搬送システム及び搬送システム制御装置
CA3075274A1 (en) * 2017-09-20 2019-03-28 Magna International Inc. System and method for adaptive bin picking for manufacturing
JP6579498B2 (ja) 2017-10-20 2019-09-25 株式会社安川電機 自動化装置及び位置検出装置
US10926725B2 (en) 2018-10-10 2021-02-23 Stocked Robotics, Inc. Non-destructive kit mounting system for driverless industrial vehicles
JP6988531B2 (ja) * 2018-02-06 2022-01-05 トヨタ自動車株式会社 ロボット
JP6954193B2 (ja) * 2018-03-12 2021-10-27 オムロン株式会社 制御装置、制御方法、およびプログラム
JP6737827B2 (ja) * 2018-03-29 2020-08-12 ファナック株式会社 協働ロボットの制御装置及び制御方法
JP6725587B2 (ja) 2018-05-18 2020-07-22 ファナック株式会社 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
JP6740288B2 (ja) * 2018-07-13 2020-08-12 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法
JP7237483B2 (ja) * 2018-07-18 2023-03-13 キヤノン株式会社 ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法
CN110733034B (zh) * 2018-07-20 2022-10-21 台达电子工业股份有限公司 机械手臂校正方法、机械手臂校正***以及输送***
JP6650119B1 (ja) 2018-09-27 2020-02-19 株式会社安川電機 ロボット、ロボットシステム、ロボットの位置調整方法
US11707842B2 (en) * 2018-11-27 2023-07-25 Fanuc Corporation Robot system and coordinate conversion method
CN113510696A (zh) * 2021-04-23 2021-10-19 知守科技(杭州)有限公司 机械手工件坐标系的构建方法、装置、***和存储介质
CN113269085B (zh) * 2021-05-22 2023-05-30 深圳市华成工业控制股份有限公司 一种直线传送带跟踪控制方法、***、装置及存储介质
DE102022105608B3 (de) * 2022-03-10 2023-09-14 thinkTEC GmbH Vorrichtung zur Vereinzelung und Einzelentnahme von Teilen und Kalibrierverfahren
CN114951003B (zh) * 2022-05-06 2023-12-26 苏州嘉诺智能制造有限公司 基于距离检测的分拣方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09131683A (ja) 1995-11-10 1997-05-20 Fanuc Ltd 複数のロボットにトラッキング動作を行なわせるための視覚センサ・ロボットシステム
JP3733364B2 (ja) 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0457064A1 (de) 1990-05-14 1991-11-21 Siemens Aktiengesellschaft Verfahren zur Steuerung mobiler Systeme
US5096353A (en) * 1990-07-27 1992-03-17 Motorola, Inc. Vision system for a robotic station
JPH11320465A (ja) * 1998-05-01 1999-11-24 Murata Mach Ltd ロボットアームの制御方法
JP2001121461A (ja) * 1999-10-26 2001-05-08 Denso Corp ロボットシステム
JP2002006919A (ja) 2000-06-20 2002-01-11 Nissan Motor Co Ltd 作業指示装置における位置検出方法および位置検出装置
JP2002192486A (ja) * 2000-12-25 2002-07-10 Seiko Epson Corp ロボット制御方法及び該方法を適用したロボットコントローラ
JP2005262369A (ja) 2004-03-18 2005-09-29 Yaskawa Electric Corp ロボットシステム
JP4128156B2 (ja) * 2004-06-03 2008-07-30 松下電器産業株式会社 部品実装方法及び装置
EP1927038A2 (de) * 2005-09-23 2008-06-04 Braintech Canada, Inc. System und verfahren zur visuellen verfolgung
JP4221014B2 (ja) * 2006-06-20 2009-02-12 ファナック株式会社 ロボット制御装置
JP4607067B2 (ja) * 2006-07-25 2011-01-05 本田技研工業株式会社 搬送作業方法及びその装置
WO2009052143A1 (en) * 2007-10-16 2009-04-23 Accu-Sort Systems, Inc. Dimensioning and barcode reading system
JP5316118B2 (ja) * 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP5312261B2 (ja) * 2009-08-18 2013-10-09 本田技研工業株式会社 ロボットの制御方法
JP5755038B2 (ja) * 2010-06-28 2015-07-29 キヤノン株式会社 組立装置及び生産システム
JP2012187651A (ja) * 2011-03-09 2012-10-04 Omron Corp 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置
JP5810562B2 (ja) 2011-03-15 2015-11-11 オムロン株式会社 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置
FI20115326A0 (fi) * 2011-04-05 2011-04-05 Zenrobotics Oy Menetelmä sensorin mittausten mitätöimiseksi poimintatoiminnon jälkeen robottijärjestelmässä
US9259289B2 (en) * 2011-05-13 2016-02-16 Intuitive Surgical Operations, Inc. Estimation of a position and orientation of a frame used in controlling movement of a tool
JP5752998B2 (ja) * 2011-05-31 2015-07-22 ヤマハ発動機株式会社 スクリーン印刷装置
DE102011084412A1 (de) 2011-10-13 2013-04-18 Kuka Roboter Gmbh Robotersteuerungsverfahren
US9026249B2 (en) * 2012-09-18 2015-05-05 Varian Semiconductor Equipment Associates, Inc. Robot calibration method
JP6231094B2 (ja) * 2013-06-07 2017-11-15 富士機械製造株式会社 電子機器組立機および類似の組立機
US9305231B2 (en) * 2013-08-01 2016-04-05 Cognex Corporation Associating a code with an object
JP5887383B2 (ja) * 2014-07-04 2016-03-16 ファナック株式会社 物品をコンベヤに整列させる物品整列装置
EP3023373A1 (de) * 2014-11-18 2016-05-25 OCE-Technologies B.V. Fördermechanismus und verfahren zur anpassung des fördermechanismus
WO2016079967A1 (en) * 2014-11-21 2016-05-26 Seiko Epson Corporation Robot and robot system
JP2017083234A (ja) * 2015-10-26 2017-05-18 オムロン株式会社 三次元形状計測装置、三次元形状計測システム、プログラム、コンピュータ読み取り可能な記録媒体、および三次元形状計測方法
JP6551184B2 (ja) * 2015-11-18 2019-07-31 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09131683A (ja) 1995-11-10 1997-05-20 Fanuc Ltd 複数のロボットにトラッキング動作を行なわせるための視覚センサ・ロボットシステム
JP3733364B2 (ja) 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10625415B2 (en) 2017-06-26 2020-04-21 Fanuc Corporation Robot system
DE102017007353A1 (de) * 2017-08-04 2019-02-07 Audi Ag Fertigungsanlage mit einem MRK-Roboter sowie Verfahren zum Betreiben einer solchen Fertigungsanlage
US10850927B2 (en) 2017-10-16 2020-12-01 Fanuc Corporation Work system, method for executing work on object, and robot
DE102018124712B4 (de) * 2017-10-16 2021-06-24 Fanuc Corporation Arbeitssystem, Verfahren zum Durchführen von Arbeit an einem Objekt und Roboter
DE102022127169B3 (de) 2022-10-18 2024-03-28 TRUMPF Werkzeugmaschinen SE + Co. KG Entladeverfahren und maschinelle Entladeanordnung zum Entladen eines Bearbeitungsprodukts einer Werkstückbearbeitung sowie Fertigungsverfahren und maschinelle Fertigungsanordnung
WO2024083727A1 (de) 2022-10-18 2024-04-25 TRUMPF Werkzeugmaschinen SE + Co. KG Entladeverfahren und maschinelle entladeanordnung zum entladen eines bearbeitungsprodukts einer werkstückbearbeitung sowie fertigungsverfahren und maschinelle fertigungsanordnung

Also Published As

Publication number Publication date
CN106493728B (zh) 2019-06-14
JP2017047511A (ja) 2017-03-09
DE102016115987B4 (de) 2019-10-10
JP6407826B2 (ja) 2018-10-17
US20170066133A1 (en) 2017-03-09
CN106493728A (zh) 2017-03-15
US10232512B2 (en) 2019-03-19

Similar Documents

Publication Publication Date Title
DE102016115987B4 (de) Koordinatensystemeinstellungsverfahren, Koordinatensystemeinstellungsvorrichtung und Robotersystem mit Koordinatensystemeinstellungsvorrichtung
DE102018124712B4 (de) Arbeitssystem, Verfahren zum Durchführen von Arbeit an einem Objekt und Roboter
DE102016006252B4 (de) Fertigungssystem mit einem eine Positionskorrekturfunktion aufweisenden Roboter
DE102016114337B4 (de) System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus
DE102019125126B4 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und System
DE102017128652B4 (de) Robotersystem mit einer mehrzahl von robotern, robotersteuerung und robotersteuerverfahren
EP2227356B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE102015001527B4 (de) Robotersystem, das visuelle Rückmeldung verwendet
DE102013018222B4 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
EP2435217B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE102010032840B4 (de) Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters
DE102018101375B4 (de) Artikelbeförderungsvorrichtung, die mindestens einen Sensor nutzt
DE102015002193B4 (de) Schweissbrennerdetektor und Schweissrobotersystem
EP1503874B1 (de) Fertigungseinrichtung mit einer biegepresse, und verfahren zum betrieb der fertigungseinrichtung
DE102009034529B4 (de) Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
DE102016009438A1 (de) Robotersystem mit Sichtsensor und einer Vielzahl von Robotern
DE102015011527A1 (de) Stückgut-Fördersystem
DE102020100803B4 (de) Folgeroboter und Roboterarbeitssystem
DE102020124356A1 (de) Steuerung einer Robotervorrichtung zum Einstellen der Position eines vom Roboter gestützten Gegenstandes
DE102018101975A1 (de) Beweglicher Roboter
DE102019109717A1 (de) Arbeitsrobotersystem und Arbeitsroboter
DE102015104582A1 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
DE102019115379B4 (de) Robotersystem und Roboter
DE102015104587B4 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
DE102019109718A1 (de) Arbeitsrobotersystem und Arbeitsroboter

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative

Representative=s name: HL KEMPNER PATENTANWAELTE, SOLICITORS (ENGLAND, DE

Representative=s name: HL KEMPNER PATENTANWALT, RECHTSANWALT, SOLICIT, DE