DE102017114880A1 - Laserbearbeitungs-Robotersystem zur Durchführung einer Laserbeareitung unter Verwendung eines Roboters - Google Patents

Laserbearbeitungs-Robotersystem zur Durchführung einer Laserbeareitung unter Verwendung eines Roboters Download PDF

Info

Publication number
DE102017114880A1
DE102017114880A1 DE102017114880.9A DE102017114880A DE102017114880A1 DE 102017114880 A1 DE102017114880 A1 DE 102017114880A1 DE 102017114880 A DE102017114880 A DE 102017114880A DE 102017114880 A1 DE102017114880 A1 DE 102017114880A1
Authority
DE
Germany
Prior art keywords
laser
laser beam
robot
irradiation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102017114880.9A
Other languages
English (en)
Other versions
DE102017114880B4 (de
Inventor
Toshimichi Aoki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102017114880A1 publication Critical patent/DE102017114880A1/de
Application granted granted Critical
Publication of DE102017114880B4 publication Critical patent/DE102017114880B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/02Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
    • B23K26/03Observing, e.g. monitoring, the workpiece
    • B23K26/032Observing, e.g. monitoring, the workpiece using optical means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/02Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
    • B23K26/04Automatically aligning, aiming or focusing the laser beam, e.g. using the back-scattered light
    • B23K26/046Automatically focusing the laser beam
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/08Devices involving relative movement between laser beam and workpiece
    • B23K26/0869Devices involving movement of the laser head in at least one axial direction
    • B23K26/0876Devices involving movement of the laser head in at least one axial direction in at least two axial directions
    • B23K26/0884Devices involving movement of the laser head in at least one axial direction in at least two axial directions in at least in three axial directions, e.g. manipulators, robots
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/70Auxiliary operations or equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36167Use camera of handheld device, pda, pendant, head mounted display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45041Laser cutting
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45104Lasrobot, welding robot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45138Laser welding
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45139Laser drilling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Plasma & Fusion (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Manipulator (AREA)
  • Laser Beam Processing (AREA)

Abstract

Es wird ein Laserbearbeitungs-Robotersystem vorgesehen, bei dem eine Augmented-Reality-Verarbeitungstechnologie verwendet wird, um zu ermöglichen, dass ein Bearbeitungslaserstrahl und seine Bestrahlungsposition sicher und leicht gesehen werden. Ein Laserbearbeitungs-Robotersystem weist eine Bildverarbeitungsvorrichtung auf, die eine Augmented-Reality-Bildverarbeitungseinheit aufweist, um eine Augmented-Reality-Bildverarbeitung für ein durch eine Bildaufnahmevorrichtung aufgenommenes tatsächliches Bild, das ein Bild eines Roboters enthält, durchzuführen. Die Augmented-Reality-Bildverarbeitungseinheit ist dazu ausgelegt, ein virtuelles Bild, das von einem Laserstrahl, der sich ergibt, wenn man eine Ausstrahlung des Laserstrahls von einer Laserbestrahlungsvorrichtung zu einem Werkstück annimmt, und einer Bestrahlungsposition des Laserstrahls wenigstens eines darstellt, über das tatsächliche Bild zu legen und das überlagerte Bild an der Anzeigevorrichtung anzuzeigen.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Laserbearbeitungs-Robotersystem zur Durchführung einer Laserbearbeitung unter Verwendung eines Roboters.
  • 2. Beschreibung der verwandten Technik
  • In den letzten Jahren sind Laserbearbeitungs-Robotersysteme, bei denen eine Laserbestrahlungsvorrichtung zum Bestrahlen eines Werkstücks mit einem Bearbeitungslaserstrahl an einem distalen Ende eines Roboterarms angebracht ist, um durch Bewegen des Roboterarms eine Laserbearbeitung durchzuführen, auf dem Markt erschienen. Ferner ist bei der Laserbearbeitung unter Verwendung eines Laserbearbeitungs-Robotersystems eine Technologie zur Durchführung einer Laserbearbeitung an einer vorherbestimmen Position unter Bewegen eines Laserstrahls durch Verändern der Bestrahlungsrichtung des Laserstrahls von der Laserbestrahlungsvorrichtung, während der Roboterarm bewegt wird, bekannt. Bei einem solchen Laserbearbeitungsverfahren ist der Abstand zwischen einem Werkstück, und einer Laserbestrahlungsvorrichtung größer als bei einem herkömmlichen Laserbearbeitungsverfahren. Daher wird das Verfahren manchmal als ”Fernlaserbearbeitung” bezeichnet. Bestimmte Beispiele für die Bearbeitung umfassend Schweißen, Schneiden, Bohren usw.
  • Bei dieser Art von Fernlaserbearbeitung ist ein Werkstück von einer Laserbestrahlungsvorrichtung beabstandet, und ist es entsprechend schwierig, eine Position, die mit einem Bearbeitungslaserstrahl bestrahlt werden soll, herauszufinden, wenn einem Roboter ein Arbeitsvorgang einer Laserbearbeitung gelehrt wird. Dies verringert die Effizienz bei einer Lehrtätigkeit für einen Roboter deutlich. Im Allgemeinen ist es bei einer Laserbearbeitung nötig, dass die Bestrahlungsposition eines Bearbeitungslaserstrahls genau mit einem Bearbeitungsabschnitt des Werkstücks übereinstimmt. Daher verursacht die Schwierigkeit, die Bestrahlungsposition eines Bearbeitungslaserstrahls herauszufinden, eine Verringerung der Bearbeitungsgenauigkeit.
  • Um diese Probleme zu lösen offenbart die Japanische Patentoffenlegungsschrift (kokai) Nr. 2007-253200 ein Verfahren zum Einbringen eines Pilotlasers aus sichtbarem Licht in den ausgestrahlten Laserstrahl, damit eine Fokuslage des Schweißlaserstrahls leicht herausgefunden werden kann. Ferner offenbart die Japanische Patentoffenlegungsschrift (kokai) Nr. 2013-123743 ein Verfahren zum Detektieren der Position eines Abschnitts, der mit einem Schweißlaserstrahl bestrahlt werden soll, durch eine Bildverarbeitungsvorrichtung.
  • Doch bei dem Verfahren, das in der Japanischen Patentoffenlegungsschrift (kokai) Nr. 2007-253200 offenbart ist, d. h., dem Verfahren, um eine Position, die mit einem Schweißlaserstrahl bestrahlt werden soll, unter Verwendung eines Pilotlasers leicht herauszufinden, ist es nötig, zusätzlich einen Mechanismus, um ein Werkstück mit einem Pilotlaser zu bestrahlen, an einer Laserbestrahlungsvorrichtung anzubringen. Dies verursacht, dass die Laserbestrahlungsvorrichtung kompliziert wird, und erhöht die Kosten. Ferner ist der Pilotlaser während der tatsächlichen Herstellung und Bearbeitung nicht nötig, weshalb die Laserbestrahlungsvorrichtung entsprechend einen redundanten Aufbau aufweist.
  • Ferner wird bei dem Verfahren, das in der Japanischen Patentoffenlegungsschrift (kokai) Nr. 2013-123743 offenbart ist, tatsächlich ein Schweißlaserstrahl ausgestrahlt, und detektiert eine Bildverarbeitungsvorrichtung eine Position, die mit dem Strahl bestrahlt werden soll. Sofern tatsächlich ein Schweißlaserstrahl ausgestrahlt wird, besteht daher selbst dann, wenn die Helligkeit eines Schweißlaserstrahls verringert ist oder die Laserbestrahlungsvorrichtung einen Laser mit geringer Leistung ausstrahlt, die Gefahr, dass der menschliche Körper und insbesondere die Netzhaut geschädigt wird. Somit wird bei einem Vorgang zur Bestimmung einer Position, die mit einem Bearbeitungslaserstrahl bestrahlt werden soll, wie in dem Fall, in dem einem Roboter ein Arbeitsvorgang einer Laserbearbeitung gelehrt wird, aus Sicherheitsgründen verlangt, die Verwendung eines Bearbeitungslaserstrahls nach Möglichkeit zu vermeiden.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Die vorliegende Erfindung stellt ein Laserbearbeitungs-Robotersystem zur Verfügung, bei dem ein Betreiber den Bearbeitungslaserstrahl und seine Bestrahlungsposition sicher und leicht sehen kann, auch wenn tatsächlich keine Ausstrahlung des Bearbeitungslaserstrahls erfolgt.
  • Nach einem ersten Gesichtspunkt dieser Offenbarung wird ein Laserbearbeitungs-Robotersystem zur Durchführung einer Laserbearbeitung eines Werkstücks unter Verwendung eines Roboters mit einem Arm, woran eine Laserbestrahlungsvorrichtung zur Ausstrahlung eines Laserstrahls zur Bearbeitung angebracht ist, vorgesehen. Das Laserbearbeitungs-Robotersystem weist eine Robotersteuervorrichtung, die den Roboter dazu bringt, einen Arbeitsvorgang einer Laserbearbeitung ohne Ausgabe des Laserstrahls durchzuführen, eine Bildaufnahmevorrichtung, um ein tatsächliches Bild aufzunehmen, das den Roboter, der dazu gebracht wird, einen Arbeitsvorgang einer Laserbearbeitung ohne Ausgabe des Laserstrahls durchzuführen, enthält, eine Anzeigevorrichtung zum Anzeigen des tatsächlichen Bilds in Echtzeit, und eine Bildverarbeitungsvorrichtung, die an die Robotersteuervorrichtung angeschlossen ist und eine Augmented-Reality-Bildverarbeitungseinheit zur Durchführung einer Augmented-Reality-Bildverarbeitung für das tatsächliche Bild aufweist, auf. Die Augmented-Reality-Bildverarbeitungseinheit ist dazu ausgelegt, ein virtuelles Bild, das von einem Laserstrahl, der sich ergibt, indem angenommen wird, dass der Laserstrahl von der Laserbestrahlungsvorrichtung zu dem Werkstück ausgestrahlt wird, und einer Bestrahlungsposition des Laserstrahls wenigstens eines darstellt, auf das tatsächliche Bild zu legen und das überlagerte Bild an der Anzeigevorrichtung anzuzeigen.
  • Nach einem zweiten Gesichtspunkt dieser Offenbarung weist die Laserbestrahlungsvorrichtung bei dem Laserbearbeitungs-Robotersystem nach dem ersten Gesichtspunkt einen Linsenpositionseinstellmechanismus auf, der die Position einer Linse als Reaktion auf einen Befehl von der Robotersteuervorrichtung einstellt, um eine Brennweite zu verändern, und ist die Augmented-Reality-Bildverarbeitungseinheit dazu ausgelegt, das virtuelle Bild auf Basis eines Befehlswerts oder eines Detektionswerts hinsichtlich der Brennweite und der Position der Linse zu erzeugen.
  • Nach einem dritten Gesichtspunkt dieser Offenbarung weist die Laserbestrahlungsvorrichtung bei dem Laserbearbeitungs-Robotersystem nach dem ersten oder zweiten Gesichtspunkt einen Bestrahlungspositionsveränderungsmechanismus zum Verändern der Bestrahlungsposition des Laserstrahls auf einer Oberfläche des Werkstücks als Reaktion auf einen Befehl von der Robotersteuereinheit auf, und ist die Augmented-Reality-Bildverarbeitungseinheit dazu ausgelegt, das virtuelle Bild auf Basis eines Befehlswerts oder eines Detektionswerts hinsichtlich der Bestrahlungsposition zu erzeugen.
  • Nach einem vierten Gesichtspunkt dieser Offenbarung ist die Augmented-Reality-Bildverarbeitungseinheit bei dem Laserbearbeitungs-Robotersystem nach einem aus dem ersten bis dritten Gesichtspunkt dazu ausgelegt, den Ort zumindest des als das virtuelle Bild dargestellten Laserstrahls oder der Bestrahlungsposition des Laserstrahls an der Anzeigevorrichtung anzuzeigen.
  • Nach einem fünften Gesichtspunkt dieser Offenbarung ist die Robotersteuervorrichtung bei dem Laserbearbeitungs-Robotersystem nach einem aus dem ersten bis vierten Gesichtspunkt dazu ausgelegt, eine Information hinsichtlich von Bestrahlungsbedingungen für die Bestrahlung mit dem Laserstrahl an die Bildverarbeitungsvorrichtung zu übermitteln, und ist die Augmented-Reality-Bildverarbeitungseinheit dazu ausgelegt, die Information hinsichtlich der Bestrahlungsbedingungen zusammen mit dem virtuellen Bild an der Anzeigevorrichtung anzuzeigen.
  • Nach einem sechsten Gesichtspunkt dieser Offenbarung ist die Augmented-Reality-Bildverarbeitungseinheit bei dem Laserbearbeitungs-Robotersystem nach einem aus dem ersten bis fünften Gesichtspunkt dazu ausgelegt, von der Anzeigefarbe und der Anzeigegröße des Laserstrahls wenigstens eines zu verändern, wenn das virtuelle Bild erzeugt wird.
  • Nach einem siebenten Gesichtspunkt dieser Offenbarung ist die Augmented-Reality-Bildverarbeitungseinheit bei dem Laserbearbeitungs-Robotersystem nach einem aus dem ersten bis sechsten Gesichtspunkt dazu ausgelegt, von der Anzeigefarbe und der Anzeigegröße des Laserstrahls wenigstens eines gemäß den Bestrahlungsbedingungen für die Bestrahlung mit dem Laserstrahl zu verändern.
  • Nach einem achten Gesichtspunkt dieser Offenbarung ist die Anzeigevorrichtung bei dem Laserbearbeitungs-Robotersystem nach einem aus dem ersten bis siebenten Gesichtspunkt ein Head-Mounted Display, das so ausgebildet ist, dass sie mit der Bildaufnahmevorrichtung einstückig ausgeführt ist.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Diese Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung und andere Aufgaben, Merkmale und Vorteile werden aus der ausführlichen Beschreibung von typischen Ausführungsformen, die in den beiliegenden Zeichnungen dargestellt sind, noch deutlicher werden.
  • 1 ist ein Blockdiagramm, das den Aufbau eines Laserbearbeitungs-Robotersystems nach einer Ausführungsform konzeptuell veranschaulicht.
  • 2 ist ein Blockdiagramm einer Abwandlung des in 1 gezeigten Laserbearbeitungs-Robotersystems.
  • 3 ist eine Ansicht des schematischen Aufbaus eines Galvanomechanismus.
  • 4 ist eine Ansicht eines Bilds eines Zustands, in dem das in 1 gezeigte Laserbearbeitungs-Robotersystem zur Durchführung einer Laserbearbeitung verwendet wird.
  • 5 ist eine Ansicht eines Bilds eines Zustands, in dem das in 2 gezeigte Laserbearbeitungs-Robotersystem zur Durchführung einer Laserbearbeitung verwendet wird.
  • 6 ist eine erklärende Ansicht eines Konzepts eines Verfahrens zur Erzeugung eines virtuellen Bilds eines Laserstrahls auf einem Bild eines Arbeitsszenarios in einem echten Raum.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Unter Bezugnahme auf die beiliegenden Zeichnungen werden nachstehend Ausführungsformen der vorliegenden Erfindung beschrieben werden. In den folgenden Figuren sind gleiche Elemente mit den gleichen Bezugszeichen bezeichnet. Der Maßstab dieser Figuren ist passend abgewandelt, um ihr Verständnis zu unterstützen. Ferner sind die in den Zeichnungen gezeigten Ausführungsformen lediglich Beispiele für die Ausführung der Erfindung, und ist die vorliegende Erfindung nicht auf die dargestellten Ausführungsformen beschränkt.
  • 1 ist ein Blockdiagramm, das den Aufbau eines Laserbearbeitungs-Robotersystems nach einer Ausführungsform konzeptuell darstellt.
  • Wie in 1 gezeigt wird bei einem Laserbearbeitungs-Robotersystem 100 ein Roboter 1, der eine Laserbestrahlungsvorrichtung 2 aufweist, die an einem distalen Ende 1a eines Roboterarms vorgesehen ist, verwendet, um eine Laserbearbeitung eines auf einer Werkbank 7 angeordneten Werkstücks W durchzuführen. Beispiele für die Laserbearbeitung umfassen Laserschweißen, Laserschneiden, Laserbohren usw.
  • Das Laserbearbeitungs-Robotersystem 100 weist eine Robotersteuervorrichtung 3 zur Steuerung des Roboters 1, eine Steuervorrichtung zur Steuerung der Laserbestrahlungsvorrichtung 2 (hier nachstehend als ”Laserbestrahlungsvorrichtungssteuervorrichtung 4” bezeichnet), einen Laseroszillator 5, der an die Laserbestrahlungsvorrichtung 2 angeschlossen ist, eine Steuervorrichtung zur Steuerung des Laseroszillators 5 (hier nachstehend als ”Laseroszillatorsteuervorrichtung 6” bezeichnet), und eine Bildverarbeitungsvorrichtung 9, die an die Robotersteuervorrichtung 3 angeschlossen ist, auf.
  • Insbesondere ermöglicht die Robotersteuervorrichtung 3 dieser Ausführungsform dem Roboter 1, einen Arbeitsvorgang einer Laserbearbeitung ohne Ausgabe des Laserstrahls durchzuführen.
  • Ferner weist das Laserbearbeitungs-Robotersystem 100 wie in 1 gezeigt eine Bildaufnahmevorrichtung 8 und eine Anzeigevorrichtung 10 auf, die an die Bildverarbeitungsvorrichtung 9 angeschlossen sind.
  • Die Bildaufnahmevorrichtung 8 ist eine Kamera zum Aufnehmen eines Bilds eines Arbeitsraums zur Durchführung der Laserbearbeitung. Der Arbeitsraum weist wenigstens den Roboter 1, das zu bearbeitende Werkstück W und die Werkbank 7, worauf das Werkstück W angeordnet werden soll, auf. Die Bildaufnahmevorrichtung 8 ist dazu ausgelegt, ein tatsächliches Bild aufzunehmen, das den Roboter 1, der die Laserbearbeitung ohne Ausgabe eines Laserstrahls durchführt, enthält.
  • Die Bildverarbeitungsvorrichtung 9 weist eine Augmented-Reality-Bildverarbeitungseinheit 9a zur Durchführung einer Augmented-Reality-Bildverarbeitung des tatsächlichen Bilds auf.
  • Die Augmented-Reality-Bildverarbeitungseinheit 9a ist dazu ausgelegt, ein virtuelles Bild, das wenigstens eines aus einem Laserstrahl, der unter der Annahme, dass der Laserstrahl von der Laserbestrahlungsvorrichtung 1 zu einer Oberfläche des Werkstücks W ausgestrahlt wird, erhalten wird, und einer Position, die mit dem Laserstrahl bestrahlt werden soll, darstellt, auf das tatsächliche Bild zu legen und das überlagerte Bild an der Anzeigevorrichtung 10 anzuzeigen.
  • Die Anzeigevorrichtung 10 zeigt das tatsächliche Bild, das durch die Bildaufnahmevorrichtung 8 aufgenommen wird, in Echtzeit an. Die Anzeigevorrichtung 10 zeigt auch das durch die Augmented-Reality-Bildverarbeitungseinheit überlagerte Bild an. Die Anzeigevorrichtung 10 kann von der Bildaufnahmevorrichtung 8 gesondert vorgesehen sein, oder kann mit der Bildaufnahmevorrichtung 8 einstückig ausgeführt sein.
  • 2 ist ein Blockdiagramm einer Abwandlung des in 1 gezeigten Laserbearbeitungs-Robotersystems 100. Bei dem Laserbearbeitungs-Robotersystem 100 kann wie in 2 gezeigt anstelle eines Anzeigepanels eine Anzeigevorrichtung vom Brillentyp wie etwa ein Head-Mounted Display als Anzeigevorrichtung 10 verwendet werden. Das Head-Mounted Display weist zum Beispiel einen Anzeigebildschirm auf, der etwa die gleiche Größe wie eine Brillenlinse aufweist und so angeordnet ist, dass er den menschlichen Augen gegenüberliegt. Ferner kann die Anzeigevorrichtung 10, die aus dem Head-Mounted Display besteht, eine Bildaufnahmevorrichtung (nicht gezeigt) aufweisen. Im Fall des Head-Mounted Displays kann ein Betreiber beide Hände benutzen, wenn er dem Roboter 1 einen Bearbeitungsvorgang lehrt, und kann er demgemäß einen Lehrvorgang unabhängig von der Position, an der die Anzeigevorrichtung 10 eingerichtet ist, durchführen.
  • Die Vorrichtungen, die das Laserbearbeitungs-Robotersystem 100 bilden, werden näher beschrieben werden.
  • Der Roboter 1 ist ein Knickarmroboter, um die Laserbestrahlungsvorrichtung 2, die an dem distalen Ende 1a des Roboterarms angebracht ist, an eine gegebene Position in dem Arbeitsraum zu bewegen. 1 gibt einen vertikalen Knickarmroboter an, doch ist die vorliegende Erfindung nicht auf diese Art von Roboter beschränkt.
  • Für die entsprechenden Gelenkachsen des Roboters 1 sind Servomotoren (nicht gezeigt) vorgesehen. In dem Roboter 1 ist ein Positionsdetektionssensor, z. B. ein Impulscodierer, zur Detektion einer Achsenposition (d. h., eines Drehwinkels) jedes Servomotors vorgesehen.
  • Die Laserbestrahlungsvorrichtung 2 weist eine Laserausstrahlungsöffnung (nicht gezeigt) auf, um einen Laserstrahl, der von dem Laseroszillator 5 geliefert wurde, zu dem Werkstück W auszustrahlen. In der Laserbestrahlungsvorrichtung 2 ist ein Bestrahlungspositionsveränderungsmechanismus, z. B. ein Galvanomechanismus, vorgesehen, der eine Bestrahlungsposition des Laserstrahls auf der Oberfläche des Werkstücks W zu einer vorherbestimmten Position verändern kann. Ferner sind in der Laserbestrahlungsvorrichtung 2 vorzugsweise eine Linse zum Kondensieren eines Laserstrahls und ein Linsenpositionseinstellmechanismus (nicht gezeigt), der die Position der Linse einstellt, um die Brennweite des Laserstrahls zu verändern, vorgesehen.
  • Alternativ kann die Laserbestrahlungsvorrichtung 2 keinen Mechanismus aufweisen, der die Bestrahlungsposition oder die Brennweite verändern kann, und kann die Bestrahlungsposition demgemäß fest sein. Beispielsweise ist die Brennweite im Fall eines Laserbearbeitungskopfs, der eine Linse mit langer Brennweite verwendet, fest, doch ist zwischen dem Werkstück W und der Laserbestrahlungsvorrichtung 2 ein ausreichender Abstand vorhanden und kann entsprechend eine Wirkung der vorliegenden Erfindung erhalten werden.
  • 3 ist eine Ansicht eines schematischen Aufbaus des Galvanomechanismus. Der gezeigte Galvanomechanismus weist als Beispiel in 3 ein Paar von Reflexionsspiegeln 12X und 12Y, die auf einem Lichtpfad eines von einer Laserlichtquelle 11 ausgestrahlten Laserstrahls eingerichtet sind, und Motoren 13X und 13Y, um die Reflexionsspiegel 12X und 12Y jeweils in einen gegebenen Winkel zu drehen, auf. Die Drehachsen der Motoren 13X und 13Y verlaufen parallel zu den Reflexionsflächen der Reflexionsspiegel 12X und 12Y selbst und sind als die Drehachsen der Reflexionsspiegel 12X und 12Y mit den Reflexionsspiegeln 12X und 12Y verbunden. Die Drehachsen der Motoren 13X und 13Y verlaufen senkrecht zueinander. Wenn bei einem derartigen Aufbau einer aus dem Paar von Reflexionsspiegeln 12X und 12Y, z. B. der Reflexionsspiegel 12X, angehalten wird und der andere, d. h., der Reflexionsspiegel 12Y, gedreht wird, wird das Werkstück W zum Beispiel an seiner Oberfläche in der Y-Achsen-Richtung durch einen Laserstrahl abgetastet. Wenn der Reflexionsspiegel 12Y angehalten ist und der Reflexionsspiegel 12X gedreht wird, wird das Werkstück W zum Beispiel an der Oberfläche in der X-Achsen-Richtung durch einen Laserstrahl abgetastet.
  • Somit kann die Bestrahlungsposition eines Laserstrahls auf der Oberfläche des Werkstücks in der X-Y-Achsen-Richtung abgetastet und bestimmt werden, indem die Motoren 13X und 13Y dazu gebracht werden, die Reflexionsspiegel 12X und 12Y jeweils in einen bestimmten Winkel zu drehen.
  • Ferner sind an den Drehachsen der Motoren 13X und 13Y Impulscodierer (nicht gezeigt) vorgesehen, um den Drehwinkel der Motoren zu detektieren. Somit kann die Bestrahlungsposition eines Laserstrahls auf der Oberfläche des Werkstücks W auf Basis des Drehwinkels, der durch die an den Motoren 13X und 13Y vorgesehenen Impulscodierer detektiert wird, herausgefunden werden.
  • In dem Linsenpositionseinstellmechanismus wird ein Motor zum Bewegen der Linse verwendet, und vorzugsweise ist an der Drehachse des Motors ein Impulscodierer (nicht gezeigt) vorgesehen, um den Drehwinkel des Motors zu detektieren. Dies ermöglicht, dass die Fokuslage des zu dem Werkstück W ausgestrahlten Laserstrahls auf Basis des Drehwinkels, der durch den für den Motor des Linsenpositionseinstellmechanismus vorgesehenen Impulscodierer detektiert wird, herausgefunden wird.
  • Die Robotersteuervorrichtung 3 weist einen Speicher (nicht gezeigt) auf, um ein Betriebsprogramm zu speichern, in dem zum Beispiel Arbeitsvorgänge oder Bearbeitungsbedingungen der Laserbearbeitung beschrieben sind, und steuert den Roboter 1, während sie gemäß dem Betriebsprogramm Befehle zum Steuern des Roboters 1 erzeugt.
  • Genauer stellt die Robotersteuervorrichtung 3 dem Servomotor jeder Gelenkachse des Roboters 1 einen Positionsbefehl gemäß dem Betriebsprogramm bereit, und steuert den Servomotor so, dass die Achsenposition des Servomotors, die durch den für den Servomotor vorgesehenen Impulscodierer detektiert wird, mit dem Positionsbefehl übereinstimmt. Dies bringt den Roboter 1 dazu, gemäß dem in dem Speicher gespeicherten Betriebsprogramm zu arbeiten.
  • Vorzugsweise weist die Robotersteuereinheit ein Lehr-Bedienfeld (nicht gezeigt), um dem Roboter einen Arbeitsvorgang einer Laserbearbeitung zu lehren, auf, um den Roboter zu betreiben. Der Betreiber benutzt das Lehr-Bedienfeld, um den Roboter 1 so zu betreiben, dass er einen Laserbestrahlungsvorgang durchführt. In diesem Fall werden die Arbeitsvorgänge oder die Bearbeitungsbedingungen vorzugsweise über das Lehr-Bedienfeld in das Betriebsprogramm, das in dem Speicher der Robotersteuervorrichtung 3 gespeichert ist, geschrieben.
  • Die Robotersteuervorrichtung 3 gibt Befehlswerte im Hinblick auf die Laserbestrahlung an die Laseroszillatorsteuervorrichtung 6 aus. Die Befehlswerte umfassen Bestrahlungsbedingungen eines Impulslasers wie etwa die Laserleistung, die Wiederholungsfrequenz und das Tastverhältnis. Alternativ können diese Bestrahlungsbedingungen vorab in dem Speicher (nicht gezeigt) der Laseroszillatorsteuervorrichtung 6 gespeichert werden und können die Wahl von beliebigen der gespeicherten Bestrahlungsbedingungen und die Zeitpunkte des Beginns und des Endes der Bestrahlung in den Befehlen von der Robotersteuereinheit 3 enthalten sein.
  • Im erstgenannten Fall, d. h., bei dem Aufbau, bei dem die Robotersteuervorrichtung 3 Befehlswerte im Hinblick auf die Laserbestrahlung an die Laseroszillatorsteuervorrichtung 6 ausgibt, kann eine Information hinsichtlich der Bestrahlungsbedingungen von der Robotersteuervorrichtung 3 an die Bildverarbeitungsvorrichtung 9 übermittelt werden.
  • Im zweitgenannten Fall, d. h., bei dem Aufbau, bei dem die Bestrahlungsbedingungen vorab in dem Speicher der Laseroszillatorsteuervorrichtung 6 gespeichert werden, können die in dem Speicher gespeicherten Bestrahlungsbedingungen über die Robotersteuervorrichtung 3 an die Bildverarbeitungsvorrichtung 9, die später beschrieben werden wird, übermittelt werden. Obwohl keine entsprechende Darstellung vorgenommen wurde, können die Bestrahlungsbedingungen des Speichers der Laseroszillatorsteuervorrichtung 6 in diesem Fall direkt an die Bildverarbeitungsvorrichtung 9 übermittelt werden.
  • Die Robotersteuervorrichtung 3 gibt auch Befehlswerte hinsichtlich der Bestrahlungsposition oder der Fokuslage eines von der Laserbestrahlungsvorrichtung 2 ausgestrahlten Laserstrahls an die Laserbestrahlungsvorrichtungssteuervorrichtung 4 aus. Die Befehlswerte hinsichtlich der Bestrahlungsposition oder der Fokuslage können von der Robotersteuervorrichtung 3 an die Bildverarbeitungsvorrichtung 9 übermittelt werden.
  • Die Laserbestrahlungsvorrichtungssteuervorrichtung 4 ist eine Vorrichtung, um Motoren zum Antreiben des Galvanomechanismus und des Linsenpositionseinstellmechanismus, die in der Laserbestrahlungsvorrichtung 2 vorgesehen sind, auf Basis der Befehle von der Robotersteuervorrichtung 3 zu steuern. Die Laserbestrahlungsvorrichtungssteuervorrichtung 4 kann in die Robotersteuervorrichtung 3 aufgenommen sein.
  • Der Laseroszillator 5 ist eine Laserlieferungsquelle zum Oszillieren eines Lasers, um der Laserbestrahlungsvorrichtung 2 einen Laserstrahl zu liefern. Beispiele für den Laseroszillator 5 umfassen einen Faserlaser, einen CO2-Laser, einen YAG-Laser usw. Bei der vorliegenden Erfindung kann jede beliebige Art von Laseroszillator, die einen Laser ausgeben kann, der zur Bearbeitung verwendet werden kann, eingesetzt werden.
  • Die Laseroszillatorsteuervorrichtung 6 steuert den Laseroszillator 5 auf Basis der Befehle von der Robotersteuervorrichtung 3 so, dass ein Bearbeitungslaserstrahl ausgestrahlt wird. Alternativ kann die Laseroszillatorsteuervorrichtung 6 wie oben beschrieben einen Speicher zum Speichern von Bestrahlungsbedingungen aufweisen, und kann sie als Reaktion auf die Befehle von der Robotersteuervorrichtung 3 beliebige der Bestrahlungsbedingungen aus dem Speicher wählen, um den Laseroszillator 5 zu steuern.
  • Die Laseroszillatorsteuervorrichtung 6 kann in die Robotersteuervorrichtung 3 aufgenommen sein.
  • Vor allem kann bei dieser Ausführungsform als Reaktion auf die Befehle von der Robotersteuervorrichtung 3 ein Arbeitsvorgang einer Laserbearbeitung ohne Ausgabe eines Laserstrahls durchgeführt werden.
  • Es ist zu beachten, dass der Roboter 1, die Robotersteuervorrichtung 3 und die Bildverarbeitungsvorrichtung 9 jeweils vorzugsweise aus einem Computersystem (nicht gezeigt) bestehen, das einen Speicher wie etwa einen ROM oder RAM, eine CPU und eine Kommunikationssteuereinheit aufweist, welche über eine Busleitung verbunden sind.
  • Vorzugsweise speichert der ROM, der in dem Computersystem, das die Bildverarbeitungsvorrichtung 9 bildet, enthalten ist, eine Anwendungssoftware (ein Programm), die das Computersystem dazu bringt, als die Augmented-Reality-Bildverarbeitungseinheit 9a zu arbeiten. Vorzugsweise werden die Funktion und die Arbeitsweise der Augmented-Reality-Bildverarbeitungseinheit 9a auf Basis des in dem ROM gespeicherten Programms durch die CPU der Bildverarbeitungsvorrichtung 9 gemeinsam mit, zum Beispiel, der Robotersteuervorrichtung 3, der Laserbestrahlungsvorrichtungssteuervorrichtung 4 oder der Anzeigevorrichtung 10 durchgeführt.
  • 4 ist eine Ansicht eines Bilds eines Zustands, in dem das in 1 gezeigte Laserbearbeitungs-Robotersystem verwendet wird, um eine Laserbearbeitung durchzuführen. 5 ist eine Ansicht eines Bilds eines Zustands, in dem das in 2 gezeigte Laserbearbeitungs-Robotersystem verwendet wird, um eine Laserbearbeitung durchzuführen.
  • Es wird angenommen, dass die an dem distalen Ende 1a des Roboterarms angebrachte Laserbestrahlungsvorrichtung 2 wie in 4 und 5 gezeigt an eine Position über dem Werkstück W auf der Werkbank 7 bewegt wurde und durch den Roboter 1 einen Arbeitsvorgang einer Laserbearbeitung ohne Ausstrahlung eines Bearbeitungslaserstrahls von dem Laser durchgeführt wird.
  • In diesem Fall werden bei dem Beispiel, das in 4 gezeigt ist, ein Arbeitsszenario in dem echten Raum, wovon ein Bild durch die Bildaufnahmevorrichtung 8 aufgenommen werden soll, und ein virtuelles Bild 14 eines Laserstrahls, das durch eine Augmented-Reality-Technologie erzeugt wird, auf einem Bildschirm 15 der Anzeigevorrichtung 10 angezeigt.
  • Bei dem Beispiel, das in 5 gezeigt ist, ist die Anzeigevorrichtung 10 ein brillenartiges Head-Mounted Display mit Kamerafunktion. In diesem Fall nimmt die Kamerafunktion des brillenartigen Head-Mounted Displays, das ein Betreiber 16 trägt, ein Bild eines Arbeitsszenarios in dem echten Raum auf. Dann werden das Arbeitsszenario in dem echten Raum und das virtuelle Bild 14 eines Laserstrahls, das durch eine Augmented-Reality-Technologie erzeugt wird, auf dem Bildschirm 15 des Head-Mounted Displays, der so angeordnet ist, dass er den Augen des Betreibers 16 gegenüberliegt, angezeigt.
  • Genauer wird wie in 4 und 5 gezeigt das virtuelle Bild 14 eines Laserstrahls durch die Augmented-Reality-Bildverarbeitungseinheit 9a so erzeugt, dass die Laserbestrahlungsvorrichtung das Werkstück W virtuell mit dem Laserstrahl bestrahlt, und dann an der Anzeigevorrichtung 10 angezeigt.
  • Vor allem kann der Betreiber 16 bei Einsatz des in 5 gezeigten Head-Mounted Displays einen virtuellen Zustand der Laserbearbeitungsvorrichtung von überall her sehen.
  • (Betrieb)
  • Nun wird der Betrieb des Laserbearbeitungs-Robotersystems 100 beschrieben. Bei dem Laserbearbeitungs-Robotersystem 100, das als Beispiel in 1 gezeigt ist, wird der Vorgang, um dem Roboter 1 einen Arbeitsvorgang zur Bearbeitung des Werkstücks W zu lehren, beschrieben. Natürlich kann der Vorgang, der nachstehend beschrieben wird, auch auf das Laserbearbeitungs-Robotersystem 100, das als Beispiel in 2 gezeigt ist, angewendet werden.
  • Bei dem Laserbearbeitungs-Robotersystem 100, das in 1 gezeigt ist, ist in dem Speicher (nicht gezeigt) der Robotersteuervorrichtung 3 vorab ein Betriebsprogramm gespeichert, in dem zum Beispiel Arbeitsvorgänge oder Bearbeitungsbedingungen für die Laserbearbeitung des Werkstücks W beschrieben sind. Ferner sind die Position der Werkbank 7 zum Befestigen des Werkstücks W oder die Position und die Lage der Bildaufnahmevorrichtung 8 durch ein Weltkoordinatensystem (auch als ”Basiskoordinatensystem” bezeichnet) auf Basis der Installationsposition des Roboters definiert. Die Korrelation zwischen der Position, die durch die Bildaufnahmevorrichtung 8 abgebildet werden soll, und der Position eines Objekts wie etwa des Roboters 1 in dem realen Raum wurde im Voraus durch eine Kalibrierung herausgefunden.
  • Um dem Roboter 1 einen Arbeitsvorgang einer Laserbearbeitung zu lehren, betätigt der Betreiber den Roboter 1 über das Lehr-Bedienfeld, um die Laserbestrahlungsvorrichtung 2 des distalen Endes 1a des Roboterarms an eine Position über dem Werkstück W auf der Werkbank 7 zu bewegen und den Arbeitsvorgang einer Laserbearbeitung unter Verwendung des Roboters durchzuführen. In diesem Zusammenhang steuert die Laseroszillatorsteuervorrichtung 6 den Laseroszillator 5 so, dass er der Laserbestrahlungsvorrichtung 2 keinen Bearbeitungslaserstrahl liefert. Mit anderen Worten wird kein Bearbeitungslaserstrahl von der Laserbestrahlungsvorrichtung 2 zu dem Werkstück W ausgegeben, während dem Roboter 1 ein Arbeitsvorgang einer Laserbearbeitung gelehrt wird.
  • Während des Lehrvorgangs sendet die Robotersteuervorrichtung 3 Befehlswerte, die dem Roboter 1 Anweisungen hinsichtlich der Position des distalen Endes 1a des Roboterarms geben, oder Befehlswerte, die Anweisungen hinsichtlich des Drehwinkels des Reflexionsspiegels der Laserbestrahlungsvorrichtung 2 und der Position der Linse der Laserbestrahlungsvorrichtungssteuervorrichtung 4 erteilen, an die Bildverarbeitungsvorrichtung 9.
  • Durch die Bildaufnahmevorrichtung 8 wird ein Bild des Zustands eines Roboterlehrvorgangs in Echtzeit aufgenommen. Das aufgenommene Bild wird an die Bildverarbeitungsvorrichtung 9 gesendet.
  • In der Bildverarbeitungsvorrichtung 9 erzeugt die Augmented-Reality-Bildverarbeitungseinheit 9a virtuelle Bilder, die einen Laserstrahl, der sich ergibt, wenn man annimmt, dass der Laserstrahl von der Laserbestrahlungsvorrichtung 2 zu einer Oberfläche des Werkstücks W ausgestrahlt wird, und eine Bestrahlungsposition des Laserstrahls darstellen, und überlagert die virtuellen Bilder dem durch die Bildaufnahmevorrichtung 8 aufgenommenen tatsächlichen Bild.
  • 6 ist eine der Erklärung dienende Ansicht eines Konzepts eines Verfahrens zur Erzeugung eines virtuellen Bilds eines Laserstrahls auf einem Bild eines Arbeitsszenarios in einem echten Raum. Das Verfahren zur Erzeugung eines virtuellen Bilds auf dem aufgenommenen tatsächlichen Bild wird nachstehend unter Bezugnahme auf 6 konkret beschrieben werden.
  • Zuerst wird in dem echten Raum die Installationsposition des Roboters 1 als ”Punkt O” festgelegt und die Position der Laserbestrahlungsöffnung 2a der Laserbestrahlungsvorrichtung 2, die an dem distalen Ende 1a des Roboterarms angebracht ist, als ”Punkt S” festgelegt, und dann wird ein Vektor R, der den Punkt O und den Punkt S verbindet, gefunden (6).
  • Der Punkt O wird als der Ausgangspunkt eines Bearbeitungsvorgangs, der durch den Arm des Roboters 1 durchgeführt wird, festgelegt. Bei dieser Ausführungsform ist der Einrichtungspunkt des Roboters 1 als der Punkt O festgelegt, doch kann die stationäre Position an dem Hauptkörper des Roboters 1 als der Punkt O festgelegt werden.
  • Nun kann aus der Position des distalen Endes 1a des Roboterarms in Bezug auf den Punkt o und einer graphischen Information, die Positionsinformation der Laserbestrahlungssöffnung 2a der an dem distalen Ende 1a angebrachten Laserbestrahlungsvorrichtung 2 enthält, der Punkt S gefunden werden.
  • Insbesondere wird die Position des distalen Endes 1a des Roboterarms aus Befehlswerten hinsichtlich der Position des distalen Endes 1a des Roboterarms, die von der Robotersteuervorrichtung 3 ausgegeben werden, oder aus Detektionswerten (Drehwinkeln), die durch die in den Servomotoren der Gelenkachsen des Roboters 1 vorgesehenen Impulscodierer detektiert werden, gefunden. Ferner wird die Position des Punkts S aus der Montageposition der Laserbestrahlungsvorrichtung 2 in Bezug auf das distale Ende 1a und der Position der Laserbestrahlungsöffnung 2a der Laserbestrahlungsvorrichtung 2 in Bezug auf die Montageposition gefunden.
  • Die Montageposition der Laserbestrahlungsvorrichtung 2 in Bezug auf das distale Ende 1a und die Position der Laserbestrahlungsöffnung 2a können aus den Informationen in einer Zeichnung bei der Konstruktion der Laserbestrahlungsvorrichtung 2 erhalten werden.
  • Anschließend wird die Position auf einem durch die Laserbestrahlungsvorrichtung 2 bestrahlten Werkstück W, also die Laserbestrahlungsposition auf der Oberfläche des Werkstücks W, als ”Punkt P” festgelegt und unter Verwendung des Punkts S, der als die Position der Laserbestrahlungsöffnung 2a der Laserbestrahlungsvorrichtung 2 gewonnen wurde, ein Vektor L, der den Punkt S und den Punkt P verbindet, gefunden.
  • Wenn in der Laserbestrahlungsvorrichtung 2 der Galvanomechanismus (siehe 3) vorgesehen ist, kann die Position des Punkts P auf Basis von Befehlswerten hinsichtlich der Bestrahlungsposition, die von der Robotersteuervorrichtung 3 an die Laserbestrahlungsvorrichtungssteuervorrichtung 4 ausgegeben werden, und der Position des Punkts S, die bereits gewonnen wurde, gefunden werden. Alternativ kann die Position des Punkts P auf Basis von Detektionswerten (Drehwinkeln), die durch die an den Motoren 13X und 13Y des Galvanomechanismus vorgesehenen Impulscodierer tatsächlich detektiert werden, und der Position des Punkts S, die bereits gewonnen wurde, gefunden werden.
  • Wenn die Laserbestrahlungsvorrichtung 2 ferner den Linsenpositionseinstellmechanismus (nicht gezeigt) aufweist, kann die Fokuslage eines Laserstrahls auf Basis von Befehlswerten hinsichtlich der Fokuslage, die von der Robotersteuervorrichtung 3 an die Laserbestrahlungsvorrichtungssteuervorrichtung 4 ausgegeben werden, und der Position des Punkts S. die bereits gewonnen wurde, gefunden werden. Alternativ kann die Fokuslage eines Laserstrahls auf Basis von Detektionswerten (Drehwinkeln), die durch den an dem Motor des Linsenpositionseinstellmechanismus vorgesehenen Impulscodierer tatsächlich detektiert werden, und der Position des Punkts S, die bereits gewonnen wurde, gefunden werden.
  • Es ist zu beachten, dass der Vektor L, der den Punkt S und den Punkt P verbindet, leicht aus den mechanischen Konstruktionsinformationen hinsichtlich der Laserbestrahlungsvorrichtung 2 gefunden werden kann, wenn die Laserbestrahlungsvorrichtung 2 keinen Mechanismus aufweist, der die Bestrahlungsposition oder die Brennweite frei verändern kann, und die Bestrahlungsposition demgemäß fest ist.
  • Anschließend wird in dem echten Raum die Installationsposition der Bildaufnahmevorrichtung 8 als ”Punkt Q” festgelegt, und die Position des Punkts O als die Installationsposition des Roboters 1 verwendet, um einen Vektor C, der den Punkt Q und den Punkt O verbindet, zu finden (6).
  • Wenn die Position der Bildaufnahmevorrichtung 8 in Bezug auf die Installationsposition des Roboters 1 fest ist, kann der Vektor C durch vorab vorgenommenes Kalibrieren dieser beiden Positionen gefunden werden.
  • Wenn indessen die Position der Bildaufnahmevorrichtung 8 in Bezug auf die Installationsposition des Roboters 1 verändert werden kann, wird die Korrelation zwischen der anfänglichen Installationsposition der Bildaufnahmevorrichtung 8 und der Installationsposition des Roboters 1 kalibriert. Und wenn die Position der Bildaufnahmevorrichtung 8 verändert wird, werden ein Gyrosensor, ein dreidimensionaler Beschleunigungssensor, ein GPS (globales Positionsbestimmungssystem) usw., die nicht gezeigt sind und in der Bildaufnahmevorrichtung 8 enthalten sind, verwendet, um eine Bewegungsstrecke von der anfänglichen Installationsposition der Bildaufnahmevorrichtung 8 herauszufinden. Dies ermöglicht, dass der Vektor C selbst dann gefunden wird, wenn die Position der Bildaufnahmevorrichtung 8 in Bezug auf die Installationsposition des Roboters 1 verändert werden kann.
  • Wenn die Form der Laserbestrahlungsvorrichtung 2 und des Roboters 1 vorab als Modelldaten für eine dreidimensionale Modellanpassung in der Bildaufnahmevorrichtung 8 gespeichert wurden, kann die relative Position zwischen der Bildaufnahmevorrichtung 8 und dem Roboter 1 durch Anpassen der dreidimensionalen Modelldaten an das aufgenommene Bild gefunden werden. Somit kann der Vektor C aus der relativen Positionsinformation, die durch einen derartigen dreidimensionalen Modellanpassungsvorgang erhalten wird, gefunden werden.
  • Im Wesentlichen werden der Vektor C, der Vektor R und der Vektor L, die wie oben beschrieben erhalten wurden, kombiniert, um einen Vektor D (die gestrichelte Linie in 6) zu finden. Der Vektor D ist ein Vektor, der die Installationsposition (den Punkt Q) und die Laserbestrahlungsposition (den Punkt P) der Bildaufnahmevorrichtung 8 verbindet.
  • Auf Basis der Information des Vektors D kann die Laserbestrahlungsposition (der Punkt P) oder die Laserbestrahlungsrichtung von der Laserbestrahlungsvorrichtung 2 auf dem tatsächlichen Bild, das an der Installationsposition der Bildaufnahmevorrichtung 8 aufgenommen wurde, dargestellt werden. Dies ermöglicht der Augmented-Reality-Bildverarbeitungseinheit 9a der Bildverarbeitungsvorrichtung 9, auf dem Bild, das durch die Bildaufnahmevorrichtung 8 aufgenommen wurde, virtuell einen Laserstrahl, der von der Laserbestrahlungsvorrichtung 2 ausgestrahlt werden soll, oder eine Laserbestrahlungsposition des Laserstrahls zu erzeugen.
  • Somit erzeugt die Augmented-Reality-Bildverarbeitungseinheit 9a virtuelle Bilder, die einen Laserstrahl, der unter der Annahme einer Ausstrahlung des der Laserstrahls von der Laserbestrahlungsvorrichtung 2 zu einer Oberfläche des Werkstücks W gewonnen wird, und eine Bestrahlungsposition des Laserstrahls darstellen, und überlagert die virtuellen Bilder dem tatsächlichen Bild, das durch die Bildaufnahmevorrichtung 8 aufgenommen wurde. Dann zeigt die Augmented-Reality-Bildaufnahmeeinheit 9a das überlagerte Bild an der Anzeigevorrichtung 10 an. Wie zum Beispiel in 4 und 5 gezeigt wird, wird das virtuelle Bild 14, das durch virtuelles Ausstrahlen eines Laserstrahls von der an dem Roboter 1 angebrachten Laserausstrahlungsvorrichtung 2 auf die Oberfläche des Werkstücks W erhalten wird, an dem Bildschirm 15 der Anzeigevorrichtung 10 angezeigt.
  • Darüber hinaus werden während eines Vorgangs Befehlswerte oder Detektionswerte hinsichtlich der Position des distalen Endes 1a des Roboters 1 oder Befehlswerte oder Detektionswerte hinsichtlich der Bestrahlungsposition und der Bestrahlungsbedingungen eines von der Laserbestrahlungsvorrichtung 2 ausgestrahlten Laserstrahls oder der Brennweite einer Linse zum Beispiel von der Robotersteuervorrichtung 3 an die Bildverarbeitungsvorrichtung 9 übermittelt. Die Augmented-Reality-Bildverarbeitungseinheit 9a der Bildverarbeitungsvorrichtung 9 erzeugt das virtuelle Bild auf Basis dieser Werte.
  • Ferner werden vorab Daten hinsichtlich der relativen Position, z. B. des relativen Winkels oder der relativen Lage, zwischen dem Roboter 1, an dem die Laserbestrahlungsvorrichtung 2 angebracht ist, und der Bildaufnahmevorrichtung 8 in die Bildverarbeitungsvorrichtung 8 eingegeben. Wenn die relative Position zwischen dem Roboter 1 und der Bildaufnahmevorrichtung 8 verändert wird, wird daher das virtuelle Bild 14 des Laserstrahls entsprechend so verändert, dass es mit dem tatsächlichen Bild der Arbeitssituation des Roboters 1, das durch die Bildaufnahmevorrichtung 8 aufgenommen wurde, übereinstimmt. Das gleiche gilt für das Laserbearbeitungs-Robotersystem 100, das die Anzeigevorrichtung 10 aufweist, die wie in 2 gezeigt aus einem beweglichen Head-Mounted Display besteht.
  • Wenn das virtuelle Bild 14 des Laserstrahls wie oben beschrieben an der Anzeigevorrichtung 10 angezeigt wird, wird vorzugsweise ein Anzeigevorgang, der nachstehend beschrieben werden wird, durchgeführt, um ein leichtes Erkennen des virtuellen Bilds 14 des Laserstrahls zu ermöglichen.
  • Wenn zum Beispiel die Augmented-Reality-Bildverarbeitungseinheit 9a das virtuelle Bild 14 des Laserstrahls erzeugt, kann wenigstens eines aus der Anzeigefarbe und der Anzeigegröße des Laserstrahls verändert werden.
  • Insbesondere kann die Farbe eines Laserstrahls, der angezeigt werden soll, oder die Größe einer Lichtachse, der Bestrahlungsradius an der Bestrahlungsposition des Laserstrahls usw. frei verändert werden.
  • In diesem Fall kann die Augmented-Reality-Bildverarbeitungseinheit 9a wenigstens eines aus der Anzeigefarbe und der Anzeigegröße eines Laserstrahls gemäß Bestrahlungsbedingungen für das Ausstrahlen des Laserstrahls von der Laserbestrahlungsvorrichtung 2 verändern. Zum Beispiel kann der Farbton der Anzeigefarbe des Laserstrahls abhängig von der Stärke der Leistung eines Lasers klassifiziert werden.
  • Ferner kann die Augmented-Reality-Bildverarbeitungseinheit 9a den Ort zumindest des Laserstrahls, der als das virtuelle Bild 14 dargestellt wird, oder der Bestrahlungsposition des Laserstrahls an der Anzeigevorrichtung 10 anzeigen. Wenn zum Beispiel der Ort der Bestrahlungsposition während des Lehrens (d. h., der Bewegungs-Ort eines Laserflecks) auch nach dem Abschluss des Lehrens eines Arbeitsvorgangs einer Laserbearbeitung als Bild auf dem Bildschirm der Anzeigevorrichtung 10 belassen wird, kann die Laserbestrahlungsposition leichter bestätigt werden.
  • Zusammen mit einem Bild, das einen solchen Ort der Laserbestrahlungsposition darstellt, kann die Information hinsichtlich der Laserbestrahlungsbedingungen, z. B. eine numerische Information hinsichtlich der Bestrahlungsbedingungen eines Pulslasers wie etwa die Laserleistung, die Wiederholungsfrequenz und das Tastverhältnis, an der Anzeigevorrichtung 10 angezeigt werden. Mit anderen Worten kann die Augmented-Reality-Bildverarbeitungseinheit 9a so ausgelegt sein, dass sie die Information hinsichtlich der Laserbestrahlungsbedingungen zusammen mit dem virtuellen Bild 14 eines Laserstrahls oder der Laserbestrahlungsposition an der Anzeigevorrichtung 10 anzeigt.
  • Wie aus dem Obigen ersichtlich ist, kann nach dieser Ausführungsform ein Bild des Laserstrahls, der von der an dem Roboter 1 angebrachten Laserbestrahlungsvorrichtung 2 ausgestrahlt wird, virtuell erzeugt werden und ein virtuelles Bild des erzeugten Laserstrahls dem tatsächlichen Bild des Roboters 1, das durch die Bildaufnahmevorrichtung 8 aufgenommen wurde, überlagert werden und dann angezeigt werden. Mit anderen Worten wird nach dieser Ausführungsform eine Augmented-Reality-Technologie verwendet, um zu ermöglichen, dass ein Bearbeitungslaserstrahl als virtuelles Bild und seine Bestrahlungsposition auf einem Bild in dem tatsächlichen Arbeitsraum dargestellt werden. Somit kann der Betreiber den Bearbeitungslaserstrahl und seine Bestrahlungsposition auch dann sicher und leicht auf dem Bildschirm erkennen, wenn tatsächlich keine Ausstrahlung des Bearbeitungslaserstrahls erfolgt.
  • Vor allem wird der Bearbeitungslaserstrahl virtuell angezeigt, und ist es demgemäß nicht nötig, in der Laserbestrahlungsvorrichtung einen Mechanismus zum Ausstrahlen eines Pilotlasers anzubringen. Ferner besteht keine Gefahr, dass ein menschlicher Körper dem Bearbeitungslaserstrahl ausgesetzt wird.
  • Diese Punkte sind besonders wirksam, wenn das Laserbearbeitungs-Robotersystem 100 verwendet wird, um eine Fernlaserbearbeitung durchzuführen.
  • Alternativ kann das Laserbearbeitungs-Robotersystem 100 so ausgelegt sein, dass es das virtuelle Bild 14 von, zum Beispiel, der Laserbestrahlungsposition unter Verwendung eines Projektors auf den echten Raum projiziert, anstatt es an der Anzeigevorrichtung 10 anzuzeigen.
  • Die vorliegende Erfindung wurde oben unter Verwendung beispielhafter Ausführungsformen beschrieben. Ein Fachmann wird jedoch verstehen, dass die oben genannten Abwandlungen und verschiedene andere Abwandlungen, Weglassungen und Hinzufügungen vorgenommen werden können, ohne von dem Umfang der vorliegenden Erfindung abzuweichen. Der Umfang dieser Offenbarung enthält jede beliebige passende Kombination dieser Ausführungsformen.
  • WIRKUNG DER ERFINDUNG
  • Nach dem ersten Gesichtspunkt dieser Offenbarung kann der Zustand der Bestrahlung mit einem Bearbeitungslaserstrahl auch dann virtuell auf dem tatsächlichen Bild, das den Roboter enthält, angezeigt werden, wenn tatsächlich keine Ausstrahlung des Bearbeitungslaserstrahls von der an dem Arm des Roboters angebrachten Laserbestrahlungsvorrichtung erfolgt. Daher kann der Betreiber den Bearbeitungslaserstrahl und seine Bestrahlungsposition sicher und leicht auf dem Bildschirm sehen.
  • Nach dem zweiten Gesichtspunkt dieser Offenbarung kann dann, wenn die Laserbestrahlungsvorrichtung einen Mechanismus aufweist, der die Brennweite eines Laserstrahls verändern kann, auch dann ein virtuelles Bild des Zustands der Bestrahlung mit dem Bearbeitungslaserstrahl angezeigt werden, wenn tatsächlich keine Ausstrahlung des Bearbeitungslaserstrahls erfolgt.
  • Nach dem dritten Gesichtspunkt dieser Offenbarung kann dann, wenn die Laserbestrahlungsvorrichtung einen Mechanismus aufweist, der die Bestrahlungsposition eines Laserstrahls verändern kann, auch dann ein virtuelles Bild des Zustands der Bestrahlung mit dem Bearbeitungslaserstrahl angezeigt werden, wenn tatsächlich keine Ausstrahlung des Bearbeitungslaserstrahls erfolgt.
  • Nach dem vierten Gesichtspunkt dieser Offenbarung kann der Ort eines Laserstrahls, der als virtuelles Bild dargestellt ist, oder einer Laserbestrahlungsposition an der Anzeigevorrichtung angezeigt werden, und die Laserbestrahlungsposition kann dementsprechend auch nach der Durchführung eines Arbeitsvorgangs einer Laserbearbeitung ohne Ausgabe eines Laserstrahls durch den Roboter leicht bestätigt werden.
  • Nach dem fünften und dem siebenten Gesichtspunkt dieser Offenbarung können Bestrahlungsbedingungen eines Laserstrahls auf dem Bildschirm visuell überwacht werden.
  • Nach dem sechsten Gesichtspunkt dieser Offenbarung kann die Sichtbarkeit eines Laserstrahls, der an der Anzeigevorrichtung angezeigt wird, und seiner Bestrahlungsposition verbessert werden.
  • Nach dem achten Gesichtspunkt dieser Offenbarung kann der Betreiber bei Einsatz eines Head-Mounted Displays als Anzeigevorrichtung den Zustand eines virtuellen Arbeitsvorgangs einer Laserbearbeitung von überall her sehen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2007-253200 [0004, 0005]
    • JP 2013-123743 [0004, 0006]

Claims (8)

  1. Laserbearbeitungs-Robotersystem (100) zur Durchführung einer Laserbearbeitung eines Werkstücks (W) unter Verwendung eines Roboters (1) mit einem Arm, woran eine Laserbestrahlungsvorrichtung (2) zur Ausstrahlung eines Laserstrahls zur Bearbeitung angebracht ist, umfassend: eine Robotersteuervorrichtung (3), die den Roboter (1) dazu bringt, einen Arbeitsvorgang der Laserbearbeitung ohne Ausgabe des Laserstrahls durchzuführen; eine Bildaufnahmevorrichtung (8), um ein tatsächliches Bild aufzunehmen, das den Roboter (1), der dazu gebracht wird, einen Arbeitsvorgang der Laserbearbeitung ohne Ausgabe des Laserstrahls durchzuführen, enthält; eine Anzeigevorrichtung (10) zum Anzeigen des tatsächlichen Bilds in Echtzeit; und eine Bildverarbeitungsvorrichtung (9), die an die Robotersteuervorrichtung (3) angeschlossen ist und eine Augmented-Reality-Bildverarbeitungseinheit (9a) zur Durchführung einer Augmented-Reality-Bildverarbeitung für das tatsächliche Bild aufweist, wobei die Augmented-Reality-Bildverarbeitungseinheit (9a) dazu ausgelegt ist, ein virtuelles Bild (14), das von einem Laserstrahl, der sich ergibt, indem angenommen wird, dass der Laserstrahl von der Laserbestrahlungsvorrichtung (2) zu dem Werkstück ausgestrahlt wird, und einer Bestrahlungsposition des Laserstrahls wenigstens eines darstellt, über das tatsächliche Bild zu legen und das überlagerte Bild an der Anzeigevorrichtung (10) anzuzeigen.
  2. Laserbearbeitungs-Robotersystem (100) nach Anspruch 1, wobei die Laserbestrahlungsvorrichtung (2) einen Linsenpositionseinstellmechanismus umfasst, der die Position einer Linse als Reaktion auf einen Befehl von der Robotersteuervorrichtung (3) einstellt, um eine Brennweite zu verändern, und die Augmented-Reality-Bildverarbeitungseinheit (9a) dazu ausgelegt ist, das virtuelle Bild (14) auf Basis eines Befehlswerts oder eines Detektionswerts hinsichtlich der Brennweite und der Position der Linse zu erzeugen.
  3. Laserbearbeitungs-Robotersystem (100) nach Anspruch 1 oder 2, wobei die Laserbestrahlungsvorrichtung (2) einen Bestrahlungspositionsveränderungsmechanismus zum Verändern der Bestrahlungsposition des Laserstrahls auf einer Oberfläche des Werkstücks als Reaktion auf einen Befehl von der Robotersteuereinheit (3) aufweist, und die Augmented-Reality-Bildverarbeitungseinheit (9a) dazu ausgelegt ist, das virtuelle Bild (14) auf Basis eines Befehlswerts oder eines Detektionswerts hinsichtlich der Bestrahlungsposition zu erzeugen.
  4. Laserbearbeitungs-Robotersystem (100) nach einem der Ansprüche 1 bis 3, wobei die Augmented-Reality-Bildverarbeitungseinheit (9a) dazu ausgelegt ist, den Ort zumindest des als das virtuelle Bild (14) dargestellten Laserstrahls oder der Bestrahlungsposition des Laserstrahls an der Anzeigevorrichtung (10) anzuzeigen.
  5. Laserbearbeitungs-Robotersystem (100) nach einem der Ansprüche 1 bis 4, wobei die Robotersteuervorrichtung (3) dazu ausgelegt ist, eine Information hinsichtlich von Bestrahlungsbedingungen für die Bestrahlung mit dem Laserstrahl an die Bildverarbeitungsvorrichtung (9) zu übermitteln, und die Augmented-Reality-Bildverarbeitungseinheit (9a) dazu ausgelegt ist, die Information hinsichtlich der Bestrahlungsbedingungen zusammen mit dem virtuellen Bild (14) an der Anzeigevorrichtung (10) anzuzeigen.
  6. Laserbearbeitungs-Robotersystem (100) nach einem der Ansprüche 1 bis 5, wobei die Augmented-Reality-Bildverarbeitungseinheit (9a) dazu ausgelegt ist, von der Anzeigefarbe und der Anzeigegröße des Laserstrahls wenigstens eines zu verändern, wenn das virtuelle Bild (14) erzeugt wird.
  7. Laserbearbeitungs-Robotersystem (100) nach Anspruch 6, wobei die Augmented-Reality-Bildverarbeitungseinheit (9a) dazu ausgelegt ist, von der Anzeigefarbe und der Anzeigegröße des Laserstrahls wenigstens eines gemäß den Bestrahlungsbedingungen für die Bestrahlung mit dem Laserstrahl zu verändern.
  8. Laserbearbeitungs-Robotersystem (100) nach einem der Ansprüche 1 bis 7, wobei die Anzeigevorrichtung (10) ein Head-Mounted Display ist, das so ausgebildet ist, dass es mit der Bildaufnahmevorrichtung (8) einstückig ausgeführt ist.
DE102017114880.9A 2016-07-08 2017-07-04 Laserbearbeitungs-robotersystem zur durchführung einer laserbearbeitung eines werkstücks unter verwendung eines roboters Active DE102017114880B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-135972 2016-07-08
JP2016135972A JP6348149B2 (ja) 2016-07-08 2016-07-08 ロボットを用いてレーザ加工を行うレーザ加工ロボットシステム

Publications (2)

Publication Number Publication Date
DE102017114880A1 true DE102017114880A1 (de) 2018-01-11
DE102017114880B4 DE102017114880B4 (de) 2020-10-15

Family

ID=60676574

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017114880.9A Active DE102017114880B4 (de) 2016-07-08 2017-07-04 Laserbearbeitungs-robotersystem zur durchführung einer laserbearbeitung eines werkstücks unter verwendung eines roboters

Country Status (4)

Country Link
US (1) US10413994B2 (de)
JP (1) JP6348149B2 (de)
CN (1) CN107584206B (de)
DE (1) DE102017114880B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109175829A (zh) * 2018-09-07 2019-01-11 上海航天精密机械研究所 焊枪位姿在线调整方法及装置

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6464213B2 (ja) * 2017-02-09 2019-02-06 ファナック株式会社 レーザ加工ヘッドおよび撮影装置を備えるレーザ加工システム
JP6595558B2 (ja) * 2017-10-30 2019-10-23 ファナック株式会社 レーザ加工システム
JP7259284B2 (ja) * 2017-11-28 2023-04-18 株式会社デンソーウェーブ 教示装置、教示方法
US11287507B2 (en) 2018-04-30 2022-03-29 The Boeing Company System and method for testing a structure using laser ultrasound
JP6904927B2 (ja) * 2018-07-30 2021-07-21 ファナック株式会社 ロボットシステムおよびキャリブレーション方法
CN110142770B (zh) * 2019-05-07 2020-11-27 中国地质大学(武汉) 一种基于头戴显示装置的机器人示教***及方法
JP7201534B2 (ja) * 2019-05-27 2023-01-10 ファナック株式会社 実測装置及びプログラム
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
US11305377B2 (en) * 2019-12-23 2022-04-19 Precitec Gmbh & Co. Kg Add-on module for interposing between a control device and a laser machining head of a laser machining system
CN111889989B (zh) * 2020-09-17 2020-12-18 常州锦瑟医疗信息科技有限公司 基于混合现实的高精度机械加工方法和加工***
US11623305B2 (en) * 2020-10-16 2023-04-11 Verdant Robotics, Inc. Autonomous laser treatment system for agricultural objects
US12019050B2 (en) 2021-04-07 2024-06-25 The Boeing Company Ultrasound inspection system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007253200A (ja) 2006-03-23 2007-10-04 Nissan Motor Co Ltd レーザ溶接装置およびレーザ焦点位置調整方法
JP2013123743A (ja) 2011-12-15 2013-06-24 Jfe Steel Corp レーザ溶接の溶接位置検出装置および溶接位置検出方法

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4920249A (en) * 1989-05-08 1990-04-24 General Electric Company Weld bead wetting angle detection and control
US5204814A (en) * 1990-11-13 1993-04-20 Mobot, Inc. Autonomous lawn mower
ATE169850T1 (de) * 1991-01-21 1998-09-15 Sulzer Hydro Ag Verfahren zur herstellung von metallischen werkstücken mit einer schweissvorrichtung und vorrichtung zur ausführung desselben
JP3123146B2 (ja) * 1991-09-11 2001-01-09 トヨタ自動車株式会社 溶接ビードの品質検査装置
US5718832A (en) * 1993-10-15 1998-02-17 Fanuc Ltd. Laser beam machine to detect presence or absence of a work piece
JP3107126B2 (ja) * 1994-02-03 2000-11-06 ミヤチテクノス株式会社 レーザ装置
US5552575A (en) * 1994-07-15 1996-09-03 Tufts University Scan welding method and apparatus
JPH0866790A (ja) * 1994-08-30 1996-03-12 Sony Corp レーザ加工装置
DE29505985U1 (de) * 1995-04-06 1995-07-20 Bestenlehrer, Alexander, 91074 Herzogenaurach Vorrichtung zum Bearbeiten, insbesondere zum Polieren und Strukturieren von beliebigen 3D-Formflächen mittels eines Laserstrahls
FR2737806B1 (fr) * 1995-08-11 1997-09-12 Soc D Production Et De Rech Ap Dispositif et procede de traitement de surface par laser
US6430472B1 (en) * 1999-12-20 2002-08-06 Servo-Robot Inc. Robot feature tracking devices and methods
JP4149165B2 (ja) * 2000-05-19 2008-09-10 三菱電機株式会社 3次元レーザ加工機用制御装置
EP1340214A2 (de) * 2000-10-27 2003-09-03 Advanced Laser Technologies, Inc. Lichtstrahlanzeige mit verschachteltem lichtstrahlscannen
JP3424001B2 (ja) * 2000-12-28 2003-07-07 川崎重工業株式会社 レーザ溶接方法およびレーザ溶接装置
US7380697B2 (en) * 2001-02-14 2008-06-03 Honda Giken Kogyo Kabushiki Kaisha Welding condition monitoring device
US6612143B1 (en) * 2001-04-13 2003-09-02 Orametrix, Inc. Robot and method for bending orthodontic archwires and other medical devices
US20040034599A1 (en) * 2001-06-01 2004-02-19 Pietro Ferrero Method and device for the robot-controlled cutting of workpieces to be assembled by means of laser radiation
NL1018906C2 (nl) * 2001-09-07 2003-03-11 Jense Systemen B V Laser scanner.
JP2004314137A (ja) * 2003-04-17 2004-11-11 Fanuc Ltd レーザ加工ロボット
DE10333456A1 (de) * 2003-07-22 2005-02-24 Kuka Schweissanlagen Gmbh Verfahren und Vorrichtung zum Laserbearbeiten von Werkstücken
EP1510282B1 (de) * 2003-08-29 2008-07-09 Trumpf Laser- und Systemtechnik GmbH Vorrichtung zum Remote-Bearbeiten von Werkstücken mittels eines Laserbearbeitungsstrahls
JP2005138223A (ja) * 2003-11-06 2005-06-02 Fanuc Ltd ロボット用位置データ修正装置
JP3905075B2 (ja) * 2003-11-17 2007-04-18 ファナック株式会社 作業プログラム作成装置
CA2489941C (en) * 2003-12-18 2012-08-14 Comau S.P.A. A method and device for laser welding
US7633033B2 (en) * 2004-01-09 2009-12-15 General Lasertronics Corporation Color sensing for laser decoating
US7800014B2 (en) * 2004-01-09 2010-09-21 General Lasertronics Corporation Color sensing for laser decoating
JP4020099B2 (ja) * 2004-05-20 2007-12-12 株式会社デンソー レーザ加工方法
ITTO20040361A1 (it) * 2004-05-28 2004-08-28 Comau Spa Metodo e dispositivo per saldatura laser remota mediante robot, con controllo semplificato della direzione di focalizzazione del fascio laser.
DE202004021725U1 (de) * 2004-06-05 2010-07-15 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Laserbearbeitungsmaschine mit Strahldiagnosevorrichtung zur Bestimmung wenigstens eines Strahlkenndatums eines Laserstrahls an einer Laserbearbeitungsmaschine
US20060060573A1 (en) * 2004-09-15 2006-03-23 Wolfgang Becker Process for preparing a workpiece to be worked with a laser beam, and device for carrying out the process
JP4137862B2 (ja) * 2004-10-05 2008-08-20 ファナック株式会社 計測装置及びロボット制御装置
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
JP2006289387A (ja) * 2005-04-06 2006-10-26 Fanuc Ltd レーザ溶接方法及びレーザ溶接ロボット
US20060235564A1 (en) * 2005-04-18 2006-10-19 Igor Troitski Method and multifunctional system for producing laser-induced images on the surfaces of various materials and inside transparent materials
DE102005022696A1 (de) * 2005-05-18 2006-11-23 Benecke-Kaliko Ag Verfahren zur Herstellung von dreidimensional strukturierten Oberflächen
JP4137927B2 (ja) * 2005-08-04 2008-08-20 ファナック株式会社 ロボットプログラミング装置
JP5135672B2 (ja) * 2005-09-30 2013-02-06 日産自動車株式会社 レーザ照射状態の検出方法およびレーザ照射状態検出システム
JP4792901B2 (ja) * 2005-09-30 2011-10-12 日産自動車株式会社 レーザ溶接装置およびその方法、ならびに照射装置
JP4840110B2 (ja) * 2006-03-09 2011-12-21 日産自動車株式会社 レーザ溶接装置およびレーザ溶接方法
US7405377B2 (en) * 2006-06-05 2008-07-29 Lincoln Global, Inc. Method for testing undercut on the inner diameter of pipe welds
JP4958489B2 (ja) * 2006-06-30 2012-06-20 株式会社キーエンス レーザ加工装置、レーザ加工条件設定装置、レーザ加工条件設定方法、レーザ加工条件設定プログラム
US8319145B2 (en) * 2006-07-10 2012-11-27 Lazare Kaplan International, Inc. System and method for gemstone micro-inscription
JP4141485B2 (ja) * 2006-07-19 2008-08-27 トヨタ自動車株式会社 レーザ加工システムおよびレーザ加工方法
JP4795886B2 (ja) * 2006-07-27 2011-10-19 株式会社キーエンス レーザ加工装置、レーザ加工条件設定装置、レーザ加工条件設定方法、レーザ加工条件設定プログラム
JP4353219B2 (ja) * 2006-08-14 2009-10-28 日産自動車株式会社 レーザ加工装置、レーザ加工装置の制御方法
DE102006038795A1 (de) * 2006-08-18 2008-03-20 Fft Edag Produktionssysteme Gmbh & Co. Kg Überwachungsvorrichtung für eine Laserbearbeitungsvorrichtung
DE102006039356A1 (de) * 2006-08-22 2008-03-20 Robert Bosch Gmbh Verfahren zum Steuern eines Karosserierohbau-Laserschweißsystems und Karosserierohbau-Laserschweißsystem
US7595933B2 (en) * 2006-10-13 2009-09-29 Apple Inc. Head mounted display system
WO2008118365A1 (en) * 2007-03-22 2008-10-02 General Lasertronics Corporation Methods for stripping and modifying surfaces with laser-induced ablation
DE102007016444A1 (de) * 2007-04-05 2008-10-16 Precitec Optronik Gmbh Bearbeitungseinrichtung
US8198565B2 (en) * 2007-04-11 2012-06-12 Chrysler Group Llc Laser-welding apparatus and method
JP5384178B2 (ja) * 2008-04-21 2014-01-08 株式会社森精機製作所 加工シミュレーション方法及び加工シミュレーション装置
JP2010152550A (ja) * 2008-12-24 2010-07-08 Canon Inc 作業装置及びその校正方法
BRPI0923809A2 (pt) * 2008-12-31 2015-07-14 Baker Hughes Inc Método e aparelho para aplicação automatizada de material de revestimento duro em cortadores rolantes de brocas de perfuração de terra tipo híbridas, brocas híbridas compreendendo tais elementos de corte de dentes de aço com revestimento duro, e métodos de uso das mesmas
US8460566B2 (en) * 2009-04-27 2013-06-11 Echelon Laser Systems, Lp Staggered laser-etch line graphic system, method and articles of manufacture
US8552337B2 (en) * 2009-06-11 2013-10-08 Illinois Tool Works Inc. Weld defect detection systems and methods for laser hybrid welding
US8428776B2 (en) * 2009-06-18 2013-04-23 Michael Todd Letsky Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same
JP4927927B2 (ja) * 2009-11-26 2012-05-09 ファナック株式会社 スポット溶接システム
US8530787B2 (en) * 2009-12-16 2013-09-10 Flow Systems, Inc. Flow tester for laser drilled holes
JP5645687B2 (ja) * 2011-01-28 2014-12-24 三菱重工業株式会社 レーザ加工装置、及びレーザ加工方法
DE102011006447A1 (de) * 2011-03-30 2012-10-04 Trumpf Laser- Und Systemtechnik Gmbh Verfahren zum Bearbeiten von Werkstücken mittels einer numerisch gesteuerten Werkstückbearbeitungsvorrichtung sowie Werkstückbearbeitungsvorrichtung
JP2012218120A (ja) * 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
US9345957B2 (en) * 2011-09-30 2016-05-24 Microsoft Technology Licensing, Llc Enhancing a sport using an augmented reality display
EP2590040B1 (de) * 2011-11-04 2014-05-28 Nivora IP B.V. Verfahren und Vorrichtung zur Unterstützung bei der manuellen Handhabung eines Werkstücks während der Bearbeitung
US20140312015A1 (en) * 2011-11-14 2014-10-23 Canon Kabushiki Kaisha Laser processing apparatus, method of laser processing, method of fabricating substrate, and method of fabricating inkjet head
JP5943627B2 (ja) * 2012-02-14 2016-07-05 住友重機械工業株式会社 レーザ加工装置及びレーザ加工方法
FR2998505B1 (fr) * 2012-11-26 2015-02-06 Akeo Plus Procede et systeme de marquage d’une surface par traitement laser
DE102013101496A1 (de) * 2013-02-14 2014-08-14 Hammelmann Maschinenfabrik Gmbh Verfahren zur Oberflächenbehandlung eines formstabilen Körpers sowie Vorrichtung zur Durchführung des Verfahrens
JP2014175324A (ja) 2013-03-06 2014-09-22 Panasonic Corp 低容量半導体装置
JP5742862B2 (ja) * 2013-03-18 2015-07-01 株式会社安川電機 ロボット装置及び被加工物の製造方法
KR101800949B1 (ko) 2013-04-24 2017-11-23 가와사끼 쥬고교 가부시끼 가이샤 워크 가공 작업 지원 시스템 및 워크 가공 방법
DE102013008269C5 (de) * 2013-05-15 2019-01-24 Precitec Optronik Gmbh Bearbeitungskopf für eine Laserbearbeitungsvorrichtung
US9286725B2 (en) * 2013-11-14 2016-03-15 Nintendo Co., Ltd. Visually convincing depiction of object interactions in augmented reality images
JP6311421B2 (ja) * 2014-04-10 2018-04-18 株式会社安川電機 ティーチングシステム、ロボットシステムおよびティーチング方法
JP2016107379A (ja) 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
CN104923923B (zh) * 2015-03-19 2019-08-02 上海咔咻智能科技有限公司 一种基于大幅面视觉引导和变形矫正的激光定位切割***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007253200A (ja) 2006-03-23 2007-10-04 Nissan Motor Co Ltd レーザ溶接装置およびレーザ焦点位置調整方法
JP2013123743A (ja) 2011-12-15 2013-06-24 Jfe Steel Corp レーザ溶接の溶接位置検出装置および溶接位置検出方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109175829A (zh) * 2018-09-07 2019-01-11 上海航天精密机械研究所 焊枪位姿在线调整方法及装置

Also Published As

Publication number Publication date
JP2018001264A (ja) 2018-01-11
US20180009059A1 (en) 2018-01-11
CN107584206B (zh) 2019-04-26
DE102017114880B4 (de) 2020-10-15
US10413994B2 (en) 2019-09-17
JP6348149B2 (ja) 2018-06-27
CN107584206A (zh) 2018-01-16

Similar Documents

Publication Publication Date Title
DE102017114880B4 (de) Laserbearbeitungs-robotersystem zur durchführung einer laserbearbeitung eines werkstücks unter verwendung eines roboters
EP1763845B1 (de) Verfahren und vorrichtung zur bestimmung von optischen überdeckungen mit ar-objekten
DE102018002960B4 (de) Laserbearbeitungssystem mit messfunktion
DE102015013161B4 (de) Vorrichtung zum Einstellen eines Interferenzbereichs eines Roboters
DE10335501B4 (de) Verfahren und Vorrichtung zum Schweißen oder Schneiden mit Laserstrahl
DE102007033486B4 (de) Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
DE102015015503B4 (de) Robotersystem, das eine mit erweiterter Realität kompatible Anzeige aufweist
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
DE102015012565B3 (de) Vorrichtung und Verfahren zur Erhöhung der Genauigkeit eines OCT-Messsystems für die Lasermaterialbearbeitung
EP1521211B1 (de) Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
DE102005048136B4 (de) Verfahren zum Bestimmen eines virtuellen Tool-Center-Points
EP2886239B1 (de) Verfahren und vorrichtung zur überwachung und regelung der bearbeitungsbahn bei einem laser-fügeprozess
DE102008034237B4 (de) Positionierungssystem für die transkranielle Magnetstimulation
DE102017117837A1 (de) Laserbearbeitungs-Robotersystem und Laserbearbeitungsverfahren
DE102020116342A1 (de) Vorrichtung und verfahren zum erfassen des abweichungsausmasses der arbeitsposition eines werkzeugs
DE102018112403A1 (de) Robotersystem, das informationen zur unterweisung eines roboters anzeigt
DE102019212452A1 (de) Interferenzvermeidungsvorrichtung und Robotersystem
DE102017008426A1 (de) Laserschweißsystem
DE102018129247A1 (de) Laserbearbeitungsmaschine mit Flugkörper
DE10351669A1 (de) Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt
EP3418680A1 (de) System und verfahren zur positionierungsmessung
EP3106943B1 (de) Scannereinrichtung für einen laserstrahl zur lasermaterialbearbeitung, werkzeugmaschine mit der scannereinrichtung sowie verfahren zum ansteuern der werkzeugmaschine mit der scannereinrichtung
EP1915239B1 (de) Verfahren zum erzeugen eines umgebungsbildes
DE102005040714B4 (de) Verfahren und System zur Erstellung eines Bewegungsablaufes für einen Roboter
EP3797935A1 (de) Verfahren zum präzisieren einer position und/oder orientierung eines gerätekopfes

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final