DE10351669A1 - Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt - Google Patents

Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt Download PDF

Info

Publication number
DE10351669A1
DE10351669A1 DE2003151669 DE10351669A DE10351669A1 DE 10351669 A1 DE10351669 A1 DE 10351669A1 DE 2003151669 DE2003151669 DE 2003151669 DE 10351669 A DE10351669 A DE 10351669A DE 10351669 A1 DE10351669 A1 DE 10351669A1
Authority
DE
Germany
Prior art keywords
handling device
real
robot
image
positional deviation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE2003151669
Other languages
English (en)
Other versions
DE10351669B4 (de
Inventor
Andreas Dr. Keibel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KUKA Deutschland GmbH
Original Assignee
KUKA Roboter GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KUKA Roboter GmbH filed Critical KUKA Roboter GmbH
Priority to DE2003151669 priority Critical patent/DE10351669B4/de
Publication of DE10351669A1 publication Critical patent/DE10351669A1/de
Application granted granted Critical
Publication of DE10351669B4 publication Critical patent/DE10351669B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39011Fixed camera detects deviation end effector from reference on workpiece, object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

Bei einem Verfahren zum Steuern eines Handhabungsgeräts, wie eines Mehrachs-Industrieroboters, relativ zu einem Objekt, wie einem Werkstück, wird zunächst ein erwartetes Bild des Objekts in einem Arbeitsbereich des Handhabungsgeräts mit einem realen Bild des Objekts verglichen. Anschließend werden erfindungsgemäß eine Stellungsabweichung des Handhabungsgeräts bestimmt und daraufhin Bewegungen zur Minimierung der Stellungsabweichung durchgeführt. Eine zur Durchführung des genannten Verfahrens geeignete erfindungsgemäße Vorrichtung weist entsprechend eine Bildgebungseinrichtung zum Bereitstellen eines realen Bildes eines Objekts, eine Bestimmungseinrichtung zum Bestimmen eines erwarteten Bildes des Objekts und eine Vergleichseinrichtung zum Ermitteln einer Stellungsabweichung des Handhabungsgeräts aufgrund einer ermittelten Abweichung des realen Bildes von dem erwarteten Bild auf, weobei ein Ausgangssignal der Vergleichseinrichtung zum Minimieren der Stellungsabweichung des Handhabungsgeräts nutzbar ist. Auf diese Weise lässt sich eine Roboterprogrammierung erheblich beschleunigen, wobei zugleich Zeiten zwischen Programmierung und Ausführung des Programms mit einem Roboter verkürzt werden.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Steuern eines Handhabungsgeräts, wie eines Mehrachs-Industrieroboters.
  • Automatisierte Handhabungsgeräte, wie Mehrachs-Industrieroboter, im Folgendem auch kurz als Roboter bezeichnet, werden heutzutage auf vielfältigen Gebieten der Technik zum Handhaben und Bearbeiten von Objekten, wie Werkstücken, eingesetzt. Die erforderliche Programmierung der Roboter verlagert sich dabei immer mehr in die virtuelle Welt, wobei in zunehmendem Maße vollständige Prozessabläufe unter Verwendung von Roboterprogrammen und Positionslisten erzeugt werden. Die hierbei bestimmten Stellungsdaten des (virtuellen) Roboters sind jedoch im Allgemeinen in einer realen Anlage nicht zu gebrauchen, weil das dem Roboterprogramm zugrundeliegende Robotermodell aufgrund der konkreten Montage des Roboters und den physikalischen Gegebenheiten seiner kinematischen Kette (Spiel, Reibungsverluste, Montageungenauigkeiten usw.) nicht genau genug ist. Daher müssen in der Praxis oft sämtliche Positionen (Stellungen des Roboters) manuell korrigiert werden. Ein derartiger Korrekturvorgang ist sehr arbeits- und zeitaufwändig und erfordert für jede einzelne Position durchschnittlich einen Zeitaufwand im Minutenbereich, so dass sich bei gewöhnlichen Prozessaufgaben mit einer Vielzahl von Positionen leicht mehrere Mannstunden an manueller Arbeit ergeben.
  • Ausgehend von dieser Problematik liegt der Erfindung die Aufgabe zugrunde, die Roboterprogrammierung zu beschleunigen und dabei insbesondere Zeiten zwischen Programmierung und Ausführung des Programms zu verkürzen, indem eine Möglichkeit zur automatischen Positionsanpassung geschaffen wird.
  • Diese Aufgabe wird mittels eines Verfahrens der eingangs genannten Art gelöst, wobei zunächst ein erwartetes Bild eines Objekts in einem Arbeitsbereich des Handhabungsgeräts mit einem realen Bild des Objekts verglichen wird, anschließend eine Stellungsabweichung des Handhabungsgeräts bestimmt wird und dann Bewegungen zur Minimierung der Stellungsabweichung durchgeführt werden. Eine Vorrichtung der eingangs genannten Art weist zur Lösung der Aufgabe eine Bildgebungseinrichtung zum Bereitstellen eines realen Bildes eines Objekts in Abhängigkeit von einer realen Stellung des Handhabungsgeräts, eine Bestimmungseinrichtung zum Bestimmen eines erwarteten Bildes des Objekts in Abhängigkeit von einer vorgegebenen Stellung des Handhabungsgeräts und eine Vergleichseinrichtung für das reale und das erwartete Bild zum Ermitteln einer Stellungsabweichung des Handhabungsgeräts auf, wobei ein Ausgangssignal der Vergleichseinrichtung zum Minimieren der Stellungsabweichung nutzbar ist.
  • Mit dem erfindungsgemäß möglichen Vergleich von Ist- und Sollbildern (realen bzw. erwarteten Bildern) können beispielsweise folgende Bereiche eine erhebliche Vereinfachung und Praktikabilitätssteigerung erfahren: An- und Abwesenheitskontrolle von Objekten, Erkennung von Relativlagen, wie Verschiebungen, Verdrehungen und Abständen, sowie Qualitätskontrolle.
  • Um im Zuge des erfindungsgemäßen Verfahrens die Vorteile einer realitätsnahen Bilderzeugung moderner 3D-Robotersimulationssysteme zu nutzen, ist vorgesehen, dass das erwartete Bild in Abhängigkeit von einer Stellung des Handhabungsgeräts anhand eines Modells des Handhabungsgeräts virtuell bestimmt wird. Das reale Bild wird vorzugsweise von einer an dem Handhabungsgerät angeordneten Bildgebungseinheit geliefert. Auf diese Weise ist es möglich, Bilddaten virtueller/simulierter Kameras, d.h. Ansichten der virtuellen Welt mit denen realer Kameras zu vergleichen, um daraus (auf einfache Weise) Informationen bezüglich einer Stellungsabweichung des Handhabungsgeräts zu gewinnen.
  • Eine äußerst bevorzugte Weiterbildung des erfindungsgemäßen Verfahrens sieht vor, dass zur Minimierung der Stellungsabweichung eine Stellung des Handhabungsgeräts verändert wird. Alternativ oder zusätzlich hierzu kann zur Minimierung der Stellungsabweichung auch das Objekt und/oder ein Abbild des Objekts bewegt werden. Demgemäß liegt ein besonderer Gesichtspunkt des erfindungsgemäßen Verfahrens in dessen Anwendbarkeit innerhalb eines geschlossenen Kreises, d.h. innerhalb eines Steuerungsablaufs, bei dem sowohl die das erwartete Bild liefernde Bestimmungseinrichtung als auch die das reale Bild liefernde Bildgebungseinrichtung von einer Kinematik des Handhabungsgeräts mitgeführt werden und dabei iterativ der Vergleich von Ist- und Sollbild stattfindet, woraus eine neue Stellung der Bildgebungsein richtung (entweder der virtuellen oder der realen) zur Minimierung des Bildunterschieds bzw. der Stellungsabweichung berechnet werden kann. Auf diese Weise ergibt sich ein geschlossener Kreis, der z.B. für die Realisierung neuer Verfahren zur automatischen Kalibrierung oder Ausrichtung, also einer objekt-relativen Selbstjustage von Robotersystemen verwendet werden kann, so dass anschließend Objekte automatisch, ohne manuelle Positionskorrekturen richtig gegriffen und/oder bearbeitet werden können. Da sie aufgrund der hohen Bewegungsgenauigkeit moderner Industrieroboter erwartete und reale Bilder im Allgemeinen nicht sehr stark unterscheiden werden, können beim Vergleich der Bilder relativ einfache, an sich bekannte Verfahren, wie Korrelationsverfahren, zum Einsatz kommen, die gerade aus diesem Grund für einen Einsatz in einem geschlossenen erfindungsgemäßen Regelkreis prädestiniert sind.
  • Weiterhin kann im Zuge des erfindungsgemäßen Verfahrens vorgesehen sein, dass als Stellungsabweichung eine im wesentlichen exakte sechsdimensionale Stellungsdifferenz des Roboters ermittelt wird, so dass anschließend ein direktes Verfahren des Handhabungsgeräts um die Stellungsdifferenz möglich ist.
  • Um während des Anfahrens einer Zielposition durch das Handhabungsgerät keine zeitlichen Nachteile in Kauf nehmen zu müssen, sieht eine äußerst bevorzugte optionale Ausgestaltung des erfindungsgemäßen Verfahrens vor, dass die Minimierung der Stellungsabweichung im Wesentlichen in Echtzeit während einer übergeordneten Bewegung des Handhabungsgeräts erfolgt. Entsprechend ist bei einer erfindungsgemäßen Vorrichtung durch das Ausgangssignal eine Bewegung des Handhabungsgeräts und/oder des Objekts in Echtzeit beeinflussbar. Alternativ oder zusätzlich hierzu ist es auch möglich, die Minimierung der Stellungsabweichung durch Anpassen zumin dest des zugrundeliegenden Modells des Handhabungsgeräts – also dauerhaft – vorzunehmen. Entsprechend kann alternativ und/oder zusätzlich das Modell zumindest des Handhabungsgeräts sowie ggf. einer dieses umfassenden Anlage durch das Ausgangssignal nachhaltig so angepasst werden, dass aufgrund der entsprechenden Modifikation der Modelldaten die Hardware der erfindungsgemäßen Vorrichtung anschließend zur weiteren Verwendung mit anderen Handhabungsgeräten und Arbeitsbereichen (Arbeitszellen) zur Verfügung steht.
  • Im Rahmen konkreter Ausgestaltungen der erfindungsgemäßen Vorrichtung ist vorgesehen, dass die Bildgebungseinrichtung eine an dem Handhabungsgerät angeordnete Kamera und dass die Bestimmungseinrichtung zum virtuellen Bestimmen des erwarteten Bildes anhand eines Modells zumindest des Handhabungsgeräts und ggf. des dieses umfassenden Arbeitsbereichs (Arbeitszelle) ausgebildet ist.
  • Um eine möglichst einfache, flexible, kostengünstige und integrierte Ausgestaltung der erfindungsgemäßen Vorrichtung zu erreichen, sieht eine weitere Ausgestaltung der erfindungsgemäßen Vorrichtung vor, dass eine Steuerungseinrichtung des Handhabungsgeräts programmtechnisch zugleich als Vergleichseinrichtung und als Bestimmungseinrichtung ausgebildet ist.
  • Weitere Eigenschaften und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen anhand der Zeichnungen. Es zeigt:
  • 1 eine schematische Gesamtdarstellung der erfindungsgemäßen Vorrichtung;
  • 2 eine schematische Darstellung zu erwartender Bildunterschiede zwischen erwartetem und realem Bild;
  • 3 ein Ablaufdiagramm des erfindungsgemäßen Verfahrens;
  • 4 einen schematisierten Programmablauf zur Einbindung des erfindungsgemäßen Verfahrens in ein Bewegungsprogramm eines Roboters;
  • 5 eine schematische Aufsicht auf eine Roboterzelle, in der das erfindungsgemäße Verfahren bzw. die erfindungsgemäße Vorrichtung zum Einsatz kommt; und
  • 6 eine schematische Darstellung einer Weiterbildung der im Rahmen des erfindungsgemäßen Verfahrens stattfindenden Positions- und Orientierungsbestimmung;
  • Die 1 zeigt anhand eines Ausführungsbeispiels eine technische Realisierung einer erfindungsgemäßen Vorrichtung 1. Hierbei sind sämtliche erforderliche Komponenten der Vorrichtung als einzelne, getrennte Frunktionseinheiten dargestellt; auf eine Darstellung einer in der Praxis erstrebenswerten Integration der verschiedenen Teilsysteme wurde lediglich aus Gründen der Übersichtlichkeit verzichtet.
  • Die erfindungsgemäße Vorrichtung 1 weist gemäß der 1 ein Handhabungsgerät in Form eines Mehrachs-Industrieroboters 2 mit Arbeitsbereich A auf. Der Roboter 2 besitzt einen (realen) Roboterarm 2.1, an dessen distalem Ende 2.1a ein Roboterwerkzeug 2.2, wie ein Schneidwerkzeug, Greifwerkzeug oder dergleichen, und eine Bildgebungseinrichtung in Form einer (realen) Kamera 2.3 angeordnet sind. Im Ar beitsbereich A des Roboters 2, in der Nähe des Roboterwerkzeugs 2.2, befindet sich ein Objekt 3, beispielsweise ein Werkstück, das mittels eines geeigneten Fördermittels 4, wie eines Bandförderers, relativ zu dem Roboter 2 bzw. dessen Werkzeug 2.2 beweglich ist. Die Kamera 2.3 ist derart am Roboterarm 2.1 befestigt, dass mit ihrer Hilfe ein reales Bild des Objekts 3 aufgenommen werden kann, was in der 1 durch den schraffierten Bereich B ausgedrückt ist.
  • Dargestellt ist in 1 weiterhin ein 3D-Simulationssystem 5 in Form einer Rechnereinheit zum Erzeugen eines virtuellen Abbildes V des realen Roboters 2 mitsamt den weiteren in seinem Arbeitsbereich A befindlichen Gegenständen und Einrichtungen, wie dem Werkzeug 2.2 der Kamera 2.3, dem Objekt 3 und dem Fördermittel 4, zu erzeugen. Das virtuelle Abbild V ist in der 1 zwecks Veranschaulichung des Erfindungsgegenstandes auf einer mit dem Simulationssystem 5 verbundenen Anzeigeeinheit 6 dargestellt.
  • Das virtuelle Abbild V umfasst entsprechend der Realität einen virtuellen Roboter 2'' mit virtuellem Roboterarm 2.1', ein virtuelles Werkzeug 2.2', eine virtuelle Kamera 2.3', ein virtuelles Objekt 3' sowie ein virtuelles Fördermittel 4'. Gezeigt sind weiterhin eine Steuerungseinrichtung 7 für den Roboter 2 sowie eine Vergleichseinrichtung 8 in Form einer Bildverarbeitungseinrichtung. Die Steuerungseinrichtung 7 ist über Leitungen 7.1, 7.2, 7.3 mit dem Roboter 2, dem Simulationssystem 5 bzw. der Bildverarbeitungseinrichtung 8 verbunden. Von Letzterer führen weitere Leitungen 8.1, 8.2 zu der realen Kamera 2.3 bzw. der virtuellen Kamera 2.3', wobei die Leitung 8.2 als rein virtuelle Verbindung in 1 lediglich zu Anschauungszwecken konkret dargestellt ist, während in der technischen Realisierung der erfindungsgemäßen Vorrichtung entsprechende Daten der virtuellen Kamera 2.3' in dem Simulationssystem 5 er zeugt und entsprechend über die Leitungen 7.2, 7.3 an die Bildverarbeitungseinrichtung 8 geliefert werden. Entsprechend lässt sich das Simulationssystem 5 zusammen mit der virtuellen Kamera 2.3' und der (virtuellen) Leitung 8.2 als Bestimmungseinrichtung für virtuelle Stellungen bzw. aus derartigen Stellungen des virtuellen Roboters 2' aufgenommenen Bilder verstehen.
  • Die Bildverarbeitungseinrichtung 8 empfängt somit zum einen über die Leitung 8.1 die (realen) Bilddaten der Kamera 2.3, die gemäß der Darstellung der 1 ein reales Bild des Objekts 3 in Abhängigkeit von einer Stellung des Roboters 2 beinhalten. Zugleich empfängt die Bildverarbeitungseinrichtung 8 über die gedachte Leitung 8.2 Bilddaten der virtuellen (simulierten) Kamera 2.3', die durch das Simulationssystem 5 in Abhängigkeit von Positionsdaten für eine Sollstellung (Solldaten) des Roboters 2 erzeugt werden. Diese Solldaten werden von der Steuerungseinheit 7 über die Leitungen 7.1, 7.2 zugleich an den Roboter 2 selbst sowie an das Simulationssystem 5 geliefert. Entsprechend der Solldaten verfährt der Roboter 2, beispielsweise mit der Spitze des Werkzeugs 2.2 (TCP: Tool Center Point), in eine vorbestimmte Stellung, was ihm jedoch aufgrund unvermeidlicher physikalischer Ungenauigkeiten seines Bewegungsablaufs (bedingt durch Fertigungstoleranzen, Reibungseffekte oder dergleichen) nur unvollkommen gelingt. Zugleich erzeugt das Simulationssystem 5 anhand derselben Solldaten und ausgehend von einem in dem Simulationssystem gespeicherten Robotermodell in der virtuellen Welt V dieselbe Sollstellung bei dem virtuellen Roboter 2' und bestimmt die zugeordneten zu erwartenden Bilddaten aus Sicht der virtuellen Kamera 2.3'.
  • Die Kamera 2.3 am Ende der kinematischen Kette des Roboters 2 nimmt ein reales Bild im Arbeitsbereich A des Roboters 2 auf, das – wie vorstehend erwähnt – zur Bildverarbeitungseinrichtung 8 weitergeleitet wird. Idealerweise wird der Bildinhalt dieses realen Bildes von einem relevanten Objekt 3 im Vordergrund beherrscht und nicht von der weiteren Umgebung des Arbeitsbereiches A. Vorteilhaft ist es weiterhin, kontrast- bzw. kantenreiche Regionen zu beobachten. Die konkrete Struktur der in der 1 gezeigten erfindungsgemäßen Vorrichtung sorgt durch die Verbindung 7.2 dafür, dass die Stellung des realen Roboters 2 hinsichtlich der verwendeten Steuerungsdaten (Positionsdaten) mit derjenigen innerhalb des 3D-Simulationssystems 5 identisch ist. Hierbei ist es alternativ zu den vorstehend gemachten Aussagen auch möglich, dass die Sollstellung ursprünglich von dem Simulationssystem 5 und nicht von der Robotersteuerung 7 generiert wird. Auf diese Weise stehen der simulierte virtuelle Roboter 2' und die virtuelle Kamera 2.3' bei einer dem realen Roboter 2 und der Kamera 2.3 entsprechenden Ideal-Stellung. Dementsprechend erzeugt die virtuelle Kamera 2.3' in der virtuellen Welt V ein Bild, auf dem der Roboter 2' die Sollstellung in idealer Weise korrekt anfährt bzw. angefahren hat. Dieses (virtuelle) Bild wird – wie vorstehend bereits erläutert – ebenfalls zur Bildverarbeitungseinrichtung 8 übertragen.
  • Erfindungsgemäß lassen sich mittels des 3D-Simulationssystems 5, z.B. einem Roboter-Simulationssystem, hochqualitative, virtuelle Ansichten mittels "virtueller Kameraobjekte" innerhalb einer dynamischen, realitätsnahen Simulation erzeugen. Dabei wird insbesondere auf den Beleuchtungsverhältnissen die in einer realen Anlage vorliegende Rechnung getragen, indem innerhalb der virtuellen Welt entsprechend virtuelle Lichtquellen angeordnet werden, mittels derer die Lichtverhältnisse auf dem simulierten Objekt 3' realitätsnah nachempfunden werden.
  • Die virtuellen Kamerabilder liefern daher ein Echtzeit-Bild aus der simulierten Welt V und stellen auf diese Weise Sollzustände bzw. die entsprechenden erwarteten Bilder dar, die anschließend in einem zweiten Schritt in der Vergleichseinrichtung 8 mit Bilddaten der realen Kamera 2.3 verglichen werden können. Die gute Qualität der errechneten Bilder und die gleichzeitige Modellierbarkeit beispielsweise von Kameraverzerrungen ermöglicht auf diese Weise ein einfaches Korrelieren der realen und der erwarteten (virtuellen) Bilder. Somit ist die als Vergleichseinrichtung arbeitende Bildverarbeitungseinrichtung 8 in der Lage, mittels Korrelationsverfahren Ausgangssignale zu erzeugen, die sich aus einer Stellungsabweichung des realen Roboters 2 gegenüber zu einem virtuellen Abbild 2' ergeben und die über die Leitung 7.3 der Steuerungseinrichtung 7 zuführbar und dort entsprechend zu einer Stellungskorrektur des Roboters 2 nutzbar sind. Das Ergebnis der Bildverarbeitung ist im Idealfall direkt eine exakte mehrdimensionale Stellungsabweichung PD des realen Roboters 2, vorzugsweise eine sechsdimensionale Abweichung im Falle eines Sechsachs-Industrieroboters. Die Stellungsabweichung PD kann erfindungsgemäß auf verschiedene Weisen verwendet werden, um die Unterschiede zwischen realen und virtuellen Bilddaten und darüber letztendlich die Stellungsabweichung PD selbst zu minimieren:
    • 1. Bewegen des Roboters 2 um PD;
    • 2. Verschieben des virtuellen Objekts 3' um PD;
    • 3. Verschieben des realen Objekts 3 um PD-1.
  • Im Falle eines Bewegens des realen Roboters 2 kann eine gewünschte Position bezüglich des Objekts 3 einmalig richtig angefahren werden, wobei jedoch der entsprechende Korrekturvorgang bei jeder neuen Position erneut ausgeführt werden muss. Im Falle eines Bewegens eines realen Objekts 3 wird dessen Zuführung so verändert, dass es stets in einer der Simulation entsprechenden Lage im Arbeitsbereich A des Roboters 2 ankommt; es handelt sich hierbei also um eine nachhaltige Veränderung, durch die Stellungsabweichungen in der Zukunft auch ohne erneute Anwendung des erfindungsgemäßen Verfahrens vernachlässigbar klein werden. Umgekehrt lässt sich auch die Lage des virtuellen simulierten Objekts derart verändern, dass es stets in einer der Realität entsprechenden Lage vorliegt; auch hierbei handelt es sich um eine nachhaltige Veränderung. Entsprechend gilt für zukünftige Stellungsabweichungen das vorstehend Gesagte.
  • Aufgrund der Tatsache, dass es in den beiden letztgenannten Fällen zu einer nachhaltigen Veränderung der gemäß der 1 in dem Simulationssystem 5 gespeicherten Modelldaten des Roboters 2 selbst sowie dessen Arbeitsbereichs A (Arbeitszelle) kommt, ergibt sich der Vorteil, dass Teile der in 1 gezeigten Hardware, wie die Vergleichseinrichtung 8 und das Simulationssytem 5 – die, wie gesagt, auch zusammen mit der Steuerungseinrichtung 7 integriert und insbesondere als in Letzterer ablaufende Programme ausgebildet sein können – nach einmaliger Durchführung des erfindungsgemäßen Verfahrens wieder verfügbar und entsprechend an anderen Robotern einsetzbar sind.
  • Die 2 stellt schematisch, jedoch deutlich überzeichnet, die zu erwartenden Bildunterschiede zwischen dem Bild 9 der realen Kamera 2.3 und dem Bild 9' der simulierten Kamera 2.3' an einem einfachen Beispiel dar. In der Praxis besitzen Orientierungsunterschiede – in der 2 anhand eines Verdrehens des realen Bilds 9 aus der Zeichenebene heraus – gegenüber translatorischen Verrückungen eine klei nere Relevanz, was die Bildverarbeitung in der Vergleichseinrichtung 8 (1) entlastet, so dass hier schnellere Verfahren zum Einsatz kommen können.
  • Die 3 zeigt anhand eines Ablaufdiagramms detailliert den Ablauf des erfindungsgemäßen Verfahrens zum Steuern eines Handhabungsgeräts, wie es insbesondere bei Verwendung einer erfindungsgemäßen Vorrichtung gemäß der 1 durchführbar ist. Zunächst werden in Schritt S1 und Schritt S2 ein virtuelles Bild bzw. ein reales Bild durch die Kamera 2.3' bzw. 2.3 (1) bereitgestellt. Anschließend erfolgt in Schritt S3 ein Bildvergleich, insbesondere in der Vergleichseinrichtung 8 der 1, dessen Ergebnis die Stellungsabweichung PD ist. Anhand einer konkreten Beschaffenheit von PD erfolgt in Schritt S4 die Abfrage, ob die ermittelte Stellungsabweichung klein genug ist. Ist dies der Fall (j), so wird das erfindungsgemäße Verfahren, das sich auch als Kalibriervorgang bezeichnen lässt, in Schritt S5 beendet. Anderenfalls (n), d.h. im Falle einer zu großen Abweichung erfolgt in Schritt S6 eine weitere Abfrage, auf welche der drei vorstehend angesprochenen Arten eine Minimierung der Stellungsabweichung PD erfolgen soll. Im Falle einer ersten Alternative (1) wird in Schritt S7 eine Stellung des Roboters angepasst, indem die aktuelle Position der realen Kamera 2.3 (1) um PD verändert wird. Im Zuge einer zweiten Alternative (2) wird zunächst aus PD eine inverse Abweichung PD-1 bestimmt (Schritt S8; z.B. durch Matrix-Inversion) und danach die Lage des realen Objektes 3 (1) um PD-1 verschoben (Schritt S9). Als dritte Alternative (3) kann das virtuelle Objekt 3' (1) um PD verschoben werden (Schritt S10). In den Fällen der Alternativen (1) und (2) wird nach erfolgtem Verschieben in Schritt S2 erneut ein reales Bild durch die Kamera 2.3 (1) aufgenommen und in Schritt S3 ein erneuter Bildvergleich mit dem virtuellen Bild vorgenommen. Entsprechendes gilt im Falle der Alternative (3) für das virtuelle Bild. Anschließend wird der Verfahrensablauf mit der Abfrage in Schritt S4 so lange iterativ wiederholt; bis die Abfrage S4 bejaht wird (j), d.h. bis eine hinreichend kleine Stellungsabweichung PD für den realen Roboter 2 (1) erreicht ist. Mit anderen Worten: Aus den in den Schritten S7, S9 und/oder S10 durchgeführten Verschiebungen ergeben sich Stellungs- und dadurch bedingt Bildänderungen, die zu einer verbesserten Übereinstimmung von virtuellem und realem Bild führen. Der Vorgang wird so lange wiederholt, bis die Bildunterschiede hinreichend klein sind oder sich nicht mehr substantiell verbessern.
  • Die 4 stellt einen schematisierten Programmablauf dar, mit dem eine einfache Möglichkeit der Einbindung des erfindungsgemäßen Verfahrens in ein Bewegungsprogramm 10 für den Roboter 2, wie es beispielsweise in der in 1 gezeigten Steuerungseinrichtung 7 abläuft, gezeigt werden soll. Dabei führt der Roboter aufgrund der Anweisungen des Bewegungsprogramms 10 eine bezüglich der erfindungsgemäßer Stellungskorrektur übergeordnete Bewegung, wie zum Ergreifen eines Werkstücks, aus. Während der in 3 als "calibrate" bezeichneten Anweisung (fett gesetzt), wird das vorstehend anhand der 4 erläuterte erfindungsgemäße Verfahren ausgeführt. Danach ist der Roboter relativ zum Objekt genau ausgerichtet, und die Funktion "calibrate" liefert als Ausgabe die ermittelte Positionsdifferenz PD bezüglich der ursprünglich geplanten Position in Weltkoordinaten. Dabei werden anschließende Bewegungen des Roboters ("move") mittels einer homogenen Transformation (Operator "@") um PD verschoben. Wird das erfindungsgemäße Verfahren nur einmal zur Justage, wie vorstehend anhand einer Anpassung von Modellparametern beschrieben, eingesetzt, so wird der vorstehend beschriebene Vorgang nicht innerhalb des Programmablaufs des Bewegungsprogramms 10, sondern offline durchgeführt. Dabei handelt es sich um einen gesonderten Offline-Prozess, bei dem die relevanten Parameter angepasst werden, die anschließend im Programmablauf analog der 4 Verwendung finden.
  • Die 5 zeigt eine schematische Aufsicht auf einen Arbeitsbereich A des Roboters 2 und beschreibt eine weitere erfindungsgemäße Vorrichtung 1', deren Ausgestaltung im Wesentlichen derjenigen der 1 entspricht. Dementsprechend sind für entsprechende Zeichnungselemente dieselben Bezugszeichen verwendet worden. Die Darstellung der Verbindung 8.2 zwischen Simulationssystem 5 und Vergleichseinrichtung 8 als gestrichelte Linie soll den bereits vorstehend anhand der 1 beschriebenen virtuellen Charakter dieser Verbindung verdeutlichen.
  • Zusätzlich zu der bereits anhand der 1 detailliert beschriebenen, am distalen Ende 2.1 des Roboters 2 montierten Kamera 2.3 weist die erfindungsgemäße Vorrichtung 1' gemäß der 5 zusätzlich statisch montierte Bildgebungseinrichtungen 11, 11' in Form von Kameras auf, die ebenso wie die Kamera 2.3 über eine Leitung 8.1 mit der Vergleichseinrichtung 8 verbunden sind. Eine der beiden in der 5 gezeigten statisch montierten Kameras 11, 11' ist oberhalb des Fördermittels 4 an einer Halteeinrichtung 12 in Form eines Portalrahmens montiert, während die andere statische Kamera seitlich des Fördermittels 4 angeordnet ist, beispielsweise an einem Pfosten.
  • Die statisch montierten Kameras 11, 11' nehmen die Objekte 3 dabei nur aus einer konstanten Distanz auf. Die so gewonnen realen Bilder können ergänzend zu dem bereits erläuterten erfindungsgemäßen Verfahren mit in der Vergleichseinrichtung 8 abgelegten erlernten Mustern verglichen werden. Dagegen werden die von der Kamera 2.3 am Roboter 2 gelie ferten Bilder mit Ansichten verglichen, die – wie vorstehend anhand der 1 erläutert – aus einer Simulation stammen, wodurch sich der Roboter 2 relativ zu den Objekten 3 passend ausrichten kann. Der ebenfalls vorstehende erläuterte iterative Prozess, der jeweils zum Einsatz kommt, führt zu einer optimalen Übereinstimmung zwischen virtuellem und realem Bild, so dass die relative Stellung des Roboters 2 einer durch eine Offline-Programmierung vorgegebenen Stellung bestmöglich entspricht.
  • Das erfindungsgemäße Verfahren zum Steuern eines Handhabungsgeräts verbunden mit einer Minimierung ermittelter Stellungsabweichungen kann auch gemeinsam mit Triangulationsverfahren zur Abstandsbestimmung angewendet werden, mit deren Hilfe sich die Auflösung einer Abstandsbestimmung verbessern lässt. Erfindungsgemäß wird hierbei die ohnehin vorhandene Kamera 2.3, 11, 11' zur Aufnahme des Objekts 3 verwendet, wobei das Objekt 3 mit einem Laserpunkt oder mit strukturiertem Licht beleuchtet wird. Die somit erreichbare verbesserte Abstandsauflösung wird in Schritt S3 der 3 zur genauen Bestimmung der Stellungsabweichung PD benutzt und so in das erfindungsgemäße Verfahren eingebunden. Die 6 stellt schematisch eine solche Entfernungsmessung unter Verwendung von strukturiertem Licht, hier mit einem Linienmuster L, L', dar. Zu diesem Zweck weist eine erfindungsgemäße Vorrichtung 1, 1' zusätzlich eine Lichtquelle 13 auf, die zum Aussenden geeignet strukturiertem Lichts ausgebildet ist und mit deren Hilfe das Objekt 3 bzw. dessen Oberfläche 3a beleuchtet wird. Die Kamera 2.3, 11, 11' ist dabei abseits einer optischen Achse O der Lichtquelle 13 angeordnet.
  • Aufgrund der Tatsache, dass die Kamera 2.3, 11, 11' nicht auf der optischen Achse O der Lichtquelle 13 liegt, ergibt sich je nach Betrachtungswinkel α ein Linienmuster L, L' auf dem Objekt 3, aus dem sich in an sich bekannter Weise eine Entfernung und ein Höhenprofil des Objekts 3 bestimmen lässt. Das vorstehend skizzierte Messverfahren kann in die beispielsweise anhand der 3 beschriebene geschlossene erfindungsgemäße Steuerungsschleife eingebunden werden, um so eine ideale Ausrichtung von Roboter 2 und Objekt 3 zu erreichen. Vorteilhafterweise wird hierbei sowohl die Kamera 2.3 als auch die Lichtquelle 13 mitgeführt. Im Unterschied zu direkten Bilddaten, die aus Helligkeits- und Farbwerten bestehen, werden in diesem Falle in der Vergleichseinrichtung 8 (1, 5) Muster ausgewertet, die durch das strukturierte Licht auf der Oberfläche des Objekts erzeugt werden. Entsprechend wird in diesem Fall durch die Simulation ein entsprechendes Höhenprofil des Objekts ermittelt und mit demjenigen realen Höhenprofil verglichen, das sich aus der Beleuchtung des Objekts mit strukturiertem Licht ergibt. Entsprechend der 3 werden anschließend mittels eines iterativen Prozesses die ermittelten Stellungsabweichungen des Roboters relativ zum Objekt bestmöglich ausgeglichen.
  • Grundlegendes Merkmal der vorstehend detailliert beschriebenen Erfindung ist demnach das Liefern virtueller erwarteter Bilder an eine Vergleichseinrichtung zum Vergleichen mit von einer am Roboter angeordneten Bildgebungseinrichtung aufgenommenen realen Bildern. Das Anpassen einer realen Stellung des Roboters lässt sich auf diese Weise mit wesentlich weniger Parametrisierungsaufwand sowie dynamischer und universeller als bislang bekannt einsetzen. Es ist somit möglich, flexiblere Aufgaben zu erfüllen, ohne zuvor jeweils ein Bildverarbeitungssystem mittels einer Vielzahl realer Bilder neu im Hinblick auf eine bestimmte Verfahrenssituation trainieren zu müssen. Ein weiterer Vorteil besteht darin, dass erfindungsgemäß eine Vergleichsmöglichkeit gegeben ist, ohne dass hierzu jemals reale Bil der, die als Sollbilder geeignet wären, aufgenommen werden müssten. Letzteres wäre zur Realisierung des vorstehend beschriebenen geschlossen Steuerkreises der Erfindung in der Praxis auch gar nicht bzw. nur angenähert möglich, da hierbei ein fragliches Objekt in Abhängigkeit zu einer konkreten realen Stellung des Roboters aus wahlfreien Richtungen betrachtet werden muss.
  • Erfindungsgemäß kann z.B. eine Kamera am Ende der kinematischen Kette eines Roboters dazu verwendet werden, über einen Vergleich mit einer simulierten Sollansicht eine Ausrichtung des Roboters relativ zu einem Objekt abzuleiten. Auf diese Weise lässt sich insbesondere im Rahmen einer Qualitätssicherung eine bislang unerreichte Genauigkeit und Effizienz erzielen, da die Ansichten der Simulation einem fehlerfreien Ideal, beispielsweise den CAD-Daten eines Werkstücks, entsprechen. Ein Roboter kann auf diese Weise ein Objekt (Werkstück) von allen Seiten inspizieren und ständig Ist-Soll-Vergleiche auswerten, um so etwa Verunreinigungen oder Fertigungstoleranzen des Werkstücks zu erkennen, ohne dass hierzu jemals Aufnahmen eines realen Soll-Objektes angefertigt wurden. Zudem wird die Möglichkeit einer automatischen Selbstjustage (Kalibrierung) mit dem erfindungsgemäßen Verfahren erheblich vereinfacht.
  • Schließlich führt die Möglichkeit einer nachhaltigen Annäherung von Modell und Realität – wie vorstehend beschrieben – dazu, dass nach Anwendung des erfindungsgemäßen Verfahrens Ungenauigkeiten einer Robotermodernierung derart klein werden können, dass das erfindungsgemäße Verfahren im Zuge weiterer Offline-Programmierung des Roboters nicht erneut angewendet werden muss und die entsprechende Hardware wieder für andere Aufgaben, wie der erfindungsgemäßen Steuerung weiterer Handhabungsgeräte, zur Verfügung steht.
  • 1, 1'
    Vorrichtung
    2
    realer Roboter
    2'
    virtueller Roboter
    2.1
    realer Roboterarm
    2.1'
    virtueller Roboterarm
    2.1a
    distales Ende
    2.2
    reales Werkzeug
    2.2'
    virtuelles Werkzeug
    2.3
    reale Kamera
    2.3'
    virtuelle Kamera
    3
    reales Objekt, Werkstück
    3'
    virtuelles Objekt
    3a
    Oberfläche
    4
    reales Fördermittel
    4'
    virtuelles Fördermittel
    5
    Simulationssystem
    6
    Anzeigeeinrichtung
    7
    Steuerungseinrichtung
    7.1, 7.2, 7.3
    Verbindung
    8
    Vergleichseinrichtung
    8.1, 8.2
    Verbindung
    9
    reales Bild
    9'
    virtuelles Bild
    10
    Roboterprogramm
    11, 11'
    statische Kamera
    12
    Halteeinrichtung
    13
    Lichtquelle
    A
    Arbeitsbereich
    α
    Betrachtungswinkel
    B
    (Bildaufnahme-)Bereich
    j
    bejahte Abfrage
    L,L'
    Lichtstreifen
    n
    verneinte Abfrage
    O
    Optische Achse
    PD
    Stellungsabweichung, Stellungsdifferenz
    PD-1
    inverse Stellungsabweichung
    S1-S10
    Verfahrensschritte
    V
    virtuelle Welt

Claims (15)

  1. Verfahren zum Steuern eines Handhabungsgeräts, wie eines Mehrachs-Industrieroboters, wobei zunächst ein erwartetes Bild eines Objekts in einem Arbeitsbereich des Handhabungsgeräts mit einem realen Bild des Objekts verglichen wird, anschließend eine Stellungsabweichung des Handhabungsgerätes bestimmt wird und dann Bewegungen zur Minimierung der Stellungsabweichung durchgeführt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das erwartete Bild in Abhängigkeit von einer Stellung des Handhabungsgeräts anhand eines Modells zumindest des Handhabungsgeräts virtuell bestimmt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das reale Bild von einer an dem Handhabungsgerät angeordneten Bildgebungseinrichtung geliefert wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass zur Minimierung der Stellungsabweichung eine Stellung des Handhabungsgeräts verändert wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass zur Minimierung der Stellungsabweichung das Objekt bewegt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass zur Minimierung der Stellungsabweichung ein Abbild des Objekts bewegt wird.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass als Stellungsabweichung eine im Wesentlichen exakte mehrdimensionale Stellungsdifferenz ermittelt wird.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Minimierung der Stellungsabweichung im Wesentlichen in Echtzeit während einer übergeordneten Bewegung des Handhabungsgeräts erfolgt.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Minimierung der Stellungsabweichung durch Anpassen eines Modells zumindest des Handhabungsgeräts erfolgt.
  10. Vorrichtung zum Steuern eines Handhabungsgeräts wie eines Mehrachs-Industrieroboters, mit einer Bildgebungseinrichtung (2.3) zum Bereitstellen eines realen Bildes (9) eines Objekts (3) in Abhängigkeit von einer realen Stellung des Handhabungsgeräts (2), einer Bestimmungseinrichtung (5) zum Bestimmen eines erwarteten Bildes (9') des Objekts (3) in Abhängigkeit von einer vorgege benen Stellung des Handhabungsgeräts (2) und einer Vergleichseinrichtung (8) für das reale (9) und das erwartete Bild (9') zum Ermitteln einer Stellungsabweichung (PD) des Handhabungsgeräts (2), wobei ein Ausgangssignal der Vergleichseinrichtung (8) zum Minimieren der Stellungsabweichung (PD) nutzbar ist.
  11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die Bildgebungseinrichtung (2.3) eine an dem Handhabungsgerät (2) angeordnete Kamera ist.
  12. Vorrichtung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass die Bestimmungseinrichtung (5) zum virtuellen Bestimmen eines erwarteten Bildes (9') anhand eines Modells zumindest des Handhabungsgeräts (2) ausgebildet ist.
  13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass eine Steuerungseinrichtung (7) des Handhabungsgeräts (2) programmtechnisch zugleich als Vergleichseinrichtung (8) und als Bestimmungseinrichtung (5) ausgebildet ist.
  14. Vorrichtung nach einem der Ansprüche 10 bis 13, dadurch gekennzeichnet, dass durch das Ausgangssignal (PD) eine Bewegung des Handhabungsgeräts (2) und/oder des Objekts (3) in Echtzeit beeinflussbar ist.
  15. Vorrichtung nach einem der Ansprüche 10 bis 16, dadurch gekennzeichnet, dass durch das Ausgangssignal (PD) ein Modell zumindest des Handhabungsgeräts (2) dauerhaft anpassbar ist.
DE2003151669 2003-11-05 2003-11-05 Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt Expired - Fee Related DE10351669B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2003151669 DE10351669B4 (de) 2003-11-05 2003-11-05 Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2003151669 DE10351669B4 (de) 2003-11-05 2003-11-05 Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt

Publications (2)

Publication Number Publication Date
DE10351669A1 true DE10351669A1 (de) 2005-06-09
DE10351669B4 DE10351669B4 (de) 2012-09-13

Family

ID=34559351

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2003151669 Expired - Fee Related DE10351669B4 (de) 2003-11-05 2003-11-05 Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt

Country Status (1)

Country Link
DE (1) DE10351669B4 (de)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006003555A1 (de) * 2006-01-25 2007-07-26 Edag Engineering + Design Ag Steuerung für eine Werkzeug-Sensor-Vorrichtung
DE102007009851B3 (de) * 2007-02-28 2008-05-29 Kuka Roboter Gmbh Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt
DE102008023955A1 (de) * 2008-05-16 2009-11-19 Kuka Roboter Gmbh Verfahren zur Simulation von Ereignissen und Abläufen von Luft-, Land- oder Wasserfahrzeugen und Simulationssystem
DE102009034244A1 (de) * 2009-07-22 2011-01-27 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Vermessung eines Bauteils
DE102010042314A1 (de) 2010-10-12 2012-04-12 Robert Bosch Gmbh Verfahren zur Ortsbestimmung mit einem Navigationssystem und Navigationssystem hierzu
DE102010042313A1 (de) 2010-10-12 2012-04-12 Robert Bosch Gmbh Verfahren zur verbesserten Positionsbestimmung mit einem Navigationssystem und Navigationssystem hierzu
EP2500148A1 (de) * 2011-03-17 2012-09-19 KUKA Roboter GmbH Verfahren und Vorrichtung zum Steuern eines Roboters mit Hilfe eines virtuellen Modells des Roboters
CN102781631A (zh) * 2010-03-10 2012-11-14 佳能株式会社 信息处理装置及控制该装置的方法
US8923602B2 (en) 2008-07-22 2014-12-30 Comau, Inc. Automated guidance and recognition system and method of the same
DE102013215430A1 (de) * 2013-08-06 2015-02-12 Lufthansa Technik Ag Bearbeitungseinrichtung, Steuerungsverfahren und Bauteilaufnahmevorrichtung
EP3171237A1 (de) * 2015-11-18 2017-05-24 Omron Corporation Simulator, simulationsverfahren und simulationsprogramm
CN110877334A (zh) * 2018-09-05 2020-03-13 波音公司 用于机器人控制的方法和装置
CN112109075A (zh) * 2019-06-20 2020-12-22 欧姆龙株式会社 控制***和控制方法
EP3144751B1 (de) * 2015-09-18 2021-10-27 Siemens Aktiengesellschaft Steuerungssystem sowie verfahren zum betrieb eines steuerungssystems mit einer realen und einer virtuellen steuerung zur prozessüberwachung
US20210387350A1 (en) * 2019-06-12 2021-12-16 Mark Oleynik Robotic kitchen hub systems and methods for minimanipulation library adjustments and calibrations of multi-functional robotic platforms for commercial and residential enviornments with artificial intelligence and machine learning
CN114174007A (zh) * 2019-09-11 2022-03-11 西门子(中国)有限公司 自主式机器人工装***、控制***、控制方法及存储介质
US20220118618A1 (en) * 2020-10-16 2022-04-21 Mark Oleynik Robotic kitchen hub systems and methods for minimanipulation library adjustments and calibrations of multi-functional robotic platforms for commercial and residential enviornments with artificial intelligence and machine learning
US11511435B2 (en) 2017-05-22 2022-11-29 Abb Schweiz Ag Robot-conveyor calibration method, robot system and control system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018114867A1 (de) * 2018-06-20 2019-12-24 B. Strautmann & Söhne GmbH u. Co. KG Verfahren zum Verbinden von Bauteilen

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4421699A1 (de) * 1994-06-21 1996-01-04 Hartmut Prof Janocha Verfahren zur sensorgestützten Anpassung oder Generierung von Posen zur Steuerung von Handhabungsgeräten zur Verbesserung der absoluten Posegenauigkeit dieser Handhabungsgeräte in Verbindung mit Off-line-Programmiersystemen und zur Übertragung von Roboterprogrammen auf verschiedene Exemplare der Handhabungsgeräte mit gleicher Aufgabe unter Reduzierung der Auswirkungen exemplarspezifischer Positionierunterschiede sowie Unterschiede im Aufbau der den einzelnen Handhabungsgeräten zugehörigen Arbeitszellen
US5579444A (en) * 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
DE19814779A1 (de) * 1998-04-02 1999-10-07 Vitronic Dr Ing Stein Bildvera Verfahren und Vorrichtung zum Steuern eines beweglichen Gegenstandes
DE19826395A1 (de) * 1998-06-12 1999-12-23 Amatec Gmbh Verfahren zum Erfassen und Kompensieren von kinematischen Veränderungen eines Roboters
DE10133624A1 (de) * 2000-07-13 2002-01-24 Rolf Kleck Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen
WO2003034165A1 (en) * 2001-10-18 2003-04-24 Cimac Automaton Limited Auto motion : robot guidance for manufacturing
DE10159574A1 (de) * 2001-10-15 2003-04-30 Hermann Tropf Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5231693A (en) * 1991-05-09 1993-07-27 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Telerobot control system
JPH0970780A (ja) * 1995-09-06 1997-03-18 Fanuc Ltd ロボットのツール形状補正方式
DE10200534A1 (de) * 2002-01-09 2003-07-24 Siemens Ag Verfahren zum kollisionsfreien Bewegen wenigstens zweier gegeneinander bewegbarer Gegenstände

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579444A (en) * 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
DE4421699A1 (de) * 1994-06-21 1996-01-04 Hartmut Prof Janocha Verfahren zur sensorgestützten Anpassung oder Generierung von Posen zur Steuerung von Handhabungsgeräten zur Verbesserung der absoluten Posegenauigkeit dieser Handhabungsgeräte in Verbindung mit Off-line-Programmiersystemen und zur Übertragung von Roboterprogrammen auf verschiedene Exemplare der Handhabungsgeräte mit gleicher Aufgabe unter Reduzierung der Auswirkungen exemplarspezifischer Positionierunterschiede sowie Unterschiede im Aufbau der den einzelnen Handhabungsgeräten zugehörigen Arbeitszellen
DE19814779A1 (de) * 1998-04-02 1999-10-07 Vitronic Dr Ing Stein Bildvera Verfahren und Vorrichtung zum Steuern eines beweglichen Gegenstandes
DE19826395A1 (de) * 1998-06-12 1999-12-23 Amatec Gmbh Verfahren zum Erfassen und Kompensieren von kinematischen Veränderungen eines Roboters
DE10133624A1 (de) * 2000-07-13 2002-01-24 Rolf Kleck Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen
DE10159574A1 (de) * 2001-10-15 2003-04-30 Hermann Tropf Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen
WO2003034165A1 (en) * 2001-10-18 2003-04-24 Cimac Automaton Limited Auto motion : robot guidance for manufacturing

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"IEEE Journal of Robotics and Automation", Vol. RA-3, No.5, October 1987, S.404-417 *

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006003555B4 (de) * 2006-01-25 2010-01-21 Edag Gmbh & Co. Kgaa Steuerung für eine Werkzeug-Sensor-Vorrichtung
DE102006003555A1 (de) * 2006-01-25 2007-07-26 Edag Engineering + Design Ag Steuerung für eine Werkzeug-Sensor-Vorrichtung
DE102007009851B3 (de) * 2007-02-28 2008-05-29 Kuka Roboter Gmbh Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt
WO2008104426A3 (de) * 2007-02-28 2008-11-13 Kuka Roboter Gmbh Industrieroboter und verfahren zum bestimmen der lage eines industrieroboters relativ zu einem objekt
DE102008023955A1 (de) * 2008-05-16 2009-11-19 Kuka Roboter Gmbh Verfahren zur Simulation von Ereignissen und Abläufen von Luft-, Land- oder Wasserfahrzeugen und Simulationssystem
DE102008023955B4 (de) * 2008-05-16 2010-04-01 Kuka Roboter Gmbh Verfahren zur Simulation von Ereignissen und Abläufen von Luft-, Land- oder Wasserfahrzeugen und Simulationssystem
DE102009034529B4 (de) 2008-07-22 2018-06-28 Comau Llc Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
US8923602B2 (en) 2008-07-22 2014-12-30 Comau, Inc. Automated guidance and recognition system and method of the same
DE102009034244A1 (de) * 2009-07-22 2011-01-27 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Vermessung eines Bauteils
CN102781631A (zh) * 2010-03-10 2012-11-14 佳能株式会社 信息处理装置及控制该装置的方法
US9511493B2 (en) 2010-03-10 2016-12-06 Canon Kabushiki Kaisha Information processing apparatus and method for controlling the same
CN102781631B (zh) * 2010-03-10 2015-09-09 佳能株式会社 信息处理装置及控制该装置的方法
DE102010042313A1 (de) 2010-10-12 2012-04-12 Robert Bosch Gmbh Verfahren zur verbesserten Positionsbestimmung mit einem Navigationssystem und Navigationssystem hierzu
WO2012048983A1 (de) 2010-10-12 2012-04-19 Robert Bosch Gmbh Verfahren zur verbesserten positionsbestimmung mit einem navigationssystem und navigationssystem hierzu
WO2012048988A1 (de) 2010-10-12 2012-04-19 Robert Bosch Gmbh Verfahren zur ortsbestimmung mit einem navigationssystem und navigationssystem hierzu
DE102010042314A1 (de) 2010-10-12 2012-04-12 Robert Bosch Gmbh Verfahren zur Ortsbestimmung mit einem Navigationssystem und Navigationssystem hierzu
DE102011014299A1 (de) * 2011-03-17 2012-09-20 Kuka Roboter Gmbh Verfahren und Mittel zum Steuern einer Automatisierungseinrichtung, insbesodere eines Roboters
EP2500148A1 (de) * 2011-03-17 2012-09-19 KUKA Roboter GmbH Verfahren und Vorrichtung zum Steuern eines Roboters mit Hilfe eines virtuellen Modells des Roboters
DE102013215430A1 (de) * 2013-08-06 2015-02-12 Lufthansa Technik Ag Bearbeitungseinrichtung, Steuerungsverfahren und Bauteilaufnahmevorrichtung
DE102013215430B4 (de) * 2013-08-06 2016-07-14 Lufthansa Technik Ag Bearbeitungseinrichtung
EP3144751B1 (de) * 2015-09-18 2021-10-27 Siemens Aktiengesellschaft Steuerungssystem sowie verfahren zum betrieb eines steuerungssystems mit einer realen und einer virtuellen steuerung zur prozessüberwachung
US10262406B2 (en) 2015-11-18 2019-04-16 Omron Corporation Simulator, simulation method, and simulation program
EP3171237A1 (de) * 2015-11-18 2017-05-24 Omron Corporation Simulator, simulationsverfahren und simulationsprogramm
US11511435B2 (en) 2017-05-22 2022-11-29 Abb Schweiz Ag Robot-conveyor calibration method, robot system and control system
CN110877334A (zh) * 2018-09-05 2020-03-13 波音公司 用于机器人控制的方法和装置
EP3620273A3 (de) * 2018-09-05 2020-06-10 The Boeing Company Verfahren und vorrichtung zur robotersteuerung
US10821603B2 (en) 2018-09-05 2020-11-03 The Boeing Company Methods and apparatus for robot control
US20210387350A1 (en) * 2019-06-12 2021-12-16 Mark Oleynik Robotic kitchen hub systems and methods for minimanipulation library adjustments and calibrations of multi-functional robotic platforms for commercial and residential enviornments with artificial intelligence and machine learning
CN112109075A (zh) * 2019-06-20 2020-12-22 欧姆龙株式会社 控制***和控制方法
CN112109075B (zh) * 2019-06-20 2024-05-17 欧姆龙株式会社 控制***和控制方法
CN114174007A (zh) * 2019-09-11 2022-03-11 西门子(中国)有限公司 自主式机器人工装***、控制***、控制方法及存储介质
US20220118618A1 (en) * 2020-10-16 2022-04-21 Mark Oleynik Robotic kitchen hub systems and methods for minimanipulation library adjustments and calibrations of multi-functional robotic platforms for commercial and residential enviornments with artificial intelligence and machine learning

Also Published As

Publication number Publication date
DE10351669B4 (de) 2012-09-13

Similar Documents

Publication Publication Date Title
DE10351669B4 (de) Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt
DE102009034529B4 (de) Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
EP1602456B1 (de) Verfahren und Vorrichtung zum Steuern von Handhabungsgeräten
DE102005060967B4 (de) Verfahren und Vorrichtung zum Einrichten einer Bahnkurve einer Robotervorrichtung
DE102015013161B4 (de) Vorrichtung zum Einstellen eines Interferenzbereichs eines Roboters
DE112010000794B4 (de) Verfahren zum Steuern eines Roboterwerkzeuges
EP2989872B1 (de) Platziervorrichtung und platzierverfahren
DE102018112820B4 (de) Teach-Positionskorrekturvorrichtung und Teach-Positionskorrekturverfahren
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
DE3144843A1 (de) Verfahren zum betreiben eines als schweissroboter arbeitenden manipulators und dementsprechende steuerung
DE102015105687B4 (de) Roboter
DE102019114070A1 (de) Robotersystem zum montieren von komponenten und steuerverfahren dafür
DE102013113165A1 (de) Kalibrierungsverfahren für Robotersystem
DE102020116342A1 (de) Vorrichtung und verfahren zum erfassen des abweichungsausmasses der arbeitsposition eines werkzeugs
DE102004024378B4 (de) Verfahren zur robotergestützten Vermessung von Objekten
EP3587044A1 (de) Verfahren zum greifen von objekten in einem suchbereich, steuereinheit und positioniersystem
EP2012208A2 (de) Programmierhandgerät
DE102015104582A1 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
DE102007029398A1 (de) Verfahren und Vorrichtung zum Programmieren eines Industrieroboters
EP1172183A2 (de) Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen
DE102015104587A1 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
EP1459855A2 (de) Verfahren und Vorrichtung zur Verbesserung der Positioniergenauigkeit eines Arbeitsroboters
EP1915239A2 (de) Verfahren zum erzeugen eines umgebungsbildes
EP1471401A2 (de) Verfahren zur Einmessung des Koordinatensystems einer Kamera eines Roboters gegenüber dem Koordinatensystem des Roboters oder umgekehrt
DE4015644A1 (de) Verfahren zum bestimmen relevanter punkte eines werkzeugs am handflansch eines gesteuerten mehrachsigen manipulators

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
8127 New person/name/address of the applicant

Owner name: KUKA LABORATORIES GMBH, 86165 AUGSBURG, DE

R081 Change of applicant/patentee

Owner name: KUKA LABORATORIES GMBH, DE

Free format text: FORMER OWNER: KUKA ROBOTER GMBH, 86165 AUGSBURG, DE

Effective date: 20110304

Owner name: KUKA ROBOTER GMBH, DE

Free format text: FORMER OWNER: KUKA ROBOTER GMBH, 86165 AUGSBURG, DE

Effective date: 20110304

R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20121214

R081 Change of applicant/patentee

Owner name: KUKA ROBOTER GMBH, DE

Free format text: FORMER OWNER: KUKA LABORATORIES GMBH, 86165 AUGSBURG, DE

R082 Change of representative

Representative=s name: EGE LEE & PARTNER PATENTANWAELTE PARTGMBB, DE

Representative=s name: FUNK & BOESS GBR, DE

R082 Change of representative

Representative=s name: EGE LEE & PARTNER PATENTANWAELTE PARTGMBB, DE

Representative=s name: BOESS, DIETER ALEXANDER, DIPL.-ING. (UNIV.), DE

R081 Change of applicant/patentee

Owner name: KUKA DEUTSCHLAND GMBH, DE

Free format text: FORMER OWNER: KUKA ROBOTER GMBH, 86165 AUGSBURG, DE

R082 Change of representative

Representative=s name: BOESS, DIETER ALEXANDER, DIPL.-ING. (UNIV.), DE

Representative=s name: EGE LEE & PARTNER PATENTANWAELTE PARTGMBB, DE

R082 Change of representative

Representative=s name: BOESS, DIETER ALEXANDER, DIPL.-ING. (UNIV.), DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee