DE69219532T2 - Methode zur koreektur einer detektierten position - Google Patents

Methode zur koreektur einer detektierten position

Info

Publication number
DE69219532T2
DE69219532T2 DE69219532T DE69219532T DE69219532T2 DE 69219532 T2 DE69219532 T2 DE 69219532T2 DE 69219532 T DE69219532 T DE 69219532T DE 69219532 T DE69219532 T DE 69219532T DE 69219532 T2 DE69219532 T2 DE 69219532T2
Authority
DE
Germany
Prior art keywords
sensor
movement
camera
data
calibration data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69219532T
Other languages
English (en)
Other versions
DE69219532D1 (de
Inventor
Taro Arimatsu
Fumikazu Warashina
Atsushi Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE69219532D1 publication Critical patent/DE69219532D1/de
Application granted granted Critical
Publication of DE69219532T2 publication Critical patent/DE69219532T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/401Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
    • G05B19/4015Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes going to a reference at the beginning of machine cycle, e.g. for calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)
  • Control Of Position Or Direction (AREA)

Description

  • Die Erfindung betrifft ein Korrekturverfahren für eine Positionserkennung, wobei ein Sensor die Position eines Objektes erfaßt und insbesondere ein derartiges Verfahren zur Feststellung der Position eines Objektes mit einem an einem Roboterarm angebauten visuellen Sensor.
  • Robotersysteme machen bekanntlich von Videosystemen Gebrauch, um die Position von Objekten während des Zusammenbaues, Stapelns oder anderer Bearbeitungsschritte festzustellen. Ein typisches Videosystem besteht aus einem visuellen Sensor, beispielsweise einer Kamera, die zum Abbilden der Objekte an einer Roboterhand angebaut ist. Um bei solchen Systemen die Position eines Objektes zu erkennen, ist es nötig, daß das Robotersystem eine vorher bestimmte Information besitzt, nämlich Kalibrierungsdaten, welche die Position anzeigen, aus der der visuelle Sensor das Objekt betrachtet.
  • Die Kalibrierungsdaten sind nur bezüglich der Position und Lage des visuellen Sensors zum Zeitpunkt der Kalibrierung des visuellen Sensors effektiv. Deshalb muß dann der visuelle Sensor völlig bezüglich der Position fixiert bleiben, in der er kalibriert worden ist (s. z.B. JP-A-62-26308). Die Erkennung der Position eines Objektes mit einem an einer beweglichen Komponente wie einen an einer Roboterhand angebauten visuellen Sensor macht es erforderlich, daß die Position und Lage des visuellen Sensors zum Kalibrierungszeitpunkt reproduziert und zur genauen Positionsfeststellung verwendet wird. Im Ergebnis ist die Position des visuellen Sensors eingeschränkt und man kann Objekte nur unter einem kleinen Betrachtungswinkel erkennen. Fällt die Position eines zu erfassenden Objektes aus dem visuellen Sichtbereich des Sensors heraus, so ist der Sensor nicht mehr in der Lage, das Objekt zu erfassen.
  • In bestimmten Fällen benötigt man die Erfassung mehrerer Positionen mit einem einzelnen an einer Roboterhand angebauten visuellen Sensor (beispielsweise JP-A-1 153 907). Da dabei so viele Kalibrierungsdaten erforderlich sind, wie Positionen erfaßt werden müssen, bedarf der Kalibrierungsprozeß des visuellen Sensors vieler Schritte und dauert lange.
  • In Anbetracht der geschilderten Schwierigkeiten beim Kalibrieren von bekannten visuellen Sensoren, ist es eine Aufgabe der Erfindung, ein Korrekturverfahren für eine festgestellte Position zu schaffen, mit der es möglich ist, die Position des Objektes in einem größeren Bereich zu erkennen. Eine weitere Aufgabe der Erfindung liegt darinß ein Korrekturverfahren für die erfaßte Position zu schaffen, mit dem es möglich ist, Objekte in anderen Positionen zu erkennen, nachdem ein Sensor einmal in Bezug auf eine bestimmte Position kalibriert worden ist.
  • Erfindungsgemäß ist die Aufgabe mit den Merkmalen des Patentanspruchs 1 gelöst.
  • Der Kalibrierungsprozeß wird ausgeführt, um erste Kalibrierungsdaten zwischen dem Koordinatensystem der beweglichen Komponente und dem Koordinatensystem des Sensors zu bestimmen. Aufgrund der Position und Lage des Sensors im Kalibrierungsprozeß vor der Bewegung des Sensors, sowie auf der Position und Lage des Sensors nach seiner Bewegung wird der Abstand bestimmt, um den sich die Position und Lage des Sensors bewegt hat. Die zweiten Kalibrierungsdaten für den Sensor nach seiner Bewegung werden aus dem bestimmten Abstand und den ersten Kalibrierungsdaten berechnet. Die Position des Objektes wird dann basierend auf den zweiten Kalibrierungsdaten und den Daten des nach seiner Bewegung vom Sensor erfaßten Objektes genau bestimmt. Somit wird der Kalibrierungsprozeß nur einmal ausgeführt, um die ersten Kalibrierungsdaten zu gewinnen und die zweiten Kalibrierungsdaten werden dadurch bestimmt, daß sie für jede Position, in welche sich der Sensor bewegen kann, berechnet werden. Damit ist der Sensor in seiner Position nicht eingeschränkt und kann die Position des Objektes in einem großen Bereich feststellen.
  • Die Zeichnung zeigt:
  • Fig. 1 eine Ansicht, teilweise als Blockschaltbild eines Robotersystems zum Ausführen des Korrekturverfahrens zur Positionsfeststellung gemäß einer Ausführungsform der Erfindung;
  • Fig. 2 eine Ansicht, teilweise als Blockschaltbild eines Robotersystems zum Ausführen des Korrekturverfahrens zur Positionsfeststellung in einer anderen Ausführungsform der Erfindung.
  • Eine bestmögliche Ausführungsform der Erfindung wird nachstehend anhand der Zeichnung erläutert. Das Robotersystem in Fig. 1 besitzt einen Roboter 1, der von einer Steuerung 10 aus gesteuert wird. Der Roboter 1 hat einen Arm 2 mit einer Kamera 3, die als visueller Sensor am Ende des Arms angebaut ist. Die Kamera 3 wird aus einer Position A (gestrichelt) in eine Position B (durchgezogen) bewegt. In jeder Position A und B bildet die Kamera 3 einen Markierungspunkt 34 am Objekt 30 ab und liefert die Bilddaten zu einer Sensorsteuerung 20. Die Positionen A und B entsprechen verschiedenen Schritten in einem Stapelprozeß, bei dem ein nicht dargestellter Arbeitsroboter nacheinander Schichten von oben her am Objekt 30 abträgt. Die Kamera 3 bewegt sich aus der Position A in die Position B, um den Markierungspunkt 34 auf der Oberseite jeder Lage des Objektes 30 abzubilden.
  • Die Robotersteuerung 10 kann die Position und Lage des Endes des Arms 2 am Roboter 1 erfassen und besitzt einen Speicher 11 zum Abspeichern der Positions- und Lagedaten der Kamera 3 in den Positionen A und B. Die Daten bezüglich der Position und Lage der Kamera 3 in der Position A werden als Daten Ca11a bezeichnet und die Daten bezüglich der Position und Lage der Kamera 3 in der Position B als Cb11b Daten.
  • Die Sensorsteuerung 20 besitzt einen Prozessor (CPU) 21, einen ROM 22 zum Abspeichern eines Steuerprogramms 22a zum Ausführen des erfindungsgemäßen Korrekturverfahrens und eines Kalibrierungsprozesses, einen RAM 23 zum Abspeichern der Daten Ca11a, Cb11b, die von der Robotersteuerung 10 über eine Schnittstelle 27 eingespeist werden, einen RAM 24 zum Abspeichern von Bilddaten (WDB) 31, die von der Kamera 3 in der Position B beim Abbilden des Objektes 30 geliefert und über eine Kameraschnittstelle 28 eingespeist werden, und einen RAM 25 zum Abspeichern der Kalibrierungsdaten (CDA) 32, die im Kalibrierungsprozeß erzeugt werden, wenn die Kamera 3 in der Position A ist, und ferner zum Abspeichern von Kalibrierungsdaten (CDB) 33 (nachstehend beschrieben). Die Kalibrierungsdaten (CDA) 32 sind Daten zum Transformieren eines Kamera-Koordinatensystems in ein allgemeines Koordinatensystem. Genauer gesagt, werden die Bilddaten, die von der Kamera 3 in der Position A beim Abbilden des Objektes 30 im Kamera-Koordinatensystem erzeugt werden, mit den Kalibrierungsdaten (CDA) 32 korrigiert, mit dem Ergebnis, daß die Position des abgebildeten Objektes 30 im allgemeinen Koordinatensystem erfaßt werden kann.
  • Der Prozessor 21 arbeitet mit dem Steuerprogramm 22, um das Robotersystem insgesamt zu steuern und die laufende Position des Objektes 30 nach seiner Bewegung zu bestimmen. Dieser Prozeß wird nachstehend erläutert. Zuerst bestimmt ein Bildprozessor 26 der Sensorsteuerung 20 Abstandsdaten (CM) 12, also wie weit sich Position und Lage der Kamera 3 verschoben haben, und zwar aus den Positions- und Lagedaten (CA11a) vor der Bewegung der Kamera 3, nämlich, wenn die Kamera 3 in der Position A ist, und aus den Positions- und Lagedaten (CB11b) nach der Bewegung der Kamera 3, d.h. wenn die Kamera 3 in der Position B ist. Die Abstandsdaten CM12 werden im RAM 23 gespeichert. Dann bestimmt der Prozessor 21 basierend auf den Abstandsdaten CM12 und den Kalibrierungsdaten CDA32 im RAM 25 die Kalibrierungsdaten CDB33 nach der Bewegung der Kamera, d.h. in der Position B und speichert die bestimmten Kalibrierungsdaten CDB33 im RAM 25. Der Prozessor 21 bestimmt anschließend die laufende Position des Objektes 30 nach seiner Bewegung, basierend auf den Kalibrierungsdaten CDB33 und den Bilddaten WDB31. Insbesondere werden die Bilddaten WDB31 des Objektes 30, das von der Kamera in der Position B abgebildet wird, mit den Kalibrierungsdaten CDB33 für die Kamera 3 in der Position B korrigiert, womit es möglich ist, daß das Objekt 30 im allgemeinen Koordinatensystem erfaßt wird.
  • Wie vorbeschrieben, werden die Kalibrierungsdaten CDB33 für die Kamera 3 in der Position B aus den Kalibrierungsdaten CDA32 berechnet, die im Kalibrierungsprozeß vor der Bewegung der Kamera 3 produziert worden sind, nämlich wenn die Kamera 3 in der Position A ist und ferner aus den Abstandsdaten CM12, und die Position des Objektes 30 wird basierend auf den Kalibrierungsdaten CDB33 und den Bilddaten des von der Kamera 3 in der Position B abgebildeten Objektes 30 bestimmt. Wenn somit einmal der Kalibrierungsprozeß ausgeführt worden ist, um Kalibrierungsdaten zu erhalten, so können neue Kalibrierungsdaten berechnet werden, sobald die Position und Lage der Kamera 3 sich geändert hat. Somit können neue Kalibrierungsdaten basierend auf der Positionsänderung für jede Position erzeugt werden, in welche sich die Kamera 3 bewegt. Die Kamera 3 ist auf keine Position eingeschränkt und kann die Position des Objektes 30 in einem großen Bereich erfassen. Die Position des Objektes 30 kann mit hoher Genauigkeit festgestellt werden, da die berechneten Kalibrierungsdaten nahezu fehlerfrei sind.
  • In dem obigen Beispiel werden die Kalibrierungsdaten für die Kamera nach ihrer Bewegung aus den Kalibrierungsdaten vor der Bewegung der Kamera bestimmt und aus dem Abstand, den die Kamera zurückgelegt hat, und dann wird die Position des Objektes aus den vorbestimmten Kalibrierungsdaten für die Kamera nach ihrer Bewegung und den Bilddaten, die von der Kamera nach ihrer Bewegung erzeugt werden, bestimmt. Es kann aber auch eine zeitweise Position des Objektes aus den von der Kamer nach ihrer Bewegung erzeugten Bilddaten und den Kalibrierungsdaten vor der Bewegung der Kamera bestimmt werden, und die Position des Objektes kann aus der vorbestimmten zeitweisen Position des Objektes und dem Abstand ermittelt werden, um den sich die Kamera bewegt hat. Genauer gesagt, wird die zeitweise Position des Objektes dadurch erzeugt, daß die von der Kamera nach ihrer Bewegung erzeugten Bilddaten, die als Bilddaten in der Position vor der Kamerabewegung betrachtet werden, mit den Kalibrierungsdaten vor der Kamerabewegung korrigiert werden. Die wirkliche Position des Objektes erhält man durch Verarbeiten der zeitweisen Position, um den Abstand, um den sich die Kamera bewegt hat, zu berücksichtigen. Dieser alternative Prozeß vereinfacht die Berechnungen, die zur Bestimmung der Objektposition nötig sind.
  • Fig. 2 zeigt ein Robotersystem zum Ausführen des Korrekturverfahrens bei der Positionsfeststellung in einer anderen Ausführungsform der Erfindung. Mit dem Robotersystem der Fig. 2 soll ein nicht dargestellter Arbeitsroboter Bolzen genau an einer Tür 71 (Objekt) eines Fahrzeugs 70 befestigen. Das Fahrzeug 70 besitzt drei Bereiche, die von drei Kameras oder visuellen Sensoren 41, 42 bzw. 43 erfaßt werden. Eine Sensorsteuerung 40 erkennt jede Positionsabweichung des Fahrzeugs 70 basierend auf den Bilddaten der am Fahrzeug 70 betrachteten Bereiche. Die Positionsinformation wird von der Sensorsteuerung 40 zu einer Robotersteuerung 30 übertragen. Ein Roboter 90 steuert die Position und Lage der Kamera 44, die am Ende eines Arms 91 des Roboters 90 angebracht ist.
  • Ein Roboter 60 hat eine Hand 62, welche die Tür 71 in eine bestimmte Position mit Hilfe eines Befehls aus der Robotersteuerung 50 öffnet. Zu diesem Zeitpunkt bewegt der Roboter 90 die Kamera 44 basierend auf der Positionsinformation bezüglich des Fahrzeugs 70 derart, daß die Kamera 44 einen bestimmten Bereich visuell erfaßt.
  • Die Sensorsteuerung 40 hat bereits vor der Bewegung der Kamera 44 Kalibrierungsdaten erzeugt. Die Sensorsteuerung 40 erkennt die Position der Tür 71 mit Hilfe des erfindungsgemäßen Korrekturverfahrens. Genauer gesagt bestimmt die Sensorsteuerung 40 die Kalibrierungsdaten nach der Bewegung der Kamera 44 aus den Kalibrierungsdaten vor der Bewegung der Kamera 44 und aus dem Abstand, um den sich die Kamera 44 verschoben hat und bestimmt die Position der Tür 71 genau basierend auf den Kalibrierungsdaten nach der Bewegung der Kamera 44 und den Bilddaten der Kamera 44 nach ihrer Bewegung. Basierend auf den so die Position der Tür 71 bestimmenden Daten befestigt der nicht dargestellte Arbeitsroboter Bolzen oder ähnliche Bauteile an der Tür 71.
  • Wenn also das Objekt, hier die Tür, in einer falschen Position ist, so wird diese Positionsabweichung festgestellt und die Position und Lage der Kamera wird auf der Basis der bestimmten Positionsabweichung korrigiert, um einen Markierungspunkt in den visuellen Bereich der Kamera zu bringen. Auch wenn das Objekt also falsch positioniert ist, so kann es jederzeit genau erkannt werden.
  • So werden in der beschriebenen Weise die Kalibrierungsdaten für den Sensor nach seiner Bewegung aus den Kalibrierungsdaten berechnet, die vor der Sensorbewegung erzeugt worden sind, und auch aus den Abstandsdaten für die Bewegung des Sensors, und die Position des Objektes wird basierend auf den Kalibrierungsdaten nach der Bewegung des Sensors und den Bilddaten des Objektes bestimmt. Wenn also einmal der Kalibrierungsprozeß ausgeführt worden ist, um Kalibrierungsdaten zu erhalten, so können neue Kalibrierungsdaten berechnet werden, wenn sich die Position und Lage des Sensors ändert. Deshalb können neue Kalibrierungsdaten auf der Basis der Positionsänderung in jeder Position des Sensors erzeugt werden. Der Sensor ist nicht auf irgendeine Position eingeschränkt und kann die Position des Objektes in einem großen Bereich erfassen. Die Position des Objektes kann mit hoher Genauigkeit bestimmt werden, weil die berechneten Kalibrierungsdaten nahezu fehlerfrei sind.
  • Eine zeitweise Position des Objektes kann aus den Bilddaten des Sensors nach seiner Bewegung und den Kalibrierungsdaten vor der Bewegung des Sensors bestimmt werden und die Position des Objektes kann aus der bestimmten zeitweisen Position des Objektes und aus dem Abstand bestimmt werden, um den sich der Sensor bewegt hat. Diese Anordnung vereinfacht die erforderlichen Berechnungen, um die Position des Objektes zu bestimmen.
  • Ist das Objekt falsch positioniert, so wird die Abweichung erfaßt und die Position und Lage des Sensors werden basierend auf der Abweichung korrigiert, um einen Markierungspunkt am Objekt in den visuellen Bereich des Sensors zu bringen. Somit kann das Objekt stets genau erkannt werden, auch wenn es falsch positioniert ist.

Claims (5)

1. Verfahren zum Korrigieren von Daten eines von einem Sensor erfaßten Objektes zur Positionsbestimmung des Objektes mit folgenden Schritten:
Es werden erste Kalibrierungsdaten gemäß einem zwischen dem Koordinatensystem einer beweglichen Komponente und dem Koordinatensystem eines an der beweglichen Komponente angebauten Sensors ausgeführten Kalibrierungsprozeß bestimmt;
es werden die Position und Lage des Sensor vor seiner Bewegung erfaßt, wenn der Kalibrierungsprozeß ausgeführt wird;
es werden die Position und Lage des Sensors nach seiner Bewegung mittels der beweglichen Komponente erfaßt; aus den Positionen und Lagen des Sensors vor und nach seiner Bewegung wird ein Abstand bestimmt, um welchen sich die Position und Lage des Sensors bewegt hat;
es werden zweite Kalibrierungsdaten für den Sensor nach seiner Bewegung bestimmt, basierend auf dem Abstand und den ersten Kalibrierungsdaten und
es wird die Position des Objektes basierend auf den zweiten Kalibrierungsdaten und Daten des vom Sensor nach seiner Bewegung erfaßten Objektes bestimmt.
2. Verfahren nach Anspruch 1, ferner mit den Schritten, eine abgebildete Position der beweglichen Komponente abhängig von der Position der beweglichen Komponente zu korrigieren, die von einem anderen Sensor als dem besagten Sensor erfaßt wird und eine Punktmarkierung des Objektes mit dem an der beweglichen Komponente angebauten Sensor zu erfassen.
3. Verfahren nach Anspruch 1, bei dem die bewegliche Komponente ein Roboter ist.
4. Verfahren nach Anspruch 1, bei dem der Sensor ein visueller Sensor ist.
5. Verfahren zum Korrigieren von Daten eines von einem Sensor erfaßten Objektes zur Positionsbestimmung des Objektes mit folgenden Schritten:
Es werden erste Kalibrierungsdaten gemäß einem zwischen dem Koordinatensystem einer beweglichen Komponente und dem Koordinatensystem eines an der beweglichen Komponente angebauten Sensors ausgeführten Kalibrierungsprozeß bestimmt;
es werden die Position und Lage des Sensor vor seiner Bewegung erfaßt, wenn der Kalibrierungsprozeß ausgeführt wird;
es werden Position und Lage des Sensors nach seiner Bewegung mittels der beweglichen Komponente erfaßt; aus den Positionen und Lagen des Sensors vor und nach seiner Bewegung wird ein Abstand bestimmt, um den sich die Position und Lage des Sensors bewegt hat;
es wird eine zeitweise Position des Objektes basierend auf den vom Sensor nach seiner Bewegung erfaßten Daten des Objektes und den ersten Kalibrierungsdaten bestimmt und es wird die Position des Objektes basierend auf der zeitweisen Position des Objektes und dem Abstand bestimmt.
DE69219532T 1991-03-07 1992-02-28 Methode zur koreektur einer detektierten position Expired - Fee Related DE69219532T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP3067981A JP2889011B2 (ja) 1991-03-07 1991-03-07 検出位置補正方法
PCT/JP1992/000241 WO1992015838A1 (en) 1991-03-07 1992-02-28 Detection position correction system

Publications (2)

Publication Number Publication Date
DE69219532D1 DE69219532D1 (de) 1997-06-12
DE69219532T2 true DE69219532T2 (de) 1997-09-04

Family

ID=13360675

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69219532T Expired - Fee Related DE69219532T2 (de) 1991-03-07 1992-02-28 Methode zur koreektur einer detektierten position

Country Status (6)

Country Link
US (1) US5319443A (de)
EP (1) EP0528054B1 (de)
JP (1) JP2889011B2 (de)
KR (1) KR970007039B1 (de)
DE (1) DE69219532T2 (de)
WO (1) WO1992015838A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010037067B4 (de) * 2009-08-19 2020-10-15 Denso Wave Inc. Robotersteuervorrichtung und Verfahren zum Teachen eines Roboters

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2764485B2 (ja) * 1991-08-27 1998-06-11 ファナック株式会社 リアルタイムセンサの診断方法
JP3394322B2 (ja) 1994-05-19 2003-04-07 ファナック株式会社 視覚センサを用いた座標系設定方法
WO1996007929A1 (de) * 1994-09-09 1996-03-14 Siemens Aktiengesellschaft Anordnung zur automatischen positionserfassung eines container-transportfahrzeuges
US6014652A (en) * 1994-11-02 2000-01-11 Foster-Miller, Inc. Object classification and identification system
JPH0970780A (ja) * 1995-09-06 1997-03-18 Fanuc Ltd ロボットのツール形状補正方式
JPH1091207A (ja) * 1996-09-13 1998-04-10 Fujitsu Ltd 内部表現自動生成方法及び装置
US5831621A (en) * 1996-10-21 1998-11-03 The Trustees Of The University Of Pennyslvania Positional space solution to the next best view problem
US6141863A (en) * 1996-10-24 2000-11-07 Fanuc Ltd. Force-controlled robot system with visual sensor for performing fitting operation
DE19814779A1 (de) * 1998-04-02 1999-10-07 Vitronic Dr Ing Stein Bildvera Verfahren und Vorrichtung zum Steuern eines beweglichen Gegenstandes
FR2792720B1 (fr) * 1999-04-23 2001-07-06 Process Conception Ing Sa Procede et dispositif de controle de silhouette de vehicule automobile
US6166811A (en) * 1999-08-12 2000-12-26 Perceptron, Inc. Robot-based gauging system for determining three-dimensional measurement data
US20030152248A1 (en) * 2000-04-11 2003-08-14 Spark Peter Edmunds Self calibration of an array of imaging sensors
JP3796449B2 (ja) * 2002-01-31 2006-07-12 キヤノン株式会社 位置姿勢決定方法および装置並びにコンピュータプログラム
US7151560B2 (en) * 2002-06-20 2006-12-19 Hewlett-Packard Development Company, L.P. Method and apparatus for producing calibration data for a digital camera
DE10249786A1 (de) * 2002-10-24 2004-05-13 Medical Intelligence Medizintechnik Gmbh Referenzierung eines Roboters zu einem Werkstück und Vorrichtung hierfür
DE10319253B4 (de) * 2003-04-28 2005-05-19 Tropf, Hermann Dreidimensional lagegerechtes Zuführen mit Roboter
JP4496354B2 (ja) 2004-06-18 2010-07-07 独立行政法人 宇宙航空研究開発機構 カメラ校正のための透過型校正器具とその校正法
JP3752251B2 (ja) * 2004-07-01 2006-03-08 シャープ株式会社 自走式移動車
JP2008514504A (ja) * 2004-09-30 2008-05-08 アーベーベー アーエス 産業用ロボットに使用されるドア開閉機構
US9198728B2 (en) * 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
JP2008279549A (ja) * 2007-05-10 2008-11-20 Honda Motor Co Ltd ワーク搬送システムおよびワーク搬送方法
JP4837116B2 (ja) * 2010-03-05 2011-12-14 ファナック株式会社 視覚センサを備えたロボットシステム
JP5561260B2 (ja) * 2011-09-15 2014-07-30 株式会社安川電機 ロボットシステム及び撮像方法
US9463574B2 (en) * 2012-03-01 2016-10-11 Irobot Corporation Mobile inspection robot
JP5670416B2 (ja) 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
JP5616478B1 (ja) 2013-04-18 2014-10-29 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
JP5698789B2 (ja) 2013-04-18 2015-04-08 ファナック株式会社 ワークを搬送するロボットの制御装置
JP5850962B2 (ja) * 2014-02-13 2016-02-03 ファナック株式会社 ビジュアルフィードバックを利用したロボットシステム
JP5946884B2 (ja) 2014-10-24 2016-07-06 ファナック株式会社 対象物の位置を検出する位置検出システム
CN106325306B (zh) * 2015-06-30 2019-07-16 芋头科技(杭州)有限公司 一种机器人的摄像头总成装置及其拍摄与跟踪方法
CN105911938B (zh) * 2016-05-04 2018-09-18 首钢京唐钢铁联合有限责任公司 一种位置标定方法、***及自动监控方法
JP7105223B2 (ja) * 2017-03-23 2022-07-22 株式会社Fuji ロボットシステム
JP6966230B2 (ja) 2017-06-15 2021-11-10 Tmtマシナリー株式会社 自動糸掛け装置、糸処理設備、及び、糸掛け方法
JP6795471B2 (ja) * 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
WO2020047713A1 (en) * 2018-09-03 2020-03-12 Abb Schweiz Ag Method and apparatus for managing robot system
JP7163115B2 (ja) * 2018-09-12 2022-10-31 キヤノン株式会社 ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体
JP6871220B2 (ja) 2018-11-08 2021-05-12 ファナック株式会社 制御システム
JP7309371B2 (ja) * 2019-01-25 2023-07-18 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP6892462B2 (ja) * 2019-02-05 2021-06-23 ファナック株式会社 機械制御装置
JP6892461B2 (ja) 2019-02-05 2021-06-23 ファナック株式会社 機械制御装置
JP6898374B2 (ja) * 2019-03-25 2021-07-07 ファナック株式会社 ロボット装置の動作を調整する動作調整装置およびロボット装置の動作を調整する動作調整方法
JP7502343B2 (ja) * 2020-01-17 2024-06-18 ファナック株式会社 画像処理システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0114505B1 (de) * 1982-12-28 1987-05-13 Diffracto Ltd. Einrichtung und Verfahren zum Kalibrieren eines Roboters
JPS59142617A (ja) * 1983-02-02 1984-08-15 Mitsubishi Electric Corp ロボツトの制御装置
JPS60252914A (ja) * 1984-05-30 1985-12-13 Fanuc Ltd 視覚センサ座標情報とロボツト基準座標情報の換算方式
JPS60262215A (ja) * 1984-06-08 1985-12-25 Hitachi Ltd ロボツトの教示方法
JPS62126404A (ja) * 1985-11-27 1987-06-08 Agency Of Ind Science & Technol マニピユレ−タのキヤリブレ−シヨン装置
JPS62226308A (ja) * 1986-03-28 1987-10-05 Fanuc Ltd 視覚センサを有するロボツトの制御方式
JPS642889A (en) * 1987-06-23 1989-01-06 Omron Tateisi Electron Co Calibrating method for robot visual coordinate system
JPH01153907A (ja) * 1987-12-10 1989-06-16 Aisin Seiki Co Ltd 画像処理装置を利用した視覚センサ姿勢補正方式
JPH0299802A (ja) * 1988-10-07 1990-04-11 Fanuc Ltd ハンドアイを用いた視覚センサにおける座標系設定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010037067B4 (de) * 2009-08-19 2020-10-15 Denso Wave Inc. Robotersteuervorrichtung und Verfahren zum Teachen eines Roboters

Also Published As

Publication number Publication date
EP0528054A1 (de) 1993-02-24
JPH05241626A (ja) 1993-09-21
US5319443A (en) 1994-06-07
EP0528054B1 (de) 1997-05-07
WO1992015838A1 (en) 1992-09-17
DE69219532D1 (de) 1997-06-12
JP2889011B2 (ja) 1999-05-10
KR930700818A (ko) 1993-03-16
EP0528054A4 (de) 1995-06-07
KR970007039B1 (ko) 1997-05-02

Similar Documents

Publication Publication Date Title
DE69219532T2 (de) Methode zur koreektur einer detektierten position
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
DE102015001527B4 (de) Robotersystem, das visuelle Rückmeldung verwendet
DE69103871T2 (de) Eichsystem für einen optischen sensor.
DE69516959T2 (de) Stabilisierungsabschätzung einer zielbereichlokalisierung, abgeleitet von mehrfacherfassten marksteinbereichen auf einem videobild
EP2166510B1 (de) Verfahren zum Ermitteln der Position und der Orientierung einer in einem Fahrzeug angeordneten Kamera
DE60011458T2 (de) Vorrichtung und verfahren zur bestimmung von koordinaten und orientierung
DE19937265A1 (de) Verfahren und Vorrichtung zur Positionierung eines Meßkopfes auf einer kontaktfreien dreidimensionalen Meßmaschine
EP1701803A1 (de) Verfahren zum automatischen aufbringen und überwachen einer auf einem substrat aufzubringenden struktur sowie eine vorrichtung hierfür
EP2037227A1 (de) Verfahren und Vorrichtung zum Bestimmen der Position eines Fahrzeugs
EP3136711A1 (de) Verfahren zur erzeugung und auswertung eines bilds
WO2007017068A1 (de) Verfahren und vorrichtung zum führen eines maschinenteils entlang einer definierten bewegungsbahn über einer werkstückoberfläche
DE102009057996A1 (de) Verfahren zur Bestimmung einer Position einer Kamera mit einem zugehörigen Kamera-Koordinatensystem relativ zu einer Position eines Fahrzeuges oder Fahrzeuggespannes mit einem zugehörigen Fahrzeug-Koordinatensystem
DE69829091T2 (de) Messungsgerät
DE102018121481A1 (de) Entfernungsmesssystem und Entfernungsmessverfahren
DE102018111776B4 (de) Kalibriervorrichtung, Verfahren zur Ermittlung von Kalibrierdaten, Vorrichtung zur Ausführung des Verfahrens, Kraftfahrzeug umfassend eine solche Vorrichtung und Verwendung der Kalibriervorrichtung für das Verfahren sowie das Kraftfahrzeug
DE112015002764B4 (de) Montagewinkeleinstellverfahren und Montagewinkelerfassungseinrichtung für bordeigene Kamera
DE102007001395B4 (de) Verfahren und Vorrichtung zum Justieren wenigstens einer Achse
DE102007007827A1 (de) Verfahren und Vorrichtung zum Überprüfen eines Druckbildes
DE10312535B4 (de) Verfahren und Vorrichtung zum geometrischen Vermessen eines Materialbandes
EP1675709A2 (de) VERFAHREN ZUR EINRICHTUNG EINER BEWEGUNG EINES HANDHABUNGSGERÄTS UND BILDVERARBEITUNG
EP1098268A2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE3507570A1 (de) Verfahren und vorrichtung zur automatischen lenkung eines fahrzeuges, insbesondere eines landwirtschaftlichen fahrzeuges, entlang eines in fahrtrichtung orientierten musters
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
EP4061585B1 (de) Kalibrierung einer impendanzregelung eines robotermanipulators

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
8339 Ceased/non-payment of the annual fee