DE102010023736A1 - Robot system with problem detection function - Google Patents

Robot system with problem detection function Download PDF

Info

Publication number
DE102010023736A1
DE102010023736A1 DE102010023736A DE102010023736A DE102010023736A1 DE 102010023736 A1 DE102010023736 A1 DE 102010023736A1 DE 102010023736 A DE102010023736 A DE 102010023736A DE 102010023736 A DE102010023736 A DE 102010023736A DE 102010023736 A1 DE102010023736 A1 DE 102010023736A1
Authority
DE
Germany
Prior art keywords
optical sensor
encoder
robot
mechanical
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010023736A
Other languages
German (de)
Other versions
DE102010023736B4 (en
Inventor
Yoshiki Hashimoto
Tomoki Ohya
Tetsuro Matsudaira
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102010023736A1 publication Critical patent/DE102010023736A1/en
Application granted granted Critical
Publication of DE102010023736B4 publication Critical patent/DE102010023736B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37189Camera with image processing emulates encoder output
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37546Compare two positions measured with different methods, alarm if difference too high

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

Es wird ein Robotersystem bereitgestellt, das eine Problemerkennungsfunktion aufweist, mittels derer ein Problem eines Codierers erkannt werden kann, das im Stand der Technik nicht erkannt werden kann. Eine Robotersteuerung (14) umfasst einen Motorsteuerteil (36), der zum Steuern eines ersten, zweiten und dritten Servomotors (22, 24, 26) eingerichtet ist, einen Bildverarbeitungsteil (38), der zum Verarbeiten eines von einem optischen Sensor (34) erhaltenen Bildes eingerichtet ist, einen Vergleichsteil (40), der zum Vergleichen eines vom optischen Sensor erhaltenen ersten Messwerts mit einem von den Codierern (28, 30, 32) erhaltenen zweiten Messwert eingerichtet ist, und einen Alarmausgabeteil (42), der zum Ausgeben eines Alarms auf Basis des Vergleichsergebnisses vom Vergleichsteil (40) eingerichtet ist.There is provided a robot system having a problem detection function by which a problem of an encoder can be recognized which can not be recognized in the prior art. A robot controller (14) comprises a motor control part (36) arranged to control a first, second and third servomotor (22, 24, 26), an image processing part (38) adapted to process one of an optical sensor (34) Image, a comparison part (40) arranged to compare a first measurement value obtained from the optical sensor with a second measurement value obtained from the encoders (28, 30, 32), and an alarm output part (42) for outputting an alarm is established on the basis of the comparison result by the comparison part (40).

Figure 00000001
Figure 00000001

Description

GEBIET DER ERFINDUNGFIELD OF THE INVENTION

Die vorliegende Erfindung betrifft ein Robotersystem mit einer Problemerkennungsfunktion und insbesondere ein Robotersystem, das einen Mehrgelenk-Roboter aufweist, der mit einem Servomotor mit einem Codierer ausgerüstet ist, bei dem ein in Zusammenhang mit dem Codierer auftretendes Problem erkannt werden kann.The The present invention relates to a robot system having a problem detection function and more particularly, a robot system including a multi-joint robot equipped with a servomotor with an encoder where is a problem associated with the encoder can be recognized.

HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION

Im Stand der Technik ist in einem Mehrgelenk-Roboter, der einen Servomotor aufweist, ein Codierer im Servomotor vorgesehen. Der Roboter wird von einem Befehlswert gesteuert und die Position oder Geschwindigkeit jeder Achse wird durch Verarbeiten eines Rückkopplungswertes vom Codierer erhalten. Wenn die Differenz zwischen dem Befehlswert und dem Rückkopplungswert größer ist als ein zulässiger Wert, wird eine solche Differenz als Problem bestimmt und der Betrieb des Roboters angehalten.in the The prior art is in a multi-joint robot, which is a servomotor having an encoder provided in the servomotor. The robot is from controlled by a command value and the position or speed each axis is calculated by processing a feedback value received from the encoder. If the difference between the command value and the feedback value is greater as an allowable value, such difference is called Problem determined and the operation of the robot stopped.

Zur sicheren Steuerung des Roboters muss eine Störung des Codierers (z. B. ein anomaler Ausgang des Codierers) und/oder ein Problem bei der Kommunikation zwischen dem Codierer und einer Steuerung oder dgl. erkannt werden. Als eine Technik dafür offenbart die nicht geprüfte japanische Offenlegungsschrift, Nr. 4-235610 , ein Problemdetektorgerät, das mit einem Absolut-Codierer und einem Inkrement-Codierer für jede Achse ausgestattet ist, wobei ein Problem durch Vergleichen der Positionsinformationen, die von jedem Codierer beschafft werden, erkannt werden kann. Ferner offenbart die nicht geprüfte japanische Offenlegungsschrift, Nr. 1-199201 eine Sicherheitsvorrichtung, bei der eine Kommunikationsleitung zwischen der Vorrichtung und einem Codierer geduplext ist, um die Sicherheit zu erhöhen.To safely control the robot, a disturbance of the encoder (eg, an abnormal output of the encoder) and / or a problem in communication between the encoder and a controller or the like must be recognized. As a technique for it reveals the unaudited Japanese Patent Laid-Open Publication No. 4-235610 , a problem detecting apparatus equipped with an absolute encoder and an increment encoder for each axis, whereby a problem can be recognized by comparing the position information obtained from each encoder. Furthermore, the unexamined discloses Japanese Patent Laid-Open Publication No. 1-199201 a security device in which a communication line between the device and an encoder is duplexed to increase security.

Bei den oben genannten Erfindungen kann die Sicherheit des Codierers gewährleistet werden, wenn eine Störung oder Anomalie des Codierers auftritt. Bei der nicht geprüften japanischen Offenlegungsschrift, Nr. 4-235610 , sind jedoch verschiedene Codierertypen erforderlich, und bei der nicht geprüften japanischen Offenlegungsschrift, Nr. 1-199201 ist die mit dem Codierer verbundene Kommunikationsleitung geduplext. Mit anderen Worten, die Konstruktion des Codierers ist bei den obigen Entgegenhaltungen kompliziert, was zu erhöhten Kosten führt. Demzufolge ist eine Technik zur raschen Detektion eines Problems im Ausgang und/oder der Kommunikation des Codierers wünschenswert, wobei der Codierer eine einfache Struktur haben sollte.In the above-mentioned inventions, the security of the encoder can be ensured when a malfunction or abnormality of the encoder occurs. At the untested Japanese Patent Laid-Open Publication No. 4-235610 , however, different types of encoders are required, and in the unaudited Japanese Patent Laid-Open Publication No. 1-199201 the communication line connected to the encoder is duplexed. In other words, the construction of the encoder is complicated in the above references, resulting in increased costs. Accordingly, a technique for rapidly detecting a problem in the output and / or communication of the encoder is desirable, and the encoder should have a simple structure.

ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION

Es ist demnach eine Aufgabe der vorliegenden Erfindung, ein Robotersystem mit einer Problemerkennungsfunktion bereitzustellen, durch die Störungen oder Anomalien eines Codierers erkannt werden können, die durch die herkömmliche Technik nicht erkannt werden können.It Accordingly, it is an object of the present invention to provide a robotic system with a problem detection function to provide through the interference or anomalies of an encoder can be detected, the can not be detected by the conventional technique.

Gemäß der vorliegenden Erfindung wird ein Robotersystem bereitgestellt, das eine mechanische Robotereinheit und eine Steuerung aufweist, die zum Steuern der mechanischen Robotereinheit eingerichtet ist, bei dem ein Motor, der zum Antreiben der mechanischen Robotereinheit eingerichtet ist, einen Codierer aufweist, und der Motor von einem Ausgang des Codierers gesteuert wird, dadurch gekennzeichnet, dass das Robotersystem enthält: ein visuelles Ziel, das an einer vorgegebenen Stelle positioniert ist; einen optischen Sensor, der an einem beweglichen Glied der mechanischen Robotereinheit montiert ist, so dass der optische Sensor das visuelle Ziel in einem Sichtfeld des optischen Sensors erfasst; einen ersten Messteil, der zum Verarbeiten von Bildern des an der vorgegebenen Stelle positionierten visuellen Ziels, wobei die Bilder vom optischen Sensor während einer vorgegebenen Zeitspanne erhalten werden, und zum Berechnen mindestens entweder der räumlichen Position oder der Bewegungsgeschwindigkeit eines Referenzpunktes als einen ersten Messwert eingerichtet ist, wobei die Lagebeziehung zwischen dem Referenzpunkt und dem optischen Sensor konstant ist; einen zweiten Messteil, der dazu eingerichtet ist, mindestens entweder die räumliche Position oder die Bewegungsgeschwindigkeit des Referenzpunktes auf Basis des Ausgangs des Codierers als einen zweiten Messwert zu erfassen; einen Vergleichsteil, der dazu eingerichtet ist, Daten des ersten Messwerts und Daten des zweiten Messwerts zu wählen, wobei die Zeit der Erfassung der Daten des ersten Messwerts dieselbe ist wie die Zeit der Erfassung der Daten des zweiten Messwerts, und die Differenz zwischen den gewählten Daten des ersten Messwerts und den gewählten Daten des zweiten Messwert zu berechnen; und einen Alarmausgabeteil, der dazu einrichtet ist, einen Alarm auszugeben, wenn die vom Vergleichsteil berechnete Differenz einen vorgegebenen Schwellenwert überschreitet.According to the The present invention provides a robot system which a mechanical robot unit and a controller having is arranged to control the mechanical robot unit at a motor that drives the mechanical robot unit is equipped with an encoder, and the engine of a Output of the encoder is controlled, characterized in that The robot system contains: a visual target that is attached to a is positioned at the predetermined location; an optical sensor, the mounted on a movable member of the mechanical robot unit is so that the optical sensor is the visual target in a field of view the optical sensor detected; a first measuring part for processing of images of the visual position positioned at the predetermined location Target, wherein the images from the optical sensor during a predetermined period of time, and for calculating at least either the spatial position or the speed of movement a reference point is set up as a first measured value, where the positional relationship between the reference point and the optical Sensor is constant; a second measuring part, which is set up is, at least either the spatial position or the Movement speed of the reference point based on the output of the Encoder to capture as a second reading; a comparison part, which is adapted to data of the first measured value and data of the second measured value, the time of detection of the Data of the first measured value is the same as the time of detection the data of the second reading, and the difference between the selected data of the first measured value and the selected Calculate data of the second reading; and an alarm output part, which is set up to issue an alarm when that of the comparison part calculated difference exceeds a predetermined threshold.

Beim Robotersystem gemäß der Erfindung kann ein gemeinsamer Aufgabenbereich als ein Überlappungsbereich eines Arbeitsbereichs der mechanischen Robotereinheit und eines Arbeitsbereichs eines Bedieners vorgegeben sein, wobei das Robotersystem ferner einen Detektorteil aufweisen kann, der dazu eingerichtet ist, zu erkennen, ob sich die mechanische Robotereinheit im gemeinsamen Aufgabenbereich befindet oder nicht, und bei dem der erste Messwert mit dem zweiten Messwert nur dann verglichen wird, wenn die mechanische Robotereinheit den gemeinsamen Aufgabenbereich verlässt.In the robot system according to the invention, a common task area may be defined as an overlap area of a working area of the robotic and an operator's work area, the robotic system may further comprise a detector portion configured to detect if the robotic robotic unit is in the common task area or not, and the first reading with the second reading only is then compared when the mechanical robot unit leaves the common area of responsibility.

Bei der Robotersteuerung der Erfindung kann der erste Messwert mit dem zweiten Messwert verglichen werden, wenn eine Bremse der mechanischen Robotereinheit deaktiviert und wenn die mechanische Robotereinheit so gesteuert wird, dass sie eine konstante Orientierung beibehält.at the robot controller of the invention may be the first measured value with the second reading, when a brake of the mechanical Robot unit disabled and if the mechanical robot unit is controlled so that it maintains a constant orientation.

Gemäß der vorliegenden Erfindung wird ferner ein Robotersystem mit einer mechanischen Robotereinheit und einer Steuerung bereitgestellt, die zum Steuern der mechanischen Robotereinheit eingerichtet ist, bei dem ein Motor für den Antrieb der mechanischen Robotereinheit einen Codierer hat und der Motor von einem Ausgang des Codierers gesteuert wird, dadurch gekennzeichnet, dass das Robotersystem aufweist: einen optischen Sensor, der an einem beweglichen Glied der mechanischen Robotereinheit angebracht ist; einen ersten Messteil, der zum Verarbeiten von Bildern der Umgebung um die mechanische Robotereinheit, wobei die Bilder vom optischen Sensor während einer vorgegebenen Zeitspanne erhalten werden, und zum Erkennen einer Änderung der räumlichen Position des optischen Sensors eingerichtet ist; einen zweiten Messteil, der dazu eingerichtet ist, mindestens entweder die räumliche Position oder die Bewegungsgeschwindigkeit eines Referenzpunktes auf Basis des Ausgangs des Codierers zu erfassen, wobei die Lagebeziehung zwischen dem Referenzpunkt und dem optischen Sensor konstant ist; und einen Alarmausgabeteil, der dazu eingerichtet ist, einen Alarm auszugeben, wenn ein Änderungsbetrag der Position oder der Geschwindigkeit des optischen Sensors, der anhand der räumlichen Position oder der Bewegungsgeschwindigkeit des vom zweiten Messteil erfassten Referenzpunktes berechnet wird, innerhalb eines vorgegebenen Schwellenwerts liegt, und wenn der erste Messteil die Änderung der räumlichen Position des optischen Sensors erkennt.According to the The present invention further provides a robot system with a mechanical Robot unit and a controller provided for controlling the mechanical robot unit is set up, in which a motor for driving the mechanical robot unit an encoder and the motor is controlled by an output of the encoder, characterized in that the robot system comprises: an optical Sensor attached to a moving member of the mechanical robot unit is appropriate; a first measuring part used to process images the environment around the mechanical robot unit, taking pictures of the optical sensor during a predetermined period of time and to recognize a change in spatial Position of the optical sensor is set up; a second measuring part, which is set up, at least either the spatial Position or the speed of movement of a reference point based on the output of the encoder, the positional relationship between the reference point and the optical sensor is constant; and one Alarm output part adapted to output an alarm if a change amount of position or speed of the optical sensor, based on the spatial position or the speed of movement of the reference point detected by the second measuring part is within a predetermined threshold, and if the first measuring part is the change of spatial Position of the optical sensor detects.

KURZBESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS

1 zeigt eine Ausführungsform der Konfiguration eines Robotersystems gemäß der Erfindung; 1 shows an embodiment of the configuration of a robot system according to the invention;

2 zeigt ein erstes Messbeispiel bei Verwendung eines visuellen Ziels; 2 shows a first measurement example using a visual target;

3 zeigt ein zweites Messbeispiel bei Verwendung eines visuellen Ziels; 3 shows a second measurement example using a visual target;

4 zeigt ein drittes Messbeispiel bei Verwendung eines visuellen Ziels; 4 shows a third example of measurement using a visual target;

5 zeigt ein viertes Messbeispiel bei Verwendung eines visuellen Ziels; 5 shows a fourth measurement example using a visual target;

6 veranschaulicht ein Beispiel einer Prozedur des Vergleichsteils; 6 illustrates an example of a procedure of the comparison part;

7 veranschaulicht ein anderes Beispiel einer Prozedur des Vergleichsteils; und 7 illustrates another example of a procedure of the comparison part; and

8 zeigt ein Beispiel, bei dem die Umgebung des Roboters von einem optischen Sensor erfasst wird. 8th shows an example in which the environment of the robot is detected by an optical sensor.

DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION

1 zeigt ein Robotersystem 10 gemäß einer Ausführungsform der Erfindung. Das Robotersystem 10 enthält eine mechanische Robotereinheit 12 und eine Robotersteuerung 14, die zum Steuern der mechanischen Robotereinheit 12 eingerichtet ist. Die mechanische Robotereinheit 12 hat mindestens ein bewegliches Glied wie einen Roboterarm und einen Servomotor, der für den Antrieb jedes Roboterarms eingerichtet ist. In der dargestellten Ausführungsform ist die mechanische Robotereinheit ein Mehrgelenk-Roboter mit einem ersten, zweiten und dritten Arm 16, 18 und 20 sowie mit einem ersten, zweiten und dritten Servomotor 22, 24 und 26. Jeder Servomotor hat einen Codierer (in vielen Fällen eingebaut) (in der dargestellten Ausführungsform einen ersten, zweiten und dritten Codierer 28, 30 und 32), der dazu eingerichtet ist, die Position des entsprechenden Servomotors zu erkennen. Ein optischer Sensor 34, wie beispielsweise eine Kamera, ist an einem der Roboterarme (im Allgemeinen am dritten Roboterarm, der am vorderen Ende des Roboters angeordnet ist) angebracht. Position und Orientierung des optischen Sensors werden bestimmt, so dass der optische Sensor ein visuelles Ziel wie eine Markierung wie nachstehend beschrieben erkennen oder erfassen kann. 1 shows a robot system 10 according to an embodiment of the invention. The robot system 10 contains a mechanical robot unit 12 and a robot controller 14 used to control the mechanical robot unit 12 is set up. The mechanical robot unit 12 has at least one movable member such as a robot arm and a servo motor adapted to drive each robot arm. In the illustrated embodiment, the robotic mechanical unit is a multi-joint robot having first, second and third arms 16 . 18 and 20 as well as with a first, second and third servomotor 22 . 24 and 26 , Each servomotor has an encoder (incorporated in many cases) (in the illustrated embodiment, first, second and third encoders 28 . 30 and 32 ) which is adapted to detect the position of the corresponding servomotor. An optical sensor 34 , such as a camera, is attached to one of the robot arms (generally the third robotic arm located at the front end of the robot). Position and orientation of the optical sensor are determined so that the optical sensor can detect or detect a visual target such as a marker as described below.

Die Robotersteuerung 14 weist einen Motorsteuerteil 36 auf, der dazu eingerichtet ist, den ersten, zweiten und dritten Servomotor 22, 24 und 26 zu steuern, einen Bildverarbeitungsteil 38, der dazu eingerichtet ist, ein vom optischen Sensor 34 erfasstes Bild zu verarbeiten, einen Vergleichsteil 40, der dazu eingerichtet ist, einen Vergleichsprozess wie nachstehend beschrieben auszuführen, und einen Alarmausgabeteil 42, der dazu eingerichtet ist, einen Alarm auf Basis des Verarbeitungsergebnisses des Vergleichsteils 40 auszugeben. Der Motorsteuerteil 36 empfängt einen Wert oder ein Signal, der bzw. das die Position jedes Servomotors (oder jeder Achse) von den Codierern 28, 30 und 32 empfängt, und dann einen Befehl oder ein Signal an jeden Servomotor schickt, so dass die Position jeder Achse zu jeder Zeit der in einem vorgegebenen Roboterprogramm, das jeden Servomotor steuert, festgelegten Position entspricht.The robot controller 14 has a motor control part 36 which is adapted to the first, second and third servomotor 22 . 24 and 26 to control an image processing part 38 which is set to one from the optical sensor 34 process captured image, a comparison part 40 which is arranged to execute a comparison process as described below and an alarm output part 42 which is adapted to alarm based on the processing result of the comparison part 40 issue. The engine control part 36 receives a value or signal indicative of the position of each servomotor (or each axis) from the encoders 28 . 30 and 32 receives, and then sends a command or a signal to each servomotor, so that the position of each axis at any time corresponds to the position set in a predetermined robot program that controls each servomotor.

Das Merkmal der vorliegenden Erfindung ist die sequentielle Verarbeitung von Bildern, die vom optischen Sensor periodisch erfasst werden, die Berechnung der räumlichen Position oder der Bewegungsgeschwindigkeit des Roboters auf Basis der verarbeiteten Bilder und die gleichzeitige Berechnung der räumlichen Position oder der Bewegungsgeschwindigkeit des Roboters mit Hilfe des Codierers sowie die Kontrolle der Differenz zwischen beiden Größen. Wenn ein optischer Sensor z. B. an einer Handgelenkachse eines sechsachsigen Roboters installiert ist, wird die räumliche Position oder die Bewegungsgeschwindigkeit der Anbauposition des Sensors und/oder des vorderen Endes des Gelenks durch die obigen Verfahren verglichen.The A feature of the present invention is the sequential processing of images that are periodically captured by the optical sensor, the calculation of the spatial position or the speed of movement of the robot based on the processed images and the simultaneous Calculation of the spatial position or the movement speed of the robot with the help of the encoder as well as the control of the difference between both sizes. If an optical sensor z. B. installed on a wrist axis of a six-axis robot is, is the spatial position or the movement speed the mounting position of the sensor and / or the front end of the joint through compared the above methods.

Bei einem Verfahren zum Erkennen der Position mittels des optischen Sensors wird ein visuelles Ziel mit bekannten geometrischen Merkmalen an einer vorgegebenen Stelle positioniert und vom optischen Sensor erkannt. Dann wird die Lagebeziehung zwischen dem optischen Sensor und dem visuellen Ziel darauf basierend, wie das visuelle Ziel in einem vom optischen Sensor erfassten Bild angegeben wird, berechnet. Andererseits wird die räumliche Position eines Referenzpunktes relativ zum visuellen Ziel auf Basis der Lagebeziehung zwischen dem Referenzpunkt und dem optischen Sensor sowie die Lagebeziehung zwischen dem optischen Sensor und dem visuellen Ziel berechnet. Dabei ist die Lagebeziehung zwischen dem Referenzpunkt und dem optischen Sensor stets konstant. Durch die regelmäßige Berechung der obigen Lagebeziehung wird der Bewegungsbetrag des optischen Sensors oder des Referenzpunkts berechnet. Durch die regelmäßige Berechung des Bewegungsbetrags kann die Bewegungsgeschwindigkeit des optischen Sensors oder des Referenzpunktes berechnet werden. Im Folgenden wird ein konkretes Berechnungsbeispiel anhand der 2 bis 5 erläutert.In a method for detecting the position by means of the optical sensor, a visual target with known geometric features is positioned at a predetermined location and recognized by the optical sensor. Then, the positional relationship between the optical sensor and the visual target is calculated based on how the visual target is indicated in an image captured by the optical sensor. On the other hand, the spatial position of a reference point relative to the visual target is calculated based on the positional relationship between the reference point and the optical sensor and the positional relationship between the optical sensor and the visual target. The positional relationship between the reference point and the optical sensor is always constant. By regularly calculating the above positional relationship, the amount of movement of the optical sensor or the reference point is calculated. By the regular calculation of the amount of movement, the movement speed of the optical sensor or the reference point can be calculated. The following is a concrete example of calculation based on the 2 to 5 explained.

2 veranschaulicht ein erstes Messbeispiel mit einem visuellen Ziel (in diesem Fall eine Markierung 44), wobei das visuelle Ziel an einer vorgegebenen festen Stelle innerhalb eines Raums positioniert ist, den der optische Sensor 34 erfassen kann. Obwohl das Ziel 44 ein Kreis mit einer Linie entlang seines Durchmessers ist, ist eine verwendbare Markierung nicht auf eine derartige Form beschränkt. Die linke Skizze von 2 zeigt ein Bild 44a, das durch Erfassen der Markierung 44 im Zeitpunkt T1 mittels des optischen Sensors 34 erhalten wird, und die rechte Skizze von 2 zeigt ein Bild 44b, das durch Erfassen der Markierung 44 im Zeitpunkt T2 mittels des optischen Sensors 34 erhalten wird. Wie in der linken Skizze von 2 dargestellt berechnet der Bildverarbeitungsteil 38 der Steuerung 14 bezüglich des Bildes 44a der Markierung 44 zuerst einen Mindestabstand X1 in X-Richtung ab dem Ursprung O und einen Mindestabstand Y1 in Y-Richtung ab dem Ursprung O sowie die Länge α1 in X-Richtung und die Länge β1 in Y-Richtung des Bildes 44a der Markierung 44. Dann speichert der Bildverarbeitungsteil 38 den berechneten Abstand und die berechnete Länge als Parameter im Zeitpunkt T1 in einem geeigneten Speicher (nicht dargestellt). 2 illustrates a first measurement example with a visual target (in this case a marker 44 ), wherein the visual target is positioned at a predetermined fixed location within a space that the optical sensor 34 can capture. Although the goal 44 is a circle with a line along its diameter, a usable mark is not limited to such a shape. The left sketch of 2 shows a picture 44a by detecting the mark 44 at time T1 by means of the optical sensor 34 is obtained, and the right sketch of 2 shows a picture 44b by detecting the mark 44 at time T2 by means of the optical sensor 34 is obtained. As in the left sketch of 2 illustrated calculates the image processing part 38 the controller 14 as to the picture 44a the mark 44 First, a minimum distance X1 in the X direction from the origin O and a minimum distance Y1 in the Y direction from the origin O and the length α1 in the X direction and the length β1 in the Y direction of the image 44a the mark 44 , Then, the image processing part stores 38 the calculated distance and the calculated length as parameters at time T1 in a suitable memory (not shown).

Wie in der rechten Skizze von 2 dargestellt berechnet der Bildverarbeitungsteil 38 der Steuerung 14 bezüglich des Bildes 44b der Markierung 44 anschließend einen Mindestabstand X2 in X-Richtung ab dem Ursprung O und einen Mindestabstand Y2 in Y-Richtung ab dem Ursprung O sowie die Länge α2 in X-Richtung und die Länge β2 in Y-Richtung des Bildes 44b der Markierung 44. Dann speichert der Bildverarbeitungsteil 38 den berechneten Abstand und die berechnete Länge als Parameter im Zeitpunkt T2 in einem geeigneten Speicher (nicht dargestellt). Anhand der obigen Parameter können die räumliche Position und die Bewegungsgeschwindigkeit des Referenzpunktes des Roboters berechnet werden, da die Lagebeziehung zwischen die Referenzpunkt und der Kamera 34 konstant ist. Die berechnete räumliche Position und die Geschwindigkeit können im Speicher gespeichert werden. Da hierfür eine bekannte Technik als konkretes Berechnungsverfahren angewendet werden kann, wird auf eine ausführliche Erläuterung des Berechnungsverfahrens verzichtet. Es ist jedoch nicht erforderlich, sämtliche der obigen Parameter zu verwenden, und es können andere Parameter, die die Position oder das Merkmal des Bildes der Markierung angeben, verwendet werden.As in the right sketch of 2 illustrated calculates the image processing part 38 the controller 14 as to the picture 44b the mark 44 then a minimum distance X2 in the X direction from the origin O and a minimum distance Y2 in the Y direction from the origin O and the length α2 in the X direction and the length β2 in the Y direction of the image 44b the mark 44 , Then, the image processing part stores 38 the calculated distance and the calculated length as parameters at time T2 in a suitable memory (not shown). Based on the above parameters, the spatial position and the moving speed of the reference point of the robot can be calculated because the positional relationship between the reference point and the camera 34 is constant. The calculated spatial position and velocity can be stored in memory. Since a known technique can be used as a concrete calculation method, a detailed explanation of the calculation method is dispensed with. However, it is not necessary to use all of the above parameters, and other parameters indicating the position or feature of the image of the mark may be used.

3 veranschaulicht ein zweites Messbeispiel mit einem visuellen Ziel (in diesem Fall Markierungen 44 und 46), wobei das visuelle Ziel an einer vorgegebenen festen Stelle innerhalb eines Raums positioniert ist, den der optische Sensor 34 erfassen kann. Obwohl das Ziel 46 ein Kreis mit zwei orthogonalen Linien entlang der Durchmesser ist, ist eine verwendbare Markierung nicht auf eine derartige Form beschränkt. Die linke Skizze von 3 zeigt Bilder 44a und 46a, die durch Erfassen der Markierungen 44 und 46 im Zeitpunkt T1 mittels des optischen Sensors 34 erhalten werden, und die rechte Skizze von 3 zeigt Bilder 44b und 46b, die durch Erfassen der Markierungen 44 und 46 im Zeitpunkt T2 mittels des optischen Sensors 34 erhalten werden. Wie in der linken Skizze von 3 dargestellt berechnet der Bildverarbeitungsteil 38 der Steuerung 14 zuerst einen Abstand A1 in X-Richtung zwischen einem repräsentativen Punkt (z. B. dem Schwerpunkt) des Bildes 44a der Markierung 44 und einem repräsentativen Punkt (z. B. dem Schwerpunkt) des Bildes 46a der Markierung 46 sowie einen Abstand B1 in Y-Richtung zwischen dem repräsentativen Punkt des Bildes 44a der Markierung 44 und dem repräsentativen Punkt des Bildes 46a der Markierung 46. Außerdem berechnet der Bildverarbeitungsteil 38 die Länge α1 des Bildes 44a der Markierung 44 und die Länge γ1 des Bildes 46a der Markierung 46 in X-Richtung sowie die Länge β1 des Bildes 44a der Markierung 44 und die Länge δ1 des Bildes 46a der Markierung 46 in Y-Richtung. Dann speichert der Bildverarbeitungsteil 38 den berechneten Abstand und die berechnete Länge als Parameter im Zeitpunkt T1 in einem geeigneten Speicher (nicht dargestellt). 3 illustrates a second measurement example with a visual target (in this case, markers 44 and 46 ), wherein the visual target is positioned at a predetermined fixed location within a space that the optical sensor 34 can capture. Although the goal 46 is a circle with two orthogonal lines along the diameter, a usable mark is not limited to such a shape. The left sketch of 3 shows pictures 44a and 46a by detecting the marks 44 and 46 at time T1 by means of the optical sensor 34 and the right hand sketch of 3 shows pictures 44b and 46b by detecting the marks 44 and 46 at time T2 by means of the optical sensor 34 to be obtained. As in the left sketch of 3 illustrated calculates the image processing part 38 the controller 14 first a distance A1 in the X-direction between a representative point (eg the centroid) of the image 44a the mark 44 and a representative point (eg, center of gravity) of the image 46a the mark 46 and a distance B1 in the Y direction between the representative point of the image 44a the mark 44 and the representative point of the picture 46a the mark 46 , In addition, the image processing part calculates 38 the length α1 of the image 44a the mark 44 and the length γ1 of the image 46a the mark 46 in the X direction and the length β1 of the image 44a the mark 44 and the length δ1 of the image 46a the mark 46 in the Y direction. Then, the image processing part stores 38 the calculated distance and the calculated length as parameters at time T1 in a suitable memory (not shown).

Wie in der rechten Skizze von 3 dargestellt berechnet der Bildverarbeitungsteil 38 dann einen Abstand A2 in X-Richtung zwischen einem repräsentativen Punkt (z. B. dem Schwerpunkt) des Bildes 44b der Markierung 44 und einem repräsentativen Punkt (z. B. dem Schwerpunkt) des Bildes 46b der Markierung 46 sowie einen Abstand B2 in Y-Richtung zwischen dem repräsentativen Punkt des Bildes 44b der Markierung 44 und dem repräsentativen Punkt des Bildes 46b der Markierung 46. Außerdem berechnet der Bildverarbeitungsteil 38 die Länge α2 des Bildes 44b der Markierung 44 und die Länge γ2 des Bildes 46b der Markierung 46 in X-Richtung, sowie die Länge β2 des Bildes 44b der Markierung 44 und die Länge δ2 des Bildes 46b der Markierung 46 in Y-Richtung. Dann speichert der Bildverarbeitungsteil 38 den berechneten Abstand und die berechnete Länge als Parameter im Zeitpunkt T2 in einem geeigneten Speicher (nicht dargestellt). Anhand der obigen Parameter können die räumliche Position und die Bewegungsgeschwindigkeit des Referenzpunktes des Roboters (z. B. ein Teil des dritten Roboterarms, an dem die Kamera 34 befestigt ist) berechnet werden, da die Lagebeziehung zwischen die Referenzpunkt und der Kamera 34 konstant ist. Alternativ kann ein vorgegebener Teil einer Komponente der Kamera 34, etwa das Gehäuse der Kamera, oder eine Raumkoordinate mit einer konstanten Lagebeziehung zur Kamera als Referenzpunkt verwendet werden. Die berechnete räumliche Position und die Geschwindigkeit können im Speicher gespeichert werden. Da hierfür eine bekannte Technik als konkretes Berechnungsverfahren angewendet werden kann, wird auf eine ausführliche Erläuterung des Berechnungsverfahrens verzichtet. Es ist jedoch nicht erforderlich, sämtliche der obigen Parameter zu verwenden, und es kann ein anderer Parameter, der die Position oder das Merkmal des Bildes der Markierung angeben, verwendet werden.As in the right sketch of 3 illustrated calculates the image processing part 38 then a distance A2 in the X direction between a representative point (eg the centroid) of the image 44b the mark 44 and a representative point (eg, center of gravity) of the image 46b the mark 46 and a distance B2 in the Y direction between the representative point of the image 44b the mark 44 and the representative point of the picture 46b the mark 46 , In addition, the image processing part calculates 38 the length α2 of the image 44b the mark 44 and the length γ2 of the image 46b the mark 46 in the X direction, as well as the length β2 of the image 44b the mark 44 and the length δ2 of the image 46b the mark 46 in the Y direction. Then, the image processing part stores 38 the calculated distance and the calculated length as parameters at time T2 in a suitable memory (not shown). Based on the above parameters, the spatial position and the speed of movement of the reference point of the robot (eg a part of the third robot arm on which the camera 34 fixed), since the positional relationship between the reference point and the camera 34 is constant. Alternatively, a given part of a component of the camera 34 , as the housing of the camera, or a space coordinate with a constant positional relationship to the camera can be used as a reference point. The calculated spatial position and velocity can be stored in memory. Since a known technique can be used as a concrete calculation method, a detailed explanation of the calculation method is dispensed with. However, it is not necessary to use all of the above parameters, and another parameter indicating the position or feature of the image of the mark may be used.

4 zeigt ein drittes Messbeispiel, bei dem ein visuelles Ziel (in diesem Fall eine Markierung 48 mit allgemein rechteckiger Form mit zwei gekrümmten Linien) verwendet wird, wobei das visuelle Ziel an einer vorgegebenen festen Stelle innerhalb eines Raums positioniert ist, den der optische Sensor 34 erfassen kann. Die verwendbare Markierung ist jedoch nicht auf das dargestellte Beispiel beschränkt. Die linke Skizze von 4 zeigt ein Bild 48a, das durch Erfassen der Markierung 48 zum Zeitpunkt T1 mittels des optischen Sensors 34 erhalten wird, und die rechte Skizze von 4 zeigt ein Bild 48b, das durch Erfassen der Markierung 48 zum Zeitpunkt T2 mittels des optischen Sensors 34 erhalten wird. Wie in der linken Skizze von 4 dargestellt berechnet der Bildverarbeitungsteil 38 der Steuerung 14 bezüglich des Bildes 48a der Markierung 48 zuerst einen Mindestabstand X1 in X-Richtung ab dem Ursprung O und einen Mindestabstand Y1 in Y-Richtung ab dem Ursprung O sowie die Länge α1 in X-Richtung des Bildes 48a der Markierung 48. Der Bildverarbeitungsteil 38 berechnet außerdem einen Neigungswinkel θ1 einer bestimmten Achse (in diesem Fall der Längsachse 50a) des Bildes 48a relativ zur X-Achse. Dann speichert der Bildverarbeitungsteil 38 den berechneten Abstand, die berechnete Länge und den berechneten Neigungswinkel als Parameter im Zeitpunkt T1 in einem geeigneten Speicher (nicht dargestellt). 4 shows a third measurement example in which a visual target (in this case, a mark 48 generally rectangular shape with two curved lines), with the visual target positioned at a predetermined fixed location within a space occupied by the optical sensor 34 can capture. However, the usable mark is not limited to the illustrated example. The left sketch of 4 shows a picture 48a by detecting the mark 48 at time T1 by means of the optical sensor 34 is obtained, and the right sketch of 4 shows a picture 48b by detecting the mark 48 at time T2 by means of the optical sensor 34 is obtained. As in the left sketch of 4 illustrated calculates the image processing part 38 the controller 14 as to the picture 48a the mark 48 First, a minimum distance X1 in the X direction from the origin O and a minimum distance Y1 in the Y direction from the origin O and the length α1 in the X direction of the image 48a the mark 48 , The image processing part 38 also calculates an inclination angle θ1 of a certain axis (in this case, the longitudinal axis 50a ) of the picture 48a relative to the X-axis. Then, the image processing part stores 38 the calculated distance, the calculated length and the calculated tilt angle as a parameter at time T1 in a suitable memory (not shown).

Wie in der rechten Skizze von 4 dargestellt, berechnet der Bildverarbeitungsteil 38 der Steuerung 14 bezüglich des Bildes 44b der Markierung 44 anschließend einen Mindestabstand X2 in X-Richtung ab dem Ursprung Ο und einen Mindestabstand Y2 in Y-Richtung ab dem Ursprung O sowie die Länge α2 in X-Richtung des Bildes 48b der Markierung 48. Der Bildverarbeitungsteil 38 berechnet außerdem einen Neigungswinkel θ2 einer bestimmten Achse (in diesem Fall der Längsachse 50b) des Bildes 48b relativ zur X-Achse. Dann speichert der Bildverarbeitungsteil 38 den berechneten Abstand, die berechnete Länge und den berechneten Neigungswinkel als Parameter im Zeitpunkt T2 in einem geeigneten Speicher (nicht dargestellt). Anhand der obigen Parameter können die räumliche Position und die Bewegungsgeschwindigkeit des Referenzpunktes des Roboters (z. B. ein Teil des dritten Roboterarms, an dem die Kamera 34 befestigt ist) berechnet werden, da die Lagebeziehung zwischen die Referenzpunkt und der Kamera 34 konstant ist. Die berechnete räumliche Position und die Geschwindigkeit können im Speicher gespeichert werden. Da hierfür eine bekannte Technik als konkretes Berechnungsverfahren angewendet werden kann, wird auf eine ausführliche Erläuterung des Berechnungsverfahrens verzichtet. Es ist jedoch nicht erforderlich, sämtliche der obigen Parameter zu verwenden, und es kann ein anderer Parameter, der die Position oder das Merkmal des Bildes der Markierung angeben, verwendet werden.As in the right sketch of 4 the image processing part calculates 38 the controller 14 as to the picture 44b the mark 44 then a minimum distance X2 in the X direction from the origin Ο and a minimum distance Y2 in the Y direction from the origin O and the length α2 in the X direction of the image 48b the mark 48 , The image processing part 38 also calculates an inclination angle θ2 of a certain axis (in this case the longitudinal axis 50b ) of the picture 48b relative to the X-axis. Then, the image processing part stores 38 the calculated distance, the calculated length and the calculated tilt angle as a parameter at time T2 in a suitable memory (not shown). Based on the above parameters, the spatial position and the speed of movement of the reference point of the robot (eg a part of the third robot arm on which the camera 34 fixed), since the positional relationship between the reference point and the camera 34 is constant. The calculated spatial position and velocity can be stored in memory. Since a known technique can be used as a concrete calculation method, a detailed explanation of the calculation method is dispensed with. However, it is not necessary to use all of the above parameters, and another parameter indicating the position or feature of the image of the mark may be used.

5 veranschaulicht ein viertes Messbeispiel mit einem visuellen Ziel (in diesem Fall Markierungen 44, 46 und 48), wobei das visuelle Ziel an einer vorgegebenen festen Stelle innerhalb eines Raums positioniert ist, den der optische Sensor 34 erfassen kann. Die verwendbare Markierung ist jedoch nicht auf das dargestellte Beispiel beschränkt. Die linke Skizze von 5 zeigt Bilder 44a, 46a und 48a, die durch Erfassen der Markierungen 44, 46 und 48 im Zeitpunkt T1 mittels des optischen Sensors 34 erhalten werden, und die rechte Skizze von 5 zeigt Bilder 44b, 46b und 48b, die durch Erfassen der Markierungen 44, 46 und 48 im Zeitpunkt T2 mittels des optischen Sensors 34 erhalten werden. Wie in der linken Skizze von 5 dargestellt berechnet der Bildverarbeitungsteil 38 der Steuerung 14 zuerst einen Abstand A1 in X-Richtung zwischen einem repräsentativen Punkt (z. B. dem Schwerpunkt) des Bildes 44a der Markierung 44 und einem repräsentativen Punkt (z. B. dem Schwerpunkt) des Bildes 46a der Markierung 46, einen Abstand B1 zwischen dem repräsentativen Punkt des Bildes 44a der Markierung 44 und dem repräsentativen Punkt (z. B. dem Schwerpunkt) des Bildes 48a der Markierung 48 und einen Abstand C1 zwischen dem repräsentativen Punkt des Bildes 46a der Markierung 46 und dem repräsentativen Punkt des Bildes 48a der Markierung 48. Außerdem berechnet der Bildverarbeitungsteil 38 den Winkel α1 zwischen den Liniensegmenten A1 und C1 und einen Winkel β1 zwischen den Liniensegmenten A1 und B1. Dann speichert der Bildverarbeitungsteil 38 den berechneten Abstand, die berechnete Länge und die berechneten Winkel als Parameter im Zeitpunkt T1 in einem geeigneten Speicher (nicht dargestellt). 5 illustrates a fourth measurement example with a visual target (in this case, markers 44 . 46 and 48 ), wherein the visual target is positioned at a predetermined fixed location within a space that the optical sensor 34 can capture. However, the usable mark is not limited to the illustrated example. The left sketch of 5 shows pictures 44a . 46a and 48a by detecting the marks 44 . 46 and 48 at time T1 by means of the optical sensor 34 and the right hand sketch of 5 shows pictures 44b . 46b and 48b by detecting the marks 44 . 46 and 48 at time T2 by means of the optical sensor 34 to be obtained. As in the left sketch of 5 illustrated calculates the image processing part 38 the controller 14 first a distance A1 in the X-direction between a representative point (eg the centroid) of the image 44a the mark 44 and a representative point (eg, center of gravity) of the image 46a the mark 46 , a distance B1 between the representative point of the image 44a the mark 44 and the representative point (eg, center of gravity) of the image 48a the mark 48 and a distance C1 between the representative point of the image 46a the mark 46 and the representative point of the picture 48a the mark 48 , In addition, the image processing part calculates 38 the angle α1 between the line segments A1 and C1 and an angle β1 between the line segments A1 and B1. Then, the image processing part stores 38 the calculated distance, the calculated length and the calculated angles as parameters at time T1 in a suitable memory (not shown).

Wie in der rechten Skizze von 5 dargestellt berechnet der Bildverarbeitungsteil 38 dann einen Abstand A2 zwischen einem repräsentativen Punkt (z. B. dem Schwerpunkt) des Bildes 44b der Markierung 44 und einem repräsentativen Punkt (z. B. dem Schwerpunkt) des Bildes 46b der Markierung 46, einen Abstand B2 zwischen dem repräsentativen Punkt des Bildes 44b der Markierung 44 und einem repräsentativen Punkt (z. B. dem Schwerpunkt) des Bildes 46b der Markierung 46, einen Abstand B2 zwischen dem repräsentativen Punkt des Bildes 44b der Markierung 44 und einem repräsentativen Punkt (z. B. dem Schwerpunkt) des Bildes 48b der Markierung 48 und einen Abstand C2 zwischen dem repräsentativen Punkt des Bildes 46b der Markierung 46 und dem repräsentativen Punkt des Bildes 48b der Markierung 48. Außerdem berechnet der Bildverarbeitungsteil 38 den Winkel α2 zwischen den Liniensegmenten A2 und C2 und den Winkel β2 zwischen den Liniensegmenten A2 und B2. Dann speichert der Bildverarbeitungsteil 38 den berechneten Abstand, die berechnete Länge und die berechneten Winkel als Parameter im Zeitpunkt T2 in einem geeigneten Speicher (nicht dargestellt). Anhand der obigen Parameter können die räumliche Position und die Bewegungsgeschwindigkeit des Referenzpunktes des Roboters (z. B. ein Teil des dritten Roboterarms, an dem die Kamera 34 befestigt ist) berechnet werden, da die Lagebeziehung zwischen die Referenzpunkt und der Kamera 34 konstant ist. Die berechnete räumliche Position und die Geschwindigkeit können im Speicher gespeichert werden. Da hierfür eine bekannte Technik als konkretes Berechnungsverfahren angewendet werden kann, wird auf eine ausführliche Erläuterung des Berechnungsverfahrens verzichtet. Es ist jedoch nicht erforderlich, sämtliche der obigen Parameter zu verwenden, und es kann ein anderer Parameter, der die Position oder das Merkmal des Bildes der Markierung angeben, verwendet werden.As in the right sketch of 5 illustrated calculates the image processing part 38 then a distance A2 between a representative point (eg the centroid) of the image 44b the mark 44 and a representative point (eg, center of gravity) of the image 46b the mark 46 , a distance B2 between the representative point of the image 44b the mark 44 and a representative point (eg, center of gravity) of the image 46b the mark 46 , a distance B2 between the representative point of the image 44b the mark 44 and a representative point (eg, center of gravity) of the image 48b the mark 48 and a distance C2 between the representative point of the image 46b the mark 46 and the representative point of the picture 48b the mark 48 , In addition, the image processing part calculates 38 the angle α2 between the line segments A2 and C2 and the angle β2 between the line segments A2 and B2. Then, the image processing part stores 38 the calculated distance, the calculated length and the calculated angles as parameters at time T2 in a suitable memory (not shown). Based on the above parameters, the spatial position and the speed of movement of the reference point of the robot (eg a part of the third robot arm on which the camera 34 fixed), since the positional relationship between the reference point and the camera 34 is constant. The calculated spatial position and velocity can be stored in memory. Since a known technique can be used as a concrete calculation method, a detailed explanation of the calculation method is dispensed with. However, it is not necessary to use all of the above parameters, and another parameter indicating the position or feature of the image of the mark may be used.

Wie die 2 bis 5 beispielhaft zeigen, verarbeitet der Bildverarbeitungsteil 38 Bilder sequentiell Bilder, die periodisch durch Erfassen mindestens eines visuellen Ziels 44, 46 und 48 mittels der Kamera 34 erhalten werden, und berechnet sequentiell mindestens entweder die räumliche Position oder die Bewegungsgeschwindigkeit des Referenzpunkts als einen ersten Messwert, und sendet das Berechnungsergebnis an den Vergleichsteil 40. Zu diesem Zweck wird das visuelle Ziel an einer festen Stelle positioniert und die Lagebeziehung zwischen dem Referenzpunkt und der Kamera ist stets konstant.As the 2 to 5 by way of example, the image processing part processes 38 Pictures sequentially images that periodically by detecting at least one visual target 44 . 46 and 48 by means of the camera 34 and sequentially calculates at least either the spatial position or the moving speed of the reference point as a first measured value, and sends the calculation result to the comparing part 40 , For this purpose, the visual target is positioned at a fixed position and the positional relationship between the reference point and the camera is always constant.

Als konkretes Beispiel für den Referenzpunkt kann ein Teil des dritten Roboterarms 20, an dem die Kamera 34 befestigt ist, ein TCP (tool center point = Werkzeugmittelpunkt) oder eine Teil einer Befestigungsvorrichtung wie ein Halter, der zur Befestigung der Kamera 34 am dritten Roboterarm 20 eingerichtet ist, verwendet werden. Es kann jedoch auch ein anderer Punkt gewählt werden, sofern der Punkt zur Kamera 34 eine konstante Lagebeziehung hat (d. h. die Lagebeziehung zwischen dem Punkt und der Kamera ändert sich durch die Bewegung der Roboterachsen nicht). Außerdem stellt die Positionserkennung mittels des optischen Sensors, die anhand der 2 bis 5 erläutert wird, nur ein Beispiel dar. Deshalb können verschiedene Formen der Markierungen oder räumlicher Körper für die Positionserfassung verwendet werden.As a concrete example of the reference point may be a part of the third robot arm 20 on which the camera 34 is attached, a TCP (tool center point) or a part of a fastening device such as a holder for attaching the camera 34 on the third robot arm 20 is set up to be used. However, another point can be chosen if the point is to the camera 34 has a constant positional relationship (ie the positional relationship between the point and the camera does not change due to the movement of the robot axes). In addition, the position detection by means of the optical sensor, based on the 2 to 5 Therefore, various forms of markers or spatial bodies may be used for position detection.

Der Motorsteuerteil 36 der Robotersteuerung 14 berechnet sequentiell mindestens entweder die räumliche Position oder die Bewegungsgeschwindigkeit des Referenzpunkts als zweiten ersten Messwert auf Basis des Codiererausgangs und sendet das Berechnungsergebnis an den Vergleichsteil 40. Der Motorsteuerteil 36 erhält den Ausgang jedes Codierers in einer vorgegebenen Zeitspanne und berechnet die Position und die Geschwindigkeit jeder Achse in jedem Moment. Auf Basis des Berechnungsergebnisses können die Abmessungen jeder Komponente, etwa die Länge der Roboterarme 16, 18, 20 und die Lagebeziehung zwischen der Komponente und dem Referenzpunkt sowie die räumliche Position des Referenzpunkts berechnet werden. Außerdem kann die Bewegungsgeschwindigkeit durch die regelmäßige Berechnung der räumlichen Position berechnet werden.The engine control part 36 the robot controller 14 sequentially calculates at least one of the spatial position and the moving speed of the reference point as the second first measured value based on the encoder output and sends the calculation result to the comparing part 40 , The engine control part 36 receives the output of each encoder in a given period of time and calculates the position and speed of each axis at each moment. Based on the calculation result, the dimensions of each component, such as the length of the robot arms 16 . 18 . 20 and the positional relationship between the component and the reference point and the spatial position of the reference point are calculated. In addition, the movement speed can be calculated by the regular calculation of the spatial position.

Der Vergleichsteil 40 der Steuerung 14 vergleicht die räumliche Position oder die Bewegungsgeschwindigkeit des Referenzpunkts des Roboters, die durch das Verfahren mit dem optischen Sensor wie in den 2 bis 5 gezeigt erhalten werden, mit der räumlichen Position oder der Bewegungsgeschwindigkeit des Referenzpunkts, die vom Codierer erhalten werden. Zum Vergleichen der Positionen oder Geschwindigkeiten ist es erforderlich, dass der Zeitpunkt der Erfassung der Bilder durch den optischen Sensor mit dem Zeitpunkt des Empfangs der Ausgabe des Codierers identisch ist. Die Begriffe ”gleichzeitig” oder ”zur selben Zeit”, wie sie hierin verwendet werden, bedeuten zwar exakt dieselbe Zeit, aber auch, dass die Differenz zwischen dem Zeitpunkt der Erfassung der Bilder durch den optischen Sensor und dem Zeitpunkt des Empfangens des Codiererausgangs innerhalb einer vorgegebenen zeitlichen Verzögerung liegt, die für die Ausführung der Erfindung vernachlässigt werden kann.The comparison part 40 the controller 14 ver is equal to the spatial position or the speed of movement of the reference point of the robot, which by the method with the optical sensor as in 2 to 5 can be obtained with the spatial position or the moving speed of the reference point obtained from the encoder. To compare the positions or velocities, it is necessary that the timing of the detection of the images by the optical sensor be identical with the time of receiving the output of the encoder. Although the terms "simultaneously" or "at the same time" as used herein mean exactly the same time, but also that the difference between the time of detection of the images by the optical sensor and the time of receiving the encoder output within a predetermined time delay, which can be neglected for the execution of the invention.

Die 6 und 7 zeigen die Prozedur zum Vergleichen der durch den Bildverarbeitungsteil berechneten Position oder Geschwindigkeit des Referenzpunkts mit der durch den Codierer berechneten Position oder Geschwindigkeit des Referenzpunkts, wobei die Zeiten jeweils dieselben sind. In der Prozedur von 6 überträgt zunächst der Motorsteuerteil 36 Informationen einschließlich der Datenerfassungszeit des Codierers und der berechneten Position und/oder Geschwindigkeit des Referenzpunkts in jedem Zeitpunkt der Datenerfassung an den Vergleichsteil 40. In ähnlicher Weise überträgt der Bildverarbeitungsteil 38 Informationen einschließlich der Datenerfassungszeit des optischen Sensors und der berechneten Position und/oder Geschwindigkeit des Referenzpunkts Zeitpunkt der Datenerfassung an den Vergleichsteil 40. Konkret überträgt der Motorsteuerteil 36 mindestens entweder die Position oder die Geschwindigkeit des Referenzpunkts (zweiter Messwert) im Zeitpunkt Ti (i = 1, 2, ..) auf Basis des Ausgangs vom Codierer an den Vergleichsteil 40. Der Bildverarbeitungsteil 38 seinerseits überträgt mindestens entweder die Position oder die Geschwindigkeit des Referenzpunkts (erster Messwert) im Zeitpunkt Tj (j = 1, 2, ..) auf Basis des Ausgangs vom optischen Sensor an den Vergleichsteil 40. Mit anderen Worten, bei der vorliegenden Erfindung fungiert der Motorsteuerteil als der zweite Messteil, der den zweiten Messwert berechnet, und der Bildverarbeitungsteil fungiert als der erste Messteil, der den ersten Messwert berechnet.The 6 and 7 FIG. 12 shows the procedure for comparing the position or velocity of the reference point calculated by the image processing part with the position or velocity of the reference point calculated by the encoder, the times being the same, respectively. In the procedure of 6 first transmits the engine control part 36 Information including the data acquisition time of the encoder and the calculated position and / or speed of the reference point at each time point of data acquisition to the comparison part 40 , Similarly, the image processing part transmits 38 Information including the data acquisition time of the optical sensor and the calculated position and / or speed of the reference point Time of data acquisition to the comparison part 40 , Specifically, the engine control part transmits 36 at least either the position or the speed of the reference point (second measured value) at the time Ti (i = 1, 2, ..) on the basis of the output from the encoder to the comparison part 40 , The image processing part 38 in turn, transmits at least either the position or the speed of the reference point (first measured value) at the time Tj (j = 1, 2, ..) based on the output from the optical sensor to the comparison part 40 , In other words, in the present invention, the motor control part functions as the second measuring part calculating the second measured value, and the image processing part functions as the first measuring part calculating the first measured value.

Der Vergleichsteil 40 wählt die Daten, bei denen die Differenz zwischen dem Zeitpunkt (Ti) des Erhalts der Daten vom Codierer und dem Zeitpunkt (Tj) der Erfassung der Daten durch den optischen Sensor innerhalb einer vorgegebenen zeitlichen Verzögerung liegt, und vergleicht mindestens entweder die Position oder die Geschwindigkeit des Referenzpunkts (erster Messwert) vom optischen Sensor mit mindestens entweder der Position oder der Geschwindigkeit des Referenzpunkts (zweiter Messwert) vom Codierer. Wenn die Differenz zwischen den verglichenen Positions- oder Geschwindigkeitswerten einen vorgegebenen Schwellenwert überschreitet (mit anderen Worten, zwischen dem Messwert vom Codierer und dem Messwert vom optischen Sensor besteht eine deutliche Differenz), handelt es sich offensichtlich um ein Problem, etwa eine Störung des Codierers oder einer Kommunikationsleitung des Codierers. Deshalb sendet der Vergleichsteil 40 einen Befehl oder ein Signal an den Alarmausgabeteil 42, so dass der Alarmausgabeteil 42 einen Alarm ausgibt. Wenn der Alarm ausgegeben wird, kann die Steuerung 14 eine geeignete Maßnahme veranlassen wie die zwangsweise Abschaltung des Roboters.The comparison part 40 selects the data where the difference between the time (Ti) of receiving the data from the encoder and the time (Tj) of detection of the data by the optical sensor is within a predetermined time delay and compares at least one of the position and the speed the reference point (first reading) from the optical sensor with at least one of the position or velocity of the reference point (second reading) from the encoder. If the difference between the compared position or velocity values exceeds a predetermined threshold (in other words, there is a significant difference between the encoder reading and the optical sensor reading), it is obviously a problem, such as a coder failure or a communication line of the encoder. Therefore, the comparison part sends 40 a command or a signal to the alarm output part 42 so that the alarm output part 42 gives an alarm. When the alarm is issued, the controller can 14 Take a suitable action such as the forced shutdown of the robot.

Bei der Prozedur von 6 wird die Zeit des Erhalts von Daten verglichen und bestimmt, ob die Zeit des Datenerhalts vom Codierer und vom optischen Sensor dieselbe ist oder nicht. Bei der Prozedur von 7 dagegen wird die Zeit des Datenerhalts vom Codierer und vom optischen Sensor im Voraus gleich eingestellt, indem ein Signal oder dgl. erhalten wird. In diesem Fall ist sichergestellt, dass die Zeit des Datenerhalts vom Codierer und vom optischen Sensor aufgrund des Erhalts des Signals oder dgl. gleich ist, so dass der Vergleichsteil 40 nur die Daten das Codierers und des optischen Sensors zur selben Teil T vergleicht. Anschließend kann die Prozedur gleich sein der von 6. Mit anderen Worten, wenn die Differenz zwischen der verglichenen Position oder der verglichenen Geschwindigkeit einen vorgegebenen Schwellenwert überschreitet, handelt es sich offensichtlich um ein Problem, etwa eine Störung des Codierers oder einer Kommunikationsleitung des Codierers. Deshalb sendet der Vergleichsteil 40 einen Befehl oder ein Signal an den Alarmausgabeteil 42, so dass der Alarmausgabeteil 42 einen Alarm ausgibt. Wenn der Alarm ausgegeben wird, kann die Steuerung 14 eine geeignete Maßnahme veranlassen wie die zwangsweise Abschaltung des Roboters.In the procedure of 6 the time of receiving data is compared and it is determined whether or not the time of data retention from the encoder and the optical sensor is the same. In the procedure of 7 whereas, the time of data retention by the encoder and the optical sensor is set equal in advance by obtaining a signal or the like. In this case, it is ensured that the time of data acquisition from the encoder and the optical sensor is the same due to the receipt of the signal or the like, so that the comparison part 40 only compares the data of the encoder and the optical sensor to the same part T. Then the procedure can be the same as that of 6 , In other words, when the difference between the compared position or the compared speed exceeds a predetermined threshold, it is obviously a problem such as a disturbance of the encoder or a communication line of the encoder. Therefore, the comparison part sends 40 a command or a signal to the alarm output part 42 so that the alarm output part 42 gives an alarm. When the alarm is issued, the controller can 14 Take a suitable action such as the forced shutdown of the robot.

Bei einer bevorzugten Anwendung der Erfindung kann ein Robotersystem verwendet werden, bei dem ein Bediener und ein Roboter eine gemeinsame Aufgabe ausführen. Um bei einem derartigen System die Sicherheit des Bedieners zu gewährleisten, kann ein Sensormittel wie ein Bereichssensor, ein Näherungssensor oder eine Überwachungskamera vorgesehen sein, das dazu einrichtet ist, zu erkennen, ob sich der Roboter in einem gemeinsamen Aufgabenbereich befindet, der als überlappender Bereich des Arbeitsbereichs des Roboters mit dem Arbeitsbereich des Bedieners definiert ist. Mit anderen Worten, sowohl der Roboter als auch der Bediener können in den gemeinsamen Aufgabenbereich eintreten. Wenn das Sensormittel dieses Systems erkennt, dass sich der Roboter im gemeinsamen Aufgabenbereich befindet, wird das Detektionsergebnis an eine Steuerung gesendet. Nur dann, wenn sich der Roboter im gemeinsamen Aufgabenbereich befindet, kann die Steuerung die jeweilige Position oder Geschwindigkeit des Referenzpunkts mittels des Codierers und des optischen Sensors zur selben Zeit messen und die gemessenen Daten vergleichen.In a preferred application of the invention, a robotic system may be used in which an operator and a robot perform a common task. In order to ensure the safety of the operator in such a system, a sensor means such as an area sensor, a proximity sensor or a surveillance camera can be provided, which is set up to detect whether the robot is in a common task area, which is an overlapping area of the robot Workspace of the robot is defined with the workspace of the operator. In other words, both the robot and the operator can enter the common task area. If the sensor means of this system detects that the robot is in the common task area, the detection result is sent to a controller sent. Only when the robot is in the common task area, the controller can measure the respective position or speed of the reference point by means of the encoder and the optical sensor at the same time and compare the measured data.

Bei einer weiteren bevorzugten Anwendung der Erfindung kann ein Robotersystem mit einem Roboterarm verwendet werden, wobei ein optischer Sensor am Roboterarm befestigt ist und sich eine mechanische Robotereinheit im Ruhezustand befindet, ohne dass eine Bremse angelegt ist. Mit anderen Worten, die Bremse ist gelöst und die mechanische Robotereinheit wird so gesteuert, dass sie eine konstante Position und Orientierung einhält. In einem solchen Fall wird durch Vergleichen des ersten und zweiten Messwerks die Bestimmung verhindert, dass der Roboter aufgrund eines Problems im Codierer anzuhalten ist, obwohl er sich tatsächlich bewegt. Die Sicherheit des Bedieners kann deshalb gewährleistet werden.at Another preferred application of the invention may be a robotic system to be used with a robotic arm, being an optical sensor Attached to the robot arm is a mechanical robot unit idle without applying a brake. With In other words, the brake is released and the mechanical robot unit is controlled so that it has a constant position and orientation comply. In such a case, comparing the first and second measuring device prevents the determination of the Robot is to stop due to a problem in the encoder, though he actually moves. The safety of the operator can therefore be guaranteed.

8 zeigt ein Robotersystem, bei dem ein optischer Sensor an einem Roboterarm befestigt ist, wobei die Bildverarbeitung (etwa Umrissextraktion) für beliebige Bilder (z. B. der Umgebung des Roboters) ausgeführt wird, die regelmäßig erfasst werden. Ein Bild 52 wie z. B. in der linken Skizze von 8 dargestellt wird zum Zeitpunkt T1 mittels des optischen Sensors erfasst, und ein Bild 54 wie in der rechten Skizze von 8 gezeigt wird im Zeitpunkt T2 mittels des optischen Sensors erfasst. In diesem Fall kann durch eine Überlagerungsverarbeitung oder dgl. der beiden Bilder eine Positionsänderung der Kamera erkannt werden. Wie in der rechten Skizze von 8 des dargestellten Beispiels zu ersehen ist, hat sich die Position des Bildes aus der durch die Strichlinie 56 angedeuteten Position (entsprechend der Volllinie 52 in der linken Skizze von 8) in die durch die Volllinie 54 angedeutete Position verschoben. Deshalb wird bestimmt, dass eine erhebliche Positionsänderung der Kamera (oder eines Roboterarms, an dem die Kamera installiert ist) stattgefunden hat. Wenn allerdings die Positionsänderung der Kamera oder des Roboters zwischen den Zeitpunkten T1 und T2 nicht erkannt oder aufgrund des Ausgangs des Codierers nicht beobachtet wird, wird bestimmt, dass der Codierer ein Problem oder eine Störung hat, und es wird ein Alarm ausgegeben. 8th Fig. 10 shows a robot system in which an optical sensor is attached to a robot arm, wherein the image processing (such as outline extraction) is performed for any images (e.g., the environment of the robot) that are regularly captured. A picture 52 such as B. in the left sketch of 8th is detected at the time T1 by means of the optical sensor detected, and an image 54 as in the right sketch of 8th is shown at time T2 detected by the optical sensor. In this case, a position change of the camera can be recognized by overlay processing or the like of the two images. As in the right sketch of 8th In the example shown, the position of the image has changed from that shown by the dashed line 56 indicated position (corresponding to the solid line 52 in the left sketch of 8th ) in the by the solid line 54 indicated position shifted. Therefore, it is determined that a significant change in position of the camera (or a robot arm on which the camera is installed) has taken place. However, if the position change of the camera or the robot is not detected between times T1 and T2 or is not observed due to the output of the encoder, it is determined that the encoder has a problem or malfunction, and an alarm is issued.

Konkret werden die räumliche Position und die Bewegungsgeschwindigkeit des Referenzpunkts, dessen Lagebeziehung zur Kamera 34 stets konstant ist, berechnet und dann wird bestimmt, dass sich die Position der Kamera nicht geändert hat, wenn der Änderungsbetrag der räumlichen Position oder der Bewegungsgeschwindigkeit des Referenzpunkts gleich groß ist wie oder kleiner als ein vorgegebener Schwellenwert. Mit anderen Worten, der Schwellenwert ist so vorgegeben, dass die Position der Kamera als nicht wesentlich geändert gilt, wenn der Änderungsbetrag des Referenzpunkts gleich groß ist wie oder kleiner als der Schwellenwert. Bei der Ausführungsform von 8 prüft der Bildverarbeitungsteil 38 (oder der erste Messteil) die Änderung der Kameraposition anhand der Bildverarbeitung, der Motorsteuerteil 36 (oder der zweite Messteil) prüft die Änderung der Kameraposition anhand des Codiererausgangs und der Alarmausgabeteil 42 gibt einen Alarm aus.Specifically, the spatial position and the speed of movement of the reference point, its positional relationship to the camera 34 is always constant, and then it is determined that the position of the camera has not changed when the amount of change of the spatial position or the moving speed of the reference point is equal to or smaller than a predetermined threshold value. In other words, the threshold value is set so that the position of the camera is not substantially changed when the amount of change of the reference point is equal to or smaller than the threshold value. In the embodiment of 8th the image processing part checks 38 (or the first measuring part) the change of the camera position based on the image processing, the engine control part 36 (or the second measuring part) checks the change of the camera position from the encoder output and the alarm output part 42 gives an alarm.

Beim Robotersystem der Erfindung wird das vom optischen Sensor, der am Roboter angebaut ist, erhaltene Bild ohne die Anzahl der Codierer oder eines Kommunikationsverfahrens gemäß dem Stand der Technik zu ändern, verarbeitet, die Position und/oder die Geschwindigkeit des Roboters wird auf Basis des Bildverarbeitungsergebnisses berechnet und die berechnete Position und/oder Geschwindigkeit mit der vom Codierer erhaltenen Position und/oder Geschwindigkeit verglichen. Wenn der Codierer ausfällt und keine genauen Daten ausgeben kann, ist die Differenz zwischen den vom optischen Sensor und den vom Codierer erhaltenen Daten erheblich. Indem die Differenz als eine Störung des Codierers erkannt wird, wenn sie einen zulässigen Wert überschreitet, kann das Problem des Codierers, das im Stand der Technik nicht erkannt werden kann, erkannt werden.At the Robot system of the invention is that of the optical sensor, the on Robot is grown, image obtained without the number of encoders or a communication method according to the Prior art to change, processed, the position and / or the speed of the robot is based on the image processing result calculated and the calculated position and / or speed with the position and / or velocity received from the encoder. If the encoder fails and can not output accurate data, is the difference between the optical sensor and the Encoders received data considerably. By taking the difference as one Disturbance of the encoder is detected if they have a permissible If the value exceeds the problem of the encoder in the State of the art can not be detected, be recognized.

Gemäß dem Robotersystem der Erfindung wird der Änderungsbetrag der Bewegung des Roboters vom Codierer und gleichzeitig vom optischen Sensor gemessen, der vom Codierer getrennt ist, und dann werden die Messergebnisse von Codierer und optischen Sensor miteinander verglichen. Deshalb kann selbst bei Vorliegen eines Problems des Codierers oder eines Ausfalls, das bzw. der durch eine herkömmliche Steuerung nicht feststellbar ist, die Steuerung das Problem oder den Ausfall erkennen.According to the Robot system of the invention, the amount of change of Movement of the robot from the encoder and at the same time from the optical sensor measured, which is separated from the encoder, and then the measurement results compared by encoder and optical sensor. Therefore can even in the presence of a problem of the encoder or a Failure, by a conventional control can not be determined, the controller the problem or failure detect.

Wenn die Erfindung auf ein Robotersystem mit einem gemeinsamen Arbeitsbereich oder auf ein Robotersystem, bei dem eine Bremse der mechanischen Robotereinheit deaktiviert ist, angewendet wird und die mechanische Robotereinheit so gesteuert wird, dass eine konstante Orientierung aufrechterhalten wird, kann dadurch die Sicherheit des Bedieners gewährleistet werden.If the invention to a robot system with a common workspace or on a robotic system, where a brake of the mechanical Robot unit is disabled, is applied and the mechanical Robot unit is controlled so that a constant orientation thereby maintaining the safety of the operator be guaranteed.

Durch Verarbeiten eines vom optischen Sensor erfassten Bildes der Umgebung der mechanischen Robotereinheit kann der Änderungsbetrag der Position eines Gliedes, an dem der optische Sensor angebracht ist, ohne Verwendung eines bestimmten visuellen Ziels berechnet werden, wodurch ein Problem oder der Ausfall des Codierers erkannt werden kann.By Processing an image of the environment captured by the optical sensor the mechanical robot unit can change the amount the position of a member to which the optical sensor is attached is calculated without using a specific visual target which identifies a problem or failure of the encoder can be.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - JP 4-235610 [0003, 0004] - JP 4-235610 [0003, 0004]
  • - JP 1-199201 [0003, 0004] - JP 1-199201 [0003, 0004]

Claims (4)

Robotersystem (10) mit einer mechanischen Robotereinheit (12) und einer Steuerung (14), die zum Steuern der mechanischen Robotereinheit (12) eingerichtet ist, bei der ein Motor (22, 24, 26) für den Antrieb der mechanischen Robotereinheit (12) einen Codierer (28, 30, 32) aufweist und der Motor (22, 24, 26) von einem Ausgang des Codierers (28, 30, 32) gesteuert wird, dadurch gekennzeichnet, dass das Robotersystem aufweist: ein visuelles Ziel (44, 46, 48), das an einer vorgegebenen Stelle positioniert ist; einen optischen Sensor (34), der an einem beweglichen Glied (20) der mechanischen Robotereinheit (12) angebracht ist, so dass der optische Sensor (34) das visuelle Ziel (44, 46, 48) in einem Sichtfeld des optischen Sensors erfasst; einen ersten Messteil (38), der ausgebildet ist zum Verarbeiten von Bildern des an der vorgegebenen Stelle positionierten visuellen Ziels (44, 46, 48), wobei die Bilder vom optischen Sensor (34) während einer vorgegebenen Zeitspanne erhalten werden, und zum Berechnen mindestens entweder der räumlichen Position oder der Bewegungsgeschwindigkeit eines Referenzpunktes als einen ersten Messwert, wobei die Lagebeziehung zwischen dem Referenzpunkt und dem optischen Sensor (34) konstant ist; einen zweiten Messteil (36), der dazu eingerichtet ist, mindestens entweder die räumliche Position oder die Bewegungsgeschwindigkeit des Referenzpunktes auf Basis des Ausgangssignals des Codierers (28, 30, 32) als einen zweiten Messwert zu erfassen; einen Vergleichsteil (40), der dazu eingerichtet ist, Daten des ersten Messwerts und Daten des zweiten Messwerts zu wählen, wobei die Zeit der Erfassung der Daten des ersten Messwerts dieselbe ist wie die Zeit der Erfassung der Daten des zweiten Messwerts, und die Differenz zwischen den gewählten Daten des ersten Messwerts und den gewählten Daten des zweiten Messwert zu berechnen; und einen Alarmausgabeteil (42), der dazu einrichtet ist, einen Alarm auszugeben, wenn die vom Vergleichsteil (40) berechnete Differenz einen vorgegebenen Schwellenwert überschreitet.Robot system ( 10 ) with a mechanical robot unit ( 12 ) and a controller ( 14 ) used to control the mechanical robot unit ( 12 ) in which a motor ( 22 . 24 . 26 ) for driving the mechanical robot unit ( 12 ) an encoder ( 28 . 30 . 32 ) and the engine ( 22 . 24 . 26 ) from an output of the encoder ( 28 . 30 . 32 ), characterized in that the robot system comprises: a visual target ( 44 . 46 . 48 ) positioned at a predetermined location; an optical sensor ( 34 ) attached to a movable member ( 20 ) of the mechanical robot unit ( 12 ) is mounted so that the optical sensor ( 34 ) the visual target ( 44 . 46 . 48 ) is detected in a field of view of the optical sensor; a first measuring part ( 38 ) adapted to process images of the visual target positioned at the predetermined location ( 44 . 46 . 48 ), the images from the optical sensor ( 34 ) for a predetermined period of time, and for calculating at least one of the spatial position and the moving speed of a reference point as a first measured value, the positional relationship between the reference point and the optical sensor (FIG. 34 ) is constant; a second measuring part ( 36 ) arranged to at least either the spatial position or the moving speed of the reference point on the basis of the output signal of the encoder ( 28 . 30 . 32 ) as a second reading; a comparison part ( 40 ) configured to select data of the first measurement and data of the second measurement, wherein the time of detection of the data of the first measurement is the same as the time of detection of the data of the second measurement, and the difference between the selected data of the second measurement calculate the first measured value and the selected data of the second measured value; and an alarm output part ( 42 ), which is set up to issue an alarm when the 40 ) calculated difference exceeds a predetermined threshold. Robotersystem nach Anspruch 1, bei dem ein gemeinsamer Aufgabenbereich definiert ist als ein Überlappungsbereich eines Arbeitsbereichs der mechanischen Robotereinheit (12) und eines Arbeitsbereichs eines Bedieners, wobei das Robotersystem ferner einen Detektorteil aufweist, der dazu eingerichtet ist, zu erkennen, ob sich die mechanische Robotereinheit (12) im gemeinsamen Aufgabenbereich befindet oder nicht, und bei dem der erste Messwert mit dem zweiten Messwert nur dann verglichen wird, wenn die mechanische Robotereinheit (12) den gemeinsamen Aufgabenbereich verlässt.A robot system according to claim 1, wherein a common task area is defined as an overlapping area of a working area of the mechanical robot unit ( 12 ) and a workspace of an operator, the robotic system further comprising a detector part configured to detect if the mechanical robotic unit 12 ) is in the common task area or not, and in which the first measured value is compared with the second measured value only if the mechanical robot unit ( 12 ) leaves the common area of responsibility. Robotersteuerung nach Anspruch 1 oder 2, bei der der erste Messwert mit dem zweiten Messwert verglichen wird, wenn eine Bremse der mechanischen Robotereinheit (12) deaktiviert wird, und wenn die mechanische Robotereinheit (12) so gesteuert wird, dass sie eine konstante Orientierung beibehält.Robot controller according to claim 1 or 2, wherein the first measured value is compared with the second measured value when a brake of the mechanical robot unit ( 12 ) and when the mechanical robotic unit ( 12 ) is controlled so as to maintain a constant orientation. Robotersystem (10) mit einer mechanischen Robotereinheit (12) und einer Steuerung (14), die zum Steuern der mechanischen Robotereinheit (12) eingerichtet ist, bei dem ein Motor (22, 24, 26) für den Antrieb der mechanischen Robotereinheit (12) einen Codierer (28, 30, 32) aufweist und der Motor (22, 24, 26) von einem Ausgang des Codierers (28, 30, 32) gesteuert wird, dadurch gekennzeichnet, dass das Robotersystem aufweist: einen optischen Sensor (34), der an einem beweglichen Glied (20) der mechanischen Robotereinheit (12) angebracht ist; einen ersten Messteil (38), der ausgebildet ist zum Verarbeiten von Bildern der Umgebung um die mechanische Robotereinheit (12), wobei die Bilder vom optischen Sensor (34) während einer vorgegebenen Zeitspanne erhalten werden, und zum Erkennen einer Änderung der räumlichen Position des optischen Sensors (34) eingerichtet ist; einen zweiten Messteil (36), der dazu eingerichtet ist, mindestens entweder die räumliche Position oder die Bewegungsgeschwindigkeit eines Referenzpunktes auf Basis des Ausgangs des Codierers (28, 30, 32) zu erfassen, wobei die Lagebeziehung zwischen dem Referenzpunkt und dem optischen Sensor (34) konstant ist; und einen Alarmausgabeteil (42), der dazu eingerichtet ist, einen Alarm auszugeben, wenn ein Änderungsbetrag der Position oder der Geschwindigkeit des optischen Sensors, der anhand der räumlichen Position oder der Bewegungsgeschwindigkeit des vom zweiten Messteil (36) erfassten Referenzpunktes berechnet wird, innerhalb eines vorgegebenen Schwellenwertbereichs liegt, und wenn der erste Messteil (38) die Änderung der räumlichen Position des optischen Sensors erkennt.Robot system ( 10 ) with a mechanical robot unit ( 12 ) and a controller ( 14 ) used to control the mechanical robot unit ( 12 ), in which an engine ( 22 . 24 . 26 ) for driving the mechanical robot unit ( 12 ) an encoder ( 28 . 30 . 32 ) and the engine ( 22 . 24 . 26 ) from an output of the encoder ( 28 . 30 . 32 ), characterized in that the robot system comprises: an optical sensor ( 34 ) attached to a movable member ( 20 ) of the mechanical robot unit ( 12 ) is attached; a first measuring part ( 38 ) which is adapted to process images of the environment around the mechanical robot unit ( 12 ), the images from the optical sensor ( 34 ) are obtained for a predetermined period of time, and for detecting a change in the spatial position of the optical sensor (FIG. 34 ) is set up; a second measuring part ( 36 ) arranged to at least either the spatial position or the moving speed of a reference point on the basis of the output of the encoder ( 28 . 30 . 32 ), wherein the positional relationship between the reference point and the optical sensor ( 34 ) is constant; and an alarm output part ( 42 ) configured to output an alarm when a change amount of the position or the speed of the optical sensor based on the spatial position or the moving speed of the second measuring part ( 36 ) is within a predetermined threshold range, and if the first measuring part ( 38 ) detects the change in the spatial position of the optical sensor.
DE102010023736.1A 2009-06-15 2010-06-14 Robot system with problem detection function Active DE102010023736B4 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009142756A JP4741691B2 (en) 2009-06-15 2009-06-15 Robot system with robot abnormality monitoring function
JP2009-142756 2009-06-15

Publications (2)

Publication Number Publication Date
DE102010023736A1 true DE102010023736A1 (en) 2011-01-27
DE102010023736B4 DE102010023736B4 (en) 2018-01-25

Family

ID=43384105

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010023736.1A Active DE102010023736B4 (en) 2009-06-15 2010-06-14 Robot system with problem detection function

Country Status (2)

Country Link
JP (1) JP4741691B2 (en)
DE (1) DE102010023736B4 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2671686A1 (en) * 2011-02-24 2013-12-11 Olympus Corporation Master operation input device and master-slave manipulator
JP2019118993A (en) * 2017-12-29 2019-07-22 富士通株式会社 Robot, self-diagnostic program and self-diagnostic method
DE102014219754B4 (en) 2013-10-01 2022-07-07 Avago Technologies International Sales Pte. Ltd. Gesture based industrial surveillance

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6804333B1 (en) 1999-01-28 2004-10-12 International Business Machines Corporation Dynamically reconfigurable distributed interactive voice response system
JP5640726B2 (en) 2010-12-21 2014-12-17 ソニー株式会社 Information processing apparatus, communication system, and charging method for wireless terminal apparatus
JP5149416B2 (en) * 2011-04-06 2013-02-20 ファナック株式会社 Robot system having robot abnormality detection function and control method thereof
JP6217322B2 (en) * 2013-11-01 2017-10-25 セイコーエプソン株式会社 Robot control apparatus, robot, and robot control method
CN107102601A (en) * 2017-06-06 2017-08-29 上海理工大学 Intelligent robot real-time state monitoring and fault processing system
DE112018003523T5 (en) 2017-08-08 2020-04-09 Panasonic Intellectual Property Management Co., Ltd. METHOD FOR TRANSMITTING INFORMATION IN A CONTROL UNIT AND METHOD FOR DETECTING ERRORS IN A CODER
US10967514B2 (en) 2018-08-22 2021-04-06 Abb Schweiz Ag Apparatus and method to monitor robot mechanical condition
CN110253570B (en) * 2019-05-27 2020-10-27 浙江工业大学 Vision-based man-machine safety system of industrial mechanical arm
JP7335103B2 (en) * 2019-07-09 2023-08-29 ニデックインスツルメンツ株式会社 INDUSTRIAL ROBOT AND CONTROL METHOD FOR INDUSTRIAL ROBOT
JP7469020B2 (en) 2019-10-24 2024-04-16 ファナック株式会社 Robot Safety System
CN111342521A (en) * 2020-03-31 2020-06-26 珠海格力智能装备有限公司 Encoder power supply device
CN112643657A (en) * 2020-12-09 2021-04-13 深圳市优必选科技股份有限公司 Robot emergency stop braking safety prevention and control method and device, robot and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01199201A (en) 1987-12-28 1989-08-10 Matsushita Electric Ind Co Ltd Safety device
JPH04235610A (en) 1991-01-09 1992-08-24 Hitachi Ltd Abnormality detector for industrial robot

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3438007A1 (en) * 1984-10-17 1986-04-17 Robert Bosch Gmbh, 7000 Stuttgart Device for diagnosing a machine with continuous-path control
US5579444A (en) * 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
JPH02262991A (en) * 1989-03-31 1990-10-25 Mitsubishi Electric Corp Monitor device for action of robot
JPH033786A (en) * 1989-06-01 1991-01-09 Toshiba Corp Control method for manipulator
JPH03281182A (en) * 1990-03-28 1991-12-11 Shinko Electric Co Ltd Coordinate correcting method for moving robot
JP2769947B2 (en) * 1992-05-15 1998-06-25 株式会社椿本チエイン Manipulator position / posture control method
JP2778430B2 (en) * 1993-10-01 1998-07-23 株式会社デンソー Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JPH0768480A (en) * 1993-09-06 1995-03-14 Mitsubishi Heavy Ind Ltd Method for controlling articular angle of manipulator
JP3466340B2 (en) * 1995-09-07 2003-11-10 アシスト シンコー株式会社 A 3D position and orientation calibration method for a self-contained traveling robot
JPH10128689A (en) * 1996-09-04 1998-05-19 Shinko Electric Co Ltd Visual correcting device of unmanned movable body
JP3288250B2 (en) * 1997-03-25 2002-06-04 ファナック株式会社 Robot controller
JPH1177562A (en) * 1997-09-10 1999-03-23 Shinko Electric Co Ltd Mobile robot
DE59809233D1 (en) * 1997-12-06 2003-09-11 Elan Schaltelemente Gmbh & Co MONITORING AND CONTROL DEVICE AND METHOD FOR MONITORING A TECHNICAL SYSTEM WITH INCREASED SAFETY REQUIREMENTS, IN PARTICULAR A HANDLING DEVICE
GB9803364D0 (en) * 1998-02-18 1998-04-15 Armstrong Healthcare Ltd Improvements in or relating to a method of an apparatus for registering a robot
JPH11347985A (en) * 1998-06-10 1999-12-21 Honda Motor Co Ltd Trouble diagnostic method for robot system with visual sensor
DE19849720A1 (en) * 1998-10-28 2000-05-04 Bosch Gmbh Robert Precision positioning of component in assembly position in grip-feed system makes position correction using coarse and fine positioning devices
JP2001341086A (en) * 2000-05-31 2001-12-11 Denso Corp Mobile robot system
DE10236844B4 (en) * 2002-08-08 2015-02-19 Volkswagen Ag Monitoring of process accuracy
DE10324627A1 (en) * 2003-05-28 2005-01-05 Daimlerchrysler Ag Working space monitoring for automated operating machines involves monitoring speed-dependent second zone for object penetration, preventing object from entering first zone if detected in second zone
FI123306B (en) * 2004-01-30 2013-02-15 Wisematic Oy Robot tool system, and its control method, computer program and software product
JP2007011978A (en) * 2005-07-04 2007-01-18 Toyota Motor Corp Motion controller for robot
JP2007265103A (en) * 2006-03-29 2007-10-11 Nachi Fujikoshi Corp Robot controller
JP2007283448A (en) * 2006-04-18 2007-11-01 Nachi Fujikoshi Corp Robot control device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01199201A (en) 1987-12-28 1989-08-10 Matsushita Electric Ind Co Ltd Safety device
JPH04235610A (en) 1991-01-09 1992-08-24 Hitachi Ltd Abnormality detector for industrial robot

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2671686A1 (en) * 2011-02-24 2013-12-11 Olympus Corporation Master operation input device and master-slave manipulator
US9186796B2 (en) 2011-02-24 2015-11-17 Olympus Corporation Master input device and master-slave manipulator
EP2671686B1 (en) * 2011-02-24 2016-05-04 Olympus Corporation Master-slave manipulator
DE102014219754B4 (en) 2013-10-01 2022-07-07 Avago Technologies International Sales Pte. Ltd. Gesture based industrial surveillance
JP2019118993A (en) * 2017-12-29 2019-07-22 富士通株式会社 Robot, self-diagnostic program and self-diagnostic method

Also Published As

Publication number Publication date
DE102010023736B4 (en) 2018-01-25
JP2010284781A (en) 2010-12-24
JP4741691B2 (en) 2011-08-03

Similar Documents

Publication Publication Date Title
DE102010023736B4 (en) Robot system with problem detection function
EP3030359B1 (en) Bending press
DE69736348T2 (en) ROBOT FUEL CONTROL SYSTEM WITH VISUAL SENSOR FOR COMMUNICATION WORK
DE102017128543B4 (en) NOISE ZONE ADJUSTMENT DEVICE FOR A MOBILE ROBOT
EP1702727B1 (en) Production assembly with a bending press, a manipulation device and a calibration device
EP2663963B1 (en) Device and method for estimating the pose of an object inside a tool machine
DE102004007828B4 (en) Method and system for inspecting surfaces
WO2008014909A1 (en) Camera-based monitoring of machines with moving machine elements for the purpose of collision prevention
DE102018212531B4 (en) Article transfer device
DE102016220127B4 (en) Method for operating a coordinate measuring machine
DE102005045854B3 (en) Method and system for calibrating a camera in production machines
WO2006037137A1 (en) Working space monitoring for automated programme-controlled machines and robots
DE102019101005B4 (en) Object conveyor system
DE112016002353T5 (en) Mounting device and mounting method for a gear mechanism
DE102016102579A1 (en) Method and device for determining a plurality of spatial coordinates on an object
DE102019131284A1 (en) Robot system and coordinate conversion process
EP1398094B1 (en) Method and device for determining the arm length of bent products
DE102019131774A1 (en) Monitoring system for robots and robot systems
EP2216697B1 (en) Machine tool and method for avoiding collision within a machine tool
WO2008025577A1 (en) Method and device for monitoring a machine element to prevent its collision with an object in a machine tool, a production machine and/or a machine that is configured as a robot
EP3323565B1 (en) Method and device for commissioning a multiple axis system
WO2005039836A2 (en) Method for effecting the movement of a handling device and image processing device
DE102008052579A1 (en) Safety system for working device, comprises unit and camera which is arranged at unit, where movement of unit is monitored by camera, based on degree of freedom of unit
DE102006005990B4 (en) Workpiece measurement for 3-D position detection in several multi-robot stations
WO2017080649A2 (en) Sensitive robots using sensor technology arranged before the first robot axis

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20110505

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAELTE,

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

R081 Change of applicant/patentee

Owner name: FANUC CORPORATION, OSHINO-MURA, JP

Free format text: FORMER OWNER: FANUC LTD, YAMANASHI, JP

Effective date: 20111116

Owner name: FANUC CORPORATION, JP

Free format text: FORMER OWNER: FANUC LTD, YAMANASHI, JP

Effective date: 20111116

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20111116

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20111116

R081 Change of applicant/patentee

Owner name: FANUC CORPORATION, OSHINO-MURA, JP

Free format text: FORMER OWNER: FANUC CORP., YAMANASHI, JP

Effective date: 20120202

Owner name: FANUC CORPORATION, JP

Free format text: FORMER OWNER: FANUC CORP., YAMANASHI, JP

Effective date: 20120202

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20120202

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20120202

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final