KR20080088165A - Robot calibration method - Google Patents

Robot calibration method Download PDF

Info

Publication number
KR20080088165A
KR20080088165A KR1020070030728A KR20070030728A KR20080088165A KR 20080088165 A KR20080088165 A KR 20080088165A KR 1020070030728 A KR1020070030728 A KR 1020070030728A KR 20070030728 A KR20070030728 A KR 20070030728A KR 20080088165 A KR20080088165 A KR 20080088165A
Authority
KR
South Korea
Prior art keywords
robot
calculated
lvs
value
error
Prior art date
Application number
KR1020070030728A
Other languages
Korean (ko)
Inventor
최윤서
김병수
정성엽
강민구
Original Assignee
삼성중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성중공업 주식회사 filed Critical 삼성중공업 주식회사
Priority to KR1020070030728A priority Critical patent/KR20080088165A/en
Publication of KR20080088165A publication Critical patent/KR20080088165A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39214Compensate tracking error by using model, polynomial network

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

A robot calibration method is provided to detect a precise relative position of a tool center point based on image information measured from a laser vision sensor. A robot calibration method comprises the steps of detecting a specific teach point of a teach pendant by using a detection unit(S100), calculating a measurement value of the specific teach point(S200), calculating an error value by comparing the calculated measurement value with a value calculated through an equation(S300), obtaining error components based on the calculated error value(S400), and obtaining a correction equation by applying the error components to the calculated value(S500).

Description

로봇 캘리브레이션 방법{Robot calibration method}Robot calibration method

도 1은 본 발명에 의한 로봇 캘리브레이션 방법의 일 예를 나타낸 흐름도이다.1 is a flowchart illustrating an example of a robot calibration method according to the present invention.

도 2는 수직 다관절 로봇의 일 예를 나타낸 구성도이다.2 is a configuration diagram showing an example of a vertical articulated robot.

도 3은 공간상에서 좌표를 정의하는 요소를 설명하기 위한 도면이다.3 is a diagram for explaining an element defining a coordinate in space.

도 4는 본 발명에 의한 캘리브레이션 방법을 적용하기 위한 수직 다관절 로봇의 일 예를 개략적으로 나타낸 도면이다.4 is a view schematically showing an example of a vertical articulated robot for applying a calibration method according to the present invention.

도 5는 본 발명에 의한 캘리브레이션 방법을 적용하기 위한 수직 다관절 로봇의 다른 예를 개략적으로 나타낸 도면이다.5 is a view schematically showing another example of a vertical articulated robot for applying a calibration method according to the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for main parts of the drawings>

1 : 6축 로봇 2 : TCP1: 6 axis robot 2: TCP

3 : LVS3: LVS

{G} : 전역 좌표계 {B} : 로봇 베이스 좌표계{G}: global coordinate system {B}: robot base coordinate system

{6} : 다관절 로봇의 종단부 좌표계{6}: end coordinate system of articulated robot

{E} : 로봇의 최종작동체(End-Effector) 좌표계{E}: End-Effector coordinate system of robot

{L} : LVS 좌표계 {T} : TCP 좌표계{L}: LVS coordinate system {T}: TCP coordinate system

{W} : 지그 좌표계 {S} : 쇼크센서 좌표계{W}: Jig coordinate system {S}: Shock sensor coordinate system

본 발명은 레이저 비전 센서(LVS : Laser Vision Sensor)를 지닌 로봇 캘리브레이션 방법에 관한 것으로, 터치센서 및 LVS(Laser Vision Sensor) 등의 감지수단을 이용하여, 캘리브레이션을 위한 교시점을 측정하고, 로봇이 인식하고 있는 각 축 별 원점과 실제 원점에 대한 오차성분을 산출하여 보정하는 동시에, 로봇이 인식하고 있는 TCP 및 LVS 좌표계와 실제 공간상의 TCP 및 LVS 좌표계간의 오차성분을 산출하여 보정한 후, TCP의 공간상 위치 및 LVS 좌표계의 위치와 자세를 산출함으로써, 로봇의 정밀도 및 신뢰도를 향상시킬 수 있는 것이다.The present invention relates to a method for calibrating a robot having a laser vision sensor (LVS: Laser Vision Sensor), and using a sensing means such as a touch sensor and a laser vision sensor (LVS) to measure a teaching point for calibration, and After calculating and correcting the error components for the recognized origin and actual origin for each axis, the error components between the TCP and LVS coordinate systems recognized by the robot and the TCP and LVS coordinate systems in real space are calculated and corrected. By calculating the spatial position and the position and attitude of the LVS coordinate system, the accuracy and reliability of the robot can be improved.

따라서, 정확한 로봇의 제어가 가능해짐은 물론, 로봇 제어 시스템 및 이를 이용하여 생산된 제품의 신뢰성을 향상시키는 효과가 있다. Therefore, accurate control of the robot is possible, as well as improving the reliability of the robot control system and the product produced using the same.

일반적으로, 용접 로봇 시스템에 있어서, 로봇을 제어하는 작업물에 대한 아크 용접 등을 수행하는 경우, 레이저 비전 센서를 로봇 시스템에 장착하여 용접선을 추종함으로써, 로봇이 정확한 용접 처리를 수행할 수 있도록 제어하고 있다.In general, in a welding robot system, when arc welding or the like for a workpiece controlling a robot is performed, a laser vision sensor is mounted on the robot system to follow the welding line, so that the robot can perform an accurate welding process. Doing.

보다 상세하게는, 로봇의 툴 끝단(TCP)이 진행하는 방향의 영역에 대하여, 레이저 비전 센서로 측정하여 용접선의 위치를 주기적으로 검출하는 로봇 시스템에 있어서, 로봇의 툴 끝단의 진행방향에 대해 앞쪽으로 설치된 레이저 비전 센서가 앞선 용접선의 위치를 검출하고 검출한 위치를 제어기 내부 메모리에 저장하였다가, TCP가 측정 위치에 도달하면 로봇의 보정량이 저장된 샘플 데이터를 이용하여 상기 로봇의 샘플링 위치 및 자세를 보간하여, 상기 로봇의 기준 좌표계 상의 이동 위치 및 자세를 재계산하며, 상기 재계산된 로봇의 이동 위치 및 자세를 로봇의 각 축이 이동할 자세로 환산하여 로봇에게 전송하고, 이를 로봇 제어기가 반영하여 툴 끝단(TCP)의 위치를 추적하는 방식을 사용한다.More specifically, in the robot system which periodically detects the position of the welding seam by measuring with a laser vision sensor with respect to the area of the direction in which the tool tip TCP of the robot travels, it is forward with respect to the traveling direction of the tool tip of the robot. The laser vision sensor installed in the system detects the position of the welding line and stores the detected position in the internal memory of the controller.When TCP reaches the measurement position, the robot's sampling position and attitude are determined using the sample data stored in the robot's correction amount. By interpolating, the moving position and posture on the reference coordinate system of the robot are recalculated, and the recomputed moving position and posture of the robot is converted into the posture to which each axis of the robot moves, and the robot controller reflects this. Use the method of tracking the position of the tool tip (TCP).

한편, 상기한 바와 같이 레이저 비전 센서를 이용하여 용접선을 추종하는 방식의 로봇은, 로봇의 각 축 별 원점, 로봇 원점과 TCP 간의 관계, TCP와 앞선 용접선 부분을 측정할 수 있는 LVS 간의 관계를 정확히 알아야만, 정확하고 정밀한 작업을 수행할 수 있다.On the other hand, as described above, the robot following the welding line using the laser vision sensor accurately measures the origin of each axis of the robot, the relationship between the robot origin and TCP, and the relationship between the LVS capable of measuring the TCP and the preceding welding line part. You need to know that you can do precise and precise work.

현재까지 산업 현장에서는 로봇을 대부분 온-라인 프로그램(On-Line Program) 방법으로 사용하고 있다. 즉, 이는 어떤 작업을 실행시키기 이전에 교시조작기(Teach Pendant)를 이용하여 작업 위치를 사전에 교시시킨 다음, 이에 상응하는 로봇의 관절각(Joint Angle)을 계산하여 원하는 작업을 수행시키는 방식이다.To date, most industrial robots use On-Line Program. In other words, this method teaches the working position in advance using a teach pendant before executing a task, and then calculates a joint angle of a corresponding robot to perform a desired task.

따라서, 온-라인 프로그램 방법에서는 로봇이 본래 가지고 있는 반복오차와 교시 작업할때의 오차만을 포함하므로 통상적으로 만족할만한 위치 정밀도를 갖게 된다.Therefore, in the on-line programming method, since the robot includes only the repetition error and the error in teaching, it has a satisfactory position accuracy.

그러나 공장 자동화, 특히 CAD/CAM 시스템이 도입된 상태에서는 로봇의 작업 위치를 설계 도면 혹은 CAD 시스템으로부터 알 수가 있으므로, 생산라인에서 직접 교시작업을 하지 않고 별도의 스테이지(Stage)에서 교시 작업을 하거나 혹은 컴퓨터상에서 시뮬레이션(Simulation)을 한 다음 이 과정에서 얻어진 로봇 작업 프로그램으로 로봇 시스템을 운영하는 것이 효율적인데, 이와 같은 오프-라인 프로그램 방법으로 사용할 경우 로봇의 위치 정밀도는 온-라인 프로그램 방법에 비교하여 많이 떨어지게 된다.However, when factory automation, especially CAD / CAM system, is introduced, the robot's working position can be known from the design drawing or the CAD system, so that the teaching work can be done in a separate stage instead of directly in the production line. It is more efficient to operate the robot system with the robot task program obtained in this process after simulation on the computer. When using this off-line program method, the positional accuracy of the robot is much higher than that of the on-line program method. Will fall.

왜냐하면, 오프-라인 프로그램 방법에서 사용되는 공칭 기구학 방정식(Normal Kinematics Equation)은, 실제 로봇을 제작하는 과정에서 불가피하게 발생하는 기하학적 오차, 로봇의 동작 제어시 동적 오차(Dynamic Error), 백-래쉬(Back-Lash), 로봇 구조물의 처짐, 관절부에서의 컴플라이언스(Compliance) 등으로 인해 로봇의 움직임을 정확히 표현할 수 없기 때문이다.Because the nominal kinematics equations used in the off-line programming method are geometrical errors that inevitably occur in the process of manufacturing a real robot, dynamic errors when controlling the robot's motion, and back-lash ( This is because the robot's movement cannot be accurately represented due to back-lash, deflection of the robot structure, and compliance at the joints.

따라서, 오프-라인 프로그램 방법을 사용하거나 혹은 로봇 자체의 정밀도를 향상시키기 위해서는, 반드시 이를 위한 적절한 로봇 캘리브레이션 기술이 개발되어야 한다. 여기서 로봇 캘리브레이션은 로봇 손끝의 위치, 방위와 조인트(Joint)변수 사이의 정확한 함수 관계를 찾아 로봇 제어 소프트웨어를 수정해줌으로써, 매니플레이터(Manipulator)의 정밀도를 점진적으로 향상시키는 일련의 과정을 의미한다.Therefore, in order to use the off-line programming method or to improve the accuracy of the robot itself, an appropriate robot calibration technique must be developed for this purpose. Robot calibration refers to a series of processes that gradually improve the precision of the manipulator by finding the correct functional relationship between the position of the fingertips of the robot, the orientation and the joint variables, and modifying the robot control software. .

본 발명은 상기와 같은 요구에 의해 안출된 것으로, 본 발명의 목적은, 로봇이 인식하고 있는 각 축 별 원점, TCP 및 LVS 좌표계와 실제 공간상에 놓여 있는 축 별 원점 오차, TCP 오차, LVS 좌표오차를 산출하고, 산출된 오차성분을 보정한 후 축 별 원점, TCP 위치, LVS의 위치 및 자세를 산출함으로써, 로봇에 대한 정확성 및 신뢰도를 향상시키기 위한 로봇 캘리브레이션 방법을 제공함에 있다.The present invention has been made in accordance with the above-described requirements, and an object of the present invention is to determine the origin of each axis, the TCP and LVS coordinate systems recognized by the robot, and the origin error of each axis, TCP error, and LVS coordinates in real space. By calculating the error, correcting the calculated error component, and calculating the origin of each axis, TCP position, and the position and attitude of the LVS, to provide a robot calibration method for improving the accuracy and reliability for the robot.

한편, LVS(Laser Vision Sensor)를 이용하는 경우, TCP를 직접적으로 측정하 지 못할 뿐만 아니라, LVS의 기준점이 LVS내부의 임의의 위치에 존재하기 때문에, LVS의 기준점 및 좌표축과 TCP의 위치를 정확히 산출하기에 어려움이 있었다.On the other hand, when using the LVS (Laser Vision Sensor), not only the TCP can not be directly measured, but also the reference point of the LVS exists at an arbitrary position inside the LVS, so that the reference point and coordinate axis of the LVS and the position of the TCP can be accurately calculated. There was a difficulty.

따라서, 본 발명의 다른 목적은, 로봇이 인식하고 있는 LVS의 기준점 및 좌표축과 LVS에 의해 촬영된 영상을 처리하여 산출된 기준점 및 좌표축을 비교하여 오차를 산출하고, 산출된 오차성분을 보정한 후 TCP와의 LVS 영상 상의 정보 관계를 산출함으로써, LVS를 통해 측정된 엉상정보로부터 TCP에 대한 정확한 상대적 위치를 알 수 있도록 한 로봇 캘리브레이션 방법을 제공함에 있다.Accordingly, another object of the present invention is to calculate an error by comparing the reference point and coordinate axis of the LVS recognized by the robot with the reference point and coordinate axis calculated by processing the image photographed by the LVS, and correcting the calculated error component. By calculating the information relationship on the LVS image with the TCP, it provides a robot calibration method that can know the exact relative position of the TCP from the confusion information measured through the LVS.

상술한 바와 같은 본 발명의 목적을 달성하기 위한 로봇 캘리브레이션 방법은, a) 감지수단에 의해 교시수단의 특정 교시점을 감지하는 단계; b) 해당 교시점의 측정값을 산출하는 단계; c) 상기 산출한 측정값과 상기 감지수단에 대응하여 설정된 원수식의 계산값을 비교하여 오차값을 계산하는 단계; d) 상기 계산한 오차값에 기초하여 오차성분을 산출하는 단계; 및 e) 상기 원수식의 계산값에 상기 산출한 오차성분을 적용하여 보정수식을 구하는 단계를 포함하여 이루어진 것을 특징으로 한다.Robot calibration method for achieving the object of the present invention as described above comprises the steps of: a) detecting a specific teaching point of the teaching means by the sensing means; b) calculating a measurement of the teaching point; c) calculating an error value by comparing the calculated measured value with a calculated value of the original equation set corresponding to the sensing means; d) calculating an error component based on the calculated error value; And e) obtaining a correction equation by applying the calculated error component to the calculated value of the raw equation.

본 발명에 따른 로봇 캘리브레이션 방법에 대한 예는 다양하게 적용할 수 있으며, 이하에서는 첨부된 도면을 참조하여 가장 바람직한 실시 예에 대해 설명하기로 한다.An example of a robot calibration method according to the present invention can be variously applied, and hereinafter, a preferred embodiment will be described with reference to the accompanying drawings.

먼저, 수직 다관절 로봇 중 용접로봇에 대하여 살펴보면 도 2에 나타난 바와 같이, 6축 로봇(1)의 종단부에 용접을 위한 장치가 구성되고, 이 용접장치의 종단 부를 TCP(Tool Center Point)라 하며, 용접장치의 일측으로는 영상인식을 위하여 용접부위를 촬영하는 LVS(Laser Vision Sensor)가 구성되어 있다.First, a welding robot of the vertical articulated robot is shown in FIG. 2, and an apparatus for welding is configured at the end of the 6-axis robot 1, and the end of the welding apparatus is called a tool center point (TCP). One side of the welding apparatus is composed of a laser vision sensor (LVS) for photographing a welded portion for image recognition.

다시 말해, 적어도 하나의 축을 갖는 로봇과 이 로봇이 특정 작업을 하기 위한 작업수단(Tool) 및 작업의 이상여부를 확인하기 위한 감지수단을 갖는 수직 다관절 로봇의 캘리브레이션에 관한 것이다.In other words, the present invention relates to a calibration of a vertical articulated robot having a robot having at least one axis, a tool for performing a specific work, and a sensing means for checking whether an operation is abnormal.

이러한 수직 다관절 로봇의 경우, 3차원 공간을 이동하여 특정 작업을 수행하게 되는 바, 3차원 공간상에서 좌표를 정의하는 요소는 도 3에 나타난 바와 같다.In the case of such a vertical articulated robot, the three-dimensional space is moved to perform a specific task. The elements defining coordinates in the three-dimensional space are shown in FIG. 3.

예를 들어, 수직 다관절 로봇의 종단부 또는 용접장치의 종단부가, (A)에서 (B)로 이동하게 되면, (A)에서 설정된 x축, y축, z축의 기준점이 이동하면서 각 축이 회전하여, (B)에서 나타나는 x’축, y’축, z’축으로 이동/회전하게 된다.For example, when the end of the vertical articulated robot or the end of the welding device moves from (A) to (B), each axis is moved while the reference points of the x, y, and z axes set in (A) move. It rotates and moves / rotates to the x 'axis, the y' axis, and the z 'axis shown in (B).

다시 말해, 3차원 공간상에서 특정 점에 대한 좌표의 정의는 해당 점의 3차원 위치성분(Px : x축 이동, Py : y축 이동, Pz : z축 이동) 및 3차원 회전성분(Rx : x축 회전, Ry : y축 회전, Rz : z축 회전)의 6개 정보를 갖게 되는 것이다.In other words, the definition of the coordinates for a specific point in three-dimensional space is defined by the three-dimensional position component (Px: x-axis movement, Py: y-axis movement, Pz: z-axis movement) and three-dimensional rotation component (Rx: x) of the point. Axial rotation, Ry: y-axis rotation, and Rz: z-axis rotation).

본 발명에서는 상기 6개의 정보를 H.M.(Homogeneous Matrix)으로 정의하며, 이는 수학식 1과 같다.In the present invention, the six pieces of information are defined as H. M. (Homogeneous Matrix), which is the same as Equation 1.

Figure 112007024555787-PAT00001
Figure 112007024555787-PAT00001

여기서, 각 성분은

Figure 112007024555787-PAT00002
,
Figure 112007024555787-PAT00003
,
Figure 112007024555787-PAT00004
,
Figure 112007024555787-PAT00005
,
Figure 112007024555787-PAT00006
,
Figure 112007024555787-PAT00007
,
Figure 112007024555787-PAT00008
,
Figure 112007024555787-PAT00009
,
Figure 112007024555787-PAT00010
이고,
Figure 112007024555787-PAT00011
이다.Where each component
Figure 112007024555787-PAT00002
,
Figure 112007024555787-PAT00003
,
Figure 112007024555787-PAT00004
,
Figure 112007024555787-PAT00005
,
Figure 112007024555787-PAT00006
,
Figure 112007024555787-PAT00007
,
Figure 112007024555787-PAT00008
,
Figure 112007024555787-PAT00009
,
Figure 112007024555787-PAT00010
ego,
Figure 112007024555787-PAT00011
to be.

따라서, 상기한 6개의 정보에 대하여 오차성분을 보정함으로써, 수직 다관절 로봇의 각 축 별 원점 및 오차를 산출할 수 있다.Accordingly, by correcting the error components of the six pieces of information, the origin and error of each axis of the vertical articulated robot can be calculated.

이를 위한 본 발명의 캘리브레이션 방법은 도 1에 나타난 바와 같다.The calibration method of the present invention for this purpose is as shown in FIG.

교시자는 수직 다관절 로봇의 캘리브레이션을 위하여 제작된 계단형 지그(Jig) 등의 교시수단 상의 특정한 한 점(교시점)을 선택하고, 수직 다관절 로봇의 동작을 제어하여 수직 다관절 로봇의 종단부에 구성된 TS(Touch Sensor) 또는 LVS(Laser Vision Sensor) 등의 감지수단으로 해당 교시점을 감지한다(S100).The instructor selects a specific point (teaching point) on the teaching means such as a stepped jig manufactured for calibration of the vertical articulated robot, and controls the operation of the vertical articulated robot by controlling the operation of the vertical articulated robot. The teaching point is detected by a sensing means such as a TS (Touch Sensor) or a Laser Vision Sensor (LVS) configured at S100.

이때, 상기 수직 다관절 로봇을 제어하는 제어수단(도시하지 않음)은, 수직 다관절 로봇을 제어하기 위하여 정의된 수식(이하, 원수식이라 함)에 대한 연산을 처리하여 그 계산값을 산출한다. 여기서, 상기 제어수단은 수직 다관절 로봇의 내부에 구성하거나 별도의 장치로 구성할 수 있다.At this time, the control means (not shown) for controlling the vertical articulated robot processes a calculation for a formula (hereinafter, referred to as a raw equation) for controlling the vertical articulated robot and calculates the calculated value. Here, the control means may be configured inside the vertical articulated robot or may be configured as a separate device.

상기 수직 다관절 로봇을 제어하는 제어수단은, 상기 감지수단에 의해 측정된 교시점의 측정값을 산출하고(S200), 산출된 측정값과 상기 원수식의 계산값을 비교한 후, 각 축 별 원점 및 오차값을 계산한다(S300).The control means for controlling the vertical articulated robot calculates a measured value of the teaching point measured by the sensing means (S200), compares the calculated measured value with the calculated value of the raw equation, and then for each axis. The origin and the error value are calculated (S300).

상기 수직 다관절 로봇을 제어하는 제어수단은, 계산한 각 축 별 원점 및 오차값을 기초로 하여, 수직 다관절 로봇의 움직임에 대한 오차성분을 산출하며(S400), 상기 오차성분은 3차원 위치성분인 Px, Py, Pz 및 3차원 회전성분인 Rx, Ry, Rz 중 적어도 하나를 포함한다.The control means for controlling the vertical articulated robot calculates an error component of the movement of the vertical articulated robot based on the calculated origin and error value of each axis (S400), and the error component is a three-dimensional position. At least one of the components Px, Py, Pz and three-dimensional rotational components Rx, Ry, Rz.

상기 수직 다관절 로봇을 제어하는 제어수단은, 상기와 같이 산출한 오차성분을 상기 원수식의 계산값에 적용하여 보정함으로써, 오차가 보정된 보정수식을 구하며, 상기 단계를 반복 수행한 후, 캘리브레이션이 완료되면 최종 보정된 수식에 의해 수직 다관절 로봇을 제어한다.The control means for controlling the vertical articulated robot obtains a correction equation with the error corrected by applying the error component calculated as described above to the calculated value of the raw equation, and repeats the above steps. When this is completed, the vertical articulated robot is controlled by the final corrected equation.

이하에서, 도 4를 참조하여 감지수단이 TCP(Tool Center Point)를 인식하는 터치센서인 수직 다관절 로봇의 일 예에 대하여 본 발명에 의한 캘리브레이션 방법을 적용하는 방법을 설명하기로 한다. 여기서, 도 4에 나타난 일점쇄선의 관계가 오차가 발생하지 않는 부분이며, 이점쇄선의 관계가 오차가 발생하는 부분이다. 다시 말해, 지그좌표계와 로봇베이스좌표계 간 및 로봇의 최종작동체(End-Effector) 좌표계와 TCP 좌표계 간에 오차가 발생하게 된다.Hereinafter, a method of applying the calibration method according to the present invention will be described with reference to FIG. 4 with respect to an example of a vertical articulated robot that is a touch sensor for detecting a TCP (Tool Center Point). Here, the relationship between the dashed-dotted line shown in FIG. 4 is a portion where no error occurs, and the relationship between the dashed-dotted line is a portion where an error occurs. In other words, an error occurs between the jig coordinate system and the robot base coordinate system, and between the robot's end-operator coordinate system and the TCP coordinate system.

더하여, 도 5를 참조하여 감지수단이 LVS(Laser Vision Senser)인 수직 다관절 로봇의 다른 예에 대하여 본 발명에 의한 캘리브레이션 방법을 적용하는 방법을 설명하기로 한다. 여기서, 도 5에 나타난 일점쇄선의 관계가 오차가 발생하지 않는 부분이며, 이점쇄선의 관계가 오차가 발생하는 부분이다. 다시 말해, 지그좌표계와 로봇베이스좌표계 간 및 로봇의 최종작동체(End-Effector) 좌표계와 LVS 좌표계 간에 오차가 발생하게 된다.In addition, with reference to Figure 5 will be described a method of applying the calibration method according to the present invention with respect to another example of the vertical articulated robot, the sensing means is LVS (Laser Vision Senser). Here, the relationship between the dashed-dotted line shown in FIG. 5 is a portion where no error occurs, and the relationship between the dashed-dotted line is a portion where an error occurs. In other words, an error occurs between the jig coordinate system and the robot base coordinate system and between the robot's end-effector coordinate system and the LVS coordinate system.

우선, 터치센서에 의한 TCP는 공간좌표상에서 한 점으로 정의되기 때문에, TCP는 위치오프셋(Position Offset)만 알면 베이스프레임(Base Frame)에 대한 정확한 좌표값을 구할 수 있다.First, since the TCP by the touch sensor is defined as a point on the spatial coordinates, the TCP can obtain an accurate coordinate value for the base frame only by knowing the position offset.

다시 말해, 공간상에서 좌표를 정의하는 요소인 3차원 위치성분(Px, Py, Pz) 및 3차원 회전성분(Rx, Ry, Rz) 중 3차원 위치성분만 알면, 상기 TCP에 대한 정확한 좌표값을 산출할 수 있다.In other words, if only three-dimensional position components of the three-dimensional position components (Px, Py, Pz) and three-dimensional rotation components (Rx, Ry, Rz) that define the coordinates in space are known, an accurate coordinate value for the TCP is obtained. Can be calculated.

따라서, TCP 종단부에 구성된 터치센서(Touch Sensor)에 의해 교시수단인 지그의 교시점으로 수직 다관절 로봇을 이동시키고, 상기 TCP가 교시점에 접촉하도록 제어하면, 상기 수직 다관절 로봇의 제어수단은 이때의 각 연결부 간의 값(축의 이동 및 회전)을 측정하고, 이때의 정보를 바탕으로 오차성분을 산출한다.Therefore, when the vertical articulated robot is moved to the teaching point of the jig as the teaching means by the touch sensor configured at the TCP terminal, and the TCP is controlled to contact the teaching point, the control means of the vertical articulated robot. Measures the value (movement and rotation of the axis) between each connection at this time, and calculates the error component based on the information at this time.

그리고, LVS는 위치오프셋과 회전오프셋(Orientation Offset)을 모두 알아야 베이스프레임에 대한 정확한 좌표값을 구할 수 있다.In addition, the LVS needs to know both the position offset and the rotation offset to obtain an accurate coordinate value for the base frame.

다시 말해, 공간상에서 좌표를 정의하는 요소인 3차원 위치성분(Px, Py, Pz) 및 3차원 회전성분(Rx, Ry, Rz)을 알아야, 상기 TCP에 대한 정확한 좌표값을 산출할 수 있다.In other words, it is necessary to know the three-dimensional position components (Px, Py, Pz) and the three-dimensional rotation components (Rx, Ry, Rz) that define the coordinates in space, so that accurate coordinate values for the TCP can be calculated.

따라서, LVS에 의해 교시수단인 지그의 교시점으로 수직 다관절 로봇을 이동시키고, 상기 LVS가 교시점에 감지하도록 제어하면, 상기 수직 다관절 로봇의 제어수단은 이때의 각 연결부 간의 값(축의 이동 및 회전)을 측정하고, 이때의 정보를 바탕으로 각 축 별 원점 및 오차성분을 산출한다.Therefore, if the vertical articulated robot is moved to the teaching point of the jig, which is the teaching means by the LVS, and the LVS is controlled to sense the teaching point, the control means of the vertical articulated robot controls the value (movement of the axis) between each connection part at this time. And rotation), and calculate the origin and error components for each axis based on the information.

하기에서, 상기한 방법을 위한 수식의 일 예에 대하여 살펴보기로 한다.In the following, an example of a formula for the above method will be described.

전역좌표계에서 바라본 터치센서 또는 LVS의 측정점에 대한 행렬수식(원수식)의 정의는 수학식 2와 같다.The definition of the matrix equation (raw equation) for the measurement point of the touch sensor or LVS seen in the global coordinate system is shown in Equation 2.

Figure 112007024555787-PAT00012
Figure 112007024555787-PAT00012

여기서, 상기

Figure 112007024555787-PAT00013
은 전역좌표계에서 바라본 측정점에 대한 좌표값이고,
Figure 112007024555787-PAT00014
는 전역좌표계에서 로봇 베이스간의 관계를 나타낸 행렬이며,
Figure 112007024555787-PAT00015
는 로봇 베이스에서 6축 종단까지의 좌표관계를 나타낸 행렬이고,
Figure 112007024555787-PAT00016
는 6축 종단에서 LVS 좌표간의 공간이동관계를 나타낸 행렬이며,
Figure 112007024555787-PAT00017
는 로봇의 제어수단이 알고 있는 LVS 좌표축과 실제 LVS 좌표축 간의 관계를 나타낸 행렬이고,
Figure 112007024555787-PAT00018
는 터치센서 또는 LVS에 의한 측정점을 나타낸 행렬이다. 그리고, WPB는 지그좌표계를 기준으로 로봇베이스좌표계의 위치를 말하며, WRB는 지그좌표계를 기준으로 로봇베이스좌표계의 회전을 말한다.Where
Figure 112007024555787-PAT00013
Is the coordinate value of the measurement point as seen from the global coordinate system,
Figure 112007024555787-PAT00014
Is a matrix representing the relationship between robot bases in the global coordinate system.
Figure 112007024555787-PAT00015
Is a matrix representing the coordinate relationship from the robot base to the end of 6 axes,
Figure 112007024555787-PAT00016
Is a matrix representing the spatial shift between LVS coordinates at the 6-axis end,
Figure 112007024555787-PAT00017
Is a matrix representing the relationship between the LVS coordinate axis known to the control means of the robot and the actual LVS coordinate axis,
Figure 112007024555787-PAT00018
Is a matrix representing measurement points by a touch sensor or LVS. W P B refers to the position of the robot base coordinate system based on the jig coordinate system, and W R B refers to the rotation of the robot base coordinate system based on the jig coordinate system.

상기 수학식 2의 행렬을 계산하면 수학식 3과 같이 표현된다.When the matrix of Equation 2 is calculated, Equation 3 is expressed.

Figure 112007024555787-PAT00019
Figure 112007024555787-PAT00019

한편, 교시점은 다수개를 설정하며, 터치센서 또는 LVS로 감지한 교시점에 대하여 전역좌표계에서 바라본 일련의 점들의 집합(측정값)은 수학식 4와 같이 표현되며, 제어수단이 CAD 데이터 등을 통해 수학적으로 산출한 계산값은 수학식 5와 같이 표현된다.Meanwhile, a plurality of teaching points are set, and a set (measurement value) of a series of points (measured values) viewed in the global coordinate system with respect to the teaching points detected by the touch sensor or LVS is expressed as shown in Equation 4, and the control means includes CAD data The mathematically calculated calculation value is expressed as shown in Equation 5.

Figure 112007024555787-PAT00020
Figure 112007024555787-PAT00020

Figure 112007024555787-PAT00021
Figure 112007024555787-PAT00021

상기 제어수단은 터치센서 또는 LVS로 측정된 다수의 교시점들에 대하여, 수학식 6에 나타난 바와 같이 행렬로 정의된 최소자승법을 통해 오차가 최소가 되도록 오차성분을 산출한다.The control means calculates an error component such that the error is minimized through a least square method defined by a matrix, for a plurality of teaching points measured by a touch sensor or LVS.

Figure 112007024555787-PAT00022
Figure 112007024555787-PAT00022

그리고, 실제값에 대한 오프셋(Offset)인 추정할 변수(오차성분)는 수학식 7과 같다.The variable (error component) to be estimated, which is an offset to an actual value, is represented by Equation 7.

Figure 112007024555787-PAT00023
Figure 112007024555787-PAT00023

즉, 수학식 6에 대하여 최소자승법을 통해 오차가 최소화되는 수학식 7의 성분을 구할 수 있다.That is, the components of Equation 7 in which the error is minimized can be obtained through the least square method with respect to Equation 6.

최종적으로, 상기와 같이 구해진 오차성분은 원수식의 계산값인 수학식 5에 적용함으로써, 수직 다관절 로봇의 캘리브레이션을 위한 보정수식을 구할 수 있다.Finally, the error component obtained as described above is applied to Equation 5, which is a calculated value of the original equation, to obtain a correction equation for calibration of the vertical articulated robot.

따라서, 터치센서에 의하여 캘리브레이션을 수행할 경우, 3차원의 위치성분 에 대한 각 축 별 원점 및 오차성분을 구함으로써, 용접로봇 등의 수직 다관절 로봇의 TCP에 대한 정확한 위치를 알 수 있는 것이다.Therefore, when performing calibration by the touch sensor, by obtaining the origin and error components for each axis of the three-dimensional position component, it is possible to know the exact position of the TCP of the vertical articulated robot such as a welding robot.

또한, LVS에 의하여 캘리브레이션을 수행할 경우, 3차원의 위치성분과 3차원의 회전성분을 구함으로써, 용접로봇 등의 수직 다관절 로봇의 TCP에 대한 정확한 위치를 알 수 있을 뿐만 아니라 각 축 별 원점 및 오차를 산출할 수 있는 것이다.In addition, when performing calibration by LVS, by obtaining 3D position component and 3D rotation component, not only the exact position of TCP of vertical articulated robot such as welding robot can be known, but also the origin of each axis. And the error can be calculated.

이상에서, 본 발명에 의한 수직 다관절 로봇의 캘리브레이션 방법에 대하여 설명하였다. 이러한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.In the above, the calibration method of the vertical articulated robot by this invention was demonstrated. Such a technical configuration of the present invention will be understood by those skilled in the art that the present invention can be implemented in other specific forms without changing the technical spirit or essential features of the present invention.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the above-described embodiments are to be understood in all respects as illustrative and not restrictive, and the scope of the present invention is indicated by the appended claims rather than the foregoing description, and the meanings of the claims and All changes or modifications derived from the scope and the equivalent concept should be construed as being included in the scope of the present invention.

본 발명에 따르면, 터치센서를 이용하여 TCP의 위치를 산출하는 로봇의 경우, 로봇이 인식하고 있는 TCP와 실제 공간상의 TCP의 오차를 산출하고, 산출된 오차성분을 보정한 후 TCP의 위치를 산출함으로써, TCP에 대한 정확한 위치를 알 수 있을 뿐만 아니라, 각 축 별 원점 및 오차를 산출할 수 있다.According to the present invention, in the case of a robot calculating a TCP position using a touch sensor, the robot calculates an error between TCP recognized by the robot and TCP in real space, corrects the calculated error component, and then calculates the TCP position. By doing so, not only the exact position of the TCP can be known, but also the origin and error of each axis can be calculated.

그리고, LVS를 이용하여 로봇이 인식하고 있는 LVS 좌표계와 실제 공간상에 서의 LVS 좌표계 간의 관계를 산출하는 로봇의 경우, 로봇이 인식하고 있는 LVS의 기준점 및 좌표축과 LVS에 의해 촬영된 영상을 처리하여 산출된 기준점 및 좌표축을 비교하여 오차를 산출하고, 산출된 오차성분을 보정한 후 TCP 및 로봇간의 상대적 위치를 산출함으로써, LVS에 대한 TCP의 정확한 위치를 알 수 있는 것이다.In the case of a robot that calculates the relationship between the LVS coordinate system recognized by the robot using the LVS and the LVS coordinate system in real space, the robot processes the reference points and coordinate axes of the LVS recognized by the robot and the images captured by the LVS. By calculating the error by comparing the calculated reference point and the coordinate axis, and correcting the calculated error component and calculating the relative position between the TCP and the robot, it is possible to know the exact position of the TCP relative to the LVS.

따라서, 정확한 로봇의 제어가 가능해짐은 물론, 로봇 제어 시스템 및 이를 이용하여 생산된 제품의 신뢰성을 향상시키는 효과가 있다. Therefore, accurate control of the robot is possible, as well as improving the reliability of the robot control system and the product produced using the same.

Claims (3)

a) 감지수단에 의해 교시수단의 특정 교시점을 감지하는 단계;a) sensing by means of the sensing means a particular point of teaching of the teaching means; b) 해당 교시점의 측정값을 산출하는 단계;b) calculating a measurement of the teaching point; c) 상기 산출한 측정값과 상기 감지수단에 대응하여 설정된 원수식의 계산값을 비교하여 오차값을 계산하는 단계;c) calculating an error value by comparing the calculated measured value with a calculated value of the original equation set corresponding to the sensing means; d) 상기 계산한 오차값에 기초하여 3차원 위치 성분 및 3차원 회전 성분을 포함하는 오차성분을 산출하는 단계; 및d) calculating an error component including a three-dimensional position component and a three-dimensional rotation component based on the calculated error value; And e) 상기 원수식의 계산값에 상기 산출한 오차성분을 적용하여 보정수식을 구하는 단계를 포함하여 이루어진 로봇 캘리브레이션 방법.e) obtaining a correction equation by applying the calculated error component to the calculated value of the raw equation. 제 1항에 있어서,The method of claim 1, 상기 감지수단이 TCP(Tool Center Point) 및 LVS(Laser Vision Sensor)이면,If the detection means are TCP (Tool Center Point) and LVS (Laser Vision Sensor), 상기 TCP로 측정된 교시점의 측정값으로부터 3차원 위치 성분을 산출하고,A three-dimensional position component is calculated from the measured values of the teaching points measured by the TCP, 상기 LVS로 측정된 교시점의 측정값으로부터 3차원 위치 성분 및 3차원 회전 성분을 산출하며,Calculating a three-dimensional position component and a three-dimensional rotation component from the measured values of the teaching points measured by the LVS, 상기 산출된 3차원 위치 성분 및 3차원 회전 성분에 기초하여 각 축 별 원점 및 오차성분을 계산하는 것을 특징으로 하는 로봇 캘리브레이션 방법.The robot calibration method for calculating the origin and error components for each axis based on the calculated three-dimensional position component and three-dimensional rotation component. 제 1항 또는 제 2항에 있어서,The method according to claim 1 or 2, 상기 원수식은,The raw formula is, 전역좌표계에서 로봇베이스간의 관계를 표시한 행렬;A matrix indicating a relationship between robot bases in a global coordinate system; 로봇베이스에서 6축종단까지의 관계를 표시한 행렬;A matrix showing the relationship from the robot base to the end of 6 axes; 6축종단에서 LVS 좌표축간의 공간이동관계를 표시한 행렬;A matrix indicating a spatial movement relationship between LVS coordinate axes at the end of 6 axes; 로봇이 수식적으로 인식한 LVS 좌표축과 실제 LVS 좌표축 간의 관계를 표시한 행렬; 및A matrix showing the relationship between the LVS coordinate axis and the actual LVS coordinate axis recognized by the robot mathematically; And 측정값을 포함한 행렬을 연산하여, 전역좌표계에서의 감지수단에 의해 감지한 교시점의 좌표값을 산출하도록 정의한 것을 특징으로 하는 로봇 캘리브레이션 방법.And calculating a coordinate value of the teaching point detected by the sensing means in the global coordinate system by calculating a matrix including the measured value.
KR1020070030728A 2007-03-29 2007-03-29 Robot calibration method KR20080088165A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070030728A KR20080088165A (en) 2007-03-29 2007-03-29 Robot calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070030728A KR20080088165A (en) 2007-03-29 2007-03-29 Robot calibration method

Publications (1)

Publication Number Publication Date
KR20080088165A true KR20080088165A (en) 2008-10-02

Family

ID=40150488

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070030728A KR20080088165A (en) 2007-03-29 2007-03-29 Robot calibration method

Country Status (1)

Country Link
KR (1) KR20080088165A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100979304B1 (en) * 2009-06-08 2010-08-31 (주)이지로보틱스 A method for calibrating a robot
KR100986669B1 (en) * 2009-06-08 2010-10-08 (주)이지로보틱스 A device and method for calibrating a robot
CN102218738A (en) * 2010-04-15 2011-10-19 株式会社神户制钢所 Robot tool vector exporting method and correcting method
KR20110135666A (en) * 2010-06-11 2011-12-19 대우조선해양 주식회사 Apparatus for calibration between robot and displacement sensor and method for calibration using this
KR101155446B1 (en) * 2010-11-01 2012-06-15 대우조선해양 주식회사 Calibration method between robot and laser vision system using lug
KR101239942B1 (en) * 2010-08-25 2013-03-06 서울대학교산학협력단 Apparatus of measuring position and orientation for calibrating a robot and measurement system having the same
CN105157725A (en) * 2015-07-29 2015-12-16 华南理工大学 Hand-eye calibration method employing two-dimension laser vision sensor and robot
JP2016120567A (en) * 2014-12-25 2016-07-07 株式会社キーエンス Image processing apparatus, image processing system, image processing method, and computer program
CN108527441A (en) * 2018-03-05 2018-09-14 中国计量大学 A kind of device for detecting industrial robot trajectory error
CN110270999A (en) * 2019-06-14 2019-09-24 上海航天设备制造总厂有限公司 A method of measurement plurality of specifications tool TCP
US11110602B2 (en) * 2017-11-06 2021-09-07 Seiko Epson Corporation Robot control device and robot system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100986669B1 (en) * 2009-06-08 2010-10-08 (주)이지로보틱스 A device and method for calibrating a robot
WO2010143838A2 (en) * 2009-06-08 2010-12-16 (주)이지로보틱스 Robot calibration method
WO2010143838A3 (en) * 2009-06-08 2011-03-24 (주)이지로보틱스 Robot calibration method
KR100979304B1 (en) * 2009-06-08 2010-08-31 (주)이지로보틱스 A method for calibrating a robot
CN102218738A (en) * 2010-04-15 2011-10-19 株式会社神户制钢所 Robot tool vector exporting method and correcting method
KR20110135666A (en) * 2010-06-11 2011-12-19 대우조선해양 주식회사 Apparatus for calibration between robot and displacement sensor and method for calibration using this
KR101239942B1 (en) * 2010-08-25 2013-03-06 서울대학교산학협력단 Apparatus of measuring position and orientation for calibrating a robot and measurement system having the same
KR101155446B1 (en) * 2010-11-01 2012-06-15 대우조선해양 주식회사 Calibration method between robot and laser vision system using lug
JP2016120567A (en) * 2014-12-25 2016-07-07 株式会社キーエンス Image processing apparatus, image processing system, image processing method, and computer program
CN105157725A (en) * 2015-07-29 2015-12-16 华南理工大学 Hand-eye calibration method employing two-dimension laser vision sensor and robot
US11110602B2 (en) * 2017-11-06 2021-09-07 Seiko Epson Corporation Robot control device and robot system
CN108527441A (en) * 2018-03-05 2018-09-14 中国计量大学 A kind of device for detecting industrial robot trajectory error
CN108527441B (en) * 2018-03-05 2024-02-13 中国计量大学 Device for detecting track error of industrial robot
CN110270999A (en) * 2019-06-14 2019-09-24 上海航天设备制造总厂有限公司 A method of measurement plurality of specifications tool TCP

Similar Documents

Publication Publication Date Title
KR20080088165A (en) Robot calibration method
JP5321532B2 (en) Robot calibration apparatus and calibration method
US10618166B2 (en) Teaching position correction device and teaching position correction method
JP4267005B2 (en) Measuring apparatus and calibration method
JP3733364B2 (en) Teaching position correction method
US8918210B2 (en) Method of detecting an inter-axis offset of 6-axis robot
JP4171488B2 (en) Offline programming device
JP3665353B2 (en) 3D position correction amount acquisition method of robot teaching position data and robot system
EP1607194B1 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
US20070075048A1 (en) Welding teaching point correction system and calibration method
US20140156072A1 (en) Apparatus and method for measuring tool center point position of robot
US8761936B2 (en) Teaching line correcting apparatus, teaching line correcting method, and program thereof
CN111002304B (en) Device for acquiring position and location of end effector of manipulator
KR100644174B1 (en) Method for compensating in welding robot
KR100301231B1 (en) The automatic compensation method for robot working path
JP2016052699A (en) Robot control system and robot control method
CN112902898B (en) Three-dimensional measuring device and applicable mechanical arm correction method
CN115190831A (en) Robot system
US20230031819A1 (en) Positioning method and positioning device
WO2012176649A1 (en) Method for correcting tool parameter of robot
CN116494254B (en) Industrial robot position correction method and industrial robot
KR100244758B1 (en) Calibration method of vertical multi-joint welding robot
KR100693016B1 (en) Method for calibrating robot
JP7389237B2 (en) Coordinate system setting system and position/orientation measurement system
JPH0731536B2 (en) Teaching data correction robot

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20080724

Effective date: 20100330