KR101220877B1 - Error compensation method of robot tcp - Google Patents

Error compensation method of robot tcp Download PDF

Info

Publication number
KR101220877B1
KR101220877B1 KR20100110134A KR20100110134A KR101220877B1 KR 101220877 B1 KR101220877 B1 KR 101220877B1 KR 20100110134 A KR20100110134 A KR 20100110134A KR 20100110134 A KR20100110134 A KR 20100110134A KR 101220877 B1 KR101220877 B1 KR 101220877B1
Authority
KR
South Korea
Prior art keywords
robot
error
laser vision
tool
coordinate system
Prior art date
Application number
KR20100110134A
Other languages
Korean (ko)
Other versions
KR20120048779A (en
Inventor
김재형
김병만
민지호
Original Assignee
대우조선해양 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대우조선해양 주식회사 filed Critical 대우조선해양 주식회사
Priority to KR20100110134A priority Critical patent/KR101220877B1/en
Publication of KR20120048779A publication Critical patent/KR20120048779A/en
Application granted granted Critical
Publication of KR101220877B1 publication Critical patent/KR101220877B1/en

Links

Images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Plasma & Fusion (AREA)
  • Robotics (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)

Abstract

본 발명은 로봇 TCP 오차 보상 방법에 관한 것으로서, 로봇 툴과 로봇 툴의 측면에 장착되는 레이저 비전 시스템을 구비한 로봇에서 로봇 TCP 오차에 의해 발생하는 로봇 툴 끝단의 오차를 보상하는 방법으로서, 로봇을 용접 대상물인 러그를 따라 이동시키면서 각 위치에 대한 로봇과 레이저 비전 시스템 간의 캘리브레이션을 수행하여 위치별 캘리브레이션 데이터를 생성 저장하는 단계와; 로봇 이동에 따른 로봇 TCP 오차에 의한 로봇 툴 끝단의 좌표가 변화하여 오차 발생시, 로봇 위치에 가장 근접한 위치에서 생성되어 저장된 캘리브레이션 데이터를 이용하여 로봇 툴 끝단에서 발생하는 오차를 보상하는 단계를 포함하여 이루어진 것을 특징으로 한다. 본 발명에 따르면, 로봇 위치에 따라 미리 생성한 로봇과 레이저 비전 시스템 간의 캘리브레이션 데이터 중에서 최적의 데이터를 사용함으로써 로봇 TCP 오차에 의해 발생하는 로봇 툴 끝 단의 오차를 정확히 보상할 수 있는 이점이 있다. The present invention relates to a method for compensating a robot TCP error, and a method for compensating for an error of a robot tool tip caused by a robot TCP error in a robot having a robot tool and a laser vision system mounted on a side of the robot tool. Generating and storing calibration data for each location by performing calibration between the robot and the laser vision system for each location while moving along the lug that is a welding target; Compensating the error occurring at the end of the robot tool by using the calibration data generated and stored at the position closest to the robot position when the error occurs by changing the coordinates of the end of the robot tool due to the robot TCP error due to the movement of the robot It is characterized by. According to the present invention, by using the optimal data among the calibration data between the robot and the laser vision system generated in advance according to the robot position, there is an advantage that can accurately compensate the error of the end of the robot tool caused by the robot TCP error.

Description

로봇 TCP 오차 보상 방법{ERROR COMPENSATION METHOD OF ROBOT TCP}ERROR COMPENSATION METHOD OF ROBOT TCP}

본 발명은 로봇 오차 보상에 관한 것으로서, 특히 오버헤드 러그 자동 용접 로봇의 기구적 특성상 발생하는 로봇 TCP 오차를 보상하는 방법에 관한 것이다. The present invention relates to robot error compensation, and more particularly, to a method for compensating for robot TCP errors caused by mechanical characteristics of an overhead lug automatic welding robot.

일반적으로, 용접용 로봇에는 레이저 비전 시스템(LVS:Laser Vision System)이 로봇 툴에 고정되어 사용된다. 그런데, 로봇과 레이저 비전 시스템 간의 위치 관계는 상당 부분 일정하게 유지되지만, 용접 봉의 소모, 충격이나 열로 인한 장착 위치의 변형 등으로 인한 미세한 변화가 필연적으로 존재하게 된다. 따라서, 보다 정밀한 용접을 위해서는 빈번하게 캘리브레이션을 수행하여야만 한다. 캘리브레이션은 로봇의 기준 좌표계와 레이저 비전 시스템의 기준 좌표계 간의 병진(Translation)과 회전(Rotation)을 찾아내는 것인데, 레이저 비전 시스템을 사용하기 위해서는 반드시 선행되어야 한다. In general, a laser vision system (LVS: Laser Vision System) is fixedly used in a robot tool for welding robots. However, although the positional relationship between the robot and the laser vision system remains largely constant, minute changes due to the consumption of the welding rod, the deformation of the mounting position due to the impact or the heat, etc. are inevitably present. Therefore, calibration must be performed frequently for more precise welding. Calibration is to find the translation and rotation between the reference coordinate system of the robot and the reference coordinate system of the laser vision system, which must be preceded in order to use the laser vision system.

도 1은 로봇의 로봇 툴과 로봇 툴의 측면에 장착되는 레이저 비전 시스템 간의 캘리브레이션을 설명하기 위한 개념도이다. 로봇(10)의 로봇 툴(11)의 측면에 브래킷(12)이 개재되어 장착되는 레이저 비전 시스템(20)은 측정된 영상을 분석하고 특이점을 추출하여, 특이점의 3차원 위치를 로봇(10)에 전달하여 준다. 이 때 특이점의 위치 정보(x, y, z)는 레이저 비전 시스템(20)에 고정된 TLVS좌표계를 기준으로 측정(LVSP)되게 되는데, 측정된 위치 정보를 이용하기 위해서는 좌표 변환을 통해 로봇(10)이 사용하는 좌표계 기준으로 변환(BaseP)시켜 주어야 한다. 로봇(10)은 기준 좌표계인 TBase에 대한 TTCP의 위치 관계(BaseTTCP)를 알고 있으므로, 사용자는 TTCP와 TLVS간 위치 관계(TCPTLVS)를 계측 장비나 계측 알고리즘을 이용하여 미리 측정해 두어야 한다. TCPTLVS를 계산하는 과정을 로봇(10)-레이저 비전 시스템(20)간의 캘리브레이션이라고 한다. 즉, 두 좌표계간의 위치 관계를 표현하기 위해서는 좌표계의 원점 간의 거리(x, y, z)와 좌표축간 회전 각도(Roll, Pitch, Yaw)의 총 6개의 정보를 구하는 과정을 캘리브레이션이라고 한다. 이러한 과정은 다음의 수학식 1과 같이 나타낼 수 있다. 1 is a conceptual diagram illustrating a calibration between a robot tool of a robot and a laser vision system mounted on a side of the robot tool. The laser vision system 20 mounted with the bracket 12 interposed on the side of the robot tool 11 of the robot 10 analyzes the measured image and extracts the singularity, thereby determining the three-dimensional position of the singularity by the robot 10. Pass it on. At this time, the position information (x, y, z) of the singular point is measured ( LVS P) based on the T LVS coordinate system fixed to the laser vision system 20. In order to use the measured position information, the robot is transformed through coordinate transformation. It should be converted into base P based on the coordinate system used in (10). Robot 10 knows the position relation (Base T TCP) of the T TCP relative to the reference coordinate system of T Base, users using the T TCP and T LVS to-position relationship (TCP T LVS) measurement equipment and measurement algorithm It should be measured in advance. The process of calculating the TCP T LVS is called calibration between the robot 10 and the laser vision system 20. That is, in order to express the positional relationship between the two coordinate systems, a process of obtaining six pieces of information of the distance (x, y, z) between the origin of the coordinate system and the rotation angles (Roll, Pitch, Yaw) between the coordinate axes is called calibration. This process can be expressed as Equation 1 below.

Figure 112010072524803-pat00001
Figure 112010072524803-pat00001

(여기에서 BaseTTCP는 로봇의 기준 좌표계와 로봇 툴 좌표계간의 동차변환 행렬, TCPTLVS는 로봇 툴 좌표계와 레이저 비전 시스템 좌표계 간의 동차변환 행렬, LVSp는 레이저 비전 좌표계에서 본 측정점의 위치, Basep는 로봇 기준 좌표계에서 본 측정점의 위치를 나타낸다.)(Where Base T TCP is the homogeneous transformation matrix between the robot's reference coordinate system and the robot tool coordinate system, TCP T LVS is the homogeneous transformation matrix between the robot tool coordinate system and the laser vision system coordinate system, LVS p is the position of the measurement point as seen from the laser vision coordinate system, Base p indicates the position of the measurement point in the robot reference coordinate system.)

한편, 종래 오버헤드 러그 자동 용접 장비와 같이 높이 및 좌우 위치 변화가 가능한 대차에 로봇을 장착하여 용접을 자동으로 수행하는 경우에는 측정 및 용접 작업을 위해 로봇 이동시, 로봇 위치 조정을 위해 장착한 모터 및 기어에 충격이 가해져 로봇 TCP(TOOL CENTER POINT) 오차가 발생하여 오차를 보상할 수 없는 문제점이 있다. On the other hand, when the welding is performed automatically by mounting the robot on the bogie that can change the height and left and right positions, such as the conventional overhead lug automatic welding equipment, when the robot moves for measurement and welding work, the motor mounted for adjusting the robot position and The shock is applied to the gears, and a robot TCP (TOOL Center Point) error occurs, so that the error cannot be compensated for.

이에 본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 오버헤드 러그 자동 용접 로봇의 특성 때문에 발생하는 로봇 TCP 오차를 보상할 수 있도록 된 로봇 TCP 오차 보상 방법을 제공하는데 그 목적이 있다. Accordingly, an object of the present invention is to provide a robot TCP error compensation method capable of compensating for the robot TCP error generated due to the characteristics of an overhead lug automatic welding robot.

상기와 같은 목적을 달성하기 위하여 본 발명의 제1 실시 형태에 따른 로봇 TCP 오차 보상 방법은, 로봇 툴과 로봇 툴의 측면에 장착되는 레이저 비전 시스템을 구비한 로봇에서 로봇 TCP 오차에 의해 발생하는 로봇 툴 끝단의 오차를 보상하는 방법으로서, 로봇을 용접 대상물인 러그를 따라 이동시키면서 각 위치에 대한 로봇과 레이저 비전 시스템 간의 캘리브레이션을 수행하여 위치별 캘리브레이션 데이터를 생성 저장하는 단계와; 로봇 이동에 따른 로봇 TCP 오차에 의한 로봇 툴 끝단의 좌표가 변화하여 오차 발생시, 로봇 위치에 가장 근접한 위치에서 생성되어 저장된 캘리브레이션 데이터를 이용하여 로봇 툴 끝단에서 발생하는 오차를 보상하는 단계를 포함하여 이루어지고, 상기 위치별 캘리브레이션 데이터를 생성 저장하는 단계에서 러그 경계 위치에 대해 아래의 수학식에 의해 각 위치에 대한 로봇과 레이저 비전 시스템 간의 캘리브레이션을 수행하는 것을 특징으로 한다. In order to achieve the above object, the robot TCP error compensation method according to the first embodiment of the present invention is a robot generated by a robot TCP error in a robot having a robot tool and a laser vision system mounted on the side of the robot tool. A method for compensating for an error in a tool tip, the method comprising: performing calibration between a robot and a laser vision system for each location while moving the robot along a lug, which is a welding target, to generate and store location-specific calibration data; Compensating the error occurring at the end of the robot tool by using the calibration data generated and stored at the position closest to the robot position when the error occurs by changing the coordinates of the end of the robot tool due to the robot TCP error due to the movement of the robot In the step of generating and storing the calibration data for each position, calibration between the robot and the laser vision system for each position is performed according to the following equation for the lug boundary position.

삭제delete

Figure 112010072524803-pat00002
Figure 112010072524803-pat00002

(여기에서,

Figure 112010072524803-pat00003
는 로봇의 기준 좌표계와 로봇 툴 좌표계 간의 동차변환 행렬,
Figure 112010072524803-pat00004
는 n번째 로봇 위치에 대한 로봇 툴 좌표계와 레이저 비전 시스템 좌표계 간의 동차변환 행렬,
Figure 112010072524803-pat00005
는 레이저 비전 좌표계를 기준으로 한 n번째 점의 위치,
Figure 112010072524803-pat00006
는 로봇 기준 좌표계를 기준으로 한 n번째 점의 위치)(From here,
Figure 112010072524803-pat00003
Is a homogeneous transformation matrix between the robot reference coordinate system and the robot tool coordinate system,
Figure 112010072524803-pat00004
Is a homogeneous transformation matrix between the robot tool coordinate system and the laser vision system coordinate system for the nth robot position,
Figure 112010072524803-pat00005
Is the position of the nth point relative to the laser vision coordinate system,
Figure 112010072524803-pat00006
Is the position of the nth point relative to the robot reference coordinate system)

한편, 상기와 같은 목적을 달성하기 위하여 본 발명의 제2 실시 형태에 따른 로봇 TCP 오차 보상 방법은, 로봇 툴과 로봇 툴의 측면에 장착되는 레이저 비전 시스템을 구비한 로봇에서 로봇 TCP 오차에 의해 발생하는 로봇 툴 끝단의 오차를 보상하는 방법으로서, 로봇을 용접 대상물인 러그를 따라 이동시키면서 각 위치에 대한 로봇과 레이저 비전 시스템 간의 캘리브레이션을 수행하여 위치별 캘리브레이션 데이터를 생성 저장하는 단계와; 로봇 이동에 따른 로봇 TCP 오차에 의한 로봇 툴 끝단의 좌표가 변화하여 오차 발생시, 로봇 위치에 가장 근접한 위치에서 생성되어 저장된 캘리브레이션 데이터를 이용하여 로봇 툴 끝단에서 발생하는 오차를 보상하는 단계를 포함하여 이루어지고, 상기 오차를 보상하는 단계에서 레이저 비전 시스템을 이용하여 러그의 형상 측정시 러그의 특이점을 측정하고, 측정된 특이점을 아래의 수학식에 대입하여 로봇 툴 좌표로 변환한 후 로봇에 알려줌으로써 로봇 툴 끝단의 좌표 변화를 보상하여 위치 정보를 측정하는 것을 특징으로 한다. On the other hand, in order to achieve the above object, the robot TCP error compensation method according to the second embodiment of the present invention is generated by a robot TCP error in a robot having a robot tool and a laser vision system mounted on the side of the robot tool. A method for compensating for an error at an end of a robot tool, the method comprising: performing calibration between a robot and a laser vision system for each location while moving the robot along a lug, which is a welding target, to generate and store location-specific calibration data; Compensating the error occurring at the end of the robot tool by using the calibration data generated and stored at the position closest to the robot position when the error occurs by changing the coordinates of the end of the robot tool due to the robot TCP error due to the movement of the robot In the step of compensating for the error, measuring the singularity of the lug when measuring the shape of the lug using a laser vision system, converting the measured singularity into the coordinates of the robot tool by informing the following equation, and then notifying the robot The position information is measured by compensating for the change in the coordinates of the tool tip.

삭제delete

Figure 112010072524803-pat00007
Figure 112010072524803-pat00007

(여기에서,

Figure 112010072524803-pat00008
는 로봇의 기준 좌표계와 로봇 툴 좌표계 간의 동차변환 행렬,
Figure 112010072524803-pat00009
는 n번째 로봇 위치에 대한 로봇 툴 좌표계와 레이저 비전 시스템 좌표계 간의 동차변환 행렬,
Figure 112010072524803-pat00010
는 레이저 비전 시스템 좌표계를 기준으로 측정한 점의 위치,
Figure 112010072524803-pat00011
는 레이저 비전 시스템에서 측정한 위치를 로봇 기준 좌표계를 기준으로 변환한 점의 위치)(From here,
Figure 112010072524803-pat00008
Is a homogeneous transformation matrix between the robot reference coordinate system and the robot tool coordinate system,
Figure 112010072524803-pat00009
Is a homogeneous transformation matrix between the robot tool coordinate system and the laser vision system coordinate system for the nth robot position,
Figure 112010072524803-pat00010
Is the position of the point measured relative to the laser vision system coordinate system,
Figure 112010072524803-pat00011
Is the position of the point converted by the laser vision system from the robot reference coordinate system.)

본 발명에 따르면, 로봇 위치에 따라 미리 생성한 로봇과 레이저 비전 시스템 간의 캘리브레이션 데이터 중에서 최적의 데이터를 사용함으로써 로봇 TCP 오차에 의해 발생하는 로봇 툴 끝 단의 오차를 정확히 보상할 수 있는 이점이 있다. According to the present invention, by using the optimal data among the calibration data between the robot and the laser vision system generated in advance according to the robot position, there is an advantage that can accurately compensate the error of the end of the robot tool caused by the robot TCP error.

도 1은 로봇의 로봇 툴과 로봇 툴의 측면에 장착되는 레이저 비전 시스템 간의 캘리브레이션을 설명하기 위한 개념도.
도 2는 본 발명에 따라 로봇 TCP 오차에 의해 발생하는 로봇 툴 끝단의 오차를 보상하는 방법을 설명하는 흐름도.
도 3은 본 발명에 적용되는 오버헤드 러그의 단면도.
도 4는 본 발명에 따라 로봇에 장착되는 터치 센서를 이용하여 동일한 위치 정보를 측정하는 개념도.
도 5는 본 발명에 따라 레이저 비전 시스템을 이용하여 동일한 위치 정보를 측정하는 개념도.
도 6은 본 발명에 따른 복수 캘리브레이션 위치를 보여주는 도면.
도 7은 본 발명에 따른 복수 캘리브레이션 데이터를 이용한 레이저 비전 시스템의 측정 방법을 보여주는 도면.
1 is a conceptual diagram for explaining the calibration between the robot robot tool of the robot and the laser vision system mounted on the side of the robot tool.
2 is a flow chart illustrating a method of compensating for errors in the robot tool tip caused by robot TCP errors in accordance with the present invention.
3 is a cross-sectional view of an overhead lug applied to the present invention.
4 is a conceptual diagram for measuring the same position information by using a touch sensor mounted on the robot in accordance with the present invention.
5 is a conceptual diagram for measuring the same position information using a laser vision system in accordance with the present invention.
Figure 6 shows a plurality of calibration positions in accordance with the present invention.
7 is a view showing a measuring method of a laser vision system using a plurality of calibration data according to the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명에 따라 로봇 TCP 오차에 의해 발생하는 로봇 툴 끝단의 오차를 보상하는 방법을 설명하는 흐름도, 도 3은 본 발명에 적용되는 오버헤드 러그의 단면도, 도 4는 본 발명에 따라 로봇에 장착되는 터치 센서를 이용하여 동일한 위치 정보를 측정하는 개념도, 도 5는 본 발명에 따라 레이저 비전 시스템을 이용하여 동일한 위치 정보를 측정하는 개념도, 도 6은 본 발명에 따라 복수 캘리브레이션 위치를 보여주는 도면, 도 7은 본 발명에 따라 복수 캘리브레이션 데이터를 이용한 레이저 비전 시스템의 측정 방법을 보여주는 도면이다. Figure 2 is a flow chart illustrating a method for compensating for errors in the robot tool tip caused by the robot TCP error in accordance with the present invention, Figure 3 is a cross-sectional view of the overhead lug applied to the present invention, Figure 4 is a robot in accordance with the present invention 5 is a conceptual diagram of measuring the same position information by using a touch sensor mounted on the same, FIG. 5 is a conceptual diagram of measuring the same position information by using a laser vision system according to the present invention, and FIG. 6 is a diagram illustrating a plurality of calibration positions according to the present invention. 7 is a view showing a measuring method of a laser vision system using a plurality of calibration data according to the present invention.

본 발명의 로봇 TCP 오차 보상 방법은, 높이 및 좌우 위치 변화가 가능한 대차에 로봇을 장착하여 오버헤드 러그 용접을 자동 수행하면서 발생하는 로봇 툴 끝단의 오차를 보상하는 방법이다. The robot TCP error compensating method of the present invention is a method for compensating for an error in the tip of a robot tool generated while automatically performing an overhead lug welding by mounting a robot on a bogie capable of changing height and left and right positions.

구체적으로는, 도 2에 도시한 바와 같이, 먼저 로봇을 용접 대상물인 오버헤드 러그를 따라 이동시키면서 각 위치에 대한 로봇과 레이저 비전 시스템 간의 캘리브레이션을 오프라인으로 수행하여 위치별 캘리브레이션 데이터를 생성 저장한다(S110). 즉, 로봇을 오버헤드 러그를 따라 이동시키면서 여러 위치에 대한 로봇과 레이저 비전 시스템 간의 캘리브레이션 데이터를 미리 생성하여 저장하는 것이다. 이 때, 상기 위치는 도 6에 도시한 바와 같이 러그의 여러 모서리 위치(1~10)일 수 있다. Specifically, as shown in FIG. 2, first, the robot is moved along an overhead lug, which is a welding target, to perform offline calibration between the robot and the laser vision system for each position to generate and store calibration data for each position ( S110). That is, while moving the robot along the overhead lug, calibration data between the robot and the laser vision system for various positions is generated in advance and stored. At this time, the position may be various corner positions 1 to 10 of the lug as shown in FIG.

그리고, 바람직하게는 오버헤드 러그 경계 위치에 대해 아래의 수학식 2에 의해 각 위치에 대한 로봇과 레이저 비전 시스템 간의 캘리브레이션을 수행할 수 있다. And, preferably, the calibration between the robot and the laser vision system for each position may be performed by the following equation 2 for the overhead lug boundary position.

Figure 112010072524803-pat00012
Figure 112010072524803-pat00012

(여기에서,

Figure 112010072524803-pat00013
는 로봇의 기준 좌표계와 로봇 툴 좌표계 간의 동차변환 행렬,
Figure 112010072524803-pat00014
는 n번째 로봇 위치에 대한 로봇 툴 좌표계와 레이저 비전 시스템 좌표계 간의 동차변환 행렬,
Figure 112010072524803-pat00015
는 레이저 비전 좌표계를 기준으로 한 n번째 점의 위치,
Figure 112010072524803-pat00016
는 로봇 기준 좌표계를 기준으로 한 n번째 점의 위치)(From here,
Figure 112010072524803-pat00013
Is a homogeneous transformation matrix between the robot reference coordinate system and the robot tool coordinate system,
Figure 112010072524803-pat00014
Is a homogeneous transformation matrix between the robot tool coordinate system and the laser vision system coordinate system for the nth robot position,
Figure 112010072524803-pat00015
Is the position of the nth point relative to the laser vision coordinate system,
Figure 112010072524803-pat00016
Is the position of the nth point relative to the robot reference coordinate system)

도 4의 경우, 터치 센서(101)로 3점 측정하여 오버헤드 러그 경계 특징점을 측정하는 개념을 보여준다. In the case of FIG. 4, the concept of measuring an overhead lug boundary feature point by measuring three points with the touch sensor 101 is illustrated.

그리고, 상기 오차를 보상하는 단계에서 레이저 비전 시스템을 이용하여 오버헤드 러그의 형상을 측정할 때에는 오버헤드 러그의 특이점을 측정하고, 측정된 특이점을 아래의 수학식 3에 대입하여 로봇 툴 좌표로 변환한 후 로봇에 알려줌으로써 로봇 툴 끝단의 좌표 변화를 보상하여 위치 정보를 측정할 수가 있다. In the step of compensating for the error, when measuring the shape of the overhead lug using a laser vision system, the singularity of the overhead lug is measured, and the measured singularity is converted into robot tool coordinates by substituting Equation 3 below. Then, by notifying the robot, the position information can be measured by compensating for the coordinate change of the tip of the robot tool.

Figure 112010072524803-pat00017
Figure 112010072524803-pat00017

(여기에서,

Figure 112010072524803-pat00018
는 로봇의 기준 좌표계와 로봇 툴 좌표계 간의 동차변환 행렬,
Figure 112010072524803-pat00019
는 n번째 로봇 위치에 대한 로봇 툴 좌표계와 레이저 비전 시스템 좌표계 간의 동차변환 행렬,
Figure 112010072524803-pat00020
는 레이저 비전 시스템 좌표계를 기준으로 측정한 점의 위치,
Figure 112010072524803-pat00021
는 레이저 비전 시스템에서 측정한 위치를 로봇 기준 좌표계를 기준으로 변환한 점의 위치)(From here,
Figure 112010072524803-pat00018
Is a homogeneous transformation matrix between the robot reference coordinate system and the robot tool coordinate system,
Figure 112010072524803-pat00019
Is a homogeneous transformation matrix between the robot tool coordinate system and the laser vision system coordinate system for the nth robot position,
Figure 112010072524803-pat00020
Is the position of the point measured relative to the laser vision system coordinate system,
Figure 112010072524803-pat00021
Is the position of the point converted by the laser vision system from the robot reference coordinate system.)

한편, 로봇 이동에 따른 로봇 TCP 오차에 의한 로봇 툴 끝단의 좌표가 변화하여 오차가 발생하게 되면, 오차가 발생된 로봇 위치에 가장 근접한 위치에서 생성되어 저장된 캘리브레이션 데이터(

Figure 112010072524803-pat00022
)를 이용하여 로봇 툴 끝단에서 발생하는 오차를 보상한다(S120). 즉, 미리 생성하여 저장된 최적의 캘리브레이션 데이터를 이용하여 발생된 오차를 보상하는 것이다. 이에 따라, 로봇 툴 끝단에 발생하는 오차를 정확하게 보상할 수가 있다. On the other hand, when the coordinates of the end of the robot tool due to the robot TCP error due to the movement of the robot is changed to generate an error, the calibration data (generated and stored at the position closest to the robot position where the error occurred)
Figure 112010072524803-pat00022
Compensate for the error occurring at the end of the robot tool using the (S120). That is, the error generated by using the optimal calibration data generated and stored in advance is compensated for. Thereby, the error which arises at the tip of a robot tool can be compensated correctly.

이와 같이, 본 발명에 따르면, 러그 위치에 대한 로봇과 레이저 비전 시스템 간의 캘리브레이션 데이터를 미리 생성하여 저장한 후, 로봇의 기구적 특성으로 인하여 로봇 툴 끝 단의 오차가 발생하게 되면, 현재의 로봇 위치에 대응하는 최적의 캘리브레이션 데이터를 사용하여 오차를 정확히 보상할 수가 있게 된다. As described above, according to the present invention, after generating and storing calibration data between the robot and the laser vision system for the lug position in advance, if an error occurs at the end of the robot tool due to the mechanical characteristics of the robot, the current robot position By using optimal calibration data corresponding to the error, the error can be compensated accurately.

한편, 본 발명에 따른 로봇 TCP 오차 보상 방법을 한정된 실시예에 따라 설명하였지만, 본 발명의 범위는 특정 실시예에 한정되는 것은 아니며, 본 발명과 관련하여 통상의 지식을 가진자에게 자명한 범위내에서 여러 가지의 대안, 수정 및 변경하여 실시할 수 있다. On the other hand, the robot TCP error compensation method according to the present invention has been described according to a limited embodiment, the scope of the present invention is not limited to a specific embodiment, within the scope obvious to those skilled in the art with respect to the present invention Many alternatives, modifications and changes can be made.

따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical spirit of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by the embodiments and the accompanying drawings. . The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

101 : 터치 센서
102 : 레이저 비전 시스템
L : 러그
101: touch sensor
102: Laser Vision System
L: Rug

Claims (4)

삭제delete 로봇 툴과 로봇 툴의 측면에 장착되는 레이저 비전 시스템을 구비한 로봇에서 로봇 TCP 오차에 의해 발생하는 로봇 툴 끝단의 오차를 보상하는 방법으로서,
로봇을 용접 대상물인 러그를 따라 이동시키면서 각 위치에 대한 로봇과 레이저 비전 시스템 간의 캘리브레이션을 수행하여 위치별 캘리브레이션 데이터를 생성 저장하는 단계와;
로봇 이동에 따른 로봇 TCP 오차에 의한 로봇 툴 끝단의 좌표가 변화하여 오차 발생시, 로봇 위치에 가장 근접한 위치에서 생성되어 저장된 캘리브레이션 데이터를 이용하여 로봇 툴 끝단에서 발생하는 오차를 보상하는 단계를 포함하여 이루어지고,
상기 위치별 캘리브레이션 데이터를 생성 저장하는 단계에서 러그 경계 위치에 대해 아래의 수학식에 의해 각 위치에 대한 로봇과 레이저 비전 시스템 간의 캘리브레이션을 수행하는 것을 특징으로 하는 로봇 TCP 오차 보상 방법.
Figure 112012063094436-pat00023

(여기에서,
Figure 112012063094436-pat00024
는 로봇의 기준 좌표계와 로봇 툴 좌표계 간의 동차변환 행렬,
Figure 112012063094436-pat00025
는 n번째 로봇 위치에 대한 로봇 툴 좌표계와 레이저 비전 시스템 좌표계 간의 동차변환 행렬,
Figure 112012063094436-pat00026
는 레이저 비전 좌표계를 기준으로 한 n번째 점의 위치,
Figure 112012063094436-pat00027
는 로봇 기준 좌표계를 기준으로 한 n번째 점의 위치)
A method for compensating for errors in the robot tool tip caused by a robot TCP error in a robot having a robot tool and a laser vision system mounted on the side of the robot tool,
Generating and storing calibration data for each location by performing calibration between the robot and the laser vision system for each location while moving the robot along the lug that is a welding target;
Compensating the error occurring at the end of the robot tool by using the calibration data generated and stored at the position closest to the robot position when the error occurs by changing the coordinates of the end of the robot tool due to the robot TCP error due to the movement of the robot under,
In the step of generating and storing the calibration data for each position, the robot TCP error compensation method, characterized in that for performing calibration between the robot and the laser vision system for each position by the following equation for the lug boundary position.
Figure 112012063094436-pat00023

(From here,
Figure 112012063094436-pat00024
Is a homogeneous transformation matrix between the robot reference coordinate system and the robot tool coordinate system,
Figure 112012063094436-pat00025
Is a homogeneous transformation matrix between the robot tool coordinate system and the laser vision system coordinate system for the nth robot position,
Figure 112012063094436-pat00026
Is the position of the nth point relative to the laser vision coordinate system,
Figure 112012063094436-pat00027
Is the position of the nth point relative to the robot reference coordinate system)
삭제delete 로봇 툴과 로봇 툴의 측면에 장착되는 레이저 비전 시스템을 구비한 로봇에서 로봇 TCP 오차에 의해 발생하는 로봇 툴 끝단의 오차를 보상하는 방법으로서,
로봇을 용접 대상물인 러그를 따라 이동시키면서 각 위치에 대한 로봇과 레이저 비전 시스템 간의 캘리브레이션을 수행하여 위치별 캘리브레이션 데이터를 생성 저장하는 단계와;
로봇 이동에 따른 로봇 TCP 오차에 의한 로봇 툴 끝단의 좌표가 변화하여 오차 발생시, 로봇 위치에 가장 근접한 위치에서 생성되어 저장된 캘리브레이션 데이터를 이용하여 로봇 툴 끝단에서 발생하는 오차를 보상하는 단계를 포함하여 이루어지고,
상기 오차를 보상하는 단계에서 레이저 비전 시스템을 이용하여 러그의 형상 측정시 러그의 특이점을 측정하고, 측정된 특이점을 아래의 수학식에 대입하여 로봇 툴 좌표로 변환한 후 로봇에 알려줌으로써 로봇 툴 끝단의 좌표 변화를 보상하여 위치 정보를 측정하는 것을 특징으로 하는 로봇 TCP 오차 보상 방법.
Figure 112012063094436-pat00028

(여기에서,
Figure 112012063094436-pat00029
는 로봇의 기준 좌표계와 로봇 툴 좌표계 간의 동차변환 행렬,
Figure 112012063094436-pat00030
는 n번째 로봇 위치에 대한 로봇 툴 좌표계와 레이저 비전 시스템 좌표계 간의 동차변환 행렬,
Figure 112012063094436-pat00031
는 레이저 비전 시스템 좌표계를 기준으로 측정한 점의 위치,
Figure 112012063094436-pat00032
는 레이저 비전 시스템에서 측정한 위치를 로봇 기준 좌표계를 기준으로 변환한 점의 위치)
A method for compensating for errors in the robot tool tip caused by a robot TCP error in a robot having a robot tool and a laser vision system mounted on the side of the robot tool,
Generating and storing calibration data for each location by performing calibration between the robot and the laser vision system for each location while moving the robot along the lug that is a welding target;
Compensating the error occurring at the end of the robot tool by using the calibration data generated and stored at the position closest to the robot position when the error occurs by changing the coordinates of the end of the robot tool due to the robot TCP error due to the movement of the robot under,
In the step of compensating for the error, measuring the singularity of the lug when measuring the shape of the lug using a laser vision system, converting the measured singularity into the coordinates of the robot tool by informing the following equation and informing the robot to the robot end Compensating the coordinate change of the robot TCP error compensation method, characterized in that for measuring the position information.
Figure 112012063094436-pat00028

(From here,
Figure 112012063094436-pat00029
Is a homogeneous transformation matrix between the robot reference coordinate system and the robot tool coordinate system,
Figure 112012063094436-pat00030
Is a homogeneous transformation matrix between the robot tool coordinate system and the laser vision system coordinate system for the nth robot position,
Figure 112012063094436-pat00031
Is the position of the point measured relative to the laser vision system coordinate system,
Figure 112012063094436-pat00032
Is the position of the point converted by the laser vision system from the robot reference coordinate system.)
KR20100110134A 2010-11-08 2010-11-08 Error compensation method of robot tcp KR101220877B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20100110134A KR101220877B1 (en) 2010-11-08 2010-11-08 Error compensation method of robot tcp

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20100110134A KR101220877B1 (en) 2010-11-08 2010-11-08 Error compensation method of robot tcp

Publications (2)

Publication Number Publication Date
KR20120048779A KR20120048779A (en) 2012-05-16
KR101220877B1 true KR101220877B1 (en) 2013-01-11

Family

ID=46266884

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20100110134A KR101220877B1 (en) 2010-11-08 2010-11-08 Error compensation method of robot tcp

Country Status (1)

Country Link
KR (1) KR101220877B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230106288A (en) * 2022-01-06 2023-07-13 한국기술교육대학교 산학협력단 Method for compensating robot control error of welding robot system using ai-based 3d vision module

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115200475B (en) * 2022-07-14 2024-06-07 河南埃尔森智能科技有限公司 Rapid correction method for arm-mounted multi-vision sensor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060012385A (en) * 2004-08-03 2006-02-08 현대중공업 주식회사 The control system of a robot which track continual seams for welding and control method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060012385A (en) * 2004-08-03 2006-02-08 현대중공업 주식회사 The control system of a robot which track continual seams for welding and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230106288A (en) * 2022-01-06 2023-07-13 한국기술교육대학교 산학협력단 Method for compensating robot control error of welding robot system using ai-based 3d vision module
KR102584700B1 (en) * 2022-01-06 2023-10-05 한국기술교육대학교 산학협력단 Method for compensating robot control error of welding robot system using ai-based 3d vision module

Also Published As

Publication number Publication date
KR20120048779A (en) 2012-05-16

Similar Documents

Publication Publication Date Title
EP2703775B1 (en) Shape measuring machine and method of correcting shape measurement error
CN108151660B (en) A kind of aircraft components butt-joint clearance and the measurement equipment of scale, method and system
TWI424164B (en) Differential calibration
JP4171488B2 (en) Offline programming device
CN110108208B (en) Error compensation method of five-axis non-contact measuring machine
US20160236418A1 (en) Error pattern compensation
US20150045953A1 (en) Robot system, robot control apparatus, method for controlling robot
US9205525B2 (en) System and method for offsetting measurement of machine tool
CN108351203B (en) Method for providing accurate coordinate measurement, independent reference module and coordinate measuring machine
EP1818647B1 (en) Form measuring instrument, form measuring method and form measuring program
CN110103229B (en) Gravity compensation method and system for tool arranged at tail end of robot
JP6466661B2 (en) Robot teaching point conversion method, apparatus, and robot cell
CN109227551B (en) Hand-eye coordinate conversion method for visual positioning robot
CN105682831A (en) Method and system for checking positioning accuracy of a cnc machine
US8924176B2 (en) Industrial machine
KR101797122B1 (en) Method for Measurement And Compensation of Error on Portable 3D Coordinate Measurement Machine
JP5526375B2 (en) 3D measurement system and 3D measurement method
JP2012035399A (en) Correction matrix derivation device, error correction device, and machine tool
KR101220877B1 (en) Error compensation method of robot tcp
CN111546330B (en) Automatic calibration method for coordinate system of chemical part
CN105444707A (en) Method for compensating lobing behaviour of a CMM touch probe
CN113781558B (en) Robot vision locating method with decoupling gesture and position
JP2011224672A (en) Deriving method and calibration method for tool vector of robot
JP5505155B2 (en) Robot system and robot control method
CN102749094B (en) System and method for extra large gear at-position posture adjustment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151229

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170103

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180104

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190104

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200102

Year of fee payment: 8