KR20080088165A - 로봇 캘리브레이션 방법 - Google Patents

로봇 캘리브레이션 방법 Download PDF

Info

Publication number
KR20080088165A
KR20080088165A KR1020070030728A KR20070030728A KR20080088165A KR 20080088165 A KR20080088165 A KR 20080088165A KR 1020070030728 A KR1020070030728 A KR 1020070030728A KR 20070030728 A KR20070030728 A KR 20070030728A KR 20080088165 A KR20080088165 A KR 20080088165A
Authority
KR
South Korea
Prior art keywords
robot
calculated
lvs
value
error
Prior art date
Application number
KR1020070030728A
Other languages
English (en)
Inventor
최윤서
김병수
정성엽
강민구
Original Assignee
삼성중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성중공업 주식회사 filed Critical 삼성중공업 주식회사
Priority to KR1020070030728A priority Critical patent/KR20080088165A/ko
Publication of KR20080088165A publication Critical patent/KR20080088165A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39214Compensate tracking error by using model, polynomial network

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

본 발명은 레이저 비전 센서(LVS : Laser Vision Sensor)를 지닌 로봇의 캘리브레이션을 수행하는 방법에 관한 것으로, 로봇을 정의하는 파라메터들의 오차가 로봇의 절대위치 오차에 미치는 영향을 표현하는 오차모델을 이용하여, 그 영향을 보정 또는 제거하기 위한 것이다.
다시 말해, 로봇 각 축의 원점을 보정하는 동시에 LVS 원점, TCP(Tool Center Point), 계단형 지그(Jig) 간의 상대적인 위치와 자세를 정의하는 좌표계 및 각 좌표계 간의 오차를 포함하는 관계를 나타내는 단계, 정의된 좌표계를 통해 로봇 캘리브레이션을 위한 각 축의 오차 모델을 정의하는 단계, 터치센서를 이용하여 로봇의 TCP끝이 계단형 지그에 접촉하는 순간을 인식하여 로봇의 각 축 별 모터의 엔코더값 및 로봇 TCP의 위치를 인식하고 저장하여 로봇 베이스, TCP, 지그 간의 좌표관계를 구하는 단계, 로봇의 레이저가 계단형 지그의 모서리를 검출하는 순간에 LVS를 통하여 상기 검출순간을 인식하고 로봇의 각 축 별 모터의 엔코더값 및 로봇 TCP의 위치를 인식하고 저장하여 로봇 베이스, LVS, TCP, 지그 간의 좌표관계를 구하는 단계, 각각의 측정된 좌표계간의 관계를 통해 오차 파라메터들을 구하는 단계, 구해진 파라메터들에 기초하여 로봇의 각 축 별 원점, TCP 및 LVS 좌표계의 원점을 보정하는 단계를 포함하여 로봇의 캘리브레이션을 수행하는 방법에 관한 것이다.
따라서, 정확한 로봇의 제어가 가능해짐은 물론, 로봇 제어 시스템 및 이를 이용하여 생산된 제품의 신뢰성을 향상시키는 로봇 캘리브레이션 방법을 제공할 수 있는 것이다.
6축 로봇, 캘리브레이션, TCP, LVS, 오차성분

Description

로봇 캘리브레이션 방법{Robot calibration method}
도 1은 본 발명에 의한 로봇 캘리브레이션 방법의 일 예를 나타낸 흐름도이다.
도 2는 수직 다관절 로봇의 일 예를 나타낸 구성도이다.
도 3은 공간상에서 좌표를 정의하는 요소를 설명하기 위한 도면이다.
도 4는 본 발명에 의한 캘리브레이션 방법을 적용하기 위한 수직 다관절 로봇의 일 예를 개략적으로 나타낸 도면이다.
도 5는 본 발명에 의한 캘리브레이션 방법을 적용하기 위한 수직 다관절 로봇의 다른 예를 개략적으로 나타낸 도면이다.
<도면의 주요 부분에 대한 부호의 설명>
1 : 6축 로봇 2 : TCP
3 : LVS
{G} : 전역 좌표계 {B} : 로봇 베이스 좌표계
{6} : 다관절 로봇의 종단부 좌표계
{E} : 로봇의 최종작동체(End-Effector) 좌표계
{L} : LVS 좌표계 {T} : TCP 좌표계
{W} : 지그 좌표계 {S} : 쇼크센서 좌표계
본 발명은 레이저 비전 센서(LVS : Laser Vision Sensor)를 지닌 로봇 캘리브레이션 방법에 관한 것으로, 터치센서 및 LVS(Laser Vision Sensor) 등의 감지수단을 이용하여, 캘리브레이션을 위한 교시점을 측정하고, 로봇이 인식하고 있는 각 축 별 원점과 실제 원점에 대한 오차성분을 산출하여 보정하는 동시에, 로봇이 인식하고 있는 TCP 및 LVS 좌표계와 실제 공간상의 TCP 및 LVS 좌표계간의 오차성분을 산출하여 보정한 후, TCP의 공간상 위치 및 LVS 좌표계의 위치와 자세를 산출함으로써, 로봇의 정밀도 및 신뢰도를 향상시킬 수 있는 것이다.
따라서, 정확한 로봇의 제어가 가능해짐은 물론, 로봇 제어 시스템 및 이를 이용하여 생산된 제품의 신뢰성을 향상시키는 효과가 있다.
일반적으로, 용접 로봇 시스템에 있어서, 로봇을 제어하는 작업물에 대한 아크 용접 등을 수행하는 경우, 레이저 비전 센서를 로봇 시스템에 장착하여 용접선을 추종함으로써, 로봇이 정확한 용접 처리를 수행할 수 있도록 제어하고 있다.
보다 상세하게는, 로봇의 툴 끝단(TCP)이 진행하는 방향의 영역에 대하여, 레이저 비전 센서로 측정하여 용접선의 위치를 주기적으로 검출하는 로봇 시스템에 있어서, 로봇의 툴 끝단의 진행방향에 대해 앞쪽으로 설치된 레이저 비전 센서가 앞선 용접선의 위치를 검출하고 검출한 위치를 제어기 내부 메모리에 저장하였다가, TCP가 측정 위치에 도달하면 로봇의 보정량이 저장된 샘플 데이터를 이용하여 상기 로봇의 샘플링 위치 및 자세를 보간하여, 상기 로봇의 기준 좌표계 상의 이동 위치 및 자세를 재계산하며, 상기 재계산된 로봇의 이동 위치 및 자세를 로봇의 각 축이 이동할 자세로 환산하여 로봇에게 전송하고, 이를 로봇 제어기가 반영하여 툴 끝단(TCP)의 위치를 추적하는 방식을 사용한다.
한편, 상기한 바와 같이 레이저 비전 센서를 이용하여 용접선을 추종하는 방식의 로봇은, 로봇의 각 축 별 원점, 로봇 원점과 TCP 간의 관계, TCP와 앞선 용접선 부분을 측정할 수 있는 LVS 간의 관계를 정확히 알아야만, 정확하고 정밀한 작업을 수행할 수 있다.
현재까지 산업 현장에서는 로봇을 대부분 온-라인 프로그램(On-Line Program) 방법으로 사용하고 있다. 즉, 이는 어떤 작업을 실행시키기 이전에 교시조작기(Teach Pendant)를 이용하여 작업 위치를 사전에 교시시킨 다음, 이에 상응하는 로봇의 관절각(Joint Angle)을 계산하여 원하는 작업을 수행시키는 방식이다.
따라서, 온-라인 프로그램 방법에서는 로봇이 본래 가지고 있는 반복오차와 교시 작업할때의 오차만을 포함하므로 통상적으로 만족할만한 위치 정밀도를 갖게 된다.
그러나 공장 자동화, 특히 CAD/CAM 시스템이 도입된 상태에서는 로봇의 작업 위치를 설계 도면 혹은 CAD 시스템으로부터 알 수가 있으므로, 생산라인에서 직접 교시작업을 하지 않고 별도의 스테이지(Stage)에서 교시 작업을 하거나 혹은 컴퓨터상에서 시뮬레이션(Simulation)을 한 다음 이 과정에서 얻어진 로봇 작업 프로그램으로 로봇 시스템을 운영하는 것이 효율적인데, 이와 같은 오프-라인 프로그램 방법으로 사용할 경우 로봇의 위치 정밀도는 온-라인 프로그램 방법에 비교하여 많이 떨어지게 된다.
왜냐하면, 오프-라인 프로그램 방법에서 사용되는 공칭 기구학 방정식(Normal Kinematics Equation)은, 실제 로봇을 제작하는 과정에서 불가피하게 발생하는 기하학적 오차, 로봇의 동작 제어시 동적 오차(Dynamic Error), 백-래쉬(Back-Lash), 로봇 구조물의 처짐, 관절부에서의 컴플라이언스(Compliance) 등으로 인해 로봇의 움직임을 정확히 표현할 수 없기 때문이다.
따라서, 오프-라인 프로그램 방법을 사용하거나 혹은 로봇 자체의 정밀도를 향상시키기 위해서는, 반드시 이를 위한 적절한 로봇 캘리브레이션 기술이 개발되어야 한다. 여기서 로봇 캘리브레이션은 로봇 손끝의 위치, 방위와 조인트(Joint)변수 사이의 정확한 함수 관계를 찾아 로봇 제어 소프트웨어를 수정해줌으로써, 매니플레이터(Manipulator)의 정밀도를 점진적으로 향상시키는 일련의 과정을 의미한다.
본 발명은 상기와 같은 요구에 의해 안출된 것으로, 본 발명의 목적은, 로봇이 인식하고 있는 각 축 별 원점, TCP 및 LVS 좌표계와 실제 공간상에 놓여 있는 축 별 원점 오차, TCP 오차, LVS 좌표오차를 산출하고, 산출된 오차성분을 보정한 후 축 별 원점, TCP 위치, LVS의 위치 및 자세를 산출함으로써, 로봇에 대한 정확성 및 신뢰도를 향상시키기 위한 로봇 캘리브레이션 방법을 제공함에 있다.
한편, LVS(Laser Vision Sensor)를 이용하는 경우, TCP를 직접적으로 측정하 지 못할 뿐만 아니라, LVS의 기준점이 LVS내부의 임의의 위치에 존재하기 때문에, LVS의 기준점 및 좌표축과 TCP의 위치를 정확히 산출하기에 어려움이 있었다.
따라서, 본 발명의 다른 목적은, 로봇이 인식하고 있는 LVS의 기준점 및 좌표축과 LVS에 의해 촬영된 영상을 처리하여 산출된 기준점 및 좌표축을 비교하여 오차를 산출하고, 산출된 오차성분을 보정한 후 TCP와의 LVS 영상 상의 정보 관계를 산출함으로써, LVS를 통해 측정된 엉상정보로부터 TCP에 대한 정확한 상대적 위치를 알 수 있도록 한 로봇 캘리브레이션 방법을 제공함에 있다.
상술한 바와 같은 본 발명의 목적을 달성하기 위한 로봇 캘리브레이션 방법은, a) 감지수단에 의해 교시수단의 특정 교시점을 감지하는 단계; b) 해당 교시점의 측정값을 산출하는 단계; c) 상기 산출한 측정값과 상기 감지수단에 대응하여 설정된 원수식의 계산값을 비교하여 오차값을 계산하는 단계; d) 상기 계산한 오차값에 기초하여 오차성분을 산출하는 단계; 및 e) 상기 원수식의 계산값에 상기 산출한 오차성분을 적용하여 보정수식을 구하는 단계를 포함하여 이루어진 것을 특징으로 한다.
본 발명에 따른 로봇 캘리브레이션 방법에 대한 예는 다양하게 적용할 수 있으며, 이하에서는 첨부된 도면을 참조하여 가장 바람직한 실시 예에 대해 설명하기로 한다.
먼저, 수직 다관절 로봇 중 용접로봇에 대하여 살펴보면 도 2에 나타난 바와 같이, 6축 로봇(1)의 종단부에 용접을 위한 장치가 구성되고, 이 용접장치의 종단 부를 TCP(Tool Center Point)라 하며, 용접장치의 일측으로는 영상인식을 위하여 용접부위를 촬영하는 LVS(Laser Vision Sensor)가 구성되어 있다.
다시 말해, 적어도 하나의 축을 갖는 로봇과 이 로봇이 특정 작업을 하기 위한 작업수단(Tool) 및 작업의 이상여부를 확인하기 위한 감지수단을 갖는 수직 다관절 로봇의 캘리브레이션에 관한 것이다.
이러한 수직 다관절 로봇의 경우, 3차원 공간을 이동하여 특정 작업을 수행하게 되는 바, 3차원 공간상에서 좌표를 정의하는 요소는 도 3에 나타난 바와 같다.
예를 들어, 수직 다관절 로봇의 종단부 또는 용접장치의 종단부가, (A)에서 (B)로 이동하게 되면, (A)에서 설정된 x축, y축, z축의 기준점이 이동하면서 각 축이 회전하여, (B)에서 나타나는 x’축, y’축, z’축으로 이동/회전하게 된다.
다시 말해, 3차원 공간상에서 특정 점에 대한 좌표의 정의는 해당 점의 3차원 위치성분(Px : x축 이동, Py : y축 이동, Pz : z축 이동) 및 3차원 회전성분(Rx : x축 회전, Ry : y축 회전, Rz : z축 회전)의 6개 정보를 갖게 되는 것이다.
본 발명에서는 상기 6개의 정보를 H.M.(Homogeneous Matrix)으로 정의하며, 이는 수학식 1과 같다.
Figure 112007024555787-PAT00001
여기서, 각 성분은
Figure 112007024555787-PAT00002
,
Figure 112007024555787-PAT00003
,
Figure 112007024555787-PAT00004
,
Figure 112007024555787-PAT00005
,
Figure 112007024555787-PAT00006
,
Figure 112007024555787-PAT00007
,
Figure 112007024555787-PAT00008
,
Figure 112007024555787-PAT00009
,
Figure 112007024555787-PAT00010
이고,
Figure 112007024555787-PAT00011
이다.
따라서, 상기한 6개의 정보에 대하여 오차성분을 보정함으로써, 수직 다관절 로봇의 각 축 별 원점 및 오차를 산출할 수 있다.
이를 위한 본 발명의 캘리브레이션 방법은 도 1에 나타난 바와 같다.
교시자는 수직 다관절 로봇의 캘리브레이션을 위하여 제작된 계단형 지그(Jig) 등의 교시수단 상의 특정한 한 점(교시점)을 선택하고, 수직 다관절 로봇의 동작을 제어하여 수직 다관절 로봇의 종단부에 구성된 TS(Touch Sensor) 또는 LVS(Laser Vision Sensor) 등의 감지수단으로 해당 교시점을 감지한다(S100).
이때, 상기 수직 다관절 로봇을 제어하는 제어수단(도시하지 않음)은, 수직 다관절 로봇을 제어하기 위하여 정의된 수식(이하, 원수식이라 함)에 대한 연산을 처리하여 그 계산값을 산출한다. 여기서, 상기 제어수단은 수직 다관절 로봇의 내부에 구성하거나 별도의 장치로 구성할 수 있다.
상기 수직 다관절 로봇을 제어하는 제어수단은, 상기 감지수단에 의해 측정된 교시점의 측정값을 산출하고(S200), 산출된 측정값과 상기 원수식의 계산값을 비교한 후, 각 축 별 원점 및 오차값을 계산한다(S300).
상기 수직 다관절 로봇을 제어하는 제어수단은, 계산한 각 축 별 원점 및 오차값을 기초로 하여, 수직 다관절 로봇의 움직임에 대한 오차성분을 산출하며(S400), 상기 오차성분은 3차원 위치성분인 Px, Py, Pz 및 3차원 회전성분인 Rx, Ry, Rz 중 적어도 하나를 포함한다.
상기 수직 다관절 로봇을 제어하는 제어수단은, 상기와 같이 산출한 오차성분을 상기 원수식의 계산값에 적용하여 보정함으로써, 오차가 보정된 보정수식을 구하며, 상기 단계를 반복 수행한 후, 캘리브레이션이 완료되면 최종 보정된 수식에 의해 수직 다관절 로봇을 제어한다.
이하에서, 도 4를 참조하여 감지수단이 TCP(Tool Center Point)를 인식하는 터치센서인 수직 다관절 로봇의 일 예에 대하여 본 발명에 의한 캘리브레이션 방법을 적용하는 방법을 설명하기로 한다. 여기서, 도 4에 나타난 일점쇄선의 관계가 오차가 발생하지 않는 부분이며, 이점쇄선의 관계가 오차가 발생하는 부분이다. 다시 말해, 지그좌표계와 로봇베이스좌표계 간 및 로봇의 최종작동체(End-Effector) 좌표계와 TCP 좌표계 간에 오차가 발생하게 된다.
더하여, 도 5를 참조하여 감지수단이 LVS(Laser Vision Senser)인 수직 다관절 로봇의 다른 예에 대하여 본 발명에 의한 캘리브레이션 방법을 적용하는 방법을 설명하기로 한다. 여기서, 도 5에 나타난 일점쇄선의 관계가 오차가 발생하지 않는 부분이며, 이점쇄선의 관계가 오차가 발생하는 부분이다. 다시 말해, 지그좌표계와 로봇베이스좌표계 간 및 로봇의 최종작동체(End-Effector) 좌표계와 LVS 좌표계 간에 오차가 발생하게 된다.
우선, 터치센서에 의한 TCP는 공간좌표상에서 한 점으로 정의되기 때문에, TCP는 위치오프셋(Position Offset)만 알면 베이스프레임(Base Frame)에 대한 정확한 좌표값을 구할 수 있다.
다시 말해, 공간상에서 좌표를 정의하는 요소인 3차원 위치성분(Px, Py, Pz) 및 3차원 회전성분(Rx, Ry, Rz) 중 3차원 위치성분만 알면, 상기 TCP에 대한 정확한 좌표값을 산출할 수 있다.
따라서, TCP 종단부에 구성된 터치센서(Touch Sensor)에 의해 교시수단인 지그의 교시점으로 수직 다관절 로봇을 이동시키고, 상기 TCP가 교시점에 접촉하도록 제어하면, 상기 수직 다관절 로봇의 제어수단은 이때의 각 연결부 간의 값(축의 이동 및 회전)을 측정하고, 이때의 정보를 바탕으로 오차성분을 산출한다.
그리고, LVS는 위치오프셋과 회전오프셋(Orientation Offset)을 모두 알아야 베이스프레임에 대한 정확한 좌표값을 구할 수 있다.
다시 말해, 공간상에서 좌표를 정의하는 요소인 3차원 위치성분(Px, Py, Pz) 및 3차원 회전성분(Rx, Ry, Rz)을 알아야, 상기 TCP에 대한 정확한 좌표값을 산출할 수 있다.
따라서, LVS에 의해 교시수단인 지그의 교시점으로 수직 다관절 로봇을 이동시키고, 상기 LVS가 교시점에 감지하도록 제어하면, 상기 수직 다관절 로봇의 제어수단은 이때의 각 연결부 간의 값(축의 이동 및 회전)을 측정하고, 이때의 정보를 바탕으로 각 축 별 원점 및 오차성분을 산출한다.
하기에서, 상기한 방법을 위한 수식의 일 예에 대하여 살펴보기로 한다.
전역좌표계에서 바라본 터치센서 또는 LVS의 측정점에 대한 행렬수식(원수식)의 정의는 수학식 2와 같다.
Figure 112007024555787-PAT00012
여기서, 상기
Figure 112007024555787-PAT00013
은 전역좌표계에서 바라본 측정점에 대한 좌표값이고,
Figure 112007024555787-PAT00014
는 전역좌표계에서 로봇 베이스간의 관계를 나타낸 행렬이며,
Figure 112007024555787-PAT00015
는 로봇 베이스에서 6축 종단까지의 좌표관계를 나타낸 행렬이고,
Figure 112007024555787-PAT00016
는 6축 종단에서 LVS 좌표간의 공간이동관계를 나타낸 행렬이며,
Figure 112007024555787-PAT00017
는 로봇의 제어수단이 알고 있는 LVS 좌표축과 실제 LVS 좌표축 간의 관계를 나타낸 행렬이고,
Figure 112007024555787-PAT00018
는 터치센서 또는 LVS에 의한 측정점을 나타낸 행렬이다. 그리고, WPB는 지그좌표계를 기준으로 로봇베이스좌표계의 위치를 말하며, WRB는 지그좌표계를 기준으로 로봇베이스좌표계의 회전을 말한다.
상기 수학식 2의 행렬을 계산하면 수학식 3과 같이 표현된다.
Figure 112007024555787-PAT00019
한편, 교시점은 다수개를 설정하며, 터치센서 또는 LVS로 감지한 교시점에 대하여 전역좌표계에서 바라본 일련의 점들의 집합(측정값)은 수학식 4와 같이 표현되며, 제어수단이 CAD 데이터 등을 통해 수학적으로 산출한 계산값은 수학식 5와 같이 표현된다.
Figure 112007024555787-PAT00020
Figure 112007024555787-PAT00021
상기 제어수단은 터치센서 또는 LVS로 측정된 다수의 교시점들에 대하여, 수학식 6에 나타난 바와 같이 행렬로 정의된 최소자승법을 통해 오차가 최소가 되도록 오차성분을 산출한다.
Figure 112007024555787-PAT00022
그리고, 실제값에 대한 오프셋(Offset)인 추정할 변수(오차성분)는 수학식 7과 같다.
Figure 112007024555787-PAT00023
즉, 수학식 6에 대하여 최소자승법을 통해 오차가 최소화되는 수학식 7의 성분을 구할 수 있다.
최종적으로, 상기와 같이 구해진 오차성분은 원수식의 계산값인 수학식 5에 적용함으로써, 수직 다관절 로봇의 캘리브레이션을 위한 보정수식을 구할 수 있다.
따라서, 터치센서에 의하여 캘리브레이션을 수행할 경우, 3차원의 위치성분 에 대한 각 축 별 원점 및 오차성분을 구함으로써, 용접로봇 등의 수직 다관절 로봇의 TCP에 대한 정확한 위치를 알 수 있는 것이다.
또한, LVS에 의하여 캘리브레이션을 수행할 경우, 3차원의 위치성분과 3차원의 회전성분을 구함으로써, 용접로봇 등의 수직 다관절 로봇의 TCP에 대한 정확한 위치를 알 수 있을 뿐만 아니라 각 축 별 원점 및 오차를 산출할 수 있는 것이다.
이상에서, 본 발명에 의한 수직 다관절 로봇의 캘리브레이션 방법에 대하여 설명하였다. 이러한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본 발명에 따르면, 터치센서를 이용하여 TCP의 위치를 산출하는 로봇의 경우, 로봇이 인식하고 있는 TCP와 실제 공간상의 TCP의 오차를 산출하고, 산출된 오차성분을 보정한 후 TCP의 위치를 산출함으로써, TCP에 대한 정확한 위치를 알 수 있을 뿐만 아니라, 각 축 별 원점 및 오차를 산출할 수 있다.
그리고, LVS를 이용하여 로봇이 인식하고 있는 LVS 좌표계와 실제 공간상에 서의 LVS 좌표계 간의 관계를 산출하는 로봇의 경우, 로봇이 인식하고 있는 LVS의 기준점 및 좌표축과 LVS에 의해 촬영된 영상을 처리하여 산출된 기준점 및 좌표축을 비교하여 오차를 산출하고, 산출된 오차성분을 보정한 후 TCP 및 로봇간의 상대적 위치를 산출함으로써, LVS에 대한 TCP의 정확한 위치를 알 수 있는 것이다.
따라서, 정확한 로봇의 제어가 가능해짐은 물론, 로봇 제어 시스템 및 이를 이용하여 생산된 제품의 신뢰성을 향상시키는 효과가 있다.

Claims (3)

  1. a) 감지수단에 의해 교시수단의 특정 교시점을 감지하는 단계;
    b) 해당 교시점의 측정값을 산출하는 단계;
    c) 상기 산출한 측정값과 상기 감지수단에 대응하여 설정된 원수식의 계산값을 비교하여 오차값을 계산하는 단계;
    d) 상기 계산한 오차값에 기초하여 3차원 위치 성분 및 3차원 회전 성분을 포함하는 오차성분을 산출하는 단계; 및
    e) 상기 원수식의 계산값에 상기 산출한 오차성분을 적용하여 보정수식을 구하는 단계를 포함하여 이루어진 로봇 캘리브레이션 방법.
  2. 제 1항에 있어서,
    상기 감지수단이 TCP(Tool Center Point) 및 LVS(Laser Vision Sensor)이면,
    상기 TCP로 측정된 교시점의 측정값으로부터 3차원 위치 성분을 산출하고,
    상기 LVS로 측정된 교시점의 측정값으로부터 3차원 위치 성분 및 3차원 회전 성분을 산출하며,
    상기 산출된 3차원 위치 성분 및 3차원 회전 성분에 기초하여 각 축 별 원점 및 오차성분을 계산하는 것을 특징으로 하는 로봇 캘리브레이션 방법.
  3. 제 1항 또는 제 2항에 있어서,
    상기 원수식은,
    전역좌표계에서 로봇베이스간의 관계를 표시한 행렬;
    로봇베이스에서 6축종단까지의 관계를 표시한 행렬;
    6축종단에서 LVS 좌표축간의 공간이동관계를 표시한 행렬;
    로봇이 수식적으로 인식한 LVS 좌표축과 실제 LVS 좌표축 간의 관계를 표시한 행렬; 및
    측정값을 포함한 행렬을 연산하여, 전역좌표계에서의 감지수단에 의해 감지한 교시점의 좌표값을 산출하도록 정의한 것을 특징으로 하는 로봇 캘리브레이션 방법.
KR1020070030728A 2007-03-29 2007-03-29 로봇 캘리브레이션 방법 KR20080088165A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070030728A KR20080088165A (ko) 2007-03-29 2007-03-29 로봇 캘리브레이션 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070030728A KR20080088165A (ko) 2007-03-29 2007-03-29 로봇 캘리브레이션 방법

Publications (1)

Publication Number Publication Date
KR20080088165A true KR20080088165A (ko) 2008-10-02

Family

ID=40150488

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070030728A KR20080088165A (ko) 2007-03-29 2007-03-29 로봇 캘리브레이션 방법

Country Status (1)

Country Link
KR (1) KR20080088165A (ko)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100979304B1 (ko) * 2009-06-08 2010-08-31 (주)이지로보틱스 로봇 캘리브레이션 방법
KR100986669B1 (ko) * 2009-06-08 2010-10-08 (주)이지로보틱스 로봇 캘리브레이션 장치 및 그 방법
CN102218738A (zh) * 2010-04-15 2011-10-19 株式会社神户制钢所 机器人的工具向量的导出方法及校正方法
KR20110135666A (ko) * 2010-06-11 2011-12-19 대우조선해양 주식회사 로봇과 변위센서 간 캘리브레이션 장치 및 이를 이용한 캘리브레이션 방법
KR101155446B1 (ko) * 2010-11-01 2012-06-15 대우조선해양 주식회사 러그를 이용한 로봇과 레이저 비전 시스템 간의 캘리브레이션 방법
KR101239942B1 (ko) * 2010-08-25 2013-03-06 서울대학교산학협력단 로봇의 캘리브레이션을 위한 위치 및 자세 측정 장치 및 이를 구비한 측정 시스템
CN105157725A (zh) * 2015-07-29 2015-12-16 华南理工大学 一种二维激光视觉传感器和机器人的手眼标定方法
JP2016120567A (ja) * 2014-12-25 2016-07-07 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
CN108527441A (zh) * 2018-03-05 2018-09-14 中国计量大学 一种用于检测工业机器人轨迹误差的装置
CN110270999A (zh) * 2019-06-14 2019-09-24 上海航天设备制造总厂有限公司 一种测量多种规格工具tcp的方法
US11110602B2 (en) * 2017-11-06 2021-09-07 Seiko Epson Corporation Robot control device and robot system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100986669B1 (ko) * 2009-06-08 2010-10-08 (주)이지로보틱스 로봇 캘리브레이션 장치 및 그 방법
WO2010143838A2 (ko) * 2009-06-08 2010-12-16 (주)이지로보틱스 로봇 캘리브레이션 방법
WO2010143838A3 (ko) * 2009-06-08 2011-03-24 (주)이지로보틱스 로봇 캘리브레이션 방법
KR100979304B1 (ko) * 2009-06-08 2010-08-31 (주)이지로보틱스 로봇 캘리브레이션 방법
CN102218738A (zh) * 2010-04-15 2011-10-19 株式会社神户制钢所 机器人的工具向量的导出方法及校正方法
KR20110135666A (ko) * 2010-06-11 2011-12-19 대우조선해양 주식회사 로봇과 변위센서 간 캘리브레이션 장치 및 이를 이용한 캘리브레이션 방법
KR101239942B1 (ko) * 2010-08-25 2013-03-06 서울대학교산학협력단 로봇의 캘리브레이션을 위한 위치 및 자세 측정 장치 및 이를 구비한 측정 시스템
KR101155446B1 (ko) * 2010-11-01 2012-06-15 대우조선해양 주식회사 러그를 이용한 로봇과 레이저 비전 시스템 간의 캘리브레이션 방법
JP2016120567A (ja) * 2014-12-25 2016-07-07 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
CN105157725A (zh) * 2015-07-29 2015-12-16 华南理工大学 一种二维激光视觉传感器和机器人的手眼标定方法
US11110602B2 (en) * 2017-11-06 2021-09-07 Seiko Epson Corporation Robot control device and robot system
CN108527441A (zh) * 2018-03-05 2018-09-14 中国计量大学 一种用于检测工业机器人轨迹误差的装置
CN108527441B (zh) * 2018-03-05 2024-02-13 中国计量大学 一种用于检测工业机器人轨迹误差的装置
CN110270999A (zh) * 2019-06-14 2019-09-24 上海航天设备制造总厂有限公司 一种测量多种规格工具tcp的方法

Similar Documents

Publication Publication Date Title
KR20080088165A (ko) 로봇 캘리브레이션 방법
JP5321532B2 (ja) ロボットキャリブレーション装置及びキャリブレーション方法
US10618166B2 (en) Teaching position correction device and teaching position correction method
JP4267005B2 (ja) 計測装置及びキャリブレーション方法
JP3733364B2 (ja) 教示位置修正方法
US8918210B2 (en) Method of detecting an inter-axis offset of 6-axis robot
JP4171488B2 (ja) オフラインプログラミング装置
JP3665353B2 (ja) ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム
EP1607194B1 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
US20070075048A1 (en) Welding teaching point correction system and calibration method
US20140156072A1 (en) Apparatus and method for measuring tool center point position of robot
US8761936B2 (en) Teaching line correcting apparatus, teaching line correcting method, and program thereof
CN111002304B (zh) 用于获取机械手的末端执行器的位置和定位的装置
KR100644174B1 (ko) 로봇 용접의 보정방법
KR100301231B1 (ko) 로봇의작업경로자동보정방법
JP2016052699A (ja) ロボット制御システムおよびロボット制御方法
CN112902898B (zh) 三维测量装置及所适用的机械手臂的校正方法
CN115190831A (zh) 机器人***
US20230031819A1 (en) Positioning method and positioning device
WO2012176649A1 (ja) ロボットのツールパラメータの補正方法
CN116494254B (zh) 工业机器人位置校正方法和工业机器人
KR100244758B1 (ko) 수직 다관절 용접 로봇의 캘리브레이션 방법 및 그 장치
KR100693016B1 (ko) 비전시스템을 이용한 로봇의 캘리브레이션 방법
JP7389237B2 (ja) 座標系設定システム及び位置姿勢計測システム
JPH0731536B2 (ja) 教示デ−タ補正ロボツト

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20080724

Effective date: 20100330