KR100773271B1 - 단일 카메라를 이용한 이동 로봇의 위치 측정 방법 - Google Patents

단일 카메라를 이용한 이동 로봇의 위치 측정 방법 Download PDF

Info

Publication number
KR100773271B1
KR100773271B1 KR1020060104193A KR20060104193A KR100773271B1 KR 100773271 B1 KR100773271 B1 KR 100773271B1 KR 1020060104193 A KR1020060104193 A KR 1020060104193A KR 20060104193 A KR20060104193 A KR 20060104193A KR 100773271 B1 KR100773271 B1 KR 100773271B1
Authority
KR
South Korea
Prior art keywords
robot
coordinate system
mobile robot
vector
camera
Prior art date
Application number
KR1020060104193A
Other languages
English (en)
Inventor
박창우
이종배
전세웅
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020060104193A priority Critical patent/KR100773271B1/ko
Application granted granted Critical
Publication of KR100773271B1 publication Critical patent/KR100773271B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/04Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type by rotating at least one arm, excluding the head movement itself, e.g. cylindrical coordinate type or polar coordinate type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 단일 카메라를 이용한 이동 로봇의 위치 측정 방법에 관한 것으로서, 단일 카메라를 통해 위치 C1 및 위치 C2에서 랜드 마크(Land Mark)를 촬상하여 위치 C2의 로봇 좌표계에서 랜드 마크의 좌표를 추출하고, 위치 C3로 이동하여 촬상한 랜드 마크의 특징점과 위치 C2에서 취득한 랜드 마크의 특징점 중 서로 매칭되는 특징점 쌍을 추출한 후, 위치 C2의 매칭되는 특징점에 대하여 미리 설정된 로봇의 이동 거리 및 각도 변화량을 적용하였을 때 위치 C3에서의 이동 로봇의 영상 평면에 투영될 가상 좌표를 추출하며, 추출한 가상 좌표와 실제 위치 C3에서 취득한 랜드 마크의 특징점 중 매칭되는 특징점이 영상 평면에 투영되는 좌표들 간의 유클리디안 거리(Euclidean Distance) 값들의 합을 구한 후, 이를 이용하여 위치 C2에서 위치 C3까지의 로봇의 이동 거리 및 각도 변화량을 보정함으로써, 고가의 공간센서(Range Sensor) 없이 단일 카메라를 이용하여 현재 이동 로봇의 위치를 검출할 수 있는 발명이 개시된다.
이동 로봇, 랜드 마크, 유클리디안 거리, 좌표, 카메라

Description

단일 카메라를 이용한 이동 로봇의 위치 측정 방법 { Method for Localization of mobile robot with a single camera }
도 1은 본 발명에 의한 이동 로봇의 각종 좌표계를 설명하기 위한 도면.
도 2는 이동 로봇이 서로 다른 두 위치(C1, C2)에서 랜드 마크를 바라보았을 때의 좌표계 및 벡터들을 정의한 도면.
도 3은 위치 C1의 로봇 좌표계 및 위치 C2의 로봇 좌표계가 글로벌 좌표계의 X축과 이루는 각도인 θ1 및 θ 2를 나타낸 도면.
도 4는 서로 다른 두 위치(C1, C2)에서 공간상의 점 P가 카메라의 영상 평면으로 투영되어 표시되는 좌표를 나타낸 도면.
도 5a는 위치 C1에서 공간상의 점 P가 카메라의 영상 평면에 투영된 좌표를 나타낸 도면.
도 5b는 위치 C2에서 공간상의 점 P가 카메라의 영상 평면에 투영된 좌표를 나타낸 도면.
도 6은 이동 로봇 카메라의 한 픽셀의 크기를 나타낸 도면.
도 7은 위치 C1의 로봇 좌표계의 원점으로부터 공간상의 점 P를 향하는 벡터 P1 및 위치 C2의 로봇 좌표계의 원점으로부터 공간상의 점 P를 향하는 벡터 P2를 나타낸 도면.
도 8은 이동 로봇이 위치 C2에서 위치 C3로 이동하였을 때, 이동 거리(M) 및 각도 변화량(θ)을 나타낸 도면.
도 9는 위치 C2의 로봇 좌표계에서 랜드 마크의 좌표값을 나타낸 도면.
도 10은 본 발명의 단일 카메라를 이용한 이동 로봇의 위치 측정 방법의 실시예를 나타낸 순서도.
본 발명은 단일 카메라를 이용한 이동 로봇의 위치 측정(Localization) 방법에 관한 것이다.
이동 로봇은 고정된 위치가 아닌 공간을 스스로 움직이면서 주어진 작업을 수행하는데, 제품 생산에 필요한 부품이나 작업 도구 등을 필요한 위치로 옮기며, 옮긴 부품 등을 조립하여 제품을 생산하는 작업 등을 수행한다.
근래에는 산업 분야뿐만 아니라 가정에서의 이동 로봇의 활용 예가 많이 발표되고 있으며, 이 경우 이동 로봇은 가정에서 청소를 하거나 물건을 옮기는 작업을 수행한다.
가정에서의 이동 로봇의 활용 예로 대표적인 것이 청소 로봇인데, 청소 로봇 과 같은 지능형 이동 로봇의 경우, 로봇의 자기 포즈인식은 이동 로봇의 효율적인 이동을 위한 필수적 기능이다.
여기서, 로봇의 자기 포즈(Pose)는 이동 로봇의 위치 측정(Localization) 및 회전 정도(Rotation)를 포함한다.
가정에서 바닥면을 따라 이동하면서 청소하는 청소용 지능형 이동 로봇의 경우, 이러한 자신의 위치 및 회전 정도를 정확히 인식하는 것이 무엇보다 중요하다.
이동 로봇이 특정한 목표 지점을 찾아가거나, 소정의 공간 내를 이동하면서 자신이 이동한 위치를 인식하고 소정의 작업을 수행하기 위해서는 여러 가지 기능을 갖추어야 하는데, 그러한 기능으로는 장애물 피하기, 특정 지표나 자신의 현재 포즈 인식 및 경로 계획(Path Planning) 등이 있다.
이와 같이, 고정된 위치가 아닌 공간을 스스로 움직이면서 주어진 작업을 수행하는 이동 로봇에 대한 네비게이션(Navigation) 연구가 최근 다양하게 이루어지고 있다.
이동 로봇의 포즈를 인식하기 위해서는 이동 로봇이 추출한 랜드 마크(Land Mark)의 3차원 좌표를 추출하여야 하는데, 종래에는 랜드 마크의 3차원 좌표를 추출하기 위해 음향 탐지 장치(Sonar), 레이저(Laser) 및 스테레오 카메라(Stereo Camera)와 같은 공간센서를 사용하였다.
특히, 카메라 기반의 이동 로봇의 포즈 인식은 주로 스테레오 카메라를 사용하여 랜드 마크의 3차원 좌표를 추출하는데, 이 경우 고가의 공간 센서(Range Sensor)를 필요로 한다는 단점이 있다.
그리고, 종래에는 이동 로봇의 휠(Wheel)의 변위를 측정하기 위한 주행 기록 데이터(Odometry Data)를 센서 데이터(Sensor Data)와 동시에 사용하여 이동 로봇의 위치를 추정하는 알고리즘이 사용되었다.
이 경우, 주행 기록 데이터(Odometry Data)를 센서 데이터(Sensor Data)와 함께 사용하기 때문에, 인코더(Encoder)와 같은 부품 및 이를 위한 신호 처리 알고리즘이 부가적으로 필요하다는 문제점이 있었다.
따라서, 본 발명의 목적은 단일 카메라를 이용하여 일정 위치의 로봇 좌표계에서 랜드 마크의 좌표를 추출하고, 추출한 랜드 마크의 데이터를 이용하여 상기 위치에서 일정 이동 거리 및 회전 각도를 가지고 이동한 경우의 이동 로봇의 실제 이동 거리 및 각도 변화량을 보정 함으로써, 이동 로봇의 위치를 측정하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법을 제공하는 데 있다.
본 발명의 단일 카메라를 이용한 이동 로봇의 위치 측정 방법의 바람직한 실시예는, 위치 C1에서 공간상의 랜드 마크(Land Mark)를 촬상하여 얻은 데이터와 위치 C2로 이동한 후 상기 랜드 마크를 촬상하여 얻은 데이터를 이용하여 상기 위치 C2의 로봇 좌표계에서 상기 랜드 마크의 좌표를 추출하는 제10단계와, 위치 C3로 이동하여 상기 랜드 마크를 촬상한 후, 이동 로봇의 주행 기록 데이터(Odometry Data)를 이용하여 상기 위치 C2에서 위치 C3까지의 로봇의 이동 거리 및 각도 변화 량을 계산하는 제20단계와, 상기 위치 C2에서 취득한 랜드 마크의 특징점과 상기 위치 C3에서 취득한 랜드 마크의 특징점을 비교하여 서로 매칭되는 특징점 쌍을 추출하는 제30단계와, 상기 위치 C2에서 취득한 랜드 마크의 특징점 중 상기 매칭되는 특징점에 대하여, 미리 설정된 로봇의 이동 거리 및 각도 변화량을 적용하였을 때 위치 C3에서의 이동 로봇의 영상 평면에 투영될 가상 좌표를 추출하는 제40단계와, 상기 추출한 가상 좌표와 상기 위치 C3에서 취득한 랜드 마크의 특징점 중 상기 매칭되는 특징점이 이동 로봇의 영상 평면에 투영되는 좌표들 간의 유클리디안 거리(Euclidean Distance) 값들의 합을 구한 후, 상기 위치 C2에서 위치 C3까지의 로봇의 이동 거리 및 각도 변화량을 보정하는 제50단계를 포함하여 이루어지는 것을 특징으로 한다.
여기서, 상기 위치 C2의 로봇 좌표계에서 상기 랜드 마크의 좌표를 추출하는 제10단계는, 상기 위치 C1에서 공간상의 랜드 마크를 촬상한 후, 로봇 좌표계가 글로벌 좌표계의 X축과 이루는 각도(θ1) 및 로봇 좌표계의 원점에서 공간상의 랜드 마크가 카메라의 영상 평면에 투영된 지점을 향하는 벡터(P1c)를 구하는 제11단계와, 위치 C2로 이동하여 상기 랜드 마크를 촬상한 후, 로봇 좌표계가 글로벌 좌표계의 X축과 이루는 각도(θ2) 및 로봇 좌표계의 원점에서 공간상의 랜드 마크가 카메 라의 영상 평면에 투영된 지점을 향하는 벡터(P2c)를 구하는 제13단계와, 상기 위치 C1에서의 로봇 좌표계를 상기 위치 C2에서의 로봇 좌표계로 변환하는 회전 매트릭스(R) 및 상기 위치 C2의 로봇 좌표계의 원점에서 상기 위치 C1의 로봇 좌표계의 원점을 향하는 벡터(Tc)를 구하는 제15단계와, 상기 제11 단계 내지 제15 단계에서 구한 벡터(P1c), 벡터(P2c), 회전 매트릭스(R) 및 벡터(Tc)를 이용하여 위치 C2의 로봇 좌표계의 원점에서 상기 공간상의 랜드 마크를 향하는 벡터(P2)를 구하고, 상기 벡터(P2)를 이용하여 위치 C2의 로봇 좌표계에서 상기 랜드 마크의 좌표를 추출하는 제17단계를 포함하여 이루어지는 것을 특징으로 한다.
이하, 도 1 내지 도 10을 참조하여 본 발명의 단일 카메라를 이용한 이동 로봇의 위치 측정(Localization) 방법에 대해 상세히 설명한다. 본 발명을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
도 1은 본 발명에 의한 이동 로봇의 각종 좌표계를 설명하기 위한 도면이다.
이에 도시된 바와 같이, 본 발명에서는 글로벌 좌표계, 로봇 좌표계, 영상 좌표계 등 3가지 좌표계를 사용한다.
여기서, 글로벌 좌표계는 기 설정된 원점을 기준으로 하는 절대 좌표계를 말하며, 상기 글로벌 좌표계는 (XG, YG, ZG)로 표시한다.
로봇 좌표계는 이동 로봇(100)의 소정 부분을 원점으로 하는 이동 로봇(100) 자신의 좌표계로써, 이동 로봇(100)의 주행에 따라 글로벌 좌표계와 로봇 좌표계의 대응 관계가 변하게 된다. 상기 로봇 좌표계는 (XR, YR, ZR)로 표시한다.
영상 좌표계는 이동 로봇의 카메라(110)가 생성한 이미지에서의 소정 위치를 원점으로 설정한 좌표계로써, 기본적으로 2차원 좌표로 표현된다. 즉, 영상 좌표계는 카메라(110)의 영상 평면에 포함되고 서로 수직인 두 개의 선에 의해 이루어진다. 상기 영상 좌표계는 (U,V)로 표시한다.
본 발명에서는 이동 로봇(100)이 글로벌 좌표계(XG, YG, ZG)의 원점에서 출발하여 임의의 위치(C1)에서 단일 카메라(110)를 통해 취득한 영상에서 랜드 마크(P)를 추출하고, 다시 이동하여 임의의 위치(C2)에서 단일 카메라(110)를 통해 취득한 영상에서 랜드 마크(P)를 추출한다.
그리고, 이동 로봇(100)의 주행 기록 데이터(Odometry Data)를 이용하여 상기 이동 로봇(100)의 위치 좌표와 이동 로봇(100)의 포즈 변화량을 계산하고, 이들을 이용하여 이동 로봇(100)이 현재 위치(C2)에서 취득한 랜드 마크의 공간상의 3차원 좌표를 계산한다.
여기서, 이동 로봇(100)은 자신의 위치 즉, 로봇 좌표계의 원점이 글로벌 좌표계상 어디에 위치하고, 로봇 좌표계상의 일 축이 글로벌 좌표계상의 일 축에서 얼마만큼 회전되어 있는지를 판단함으로써 자신의 포즈를 인식한다.
또한, 이동 로봇이 이동 명령(전진 명령 및 회전 명령)을 하달받아 이동을 수행한 후 취득한 영상에서 추출한 랜드 마크의 특징점과 그 이전 영상에서 추출한 랜드 마크의 특징점 사이에 서로 매칭되는 특징점 쌍들에 대하여, 각 이동 거리 및 각도 변화량을 적용하였을 때 이동 후 로봇 위치(C3)에서 영상 평면에 투영될 지점의 영상 좌표들의 집합을 구한다.
그리고, 상기 영상 좌표들의 집합과 상기 이동 후 로봇 위치(C3)에서 취득한 랜드 마크의 특징점들 간의 유클리디안 거리(Euclidean Distance) 값들의 합을 구한 후, 가장 작은 유클리디안 거리 값을 가지는 이동 거리 및 각도 변화량에 대해 현재 로봇 위치(C3)의 이동 거리 및 각도 변화량으로 간주하고 이에 따라 현재 로봇 위치(C3)의 공간상의 좌표와 방향(Heading) 각도를 보정한다.
도 2는 이동 로봇이 서로 다른 두 위치(C1, C2)에서 랜드 마크를 바라보았을 때의 좌표계 및 벡터들을 정의한 도면이다.
이에 도시된 바와 같이, 이동 로봇의 이전 위치를 C1, 이동 로봇의 현재 위치를 C2라 하고, 이동 로봇의 카메라가 공간상의 점 P를 바라보고 있다고 하였을 때, 글로벌 좌표계를 (XG, YG, ZG)로 표시하고, C1에서의 로봇 좌표계(이전 로봇 좌표계)를 (XR1, YR1, ZR1)로 표시하며, C2에서의 로봇 좌표계(현재 로봇 좌표계)를 (XR2, YR2, ZR2)로 표시한다.
상기 글로벌 좌표계의 원점에서 이전 로봇 좌표계의 원점을 향하는 벡터를 T1, 현재 로봇 좌표계의 원점에서 이전 로봇 좌표계의 원점을 향하는 벡터를 Tc, 이전 로봇 좌표계의 원점에서 공간상의 점 P를 향하는 벡터를 P1, 현재 로봇 좌표계의 원점에서 공간상의 점 P를 향하는 벡터를 P2라 정의한다.
그리고, 이전 로봇 좌표계 및 현재 로봇 좌표계가 글로벌 좌표계의 X축과 이루는 각도를 θ1 과 θ 2 라고 정의하면, 상기 θ1 및 θ 2 는 도 3과 같이 나타낼 수 있다.
한편, 상기 글로벌 좌표계(XG, YG, ZG)를 이전 로봇 좌표계(XR1, YR1, ZR1)로 변환하는 회전 매트릭스(Rotation Matrix)를 R1이라 할 때, R1은 수학식 1과 같이 나타낼 수 있다.
Figure 112006077447616-pat00001
그리고, 글로벌 좌표계(XG, YG, ZG)를 위치 C2의 로봇 좌표계(XR2, YR2, ZR2)로 변환하는 회전 매트릭스(Rotation Matrix)를 R2라 할 때, R2는 수학식 2와 같이 나타낼 수 있다.
Figure 112006077447616-pat00002
여기서, 위치 C1의 로봇 좌표계(XR1, YR1, ZR1)를 위치 C2의 로봇 좌표계(XR2, YR2, ZR2)로 변환하는 회전 매트릭스 R은 수학식 3으로 구할 수 있다.
Figure 112006077447616-pat00003
그리고, 상기 위치 C1의 로봇 좌표계를 위치 C2의 로봇 좌표계로 변환하는 회전 매트릭스 R은 수학식 1 및 수학식 2을 이용하면 수학식 4로 나타낼 수 있다.
Figure 112006077447616-pat00004
한편, 이동 로봇의 이전 위치인 C1에서의 공간 좌표를 C1 = (a1, b1, c1)이라 하고, 이동 로봇의 현재 위치인 C2에서의 공간 좌표를 C2 = (a2, b2, c2)라 하면, 상기 글로벌 좌표계의 원점에서 위치 C1의 로봇 좌표계의 원점을 향하는 벡터 T1은 수학식 5로 나타낼 수 있다.
Figure 112006077447616-pat00005
그리고, 위치 C2의 로봇 좌표계의 원점에서 위치 C1의 로봇 좌표계의 원점을 향하는 벡터를 Tc는 수학식 6으로 나타낼 수 있다.
Figure 112006077447616-pat00006
또한, 위치 C2의 로봇 좌표계의 원점에서 위치 C1의 로봇 좌표계의 원점을 향하는 벡터를 Tc는 수학식 7로도 나타낼 수 있다.
Figure 112006077447616-pat00007
여기서는, 위치 C1의 로봇 좌표계를 위치 C2의 로봇 좌표계로 변환하는 회전 매트릭스 R과, 글로벌 좌표계의 원점에서 위치 C1의 로봇 좌표계의 원점을 향하는 벡터 T1과, 위치 C2의 로봇 좌표계의 원점에서 위치 C1의 로봇 좌표계의 원점을 향하는 벡터 Tc를 정의하였다.
다음으로, 상기 공간상의 점 P가 이동 로봇의 카메라의 영상 평면으로 투영되어 표시되는 좌표 즉, 영상 좌표계에서의 좌표를 정의한다.
도 4는 서로 다른 두 위치(C1, C2)에서 공간상의 점 P가 카메라의 영상 평면으로 투영되어 표시되는 좌표를 나타낸 도면이다.
이에 도시된 바와 같이, 이동 로봇의 이전 위치인 C1에서 공간상의 점 P가 카메라의 영상 평면에 투영된 좌표를 (u1, v1)이라 하고, 이동 로봇의 현재 위치인 C2에서 공간상의 점 P가 카메라의 영상 평면에 투영된 좌표를 (u2, v2)라 한다.
그리고, 위치 C1의 로봇 좌표계의 원점에서 상기 (u1, v1)로 향하는 벡터를 P1c라 하고, 위치 C2의 로봇 좌표계의 원점에서 상기 (u2, v2)로 향하는 벡터를 P2c라 한다.
도 5a는 이동 로봇의 이전 위치인 C1에서 공간상의 점 P가 카메라의 영상 평면에 투영된 좌표를 나타낸 도면이고, 도 5b는 이동 로봇의 현재 위치인 C2에서 공간상의 점 P가 카메라의 영상 평면에 투영된 좌표를 나타낸 도면이다.
이에 도시된 바와 같이, 이동 로봇의 카메라의 영상 평면에서의 소정 위치의 좌표를 표시하는 영상 좌표계(U, V)의 각 축이 표시되어 있으며, 각 위치에서 촬상한 이미지의 중심 좌표를 (Ox, Oy)로 표시한다.
상기 (Ox, Oy)는 이동 로봇 카메라의 해상도에 따라 그 좌표값이 달라지게 되는데, 예를 들어 이동 로봇의 카메라의 해상도가 320×240인 경우, (Ox, Oy)는 (160, 120)이 되고, 이동 로봇의 카메라의 해상도가 640×480인 경우, (Ox, Oy)는 (320, 240)이 된다.
도 4와 도 5a 및 도 5b를 참조하여, 위치 C1의 로봇 좌표계의 원점에서 상기 (u1, v1)로 향하는 벡터 P1c를 구하면 수학식 8과 같다.
Figure 112006077447616-pat00008
여기서, x1 = -sx(u1-Ox)이고, y1 = -sy(v1-Oy), z1 = f(카메라의 초점거리)이다.
상기 sx 및 sy는 이동 로봇 카메라의 한 픽셀의 크기를 표시한 것인데, 이를 도 6에 나타내었다. 상기 sx 및 sy를 통해 단순한 좌표값이 아닌 실제적인 거리를 측정할 수 있다.
그리고, z1은 카메라 렌즈의 중심에서부터 영상 평면에 이르는 거리인 카메라의 초점거리(f)로 나타낼 수 있다.
이와 마찬가지로, 위치 C2의 로봇 좌표계의 원점에서 상기 (u2, v2)로 향하는 벡터 P2c는 수학식 9로 나타낼 수 있다.
Figure 112006077447616-pat00009
여기서, x2 = -sx(u2-Ox)이고, y2 = -sy(v2-Oy), z2 = f(카메라의 초점거리)이다.
이어서, 도 7에 도시한 바와 같이, 위치 C1의 로봇 좌표계의 원점으로부터 공간상의 점 P를 향하는 벡터를 P1이라 하고, 위치 C2의 로봇 좌표계의 원점으로부 터 공간상의 점 P를 향하는 벡터를 P2라 하며, 이를 다음과 같이 정의한다.
P1 = [X1, Y1, Z1]T
P2 = [X2, Y2, Z2]T
상기 벡터 P1c는 투영 방정식을 통해 수학식 10과 같이, 벡터 P1으로 표시할 수 있다.
Figure 112006077447616-pat00010
그리고, 벡터 P2는 도 2를 참조하면 수학식 11로 나타낼 수 있으며,
Figure 112006077447616-pat00011
회전 매트릭스에서는 R-1 = RT 이므로, 벡터 P1은 수학식 12로 구할 수 있다.
Figure 112006077447616-pat00012
여기서, 회전 매트릭스 R의 트래버스(Traverse)인 RT 는 수학식 13으로 나타 낼 수 있다.
Figure 112006077447616-pat00013
여기서, R1 및 R2는 앞에서 살펴본 바와 같이, 각각 글로벌 좌표계를 위치 C1의 로봇 좌표계로 변환하는 회전 매트릭스와 글로벌 좌표계를 위치 C2의 로봇 좌표계로 변환하는 회전 매트릭스를 의미한다.
따라서, RT는 수학식 14로 구할 수 있다.
Figure 112006077447616-pat00014
그리고, RT를 다음과 같이 정의할 수 있는데,
Figure 112006077447616-pat00015
이때, RT의 각 행벡터인 R1, R2, R3는 다음과 같이 정의된다.
R1 = [r11, r12, r13]
R2 = [r21, r22, r23]
R3 = [r31, r32, r33]
상기 수학식 12에서 P1의 3번째 원소인 Z1은 상기 행벡터 R3를 이용하여 수학식 15로 구할 수 있다.
Figure 112006077447616-pat00016
상기 Z1을 수학식 10에 대입하면, 벡터 P1c의 첫번째 원소인 x1은 수학식 16로 구할 수 있다.
Figure 112006077447616-pat00017
한편, 상기 벡터 P2c는 투영 방정식을 통해 수학식 17과 같이, 벡터 P2로 표시할 수 있다.
Figure 112006077447616-pat00018
그리고, 상기 수학식 17에서 P2는 수학식 18과 같이 나타낼 수 있다.
Figure 112006077447616-pat00019
여기서, 상기 수학식 18을 상기 수학식 16에 대입하면, 벡터 P2의 세 번째 원소인 Z2를 수학식 19로 구할 수 있다.
Figure 112006077447616-pat00020
그리고, 상기 수학식 19를 다시 풀어 쓰면, 수학식 20과 같다.
Figure 112006077447616-pat00021
그리고, 벡터 P2의 첫 번째 원소인 X2와 두 번째 원소인 Y2는 투영 방정식에 의해 수학식 21 및 수학식 22로 구할 수 있다.
Figure 112006077447616-pat00022
Figure 112006077447616-pat00023
이와 같은 과정을 통하여, 위치 C2의 로봇 좌표계의 원점에서 공간상의 점 P를 향하는 벡터인 P2 = [X2, Y2, Z2]T를 구할 수 있으므로, 이동 로봇의 위치 C2에서 공간상의 점 P의 3차원 좌표를 구할 수 있게 된다.
다음으로, 이동 로봇에게 일정한 전진 거리 및 회전 각도를 부여한 이동 명령을 하달하고, 상기 이동 명령대로 전진 및 회전 제어를 수행한다.
상기 이동 명령에 따른 전진 및 회전 제어가 완료되면, 그 위치에서 전방을 촬상한 영상에서 랜드 마크를 추출하고, 주행 기록 데이터(Odometry Data)를 피드백 받아 현재 이동 로봇이 이전 위치(C2)의 이동 로봇에 비해 이동된 거리(M) 및 각도 변화량(θ)을 계산한다. 그리고 이때의 로봇의 위치를 C3라 하며 이를 도 8에 도시하였다.
그러나, 주행 기록 데이터(Odometry Data)를 이용하여 계산한 이동 로봇의 이동 거리(M) 및 각도 변화량(θ)은 오차가 많이 나기 때문에 실제 위치 C3에서 로봇의 이동된 거리 및 각도 변화량을 보정해야 한다.
이어서, 이동 로봇의 위치 C2에서 추출한 공간상의 좌표를 알고 있는 랜드 마크의 특징점과 상기 위치 C3에서 추출한 랜드 마크의 특징점들 사이에 매칭 여부를 판단하여 매칭되는 특징점 쌍을 구한다.
즉, 위치 C2에서 취득한 영상에서 랜드 마크의 특징점을 추출하고, 위치 C3에서 취득한 영상에서 랜드 마크의 특징점을 추출한 후, 각 특징점의 특징 벡터를 구하여 가장 작은 거리 값을 가지는 특징 벡터 쌍을 매칭되는 특징점 쌍으로 결정한다.
연이어, 위치 C2에서 추출한 공간상의 좌표를 알고 있는 랜드 마크의 특징점들 중에서 상기 위치 C3에서 추출한 랜드 마크의 특징점과 매칭되는 특징점에 대하여, 다음 표 1에 표시된 이동 거리 및 각도 변화량을 적용하였을 때, 상기 매칭되는 특징점들이 위치 C3에서 카메라의 영상 평면에 투영될 가상 좌표들의 집합을 구한다.
이동 거리 각도 변화량
... ...
M-3δM -3δθ
M-2δM -2δθ
M-δM -δθ
M θ
M+δM +δθ
M+2δM +2δθ
M+3δM +3δθ
... ...
상기 표 1에 표시된 각 이동 거리 및 각도 변화량을 적용하였을 때, 위치 C2에서 추출한 랜드 마크의 특징점 중에서 상기 매칭되는 특징점들의 위치 C3에서 카메라의 영상 평면에 투영될 지점의 가상 좌표는 다음 수학식 23 및 수학식 24로 구할 수 있다.
즉, 상기 매칭되는 특징점들의 위치 C3에서 카메라의 영상 평면에 투영될 지점의 X 좌표는 수학식 23으로 구할 수 있다.
Figure 112006077447616-pat00024
여기서, f는 카메라의 초점 거리를 나타내며,
Figure 112006077447616-pat00025
이고,
Figure 112006077447616-pat00026
이며,
Figure 112006077447616-pat00027
이고, k=0,1,2,3,...이다.
그리고, 상기 매칭되는 특징점들의 위치 C3에서 카메라의 영상 평면에 투영 될 지점의 Y 좌표는 수학식 24로 구할 수 있다.
Figure 112006077447616-pat00028
여기서, f는 카메라의 초점 거리를 나타내며,
Figure 112006077447616-pat00029
이고,
Figure 112006077447616-pat00030
이며, k=0,1,2,3,...이다.
상기 수학식 23 및 수학식 24에서 X2, Y2, Z2는 위치 C2의 로봇 좌표계에서 랜드 마크의 좌표값을 말하는 것으로 이를 도 9에 도시하였다. 여기서, Z축을 카메라의 초점 축 방향으로 하였다.
다음으로, 상기 수학식 23 및 수학식 24를 통해 구한 좌표값들, 즉 위치 C2에서 추출한 랜드 마크의 특징점 중에서 상기 매칭되는 특징점들의 위치 C3에서의 영상 평면에 투영될 지점의 좌표값들과 실제 위치 C3에서 추출한 랜드 마크의 특징점 중 상기 매칭된 특징점들의 좌표값 간의 유클리디안 거리(Euclidean Distance) 값들의 합을 표 1에서 표시한 각 이동 거리 및 각도 변화량의 조합의 경우에 대해 구한다.
이어서, 상기 유클리디안 거리 값들의 합을 분류(Sorting)하여 가장 작은 값을 가지는 경우에 대해 위치 C3에서의 로봇의 이동 거리와 각도 변화량으로 간주하고, 이를 이용하여 엔코더 데이터를 이용하여 계산한 위치 C3에서의 로봇의 이동 거리 및 각도 변화량을 보정한다.
도 10은 본 발명의 단일 카메라를 이용한 이동 로봇의 위치 측정방법의 실시예를 나타낸 순서도이다.
이에 도시된 바와 같이, 먼저 이동 로봇이 이동하기 전의 위치(C1)에서, 로봇 좌표계가 글로벌 좌표계의 X축과 이루는 각도(θ1)를 구하고, 로봇 좌표계의 원점에서 공간상의 랜드 마크(Land Mark)가 카메라의 영상 평면에 투영된 지점을 향하는 벡터(P1c)를 구한다(단계 S 100).
다음으로, 상기 이동 로봇이 이동한 후의 위치(C2)에서, 로봇 좌표계가 글로벌 좌표계의 X축과 이루는 각도(θ2)를 구하고, 로봇 좌표계의 원점에서 공간상의 랜드 마크가 카메라의 영상 평면에 투영된 지점을 향하는 벡터(P2c)를 구한다(단계 S 110).
이어서, 상기 글로벌 좌표계를 이동 전의 로봇 좌표계로 변환하는 회전 매트 릭스(R1) 및 상기 글로벌 좌표계를 이동 후의 로봇 좌표계로 변환하는 회전 매트릭스(R2)를 이용하여 상기 이동 전의 로봇 좌표계를 이동 후의 로봇 좌표계로 변환하는 회전 매트릭스(R)를 구하고, 상기 이동 후의 로봇 좌표계의 원점에서 이동 전의 로봇 좌표계의 원점을 향하는 벡터(Tc)를 구한다(단계 S 120).
연이어, 상기 단계 S 100 내지 단계 S 120에서 구한 벡터(P1c), 벡터(P2c), 회전 매트릭스(R) 및 벡터(Tc)를 이용하여 이동 후의 로봇 좌표계의 원점에서 상기 공간상의 랜드 마크를 향하는 벡터(P2)를 구하고 이를 통해 위치 C2에서 랜드 마크의 좌표를 추출한다(단계 S 130).
다음으로, 이동 로봇에게 일정한 전진 거리 및 회전 각도를 부여한 이동 명령을 통해 위치 C3으로 이동한 후, 엔코더 데이터를 피드백 받아 위치 C3에서의 이동 거리(M) 및 각도 변화량(θ)을 계산한다(단계 S 140).
이어서, 위치 C3에서 전방을 촬상하여 랜드 마크를 추출하고, 상기 단계 S 130에서 추출한 위치 C2에서의 공간상의 좌표를 알고 있는 랜드 마크의 특징점과 상기 위치 C3에서 추출한 랜드 마크의 특징점들 사이에 매칭 여부를 판단하여 매칭되는 특징점 쌍을 추출한다(단계 S 150).
연이어, 위치 C2에서 추출한 공간상의 좌표를 알고 있는 랜드 마크의 특징점 들 중에서 상기 위치 C3에서 추출한 랜드 마크의 특징점과 매칭되는 특징점에 대하여, 각 이동 거리 및 각도 변화량을 적용하였을 때, 상기 매칭되는 특징점들이 위치 C3에서 카메라의 영상 평면에 투영될 가상 좌표들의 집합을 구한다(단계 S 160).
다음으로, 상기 단계 S 160에서 구한 가상 좌표값들과 실제 위치 C3에서 추출한 랜드 마크의 특징점 중 상기 매칭된 특징점들의 좌표값 간의 유클리디안 거리(Euclidean Distance) 값들의 합을 각 이동 거리 및 각도 변화량의 조합의 경우에 대해 구한다(단계 S 170).
이어서, 상기 단계 S 170에서 구한 유클리디안 거리 값들의 합을 분류(Sorting)하여 가장 작은 값을 가지는 경우에 대해 위치 C3에서의 실제 이동 거리 및 각도 변화량으로 간주한다(단계 S 180).
상기 단계 S 140에서 엔코더 데이터를 이용하여 계산한 위치 C3에서의 로봇의 이동 거리 및 각도 변화량을 상기 단계 S 180에서 구한 이동 거리 및 각도 변화량으로 보정한다(단계 S 190).
이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다.
그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위 뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
이상에서 살펴본 바와 같이, 본 발명에 의하면 고가의 공간 센서(Range Sensor) 없이 단일 카메라를 이용하여 현재 이동 로봇의 위치를 검출할 수 있어 비용이 절감되며, 별도의 신호 처리를 위한 알고리즘을 사용하지 않으므로 메인 프로세서의 처리 부담을 감소시킬 수 있다.

Claims (14)

  1. 위치 C1에서 공간상의 랜드 마크(Land Mark)를 촬상하여 얻은 데이터와 위치 C2로 이동한 후 상기 랜드 마크를 촬상하여 얻은 데이터를 이용하여 상기 위치 C2의 로봇 좌표계에서 상기 랜드 마크의 좌표를 추출하는 제10단계;
    위치 C3로 이동하여 상기 랜드 마크를 촬상한 후, 이동 로봇의 주행 기록 데이터(Odometry Data)를 이용하여 상기 위치 C2에서 위치 C3까지의 로봇의 이동 거리 및 각도 변화량을 계산하는 제20단계;
    상기 위치 C2에서 취득한 랜드 마크의 특징점과 상기 위치 C3에서 취득한 랜드 마크의 특징점을 비교하여 서로 매칭되는 특징점 쌍을 추출하는 제30단계;
    상기 위치 C2에서 취득한 랜드 마크의 특징점 중 상기 매칭되는 특징점에 대하여, 미리 설정된 로봇의 이동 거리 및 각도 변화량을 적용하였을 때 위치 C3에서의 이동 로봇의 영상 평면에 투영될 가상 좌표를 추출하는 제40단계; 및
    상기 추출한 가상 좌표와 상기 위치 C3에서 취득한 랜드 마크의 특징점 중 상기 매칭되는 특징점이 이동 로봇의 영상 평면에 투영되는 좌표들 간의 유클리디안 거리(Euclidean Distance) 값들의 합을 구한 후, 상기 위치 C2에서 위치 C3까지의 로봇의 이동 거리 및 각도 변화량을 보정하는 제50단계를 포함하여 이루어지는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
  2. 제1항에 있어서,
    상기 위치 C2의 로봇 좌표계에서 상기 랜드 마크의 좌표를 추출하는 제10단계는,
    상기 위치 C1에서 공간상의 랜드 마크를 촬상한 후, 로봇 좌표계가 글로벌 좌표계의 X축과 이루는 각도(θ1) 및 로봇 좌표계의 원점에서 공간상의 랜드 마크가 카메라의 영상 평면에 투영된 지점을 향하는 벡터(P1c)를 구하는 제11단계;
    위치 C2로 이동하여 상기 랜드 마크를 촬상한 후, 로봇 좌표계가 글로벌 좌표계의 X축과 이루는 각도(θ2) 및 로봇 좌표계의 원점에서 공간상의 랜드 마크가 카메라의 영상 평면에 투영된 지점을 향하는 벡터(P2c)를 구하는 제13단계;
    상기 위치 C1에서의 로봇 좌표계를 상기 위치 C2에서의 로봇 좌표계로 변환하는 회전 매트릭스(R) 및 상기 위치 C2의 로봇 좌표계의 원점에서 상기 위치 C1의 로봇 좌표계의 원점을 향하는 벡터(Tc)를 구하는 제15단계; 및
    상기 제11 단계 내지 제15 단계에서 구한 벡터(P1c), 벡터(P2c), 회전 매트릭 스(R) 및 벡터(Tc)를 이용하여 위치 C2의 로봇 좌표계의 원점에서 상기 공간상의 랜드 마크를 향하는 벡터(P2)를 구하고, 상기 벡터(P2)를 이용하여 위치 C2의 로봇 좌표계에서 상기 랜드 마크의 좌표를 추출하는 제17단계를 포함하여 이루어지는 것을 특징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
  3. 제2항에 있어서,
    상기 벡터(P1c)는 하기의 수학식1에 의해 산출되는 것을 특징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
    수학식 1
    Figure 112006077447616-pat00031
    여기서, x1 = -sx(u1-Ox), y1 = -sy(v1-Oy), z1 = f(카메라의 초점거리)이고, (u1, v1)은 상기 위치 C1에서 공간상의 랜드 마크가 카메라의 영상 평면에 투영된 좌표이며, (Ox, Oy)는 상기 카메라의 영상 평면의 중심 좌표를 나타내고, sx 및 sy는 상기 카메라의 한 픽셀의 크기를 나타낸다.
  4. 제2항에 있어서,
    상기 벡터(P2c)는 하기의 수학식2에 의해 산출되는 것을 특징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
    수학식 2
    Figure 112006077447616-pat00032
    여기서, x2 = -sx(u2-Ox), y2 = -sy(v2-Oy), z2 = f(카메라의 초점거리)이고, (u2, v2)은 상기 위치 C2에서 공간상의 랜드 마크가 카메라의 영상 평면에 투영된 좌표이며, (Ox, Oy)는 상기 카메라의 영상 평면의 중심 좌표를 나타내고, sx 및 sy는 상기 카메라의 한 픽셀의 크기를 나타낸다.
  5. 제2항에 있어서,
    상기 회전 매트릭스(R)를 구하는 단계는,
    상기 각도(θ1)를 사용하여 글로벌 좌표계를 상기 위치 C1의 로봇 좌표계로 변환하는 회전 매트릭스(R1)를 구하는 단계;
    상기 각도(θ2)를 사용하여 글로벌 좌표계를 상기 위치 C2의 로봇 좌표계로 변환하는 회전 매트릭스(R2)를 구하는 단계; 및
    상기 회전 매트릭스(R1) 및 회전 매트릭스(R2)를 이용하여 회전 매트릭스(R) 를 구하는 단계로 이루어지는 것을 특징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
  6. 제5항에 있어서,
    상기 회전 매트릭스(R)는 하기의 수학식 3에 의해 산출되는 것을 특징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
    수학식 3
    Figure 112006077447616-pat00033
    여기서,
    Figure 112006077447616-pat00034
    이고,
    Figure 112006077447616-pat00035
    이며,
    Figure 112006077447616-pat00036
    이다.
  7. 제2항에 있어서,
    상기 벡터(Tc)는 하기의 수학식 4에 의해 산출되는 것을 특징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
    수학식 4
    Figure 112006077447616-pat00037
    여기서, R2는 글로벌 좌표계를 위치 C2의 로봇 좌표계로 변환하는 회전 매트릭스를 나타내며, (a1, b1, c1)는 위치 C1의 공간 좌표를 나타내고, (a2, b2, c2)는 위치 C2의 공간 좌표를 나타낸다.
  8. 제2항에 있어서,
    상기 벡터(P2)를 구하는 단계는,
    상기 벡터(P2)를 P2 = [X2, Y2, Z2]T로 표시할 때, Z2를 구한 후, 투영 방정식을 이용하여 X2 및 Y2를 구하는 것을 특징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
  9. 제8항에 있어서,
    상기 Z2는 하기의 수학식 5에 의해 산출하는 것을 특징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
    수학식 5
    Figure 112006077447616-pat00038
    여기서, x1 및 f는 P1c = [x1, y1, f]T로 표시하였을 때, 벡터(P1c)의 첫 번째 원소 및 세 번째 원소를 나타내고, R1 및 R3는 R의 트래버스인
    Figure 112006077447616-pat00039
    로 표시하였을 때의 첫 번째 원소 및 세 번째 원소를 나타낸다.
  10. 제8항에 있어서,
    상기 X2는 하기의 수학식 6에 의해 산출하고, 상기 Y2는 하기의 수학식 7에 의해 산출하는 것을 특징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
    수학식 6
    Figure 112006077447616-pat00040
    여기서, x2 및 f는 P2c = [x2, y2, f]T로 표시하였을 때, 벡터(P2c)의 첫 번째 원소 및 세 번째 원소를 나타낸다.
    수학식 7
    Figure 112006077447616-pat00041
    여기서, y2 및 f는 P2c = [x2, y2, f]T로 표시하였을 때, 벡터(P2c)의 두 번째 원소 및 세 번째 원소를 나타낸다.
  11. 제1항에 있어서,
    상기 매칭되는 특징점 쌍을 추출하는 제30단계는,
    상기 위치 C2에서 취득한 랜드 마크의 특징점과 상기 위치 C3에서 취득한 랜드 마크의 특징점의 특징 벡터를 구한 후, 상기 특징 벡터 사이의 거리 값이 가장 작은 값을 가지는 특징 벡터 쌍을 매칭되는 특징점 쌍으로 하여 추출하는 것을 특 징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
  12. 제1항에 있어서,
    상기 제40단계에서 적용하는 로봇의 이동 거리 및 각도 변화량은 하기의 표 1에 의하는 것을 특징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
    표 1
    이동 거리 각도 변화량 ... ... M-3δM -3δθ M-2δM -2δθ M-δM -δθ M θ M+δM +δθ M+2δM +2δθ M+3δM +3δθ ... ...
    여기서, M은 이동 로봇의 이동 거리를 나타내며, θ는 이동 로봇의 각도 변화량을 나타내고, δ는 미소 변화량을 나타낸다.
  13. 제1항에 있어서,
    상기 위치 C3에서의 이동 로봇의 영상 평면에 투영될 가상 좌표 중 X좌표는 하기의 수학식 8에 의해 산출하고, Y좌표는 하기의 수학식 9에 의해 산출하는 것을 특징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
    수학식 8
    Figure 112006077447616-pat00042
    여기서, Ex는 가상의 X 좌표를 나타내고, f는 카메라의 초점 거리를 나타내며,
    Figure 112006077447616-pat00043
    이고
    Figure 112006077447616-pat00044
    이며,
    Figure 112006077447616-pat00045
    이고, k=0,1,2,3,...이다.
    수학식 9
    Figure 112006077447616-pat00046
    여기서, Ey는 가상의 Y좌표를 나타내고, f는 카메라의 초점 거리를 나타내며,
    Figure 112006077447616-pat00047
    이고
    Figure 112006077447616-pat00048
    이며, k=0,1,2,3,...이다.
    상기 수학식 8 및 수학식 9에서 X2, Y2, Z2는 위치 C2의 로봇 좌표계에서 랜드 마크의 좌표값을 나타낸다.
  14. 제12항에 있어서,
    상기 로봇의 이동 거리 및 각도 변화량의 보정은,
    상기 유클리디안 거리 값들의 합 중에서 가장 작은 값을 가지게 하는 표 1의 이동 거리 및 각도 변화량을 위치 C2에서 위치 C3까지의 로봇의 이동 거리 및 각도 변화량으로 하는 것을 특징으로 하는 단일 카메라를 이용한 이동 로봇의 위치 측정 방법.
KR1020060104193A 2006-10-25 2006-10-25 단일 카메라를 이용한 이동 로봇의 위치 측정 방법 KR100773271B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060104193A KR100773271B1 (ko) 2006-10-25 2006-10-25 단일 카메라를 이용한 이동 로봇의 위치 측정 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060104193A KR100773271B1 (ko) 2006-10-25 2006-10-25 단일 카메라를 이용한 이동 로봇의 위치 측정 방법

Publications (1)

Publication Number Publication Date
KR100773271B1 true KR100773271B1 (ko) 2007-11-05

Family

ID=39060791

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060104193A KR100773271B1 (ko) 2006-10-25 2006-10-25 단일 카메라를 이용한 이동 로봇의 위치 측정 방법

Country Status (1)

Country Link
KR (1) KR100773271B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100942431B1 (ko) 2007-12-11 2010-02-17 주식회사 토비스 촬상소자와 광원을 이용한 터치 좌표 인식 방법 및 이를이용한 터치스크린 시스템
CN110842908A (zh) * 2018-08-21 2020-02-28 广州弘度信息科技有限公司 一种机器人及其辅助定位方法
KR102218805B1 (ko) * 2020-08-26 2021-02-22 한국기술교육대학교 산학협력단 빔프로젝터 및 깊이 카메라를 구비한 모바일 로봇 기반의 증강현실 시스템 및 그 시스템의 좌표계 보정 방법
WO2021244598A1 (zh) * 2020-06-03 2021-12-09 杭州迦智科技有限公司 伺服控制方法、处理器、存储介质和可移动平台

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08221123A (ja) * 1995-02-10 1996-08-30 Kawasaki Heavy Ind Ltd 移動体の走行制御方法および装置
KR20040071999A (ko) * 2003-02-07 2004-08-16 삼성광주전자 주식회사 로봇청소기의 위치인식표지 검출방법 및 이 검출방법을적용한 로봇청소기
KR20050027858A (ko) * 2003-09-16 2005-03-21 삼성전자주식회사 이동로봇의 자기위치 및 방위각 추정방법 및 장치
KR20060015163A (ko) * 2004-08-13 2006-02-16 주식회사 넥스트아이 이동로봇의 위치인식 장치 및 방법
KR20060085751A (ko) * 2005-01-25 2006-07-28 삼성전자주식회사 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성장치 및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08221123A (ja) * 1995-02-10 1996-08-30 Kawasaki Heavy Ind Ltd 移動体の走行制御方法および装置
KR20040071999A (ko) * 2003-02-07 2004-08-16 삼성광주전자 주식회사 로봇청소기의 위치인식표지 검출방법 및 이 검출방법을적용한 로봇청소기
KR20050027858A (ko) * 2003-09-16 2005-03-21 삼성전자주식회사 이동로봇의 자기위치 및 방위각 추정방법 및 장치
KR20060015163A (ko) * 2004-08-13 2006-02-16 주식회사 넥스트아이 이동로봇의 위치인식 장치 및 방법
KR20060085751A (ko) * 2005-01-25 2006-07-28 삼성전자주식회사 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성장치 및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100942431B1 (ko) 2007-12-11 2010-02-17 주식회사 토비스 촬상소자와 광원을 이용한 터치 좌표 인식 방법 및 이를이용한 터치스크린 시스템
CN110842908A (zh) * 2018-08-21 2020-02-28 广州弘度信息科技有限公司 一种机器人及其辅助定位方法
WO2021244598A1 (zh) * 2020-06-03 2021-12-09 杭州迦智科技有限公司 伺服控制方法、处理器、存储介质和可移动平台
KR102218805B1 (ko) * 2020-08-26 2021-02-22 한국기술교육대학교 산학협력단 빔프로젝터 및 깊이 카메라를 구비한 모바일 로봇 기반의 증강현실 시스템 및 그 시스템의 좌표계 보정 방법

Similar Documents

Publication Publication Date Title
CN108827315B (zh) 基于流形预积分的视觉惯性里程计位姿估计方法及装置
US11243072B2 (en) Method for the three dimensional measurement of moving objects during a known movement
US9437005B2 (en) Information processing apparatus and information processing method
EP2543483B1 (en) Information processing apparatus and information processing method
US8588471B2 (en) Method and device of mapping and localization method using the same
JP5027747B2 (ja) 位置測定方法、位置測定装置、およびプログラム
JP5027746B2 (ja) 位置測定方法、位置測定装置、およびプログラム
CN110751123B (zh) 一种单目视觉惯性里程计***及方法
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
Wang et al. Visual odometry based on locally planar ground assumption
KR100773271B1 (ko) 단일 카메라를 이용한 이동 로봇의 위치 측정 방법
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
Higuchi et al. 3D measurement of large structure by multiple cameras and a ring laser
US20100262290A1 (en) Data matching apparatus, data matching method and mobile robot
KR100792852B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크 거리추출방법
US11221206B2 (en) Device for measuring objects
JP2024501731A (ja) 複数カメラによる速度測定方法及び速度測定装置
Heyer et al. Camera Calibration for Reliable Object Manipulation in Care-Providing Robot FRIEND
CN111522299A (zh) 机械控制装置
Zaman High precision relative localization using a single camera
KR100991194B1 (ko) 이동 로봇의 물체 운반 시스템 및 방법
JPH07136959A (ja) ロボット位置決め方法
JP2001266129A (ja) 航行体の画像による航行制御装置及び航行制御方法
WO2024062535A1 (ja) ロボット制御装置

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130621

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140708

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150626

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20161018

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee