KR100669250B1 - 인공표식 기반의 실시간 위치산출 시스템 및 방법 - Google Patents

인공표식 기반의 실시간 위치산출 시스템 및 방법 Download PDF

Info

Publication number
KR100669250B1
KR100669250B1 KR1020050103285A KR20050103285A KR100669250B1 KR 100669250 B1 KR100669250 B1 KR 100669250B1 KR 1020050103285 A KR1020050103285 A KR 1020050103285A KR 20050103285 A KR20050103285 A KR 20050103285A KR 100669250 B1 KR100669250 B1 KR 100669250B1
Authority
KR
South Korea
Prior art keywords
artificial
marker
image
detected
artificial marker
Prior art date
Application number
KR1020050103285A
Other languages
English (en)
Inventor
이재영
채희성
유원필
조영조
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020050103285A priority Critical patent/KR100669250B1/ko
Priority to US12/089,563 priority patent/US8027515B2/en
Priority to EP05821871A priority patent/EP1945414A1/en
Priority to PCT/KR2005/004304 priority patent/WO2007052859A1/en
Priority to JP2008536474A priority patent/JP5079703B2/ja
Application granted granted Critical
Publication of KR100669250B1 publication Critical patent/KR100669250B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 인공표식 기반의 실시간 위치산출 시스템 및 방법에 관한 것으로서, 로봇이 정지 및 이동상태에 관계없이 실시간으로 위치정보를 파악하여 실내공간에서 자율주행을 할 수 있도록 하는 것을 주 목적으로 하며, 주 목적을 달성하기 위하여 인공표식의 점등/점멸 제어를 통해 초기 현재 위치를 산출하고, 이어서 이동중에 현재 위치 바로 이전에 검출된 인공표식들중에서 가장 가까운 인공표식이 동일한 인공표식으로 식별되는 영상에서의 인공표식추적 및/또는 미리 저장된 공간좌표를 통해 역으로 영상 좌표를 인공표식추적 원리를 적용하여 예측하여 현재 위치의 갱신을 수행함으로써, 실시간으로 위치 정보를 제공할 수 있으므로 이동로봇 뿐만 아니라 보다 정확한 환경지도 작성에 유용하게 활용될 수 있다.
이동로봇, 자율주행, 인공표식, 위치산출

Description

인공표식 기반의 실시간 위치산출 시스템 및 방법{SYSTEM AND METHOD FOR REAL-TIME CALCULATING LOCATION}
도 1은 본 발명의 인공표식 기반의 실시간 위치산출 시스템을 개략적으로 나타낸 제어회로블록도이다.
도 2는 본 발명의 인공표식 기반의 실시간 위치산출 시스템이 운용되는 과정을 나타낸 개념도이다.
도 3은 최초의 인공표식 검출 및 초기위치 파악 과정을 나타낸 흐름도이다.
도 4는 공간 좌표계와 왜곡 보정된 영상 좌표계 사이의 관계도이다.
도 5는 초기위치 인식단계 이후의 실시간 위치 산출 과정을 나타낸 흐름도이다.
<도면의 주요 부분에 대한 부호의 설명>
1-1, 1-2, 1-3, 1-n : 인공표식 2 : 표식제어 모듈
3 : 영상처리 모듈 4 : 위치산출 모듈
5 : 영상예측 모듈 6 : 표식식별 모듈
7 : 주 제어 모듈
본 발명은 이동로봇의 위치산출 시스템 및 방법에 관한 것으로, 더욱 상세하게는 이동로봇의 자율주행을 위해 인공표식을 사용하여 이동로봇의 위치 정보를 실시간으로 제공하는 인공표식 기반의 실시간 위치산출 시스템 및 방법에 관한 것이다.
이동로봇이 원하는 목적지에 대한 경로 계획을 세우고 자유롭게 주행하기 위해서는 현재 자기의 위치를 파악하는 것이 전제가 되어야 한다.
로봇의 자기 위치 파악을 위한 수단으로 주로 인공표식이 사용된다. 이 인공표식은 배경과 구분되는 특정 표식으로서, 실내공간 내에 부착한 상태에서 로봇의 카메라로 인공표식에 대해 촬영을 수행하여 획득된 영상신호를 처리하여 인공표식을 인지함으로써 로봇의 현재 위치를 파악하는 것이다. 로봇의 위치는 인식된 인공표식의 영상좌표와 해당 인공표식에 대해 미리 저장된 실내공간 상의 좌표 정보를 참조하여 계산되는데, 구체적인 계산 과정은 관련 학계 등에 여러 가지 방법들이 발표된 바 있다.
인공표식에는 통상적으로 원, 사각형 등의 기하학적인 특정 패턴이 사용되는데, 로봇의 정확한 현재 위치 파악을 위해서는 이러한 특정 패턴의 영상 처리 과정이 선행되어야 한다. 그러나, 카메라를 통해 들어오는 실내공간에 대한 영상신호는 조명이나 카메라와의 거리, 방향 등에 의해 많은 영향을 받기 때문에 일반적인 실내환경에서 안정적인 인식 성능을 내기 어려운 문제점을 갖는다. 따라서 일반적인 환경에서 인식 성공률을 높이기 위해서는 보다 복잡한 연산과정을 필요로 하게 되는데, 이는 현재 위치 파악을 위한 연산 시간의 증가로 인하여 실시간으로 로봇의 위치 정보를 제공하기 힘든 문제점을 발생시키게 된다. 특히, 빛이 거의 없는 야간에는 카메라로부터의 영상신호가 미약하기 때문에 영상 처리 기반의 패턴 인식 과정을 수행하는 것은 거의 불가능하다.
이와 같은 문제점을 해결하기 위해 인공표식 기반으로 로봇의 위치를 파악하기 위한 다른 한 기술로서 제안된 것이 점멸 가능한 광원을 인공표식으로 사용하는 방법이다. 이는 특정 파장대의 빛을 발산하는 광원을 인공표식으로 사용하고, 카메라에는 해당 파장대만을 투과시키는 필터를 장착하여, 영상에서 광원 인공표식으로부터의 신호만 잡히게 함으로써 인공표식을 검출하기 위한 영상 처리 과정을 단순화하고 인식 신뢰도를 높이는 방법이다. 이러한 방법은 조명에 대한 영향이 거의 없고 빛이 없는 야간에도 로봇을 동작시킬 수 있는 장점을 갖는다.
그러나, 통상적으로 광원 인공표식들은 그들 사이에 형태상의 차이가 없기 때문에 각 인공표식을 구분해야 하는 문제가 발생한다. 즉, 광원 인공표식의 식별을 위해 보통 각 광원을 하나씩 순차적으로 점멸시키면서 인공표식 검출을 수행하는 방법이 사용되었다. 이와 같은 광원의 순차적 점멸을 통한 식별 과정은 인공표식의 총 개수에 비례하여 시간이 소요되고, 또한 로봇이 정지된 상태에서 이루어져야 하기 때문에 실시간으로 위치 정보를 제공하지 못하며, 실제적으로 주행 중에 적용할 수 없는 문제점을 갖는다.
실내환경에 로봇을 도입하여 운용하기 위해서는 목적지까지 이동하는 도중에 사람 등에 의해 발생하는 장애물을 회피하기 위하여 수시로 경로를 변경해야 할 필요가 발생한다. 새로운 경로 계획을 수립하기 위해서는 로봇의 현재 위치를 알아야 하는데, 이때마다 로봇이 정지하고 인공표식의 순차적 점멸 제어를 통한 식별 과정을 수행하는 것은 비효율적이며 원활한 로봇 주행 및 작업이 힘든 문제점을 갖는다.
따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 이동로봇의 자율주행을 위해 광원을 인공표식으로 사용하되, 광원 인공표식들의 순차적 점멸 과정을 거치지 않고도 인공표식추적과 영상 좌표 예측을 선택적으로 이용하여 영상에서 검출되는 인공표식들을 식별함으로써, 임의의 크기와 구조를 갖는 실내환경에서 로봇의 주행 상태에 관계없이 로봇의 위치 정보를 실시간으로 파악하는 인공표식 기반의 실시간 위치산출 시스템 및 방법을 제공하는데 있다.
상기와 같은 목적을 달성하기 위한 본 발명의 인공표식 기반의 실시간 위치산출 시스템은, 발광체를 포함하며, 고유의 식별 ID를 갖는 다수의 인공표식; 상기 인공표식에 대한 점등/점멸을 제어하는 표식제어 모듈; 상기 인공표식에 대해 카메라로 촬영하여 획득한 영상신호로부터 인공표식의 영상 좌표를 검출하는 영상처리 모듈; 상기 검출된 인공표식의 영상 좌표와 미리 저장된 인공표식의 공간좌표를 대응시켜 현재 위치를 산출하는 위치산출 모듈; 상기 산출된 현재 위치 정보와 미리 저장된 인공표식의 공간좌표를 대응시켜 인공표식의 영상 좌표를 예측하는 영상예측 모듈; 상기 현재 위치 바로 이전에 검출된 인공표식들중에서 가장 가까운 인공표식이 동일한 인공표식으로 식별되는 영상에서의 인공표식추적을 수행하고, 상기 현재 위치 바로 이전에 검출된 인공표식이 사라질 경우에 상기 예측된 영상 좌표와 검출된 영상 좌표를 비교하여 인공표식을 식별하는 표식식별 모듈; 및 상기 인공표식의 공간좌표 정보가 저장되며, 상기 각 모듈간의 동작 제어를 통해 실시간으로 로봇의 위치 정보를 갱신하는 주 제어 모듈을 포함하여 이루어진 것을 특징으로 한다.
여기서, 상기한 인공표식은 주로 건물내 천정 등에 설치되며, 상기한 표식제어 모듈, 영상처리 모듈, 위치산출 모듈, 영상예측 모듈, 표식식별 모듈, 주 제어 모듈을 포함하는 제어장치는 이동로봇 등에 장착된다. 또한, 상기 영상처리 모듈을 구성하는 카메라만을 이동로봇에 장착하고, 카메라 이외의 제어장치를 원격지 서버에 마련할 수도 있다. 이를 위해 카메라와 원격지 서버간 유무선 통신이 이루어져야 함은 주지의 사실이다.
한편, 본 발명의 인공표식 기반의 실시간 위치산출 방법은, (a) 인공표식의 점등/점멸을 통해 인식된 영상 좌표를 통해 현재 초기 위치를 산출하거나 미리 설 정된 위치로 지정하는 단계; (b) 이동중 현재 위치 바로 이전에 검출된 인공표식들중에서 가장 가까운 인공표식이 동일한 인공표식으로 식별되는 영상에서의 인공표식추적을 수행하고, 상기 현재 위치 바로 이전에 검출된 인공표식이 사라질 경우에 위치산출 모듈에서 산출된 인공표식의 현재 위치 정보와 상기 주 제어 모듈에 미리 저장된 인공표식의 공간좌표를 대응시켜 영상예측 모듈에서 인공표식의 영상 좌표를 예측한 영상 좌표와 새롭게 검출된 영상 좌표를 비교하여 표식식별 모듈에서 이동중 검출된 인공표식을 식별하는 단계; 및 (c) 상기 검출 및 식별된 인공표식의 영상 좌표와 주 제어 모듈에 미리 저장된 공간좌표와 대응시켜 위치산출 모듈에서 현재 위치를 갱신하는 단계를 포함하여 이루어진 것을 특징으로 한다.
이 때, 상기 (a) 단계는, 표식제어 모듈에 의해 특정 인공표식의 점등/점멸 제어가 이루어지는 단계; 상기 특정 인공표식의 점등에 의해 카메라를 포함하는 영상처리 모듈에서의 촬상이 이루어지는 단계; 상기 촬상에 의해 얻어진 영상신호의 처리에 의해 특정 인공표식을 검출하는 단계; 상기 검출된 특정 인공표식의 영상 좌표를 산출하는 단계; 상기 검출된 인공표식이 미리 설정된 개수 이상 산출되었는가를 판별하는 단계; 상기 인공표식 검출개수 판별결과, 인공표식 검출개수가 설정개수 미만일 경우에는 인공표식 검출개수가 설정개수 이상될 때까지 다른 인공표식의 점등/점멸 제어를 수행하여 영상 좌표를 산출하고, 인공표식 검출개수가 설정개수 이상일 경우에는 검출된 인공표식의 영상 좌표와 주 제어 모듈에 미리 저장된 공간좌표로부터 초기 현재 위치를 결정하는 단계로 이루어진다.
또한, 상기 영상좌표 예측을 통한 처리가 이루어질 경우에 상기 (b) 단계는, 영상처리를 통해 인공표식을 검출하는 단계; 상기 검출된 인공표식이 미리 설정된 개수 이상 산출되었는가를 판별하는 단계; 상기 인공표식 검출개수 판별결과, 인공표식검출개수가 설정개수 미만일 경우에는 인공표식 검출을 수행하고, 인공표식 검출개수가 설정개수 이상일 경우에는 바로 이전 시각 (t-1)에서의 위치 정보를 통해 인공표식들의 영상좌표를 예측하는 단계; 및 상기 인공표식추적 및 상기 검출된 인공표식의 영상 좌표와 가장 가까운 상기 예측된 영상좌표를 갖는 인공표식을 검출된 인공표식으로 식별하는 단계로 진행되며,
상기 인공표식추적 및 영상좌표 예측을 통한 처리가 이루어질 경우에 상기 (b) 단계는, 인공표식추적을 수행하는 단계; 상기 추적하던 인공표식이 영상에서 사라지는 경우에 영상처리를 통해 새로운 인공표식을 검출하는 단계; 상기 새로운 인공표식을 포함하여 상기 검출된 인공표식이 미리 설정된 개수 이상 산출되었는가를 판별하는 단계;
상기 인공표식 검출개수 판별결과, 인공표식 검출개수가 설정개수 미만일 경우에는 인공표식 검출을 수행하고, 인공표식 검출개수가 설정개수 이상일 경우에는 새로운 인공표식에 대해 바로 이전 시각(t-1)에서의 위치 정보를 통해 영상 좌표를 예측하는 단계; 및 상기 새롭게 검출된 인공표식의 영상 좌표와 가장 가까운 상기 예측된 영상좌표를 갖는 인공표식을 새로 검출된 인공표식으로 식별하는 단계로 진행된다.
이하, 본 발명의 인공표식 기반의 실시간 위치산출 시스템 및 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 인공표식 기반의 실시간 위치산출 시스템을 개략적으로 나타낸 제어회로블록도이다.
도 1을 참조하면, 본 발명의 인공표식 기반의 실시간 위치산출 시스템은, 실내공간에 설치된 다수의 인공표식들과, 상기 인공표식들에 대한 점멸을 제어하는 표식제어 모듈과, 상기 인공표식들에 대해 카메라로 촬영하여 획득한 영상신호로부터 인공표식의 영상 좌표값을 검출하는 영상처리 모듈과, 상기 검출된 인공표식의 영상 좌표값과 미리 저장된 인공표식의 공간좌표를 참조하여 로봇의 위치를 산출하는 위치산출 모듈과, 상기 산출된 로봇 위치 정보와 미리 저장된 인공표식의 공간좌표를 참조하여 인공표식의 영상 좌표값을 예측하는 영상예측 모듈과, 영상에서의 인공표식추적 및 예측된 영상 좌표값과 검출된 영상 좌표값을 비교하여 인공표식을 식별하는 표식식별 모듈과, 각 모듈간의 동작 제어를 통해 실시간으로 로봇의 위치 정보를 갱신하는 주 제어 모듈로 구성되어 있다.
도 2는 본 발명의 인공표식 기반의 실시간 위치산출 시스템이 운용되는 과정을 나타낸 개념도이다.
도 2를 참조하면, 각각의 인공표식은 특정 파장대의 빛을 내는 LED 등의 발광체를 포함하고 있으며, 표식제어 모듈에서의 신호에 따라 점멸 제어된다. 또한, 각 인공표식은 고유의 식별 ID를 가지고 있어서 다른 인공표식들과 구분되어진다. 각 인공표식은 일례로 실내공간 천장에 부착되는데, 이 때 부착된 위치, 즉, 공간 좌표는 실측 등을 통해서 이동로봇에 미리 저장된다. 이를 위해 상기한 도 1의 구성에 별도의 저장 모듈을 마련할 수도 있다. 영상처리 모듈을 구성하는 카메라에는 인공표식에 포함된 발광체의 특정 파장대만을 필터링해 투과시켜 주는 광학 필터가 장착되어 있다. 또한, 카메라는 이동로봇에 탑재하되 천장 쪽을 바라보면서 바닥면과 수직이 되도록 설치된다. 물론, 인공표식의 설치위치에 따라 카메라의 설치위치는 변경될 수 있을 것이다.
본 발명에서의 로봇의 위치 산출은 먼저 인공표식을 검출하여 초기위치를 인식하고, 이후 위치 정보를 주기적으로 갱신하는 과정으로 이루어진다. 초기위치 인식은 로봇이 위치 정보를 전혀 모르는 상태에서 자신이 놓여진 있는 실내환경 상의 위치를 파악하는 것이다. 일단 인공표식이 검출되고 초기위치가 파악되면, 이후에는 인공표식의 영상추적 및 영상좌표 예측을 통하여 실시간으로 로봇의 위치 정보를 산출하게 된다. 이하, 이에 대한 구체적인 처리 과정을 설명하기로 한다.
(1) 초기위치 인식
본 발명의 핵심적인 요소는 인공표식의 영상 추적과 영상좌표 예측 과정을 통하여 실시간으로 로봇의 위치정보를 갱신하는 방법을 제공함에 있다. 이를 위해서는 인공표식검출 및 초기위치 파악이 필요한데, 초기위치 파악은 이하 설명되는 종래의 광원 인공표식의 순차적 점멸 제어를 이용하기로 한다.
도 3은 최초의 인공표식 검출 및 초기위치 파악 과정을 나타낸 흐름도이다.
도 3을 참조하면, 먼저 모든 광원 인공표식이 꺼진 상태에서 표식제어 모듈에 의해 실내공간 상에 설치된 광원 인공표식들 중 어느 하나를 선택하고(S1), 상기 선택된 광원 인공표식을 켜는 명령을 표식제어 모듈을 통해 해당 광원 인공표식에 대한 점등(turn on) 신호를 보냄으로써 선택된 광원 인공표식의 점등이 이루어지게 된다(S2). 여기서, 상기 점등 신호를 보내는 방식은 유선 또는 무선 통신 방법이 모두 가능하다.
이 때, 카메라로 촬영하여 얻어진 영상신호에 대해 영상처리 과정을 거쳐 인공표식을 검출하게 되는데(S3), 이어서 선택된 광원의 점멸이 이루어지게 된다(S4). 한편, 상기한 영상에서 인공표식 검출 여부를 판별하여(S5) 광원검출이 이루어지지 않았을 경우에는 다음 광원 인공표식을 선택하여(S6) 상기한 S2 ∼ S5 과정을 반복하고, 영상에서 인공표식이 검출되면 검출된 인공표식은 표식제어 모듈을 통해 점등신호를 보냈던 광원 인공표식으로 식별된다. 이는 표식제어 모듈의 제어에 의해 점등되는 인공표식이 이미 지정된 고유의 식별 ID와 매칭되는 것에 의해 제어되는 광원 인공표식으로 식별되는 것이다. 이에, 검출된 인공표식의 영상 좌표를 산출한다(S7).
이후, 검출된 광원개수가 설정개수 이상인가를 판별하여(S8) 설정개수 이상일 경우에는 검출된 광원 인공표식의 영상 좌표와 저장된 공간 좌표로부터 로봇의 위치를 결정한다(S9). 한편, 상기 S8에서 검출된 광원개수가 설정개수 미만일 경우에는 다음 인공표식을 선택하여 점등 신호를 보내고 인공표식을 검출하는 과정을 수행한다. 이러한 과정을 로봇의 위치 계산에 필요한 개수만큼의 인공표식이 검출될 때까지 반복한다. 본 실시예에서는 검출된 광원개수가 2개인 경우에 대해서 설명하고 있으나, 이에 한정되지 않음은 주지의 사실이다.
한편, 인공표식 검출을 위한 영상처리 과정은 카메라에 광원의 특정 파장대만을 필터링해 투과시켜 주는 광학 필터가 구비되므로, 간단히 영상신호에 대해 이진화 과정을 거쳐서 특정 임계값 이상의 밝기값을 가지는 영역을 검출함으로써 이루어지게 된다. 인공표식이 검출되었을 때 검출된 인공표식의 영상좌표는 검출된 영역의 중심 좌표로 구해진다.
상기한 과정을 거쳐 로봇 위치 계산에 필요한 개수만큼의 인공표식이 검출되면 검출된 인공표식들의 영상 좌표와 해당 인공표식에 대해 미리 저장된 공간좌표를 참조하여 로봇의 위치를 계산한다. 로봇의 위치 계산은 2개의 인공표식만 있으면 가능하지만 측위 오차를 최소화하기 위하여 3개 이상의 광원 인공표식을 이용할 수도 있다. 예를 들어 2개의 광원 인공표식을 사용할 경우의 검출된 2개의 광원 인공표식을 Li, Lj라 하고 영상좌표를 (xi, yi), (xj, yj), 해당 인공표식에 대해 미리 저장된 공간좌표를 (Xi, Yi), (Xj, Yj)라 하면 로봇 위치를 계산하는 과정은 다음과 같다(로봇의 작업 공간은 3차원이지만 필요한 위치 정보는 2-D 평면 상의 좌표이고 로봇 위치 계산에 높이 정보는 필요하지 않으므로 2차원 좌표를 사용한다).
먼저 검출된 인공표식의 영상좌표 (xi, yi), (xj, yj)로부터 카메라 렌즈의 왜곡을 보정한 영상좌표 (ui, vi), (uj, vj)를 다음 수식을 이용하여 계산한다. 아래 수식에서는 2개의 광원 인공표식을 구분하기 위한 첨자 인덱스 i, j를 붙이지 않고 검출된 영상좌표는 (x, y), 렌즈 왜곡이 보정된 좌표는 (u, v)로 표기한다.
Figure 112005062564877-pat00001
--- 수식(1)
Figure 112005062564877-pat00002
--- 수식(2)
Figure 112005062564877-pat00003
--- 수식(3)
위 수식(1)(2)(3)에서, fx, fy는 초점거리, cx, cy는 렌즈 중심의 영상 좌표를 나타내는 카메라의 내부 파라미터, k1, k2, k3는 렌즈 왜곡 계수로 카메라 캘리브레이션(calibration) 과정을 통해 얻어지는 상수들을 각각 나타낸다.
다음으로는 검출된 광원 인공표식의 왜곡 보정된 영상 좌표 (ui, vi), (uj, vj)와 저장된 공간 좌표 (Xi, Yi), (Xj, Yj)로부터 로봇의 위치 정보 (rx, ry, θ)를 계산한다. 여기서, θ는 공간좌표계의 Y축을 기준으로 했을 때의 로봇이 바라보는 방향의 각(heading angle)이다. 도 4는 공간 좌표계와 왜곡 보정된 영상 좌표계 사 이의 관계도이다.
도 4를 참조하면, 카메라가 로봇에 장착되고 또한 천정을 수직으로 바라보기 때문에 영상에서의 로봇의 위치는 영상의 중심이 된다. 즉, 로봇의 영상 좌표는 (cx, cy)가 된다. 로봇의 공간 좌표 (rx, ry)는 검출된 광원 인공표식 Li, Lj의 영상 좌표를 공간좌표로 변환시키는 변환과정을 구하여 (cx, cy)에 적용함으로써 계산된다. 카메라가 천정을 수직으로 바라보기 때문에 좌표계 변환은 스케일(scale) 변환, 2차원 회전 변환, 2차원 평행 이동만으로 다음과 같이 구해진다.
Figure 112005062564877-pat00004
--- 수식(4)
Figure 112005062564877-pat00005
--- 수식(5)
Figure 112005062564877-pat00006
--- 수식(6)
Figure 112005062564877-pat00007
--- 수식(7)
여기까지, 로봇의 초기위치 (rx, ry, θ)를 산출하는 과정을 설명하였다. 이상 설명된 인공표식검출 및 초기위치 파악과정은 로봇이 정지한 상태에서 광원 인공표식들을 순차적으로 점멸 제어하면서 영상을 획득하고 인공표식을 검출하는 과 정을 거쳐야 하기 때문에 시간이 걸리지만 이는 로봇의 초기화 과정에서 최초 한번만 수행되므로, 이후에는 광원 인공표식들의 점멸 제어 없이 로봇이 주행하는 도중에도 영상에서의 인공표식추적 및 영상좌표 예측을 통해 실시간으로 위치 정보를 산출하게 된다.
한편, 로봇의 초기위치를 파악하는 다른 한가지 방법은, 최초 로봇에 전원이 인가되어 구동되는 시작 위치를 고정시키고 해당 위치정보를 초기위치로 설정하는 것이다. 예를 들어, 현재까지의 로봇은 기본적으로 자가발전이 불가능하기 때문에 주기적인 충전을 위한 충전 시스템을 구비해야 하는데, 충전 위치를 초기위치로 설정하고 이 위치에서 처음 로봇을 구동시키는 방법을 사용할 수 있다.
(2) 실시간 위치갱신
실시간 위치갱신 단계에서는 일정한 시간 간격으로 카메라로부터 영상을 획득하고 획득된 영상으로부터 인공표식을 검출하여 로봇의 위치정보(공간좌표와 로봇의 방향)를 갱신한다. 영상 획득 속도는 사용된 카메라에 의해 결정된다. 예를 들어, 초당 30 프레임의 영상을 획득할 수 있는 일반적인 카메라를 사용할 경우 로봇의 위치 갱신 주기는 초당 30 Hz까지 가능하다.
주행 중에 실시간으로 로봇의 위치정보 산출은 다음과 같이 이루어진다.
먼저, 시각 t에 영상을 획득하여 인공표식을 검출하고 식별하여 로봇의 위치 를 산출하였다고 가정하자. 다음으로, 시각 t+1에 영상을 획득하여 인공표식을 검출한다. 이 때, 로봇의 이동으로 인해 인공표식의 시각 t에서의 영상좌표와 시각 t+1에서의 영상좌표에는 차이가 발생하게 된다. 그러나 카메라의 영상획득 속도에 비해 로봇의 이동속도는 그리 빠르지 않기 때문에 영상좌표의 차이는 크지 않게 된다. 예를 들어, 카메라의 영상획득 속도를 초당 30 프레임, 로봇의 이동 속도를 3m/s(일반적인 로봇의 이동 속도)라고 가정하면 영상 촬상 간격 동안 로봇은 물리적으로 10cm를 이동하게 되고 일반적인 천장의 높이를 고려하면 영상에서는 많아야 수 픽셀(pixel) 내외의 위치 차이가 발생되게 된다. 따라서, 시각 t+1에서 검출된 인공표식의 식별은 시각 t에서 검출된 인공표식들 중에서 영상좌표상으로 가장 가까운 인공표식으로 식별할 수 있다. 이와 같은 과정으로 인공표식을 식별하는 것을 영상에서의 인공표식추적이라 정의하기로 한다. 일단 검출된 인공표식이 식별되면 초기위치 인식 단계에서 설명한 방법으로 로봇의 위치정보를 산출할 수 있다.
상기 인공표식들을 실내공간에 설치할 때에는 실내공간의 임의의 위치에서 동시에 2개 이상의 인공표식이 카메라의 시야에 들어오도록 설치한다. 2개의 인공표식 설치만으로 위치정보 산출이 가능한 한정된 소규모의 실내공간에서는 인공표식추적만으로도 실시간으로 로봇의 위치정보 산출이 가능하다. 그러나, 임의의 구조와 크기를 갖는 넓은 실내공간 전체에 걸쳐서 위치정보를 산출하기 위해서는 다수의 인공표식을 설치해야 한다. 이러한 경우에는 카메라의 시야에 들어오는 영역이 한정되어 있기 때문에 로봇이 이동하다 보면 추적하던 인공표식들이 영상에서 사라지고 새로운 인공표식이 영상에 들어오는 경우가 발생한다. 이 경우에는 인공표식추적만으로는 새로운 인공표식을 식별할 수 없다. 이를 해결하기 위해, 시각 t에서 산출되었던 로봇의 위치정보를 이용하여 미리 저장된 인공표식들의 공간좌표로부터 역으로 영상좌표를 예측한다. 예측된 영상좌표는 시각 t에서의 로봇 위치를 이용하여 계산되었기 때문에 시각 t+1에서의 실제 영상좌표와는 차이가 발생하지만 인공표식추적에서처럼 영상좌표의 근접성을 이용하여, 검출된 새로운 인공표식을 식별할 수 있다. 새로운 인공표식이 식별된 이후에는 영상에서 사라진 인공표식 대신 새로운 인공표식을 추적하며 위치 정보를 산출한다.
그러면, 여기서 실시간으로 로봇의 위치정보를 산출하는 방법을 구체적으로 설명하기로 한다.
도 5는 초기위치 인식단계 이후의 실시간 위치 산출 과정을 나타낸 흐름도이다.
도 5를 참조하면, 먼저 카메라로부터 영상을 획득한다. 현재 영상을 획득한 시각을 t라 하자. 이전 영상을 획득한 시각을 t-1이라 하고, 시각 t-1에 획득한 영상으로부터 검출된 인공표식을 Li, Lj, 영상좌표를 (xi t-1, yi t-1), (xj t-1, yj t-1), 카메라 렌즈의 왜곡을 보정한 영상좌표를 (ui t-1, vi t-1), (uj t-1, vj t-1), 해당 인공표식에 대해 미리 저장된 공간좌표를 (Xi, Yi), (Xj, Yj), 산출된 로봇위치를 (rx t-1, ry t-1, θt-1)라 하자. 시각 t-1에서 검출된 인공표식 및 로봇 위치 정보는 최초에는 초기위치 인식 단계에서 얻어진 값들로 설정된다(S11).
다음으로, 현재 획득된 영상으로부터 영상처리과정을 거쳐 인공표식을 검출한다. 이 때, 영상 전체에서 인공표식을 검출하지 않고, 이전 시각 t-1에서 검출된 인공표식의 영상좌표를 중심으로 한 일정 사각형 영역에서만 인공표식을 검출한다. 사각형의 크기는 로봇의 이동속도 및 천장의 높이를 고려하여 카메라의 영상 획득 간격 동안 영상 내에서 인공표식이 최대로 이동할 수 있는 거리로 설정한다. 만일 (xi t-1, yi t-1)를 중심으로 한 사각형 영역 내에서 인공표식이 검출되면 검출된 인공표식은 Li로 식별하고, (xj t-1, yj t-1)를 중심으로 한 사각형 영역 내에서 인공표식이 검출되면 검출된 인공표식은 Lj로 식별한다. 만일, 두 개의 사각형 영역 내에서 모두 인공표식이 검출되었다면 이미 식별이 되었기 때문에 검출된 새로운 영상좌표와 인공표식에 대해 미리 저장된 공간좌표로부터 초기위치인식 단계에서와 동일한 방법을 사용하여 로봇의 위치를 산출한다.
만일 두 개의 사각형 영역 내에서 모두 인공표식이 검출되지 않을 경우, 영상처리 과정을 통하여 사각형 외부의 영상 영역에서도 인공표식을 검출한다(S12). 이러한 경우는 시각 t-1에서 검출되었던 인공표식이 카메라의 시야에서 벗어난 경 우로서, 대신 새로운 인공표식이 영상에서 검출되어야 한다. 인공표식들은 실내공간의 임의의 위치에서 동시에 2개 이상의 인공표식이 카메라의 시야에 들어오도록 설치되기 때문에, 최소한 카메라의 시야에서 벗어난 인공표식의 개수만큼 새로운 인공표식이 영상에서 검출된다. 이와 같이, 새롭게 검출된 광원의 개수가 설정개수(2개) 이상인가를 판별하는 과정을 수행한다(S13). 본 실시예에서는 2개의 인공표식을 적용할 경우에 대해 설명하였으나, 이에 한정되지 않음은 주지의 사실이다.
새로 검출된 인공표식의 영상 좌표를 (x, y), 카메라 렌즈의 왜곡을 보정한 좌표를 (u, v)라 하자. 새로 검출된 인공표식의 식별은 시각 t-1에서의 로봇의 위치 정보 (rx t-1, ry t-1, θt-1)를 이용하여 각 인공표식 Lk의 공간좌표 (Xk, Yk)로부터 영상좌표를 예측하여 이루어진다(단, k=1, …, n, 여기서 n은 설치된 인공표식의 총 개수)(S14). 이 때, 렌즈 왜곡을 고려하지 않았을 때의 Lk의 예측 영상 좌표 (
Figure 112005062564877-pat00008
)는 다음 수식에 의해 계산된다 (스케일 변환 s는 초기위치 인식 단계에서 계산되었던 s를 사용한다).
새로 검출된 인공표식은 (u, v)와 가장 가까운 예측 영상좌표 (
Figure 112005062564877-pat00009
)를 갖는 인공표식으로 식별된다.
Figure 112005062564877-pat00010
--- 수식(8)
상기 과정을 거쳐 시각 t에서 최종적으로 검출 및 식별된 인공표식을 Lp, Lq, 영상좌표를 각각 (xp t, yp t), (xq t, yq t), 카메라 렌즈의 왜곡을 보정한 영상좌표를 (up t, vp t), (uq t, vq t), 저장된 공간좌표를 (Xp, Yp), (Xq, Yq)라 하면 로봇의 새로운 위치정보 (rx t, ry t, θt)는 초기위치 인식 단계에서와 마찬가지로 다음 수식에 의해 계산된다(S15).
Figure 112005062564877-pat00011
--- 수식(9)
Figure 112005062564877-pat00012
--- 수식(10)
--- 수식(11)
Figure 112005062564877-pat00014
--- 수식(12)
이상과 같이 주 제어 모듈에서는 로봇에 전원이 인가되는 동안 인공표식들의 영상추적 및 영상좌표 예측을 통하여 현재 로봇의 정확한 위치 정보를 산출하고 산출된 위치 정보는 로봇 위치정보 갱신의 다음 주기에서 인공표식추적 및 영상 좌표를 예측하는데 사용함으로써 실시간으로 로봇의 위치 정보를 산출한다(S16).
이상 설명된 본 발명의 위치 산출 방법은 영상에서의 인공표식추적과 인공표식의 영상좌표 예측을 결합하여 위치 산출에 소요되는 연산시간을 최소화함으로써, 로봇의 위치 갱신 주기를 최소화하는 방법이다. 이와 같이 상기한 실시예에서는 인공표식추적과 영상좌표 예측을 결합하여 위치를 산출하는 경우에 대해 설명하고 있으나, 본 발명에서는 영상좌표 예측만을 이용하여도 실시간으로 로봇의 위치를 파악하는 것이 가능하데, 이는 영상에서의 인공표식추적을 함께 사용하는 것이 비해 약간의 연산시간이 증가한다. 영상좌표 예측만을 이용하여 로봇의 위치를 산출하는 방법은 먼저 카메라로부터 획득되는 영상 전체에서 인공표식을 검출한 후, 가장 최근의(시각 t-1에서의) 로봇의 위치정보를 이용하여 각 인공표식의 영상좌표를 예측하고, 검출된 인공표식의 영상좌표와 가장 가까운 예측 영상좌표를 갖는 인공표식으로 검출된 인공표식을 식별하는 방법이다. 영상좌표 예측만을 사용하는 방법은 위치 갱신의 매 주기마다 영상 전체에서의 인공표식검출과 영상좌표 예측을 수행하기 때문에, 검출되었던 인공표식 주변에서만 새로운 검출을 하고 인공표식이 전환될 때에만 영상좌표 예측을 수행하는 영상예측과 인공표식추적을 결합한 방식에 비해 약간의 연산 시간이 증가하지만 최종적으로는 비슷한 실시간 위치 산출 성능을 낼 수 있다.
이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것이 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다. 예를 들어, 카메라 렌즈계의 왜곡 보정에도 여러 방법이 가능하며, 영상 예측을 통해 광원을 식별하기 위해 검출된 영상 좌표와 예측된 영상 좌표의 거리 비교를 할 때에도 렌즈계의 왜곡을 보정한 영상 좌표계에서 비교할 수도 있지만 예측된 영상 좌표에 렌즈계의 왜곡을 반영하여 검출된 영상 좌표와 직접 비교하는 방법을 사용할 수도 있다. 따라서, 본 발명의 근본적인 의의는 구체적인 구현상의 과정 보다는 영상에서의 인공표식추적 및 영상좌표 예측을 통하여 로봇의 정지 및 주행상태에 관계없이 실시간으로 위치 정보를 제공할 수 있다는 개념 자체에 있다.
상술한 바와 같이, 본 발명에 의한 인공표식 기반의 실시간 위치산출 시스템 및 방법은 다음과 같은 장점이 있다.
본 발명에 따르면 로봇은 위치 파악을 위하여 멈출 필요가 없으며, 카메라에서의 영상 획득 속도만큼의 위치 정보를 제공할 수 있기 때문에 최초의 초기 위치만 파악되면 이후 로봇의 주행 상태에 관계없이 작업 공간 내에서 실시간으로 로봇의 위치 정보를 제공할 수 있다.
또한, 본 발명에 의하면 인공표식들의 공간좌표만 정확하게 측정하여 저장한다면 정확한 위치 정보를 제공할 수 있으며, 동일 위치에서는 항상 동일한 위치 정 보를 산출하기 때문에 안정적인 위치 산출 시스템을 구축할 수 있다.
또한, 본 발명의 위치 인식 방법에 의하면 로봇이 적용되는 실내환경의 구조나 크기에 관계없이 항상 카메라의 시야에 2개 이상의 인공표식이 들어오도록 인공표식들을 설치하기만 하면 실내공간의 임의의 위치에서 실시간으로 위치 정보를 제공할 수 있기 때문에, 본 발명의 위치 인식 방법을 적용하면 한정된 공간이 아닌 대단위의 넓은 작업 공간에도 실시간으로 위치 정보를 제공할 수 있는 위치산출 시스템을 구축할 수 있다.
또한, 본 발명에 의하면 로봇의 위치 정보를 산출하기 위하여 천장의 높이 정보를 필요로 하지 않기 때문에 다양한 실내환경에 로봇 위치 산출 시스템을 용이하게 구축할 수 있다.
또한, 본 발명에 의하면 위치 파악을 위해서 로봇이 정지하거나 별도의 시간 지연을 필요로 하지 않기 때문에 작업 공간 내에서의 작업 속도가 향상되고 부드러운 모션 제어가 가능하다.
또한, 본 발명에 따르면 이동로봇은 실내공간의 임의의 곳에서 위치를 파악할 수 있고, 이에 따라 원하는 목적지로 경로 계획을 세우고 주행할 수 있다.
또한, 본 발명에 따르면 이동로봇은 주행 중에도 실시간으로 위치 정보를 파악할 수 있기 때문에 장애물 등을 만났을 때 동적으로 경로계획을 수립하여 원하는 목적지로 이동할 수 있으며, 주행 도중에 목적지가 변경되었을 때에도 바로 경로를 바꾸어 이동하는 것이 가능하다.
또한, 본 발명의 영상좌표 예측 방법을 적용하면 광원 인공표식이 아닌 기하 학적 인공표식이나 자연표식을 사용한 경우에도 영상처리 과정에서 인식된 인공표식의 영상좌표와 예측된 영상좌표를 비교하여 인식이 잘 되었는지를 검증할 수 있기 때문에, 보다 안정적으로 위치 정보를 산출할 수 있다.
또한, 본 발명의 위치 산출 시스템은 이동로봇 뿐만 아니라 수작업으로 이동시킬 수 있는 기구나 장치에 적용하여 실내환경에서 위치를 측정하는데 사용될 수 있다.
그리고 본 발명에 따르면 실내공간에 대한 절대적 좌표를 실시간으로 제공할 수 있기 때문에, 초음파나 적외선 또는 비젼센서 등을 이용하여 실내 환경에 대한 환경지도를 작성할 때 본 발명에서 제공되는 절대적 위치 정보를 기준으로 삼고 측정된 데이터를 반영하면 보다 정확한 환경지도를 작성할 수 있다.

Claims (21)

  1. 공간좌표값을 갖고 특정 공간에 설치된 인공표식을 카메라로 촬영하여 획득한 영상신호로부터 고유의 식별 ID를 갖는 특정 파장대의 빛을 내는 광원표식인 인공표식의 영상 좌표를 검출하는 영상처리 모듈;
    상기 검출된 인공표식의 영상 좌표와 미리 저장된 인공표식의 공간좌표를 대응시켜 현재 위치를 산출하는 위치산출 모듈; 및
    상기 현재 위치 바로 이전에 검출된 인공표식들중에서 가장 가까운 인공표식이 동일한 인공표식으로 식별되는 인공표식추적, 및 현재 위치 정보와 미리 저장된 인공표식의 공간좌표를 대응시켜 인공표식의 영상 좌표를 예측하여 상기 예측된 영상 좌표와 검출된 영상 좌표를 비교하여 인공표식을 식별하는 영상좌표예측을 선택적으로 이용하여 현재 위치 정보를 갱신하는 표식식별 모듈을 포함하는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 시스템.
  2. 삭제
  3. 제 2 항에 있어서,
    상기 시스템은 인공표식에 대한 점등/점멸을 제어하는 표식제어 모듈을 더 포함하는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 시스템.
  4. 제 2 항에 있어서,
    상기 카메라에는 인공표식에 포함된 발광체의 특정 파장대만을 필터링해 투과시키는 광학 필터를 마련한 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 시스템.
  5. 제 1 항에 있어서,
    상기 산출된 현재 위치 정보와 미리 저장된 인공표식의 공간좌표를 대응시키는 인공표식의 영상 좌표 예측은 별도로 마련된 영상예측 모듈에서 수행하는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 시스템.
  6. 제 1 항 내지 제 5 항 중의 어느 한 항에 있어서,
    상기 카메라는 이동로봇에 탑재시키고, 상기 시스템은 상기 카메라로부터 유 선 또는 무선 송신에 의해 전달된 신호를 수신하여 처리하는 원격서버에 마련한 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 시스템.
  7. (a) 현재 초기 위치를 인공표식의 점등/점멸을 통해 인식된 영상 좌표를 통해 산출하거나 미리 설정된 위치로 지정하는 단계;
    (b) 이동중 현재 위치 바로 이전에 검출된 인공표식들중에서 가장 가까운 인공표식이 동일한 인공표식으로 식별되는 영상에서의 인공표식추적을 통해 표식식별 모듈에서 이동중 검출된 인공표식을 식별하는 단계; 및
    (c) 상기 검출 및 식별된 인공표식의 영상 좌표와 주 제어 모듈에 미리 저장된 공간좌표와 대응시켜 위치산출 모듈에서 현재 위치를 갱신하는 단계를 포함하는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
  8. (a) 현재 초기 위치를 인공표식의 점등/점멸을 통해 인식된 영상 좌표를 통해 산출하거나 미리 설정된 위치로 지정하는 단계;
    (b) 이동중 위치산출 모듈에서 산출된 인공표식의 현재 위치 정보와 상기 주 제어 모듈에 미리 저장된 인공표식의 공간좌표를 대응시켜 영상예측 모듈에서 인공표식의 영상 좌표를 예측한 영상 좌표와 새롭게 검출된 영상 좌표를 비교하여 표식식별 모듈에서 이동중 검출된 인공표식을 식별하는 단계; 및
    (c) 상기 검출 및 식별된 인공표식의 영상 좌표와 주 제어 모듈에 미리 저장된 공간좌표와 대응시켜 위치산출 모듈에서 현재 위치를 갱신하는 단계를 포함하는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
  9. (a) 인공표식의 점등/점멸을 통해 인식된 영상 좌표를 통해 현재 초기 위치를 산출하거나 미리 설정된 위치로 지정하는 단계;
    (b) 이동중 현재 위치 바로 이전에 검출된 인공표식들중에서 가장 가까운 인공표식이 동일한 인공표식으로 식별되는 영상에서의 인공표식추적을 수행하고, 상기 현재 위치 바로 이전에 검출된 인공표식이 사라질 경우에 위치산출 모듈에서 산출된 인공표식의 현재 위치 정보와 상기 주 제어 모듈에 미리 저장된 인공표식의 공간좌표를 대응시켜 영상예측 모듈에서 인공표식의 영상 좌표를 예측한 영상 좌표와 새롭게 검출된 영상 좌표를 비교하여 표식식별 모듈에서 이동중 검출된 인공표식을 식별하는 단계; 및
    (c) 상기 검출 및 식별된 인공표식의 영상 좌표와 주 제어 모듈에 미리 저장된 공간좌표와 대응시켜 위치산출 모듈에서 현재 위치를 갱신하는 단계를 포함하는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
  10. 제 7 항 내지 제 9 항 중의 어느 한 항에 있어서,
    상기 (a) 단계에서 현재 위치 산출은 표식제어 모듈에 의한 특정 인공표식의 점등/점멸을 통해 영상처리 모듈에서 검출한 영상 좌표를 주 제어 모듈에 미리 저장된 공간좌표와 대응시켜 위치산출 모듈에서 초기 현재 위치를 산출하는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
  11. 제 10 항에 있어서,
    상기 (a) 단계는,
    표식제어 모듈에 의해 특정 인공표식의 점등/점멸 제어가 이루어지는 단계;
    상기 특정 인공표식의 점등에 의해 카메라를 포함하는 영상처리 모듈에서의 촬상이 이루어지는 단계;
    상기 촬상에 의해 얻어진 영상신호의 처리에 의해 특정 인공표식을 검출하는 단계;
    상기 검출된 특정 인공표식의 영상 좌표를 산출하는 단계;
    상기 검출된 인공표식이 미리 설정된 개수 이상 산출되었는가를 판별하는 단계;
    상기 인공표식 검출개수 판별결과, 인공표식 검출개수가 설정개수 미만일 경우에는 인공표식 검출개수가 설정개수 이상될 때까지 다른 인공표식의 점등/점멸 제어를 수행하여 영상 좌표를 산출하고, 인공표식 검출개수가 설정개수 이상일 경우에는 검출된 인공표식의 영상 좌표와 주 제어 모듈에 미리 저장된 공간좌표로부터 초기 현재 위치를 결정하는 단계로 이루어진 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
  12. 제 11 항에 있어서,
    상기 인공표식 검출개수는 2개인 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
  13. 제 12 항에 있어서,
    상기 검출된 인공표식의 영상 좌표(x, y)로부터 카메라 렌즈의 왜곡을 보정하여 보정된 영상 좌표(u, v)를 아래식에 의해 구하여 현재 위치 산출에 반영하는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
    Figure 112005062564877-pat00015
    --- 수식(1)
    Figure 112005062564877-pat00016
    --- 수식(2)
    Figure 112005062564877-pat00017
    --- 수식(3)
    (여기서, fx, fy는 초점거리, cx, cy는 렌즈 중심의 영상 좌표를 나타내는 카메라의 내부 파라미터, k1, k2, k3는 렌즈 왜곡 계수로 카메라 캘리브레이션(calibration) 과정을 통해 얻어지는 상수를 각각 의미함.)
  14. 제 13 항에 있어서,
    상기 초기 현재 위치는 보정된 영상 좌표 (ui, vi), (uj, vj)와 저장된 공간좌표 (Xi, Yi), (Xj, Yj)로부터 아래식에 의해 초기 현재 위치 정보 (rx, ry, θ)를 계산하는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
    Figure 112005062564877-pat00018
    --- 수식(4)
    Figure 112005062564877-pat00019
    --- 수식(5)
    Figure 112005062564877-pat00020
    --- 수식(6)
    Figure 112005062564877-pat00021
    --- 수식(7)
    (여기서, θ는 공간좌표계의 Y축을 기준으로 했을 때의 바라보는 방향의 각)
  15. 제 7 항 내지 제 9 항 중의 어느 한 항에 있어서,
    상기 (a) 단계에서 미리 설정된 위치는 미리 지정된 구동 시작 위치인 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
  16. 제 7 항 또는 제 9 항에 있어서,
    상기 인공표식추적은 바로 이전 시각에 검출된 인공표식의 영상 좌표를 중심으로 한 일정 사각형 영역에서만 인공표식을 검출하는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
  17. 제 8 항에 있어서,
    상기 (b) 단계는,
    영상처리를 통해 인공표식을 검출하는 단계;
    상기 검출된 인공표식이 미리 설정된 개수 이상 산출되었는가를 판별하는 단 계;
    상기 인공표식 검출개수 판별결과, 인공표식검출개수가 설정개수 미만일 경우에는 인공표식 검출을 수행하고, 인공표식 검출개수가 설정개수 이상일 경우에는 바로 이전 시각 (t-1)에서의 위치 정보를 통해 인공표식들의 영상좌표를 예측하는 단계; 및
    상기 검출된 인공표식의 영상 좌표와 가장 가까운 상기 예측된 영상좌표를 갖는 인공표식을 검출된 인공표식으로 식별하는 단계로 이루어진 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
  18. 제 9 항에 있어서,
    상기 (b) 단계는,
    인공표식추적을 수행하는 단계;
    상기 추적하던 인공표식이 영상에서 사라지는 경우에 영상처리를 통해 새로운 인공표식을 검출하는 단계;
    상기 새로운 인공표식을 포함하여 상기 검출된 인공표식이 미리 설정된 개수 이상 산출되었는가를 판별하는 단계;
    상기 인공표식 검출개수 판별결과, 인공표식 검출개수가 설정개수 미만일 경우에는 인공표식 검출을 수행하고, 인공표식 검출개수가 설정개수 이상일 경우에는 새로운 인공표식에 대해 바로 이전 시각(t-1)에서의 위치 정보를 통해 영상 좌표를 예측하는 단계; 및
    상기 인공표식추적 및 상기 새롭게 검출된 인공표식의 영상 좌표와 가장 가까운 상기 예측된 영상좌표를 갖는 인공표식을 새로 검출된 인공표식으로 식별하는 단계로 이루어진 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
  19. 제 17 항 또는 제 18 항에 있어서,
    상기 새로 검출된 인공표식의 영상 좌표로부터 카메라 렌즈의 왜곡을 보정하여 보정된 영상 좌표를 현재 위치 산출에 반영하는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
  20. 제 19 항에 있어서,
    상기 새로 검출된 인공표식은, 아래식에 의해, 보정된 영상 좌표 (u, v)와 가장 가까운 예측 영상좌표 (
    Figure 112005062564877-pat00022
    )를 갖는 인공표식으로 식별되는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
    Figure 112005062564877-pat00023
    --- 수식(8)
    (여기서, cx, cy는 렌즈 중심의 영상 좌표를 나타내는 카메라의 내부 파라미터, θ는 공간좌표계의 Y축을 기준으로 했을 때의 바라보는 방향의 각, X, Y는 공간 좌표,
    Figure 112005062564877-pat00024
    를 각각 의미함.)
  21. 제 20 항에 있어서,
    상기 새로운 현재 위치는 보정된 영상 좌표 (ui, vi), (uj, vj)와 저장된 공간좌표 (Xi, Yi), (Xj, Yj)로부터 아래식에 의해 현재 위치 정보 (rx, ry, θ)를 갱신하는 것을 특징으로 하는 인공표식 기반의 실시간 위치산출 방법.
    Figure 112005062564877-pat00025
    --- 수식(9)
    Figure 112005062564877-pat00026
    --- 수식(10)
    Figure 112005062564877-pat00027
    --- 수식(11)
    Figure 112005062564877-pat00028
    --- 수식(12)
KR1020050103285A 2005-10-31 2005-10-31 인공표식 기반의 실시간 위치산출 시스템 및 방법 KR100669250B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020050103285A KR100669250B1 (ko) 2005-10-31 2005-10-31 인공표식 기반의 실시간 위치산출 시스템 및 방법
US12/089,563 US8027515B2 (en) 2005-10-31 2005-12-14 System and method for real-time calculating location
EP05821871A EP1945414A1 (en) 2005-10-31 2005-12-14 System and method for real-time calculating location
PCT/KR2005/004304 WO2007052859A1 (en) 2005-10-31 2005-12-14 System and method for real-time calculating location
JP2008536474A JP5079703B2 (ja) 2005-10-31 2005-12-14 リアルタイムに位置を算出するためのシステムおよび方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050103285A KR100669250B1 (ko) 2005-10-31 2005-10-31 인공표식 기반의 실시간 위치산출 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR100669250B1 true KR100669250B1 (ko) 2007-01-16

Family

ID=38005996

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050103285A KR100669250B1 (ko) 2005-10-31 2005-10-31 인공표식 기반의 실시간 위치산출 시스템 및 방법

Country Status (5)

Country Link
US (1) US8027515B2 (ko)
EP (1) EP1945414A1 (ko)
JP (1) JP5079703B2 (ko)
KR (1) KR100669250B1 (ko)
WO (1) WO2007052859A1 (ko)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100933539B1 (ko) * 2007-12-11 2009-12-23 포스데이타 주식회사 이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇
WO2011052826A1 (ko) * 2009-10-30 2011-05-05 주식회사 유진로봇 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법
KR101337534B1 (ko) 2007-07-24 2013-12-06 삼성전자주식회사 이동 로봇의 위치 인식 장치 및 방법
KR101371387B1 (ko) 2013-01-18 2014-03-10 경북대학교 산학협력단 트랙킹 시스템 및 이를 이용한 트랙킹 방법
KR20140053712A (ko) * 2012-10-26 2014-05-08 (주)하기소닉 센서 융합에 의한 실내로봇용 위치인식 방법
KR101944497B1 (ko) 2018-08-02 2019-01-31 블랙썬 주식회사 지능형 cctv를 활용한 무인주행차량의 제어시스템 및 방법
WO2019112109A1 (ko) * 2017-12-07 2019-06-13 주식회사 스튜디오매크로그래프 정적 마커 그리드 기반 실시간 실내 위치 측위 방법 및 그 시스템
KR20190096854A (ko) * 2019-07-30 2019-08-20 엘지전자 주식회사 인공 지능을 이용하여, 복수의 로봇들을 제어하는 인공 지능 서버
CN112265463A (zh) * 2020-10-16 2021-01-26 北京猎户星空科技有限公司 自移动设备的控制方法、装置、自移动设备和介质
WO2021080235A1 (ko) * 2019-10-22 2021-04-29 네이버랩스 주식회사 로봇의 주행을 위해 설정된 전용 도로를 사용하여 로봇을 제어하는 방법 및 시스템

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101305265B1 (ko) * 2008-07-23 2013-09-06 가부시키가이샤 다이후쿠 물품 반송 설비에 있어서의 학습 장치 및 학습 방법
JP5336257B2 (ja) * 2009-05-11 2013-11-06 Ntn株式会社 位置検出装置及び位置検出方法
KR101686170B1 (ko) * 2010-02-05 2016-12-13 삼성전자주식회사 주행 경로 계획 장치 및 방법
KR101906329B1 (ko) * 2010-12-15 2018-12-07 한국전자통신연구원 카메라 기반의 실내 위치 인식 장치 및 방법
CN102514011A (zh) * 2011-12-28 2012-06-27 王鹏勃 一种精确生物感知控制的多自由度机器人及其实现方法
KR101537075B1 (ko) * 2013-09-16 2015-07-16 주식회사 에이디이엔지 실내위치인식모듈을 통한 사용자 실내위치인식 장치 및 방법
US9813676B2 (en) * 2013-12-11 2017-11-07 Qualcomm Incorporated Use of mobile device with image sensor to retrieve information associated with light fixture
EP3199009B1 (en) * 2014-09-23 2020-01-29 Positec Technology (China) Co., Ltd. Self-moving robot
KR101847361B1 (ko) 2015-09-03 2018-05-28 파나소닉 아이피 매니지먼트 가부시키가이샤 기체 흡착재, 및 기체 흡착재를 구비한 진공 단열재
JP7237625B2 (ja) * 2019-02-08 2023-03-13 株式会社ダイヘン 移動体、及び画像補正装置
US20220153345A1 (en) * 2019-03-25 2022-05-19 Volvo Truck Corporation Vehicle comprising a trailer angle determining system
CN110000786B (zh) * 2019-04-12 2020-09-01 珠海市一微半导体有限公司 一种基于视觉机器人的历史地图利用方法
JP7296557B2 (ja) * 2019-05-30 2023-06-23 パナソニックIpマネジメント株式会社 位置認識システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01243104A (ja) * 1988-03-24 1989-09-27 Murata Mach Ltd 撮像手段におけるマーク識別装置
KR20040009960A (ko) * 2002-07-26 2004-01-31 삼성광주전자 주식회사 로봇 청소기와 그 시스템 및 제어 방법
KR20050027858A (ko) * 2003-09-16 2005-03-21 삼성전자주식회사 이동로봇의 자기위치 및 방위각 추정방법 및 장치

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE455539B (sv) 1986-05-23 1988-07-18 Electrolux Ab Elektrooptiskt positionskennande system for ett i plan rorligt foremal, foretredesvis en mobil robot
JPH064127A (ja) * 1992-06-16 1994-01-14 Ishikawajima Harima Heavy Ind Co Ltd 屋内移動体の自己位置測定装置
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JP3755217B2 (ja) * 1996-11-29 2006-03-15 住友電気工業株式会社 車両の位置算出装置
DE69823116D1 (de) * 1997-08-05 2004-05-19 Canon Kk Bildverarbeitungsverfahren und -gerät
JP4172109B2 (ja) * 1999-08-30 2008-10-29 アシスト テクノロジーズ ジャパン株式会社 無人搬送車
US7006674B1 (en) * 1999-10-29 2006-02-28 Cytyc Corporation Apparatus and methods for verifying the location of areas of interest within a sample in an imaging system
JP3467017B2 (ja) * 2000-11-30 2003-11-17 キヤノン株式会社 位置姿勢の決定方法及び装置並びに記憶媒体
US6993206B2 (en) * 2001-03-22 2006-01-31 Nikon Corporation Position detector and attitude detector
EP2463627B1 (en) * 2002-04-30 2017-07-19 Intel Corporation Navigation system using corridor maps
US7277599B2 (en) * 2002-09-23 2007-10-02 Regents Of The University Of Minnesota System and method for three-dimensional video imaging using a single camera
KR100506533B1 (ko) * 2003-01-11 2005-08-05 삼성전자주식회사 이동로봇 및 그에 따른 자율주행 시스템 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01243104A (ja) * 1988-03-24 1989-09-27 Murata Mach Ltd 撮像手段におけるマーク識別装置
KR20040009960A (ko) * 2002-07-26 2004-01-31 삼성광주전자 주식회사 로봇 청소기와 그 시스템 및 제어 방법
KR20050027858A (ko) * 2003-09-16 2005-03-21 삼성전자주식회사 이동로봇의 자기위치 및 방위각 추정방법 및 장치

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
01243104
1020040009960
1020050027858

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101337534B1 (ko) 2007-07-24 2013-12-06 삼성전자주식회사 이동 로봇의 위치 인식 장치 및 방법
KR100933539B1 (ko) * 2007-12-11 2009-12-23 포스데이타 주식회사 이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇
CN102656532B (zh) * 2009-10-30 2015-11-25 悠进机器人股份公司 用于移动机器人位置识别的地图的生成及更新方法
CN102656532A (zh) * 2009-10-30 2012-09-05 悠进机器人股份公司 用于移动机器人位置识别的地图的生成及更新方法
KR101083394B1 (ko) 2009-10-30 2011-11-14 주식회사 유진로봇 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법
US8849036B2 (en) 2009-10-30 2014-09-30 Yujin Robot Co., Ltd. Map generating and updating method for mobile robot position recognition
WO2011052826A1 (ko) * 2009-10-30 2011-05-05 주식회사 유진로봇 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법
KR20140053712A (ko) * 2012-10-26 2014-05-08 (주)하기소닉 센서 융합에 의한 실내로봇용 위치인식 방법
KR101371387B1 (ko) 2013-01-18 2014-03-10 경북대학교 산학협력단 트랙킹 시스템 및 이를 이용한 트랙킹 방법
WO2019112109A1 (ko) * 2017-12-07 2019-06-13 주식회사 스튜디오매크로그래프 정적 마커 그리드 기반 실시간 실내 위치 측위 방법 및 그 시스템
KR101944497B1 (ko) 2018-08-02 2019-01-31 블랙썬 주식회사 지능형 cctv를 활용한 무인주행차량의 제어시스템 및 방법
KR20190096854A (ko) * 2019-07-30 2019-08-20 엘지전자 주식회사 인공 지능을 이용하여, 복수의 로봇들을 제어하는 인공 지능 서버
KR102231922B1 (ko) * 2019-07-30 2021-03-25 엘지전자 주식회사 인공 지능을 이용하여, 복수의 로봇들을 제어하는 인공 지능 서버
WO2021080235A1 (ko) * 2019-10-22 2021-04-29 네이버랩스 주식회사 로봇의 주행을 위해 설정된 전용 도로를 사용하여 로봇을 제어하는 방법 및 시스템
KR20210047659A (ko) * 2019-10-22 2021-04-30 네이버랩스 주식회사 로봇의 주행을 위해 설정된 전용 도로를 사용하여 로봇을 제어하는 방법 및 시스템
KR20210098421A (ko) * 2019-10-22 2021-08-10 네이버랩스 주식회사 로봇의 효과적인 주행을 위한 로봇 전용 통로를 포함하는 건물
KR102314009B1 (ko) * 2019-10-22 2021-10-18 네이버랩스 주식회사 로봇의 주행을 위해 설정된 전용 도로를 사용하여 로봇을 제어하는 방법 및 시스템
KR102428936B1 (ko) * 2019-10-22 2022-08-03 네이버랩스 주식회사 로봇의 효과적인 주행을 위한 로봇 전용 통로를 포함하는 건물
CN112265463A (zh) * 2020-10-16 2021-01-26 北京猎户星空科技有限公司 自移动设备的控制方法、装置、自移动设备和介质

Also Published As

Publication number Publication date
US20080310682A1 (en) 2008-12-18
JP2009512088A (ja) 2009-03-19
JP5079703B2 (ja) 2012-11-21
WO2007052859A1 (en) 2007-05-10
EP1945414A1 (en) 2008-07-23
US8027515B2 (en) 2011-09-27

Similar Documents

Publication Publication Date Title
KR100669250B1 (ko) 인공표식 기반의 실시간 위치산출 시스템 및 방법
KR100785784B1 (ko) 인공표식과 오도메트리를 결합한 실시간 위치산출 시스템및 방법
US7634336B2 (en) Localization system and method of mobile robot based on camera and landmarks
KR100988736B1 (ko) 자율주행 이동로봇의 최단 경로 이동을 위한 홈 네트워크시스템 및 그 방법
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
CN109901590B (zh) 桌面机器人的回充控制方法
KR101703177B1 (ko) 차량 위치 인식 장치 및 방법
CN108692701B (zh) 基于粒子滤波器的移动机器人多传感器融合定位方法
CN106289235A (zh) 基于建筑结构图的自主计算精度可控室内定位导航方法
KR100749923B1 (ko) 카메라와 표식을 이용한 이동 로봇의 측위 시스템 및 방법
KR20130099667A (ko) 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법
CN111780715A (zh) 一种视觉测距方法
KR20030026497A (ko) 이동 로봇의 자기위치인식 장치 및 방법
WO2020230410A1 (ja) 移動体
KR20120112917A (ko) 위치인식 장치와 시스템 및 방법
WO2022004333A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
WO2022250605A1 (en) Navigation guidance methods and navigation guidance devices
CN113064425A (zh) 一种agv设备及其导航的控制方法
CN109564084B (zh) 记录介质、位置推断装置以及位置推断方法
JP2019207618A (ja) 情報処理システム
KR20190129551A (ko) 무인 이동체용 사물 유도 시스템 및 방법
KR20150006582A (ko) 열화상 카메라에서 촬영된 개체가 사람인지 여부를 판단하는 방법 및 이를 이용한 열화상 시스템
JP7304284B2 (ja) 位置推定装置、移動体、位置推定方法及びプログラム
KR20090047284A (ko) 인공 표식 위치 검출 장치 및 방법
WO2020208807A1 (ja) 移動体の移動制御システム、移動体、および移動体システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121206

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131209

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20141229

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20151228

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20161228

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20171226

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee