KR100552691B1 - 이동로봇의 자기위치 및 방위각 추정방법 및 장치 - Google Patents

이동로봇의 자기위치 및 방위각 추정방법 및 장치 Download PDF

Info

Publication number
KR100552691B1
KR100552691B1 KR1020030064242A KR20030064242A KR100552691B1 KR 100552691 B1 KR100552691 B1 KR 100552691B1 KR 1020030064242 A KR1020030064242 A KR 1020030064242A KR 20030064242 A KR20030064242 A KR 20030064242A KR 100552691 B1 KR100552691 B1 KR 100552691B1
Authority
KR
South Korea
Prior art keywords
marker
mobile robot
image
artificial
ceiling image
Prior art date
Application number
KR1020030064242A
Other languages
English (en)
Other versions
KR20050027858A (ko
Inventor
홍선기
방석원
박동렬
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020030064242A priority Critical patent/KR100552691B1/ko
Priority to EP04255550.8A priority patent/EP1517210B1/en
Priority to JP2004270092A priority patent/JP4533065B2/ja
Priority to CN2004100789589A priority patent/CN1598610B/zh
Priority to US10/941,846 priority patent/US7765027B2/en
Publication of KR20050027858A publication Critical patent/KR20050027858A/ko
Application granted granted Critical
Publication of KR100552691B1 publication Critical patent/KR100552691B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

이동로봇의 자기위치 및 방위각 추정방법 및 장치가 개시된다. 이동로봇의 자기위치 및 방위각 추정방법은 (a) 이동로봇이 주행하는 장소의 천정영상을 획득하는 단계, (b) 천정영상으로부터 재귀반사형의 인공표식을 검출하는 단계, 및 (c) 인공표식 검출 성공여부에 따라서 상기 인공표식의 위치 또는 엔코더 정보를 이용하여 이동로봇의 위치 및 방위각을 추정하는 단계를 포함하며, 인공표식은 각각 무반사부분과 적외선반사부분으로 이루어지는 제1 및 제2 표식으로 이루어진다.

Description

이동로봇의 자기위치 및 방위각 추정방법 및 장치 {Method and apparatus for localization in mobile robot}
도 1a 내지 도 1c는 본 발명에서 사용되는 인공표식의 일예를 보여주는 도면,
도 2는 본 발명의 일실시예에 따른 이동로봇의 자기위치 및 방위각 추정장치의 구성을 나타낸 블록도,
도 3은 본 발명의 일실시예에 따른 이동로봇의 자기위치 및 방위각 추정방법을 설명하는 플로우챠트,
도 4는 도 3에 있어서 333 단계의 세부적인 동작을 설명하는 플로우챠트,
도 5는 도 3에 있어서 342 단계의 세부적인 동작을 설명하는 플로우챠트,
도 6a 및 도 6b는 낮인 경우 촬영된 천정영상과 밤인 경우 반전된 천정영상을 보여주는 도면,
도 7a 및 도 7b는 왜곡보상처리 수행전과 후의 천정영상을 보여주는 도면,
도 8a 내지 도 8c는 왜곡보상처리방법 중 광학중심점을 이용한 모델링과정 수행전과 후의 천정영상을 보여주는 도면,
도 9a 내지 도 9c는 왜곡보상처리방법 중 보간과정 수행전과 후의 천정영상을 보여주는 도면,
도 10은 전처리 수행전과 후의 천정영상을 보여주는 도면, 및
도 11a 및 도 11b는 검출된 인공표식의 위치로부터 로봇의 위치를 계산하는 방법을 설명하는 도면이다.
본 발명은 이동로봇에 관한 것으로서, 특히 어두운 조명이나 조명변화가 심한 환경에서 자기 위치 및 방위각을 추정하는 자기위치 및 방위각 추정방법 및 장치에 관한 것이다.
이동로봇과 관련하여 인공표식을 이용한 자기위치 및 방위각 추정방법은 다음 네가지로 분류될 수 있다. 첫째, 반사체 및 비젼을 이용하는 방법으로서 그 예가 USP 5051906 호에 개시되어 있다. '906 특허는 천정에 재귀반사형 표식을 부착하고 AGV(Automatic Guided Vehicle)이 복도 등을 추종하여 주행할 수 있도록 구성된 것으로서, 복도의 중심을 찾아 로봇의 방향과 위치를 결정한다. 둘째, 반사체를 이용하나 비젼을 이용하지 않는 방법으로서 그 예가 USP 5812267 호와 USP 5467273 호에 개시되어 있다. 셋째, 비젼을 이용하나 반사체 대신 특정패턴을 이용하는 방법으로서 그 예가 USP 5525883 호, USP 5911767 호, USP 6496754 호에 개시되어 있다. 여기서, '767 특허는 원을 표식으로 설정하고 표식의 인식을 통하여 로봇을 로컬라이제이션하는데, 특히 다른 배경들과 구별되는 원 모양의 패턴에서 원의 반지름 길이비를 이용하여 로봇의 자세 및 거리정보를 얻는다. 한편, '754 특허는 두개의 표식을 이용하여 로봇의 위치를 검출하고 라인 레이저를 이용하여 장애물의 모양을 인식한다. 넷째, 비젼을 이용하나 반사체 대신 발광원을 이용하는 방법으로서 그 예가 USP 4797557 호에 개시되어 있다.
그러나, 상기한 바와 같은 종래의 방법들은 로봇의 위치한 전체 환경 내에서 전역적인 자기 위치 및 방위각 추정이 불가능할 뿐 아니라 조명변화에 따라서 자기 위치 및 방위각 추정 성능 차이가 크기 때문에 가정을 포함한 일반적인 실내환경에 적용하기 어려운 문제점이 있다.
따라서, 본 발명이 이루고자 하는 기술적 과제는 어두운 조명이나 조명변화가 심한 환경에서도 자기 위치 및 방위각을 추정하는 자기 위치 및 방위각 추정방법 및 장치를 제공하는데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는 상기 자기 위치 및 방위각 추정장치를 적용한 이동로봇을 제공하는데 있다.
상기 기술적 과제를 달성하기 위하여 본 발명에 따른 이동로봇의 자기 위치 및 방위각 추정방법은 (a) 이동로봇이 주행하는 장소의 천정영상을 획득하는 단계; (b) 상기 천정영상으로부터 재귀반사형의 인공표식을 검출하는 단계; 및 (c) 상기 인공표식 검출 성공여부에 따라서 상기 인공표식의 위치 또는 엔코더 정보를 이용하여 상기 로봇의 위치 및 방위각을 추정하는 단계를 포함하며, 상기 인공표식은 각각 무반사부분과 적외선반사부분으로 이루어지는 제1 및 제2 표식으로 이루어지는 것을 특징으로 한다.
상기 기술적 과제를 달성하기 위하여 본 발명에 따른 이동로봇의 자기 위치 및 방위각 추정장치는 이동로봇이 주행하는 장소의 천정영상을 획득하는 천정영상 획득부; 상기 천정영상으로부터 재귀반사형의 인공표식을 검출하는 표식검출부; 및 상기 인공표식 검출 성공여부에 따라서 상기 인공표식의 위치 또는 엔코더 정보를 이용하여 상기 로봇의 위치 및 방위각을 추정하는 위치 및 방위각 추정부를 포함하며, 상기 인공표식은 각각 무반사부분과 적외선반사부분으로 이루어지는 제1 및 제2 표식으로 구성되는 것을 특징으로 한다.
상기 다른 기술적 과제를 달성하기 위하여 본 발명에 따른 이동로봇은 이동로봇이 주행하는 장소의 천정영상을 획득하는 천정영상 획득부; 상기 천정영상의 평균밝기를 산출하고, 상기 산출된 평균밝기를 소정의 기준치와 비교하여, 현재 환경이 조명이 어두운 상태인지 밝은 상태인지를 판단하는 영상밝기 비교부; 상기 영상밝기 비교부의 판단결과에 따라서 상기 이동로봇에 부착된 조명장치를 제어하는 조명제어부; 상기 천정영상으로부터 재귀반사형이며 무반사부분과 적외선반사부분으로 이루어지는 제1 및 제2 표식으로 구성되는 인공표식을 검출하는 표식검출부; 상기 인공표식 검출 성공여부에 따라서 상기 인공표식의 위치 또는 엔코더 정보를 이용하여 상기 로봇의 위치 및 방위각을 추정하는 위치 및 방위각 추정부; 및 상기 위치 및 방위각 추정부에서 추정된 위치 및 방위각에 따라서 상기 이동로봇의 주행을 제어하는 주행제어부를 포함하는 것을 특징으로 한다.
상기 이동로봇의 자기 위치 및 방위각 추정방법은 바람직하게는 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로 구현할 수 있다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예에 대하여 보다 상세히 설명하기로 한다.
도 1a는 본 발명에서 사용되는 인공표식(100)의 일예를 보여주는 도면으로서, 재귀반사형의 제1 및 제2 표식(110,120)으로 이루어진다. 제1 표식(110)의 바깥쪽 부분(111)과 제2 표식(120)의 안쪽 부분(123)은 검은색으로 도포된 무반사부분이고, 제1 표식(110)의 안쪽 부분(113)과 제2 표식(120)의 바깥쪽 부분(121)은 적외선반사부분이다. 이때, 인공표식(100)은 이동로봇이 소정의 작업을 수행하고자 주행하는 장소의 천정의 중앙 부분에 위치하는 것이 바람직하다. 또한, 제1 및 제2 표식(110, 120)은 각각 외경이 11 cm, 내경이 5 cm로 이루어지고, 제1 표식(110)과 제2 표식(120) 간의 거리(d)는 70 cm로 구성하는 것이 바람직하다.
도 1a와 같은 패턴의 인공표식(100)을 사용하면, 조명이 밝은 낮인 경우에는 인공표식(100)은 도 1b와 같이 제1 표식(110)의 바깥쪽 부분(111)과 제2 표식(120)의 안쪽 부분(123)으로 이루어지고, 조명이 어두운 밤인 경우에는 도 1c와 같이 제1 표식(110)의 안쪽 부분(113)과 제2 표식(120)의 바깥쪽 부분(121)으로 이루어진다.
도 2는 본 발명의 일실시예에 따른 이동로봇의 로컬라이제이션장치의 구성을 나타낸 블록도로서, 천정영상 획득부(210), 영상밝기 비교부(220), 영상처리부(230), 표식검출부(240), 엔코더정보 획득부(250), 위치 및 방위각 추정 부(260), 조명제어부(270) 및 주행제어부(280)로 이루어진다.
도 2를 참조하면, 천정영상 획득부(210)는 예를 들면 광각 또는 초광각 카메라, 구체적으로는 어안렌즈 카메라로 이루어지며, 이동로봇이 소정의 작업을 수행하고자 주행하는 장소의 천정영상을 획득한다.
영상밝기 비교부(220)는 천정영상 획득부(210)에서 획득한 천정영상의 각 픽셀의 밝기를 합한 값을 전체 픽셀수로 나누어 천정영상의 평균밝기를 산출하고, 산출된 평균밝기를 소정의 기준치와 비교하여, 현재 환경이 조명이 어두운 상태인지 밝은 상태인지를 판단한다. 여기서, 기준치는 예를 들면 256 그레이 스케일인 경우 50 으로 설정하고, 평균밝기가 50 룩스(Lux) 이상인 경우에는 조명이 밝은 상태로, 50 룩스(Lux) 이하인 경우에는 조명이 어두운 상태로 판단한다.
영상처리부(230)는 영상밝기 비교부(220)에서 영상밝기 비교결과, 조명이 밝은 상태라고 판단된 경우에는 별도의 처리를 수행하지 않고, 조명이 어두운 상태라고 판단된 경우에는 영상을 반전시킨다. 도 6a는 낮에 촬영된 인공표식(611)을 포함한 천정영상을 나타내고, 도 6b는 밤에 촬영된 인공표식(613,615)을 포함한 천정영상을 반전시킨 천정영상을 나타낸다.
다음, 영상처리부(230)에서는 무처리 또는 반전된 영상에 대하여 왜곡보상처리 및 전처리를 수행하는데, 먼저 왜곡보상처리와 관련된 기술로는 "Camera Calibration : Three Dimensional Computer Vision"(Oliver Faugeras, MIT Press, 1993)에 자세히 기술되어 있다. 이에 대하여 도 7a 내지 도 9c를 참조하여 설명하면 다음과 같다.
도 7a는 왜곡보상처리가 수행되기 전의 천정영상을 나타내고, 도 7b는 왜곡보상처리가 수행된 후의 천정영상을 나타낸다. 천정영상 획득부(210)에서 사용되는 카메라의 렌즈가 광각일수록 천정영상의 왜곡이 심해지고, 이에 따라서 천정영상이 실제 모습과 틀리게 보이게 되므로 보상처리가 필요하다. 구체적인 방법으로는 도 8a에서 도시된 바와 같이 광학중심점(811)을 추출하고, 추출된 광학중심점(811)을 기준으로 하여 제1 및 제2 표식(110,120)으로 이루어지는 두개의 타원(813)을 이용하여 모델링을 수행하는 방법을 들 수 있다. 이와 같은 방법에 따라 왜곡보상처리를 수행한 경우, 광학중심점 추출시 오류가 존재하는 경우에는 도 8b와 같이 기울어진 영상으로 나타나고, 정확하게 광학중심점 추출이 이루어진 경우 도 8c와 같이 제대로 보상된 영상으로 나타난다. 여기서, 광학중심점은 천정의 노멀 뷰(normal view)를 얻기 위한 것으로서 카메라에 들어오는 모든 빛이 지나는 점이 카메라의 촬상 소자에 투영된 점을 의미하며, 카메라를 회전시키더라도 그 위치가 불변이다. 다음, 모델링이 수행되면 도 9a에 도시된 바와 같이 픽셀들이 사라진 영역(911)이 발생하는데, 보간법에 의하여 사라진 픽셀들을 복원할 수 있다. 이때 도 9b에 도시된 바와 같이 N.N.(Nearest Neighbor) 기법에 의해 사라진 픽셀과 가장 가까운 위치의 픽셀값을 그대로 사용하거나, 도 9c에 도시된 바와 같이 보간을 필요로 하는 픽셀 근처의 값을 평균하여 사용할 수 있다.
다음, 영상처리부(230)에서는 왜곡보상처리가 수행된 천정영상에 대하여 전처리를 수행한다. 도 10의 (a)는 전처리가 수행되기 전의 천정영상을 나타내고, (b)는 전처리가 수행된 이후의 천정영상을 나타낸다. 전처리의 방법으로는 소정의 상수(a) 및 콘트라스트 특성그래프(G1)를 이용하여 콘트라스트 및/또는 노출을 조정한다. 즉, 천정영상의 각 화소에 상수(a)를 곱하여 노출을 조정하고, 노출이 조정된 천정영상에 콘트라스트 특성그래프(G1)를 적용하여 어두운 부분은 그대로 두거나 더 어둡게, 밝은 부분은 아주 밝게 콘트라스트를 조정하면 특정 화소영역 즉, 인공표식(100)의 제1 및 제2 표식(110,120)을 구성하는 화소영역의 분해능은 높아지는 반면, 다른 화소영역의 분해능은 상대적으로 낮아지게 된다. 이와 같은 전처리 결과, 인공표식(100)의 밝기 정도가 주위 배경과 크게 차이가 나도록 함으로써 이후의 표식검출 등과 같은 영상처리를 용이하게 한다.
다시 도 2로 돌아가서, 표식검출부(240)는 영상처리부(230)에서 왜곡보상처리 및 전처리가 수행된 천정영상으로부터 표식 후보점을 검출한 다음 필터링을 수행하여 인공표식(100)의 위치를 검출한다.
엔코더 정보 획득부(250)는 로봇의 바퀴에 부착되어 있는 엔코더 센서 등으로부터 로봇의 위치 및 방위각에 대한 정보를 획득한다.
위치 및 방위각 추정부(260)는 표식검출부(240)에 검출된 인공표식(100)의 위치 또는 엔코더 정보 획득부(250)로부터 제공되는 로봇의 위치 및 방위각에 대한 정보를 이용하여 로봇의 위치 및 방위각을 추정한다. 즉, 표식검출부(240)에서 인공표식(100)의 위치 검출에 성공한 경우에는 인공표식(100)의 위치를 이용하고, 인공표식(100)의 위치 검출에 실패한 경우에는 엔코더 정보를 이용하여 로봇의 위치 및 방위각 추정을 수행한다.
조명제어부(270)는 영상밝기 비교부(220)에서의 판단 결과, 외부 조명이 어 두운 상태라고 판단된 경우에는 로봇 상에 부착되어 있는 조명을 턴온시키거나 더 밝게 하고, 외부 조명이 밝은 상태라고 판단된 경우에는 로봇 상에 부착된 조명을 더 어둡게 하거나 끈다.
주행제어부(280)는 위치 및 방위각 추정부(260)에서 얻어진 이동로봇의 위치 및 방위각 정보를 이용하여 미리 설정 혹은 계획된 경로를 따라서 주행하도록 제어한다.
도 3은 본 발명의 일실시예에 따른 이동로봇의 위치 및 방위각 추정방법을 설명하는 플로우챠트이다.
도 3을 참조하면, 310 단계에서는 광각 또는 초광각 카메라를 이용하여 이동로봇이 주행하는 장소의 천정영상을 획득한다.
320 단계는 현재 환경의 조명 상태를 판단하기 위한 것으로서, 이를 위하여 321 단계에서는 310 단계에서 획득된 천정영상의 평균밝기를 산출하고, 322 단계에서는 산출된 평균밝기를 소정의 기준치와 비교하여 비교결과에 따라서 조명이 어두운 상태와 밝은 상태를 구별한다. 즉, 평균밝기가 기준치보다 큰 경우에는 조명이 밝은 상태로, 평균밝기가 기준치보다 낮은 경우에는 조명이 어두운 상태로 판단한다. 323 단계에서는 조명이 어두운 상태로 판단된 경우 천정영상을 반전시킨다.
330 단계는 천정영상으로부터 인공표식을 검출하기 위한 것으로서, 이를 위하여 331 단계에서는 미리 저장되어 있는 관심영역이 존재하는지를 판단한다. 331 단계에서의 판단결과, 관심영역이 존재하지 않는 경우 332 단계에서 관심영역을 천정영상 전체영역으로 설정한 다음, 333 단계에서는 천정영상 전체영역에 대하여 인 공표식을 검출한다. 331 단계에서의 판단결과, 관심영역이 존재하는 경우 333 단계에서는 저장되어 있던 관심영역에 대하여 인공표식을 검출한다.
340 단계는 330 단계에서의 인공표식 검출결과에 따라서 별도의 자기 위치 및 방위각 추정방법을 적용하기 위한 것으로서, 이를 위하여 341 단계에서는 인공표식 검출에 성공하였는지를 판단한다. 341 단계에서의 판단결과. 인공표식 검출에 실패한 경우에는 342 단계에서 엔코더센서로부터 제공되는 정보를 이용하여 로봇의 위치 및 방위각을 계산한다. 341 단계에서의 판단결과, 인공표식 검출에 성공한 경우에는 343 단계에서 인공표식을 이용하여 로봇의 위치 및 방위각을 계산한다. 상기 343 단계에서 인공표식을 이용한 로봇의 위치 및 방위각 계산을 도 11a 및 도 11b를 참조하여 설명하기로 한다.
도 11a에 있어서 d는 제1 및 제2 표식(110,120) 간의 거리를 나타내고, q는 인공표식(100)의 중심점(Lc)를 x 축상으로 연장한 라인과 제1 및 제2 표식(110,120)을 연결한 라인 간의 각도로서 인공표식의 x 축에 대한 경사각을 나타내고, Rp 는 현재 로봇의 위치를 나타낸다.
이와 같이 인공표식(100)의 위치와 로봇의 위치에 대하여 도 11b에 도시된 바와 같이 쉬프트, 로테이션, 및 플립 과정을 거쳐 로봇의 위치 및 방위각을 추정할 수 있으며, 다음 수학식 1과 같이 정의될 수 있다.
Figure 112003034291589-pat00001
여기서,
Figure 112003034291589-pat00002
는 월드 좌표를 나타내고,
Figure 112003034291589-pat00003
은 카메라 이미지 상의 로봇의 좌표를 나타낸다.
상기 수학식 1에 있어서 각 변환함수(Hshift, Hrotation, Hflip, H scale)는 다음 수학식 2와 같이 나타낼 수 있다.
Figure 112003034291589-pat00004
여기서, (tx, ty)는 인공표식의 중심점(Lc)의 좌표를 나타내고, q는 인공표식의 경사각을 나타내고, s는 인공표식의 실제 물리적인 거리를 인공표식의 이미지 거리로 나눈 값을 나타낸다.
344 단계에서는 342 단계 또는 343 단계에서 계산된 로봇의 위치 및 방위각에 의거하여 로봇의 주행을 제어한다.
도 4는 도 3에 있어서 333 단계의 세부적인 동작을 설명하는 플로우챠트이다.
도 4를 참조하면, 411 단계에서는 획득된 천정영상에 대하여 도 7a 내지 도 9c를 통해 설명한 바와 같은 왜곡보상처리과정을 수행한다. 412 단계에서는 411 단계에서 왜곡보상처리과정이 수행된 천정영상에 대하여 도 10을 통해 설명한 바와 같은 전처리과정을 수행한다.
413 단계에서는 412 단계에서 전처리과정이 수행된 천정영상의 각 픽셀의 밝기를 소정의 기준치와 비교하여, 기준치보다 큰 경우에는 1, 기준치보다 작은 경우에는 0을 적용하여 이진화를 수행한다. 414 단계에서는 이진화가 수행된 천정영상에 대하여 윤곽선 정합을 수행한다. 이와 같이 인공표식으로 분리된 영역의 윤곽선을 검출하여 기저장된 인공표식과 비교하는 윤곽선 정합과 관련해서는 "Visual Pattern Recognition by Moment Invariants"(M. Hu. IRE Transactions on Information Theory, 8:2, pp. 179-187, 1962)에 자세히 기재되어 있다.
415 단계에서는 인공표식(100)의 기하학적 정보를 이용하여 천정영상으로부터 후보영역을 추출한다. 416 단계에서는 각 후보영역에 대하여 템플릿 매칭(template matching)을 수행하여 각 후보영역에 대한 신뢰값을 산출한다. 정규화된 코릴레이션을 이용한 템플릿 매칭과 관련해서는 "Digital Image Processing"(Rafael C. Gonzalez, Richard E. Woods, pp. 583~586, 1992)에 자세히 기재되어 있다. 템플릿 매칭에서 산출되는 신뢰값(r(s,t))은 다음 수학식 3과 같이 정의될 수 있다.
Figure 112003034291589-pat00005
여기서, f는 입력되는 후보영역을 나타내고,
Figure 112003034291589-pat00006
는 인공표식(100)의 현재 위치와 일치하는 영역에서 후보영역(f(x,y))에 포함된 픽셀들의 평균값, w는 인공표식(100) 이미지 즉 템플릿영상,
Figure 112003034291589-pat00007
는 인공표식(w(x,y)) 이미지에 포함된 픽셀들의 평균값을 각각 나타낸다.
417 단계에서는 416 단계에서의 템플릿 매칭 결과 산출되는 각 후보영역의 신뢰값들 중 가장 큰 신뢰값을 선택한다. 418 단계에서는 417 단계에서 선택된 신뢰값을 소정의 기준치와 비교하고, 비교결과 선택된 신뢰값이 소정의 기준치보다 큰 경우에는 419 단계에서 인공표식 검출에 성공한 것으로 판단하고, 선택된 신뢰값이 소정의 기준치보다 작은 경우에는 420 단계에서 인공표식 검출에 실패한 것으로 판단한다.
도 5는 도 3에 있어서 342 단계의 세부적인 동작을 설명하는 플로우챠트이다.
도 5를 참조하면, 511 단계에서는 로봇의 현재 위치(x,y) 및 방위각(θ)을 입력한다. 513 단계에서는 로봇의 좌우 바퀴에 부착된 엔코더 센서(미도시)로부터 출력되는 펄스의 수(
Figure 112003034291589-pat00008
)를 입력한다.
515 단계에서는 상기 511 단계에서 입력된 현재 위치(x,y) 및 방위각(θ)과 상기 513 단계에서 입력된 엔코더 센서로부터 출력되는 펄스의 수(
Figure 112003034291589-pat00009
)를 이용하여 로봇의 다음 위치 및 방위각의 값을 갱신한다. 이를 위해 먼저 수학식 4를 이용하여 엔코더 펄스의 수를 실제 바퀴가 움직임 거리로 변환하기 위한 상수값(
Figure 112003034291589-pat00010
)을 산출한다.
Figure 112003034291589-pat00011
상기 수학식 4에 있어서
Figure 112003034291589-pat00012
은 바퀴의 지름을,
Figure 112003034291589-pat00013
는 엔코더의 해상도 즉, 1회전당 엔코더 펄스의 수, n은 엔코더가 장착된 모터와 바퀴간의 기어비를 각각 나타낸다.
다음, 수학식 5를 이용하여 엔코더 펄스의 수만큼 실제 움직인 각 좌우 바퀴의 주행거리(
Figure 112003034291589-pat00014
)를 산출한다.
Figure 112003034291589-pat00015
상기 수학식 5에 있어서,
Figure 112003034291589-pat00016
는 i 시점에서 로봇의 좌우 바퀴의 엔코더센서의 펄스의 수를 나타낸다.
한편, 바퀴 중심의 평균 이동 거리 변위(
Figure 112003034291589-pat00017
)와 변환된 방위각 변위(
Figure 112003034291589-pat00018
)를 각각 다음 수학식 6과 7을 이용하여 정의할 수 있다.
Figure 112003034291589-pat00019
Figure 112003034291589-pat00020
상기 수학식 7에 있어서, b는 좌우 바퀴간 거리를 나타낸다.
최종적으로 로봇의 i 시점에서 위치 및 방위각 갱신은 수학식 8을 이용하여 수행될 수 있다.
Figure 112003034291589-pat00021
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하 는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
상술한 바와 같이 본 발명에 따르면 어두운 조명이나 조명변화가 심한 환경에서도 잡음이 적은 영상처리과정을 통하여 실시간으로 로봇이 자기 위치 및 방위각을 추정할 수 있으므로 로봇의 키드내핑(kidnapping) 문제를 해결할 수 있다. 또한, 이동로봇이 주행하는 장소의 천정 부분에 소수의 인공표식을 설치하고 패턴인식기법을 이용하여 인공표식을 검출함으로써 표식검출을 위한 영상처리과정을 간소화시킬 수 있다.
이상 도면과 명세서에서 최적 실시예들이 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (19)

  1. (a) 이동로봇이 주행하는 장소의 천정영상을 획득하는 단계;
    (b) 재귀반사형이며 각각 무반사부분과 적외선반사부분으로 이루어지는 제1 및 제2 표식으로 구성되는 인공표식을 상기 천정영상으로부터 검출하는 단계; 및
    (c) 상기 인공표식이 검출되었는지 여부에 따라서 상기 인공표식의 위치 또는 엔코더 정보를 이용하여 상기 이동로봇의 위치 및 방위각을 추정하는 단계를 포함하는 것을 특징으로 하는 이동로봇의 자기 위치 및 방위각 추정방법.
  2. 제1 항에 있어서, 상기 제1 및 제2 표식은 소정거리 이격된 원형으로 이루어지며, 제1 표식의 바깥쪽 부분과 제2 표식의 안쪽 부분은 무반사부분이고, 제1 표식의 안쪽 부분과 제2 표식의 바깥쪽 부분은 적외선반사부분으로 이루어지는 것을 특징으로 하는 이동로봇의 자기 위치 및 방위각 추정방법.
  3. 제1 항에 있어서, 상기 (b) 단계 이전에
    (d) 상기 획득된 천정영상으로부터 현재 환경을 판별하고, 판별된 환경에 따라서 소정의 영상처리를 수행하는 단계를 더 포함하는 것을 특징으로 하는 이동로봇의 자기 위치 및 방위각 추정방법.
  4. 제3 항에 있어서, 상기 (d) 단계는
    (d1) 상기 획득된 천정영상의 평균밝기를 산출하는 단계;
    (d2) 상기 산출된 평균밝기를 소정의 기준치와 비교하여, 현재 환경이 조명이 밝은 상태인지 어두운 상태인지를 판단하는 단계;
    (d3) 현재 환경이 조명이 밝은 상태인 것으로 판단된 경우, 상기 천정영상에 대하여 왜곡보상처리 및 전처리를 수행하는 단계; 및
    (d4) 현재 환경이 조명이 어두운 상태인 것으로 판단된 경우, 상기 천정영상을 반전시킨 다음 왜곡보상처리 및 전처리를 수행하는 단계를 구비하는 것을 특징으로 하는 이동로봇의 자기 위치 및 방위각 추정방법.
  5. 제1 항에 있어서, 상기 (b) 단계는
    (b1) 상기 천정영상에 대하여 상기 인공표식과의 윤곽선 정합 수행결과와 상기 인공표식의 기하학적 정보를 이용하여 상기 천정영상에 대하여 적어도 하나 이상의 후보영역을 추출하는 단계;
    (b2) 상기 검출된 각 후보영역에 대하여 템플릿 매칭을 수행하고, 템플릿 매칭 수행 결과 가장 큰 신뢰값을 선택하여 소정의 기준치와 비교하는 단계; 및
    (b3) 상기 (b2) 단계에서의 비교결과, 상기 선택된 신뢰값이 기준치보다 큰 경우 인공표식 검출에 성공한 것으로 판단하고, 작은 경우 인공표식 검출에 실패한 것으로 판단하는 단계를 구비하는 것을 특징으로 하는 이동로봇의 자기 위치 및 방위각 추정방법.
  6. 제5 항에 있어서, 상기 (b1) 단계에서 이용되는 천정영상은 왜곡보상처리, 전처리 및 이진화처리가 순차적으로 미리 수행된 것을 특징으로 하는 이동로봇의 자기 위치 및 방위각 추정방법.
  7. 제1 항에 있어서, 상기 (c) 단계에서는 검출된 인공표식을 이용하는 경우, 상기 인공표식으로부터 상기 이동로봇의 상대적인 위치 및 방위각을 쉬프트, 로테이션 및 플립과정을 순차적으로 거쳐 추정하는 것을 특징으로 하는 이동로봇의 자기 위치 및 방위각 추정방법.
  8. 이동로봇이 주행하는 장소의 천정영상을 획득하는 천정영상 획득부;
    재귀반사형이며 각각 무반사부분과 적외선반사부분으로 이루어지는 제1 및 제2 표식으로 구성되는 인공표식을 상기 천정영상으로부터 검출하는 표식검출부; 및
    상기 인공표식이 검출되었는지 여부에 따라서 상기 인공표식의 위치 또는 엔코더 정보를 이용하여 상기 이동로봇의 위치 및 방위각을 추정하는 위치 및 방위각 추정부를 포함하는 것을 특징으로 하는 이동로봇의 자기 위치 및 방위각 추정장치.
  9. 제8 항에 있어서, 상기 제1 및 제2 표식은 소정거리 이격된 원형으로 이루어지며, 제1 표식의 바깥쪽 부분과 제2 표식의 안쪽 부분은 무반사부분이고, 제1 표식의 안쪽 부분과 제2 표식의 바깥쪽 부분은 적외선반사부분으로 이루어지는 것을 특징으로 하는 이동로봇의 자기 위치 및 방위각 추정장치.
  10. 제8 항에 있어서, 상기 장치는 상기 획득된 천정영상으로부터 현재 환경을 판별하고, 판별된 환경에 따라서 소정의 영상처리를 수행하는 영상처리부를 더 포함하는 것을 특징으로 하는 이동로봇의 자기 위치 및 방위각 추정장치.
  11. 제10 항에 있어서, 상기 영상처리부는 상기 획득된 천정영상의 평균밝기를 산출하고, 상기 산출된 평균밝기를 소정의 기준치와 비교하여, 현재 환경이 조명이 밝은 상태인지 어두운 상태인지를 판단하고, 현재 환경이 조명이 어두운 상태인 것으로 판단된 경우, 상기 천정영상을 반전시킨 다음 왜곡보상처리 및 전처리를 수행하는 것을 특징으로 하는 이동로봇의 자기 위치 및 방위각 추정장치.
  12. 제1 항에 있어서, 상기 표식검출부는 상기 천정영상에 대하여 상기 인공표식과의 윤곽선 정합 수행결과와 상기 인공표식의 기하학적 정보를 이용하여 상기 천정영상에 대하여 적어도 하나 이상의 후보영역을 추출하고, 상기 검출된 각 후보영역에 대하여 템플릿 매칭을 수행하고, 템플릿 매칭 수행 결과 가장 큰 신뢰값을 선택하여 소정의 기준치와 비교하여 상기 선택된 신뢰값이 기준치보다 큰 경우 인공표식 검출에 성공한 것으로 판단하고, 작은 경우 인공표식 검출에 실패한 것으로 판단하는 것을 특징으로 하는 이동로봇의 자기 위치 및 방위각 추정장치.
  13. 이동로봇이 주행하는 장소의 천정영상을 획득하는 천정영상 획득부;
    재귀반사형이며 무반사부분과 적외선반사부분으로 이루어지는 제1 및 제2 표식으로 구성되는 인공표식을 상기 천정영상으로부터 검출하는 표식검출부;
    상기 인공표식 검출 성공여부에 따라서 상기 인공표식의 위치 또는 엔코더 정보를 이용하여 상기 이동로봇의 위치 및 방위각을 추정하는 위치 및 방위각 추정부; 및
    상기 위치 및 방위각 추정부에서 추정된 위치 및 방위각에 따라서 상기 이동로봇의 주행을 제어하는 주행제어부를 포함하는 것을 특징으로 하는 이동로봇.
  14. 제13 항에 있어서, 상기 제1 및 제2 표식은 소정거리 이격된 원형으로 이루어지며, 제1 표식의 바깥쪽 부분과 제2 표식의 안쪽 부분은 무반사부분이고, 제1 표식의 안쪽 부분과 제2 표식의 바깥쪽 부분은 적외선반사부분으로 이루어지는 것을 특징으로 하는 이동로봇.
  15. 제13 항에 있어서, 상기 획득된 천정영상으로부터 현재 환경을 판별하고, 판별된 환경에 따라서 소정의 영상처리를 수행하는 영상처리부를 더 포함하는 것을 특징으로 하는 이동로봇.
  16. 제15 항에 있어서, 상기 영상처리부는 상기 획득된 천정영상의 평균밝기를 산출하고, 상기 산출된 평균밝기를 소정의 기준치와 비교하여, 현재 환경이 조명이 밝은 상태인지 어두운 상태인지를 판단하고, 현재 환경이 조명이 어두운 상태로 판 단된 경우, 상기 천정영상을 반전시킨 다음 왜곡보상처리 및 전처리를 수행하는 것을 특징으로 하는 이동로봇.
  17. 제13 항에 있어서, 상기 표식검출부는 상기 천정영상에 대하여 상기 인공표식과의 윤곽선 정합 수행결과와 상기 인공표식의 기하학적 정보를 이용하여 상기 천정영상에 대하여 적어도 하나 이상의 후보영역을 추출하고, 상기 검출된 각 후보영역에 대하여 템플릿 매칭을 수행하고, 템플릿 매칭 수행 결과 가장 큰 신뢰값을 선택하여 소정의 기준치와 비교하여 상기 선택된 신뢰값이 기준치보다 큰 경우 인공표식 검출에 성공한 것으로 판단하고, 작은 경우 인공표식 검출에 실패한 것으로 판단하는 것을 특징으로 하는 이동로봇.
  18. 제1 항 내지 제7 항중 어느 한 항에 기재된 방법을 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  19. 제13 항에 있어서, 상기 장치는
    상기 천정영상의 평균밝기를 산출하고, 상기 산출된 평균밝기를 이용하여 현재 환경이 조명이 밝은 상태인지 어두운 상태인지를 판단하는 영상밝기 비교부;
    상기 영상밝기 비교부의 판단결과에 따라서 상기 이동로봇에 부착된 조명장치를 제어하는 조명제어부를 더 포함하는 것을 특징으로 하는 이동로봇.
KR1020030064242A 2003-09-16 2003-09-16 이동로봇의 자기위치 및 방위각 추정방법 및 장치 KR100552691B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020030064242A KR100552691B1 (ko) 2003-09-16 2003-09-16 이동로봇의 자기위치 및 방위각 추정방법 및 장치
EP04255550.8A EP1517210B1 (en) 2003-09-16 2004-09-14 Apparatus and method for estimating position and orientation of mobile robot
JP2004270092A JP4533065B2 (ja) 2003-09-16 2004-09-16 人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラム
CN2004100789589A CN1598610B (zh) 2003-09-16 2004-09-16 用于估计移动式机器人的位置和方位的装置和方法
US10/941,846 US7765027B2 (en) 2003-09-16 2004-09-16 Apparatus and method for estimating a position and an orientation of a mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030064242A KR100552691B1 (ko) 2003-09-16 2003-09-16 이동로봇의 자기위치 및 방위각 추정방법 및 장치

Publications (2)

Publication Number Publication Date
KR20050027858A KR20050027858A (ko) 2005-03-21
KR100552691B1 true KR100552691B1 (ko) 2006-02-20

Family

ID=34192235

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030064242A KR100552691B1 (ko) 2003-09-16 2003-09-16 이동로봇의 자기위치 및 방위각 추정방법 및 장치

Country Status (5)

Country Link
US (1) US7765027B2 (ko)
EP (1) EP1517210B1 (ko)
JP (1) JP4533065B2 (ko)
KR (1) KR100552691B1 (ko)
CN (1) CN1598610B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101037971B1 (ko) 2009-06-22 2011-05-30 (주)로봇에버 영상기반 위치인식 방법 및 시스템

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100569181B1 (ko) * 2004-01-06 2006-04-07 김진오 실내 항법을 위한 좌표확인 시스템
KR100669250B1 (ko) * 2005-10-31 2007-01-16 한국전자통신연구원 인공표식 기반의 실시간 위치산출 시스템 및 방법
JP4438736B2 (ja) * 2005-11-04 2010-03-24 村田機械株式会社 搬送装置
TW200736870A (en) * 2005-11-04 2007-10-01 Murata Machinery Ltd Control device for movable body
US7681796B2 (en) * 2006-01-05 2010-03-23 International Business Machines Corporation Mobile device tracking
JP4448497B2 (ja) * 2006-03-23 2010-04-07 本田技研工業株式会社 移動体の自己位置検出装置および位置検出システム
KR100785784B1 (ko) * 2006-07-27 2007-12-13 한국전자통신연구원 인공표식과 오도메트리를 결합한 실시간 위치산출 시스템및 방법
KR100966875B1 (ko) * 2006-09-26 2010-06-29 삼성전자주식회사 전방위 영상을 이용한 로봇의 위치 결정방법
KR100773271B1 (ko) * 2006-10-25 2007-11-05 전자부품연구원 단일 카메라를 이용한 이동 로봇의 위치 측정 방법
JP4825980B2 (ja) * 2007-03-06 2011-11-30 国立大学法人岩手大学 魚眼カメラの校正方法。
CN101669144B (zh) * 2007-03-13 2013-09-18 浦项产业科学研究院 用于移动式机器人的位置确定的路标和使用该路标的设备与方法
KR100960650B1 (ko) * 2007-04-03 2010-06-07 엘지전자 주식회사 이동로봇 및 그 동작방법
KR100922494B1 (ko) * 2007-07-19 2009-10-20 삼성전자주식회사 이동 로봇의 자세 측정 방법 및 상기 방법을 이용한 위치측정 방법 및 장치
KR101337534B1 (ko) * 2007-07-24 2013-12-06 삼성전자주식회사 이동 로봇의 위치 인식 장치 및 방법
KR101461185B1 (ko) * 2007-11-09 2014-11-14 삼성전자 주식회사 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법
KR20090066776A (ko) * 2007-12-20 2009-06-24 한국전자통신연구원 로봇 위치 추정을 위한 위치결정서비스 프레임 워크 장치및 그 방법
TWI384407B (zh) * 2008-02-29 2013-02-01 Ind Tech Res Inst 利用盲文編碼圖案之區域識別系統
US9495386B2 (en) 2008-03-05 2016-11-15 Ebay Inc. Identification of items depicted in images
WO2009111047A2 (en) 2008-03-05 2009-09-11 Ebay Inc. Method and apparatus for image recognition services
KR101007045B1 (ko) * 2008-03-12 2011-01-12 주식회사 애트랩 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법
KR101503904B1 (ko) * 2008-07-07 2015-03-19 삼성전자 주식회사 이동 로봇의 지도 구성 장치 및 방법
EP2460629B1 (en) * 2009-07-28 2022-06-29 Yujin Robot Co., Ltd. Control method for localization and navigation of mobile robot and mobile robot using same
US9164577B2 (en) * 2009-12-22 2015-10-20 Ebay Inc. Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
US10127606B2 (en) 2010-10-13 2018-11-13 Ebay Inc. Augmented reality system and method for visualizing an item
KR101906329B1 (ko) * 2010-12-15 2018-12-07 한국전자통신연구원 카메라 기반의 실내 위치 인식 장치 및 방법
US8737685B2 (en) 2011-04-25 2014-05-27 Honeywell International Inc. Systems and methods for detecting the movement of an object
US8908923B2 (en) * 2011-05-13 2014-12-09 International Business Machines Corporation Interior location identification
US20150153181A1 (en) * 2011-07-27 2015-06-04 Google Inc. System and method for providing indoor navigation services
US9449342B2 (en) 2011-10-27 2016-09-20 Ebay Inc. System and method for visualization of items in an environment using augmented reality
JP5601332B2 (ja) * 2012-02-08 2014-10-08 村田機械株式会社 搬送車
US10846766B2 (en) 2012-06-29 2020-11-24 Ebay Inc. Contextual menus based on image recognition
CN103970133A (zh) * 2013-01-31 2014-08-06 鸿富锦精密工业(武汉)有限公司 利用图像分析技术实现物体移动的方法及***
US10612939B2 (en) 2014-01-02 2020-04-07 Microsoft Technology Licensing, Llc Ground truth estimation for autonomous navigation
CN103728589B (zh) * 2014-01-09 2016-05-11 上海京颐科技股份有限公司 一种室内定位方法
US10708550B2 (en) 2014-04-08 2020-07-07 Udisense Inc. Monitoring camera and mount
JP6539958B2 (ja) 2014-08-28 2019-07-10 村田機械株式会社 搬送車
GB2529846B (en) 2014-09-03 2019-02-20 Dyson Technology Ltd Illumination Control of a Vision System for a Mobile Robot
GB2529847B (en) 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile Robot with Independently Adjustable Light Sources
JP2017531259A (ja) * 2014-10-31 2017-10-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 位置に基づく制御方法、装置、移動可能な機器及びロボット
CN104950892B (zh) * 2015-06-29 2017-10-31 厦门狄耐克物联智慧科技有限公司 一种机器人的行走控制***及方法
USD854074S1 (en) 2016-05-10 2019-07-16 Udisense Inc. Wall-assisted floor-mount for a monitoring camera
CN106370188A (zh) * 2016-09-21 2017-02-01 旗瀚科技有限公司 一种基于3d摄像机的机器人室内定位与导航方法
US10589931B2 (en) 2016-09-30 2020-03-17 Staples, Inc. Hybrid modular storage fetching system
CN109791477A (zh) 2016-09-30 2019-05-21 史泰博公司 混合式模块化存储提取***
US10683171B2 (en) 2016-09-30 2020-06-16 Staples, Inc. Hybrid modular storage fetching system
CN106527434A (zh) * 2016-11-07 2017-03-22 北京京东尚科信息技术有限公司 自动传送***及方法
EP3421936A1 (en) 2017-06-30 2019-01-02 Panasonic Automotive & Industrial Systems Europe GmbH Optical marker element for geo location information
USD855684S1 (en) 2017-08-06 2019-08-06 Udisense Inc. Wall mount for a monitoring camera
CN107843251B (zh) * 2017-10-18 2020-01-31 广东宝乐机器人股份有限公司 移动机器人的位姿估计方法
WO2019104108A1 (en) 2017-11-22 2019-05-31 Udisense Inc. Respiration monitor
KR102024094B1 (ko) 2017-12-21 2019-09-23 엘지전자 주식회사 인공지능을 이용한 이동 로봇 및 그 제어방법
CN108181610B (zh) * 2017-12-22 2021-11-19 鲁东大学 室内机器人定位方法和***
CN110733033B (zh) 2018-07-19 2023-03-24 科沃斯机器人股份有限公司 机器人控制方法、机器人及存储介质
US11084410B1 (en) 2018-08-07 2021-08-10 Staples, Inc. Automated guided vehicle for transporting shelving units
US11590997B1 (en) 2018-08-07 2023-02-28 Staples, Inc. Autonomous shopping cart
US11630447B1 (en) 2018-08-10 2023-04-18 Staples, Inc. Automated guided vehicle for transporting objects
JP6684531B2 (ja) * 2018-08-23 2020-04-22 三菱ロジスネクスト株式会社 無人搬送システム
CN212089442U (zh) 2018-12-03 2020-12-08 尚科宁家运营有限公司 用于机器人清洁器的对接站和信标及机器人清洁器***
US11180069B2 (en) 2018-12-31 2021-11-23 Staples, Inc. Automated loading of delivery vehicles using automated guided vehicles
US11119487B2 (en) 2018-12-31 2021-09-14 Staples, Inc. Automated preparation of deliveries in delivery vehicles using automated guided vehicles
USD900430S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle blanket
USD900431S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle blanket with decorative pattern
USD900429S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle band with decorative pattern
USD900428S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle band
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10399227B1 (en) 2019-03-29 2019-09-03 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11124401B1 (en) 2019-03-31 2021-09-21 Staples, Inc. Automated loading of delivery vehicles
WO2020257948A1 (en) * 2019-06-28 2020-12-30 Advanced Intelligent Systems Inc. System and method for optical localization
CN110530399B (zh) * 2019-09-06 2023-03-24 苏州寻迹智行机器人技术有限公司 双轮差速移动机器人里程计标定的轮间距修正方法
CN110597266A (zh) * 2019-09-26 2019-12-20 青岛蚂蚁机器人有限责任公司 基于二维码的机器人路径动态规划方法
CN113110408B (zh) * 2019-12-25 2023-09-29 北京极智嘉科技股份有限公司 机器人定位***及方法、机器人、计算机可读存储介质
CN112880689A (zh) * 2021-01-29 2021-06-01 北京百度网讯科技有限公司 一种领位方法、装置、电子设备及存储介质
CN113075647A (zh) * 2021-02-20 2021-07-06 上海擎朗智能科技有限公司 机器人定位方法、装置、设备和介质
CN114355933A (zh) * 2021-12-31 2022-04-15 山东新一代信息产业技术研究院有限公司 机器人对接充电桩的运动控制方法
KR20240051654A (ko) 2022-10-13 2024-04-22 장영익 고압가스를 이용한 감압 밸브

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4281342A (en) * 1978-03-29 1981-07-28 Hitachi, Ltd. Mark detecting system using image pickup device
GB8313339D0 (en) * 1983-05-14 1983-06-22 Gen Electric Co Plc Vehicle guidance
US4817000A (en) * 1986-03-10 1989-03-28 Si Handling Systems, Inc. Automatic guided vehicle system
US5208750A (en) * 1987-06-17 1993-05-04 Nissan Motor Co., Ltd. Control system for unmanned automotive vehicle
US4947094A (en) * 1987-07-23 1990-08-07 Battelle Memorial Institute Optical guidance system for industrial vehicles
US4996468A (en) * 1987-09-28 1991-02-26 Tennant Company Automated guided vehicle
US4846297A (en) * 1987-09-28 1989-07-11 Tennant Company Automated guided vehicle
US4790402A (en) * 1987-09-28 1988-12-13 Tennant Company Automated guided vehicle
JPH01274214A (ja) 1988-04-26 1989-11-02 Mazda Motor Corp 移動車の画像処理装置
ATE148659T1 (de) 1988-05-09 1997-02-15 Int Paper Co Sauerstoffundurchlässiger leckagefreier behälter
US5040116A (en) * 1988-09-06 1991-08-13 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US4933864A (en) * 1988-10-04 1990-06-12 Transitions Research Corporation Mobile robot navigation employing ceiling light fixtures
US5051906A (en) * 1989-06-07 1991-09-24 Transitions Research Corporation Mobile robot navigation employing retroreflective ceiling features
US5187662A (en) * 1990-01-24 1993-02-16 Honda Giken Kogyo Kabushiki Kaisha Steering control system for moving vehicle
JPH0684522B2 (ja) 1990-06-05 1994-10-26 ハリマセラミック株式会社 真空脱ガス装置スノーケル部の補修方法
DE4023952A1 (de) * 1990-07-27 1992-02-06 Bayerische Motoren Werke Ag Bildverarbeitungsverfahren und bildverarbeitungssystem fuer fahrzeuge, insbesondere fuer kraftfahrzeuge
JP2521156Y2 (ja) * 1990-08-08 1996-12-25 アニマ株式会社 位置計測用ターゲット
EP0479271B1 (en) * 1990-10-03 1998-09-09 Aisin Seiki Kabushiki Kaisha Automatic lateral guidance control system
US5390118A (en) * 1990-10-03 1995-02-14 Aisin Seiki Kabushiki Kaisha Automatic lateral guidance control system
JPH064127A (ja) 1992-06-16 1994-01-14 Ishikawajima Harima Heavy Ind Co Ltd 屋内移動体の自己位置測定装置
US5567919A (en) 1993-12-22 1996-10-22 Combustion Engineering, Inc. Gravimetric feeding system for boiler fuel and sorbent
US5530330A (en) * 1994-03-30 1996-06-25 Inco Limited Automated guidance system for a vehicle
US5525883A (en) * 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
JPH08313215A (ja) * 1995-05-23 1996-11-29 Olympus Optical Co Ltd 2次元距離センサ
US5675489A (en) * 1995-07-06 1997-10-07 Carnegie Mellon University System and method for estimating lateral position
US5875408A (en) * 1995-07-17 1999-02-23 Imra America, Inc. Automated vehicle guidance system and method for automatically guiding a vehicle
EP0841594A3 (en) * 1996-11-07 1999-08-25 Nikon Corporation Mark for position detection, mark detecting method and apparatus, and exposure system
US6163745A (en) * 1997-04-15 2000-12-19 Ainsworth Inc. Guidance system for automated vehicles, and guidance strip for use therewith
US6194486B1 (en) * 1997-05-28 2001-02-27 Trw Inc. Enhanced paint for microwave/millimeter wave radiometric detection applications and method of road marker detection
JP2000111344A (ja) 1998-10-08 2000-04-18 Asahi Optical Co Ltd 写真測量用ターゲット
US6629028B2 (en) * 2000-06-29 2003-09-30 Riken Method and system of optical guidance of mobile body
US6496754B2 (en) * 2000-11-17 2002-12-17 Samsung Kwangju Electronics Co., Ltd. Mobile robot and course adjusting method thereof
RU2220643C2 (ru) * 2001-04-18 2004-01-10 Самсунг Гванджу Электроникс Ко., Лтд. Автоматическое чистящее устройство, автоматическая чистящая система и способ управления этой системой (варианты)
US6577764B2 (en) * 2001-08-01 2003-06-10 Teranex, Inc. Method for measuring and analyzing digital video quality
US6807478B2 (en) * 2001-12-27 2004-10-19 Koninklijke Philips Electronics N.V. In-building navigation system
US7010404B2 (en) * 2002-01-23 2006-03-07 Kabushiki Kaisha Toyota Jidoshokki Position control apparatus and position control method for cargo carrying apparatus in industrial vehicle
KR100483548B1 (ko) * 2002-07-26 2005-04-15 삼성광주전자 주식회사 로봇 청소기와 그 시스템 및 제어 방법
US7231063B2 (en) * 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
US7089099B2 (en) * 2004-07-30 2006-08-08 Automotive Technologies International, Inc. Sensor assemblies

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101037971B1 (ko) 2009-06-22 2011-05-30 (주)로봇에버 영상기반 위치인식 방법 및 시스템

Also Published As

Publication number Publication date
EP1517210A3 (en) 2006-10-04
US7765027B2 (en) 2010-07-27
KR20050027858A (ko) 2005-03-21
US20050065655A1 (en) 2005-03-24
EP1517210B1 (en) 2015-04-08
CN1598610A (zh) 2005-03-23
JP4533065B2 (ja) 2010-08-25
JP2005121641A (ja) 2005-05-12
EP1517210A2 (en) 2005-03-23
CN1598610B (zh) 2010-10-27

Similar Documents

Publication Publication Date Title
KR100552691B1 (ko) 이동로봇의 자기위치 및 방위각 추정방법 및 장치
JP6978491B2 (ja) 地面マーキングを認識するための画像処理方法、および地面マーキングを検出するためのシステム
JP4450532B2 (ja) 相対位置計測装置
US7321386B2 (en) Robust stereo-driven video-based surveillance
US8699754B2 (en) Clear path detection through road modeling
CN111856491B (zh) 用于确定车辆的地理位置和朝向的方法和设备
CN111089590B (zh) 一种视觉和激光融合的移动机器人跟踪人腿方法
CN111611853B (zh) 一种传感信息融合方法、装置及存储介质
Zhang et al. Robust appearance based visual route following for navigation in large-scale outdoor environments
KR101569919B1 (ko) 차량의 위치 추정 장치 및 방법
KR20110011424A (ko) 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
US20100104137A1 (en) Clear path detection using patch approach
CN111652896B (zh) 惯导辅助陨石坑由粗到精检测方法
JP2002197444A (ja) 車両の走行路認識装置
US11371851B2 (en) Method and system for determining landmarks in an environment of a vehicle
EP2049308A1 (en) System and method for calculating location using a combination of odometry and landmarks
JP5281867B2 (ja) 車両走行速度制御装置および方法
KR20200000953A (ko) 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법
KR101944497B1 (ko) 지능형 cctv를 활용한 무인주행차량의 제어시스템 및 방법
Do et al. Context-based parking slot detection with a realistic dataset
JP3589293B2 (ja) 道路の白線検出方法
CN212044739U (zh) 一种基于惯性数据和视觉特征的定位装置及机器人
JP5447164B2 (ja) 移動体識別装置、コンピュータプログラム及び移動体識別方法
JP2018116147A (ja) 地図作成装置、地図作成方法及び地図作成用コンピュータプログラム
Zingaretti et al. Route following based on adaptive visual landmark matching

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130115

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140124

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150116

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160118

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170117

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180117

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20200120

Year of fee payment: 15