KR20110122022A - 지도 생성 장치 및 방법 - Google Patents

지도 생성 장치 및 방법 Download PDF

Info

Publication number
KR20110122022A
KR20110122022A KR1020100041586A KR20100041586A KR20110122022A KR 20110122022 A KR20110122022 A KR 20110122022A KR 1020100041586 A KR1020100041586 A KR 1020100041586A KR 20100041586 A KR20100041586 A KR 20100041586A KR 20110122022 A KR20110122022 A KR 20110122022A
Authority
KR
South Korea
Prior art keywords
map
sub
satisfied
generating
image
Prior art date
Application number
KR1020100041586A
Other languages
English (en)
Other versions
KR101782057B1 (ko
Inventor
최현도
정우연
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100041586A priority Critical patent/KR101782057B1/ko
Priority to US13/099,866 priority patent/US8787614B2/en
Publication of KR20110122022A publication Critical patent/KR20110122022A/ko
Application granted granted Critical
Publication of KR101782057B1 publication Critical patent/KR101782057B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

실시간으로 지도 작성 및 위치 인식을 수행하면서도 정확한 지도를 생성하기 위한 지도 생성 장치 및 방법이 제공된다. 위치 이동에 따른 지도를 생성하는 지도 생성 장치는, 위치 이동에 따른 영상들을 획득하는 영상 센서와, 획득된 영상들을 이용하여, 장치의 위치를 인식하고 지도를 생성하며, 서브 지도 생성 중단 조건을 만족하면, 조건 만족전까지 생성된 서브 지도를 저장하는 서브 지도 생성부와, 서브 지도 생성 중단 조건을 만족하는지 여부를 결정하는 동작 결정부와, 서브 지도 생성 중단 조건이 만족되면, 서브 지도 저장 후에 영상 센서로부터 새롭게 획득되는 영상들을 나타내는 영상 그룹을 저장하는 영상 그룹 저장 수행부와, 지도 생성 장치가 이미 방문한 위치에 다시 위치하는 것으로 결정되면, 생성된 서브 지도 및 저장된 영상 그룹을 이용하여 전체 지도를 생성하는 전체 지도 생성부를 포함한다.

Description

지도 생성 장치 및 방법{Apparatus for building map and method thereof}
지도 생성 장치 및 방법에 관한 것으로, 더욱 상세하게는, 영상 획득 장치가 이동하면서 획득한 영상들을 이용하여 전체 지도를 생성하는 장치 및 방법에 관한 것이다.
지도 구성과 함께 자신의 위치를 인식하는 방법 중 하나로 슬램(SLAM; Simultaneous Localization And Mapping) 알고리즘이 이용된다. 슬램 알고리즘은 어떤 위치에서 주변 환경의 지도를 구성하고, 구성된 지도를 바탕으로 다시 이동한 로봇의 위치를 알아내는 과정을 반복하여 로봇의 위치와 주변 환경의 지도를 동시에 추정할 수 있는 알고리즘이다. 그러나, 슬램을 수행하는 이동 로봇에 슬립이 발생한 경우와 같이, 지도를 생성하는데 이용되는 카메라 등의 장치의 자세가 급격히 변하는 경우, 인식된 위치 및 장치의 자세의 불확실도가 증가한다. 이에 따라, 생성되는 지도에 오차가 발생된다.
실시간으로 지도 작성 및 위치 인식을 수행하면서도 정확한 지도를 생성하는 지도 생성 장치 및 방법이 제공된다.
일 측면에 따른 위치 이동에 따른 지도를 생성하는 장치는, 위치 이동에 따른 지도를 생성하는 장치는, 위치 이동에 따른 영상들을 획득하는 영상 센서와, 획득된 영상들을 이용하여, 장치의 위치를 인식하고 서브 지도를 생성하며, 서브 지도 생성 중단 조건을 만족하면, 조건 만족전까지 생성된 서브 지도를 저장하는 서브 지도 생성부와, 서브 지도 생성 중단 조건을 만족하는지 여부를 결정하는 동작 결정부와, 서브 지도 생성 중단 조건이 만족되면, 서브 지도 저장 후에 영상 센서로부터 새롭게 획득되는 영상들을 나타내는 영상 그룹을 저장하는 영상 그룹 저장 수행부와, 지도 생성 장치가 이미 방문한 위치에 다시 위치하는 것으로 결정되면, 생성된 서브 지도 및 저장된 영상 그룹을 이용하여 전체 지도를 생성하는 전체 지도 생성부를 포함한다.
서브 지도 생성부는 위치 인식 및 지도 작성을 동시에 수행하는 슬램을 수행하여 서브 지도를 생성할 수 있다.
전체 지도 생성부는, 서브 지도 및 저장된 영상 그룹에 번들 조정을 수행하여 전체 지도를 생성할 수 있다.
동작 결정부는, 서브 지도에 포함된 각 특징점의 불확실도가 특정 값 이상인 경우, 서브 지도 생성 중단 조건을 만족하는 것으로 결정할 수 있다.
동작 결정부는, 획득된 영상 내의 특징점의 수가 임계 개수보다 작은 경우, 획득된 영상내에 설정되는 파티클의 수가 임계 개수보다 작은 경우, 및 획득된 영상 내의 특징점이 편중되어 있는 경우 중 적어도 하나의 경우, 서브 지도 생성 중단 조건을 만족하는 것으로 결정할 수 있다.
동작 결정부는, 슬립이 감지되면, 서브 지도 생성 중단 조건을 만족하는 것으로 결정할 수 있다.
동작 결정부는, 영상 그룹 저장 동작 수행 도중, 새로운 서브 지도 생성 조건을 만족하는지를 결정하고, 새로운 서브 지도 생성 조건이 만족됨에 따라, 영상 그룹 저장 동작을 중단하고, 서브 지도 생성부가 새로운 서브 지도를 생성하도록 제어할 수 있다.
새로운 서브 지도 생성 조건은, 특정 개수 이상의 영상들이 저장된 경우 및 영상 센서의 위치가 특정 거리 이상 이동된 경우 중 적어도 하나일 수 있다.
지도 생성 장치가 이미 방문한 위치에 다시 위치하는지를 결정하는 루프 클로징 수행부를 더 포함할 수 있다.
다른 측면에 따른 위치 이동에 따른 지도를 생성하는 장치에서 지도를 생성하는 방법은, 이동에 따라 획득되는 영상들을 이용하여, 위치를 인식하고 서브 지도를 생성하는 단계와, 서브 지도 생성 중단 조건을 만족함에 따라, 서브 지도 생성을 중단하고, 서브 지도 저장 후에 새롭게 획득되는 영상들을 나타내는 영상 그룹을 저장하는 단계와, 장치가 이미 방문한 위치에 다시 위치하는 것으로 결정됨에 따라, 생성된 서브 지도 및 저장된 영상 그룹을 이용하여 전체 지도를 생성하는 단계를 포함한다.
실시간으로 지도 작성 및 위치 인식을 수행하면서, 급격한 카메라의 운동 등에 의해 지도의 불확도가 저하될 가능성이 있는 구간에서는 영상 데이터를 저장하여, 저장된 영상 데이터 및 작성된 지도를 이용하여 정확한 전체 지도를 생성할 수 있다.
도 1은 지도 생성 장치의 구성의 일 예를 나타내는 블록도이다.
도 2는 지도 생성 과정의 일 예를 나타내는 도면이다.
도 3은 도 1의 지도 생성 장치에서 수행되는 지도 생성 방법의 일 예를 나타내는 순서도이다.
도 4는 이동 로봇으로 구현된 지도 생성 장치의 구성의 일 예를 나타내는 블록도이다.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시예를 상세하게 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 지도 생성 장치의 구성의 일 예를 나타내는 블록도이다.
지도 생성 장치(100)는 영상 센서(110), 지도 생성부(120) 및 루프 클로징 수행부(130)를 포함할 수 있다. 지도 생성 장치(100)는 카메라, 이동 로봇, 카메라를 포함하는 단말 장치로 구현될 수 있다.
영상 센서(110)는 외부의 이미지를 포착하여 포착된 이미지를 디지털 신호로 변환한다. 영상 센서(110)는 CCD(Charge Coupled Device) 모듈이나 CMOS(Complementary Metal Oxide Semiconductor) 모듈을 포함하여 구성될 수 있다. 영상 센서(110)는 위치 이동에 따라 달라지는 영상들을 획득한다. 지도 생성 장치(100)가 카메라를 포함하는 단말 장치인 경우, 사용자가 지도 생성 장치(100)를 가지고 이동함에 따라, 영상 센서(110)에 의해 영상들이 획득될 수 있다. 지도 생성 장치(100)가 이동 로봇인 경우, 이동 로봇의 이동에 따라, 위치 이동에 따른 영상들이 획득될 수 있다.
지도 생성부(120)는, 서브 지도 생성부(122), 동작 결정부(124), 영상 그룹 저장 수행부(126), 및 전체 지도 생성부(128)를 포함할 수 있다.
서브 지도 생성부(122)는 지도 생성 장치(100)가 이동함에 따라 영상 센서(110)로부터 획득되는 영상들을 이용하여 위치 인식을 수행하고 지도를 작성한다. 서브 지도 생성부(122)는 영상 센서(110)로부터 획득되는 영상으로부터 추출된 특징점 및 각 특징점을 식별하는 특징점 기술자, 특징점의 불확실도 정보를 포함할 수 있다. 서브 지도 생성부(122)는 슬램을 수행하여 지도 작성과 함께 위치 인식을 수행할 수도 있다.
여기에서 특징점은 사물의 모서리 또는 코너와 같이 형상을 특정시킬 수 있는 점을 의미한다. 이러한 특징점은 특징점 지도 생성(map building)의 기초가 되는데 랜드마크(landmark)라고도 한다. 또한, 특징점은 닫힌 영역(closed region)의 윤곽선에서 추출된 라인 또는 점이 될 수 있다. 예를 들어, 실내의 천장을 촬영한 천장 영상 중에서 조명 등의 원형이나 사각형의 윤곽선으로부터 라인이나 점을 추출하여 특징점으로 사용할 수 있다. 또한, 여기에서, 특징점 기술자는 특징점을 구별할 수 있는 각 특징점별 로컬 영상, 영상의 방향성 정보 또는 벡터 정보 등이 될 수 있다.
서브 지도 생성부(122)는 SIFT(Scale-Invariant Feature Transform), MSER(Maximally Stable Extremal Region) 기법, 또는 해리스 코너 검출(Harris Corner Detector) 방법 등과 같은 다양한 특징점 추출 알고리즘을 이용하여 특징점 및 특징점 기술자를 생성할 수 있다. 특징점 기술자는 특징점을 구별할 수 있는 특징점별 로컬 영상, 영상의 방향성 정보 또는 벡터 정보 등이 될 수 있다. 특징점별 로컬 영상은 영상 패치(image patch)라고 부를 수 있다.
서브 지도 생성부(122)는 지도 생성 장치(100)가 출발하는 위치 및 출발시 방향각을 기준값으로 위치를 추정할 수 있다. 지도 생성 장치(100)의 위치에 대한 기준은 지도 상에 존재하는 특징점이 될 수 있다. 따라서, 지도 생성 장치(100)의 위치 정보는 지도 생성 장치(100)가 인식한 특징점을 기준으로 한 지도 생성 장치(100)의 위치 및 방향각을 포함할 수 있다. 서브 지도 생성부(122)는 파티클 필터 또는 칼만 필터 등의 위치 추정 알고리즘을 이용하여 위치를 추정할 수 있다.
서브 지도 생성부(122)는 영상들을 이용하여, 위치를 인식하고 지도를 생성하고, 서브 지도 생성 중단 조건을 만족함에 따라, 서브 지도 생성 중단 조건을 만족하기 전까지 생성된 서브 지도를 저장한다. 서브 지도를 저장하는 저장 공간(도시되지 않음)은 서브 지도 생성부(122)내에 포함될 수도 있고 외부의 공간에 존재할 수도 있다.
동작 결정부(124)는 서브 지도 생성 중단 조건을 만족하는지 결정한다. 동작 결정부(124)는 특정점 위치에 대한 불확실도가 특정 값 이상이 되는 경우 서브 지도 생성을 중단할 수 있다.
특징점의 위치에 대한 불확실도는 예를 들어, 칼만 필터의 오차 공분산 행렬로부터 계산될 수 있다. 확장 칼만 필터(Extended Kalman Filter)를 이용하여 이동 로봇(100)의 현재 위치 및 획득된 영상들로부터의 특징점을 처리하는 경우, 확장 칼만 필터의 수행 결과로 생성되는 오차 공분산 행렬로부터 이동 로봇의 추정 위치에 대한 공분산, 각 특징점들의 위치에 대한 공분산 값이 도출될 수 있다. 확장 칼만 필터를 이용하는 경우 로봇 위치에 대한 공분산, 각 특징점들에 대한 공분산 값이 도출되는 과정은 공지되어 있는 바 자세한 설명은 생략한다.
또한, 동작 결정부(124)는, 획득된 영상 내의 특징점의 수가 임계 개수보다 작은 경우, 획득된 영상내에 설정되는 파티클의 수가 임계 개수보다 작은 경우, 및 획득된 영상 내의 특징점이 편중되어 있는 경우 중 적어도 하나의 경우, 서브 지도 생성 중단 조건을 만족하는 것으로 결정할 수 있다. 획득된 영상 내의 특징점이 편중되어 있는지는 영상에 포함된 특징점들의 2차원적 위치를 평균하여, 영상의 중심에서 벗어난 정도를 계산함으로써 결정될 수 있다.
영상 그룹 저장 수행부(126)는 서브 지도 생성 중단 조건이 만족되면, 서브 지도 저장 후에 영상 센서(110)로부터 새롭게 획득되는 영상들을 나타내는 영상 그룹을 저장한다. 영상 그룹 저장 수행부(126)는 서브 지도 생성에 이용된 영상 이후에 새로운 영상이 입력될 때마다 새로운 영상을 저장하고, 새로운 영상으로부터 특징점들을 추출하고 특징점 기술자를 생성할 수 있다. 영상 그룹 저장 수행부(126)는 서브 지도 생성부(122)에서 이용하는 특징점 추출 알고리즘과 동일한 알고리즘을 이용하여 특징점을 추출할 수 있다.
또한, 동작 결정부(124)는, 영상 그룹 저장 동작 수행 도중, 새로운 서브 지도 생성 조건을 만족하는지를 결정하고, 새로운 서브 지도 생성 조건이 만족됨에 따라, 영상 그룹 저장 동작을 중단하고, 서브 지도 생성부(122)가 새로운 서브 지도를 생성하도록 제어할 수 있다. 새로운 서브 지도 생성 조건은, 특정 개수 이상의 영상들이 저장된 경우 및 영상 센서(110)의 위치가 특정 거리 이상 이동된 경우 중 적어도 하나일 수 있다. 새로운 서브 지도 생성 조건은 서브 지도 중단 조건을 만족하지 않은 조건을 포함할 수 있다.
서브 지도 생성부(122)에 의한 서브 지도 생성 및 영상 그룹 저장 수행부(126)에 의한 영상 그룹 저장 동작은 루프 클로징 수행부(130)에 의해 루프 클로징이 검출될 때까지 반복될 수 있다.
루프 클로징 수행부(130)는 루프 클로징을 수행한다. 루프 클로징(Loop closing) 방법은 지도 생성 장치(100)가 임의의 길이를 이동한 후에, 이전에 방문한 곳으로 회귀했는지를 결정한다. 루프 클로징은 특징점 지도 또는 격자 지도상에서 동일한 위치의 지점을 찾고, 루프 동일한 위치의 지점을 연결시키고, 동일한 위치의 지점을 연결시킴에 따라서 지도 생성 장치(100)의 경로를 수정하는 방식으로 수행된다.
전체 지도 생성부(128)는 지도 생성 장치(100)가 이미 방문한 위치에 다시 위치하는 것으로 결정됨에 따라, 생성된 서브 지도 및 저장된 영상 그룹을 이용하여 전체 지도를 생성한다.
전체 지도 생성부(128)는 여러 영상을 한꺼번에 이용하여 모든 영상에 대한 관측 결과에 최적화된 카메라의 모션 및 3차원 영상의 복원을 얻는 번들 조정(bundle adjustment)을 수행하여 전체 지도를 생성할 수 있다. 이와 같은 번들 조정 기법을 이용하면, 획득된 모든 영상 정보를 통합적으로 이용하므로, 칼만 필터 또는 파티클 필터와 같은 확률 기반의 방법으로만 지도를 작성하는 경우에 비하여, 전체적으로 일관성있는 정확도가 높은 지도를 얻을 수 있다.
번들 조정은 카메라의 위치를 나타내는 프로젝션 함수 P와 공간상의 특징점의 위치를 동시에 최적화하는 방법이다. 번들 조정은 아래와 같은 수학식 1로 표현되는 비용 함수로 나타낼 수 있다.
Figure pat00001
여기에서, 벡터 Pi는 i번째 영상에 대한 카메라의 위치를 나타내고, 벡터 Xj는 j번째 점에 대한 3차원 위치를 나타낸다. xij는 영상 i상의 j번째 점의 프로젝션을 나타내고, Q(Pi,Xj)는 영상 j의 점 i의 예측된 프로젝션을 나타내고, d(x, y)는 벡터 x 및 벡터 y에 의해 표현되는 점들간의 유클리디안 거리(Euclidean distance)를 나타낸다.
수학식 1의 합을 최소로 하는 P 및 X들을 찾는 것이 번들 조정의 목표가 된다. 이 문제를 풀기 위하여 LM(Levenberg-Marquardt) 기반의 알고리즘이 널리 사용된다. 이와 같은 최적화를 수행하기 위한 하나의 제약 조건(constraint)으로, 루프 클로징 수행부(130)가 서로 동일한 위치의 특징점으로 결정한 특징점의 위치가 이용될 수 있다. 또 다른 제약 조건으로, 저장된 하나의 영상 그룹과 다른 영상 그룹 사이에 생성된 서브 지도의 특징점 위치가 이용될 수 있다.
하나의 영상 그룹을 제1 영상 그룹으로 하고, 다른 영상 그룹을 제2 영상 그룹이라고 하고, 제1 영상 그룹이 제2 영상 그룹의 저장 직전에 저장된 영상 그룹이라고 가정한다. 이 경우, 제1 영상 그룹과 제2 영상 그룹 사이에 생성된 서브 지도에서, 서브 지도 생성에 이용된 첫 번째 영상으로부터 추출된 특징점은 제1 영상 그룹 중 마지막에 위치한 영상과 대응 관계를 가지며, 서브 지도 생성에 이용된 마지막 영상으로부터 추출된 특징점은 제2 영상 그룹 중 첫 번째 영상으로부터 추출된 특징점들과 대응 관계를 가진다.
여기에서, 제1 영상 그룹의 특징점들과 대응관계를 가지는 서브 지도에 포함된 특징점들은 서브 지도 생성에 이용된 첫 번째 영상에 한정되지 않고, 서브 지도 생성 초기에 추출된 특징점들을 포함한다. 마찬가지로, 제2 영상 그룹의 특징점들과 대응관계를 가지는 서브 지도에 포함된 특징점들은, 서브 지도 생성에 마지막으로 이용된 영상에 한정되지 않고, 서브 지도 생성 후기에 추출된 특징점들을 포함한다. 특징점들 간의 대응 관계는 SSD(Sum of Squared Difference) 또는 NCC(Normalized Cross Correlation) 등의 알려진 방법으로 결정될 수 있다.
서브 지도에서, 서브 지도 생성에 이용된 첫 번째 영상의 특징점의 위치가 결정되면, 서브 지도 생성에서 마지막으로 이용된 영상으로부터 추출된 특징점의 위치도 결정될 수 있다. 따라서, 제1 영상 그룹과 제2 영상 그룹 사이에 생성된 서브 지도로부터 추출된 특징점들의 위치가 제약 조건으로 이용될 수 있다.
전체 지도 생성부(128)의 동작은 이에 한정되는 것이 아니며, 실시간 데이터 처리를 위하여 알려진 여러가지 기법들이 이용될 수 있다. 또한, 루프 클로징이 결정된 경우, 전술한 예와 같이, 한 번의 전역적 번들 조정이 수행될 수도 있으나, 계산을 신속하게 하기 위하여 영상 그룹별로 지역적 번들 조정을 수행하고, 수행된 결과 값을 이용하여 전역적 번들 조정이 수행될 수도 있다. 또한, 영상 그룹 저장 수행부(126)에서 새로운 영상 입력받아서 특징점을 추출하는 동작과, 전체 지도 생성부(128)의 번들 조정시의 최적화 동작은 병렬적으로 수행될 수 있다.
이와 같은 지도 생성 장치(100)는 이동 로봇으로 구현되어 이동 로봇의 이동 경로를 생성하는데 이용될 수 있다. 또한, 지도 생성 장치(100)는 카메라에 장착되어, 카메라를 든 사용자가 이동함에 따라 획득된 영상들을 이용하여 사용자가 이동한 공간에 관한 전체 지도를 구축하는데 이용될 수 있다.
도 2는 지도 생성 과정의 일 예를 나타내는 도면이다.
지도 생성 장치(100)가 도 2의 시작점에서 출발하여 점선(10)으로 표시된 경로(20)를 이동하며 지도를 생성한다고 가정한다. 지도 생성 장치(100)는 시작점에서 화살표(20) 방향으로 이동하면서 슬램을 수행하여 서브 지도 1(210)을 생성할 수 있다.
지도 생성 장치(100)는 서브 지도 생성 중 서브 지도 생성 중단 조건이 만족되는 경우 서브 지도 1(210)의 생성을 중단하고, 서브 지도 1(210)을 저장하고, 새로 획득되는 영상들을 저장한다. 영상 그룹 1(220)은 서브 지도 1(210)의 생성 후부터 새로운 서브 지도를 생성하기 직전까지 저장된 영상들이다.
또한, 지도 생성 장치(100)는 새로운 서브 지도 생성 조건이 만족되는 경우, 새로운 서브 지도를 생성한다. 서브 지도 2(230)는 새로운 서브 지도를 생성하여, 다시 서브 지도 생성 중단 조건이 만족될 때까지 생성된 서브 지도를 나타낸다. 이와 같은 방법을 반복하면, 루프 클로징이 검출될 때까지 적어도 하나의 서브 지도가 생성되어 저장될 수 있다. 서브 지도내에서의 특징점들의 위치들은 정확도가 높지만, 하나의 서브 지도와 다른 서브 지도 사이의 특징점들 간의 위치 관계는 정의되지 않은 상태이다.
이와 같이, 지도 생성 장치(100)가 서브 지도를 생성하고, 영상 그룹을 저장하는 동작을 반복하여 수행하다가, 루프 클로징이 결정되면, 생성하여 저장해둔 서브 지도들과 영상 그룹의 영상들을 이용하여 번들 조정을 수행함으로써 전체 지도를 생성할 수 있다. 영상 그룹의 영상들 각각에 대하여 특징점을 검출하고, 영상 그룹의 첫번째 검출된 특징점들과 직전에 저장된 서브 지도 생성에 포함된 특징점들 사이의 대응 관계를 결정함으로써, 영상 그룹의 영상들의 특징점의 위치 및 지도 생성 장치(100)의 위치 및 자세가 결정될 수 있다.
도 3은 도 1의 지도 생성 장치(100)의 지도 생성 방법의 일 예를 나타내는 순서도이다.
지도 생성 장치(100)는 이동에 따라 영상을 획득되는 영상을 이용하여, 위치를 인식하고 서브 지도를 생성한다(310).
지도 생성 장치(100)는 영상들을 저장하는 서브 지도 생성 중단 조건을 만족하는지 결정한다(320). 서브 지도 생성 중단 조건이 만족되는지는 서브 지도를 생성하는 도중 주기적으로 수행될 수 있다.
지도 생성 장치(100)는 서브 지도 생성 중단 조건이 만족됨에 따라, 서브 지도 생성을 중단하고 중단전까지 생성된 서브 지도를 저장하고(330), 새로 입력되는 영상들을 저장한다(340). 새로 입력되는 영상들은 새로운 서브 지도 생성 조건이 만족될 때까지 누적되어 저장된다. 여기에서, 새로운 서브 지도 생성 조건들이 만족될 까지 저장되는 영상들을 영상 그룹이라고 한다. 영상 그룹에 포함된 영상들이 저장되면서, 영상들로로부터 특징점들이 추출될 수 있다.
새로운 서브 지도 생성 조건이 만족되는 것으로 결정되면(350), 지도 생성 장치(100)는 새로운 서브 지도 생성을 시작하여(360), 서브 지도를 생성하는 단계(310)로 되돌아간다.
새로운 서브 지도 생성 조건이 만족되지 않으면(350), 지도 생성 장치(100)는 계속하여 새로 입력되는 영상들을 기존에 획득된 영상들에 추가하여 저장한다.
한편, 지도 생성 장치(100)는 이미 방문한 위치에 다시 위치하는 것으로 결정되는 루프 클로징이 검출됨에 따라(370), 번들 조정을 수행하여 생성된 서브 지도 및 저장된 영상 그룹을 이용하여 전체 지도를 생성한다(380). 루프 클로징이 검출되는지 여부를 확인하는 동작은(370), 단계(320) 이후에 수행되는 것으로 도시되어 있으나, 이는 일 예에 불과하고, 루프 클로징이 검출되는지 여부를 결정하는 동작은 지도 생성 장치(100)가 단계 310 내지 단계 360을 수행하는 동안 계속하여 수행될 수 있다.
도 4는 이동 로봇으로 구현된 지도 생성 장치의 구성의 일 예를 나타내는 블록도이다.
이동 로봇(400)는 감지부(410), 지도 생성부(420), 루프 클로징 수행부(430), 주행부(440) 및 경로 생성부(450)를 포함할 수 있다. 감지부(410)에 포함된 영상 센서(414), 지도 생성부(420), 루프 클로징 수행부(430)는 각각 도 1에서 설명한 영상 센서(110), 지도 생성부(120) 및 루프 클로징 수행부(130)에 대응하며, 동일한 동작을 수행할 수 있다. 이하에서는, 도 1의 지도 생성 장치(100)와 차별되는 구성 요소 및 동작을 중심으로 설명한다.
감지부(410)는, 자이로 센서(411), 엔코더(412), 가속도 센서(413), 영상 센서(414) 및 초음파 센서(415)를 포함할 수 있다.
자이로 센서(411)는 이동 로봇(100)의 실제 회전한 각도를 감지할 수 있다. 엔코더(412)는 바퀴의 회전축에 장착되어, 이동 로봇(400)의 실제 움직인 경로를 인식하는데 이용될 수 있다. 상세하게는, 엔코더(412)에 의해 움직인 거리 및 방향을 적분함으로써 현재 이동 로봇의 평면상의 2차원 좌표계상의 위치(position) 및 방향각 추정이 가능하다. 통상적으로, 엔코더(412)는 짧은 구간에서는 비교적 정확하지만 적분을 계속 수행해 나감에 따라 오차가 누적된다. 가속도 센서(413)는 이동 로봇(100)의 가속도 정보를 감지한다. 초음파 센서(415)는 장애물 지도를 작성하는데 이용되는 장애물 감지 정보를 감지한다. 장애물 감지를 위해, 감지부(420)에 적외선 센서 및 레이저 센서 등이 더 포함될 수 있다.
서브 지도 생성부(422)는 주행부(440) 및 감지부(410)로부터 획득되는 오도메트리 정보, 각속도, 가속도 등의 정보 및 추출된 특징점 정보를 종합적으로 이용하여 위치를 추정 및 인식할 수 있다.
동작 결정부(424)는, 슬립이 감지되면, 서브 지도 생성 중단 조건을 만족하는 것으로 결정할 수 있다. 동작 결정부(424)는, 자이로 센서(421), 엔코더(422) 및 가속도 센서(423) 중 적어도 하나로부터 감지 정보를 이용하여, 슬립을 감지할 수 있다.
일 예로, 동작 결정부(424)는 바퀴가 일정 속도 회전하도록 제어된 상황에서 전류의 급격한 소모를 감지할 수 있다. 전류의 급격한 변화는 바퀴에 가해진 토크의 변화를 나타내므로, 바닥의 이물질이나 장애물과의 충돌을 감지할 수 있다.
또는, 동작 결정부(424)는, 바퀴의 엔코더(412)의 값을 이용하여 이동 로봇(400)의 속도를 알 수 있고, 이를 미분하여 이동 로봇(400)의 가속도 추정값을 알 수 있다. 이 추정값은 바퀴와 지면 사이의 슬립이 없는 경우 참에 가깝다. 따라서, 엔코더(412)를 이용한 추정 값과 가속도 센서(413)로부터 측정된 값을 비교하여 슬립 여부를 알 수 있다. 동작 결정부(424)는 추정 값과 가속도계의 값이 일정 범위 이상 차이가 나면 슬립이 발생한 것으로 결정할 수 있다.
또는, 동작 결정부(424)는 양 바퀴에 설치된 엔코더(412)의 값을 이용하여, 이동 로봇(400)의 선속도(linear velocity)와 각속도(angular velocity)를 알 수 있다. 양 바퀴에 설치된 엔코더(412)의 값의 차이를 바퀴 간의 거리로 나누면 각속도 값을 추정할 수 있다. 추정된 각속도 값과 자이로 센서(411)에서 측정된 값 사이의 차이가 크게 발생하면 슬립이 발생한 것으로 판단할 수 있다.
동작 결정부(424)는 슬립이 감지될 때마다 슬립이 감지되었음을 나타내는 슬립 감지 신호를 서브 지도 생성부(422)에 전달할 수 있다. 서브 지도 생성부(422)는 슬립 감지 신호가 입력됨에 따라, 서브 지도 생성 중단 조건이 만족되는 것으로 결정한다. 이에 따라, 서브 지도 생성부(422)는 생성중인 서브 지도 생성을 중단하고, 서브 지도 생성 중단 조건이 만족되기 전까지 생성된 서브 지도를 저장할 수 있다. 또한, 영상 그룹 저장 수행부(424)는 슬립 감지 신호가 입력됨에 따라, 영상 센서(414)로부터 새로 입력되는 영상들을 누적적으로 저장하고, 새로 입력되는 영상들로부터 특징점을 추출하고, 특징점 기술자를 생성할 수 있다.
영상 그룹 저장 수행부(424)는 슬립 발생이 더 이상 감지되지 않으면, 영상 그룹 수행 동작을 중단할 수 있다. 서브 지도 생성부(422)는 슬립 발생이 더 이상 감지되지 않으면, 새로운 서브 지도 생성 조건을 만족하는 것으로 결정하고, 새로운 서브 지도 생성 조건 만족 후 새로 입력되는 영상들에 대하여 새로운 서브 지도를 생성할 수 있다.
주행부(440)는 이동 로봇(100)을 주행시키기 위하여 복수 개의 바퀴와 같은 주행 수단과, 주행 수단에 구동력을 제공하기 위한 구동원을 포함할 수 있다. 경로 생성부(450)는 서브 지도 생성부(422)에서 인식된 이동 로봇(400)의 위치 정보 및 생성된 전체 지도를 이용하여 경로를 생성할 수 있다.
본 발명의 일 양상은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있다. 상기의 프로그램을 구현하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 디스크 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.
이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서, 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.

Claims (17)

  1. 위치 이동에 따른 지도를 생성하는 장치로서,
    위치 이동에 따른 영상들을 획득하는 영상 센서;
    상기 획득된 영상들을 이용하여, 상기 장치의 위치를 인식하고 서브 지도를 생성하며, 서브 지도 생성 중단 조건을 만족하면, 조건 만족전까지 생성된 서브 지도를 저장하는 서브 지도 생성부;
    상기 서브 지도 생성 중단 조건을 만족하는지 여부를 결정하는 동작 결정부;
    상기 서브 지도 생성 중단 조건이 만족되면, 상기 서브 지도 저장 후에 상기 영상 센서로부터 새롭게 획득되는 영상들을 나타내는 영상 그룹을 저장하는 영상 그룹 저장 수행부; 및
    상기 지도 생성 장치가 이미 방문한 위치에 다시 위치하는 것으로 결정되면, 상기 생성된 서브 지도 및 상기 저장된 영상 그룹을 이용하여 전체 지도를 생성하는 전체 지도 생성부를 포함하는 지도 생성 장치.
  2. 제1항에 있어서,
    상기 서브 지도 생성부는 위치 인식 및 지도 작성을 동시에 수행하는 슬램을 수행하여 서브 지도를 생성하는 지도 생성 장치.
  3. 제1항에 있어서,
    상기 전체 지도 생성부는, 상기 서브 지도 및 상기 저장된 영상 그룹에 번들 조정을 수행하여 전체 지도를 생성하는 지도 생성 장치.
  4. 제1항이 있어서,
    상기 동작 결정부는, 상기 서브 지도에 포함된 각 특징점의 불확실도가 특정 값 이상인 경우, 상기 서브 지도 생성 중단 조건을 만족하는 것으로 결정하는 지도 생성 장치.
  5. 제1항에 있어서,
    상기 동작 결정부는, 상기 획득된 영상 내의 특징점의 수가 임계 개수보다 작은 경우, 상기 획득된 영상내에 설정되는 파티클의 수가 임계 개수보다 작은 경우, 및 상기 획득된 영상 내의 특징점이 편중되어 있는 경우 중 적어도 하나의 경우, 상기 서브 지도 생성 중단 조건을 만족하는 것으로 결정하는 지도 생성 장치.
  6. 제1항에 있어서,
    상기 동작 결정부는, 슬립이 감지되면, 상기 서브 지도 생성 중단 조건을 만족하는 것으로 결정하는 지도 생성 장치.
  7. 제1항에 있어서,
    상기 동작 결정부는, 상기 영상 그룹 저장 동작 수행 도중, 새로운 서브 지도 생성 조건을 만족하는지를 결정하고, 상기 새로운 서브 지도 생성 조건이 만족됨에 따라, 상기 영상 그룹 저장 동작을 중단하고, 상기 서브 지도 생성부가 새로운 서브 지도를 생성하도록 제어하는 지도 생성 장치.
  8. 제7항에 있어서,
    상기 새로운 서브 지도 생성 조건은, 특정 개수 이상의 영상들이 저장된 경우 및 상기 영상 센서의 위치가 특정 거리 이상 이동된 경우 중 적어도 하나인 지도 생성 장치.
  9. 제1항에 있어서,
    상기 지도 생성 장치가 이미 방문한 위치에 다시 위치하는지를 결정하는 루프 클로징 수행부를 더 포함하는 지도 생성 장치.
  10. 위치 이동에 따른 지도를 생성하는 장치에서 지도를 생성하는 방법으로서,
    이동에 따라 획득되는 영상들을 이용하여, 위치를 인식하고 서브 지도를 생성하는 단계;
    서브 지도 생성 중단 조건을 만족함에 따라, 상기 서브 지도 생성을 중단하고, 상기 서브 지도 저장 후에 새롭게 획득되는 영상들을 나타내는 영상 그룹을 저장하는 단계; 및
    상기 장치가 이미 방문한 위치에 다시 위치하는 것으로 결정됨에 따라, 상기 생성된 서브 지도 및 상기 저장된 영상 그룹을 이용하여 전체 지도를 생성하는 단계를 포함하는 지도 생성 방법.
  11. 제10항에 있어서,
    상기 서브 지도를 생성하는 단계에서, 위치 인식 및 지도 작성을 동시에 수행하는 슬램을 수행하여 서브 지도를 생성하는 지도 생성 방법.
  12. 제10항에 있어서,
    상기 전체 지도를 생성하는 단계에서, 상기 서브 지도 및 상기 저장된 영상 그룹에 번들 조정을 수행하여 전체 지도를 생성하는 지도 생성 방법.
  13. 제10항이 있어서,
    상기 서브 지도 생성 중단 조건은, 상기 서브 지도에 포함된 각 특징점의 불확실도가 특정 값 이상인 경우 만족되는 지도 생성 방법.
  14. 제10항에 있어서,
    상기 서브 지도 생성 중단 조건은, 상기 획득된 영상 내의 특징점의 수가 임계 개수보다 작은 경우, 상기 획득된 영상내에 설정되는 파티클의 수가 임계 개수보다 작은 경우, 및 상기 획득된 영상 내의 특징점이 편중되어 있는 경우 중 적어도 하나의 경우 만족되는 지도 생성 방법.
  15. 제10항에 있어서,
    상기 서브 지도 생성 중단 조건은, 슬립이 감지되는 경우 만족되는 지도 생성 방법.
  16. 제10항에 있어서,
    상기 영상 그룹 저장 동작 수행 도중, 새로운 서브 지도 생성 조건을 만족하는지를 결정하는 단계;
    상기 새로운 서브 지도 생성 조건이 만족됨에 따라, 상기 영상 그룹 저장 동작을 중단하고, 새로운 서브 지도를 생성하도록 제어하는 단계를 더 포함하는 지도 생성 방법.
  17. 제16항에 있어서,
    상기 새로운 서브 지도 생성 조건은, 특정 개수 이상의 영상들이 저장된 경우 및 상기 장치의 위치가 특정 거리 이상 이동된 경우 중 적어도 하나인 지도 생성 방법.
KR1020100041586A 2010-05-03 2010-05-03 지도 생성 장치 및 방법 KR101782057B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100041586A KR101782057B1 (ko) 2010-05-03 2010-05-03 지도 생성 장치 및 방법
US13/099,866 US8787614B2 (en) 2010-05-03 2011-05-03 System and method building a map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100041586A KR101782057B1 (ko) 2010-05-03 2010-05-03 지도 생성 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20110122022A true KR20110122022A (ko) 2011-11-09
KR101782057B1 KR101782057B1 (ko) 2017-09-26

Family

ID=44858301

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100041586A KR101782057B1 (ko) 2010-05-03 2010-05-03 지도 생성 장치 및 방법

Country Status (2)

Country Link
US (1) US8787614B2 (ko)
KR (1) KR101782057B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019039733A1 (ko) * 2017-08-21 2019-02-28 (주)유진로봇 카메라와 라이다를 이용한 융합 센서 및 이동체
KR20190045006A (ko) * 2017-10-23 2019-05-02 주식회사 유진로봇 라이다를 이용한 위치 인식 및 지도 작성에 관한 방법 및 장치
KR20190071639A (ko) * 2019-06-03 2019-06-24 엘지전자 주식회사 특정 지역의 맵을 작성하는 방법과, 이를 구현하는 로봇 및 전자기기
US10962647B2 (en) 2016-11-30 2021-03-30 Yujin Robot Co., Ltd. Lidar apparatus based on time of flight and moving object
US11579298B2 (en) 2017-09-20 2023-02-14 Yujin Robot Co., Ltd. Hybrid sensor and compact Lidar sensor
US11874399B2 (en) 2018-05-16 2024-01-16 Yujin Robot Co., Ltd. 3D scanning LIDAR sensor

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11835343B1 (en) 2004-08-06 2023-12-05 AI Incorporated Method for constructing a map while performing work
KR20110021191A (ko) * 2009-08-25 2011-03-04 삼성전자주식회사 로봇의 슬립 감지 장치 및 방법
KR101477692B1 (ko) * 2012-11-23 2015-01-02 주식회사 투게더 무선 통신 장치의 방문 데이터를 기록하기 위한 시스템 및 방법
US10171730B2 (en) 2016-02-15 2019-01-01 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP6823403B2 (ja) * 2016-02-15 2021-02-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、情報処理方法およびプログラム
JP7046506B2 (ja) 2017-06-12 2022-04-04 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
GB201718507D0 (en) 2017-07-31 2017-12-27 Univ Oxford Innovation Ltd A method of constructing a model of the motion of a mobile device and related systems
KR102448287B1 (ko) * 2017-08-08 2022-09-28 삼성전자주식회사 전자 장치 및 그 동작 방법
US10422648B2 (en) 2017-10-17 2019-09-24 AI Incorporated Methods for finding the perimeter of a place using observed coordinates
US11274929B1 (en) * 2017-10-17 2022-03-15 AI Incorporated Method for constructing a map while performing work
WO2019089017A1 (en) 2017-10-31 2019-05-09 Hewlett-Packard Development Company, L.P. Mobile robots to generate occupancy maps
JP7309849B2 (ja) * 2018-07-24 2023-07-18 マジック リープ, インコーポレイテッド 画像ディスプレイデバイスの位置特定マップを決定および/または評価するための方法および装置
CN109116867B (zh) * 2018-09-28 2020-04-14 拓攻(南京)机器人有限公司 一种无人机飞行避障方法、装置、电子设备及存储介质
CN109584299B (zh) * 2018-11-13 2021-01-05 深圳前海达闼云端智能科技有限公司 一种定位方法、定位装置、终端及存储介质
KR102512560B1 (ko) 2019-09-03 2023-03-22 주식회사 쓰리아이 3d 투어 비교 표시 시스템 및 방법
KR102196683B1 (ko) * 2019-09-03 2020-12-30 주식회사 쓰리아이 3d 투어 촬영 장치 및 방법
KR20190121275A (ko) 2019-10-07 2019-10-25 엘지전자 주식회사 실내 측위 시스템, 장치 및 방법
CN111369640B (zh) * 2020-02-28 2024-03-26 广州高新兴机器人有限公司 多机器人建图方法、***、计算机存储介质及电子设备
CN113246136B (zh) * 2021-06-07 2021-11-16 深圳市普渡科技有限公司 机器人、地图构建方法、装置和存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100571834B1 (ko) * 2004-02-27 2006-04-17 삼성전자주식회사 청소 로봇의 바닥 먼지 검출 방법 및 장치
KR100601960B1 (ko) * 2004-08-05 2006-07-14 삼성전자주식회사 로봇의 위치 추적 및 지도 작성 방법
US20070271011A1 (en) * 2006-05-12 2007-11-22 Samsung Electronics Co., Ltd. Indoor map building apparatus, method, and medium for mobile robot
IL175632A (en) 2006-05-15 2011-08-31 Rafael Advanced Defense Sys Method, system and computer product for deriving three dimensional information progressively from a streaming video sequence
KR100843085B1 (ko) * 2006-06-20 2008-07-02 삼성전자주식회사 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치
KR100757937B1 (ko) 2006-06-30 2007-09-12 삼성전자주식회사 로봇의 위치 추적 및 지도 작성 방법
US20080310757A1 (en) 2007-06-15 2008-12-18 George Wolberg System and related methods for automatically aligning 2D images of a scene to a 3D model of the scene
JP2009053561A (ja) * 2007-08-28 2009-03-12 Panasonic Electric Works Co Ltd 自律移動装置用の地図生成システムおよび地図生成方法
KR101409990B1 (ko) * 2007-09-14 2014-06-23 삼성전자주식회사 로봇의 위치를 계산하기 위한 장치 및 방법
KR101378305B1 (ko) 2007-10-31 2014-03-28 삼성전자 주식회사 로봇맵 생성 방법 및 시스템
KR100926760B1 (ko) * 2007-12-17 2009-11-16 삼성전자주식회사 이동 로봇의 위치 인식 및 지도 작성 방법
KR100922273B1 (ko) 2008-01-04 2009-10-15 중앙대학교 산학협력단 영상 시퀀스로부터 선택된 중요 영상을 이용한 3차원모델의 재구성 방법
KR100949116B1 (ko) * 2008-02-26 2010-03-23 삼성전자주식회사 이동 로봇의 위치 인식 및 지도 작성 방법
JP5012615B2 (ja) 2008-03-27 2012-08-29 ソニー株式会社 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2009237846A (ja) 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4985516B2 (ja) 2008-03-27 2012-07-25 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2009237847A (ja) 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
KR101538775B1 (ko) * 2008-09-12 2015-07-30 삼성전자 주식회사 전방 영상을 이용한 위치 인식 장치 및 방법
JP5304128B2 (ja) * 2008-09-16 2013-10-02 村田機械株式会社 環境地図修正装置及び自律移動装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962647B2 (en) 2016-11-30 2021-03-30 Yujin Robot Co., Ltd. Lidar apparatus based on time of flight and moving object
WO2019039733A1 (ko) * 2017-08-21 2019-02-28 (주)유진로봇 카메라와 라이다를 이용한 융합 센서 및 이동체
US11579298B2 (en) 2017-09-20 2023-02-14 Yujin Robot Co., Ltd. Hybrid sensor and compact Lidar sensor
KR20190045006A (ko) * 2017-10-23 2019-05-02 주식회사 유진로봇 라이다를 이용한 위치 인식 및 지도 작성에 관한 방법 및 장치
US11874399B2 (en) 2018-05-16 2024-01-16 Yujin Robot Co., Ltd. 3D scanning LIDAR sensor
KR20190071639A (ko) * 2019-06-03 2019-06-24 엘지전자 주식회사 특정 지역의 맵을 작성하는 방법과, 이를 구현하는 로봇 및 전자기기
US11402834B2 (en) 2019-06-03 2022-08-02 Lg Electronics Inc. Method for drawing map of specific area, robot and electronic device implementing thereof

Also Published As

Publication number Publication date
US8787614B2 (en) 2014-07-22
KR101782057B1 (ko) 2017-09-26
US20110268349A1 (en) 2011-11-03

Similar Documents

Publication Publication Date Title
KR101782057B1 (ko) 지도 생성 장치 및 방법
KR101538775B1 (ko) 전방 영상을 이용한 위치 인식 장치 및 방법
KR101503903B1 (ko) 이동 로봇의 지도 구성 장치 및 방법
JP6445995B2 (ja) センサデータの空間的集約を用いる適応マッピング
US10133278B2 (en) Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
TWI827649B (zh) 用於vslam比例估計的設備、系統和方法
KR101072876B1 (ko) 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치
KR101686170B1 (ko) 주행 경로 계획 장치 및 방법
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
EP2144131B1 (en) Apparatus and method of building map for mobile robot
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR20110097140A (ko) 이동 로봇의 위치 추정 장치 및 방법
KR20150144727A (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR20110134228A (ko) 영상 및 거리 데이터를 이용한 위치 인식 장치 및 방법
KR101650128B1 (ko) 이동 로봇의 지도 생성 장치 및 방법
Emaduddin et al. Accurate floor detection and segmentation for indoor navigation using RGB+ D and stereo cameras
US11662740B2 (en) Position estimating apparatus, method for determining position of movable apparatus, and non-transitory computer readable medium
US20210318690A1 (en) Positioning device
KR20230100307A (ko) 로봇의 회전각도 검출방법,이를 이용하는 로봇 및 건물
KR20220085682A (ko) 전방향 영상센서 및 관성측정센서의 자세추정 융합 방법 및 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant