KR20190045006A - 라이다를 이용한 위치 인식 및 지도 작성에 관한 방법 및 장치 - Google Patents

라이다를 이용한 위치 인식 및 지도 작성에 관한 방법 및 장치 Download PDF

Info

Publication number
KR20190045006A
KR20190045006A KR1020170137745A KR20170137745A KR20190045006A KR 20190045006 A KR20190045006 A KR 20190045006A KR 1020170137745 A KR1020170137745 A KR 1020170137745A KR 20170137745 A KR20170137745 A KR 20170137745A KR 20190045006 A KR20190045006 A KR 20190045006A
Authority
KR
South Korea
Prior art keywords
map
key frame
edge
mobile robot
estimating
Prior art date
Application number
KR1020170137745A
Other languages
English (en)
Other versions
KR102172602B1 (ko
Inventor
신경철
박성주
이재영
천무웅
Original Assignee
주식회사 유진로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유진로봇 filed Critical 주식회사 유진로봇
Priority to KR1020170137745A priority Critical patent/KR102172602B1/ko
Priority to US15/825,122 priority patent/US10962647B2/en
Priority to PCT/KR2018/007847 priority patent/WO2019039733A1/ko
Priority to EP18189682.0A priority patent/EP3447532A3/en
Priority to US16/136,222 priority patent/US11579298B2/en
Publication of KR20190045006A publication Critical patent/KR20190045006A/ko
Application granted granted Critical
Publication of KR102172602B1 publication Critical patent/KR102172602B1/ko
Priority to US17/183,347 priority patent/US20210181347A1/en
Priority to US17/183,349 priority patent/US20210199807A1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 실시예들은 스캔 정보를 이용하여 노드에 관한 키 프레임을 생성하고 연속하는 노드 간의 오도메트리 엣지 산출하고 키 프레임을 갱신하여 지역 지도를 추정하고, 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지를 검출하고 오도메트리 엣지 및 루프 클로저 엣지를 기반으로 노드의 위치를 보정하여 전역 지도를 추정함으로써, 일정 조건하에서 일정 시간 내에 넓은 영역을 커버하는 지도를 작성할 수 있는 위치 인식 및 지도 작성에 관한 방법 및 장치를 제공한다.

Description

라이다를 이용한 위치 인식 및 지도 작성에 관한 방법 및 장치 {Method and Apparatus for Localization and Mapping Using LIDAR}
본 실시예가 속하는 기술 분야는 라이다를 이용하여 위치를 인식하고 지도를 작성하는 방법 및 장치에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
로봇이나 차량 등의 이동체가 미지의 환경에서 이동하기 위해서는 주변환경에 관한 정보가 없으므로, 센서정보를 이용하여 환경에 관한 지도를 작성하고, 작성된 지도로부터 이동체의 현재 위치를 추정해야 한다. 이러한 위치를 인식하고 주변 환경 지도를 작성하는 방법을 동시 위치 추정 및 지도 작성(Simultaneous Localization and Mapping, SLAM)이라고 한다.
도 1은 동시간 위치 인식 및 지도 작성(Simultaneous Localization And Mapping, SLAM) 방법이 처리하는 정보를 그래프 모델로 나타낸 것이다. 도 1을 참조하면, x는 로봇의 위치, u는 오도메트리 정보, z는 관측값, m은 추정 맵을 나타낸다. SLAM에 관한 방법으로는 필터 기반의 SLAM, 그래프 기반의 SLAM 등 다양한 방법이 있다.
그래프 기반의 SLAM은 로봇의 위치와 움직임을 그래프의 노드 및 엣지로 표현한다. 노드는 특정 시점에서의 로봇 또는 인공표식의 위치이다. 엣지는 두 노드 간의 관계이며, 두 노드 간의 공간 상의 구속 조건(Constraint)을 의미한다. 측정된 엣지는 오차를 포함한다. 따라서, 로봇의 주행거리가 길어지거나 노드의 개수가 증가할수록, 위치를 추정하는 과정에서 오차가 누적되는 문제가 있다.
본 발명의 실시예들은 스캔 정보를 이용하여 노드에 관한 키 프레임을 생성하고 연속하는 노드 간의 오도메트리 엣지 산출하고 키 프레임을 갱신하여 지역 지도를 추정하고, 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지를 검출하고 오도메트리 엣지 및 루프 클로저 엣지를 기반으로 노드의 위치를 보정하여 전역 지도를 추정함으로써, 일정 조건하에서 일정 시간 내에 넓은 영역을 커버하는 지도를 제공하는 데 발명의 주된 목적이 있다.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.
본 실시예의 일 측면에 의하면, 이동 로봇의 위치 인식 및 지도 작성 방법에 있어서, 상기 이동 로봇이 위치하는 공간의 스캔 정보를 획득하는 단계, 상기 스캔 정보를 이용하여 노드(Node)에 관한 키 프레임(Key Frame)을 생성하고, 연속하는 노드 간의 오도메트리 엣지(Odometry Edge)를 산출하고 상기 키 프레임을 갱신하여 지역 지도(Local Map)를 추정하는 단계, 및 상기 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지(Loop Closure Edge)를 검출하고, 상기 오도메트리 엣지 및 상기 루프 클로저 엣지를 기반으로 상기 노드의 위치를 보정하여 전역 지도(Global Map)를 추정하는 단계를 포함하는 위치 인식 및 지도 작성 방법을 제공한다.
본 실시예의 다른 측면에 의하면, 이동 로봇의 위치 인식 및 지도 작성 장치에 있어서, 상기 이동 로봇이 위치하는 공간의 스캔 정보를 획득하는 스캐너, 상기 스캔 정보를 이용하여 노드(Node)에 관한 키 프레임(Key Frame)을 생성하고, 연속하는 노드 간의 오도메트리 엣지(Odometry Edge)를 산출하고 상기 키 프레임을 갱신하여 지역 지도(Local Map)를 추정하는 지역 지도 추정부, 및 상기 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지(Loop Closure Edge)를 검출하고, 상기 오도메트리 엣지 및 상기 루프 클로저 엣지를 기반으로 상기 노드의 위치를 보정하여 전역 지도(Global Map)를 추정하는 전역 지도 추정부를 포함하는 위치 인식 및 지도 작성 장치를 제공한다.
본 실시예의 또 다른 측면에 의하면, 프로세서에 의해 실행 가능한 컴퓨터 프로그램 명령어들을 포함하는 비일시적(Non-Transitory) 컴퓨터 판독 가능한 매체에 기록되어 위치 인식 및 지도 작성을 위한 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램 명령어들이 이동 로봇의 적어도 하나의 프로세서에 의해 실행되는 경우에, 상기 이동 로봇이 위치하는 공간의 스캔 정보를 획득하는 단계, 상기 스캔 정보를 이용하여 노드(Node)에 관한 키 프레임(Key Frame)을 생성하고, 연속하는 노드 간의 오도메트리 엣지(Odometry Edge)를 산출하고 상기 키 프레임을 갱신하여 지역 지도(Local Map)를 추정하는 단계, 및 상기 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지(Loop Closure Edge)를 검출하고, 상기 오도메트리 엣지 및 상기 루프 클로저 엣지를 기반으로 상기 노드의 위치를 보정하여 전역 지도(Global Map)를 추정하는 단계를 포함한 동작들을 수행하는 컴퓨터 프로그램을 제공한다.
이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 스캔 정보를 이용하여 노드에 관한 키 프레임을 생성하고 연속하는 노드 간의 오도메트리 엣지 산출하고 키 프레임을 갱신하여 지역 지도를 추정하고, 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지를 검출하고 오도메트리 엣지 및 루프 클로저 엣지를 기반으로 노드의 위치를 보정하여 전역 지도를 추정함으로써, 일정 조건하에서 일정 시간 내에 넓은 영역을 커버하는 지도를 작성할 수 있는 효과가 있다.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.
도 1은 동시간 위치 인식 및 지도 작성(Simultaneous Localization And Mapping, SLAM) 방법이 처리하는 정보를 그래프 모델로 나타낸 것이다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 이동 로봇을 예시한 도면이다.
도 4 및 도 5는 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 장치를 예시한 도면이다.
도 6은 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 장치가 스캔 매칭하는 데이터를 예시한 도면이다.
도 7은 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 장치가 필터링한 데이터를 예시한 도면이다.
도 8은 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 장치가 전역 지도를 추정하는 동작을 예시한 흐름도이다.
도 9 내지 도 13은 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 장치가 전역 지도를 추정하는 과정에서 처리하는 데이터를 예시한 도면이다.
도 14는 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 방법을 예시한 흐름도이다.
이하, 본 발명을 설명함에 있어서 관련된 공지기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하고, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다.
도 2 본 발명의 일 실시예에 따른 이동 로봇을 예시한 블록도이다.
도 2에 도시한 바와 같이, 이동체(1)는 위치 인식 및 지도 작성 장치(10) 및 이동 장치(20)를 포함한다. 이동체(1)는 도 2에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다. 예컨대, 이동체는 청소부를 추가로 포함할 수 있다.
이동체(1)는 미리 정의된 방식에 따라 특정 위치에서 다른 위치로 이동 가능하도록 설계된 장치를 의미하며, 바퀴, 레일, 보행용 다리 등과 같은 이동 수단을 이용하여, 특정 위치에서 다른 위치로 이동할 수 있다. 이동체(1)는 센서 등을 이용하여 외부의 정보를 수집한 후 수집된 정보에 따라서 이동할 수도 있고, 사용자에 의해 별도의 조작 수단을 이용하여 이동할 수 있다.
이동체(1)의 일례로는 로봇 청소기, 장난감 자동차, 산업용 또는 군사용 목적 등으로 이용 가능한 이동 로봇 등이 있을 수 있으며, 이동체(1)는 바퀴를 이용하여 주행하거나, 하나 이상의 다리를 이용하여 보행하거나, 이들의 조합 등으로 구현될 수 있다.
로봇 청소기는 청소 공간을 주행하면서 바닥에 쌓인 먼지 등의 이물질을 흡입함으로써 청소 공간을 자동으로 청소하는 장치이다. 일반적인 청소기가 사용자에 의한 외력으로 이동하는 것과 달리, 로봇 청소기는 외부의 정보 또는 미리 정의된 이동 패턴을 이용하여 이동하면서 청소 공간을 청소한다.
로봇 청소기는 미리 정의된 패턴을 이용하여 자동적으로 이동하거나, 또는 감지 센서에 의해 외부의 장애물을 감지한 후, 감지된 바에 따라 이동할 수도 있고, 사용자에 의해 조작되는 원격 제어 장치로부터 전달되는 신호에 따라 이동 가능하다.
감지 센서는 라이다(LIDAR)로 구현될 수 있다. 라이다는 레이저 신호를 쏘고 반사되어 돌아오는 시간을 측정하고, 빛의 속도를 이용하여 반사체의 거리를 측정하는 장치이다. 레이저 신호는 포토 다이오드를 통하여 전기적인 신호로 변경된다. 레이저 신호는 기 설정된 파장 대역을 가질 수 있다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇을 예시한 도면이다.
도 3을 참조하면, 이동 로봇의 위치 인식하고 동시에 지도를 작성하는 위치 인식 및 지도 작성 장치(10)가 본체에 위치한다. 위치 인식 및 지도 작성 장치(10)는 구현되는 설계에 따라 적합한 위치에서 하나 이상으로 구현될 수 있다.
위치 인식 및 지도 작성 장치(10)는 카메라, CCD(Charge Coupled Device) 이미지 센서, CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서, RGBD 센서, 지자기계 센서, 초음파 센서, 레이저 센서 등 다양한 센서를 이용하여 공간의 거리를 측정한다. 위치 인식 및 지도 작성 장치(10)는 광원으로부터 출사된 광을 통과시키는 홀을 포함하는 곡면 형상의 제1 거울과 주기적으로 스윙하는 제2 거울이 구비된 라이다 센서를 이용하여 3차원 스캐닝할 수 있다.
위치 인식 및 지도 작성 장치(10)는 타임 오브 플라이트(Time of Flight, TOF) 방식으로 동작할 수 있다. 타임 오브 플라이트 방식은 레이저가 펄스 또는 구형파 신호를 방출하여 측정 범위 내에 있는 물체들로부터의 반사 펄스 또는 구형파 신호들이 수신기에 도착하는 시간을 측정함으로써, 측정 대상과 거리 측정 장치 사이의 거리를 측정한다.
이동 장치(20)는 대상체까지의 거리를 기반으로 주행 경로를 산출하거나 장애물을 검출하여 이동체를 이동시킨다. 이동 장치(20)는 인공표식의 상대 위치를 기반으로 이동체를 이동시킬 수 있다. 이동 장치(20)는 바퀴, 레일, 보행용 다리 등과 같은 이동 수단으로 구현될 수 있다.
이하에서는 도 4를 참조하여 이동체에 구현되거나 독립적으로 동작하는 위치 인식 및 지도 작성 장치를 설명하기로 한다.
도 4 및 도 5는 위치 인식 및 지도 작성 장치를 예시한 도면이다.
도 4에 도시한 바와 같이, 위치 인식 및 지도 작성 장치(10)는 스캐너(100), 지역 지도 추정부(200), 및 전역 지도 추정부(300)를 포함한다. 위치 인식 및 지도 작성 장치(10)는 도 3에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다. 예컨대, 거리 측정 장치(10)는 인터페이스를 추가로 포함할 수 있다.
위치 인식 및 지도 작성 장치(10)는 스캐닝을 수행한 위치(Pose)를 노드로 표현하고 노드 간의 상대 위치(Relative Pose)를 산출한다. 위치 인식 및 지도 작성 장치(10)는 노드 간의 상대 위치에 따라 각각의 노드의 위치를 최적화하여 지도를 갱신한다. 위치 인식 및 지도 작성 장치(10)는 구속 조건들을 최대한 만족하는 노드값 또는 구속 조건들을 최소한 벗어나는 노드값을 찾고, 노드들의 위치에서의 오차들을 보정하는 과정을 수행하여 노드의 위치를 최적화한다. 즉, 노드들은 구속 조건을 기반으로 최적의 노드값으로 수렴한다.
위치 인식 및 지도 작성 장치(10)는 현재 위치를 추정할 때 가까운 지역에서 얻어진 센서 데이터를 이용하여 현재 위치를 추정한다. 스캐닝 주기와 키 프레임 생성 주기는 구현되는 설계에 따라 적합한 수치로 설정되며, 필요에 따라 상이하게 설정될 수 있다.
스캐너(100)는 이동 로봇이 위치하는 공간의 스캔 정보를 획득한다. 스캐너(100)는 라이다 센서를 이용하여 전방향(Omnidirectional) 또는 일부 영역의 거리 정보를 획득할 수 있다. 위치 인식 및 지도 작성 장치(10)는 거리 정보와 함께 이동 로봇의 오도메트리 정보를 추가로 획득할 수 있다. 위치 인식 및 지도 작성 장치는 이동 로봇의 이동 장치에 연결된 엔코더(Encoder) 또는 IMU(Inertial Measurement Unit)로부터 회전수, 기울기, 회전량 등의 오도메트리 정보를 획득할 수 있다. IMU는 가속도 센서 및 자이로 센서로 구현될 수 있다.
이동 로봇의 위치는 3차원 벡터로 표현될 수 있다. 3차원 벡터는 기준 좌표계의 원점으로부터의 X좌표와 Y좌표, 로봇 좌표계의 X축과 기준 좌표계의 X축이 이루는 각도로 표현될 수 있다.
지역 지도 추정부(200)는 스캔 정보를 이용하여 노드에 관한 키 프레임을 생성하고, 연속하는 노드 간의 오도메트리 엣지를 산출한다. 노드 간의 관측값은 불확실성(Uncertainty)을 갖는다. 오도메트리 엣지의 불확실성은 공분산 행렬로 표현될 수 있다.
지역 지도 추정부(200)는 스캐닝 주기마다 획득한 복수의 스캔 정보 중에서 키 프레임을 저장한다. 스캔 정보는 점군(Point Cloud)로 표현될 수 있다. 키 프레임은 거리 정보 및 시간 정보를 포함한다. 지역 지도 추정부(200)는 등록된 키 프레임이 없으면 현재 입력된 거리 정보를 이용하여 키 프레임을 생성하고, 이후 키 프레임을 갱신하여 지역 지도를 추정한다. 지역 지도 추정부(200)는 복수의 스캔 정보를 합친 지역 지도를 기반으로 스캔 매칭을 수행하여 정확도를 향상시킬 수 있다.
지역 지도 추정부(200)는 스캔 정보를 회전 또는 이동하여 스캔 매칭하거나 이동 로봇의 오도메트리 정보를 측정하여 오도메트리 엣지를 산출한다. 지역 지도 추정부(200)는 스캔 매칭을 통하여 노드의 추정값을 기반으로 예측된 오도메트리 엣지 및 측정된 오도메트리 엣지 간의 오차를 보정한다.
전역 지도 추정부(300)는 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지를 검출한다. 이동 로봇이 방문한 지역을 다시 방문하면, 노드들의 오차를 보다 정확하게 보정할 수 있다. 시간적으로 연속한 노드 간의 오도메트리 엣지와 달리 루프 클로저 엣지는 시간적으로 연속하지 않는 노드 간에 공간적 관계를 형성한다. 다만, 모든 엣지 간에 루프 클로저 엣지를 생성하는 것은 비효율적이므로 구속 조건을 고려하여 적절한 루프 클로저 엣지를 검출할 필요가 있다.
전역 지도 추정부(300)는 오도메트리 엣지 및 루프 클로저 엣지를 기반으로 노드의 위치를 보정하여 전역 지도를 추정한다. 전역 지도 추정부(300)는 지역 지도를 결합하여 전역 지도를 확장하고 갱신한다.
인터페이스는 다른 장치와 정보를 송수신하는 통신 경로이다. 다른 장치는 인터페이스를 통해 위치 인식 및 지도 작성 장치(10)에 접속하여 파라미터를 설정할 수 있다. 위치 인식 및 지도 작성 장치(10)는 인터페이스를 통해 측정 위치 및 지도를 다른 장치로 전송할 수 있다.
이하에서는 도 6을 참조하여, 위치 인식 및 지도 작성 장치가 스캔 매칭하는 동작을 설명하기로 한다. 도 6은 위치 인식 및 지도 작성 장치가 스캔 매칭하는 데이터를 예시한 도면이다.
p는 시간 및 위치 변화에 따른 노드의 위치(Pose)이고, e는 노드 간의 공간적 관계이다. 위치 인식 및 지도 작성 장치가 획득한 스캔 정보는 고정 구조물로부터의 거리 정보를 포함한다.
로봇의 이동 전과 후의 스캔 정보를 비교하면 오도메터리 오차가 누적되어 공통적인 부분이 겹치지 않게 된다. 스캔 정보를 회전 또는 이동하고 관측값의 확률을 산출하는 스캔 매칭을 통하여 오도메터리 오차를 보정함으로써 로봇의 정확한 위치를 추정할 수 있다.
이하에서는 도 7을 참조하여, 위치 인식 및 지도 작성 장치가 필터링하는 동작을 설명하기로 한다. 도 7은 위치 인식 및 지도 작성 장치가 필터링한 데이터를 예시한 도면이다.
특정 시간 또는 특정 위치에서 획득한 스캔 정보는 고정 구조물과 달리 이동 장애물과 같은 노이즈를 포함할 수 있고, 이동 로봇이 이동하며 점진적으로 갱신하는 지역 지도는 실제 구조물과 다른 구조물로 변경될 수 있다. 즉, 이동 장애물로 인하여, 동일한 위치에서 상이한 시간 주기로 획득한 스캔 정보를 스캔 매칭하면, 추정한 지도에서 오차가 발생한다.
지역 지도 추정부는 기 설정된 시간 구간에서 획득한 복수의 스캔 정보로부터 확률적 기법으로 스캔정보를 분석하여 이동 장애물과 고정 장애물을 판별하고, 새롭게 획득한 스캔 정보를 비교하여 키 프레임에서 이동 장애물을 제거하여 지역 지도를 갱신한다. 최근 N 개의 스캔 정보를 이용하여 노이즈를 제거하여 지역 지도를 갱신한다. 노이즈는 기 설정된 이동 거리를 이동하거나 기 설정된 회전 각도로 회전하여 변형된 점군 데이터일 수 있다.
지역 지도 추정부는 계산 부하를 줄이고 의미있는 정보를 획득하기 위해 이동 로봇의 이동 거리에 관한 제1 조건을 만족하면 키 프레임을 필터링할 수 있다. 제1 조건은 이동 거리를 기반으로 설정된다. 예컨대, 지역 지도 추정부는 기준 지점으로부터 특정 거리 이상으로 이동하면 필터링을 수행한다.
이하에서는 위치 인식 및 지도 작성 장치가 전역 지도를 추정하는 동작을 설명하기로 한다. 도 8은 위치 인식 및 지도 작성 장치가 전역 지도를 추정하는 동작을 예시한 흐름도이고, 도 9 내지 도 13은 위치 인식 및 지도 작성 장치가 처리하는 데이터를 예시한 도면이다.
전역 지도 추정부는 이동 로봇의 이동 거리 또는 주변환경의 변화에 관한 제2 조건을 만족하면 갱신한 키 프레임의 집합에 대하여 전역 지도를 추정한다. 제2 조건은 이동 거리 또는 주변환경의 변화를 기반으로 설정된다. 예컨대, 제2 조건은 특정 거리 이상 주행하거나 특정 거리 범위를 벗어나거나 주변 구조물의 매칭율이 일정 범위를 벗어나는 것으로 설정될 수 있다.
최근 N 개의 스캔 정보는 모두 필터링된 데이터이며, 고정 구조물에 관한 데이터를 갖는다. 전역 지도 추정부는 필터링된 키 프레임들을 저장한다.
단계 S810에서 전역 지도 추정부는 특정된 키 프레임을 기준으로 불확실성 전파(Uncertainty Propagation)를 이용하여 각각의 키 프레임의 오차를 보정하고, 마할라노비스 거리(Mahalanobis Distance)를 이용하여 기 설정된 거리 내에 위치하는 키 프레임에 관한 제1 후보군을 추출한다. 마할라노비스 거리는 평균과의 거리가 표준편차의 몇 배인지를 나타내는 값으로, 어떤 값이 발생하기 어려운 값인지 또는 얼마나 이상한 값인지를 수치화한다. 도 9에서는 최근에 삽입된 키 프레임에 관한 노드(pn)을 기준으로 추출한 제1 후보군의 노드들(pk-1, pk, pk+1, pm-1, pm, pm+1)이 도시되어 있다.
단계 S820에서 전역 지도 추정부는 제1 후보군의 키 프레임 및 기 설정된 시간 구간에서 획득한 키 프레임를 비교하여 기 설정된 확률 범위에 매칭하는 키 프레임에 관한 제2 후보군을 추출한다. 도 10에서는 최근 N 개의 키 프레임에 관한 노드들(pn, pn -1, pn - 2)을 기준으로 추출한 제2 후보군의 노드들(pk, pm-1, pm, pm+1)이 도시되어 있다.
단계 S830에서 전역 지도 추정부는 일관성 확인 알고리즘을 이용하여 상기 제2 후보군으로부터 기 설정된 일관성 범위에 매칭하는 키 프레임에 관한 제3 후보군을 추출한다. 전역 지도 추정부는 오매칭된 후보를 재검사한다. 예컨대, 일관성 확인 알고리즘으로는 최대 클리크(Maximum Clique) 또는 싱글 클러스터 그래프 파티션(Single Cluster Graph Partitioning) 기법 등이 적용될 수 있다. 도 11에서는 추출한 제3 후보군의 노드들(pm-1, pm, pm+1)이 도시되어 있다.
단계 S840에서 전역 지도 추정부는 제3 후보군에 속하는 키 프레임을 대상으로 연속하지 않는 노드 간의 루프 클로저 엣지를 검출한다. 전역 지도 추정부는 최근 노드와 의미있는 노드 간에 공간적 관계를 형성한다. 도 12에서는 연속하지 않는 노드(pn, pm) 간의 루프 클로저 엣지(en, m)이 도시되어 있다.
단계 S850에서 전역 지도 추정부는 그래프 최적화 기법으로 오도메트리 엣지의 오차 및 상기 루프 클로저 엣지의 오차를 보정한다. 전역 지도 추정부는 구속 조건들을 최대한 만족하는 노드값 또는 구속 조건들을 최소한 벗어나는 노드값을 찾고, 노드들의 위치에서의 오차들을 보정하는 과정을 수행하여 노드의 위치를 최적화한다. 즉, 노드들은 구속 조건을 기반으로 최적의 노드값으로 수렴한다. 예컨대, 복수의 오도메트리 에지들과 복수의 루프 클로저 에지들에 의한 에러 벡터에 대한 가중 제곱 합의 최소값을 산출하는 방식으로 오차를 보정할 수 있다.
전역 지도 추정부는 복수의 지역 지도를 합친 전역 지도를 출력할 수 있다.
도 14는 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 방법을 예시한 흐름도이다. 이동 로봇의 위치 인식 및 지도 작성 방법은 이동 로봇의 위치 인식 및 지도 작성 장치에 의하여 수행될 수 있다.
단계 S1410에서 위치 인식 및 지도 작성 장치는 이동 로봇이 위치하는 공간의 스캔 정보를 획득한다. 스캔 정보를 획득하는 단계(S1410)는 라이다 센서를 이용하여 전방향 또는 일부 영역의 거리 정보를 획득할 수 있다. 스캔 정보를 획득하는 단계(S1410)는 거리 정보와 함께 이동 로봇의 오도메트리 정보를 추가로 획득할 수 있다.
단계 S1420에서 위치 인식 및 지도 작성 장치는 스캔 정보를 이용하여 노드에 관한 키 프레임을 생성하고, 연속하는 노드 간의 오도메트리 엣지를 산출하고 상기 키 프레임을 갱신하여 지역 지도를 추정한다.
지역 지도를 추정하는 단계(S1420)는 상기 스캔 정보를 회전 또는 이동하여 스캔 매칭하거나 상기 이동 로봇의 오도메트리 정보를 측정하여 상기 오도메트리 엣지를 산출한다. 지역 지도를 추정하는 단계(S1420)는 스캔 매칭을 통하여 노드의 추정값을 기반으로 예측된 오도메트리 엣지 및 측정된 오도메트리 엣지 간의 오차를 보정한다.
지역 지도를 추정하는 단계(S1420)는 이동 로봇의 이동 거리에 관한 제1 조건을 만족하면 상기 키 프레임을 필터링한다. 지역 지도를 추정하는 단계(S1420)는 기 설정된 시간 구간에서 획득한 복수의 스캔 정보로부터 확률적 기법으로 이동 장애물과 고정 장애물을 판별하고, 새롭게 획득한 스캔 정보를 비교하여 상기 키 프레임에서 상기 이동 장애물을 제거하여 상기 지역 지도를 갱신한다.
단계 S1430에서 위치 인식 및 지도 작성 장치는 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지를 검출하고, 오도메트리 엣지 및 루프 클로저 엣지를 기반으로 노드의 위치를 보정하여 전역 지도를 추정한다.
전역 지도를 추정하는 단계(S1430)는 이동 로봇의 이동 거리 또는 주변환경의 변화에 관한 제2 조건을 만족하면 갱신한 키 프레임의 집합에 대하여 전역 지도를 추정한다.
전역 지도를 추정하는 단계(S1430)는 특정된 키 프레임을 기준으로 불확실성 전파를 이용하여 각각의 키 프레임의 오차를 보정하고, 마할라노비스 거리를 이용하여 기 설정된 거리 내에 위치하는 키 프레임에 관한 제1 후보군을 추출한다.
전역 지도를 추정하는 단계(S1430)는 제1 후보군의 키 프레임 및 기 설정된 시간 구간에서 획득한 키 프레임를 비교하여 기 설정된 확률 범위에 매칭하는 키 프레임에 관한 제2 후보군을 추출한다.
전역 지도를 추정하는 단계(S1430)는 일관성 확인 알고리즘을 이용하여 제2 후보군으로부터 기 설정된 일관성 범위에 매칭하는 키 프레임에 관한 제3 후보군을 추출한다. 위치 인식 및 지도 작성 장치는 제1 후보군 내지 제3 후보군에 속하는 노드 중 적어도 하나에 대하여 루프 클로저 엣지를 생성한다.
전역 지도를 추정하는 단계(S1430)는 그래프 최적화 기법으로 오도메트리 엣지의 오차 및 루프 클로저 엣지의 오차를 보정한다.
본 실시예들은 스캔 정보를 이용하여 노드에 관한 키 프레임을 생성하고 연속하는 노드 간의 오도메트리 엣지 산출하고 키 프레임을 갱신하여 지역 지도를 추정하고, 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지를 검출하고 오도메트리 엣지 및 루프 클로저 엣지를 기반으로 노드의 위치를 보정하여 전역 지도를 추정함으로써, 신뢰성을 확보하고 넓은 영역을 커버하는 지도를 작성할 수 있는 효과가 있다.
위치 인식 및 지도 작성 장치에 포함된 구성요소들이 도 4 및 도 5에서는 분리되어 도시되어 있으나, 복수의 구성요소들은 상호 결합되어 적어도 하나의 모듈로 구현될 수 있다. 구성요소들은 장치 내부의 소프트웨어적인 모듈 또는 하드웨어적인 모듈을 연결하는 통신 경로에 연결되어 상호 간에 유기적으로 동작한다. 이러한 구성요소들은 하나 이상의 통신 버스 또는 신호선을 이용하여 통신한다.
위치 인식 및 지도 작성 장치는 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합에 의해 로직회로 내에서 구현될 수 있고, 범용 또는 특정 목적 컴퓨터를 이용하여 구현될 수도 있다. 장치는 고정배선형(Hardwired) 기기, 필드 프로그램 가능한 게이트 어레이(Field Programmable Gate Array, FPGA), 주문형 반도체(Application Specific Integrated Circuit, ASIC) 등을 이용하여 구현될 수 있다. 또한, 장치는 하나 이상의 프로세서 및 컨트롤러를 포함한 시스템온칩(System on Chip, SoC)으로 구현될 수 있다.
위치 인식 및 지도 작성 장치는 하드웨어적 요소가 마련된 컴퓨팅 디바이스에 소프트웨어, 하드웨어, 또는 이들의 조합하는 형태로 탑재될 수 있다. 컴퓨팅 디바이스는 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신장치, 프로그램을 실행하기 위한 데이터를 저장하는 메모리, 프로그램을 실행하여 연산 및 명령하기 위한 마이크로프로세서 등을 전부 또는 일부 포함한 다양한 장치를 의미할 수 있다.
도 8 및 도 14에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 8 및 도 14에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.
본 실시예들에 따른 동작은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능한 매체에 기록될 수 있다. 컴퓨터 판독 가능한 매체는 실행을 위해 프로세서에 명령어를 제공하는 데 참여한 임의의 매체를 나타낸다. 컴퓨터 판독 가능한 매체는 프로그램 명령, 데이터 파일, 데이터 구조 또는 이들의 조합을 포함할 수 있다. 예를 들면, 자기 매체, 광기록 매체, 메모리 등이 있을 수 있다. 컴퓨터 프로그램은 네트워크로 연결된 컴퓨터 시스템 상에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 본 실시예를 구현하기 위한 기능적인(Functional) 프로그램, 코드, 및 코드 세그먼트들은 본 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.
본 실시예들은 본 실시예의 기술 사상을 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
1: 이동 로봇 10: 위치 인식 및 지도 작성 장치
20: 이동 장치 100: 스캐너
200: 지역 지도 추정부 120: 전역 지도 추정부

Claims (18)

  1. 이동 로봇의 위치 인식 및 지도 작성 방법에 있어서,
    상기 이동 로봇이 위치하는 공간의 스캔 정보를 획득하는 단계;
    상기 스캔 정보를 이용하여 노드(Node)에 관한 키 프레임(Key Frame)을 생성하고, 연속하는 노드 간의 오도메트리 엣지(Odometry Edge)를 산출하고 상기 키 프레임을 갱신하여 지역 지도(Local Map)를 추정하는 단계; 및
    상기 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지(Loop Closure Edge)를 검출하고, 상기 오도메트리 엣지 및 상기 루프 클로저 엣지를 기반으로 상기 노드의 위치를 보정하여 전역 지도(Global Map)를 추정하는 단계
    를 포함하는 위치 인식 및 지도 작성 방법.
  2. 제1항에 있어서,
    상기 스캔 정보를 획득하는 단계는 라이다 센서를 이용하여 전방향(Omnidirectional) 또는 일부 영역의 거리 정보를 획득하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
  3. 제2항에 있어서,
    상기 스캔 정보를 획득하는 단계는 상기 거리 정보와 함께 상기 이동 로봇의 오도메트리 정보를 추가로 획득하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
  4. 제1항에 있어서,
    상기 지역 지도를 추정하는 단계는 상기 스캔 정보를 회전 또는 이동하여 스캔 매칭하거나 상기 이동 로봇의 오도메트리 정보를 측정하여 상기 오도메트리 엣지를 산출하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
  5. 제4항에 있어서,
    상기 지역 지도를 추정하는 단계는 상기 스캔 매칭을 통하여 상기 노드의 추정값을 기반으로 예측된 오도메트리 엣지 및 측정된 오도메트리 엣지 간의 오차를 보정하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법
  6. 제1항에 있어서,
    상기 지역 지도를 추정하는 단계는 상기 이동 로봇의 이동 거리에 관한 제1 조건을 만족하면 상기 키 프레임을 필터링하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
  7. 제6항에 있어서,
    상기 지역 지도를 추정하는 단계는 기 설정된 시간 구간에서 획득한 복수의 스캔 정보로부터 확률적 기법으로 이동 장애물과 고정 장애물을 판별하고, 새롭게 획득한 스캔 정보를 비교하여 상기 키 프레임에서 상기 이동 장애물을 제거하여 상기 지역 지도를 갱신하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
  8. 제1항에 있어서,
    상기 전역 지도를 추정하는 단계는 상기 이동 로봇의 이동 거리 또는 주변환경의 변화에 관한 제2 조건을 만족하면 상기 갱신한 키 프레임의 집합에 대하여 상기 전역 지도를 추정하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
  9. 제1항에 있어서,
    상기 전역 지도를 추정하는 단계는 특정된 키 프레임을 기준으로 불확실성 전파(Uncertainty Propagation)를 이용하여 각각의 키 프레임의 오차를 보정하고, 마할라노비스 거리(Mahalanobis Distance)를 이용하여 기 설정된 거리 내에 위치하는 키 프레임에 관한 제1 후보군을 추출하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
  10. 제9항에 있어서,
    상기 전역 지도를 추정하는 단계는 상기 제1 후보군의 키 프레임 및 기 설정된 시간 구간에서 획득한 키 프레임를 비교하여 기 설정된 확률 범위에 매칭하는 키 프레임에 관한 제2 후보군을 추출하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
  11. 제10항에 있어서,
    상기 전역 지도를 추정하는 단계는 일관성 확인 알고리즘을 이용하여 상기 제2 후보군으로부터 기 설정된 일관성 범위에 매칭하는 키 프레임에 관한 제3 후보군을 추출하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
  12. 제1항에 있어서,
    상기 전역 지도를 추정하는 단계는 그래프 최적화 기법으로 상기 오도메트리 엣지의 오차 및 상기 루프 클로저 엣지의 오차를 보정하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
  13. 이동 로봇의 위치 인식 및 지도 작성 장치에 있어서,
    상기 이동 로봇이 위치하는 공간의 스캔 정보를 획득하는 스캐너;
    상기 스캔 정보를 이용하여 노드(Node)에 관한 키 프레임(Key Frame)을 생성하고, 연속하는 노드 간의 오도메트리 엣지(Odometry Edge)를 산출하고 상기 키 프레임을 갱신하여 지역 지도(Local Map)를 추정하는 지역 지도 추정부; 및
    상기 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지(Loop Closure Edge)를 검출하고, 상기 오도메트리 엣지 및 상기 루프 클로저 엣지를 기반으로 상기 노드의 위치를 보정하여 전역 지도(Global Map)를 추정하는 전역 지도 추정부
    를 포함하는 위치 인식 및 지도 작성 장치.
  14. 제13항에 있어서,
    상기 지역 지도 추정부는 상기 스캔 정보를 회전 또는 이동하여 스캔 매칭하거나 상기 이동 로봇의 오도메트리 정보를 측정하여 상기 오도메트리 엣지를 산출하며,
    상기 스캔 매칭을 통하여 상기 노드의 추정값을 기반으로 예측된 오도메트리 엣지 및 측정된 오도메트리 엣지 간의 오차를 보정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 장치.
  15. 제13항에 있어서,
    상기 지역 지도 추정부는 상기 이동 로봇의 이동 거리에 관한 제1 조건을 만족하면 상기 키 프레임을 필터링하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 장치.
  16. 제13항에 있어서,
    상기 전역 지도 추정부는 상기 이동 로봇의 이동 거리 또는 주변환경의 변화에 관한 제2 조건을 만족하면 상기 갱신한 키 프레임의 집합에 대하여 상기 전역 지도를 추정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 장치.
  17. 제13항에 있어서,
    상기 전역 지도 추정부는 특정된 키 프레임을 기준으로 불확실성 전파(Uncertainty Propagation)를 이용하여 각각의 키 프레임의 오차를 보정하고, 마할라노비스 거리(Mahalanobis Distance)를 이용하여 기 설정된 거리 내에 위치하는 키 프레임에 관한 제1 후보군을 추출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 장치.
  18. 프로세서에 의해 실행 가능한 컴퓨터 프로그램 명령어들을 포함하는 비일시적(Non-Transitory) 컴퓨터 판독 가능한 매체에 기록되어 위치 인식 및 지도 작성을 위한 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램 명령어들이 이동 로봇의 적어도 하나의 프로세서에 의해 실행되는 경우에,
    상기 이동 로봇이 위치하는 공간의 스캔 정보를 획득하는 단계;
    상기 스캔 정보를 이용하여 노드(Node)에 관한 키 프레임(Key Frame)을 생성하고, 연속하는 노드 간의 오도메트리 엣지(Odometry Edge)를 산출하고 상기 키 프레임을 갱신하여 지역 지도(Local Map)를 추정하는 단계; 및
    상기 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지(Loop Closure Edge)를 검출하고, 상기 오도메트리 엣지 및 상기 루프 클로저 엣지를 기반으로 상기 노드의 위치를 보정하여 전역 지도(Global Map)를 추정하는 단계
    를 포함한 동작들을 수행하는 컴퓨터 프로그램.
KR1020170137745A 2016-11-30 2017-10-23 라이다를 이용한 위치 인식 및 지도 작성에 관한 방법 및 장치 KR102172602B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020170137745A KR102172602B1 (ko) 2017-10-23 2017-10-23 라이다를 이용한 위치 인식 및 지도 작성에 관한 방법 및 장치
US15/825,122 US10962647B2 (en) 2016-11-30 2017-11-29 Lidar apparatus based on time of flight and moving object
PCT/KR2018/007847 WO2019039733A1 (ko) 2017-08-21 2018-07-11 카메라와 라이다를 이용한 융합 센서 및 이동체
EP18189682.0A EP3447532A3 (en) 2017-08-21 2018-08-20 Hybrid sensor with camera and lidar, and moving object
US16/136,222 US11579298B2 (en) 2017-09-20 2018-09-19 Hybrid sensor and compact Lidar sensor
US17/183,347 US20210181347A1 (en) 2016-11-30 2021-02-24 Lidar apparatus based on time of flight and moving object
US17/183,349 US20210199807A1 (en) 2016-11-30 2021-02-24 Lidar apparatus based on time of flight and moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170137745A KR102172602B1 (ko) 2017-10-23 2017-10-23 라이다를 이용한 위치 인식 및 지도 작성에 관한 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20190045006A true KR20190045006A (ko) 2019-05-02
KR102172602B1 KR102172602B1 (ko) 2020-11-02

Family

ID=66581442

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170137745A KR102172602B1 (ko) 2016-11-30 2017-10-23 라이다를 이용한 위치 인식 및 지도 작성에 관한 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102172602B1 (ko)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020226187A1 (ko) * 2019-05-03 2020-11-12 엘지전자 주식회사 다중 센서 및 인공지능에 기반하여 맵을 생성하고 맵을 이용하여 주행하는 로봇
WO2020241934A1 (ko) * 2019-05-30 2020-12-03 엘지전자 주식회사 멀티 센서를 동기화시켜 위치를 추정하는 방법 및 이를 구현하는 로봇
WO2020241930A1 (ko) * 2019-05-30 2020-12-03 엘지전자 주식회사 멀티 센서를 이용하여 위치를 추정하는 방법 및 이를 구현하는 로봇
WO2020251100A1 (ko) * 2019-06-14 2020-12-17 엘지전자 주식회사 퓨전 슬램에서 맵을 업데이트하는 방법 및 이를 구현하는 로봇
CN112405526A (zh) * 2020-10-26 2021-02-26 北京市商汤科技开发有限公司 一种机器人的定位方法及装置、设备、存储介质
KR102232629B1 (ko) * 2019-12-26 2021-03-26 주식회사 케이티 통신 품질 정보에 기초하여 맵을 생성하는 서버 및 방법 그리고 맵에 따라 주행하는 이동 로봇
KR20210065728A (ko) 2019-11-27 2021-06-04 재단법인 지능형자동차부품진흥원 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법 및 장치
CN112990040A (zh) * 2021-03-25 2021-06-18 北京理工大学 一种结合全局和局部特征的鲁棒回环检测方法
KR102275682B1 (ko) 2020-05-08 2021-07-12 한국건설기술연구원 시설물 실시간 스캔을 위한 이동형 스캔 백팩 장치
CN113552586A (zh) * 2020-04-08 2021-10-26 杭州萤石软件有限公司 一种移动机器人的定位方法和移动机器人
KR20220077519A (ko) 2020-12-02 2022-06-09 현대자동차주식회사 라이다 센서를 이용한 고도 구조물 인지 장치 및 방법
KR102589483B1 (ko) 2022-09-26 2023-10-16 한국건설기술연구원 건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 모바일 맵핑 시스템 및 방법
KR20240042776A (ko) 2022-09-26 2024-04-02 한국건설기술연구원 건설 장비 및 작업자 모니터링을 위한 인공지능 플랫폼 시스템 및 그의 건설 장비 및 작업자 모니터링을 위한 서비스 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102550255B1 (ko) 2020-12-18 2023-07-03 한서대학교 산학협력단 지형정보 생성장비 렌탈 서비스 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100031277A (ko) * 2008-09-12 2010-03-22 삼성전자주식회사 전방 영상을 이용한 위치 인식 장치 및 방법
KR20110122022A (ko) * 2010-05-03 2011-11-09 삼성전자주식회사 지도 생성 장치 및 방법
KR20140009737A (ko) * 2012-07-12 2014-01-23 한국과학기술원 하이브리드 맵 기반 로봇의 위치인식방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100031277A (ko) * 2008-09-12 2010-03-22 삼성전자주식회사 전방 영상을 이용한 위치 인식 장치 및 방법
KR20110122022A (ko) * 2010-05-03 2011-11-09 삼성전자주식회사 지도 생성 장치 및 방법
KR20140009737A (ko) * 2012-07-12 2014-01-23 한국과학기술원 하이브리드 맵 기반 로봇의 위치인식방법

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210150624A (ko) * 2019-05-03 2021-12-13 엘지전자 주식회사 다중 센서 및 인공지능에 기반하여 맵을 생성하고 맵을 이용하여 주행하는 로봇
WO2020226187A1 (ko) * 2019-05-03 2020-11-12 엘지전자 주식회사 다중 센서 및 인공지능에 기반하여 맵을 생성하고 맵을 이용하여 주행하는 로봇
US11960297B2 (en) 2019-05-03 2024-04-16 Lg Electronics Inc. Robot generating map based on multi sensors and artificial intelligence and moving based on map
WO2020241934A1 (ko) * 2019-05-30 2020-12-03 엘지전자 주식회사 멀티 센서를 동기화시켜 위치를 추정하는 방법 및 이를 구현하는 로봇
WO2020241930A1 (ko) * 2019-05-30 2020-12-03 엘지전자 주식회사 멀티 센서를 이용하여 위치를 추정하는 방법 및 이를 구현하는 로봇
US11579626B2 (en) 2019-05-30 2023-02-14 Lg Electronics Inc. Method of localization by synchronizing multi sensors and robot implementing same
US11554495B2 (en) 2019-05-30 2023-01-17 Lg Electronics Inc. Method of localization using multi sensor and robot implementing same
WO2020251100A1 (ko) * 2019-06-14 2020-12-17 엘지전자 주식회사 퓨전 슬램에서 맵을 업데이트하는 방법 및 이를 구현하는 로봇
KR20210065728A (ko) 2019-11-27 2021-06-04 재단법인 지능형자동차부품진흥원 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법 및 장치
KR102232629B1 (ko) * 2019-12-26 2021-03-26 주식회사 케이티 통신 품질 정보에 기초하여 맵을 생성하는 서버 및 방법 그리고 맵에 따라 주행하는 이동 로봇
CN113552586A (zh) * 2020-04-08 2021-10-26 杭州萤石软件有限公司 一种移动机器人的定位方法和移动机器人
CN113552586B (zh) * 2020-04-08 2024-04-05 杭州萤石软件有限公司 一种移动机器人的定位方法和移动机器人
KR102275682B1 (ko) 2020-05-08 2021-07-12 한국건설기술연구원 시설물 실시간 스캔을 위한 이동형 스캔 백팩 장치
CN112405526A (zh) * 2020-10-26 2021-02-26 北京市商汤科技开发有限公司 一种机器人的定位方法及装置、设备、存储介质
KR20220077519A (ko) 2020-12-02 2022-06-09 현대자동차주식회사 라이다 센서를 이용한 고도 구조물 인지 장치 및 방법
CN112990040B (zh) * 2021-03-25 2022-09-06 北京理工大学 一种结合全局和局部特征的鲁棒回环检测方法
CN112990040A (zh) * 2021-03-25 2021-06-18 北京理工大学 一种结合全局和局部特征的鲁棒回环检测方法
KR102589483B1 (ko) 2022-09-26 2023-10-16 한국건설기술연구원 건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 모바일 맵핑 시스템 및 방법
KR20240042776A (ko) 2022-09-26 2024-04-02 한국건설기술연구원 건설 장비 및 작업자 모니터링을 위한 인공지능 플랫폼 시스템 및 그의 건설 장비 및 작업자 모니터링을 위한 서비스 방법

Also Published As

Publication number Publication date
KR102172602B1 (ko) 2020-11-02

Similar Documents

Publication Publication Date Title
KR102172602B1 (ko) 라이다를 이용한 위치 인식 및 지도 작성에 관한 방법 및 장치
KR102135560B1 (ko) 카메라와 라이다를 이용한 융합 센서 및 이동체
EP3447532A2 (en) Hybrid sensor with camera and lidar, and moving object
CN108519615B (zh) 基于组合导航和特征点匹配的移动机器人自主导航方法
Philipp et al. Mapgenie: Grammar-enhanced indoor map construction from crowd-sourced data
KR101619076B1 (ko) 모바일 플랫폼의 동적 물체 검출 및 추적 방법
US10006772B2 (en) Map production method, mobile robot, and map production system
KR20180064969A (ko) 비행시간 기반의 라이다 장치 및 이동체
KR101663650B1 (ko) 거리 신호를 이용하여 위치를 인식하는 장치 및 방법
KR102110813B1 (ko) 무선 환경 변화에 강인한 slam 방법 및 장치
KR20170061373A (ko) 이동 로봇 및 그 제어 방법
KR20100005488A (ko) 이동 로봇의 지도 구성 장치 및 방법
JP5728815B2 (ja) 物体検出装置
JP2009193240A (ja) 移動ロボット及び環境地図の生成方法
KR101888295B1 (ko) 레이저 거리 센서의 측정 거리에 대해 추정된 거리 유형의 신뢰성을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법
CN113269878B (zh) 一种基于多传感器的建图方法及***
KR20230014724A (ko) 차량 국부화 시스템 및 방법
CN115479598A (zh) 基于多传感器融合的定位与建图方法及紧耦合***
CN112506200A (zh) 机器人定位方法、装置、机器人及存储介质
Liu et al. An enhanced lidar inertial localization and mapping system for unmanned ground vehicles
CN115962773A (zh) 一种移动机器人同步定位与地图构建方法、装置和设备
JP2018206038A (ja) 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
Sternberg et al. Precise indoor mapping as a basis for coarse indoor navigation
CN115103299B (zh) 一种基于rfid的多传感器融合定位方法
AU2021273605B2 (en) Multi-agent map generation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant