KR102172602B1 - Method and Apparatus for Localization and Mapping Using LIDAR - Google Patents

Method and Apparatus for Localization and Mapping Using LIDAR Download PDF

Info

Publication number
KR102172602B1
KR102172602B1 KR1020170137745A KR20170137745A KR102172602B1 KR 102172602 B1 KR102172602 B1 KR 102172602B1 KR 1020170137745 A KR1020170137745 A KR 1020170137745A KR 20170137745 A KR20170137745 A KR 20170137745A KR 102172602 B1 KR102172602 B1 KR 102172602B1
Authority
KR
South Korea
Prior art keywords
map
key frame
estimating
edge
odometry
Prior art date
Application number
KR1020170137745A
Other languages
Korean (ko)
Other versions
KR20190045006A (en
Inventor
신경철
박성주
이재영
천무웅
Original Assignee
주식회사 유진로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유진로봇 filed Critical 주식회사 유진로봇
Priority to KR1020170137745A priority Critical patent/KR102172602B1/en
Priority to US15/825,122 priority patent/US10962647B2/en
Priority to PCT/KR2018/007847 priority patent/WO2019039733A1/en
Priority to EP18189682.0A priority patent/EP3447532A3/en
Priority to US16/136,222 priority patent/US11579298B2/en
Publication of KR20190045006A publication Critical patent/KR20190045006A/en
Application granted granted Critical
Publication of KR102172602B1 publication Critical patent/KR102172602B1/en
Priority to US17/183,347 priority patent/US20210181347A1/en
Priority to US17/183,349 priority patent/US20210199807A1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 실시예들은 스캔 정보를 이용하여 노드에 관한 키 프레임을 생성하고 연속하는 노드 간의 오도메트리 엣지 산출하고 키 프레임을 갱신하여 지역 지도를 추정하고, 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지를 검출하고 오도메트리 엣지 및 루프 클로저 엣지를 기반으로 노드의 위치를 보정하여 전역 지도를 추정함으로써, 일정 조건하에서 일정 시간 내에 넓은 영역을 커버하는 지도를 작성할 수 있는 위치 인식 및 지도 작성에 관한 방법 및 장치를 제공한다.In the present embodiments, a key frame for a node is generated using scan information, an odometry edge between consecutive nodes is calculated, a key frame is updated to estimate a region map, and a non-contiguous node for the updated set of key frames By detecting the loop closure edge of the liver and estimating the global map by correcting the position of the node based on the odometry edge and the loop closure edge, location recognition and map that can create a map covering a large area within a certain time under certain conditions. Provides methods and devices for preparation.

Figure R1020170137745
Figure R1020170137745

Description

라이다를 이용한 위치 인식 및 지도 작성에 관한 방법 및 장치 {Method and Apparatus for Localization and Mapping Using LIDAR}Method and Apparatus for Location Recognition and Mapping Using LiDAR {Method and Apparatus for Localization and Mapping Using LIDAR}

본 실시예가 속하는 기술 분야는 라이다를 이용하여 위치를 인식하고 지도를 작성하는 방법 및 장치에 관한 것이다.The technical field to which this embodiment belongs relates to a method and apparatus for recognizing a location and creating a map using a lidar.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information on the present embodiment and does not constitute the prior art.

로봇이나 차량 등의 이동체가 미지의 환경에서 이동하기 위해서는 주변환경에 관한 정보가 없으므로, 센서정보를 이용하여 환경에 관한 지도를 작성하고, 작성된 지도로부터 이동체의 현재 위치를 추정해야 한다. 이러한 위치를 인식하고 주변 환경 지도를 작성하는 방법을 동시 위치 추정 및 지도 작성(Simultaneous Localization and Mapping, SLAM)이라고 한다.In order for a moving object such as a robot or a vehicle to move in an unknown environment, there is no information on the surrounding environment, so it is necessary to create a map about the environment using sensor information and estimate the current position of the moving object from the created map. The method of recognizing such a location and creating a map of the surrounding environment is called Simultaneous Localization and Mapping (SLAM).

도 1은 동시간 위치 인식 및 지도 작성(Simultaneous Localization And Mapping, SLAM) 방법이 처리하는 정보를 그래프 모델로 나타낸 것이다. 도 1을 참조하면, x는 로봇의 위치, u는 오도메트리 정보, z는 관측값, m은 추정 맵을 나타낸다. SLAM에 관한 방법으로는 필터 기반의 SLAM, 그래프 기반의 SLAM 등 다양한 방법이 있다.FIG. 1 is a graph model showing information processed by a Simultaneous Localization And Mapping (SLAM) method. Referring to FIG. 1, x represents a position of a robot, u represents odometry information, z represents an observation value, and m represents an estimated map. There are various methods for SLAM, such as filter-based SLAM and graph-based SLAM.

그래프 기반의 SLAM은 로봇의 위치와 움직임을 그래프의 노드 및 엣지로 표현한다. 노드는 특정 시점에서의 로봇 또는 인공표식의 위치이다. 엣지는 두 노드 간의 관계이며, 두 노드 간의 공간 상의 구속 조건(Constraint)을 의미한다. 측정된 엣지는 오차를 포함한다. 따라서, 로봇의 주행거리가 길어지거나 노드의 개수가 증가할수록, 위치를 추정하는 과정에서 오차가 누적되는 문제가 있다.Graph-based SLAM expresses the position and movement of the robot as nodes and edges of the graph. A node is the position of a robot or artificial marker at a specific point in time. An edge is a relationship between two nodes and means a constraint in space between two nodes. The measured edge includes the error. Accordingly, as the traveling distance of the robot increases or the number of nodes increases, there is a problem that errors accumulate in the process of estimating the position.

본 발명의 실시예들은 스캔 정보를 이용하여 노드에 관한 키 프레임을 생성하고 연속하는 노드 간의 오도메트리 엣지 산출하고 오도메트리 엣지의 오차를 보정하여 키 프레임을 갱신한 지역 지도를 추정하고, 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지를 검출하고 오도메트리 엣지 및 루프 클로저 엣지를 기반으로 노드의 위치를 보정하여 전역 지도를 추정함으로써, 일정 조건하에서 일정 시간 내에 넓은 영역을 커버하는 지도를 제공하는 데 발명의 주된 목적이 있다.Embodiments of the present invention generate a key frame for a node using scan information, calculate an odometry edge between successive nodes, correct an error of an odometry edge, estimate an area map updated with a key frame, and update For a set of key frames, the global map is estimated by detecting the loop closure edge between non-contiguous nodes and correcting the position of the node based on the odometry edge and the loop closure edge. The main purpose of the invention is to provide a covering map.

본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Still other objects, not specified, of the present invention may be additionally considered within the range that can be easily deduced from the following detailed description and effects thereof.

본 실시예의 일 측면에 의하면, 이동 로봇의 위치 인식 및 지도 작성 방법에 있어서, 상기 이동 로봇이 위치하는 공간의 스캔 정보를 획득하는 단계, 상기 스캔 정보를 이용하여 노드(Node)에 관한 키 프레임(Key Frame)을 생성하고, 연속하는 노드 간의 오도메트리 엣지(Odometry Edge)를 산출하고 상기 키 프레임을 갱신하여 지역 지도(Local Map)를 추정하는 단계, 및 상기 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지(Loop Closure Edge)를 검출하고, 상기 오도메트리 엣지 및 상기 루프 클로저 엣지를 기반으로 상기 노드의 위치를 보정하여 전역 지도(Global Map)를 추정하는 단계를 포함하는 위치 인식 및 지도 작성 방법을 제공한다.According to an aspect of the present embodiment, in a method for recognizing a location of a mobile robot and creating a map, acquiring scan information of a space in which the mobile robot is located, and a key frame for a node using the scan information ( Key Frame), calculating an odometry edge between successive nodes, and estimating a local map by updating the key frame, and continuing with respect to the updated set of key frames A location including the step of estimating a global map by detecting a loop closure edge between nodes that do not do so, and correcting the location of the node based on the odometry edge and the loop closure edge. Provide recognition and mapping methods.

본 실시예의 다른 측면에 의하면, 이동 로봇의 위치 인식 및 지도 작성 장치에 있어서, 상기 이동 로봇이 위치하는 공간의 스캔 정보를 획득하는 스캐너, 상기 스캔 정보를 이용하여 노드(Node)에 관한 키 프레임(Key Frame)을 생성하고, 연속하는 노드 간의 오도메트리 엣지(Odometry Edge)를 산출하고 상기 키 프레임을 갱신하여 지역 지도(Local Map)를 추정하는 지역 지도 추정부, 및 상기 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지(Loop Closure Edge)를 검출하고, 상기 오도메트리 엣지 및 상기 루프 클로저 엣지를 기반으로 상기 노드의 위치를 보정하여 전역 지도(Global Map)를 추정하는 전역 지도 추정부를 포함하는 위치 인식 및 지도 작성 장치를 제공한다.According to another aspect of the present embodiment, in the apparatus for recognizing a location and creating a map of a mobile robot, a scanner for obtaining scan information of a space where the mobile robot is located, and a key frame for a node using the scan information ( Key Frame), calculate an odometry edge between successive nodes, and update the key frame to estimate a local map, and a set of the updated key frames A global map that estimates a global map by detecting a loop closure edge between nodes that are not continuous with respect to, and correcting the position of the node based on the odometry edge and the loop closure edge. It provides a location recognition and map preparation device including an estimation unit.

본 실시예의 또 다른 측면에 의하면, 프로세서에 의해 실행 가능한 컴퓨터 프로그램 명령어들을 포함하는 비일시적(Non-Transitory) 컴퓨터 판독 가능한 매체에 기록되어 위치 인식 및 지도 작성을 위한 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램 명령어들이 이동 로봇의 적어도 하나의 프로세서에 의해 실행되는 경우에, 상기 이동 로봇이 위치하는 공간의 스캔 정보를 획득하는 단계, 상기 스캔 정보를 이용하여 노드(Node)에 관한 키 프레임(Key Frame)을 생성하고, 연속하는 노드 간의 오도메트리 엣지(Odometry Edge)를 산출하고 상기 키 프레임을 갱신하여 지역 지도(Local Map)를 추정하는 단계, 및 상기 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지(Loop Closure Edge)를 검출하고, 상기 오도메트리 엣지 및 상기 루프 클로저 엣지를 기반으로 상기 노드의 위치를 보정하여 전역 지도(Global Map)를 추정하는 단계를 포함한 동작들을 수행하는 컴퓨터 프로그램을 제공한다.According to another aspect of the present embodiment, as a computer program for location recognition and mapping by being recorded on a non-transitory computer-readable medium including computer program instructions executable by a processor, the computer program instructions are When executed by at least one processor of the mobile robot, acquiring scan information of a space in which the mobile robot is located, generating a key frame for a node using the scan information, and , Estimating a local map by calculating an odometry edge between consecutive nodes and updating the key frame, and loop closure between non-contiguous nodes with respect to the updated set of key frames Provides a computer program that performs operations including the step of detecting an edge (Loop Closure Edge) and estimating a global map by correcting the position of the node based on the odometry edge and the loop closure edge. do.

이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 스캔 정보를 이용하여 노드에 관한 키 프레임을 생성하고 연속하는 노드 간의 오도메트리 엣지 산출하고 키 프레임을 갱신하여 지역 지도를 추정하고, 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지를 검출하고 오도메트리 엣지 및 루프 클로저 엣지를 기반으로 노드의 위치를 보정하여 전역 지도를 추정함으로써, 일정 조건하에서 일정 시간 내에 넓은 영역을 커버하는 지도를 작성할 수 있는 효과가 있다.As described above, according to the embodiments of the present invention, a key frame for a node is generated using scan information, an odometry edge between successive nodes is calculated, and a key frame is updated to estimate a region map, and For a set of key frames, the global map is estimated by detecting the loop closure edge between non-contiguous nodes and correcting the position of the node based on the odometry edge and the loop closure edge, covering a wide area within a certain time under certain conditions. There is an effect that you can create a map.

여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if it is an effect not explicitly mentioned herein, the effect described in the following specification expected by the technical features of the present invention and the provisional effect thereof are treated as described in the specification of the present invention.

도 1은 동시간 위치 인식 및 지도 작성(Simultaneous Localization And Mapping, SLAM) 방법이 처리하는 정보를 그래프 모델로 나타낸 것이다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 이동 로봇을 예시한 도면이다.
도 4 및 도 5는 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 장치를 예시한 도면이다.
도 6은 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 장치가 스캔 매칭하는 데이터를 예시한 도면이다.
도 7은 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 장치가 필터링한 데이터를 예시한 도면이다.
도 8은 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 장치가 전역 지도를 추정하는 동작을 예시한 흐름도이다.
도 9 내지 도 13은 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 장치가 전역 지도를 추정하는 과정에서 처리하는 데이터를 예시한 도면이다.
도 14는 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 방법을 예시한 흐름도이다.
FIG. 1 is a graph model showing information processed by a Simultaneous Localization And Mapping (SLAM) method.
2 and 3 are diagrams illustrating a mobile robot according to an embodiment of the present invention.
4 and 5 are diagrams illustrating an apparatus for recognizing a location and creating a map according to another embodiment of the present invention.
6 is a diagram illustrating scan matching data by a location recognition and map creation apparatus according to another embodiment of the present invention.
7 is a diagram illustrating data filtered by an apparatus for recognizing a location and creating a map according to another embodiment of the present invention.
8 is a flowchart illustrating an operation of estimating a global map by an apparatus for recognizing a location and creating a map according to another embodiment of the present invention.
9 to 13 are diagrams illustrating data processed in a process of estimating a global map by a location recognition and map preparation apparatus according to another embodiment of the present invention.
14 is a flowchart illustrating a method of recognizing a location and creating a map according to another embodiment of the present invention.

이하, 본 발명을 설명함에 있어서 관련된 공지기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하고, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다.Hereinafter, in describing the present invention, when it is determined that the subject matter of the present invention may be unnecessarily obscured as matters apparent to those skilled in the art with respect to known functions related to the present invention, a detailed description thereof is omitted, and some embodiments of the present invention It will be described in detail through exemplary drawings.

도 2 본 발명의 일 실시예에 따른 이동 로봇을 예시한 블록도이다.2 is a block diagram illustrating a mobile robot according to an embodiment of the present invention.

도 2에 도시한 바와 같이, 이동체(1)는 위치 인식 및 지도 작성 장치(10) 및 이동 장치(20)를 포함한다. 이동체(1)는 도 2에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다. 예컨대, 이동체는 청소부를 추가로 포함할 수 있다.As shown in FIG. 2, the moving object 1 includes a location recognition and map preparation device 10 and a moving device 20. The movable body 1 may omit some of the various components exemplarily illustrated in FIG. 2 or may additionally include other components. For example, the moving body may further include a cleaning unit.

이동체(1)는 미리 정의된 방식에 따라 특정 위치에서 다른 위치로 이동 가능하도록 설계된 장치를 의미하며, 바퀴, 레일, 보행용 다리 등과 같은 이동 수단을 이용하여, 특정 위치에서 다른 위치로 이동할 수 있다. 이동체(1)는 센서 등을 이용하여 외부의 정보를 수집한 후 수집된 정보에 따라서 이동할 수도 있고, 사용자에 의해 별도의 조작 수단을 이용하여 이동할 수 있다.The moving body 1 refers to a device designed to move from a specific position to another position according to a predefined method, and can be moved from a specific position to another position using a moving means such as wheels, rails, and walking legs. . The moving object 1 may be moved according to the collected information after collecting external information using a sensor or the like, or may be moved by a user using a separate operation means.

이동체(1)의 일례로는 로봇 청소기, 장난감 자동차, 산업용 또는 군사용 목적 등으로 이용 가능한 이동 로봇 등이 있을 수 있으며, 이동체(1)는 바퀴를 이용하여 주행하거나, 하나 이상의 다리를 이용하여 보행하거나, 이들의 조합 등으로 구현될 수 있다.Examples of the moving body 1 may include a robot cleaner, a toy car, a mobile robot that can be used for industrial or military purposes, etc., and the moving body 1 is driven by using a wheel or walking by using one or more legs. , It can be implemented by a combination of these.

로봇 청소기는 청소 공간을 주행하면서 바닥에 쌓인 먼지 등의 이물질을 흡입함으로써 청소 공간을 자동으로 청소하는 장치이다. 일반적인 청소기가 사용자에 의한 외력으로 이동하는 것과 달리, 로봇 청소기는 외부의 정보 또는 미리 정의된 이동 패턴을 이용하여 이동하면서 청소 공간을 청소한다.A robot cleaner is a device that automatically cleans a cleaning space by inhaling foreign substances such as dust accumulated on the floor while driving through the cleaning space. Unlike a general vacuum cleaner moving by external force by a user, a robot cleaner cleans a cleaning space while moving using external information or a predefined movement pattern.

로봇 청소기는 미리 정의된 패턴을 이용하여 자동적으로 이동하거나, 또는 감지 센서에 의해 외부의 장애물을 감지한 후, 감지된 바에 따라 이동할 수도 있고, 사용자에 의해 조작되는 원격 제어 장치로부터 전달되는 신호에 따라 이동 가능하다.The robot cleaner may automatically move using a predefined pattern, or may move according to the sensed after detecting an external obstacle by a detection sensor, or according to a signal transmitted from a remote control device operated by the user. Can be moved.

감지 센서는 라이다(LIDAR)로 구현될 수 있다. 라이다는 레이저 신호를 쏘고 반사되어 돌아오는 시간을 측정하고, 빛의 속도를 이용하여 반사체의 거리를 측정하는 장치이다. 레이저 신호는 포토 다이오드를 통하여 전기적인 신호로 변경된다. 레이저 신호는 기 설정된 파장 대역을 가질 수 있다.The detection sensor may be implemented with LIDAR. The radar shoots a laser signal, measures the time it returns from reflection, and uses the speed of light to measure the distance of the reflector. The laser signal is converted into an electrical signal through a photodiode. The laser signal may have a preset wavelength band.

도 3은 본 발명의 일 실시예에 따른 이동 로봇을 예시한 도면이다.3 is a diagram illustrating a mobile robot according to an embodiment of the present invention.

도 3을 참조하면, 이동 로봇의 위치 인식하고 동시에 지도를 작성하는 위치 인식 및 지도 작성 장치(10)가 본체에 위치한다. 위치 인식 및 지도 작성 장치(10)는 구현되는 설계에 따라 적합한 위치에서 하나 이상으로 구현될 수 있다.Referring to FIG. 3, a location recognition and map creation device 10 for recognizing a location of a mobile robot and creating a map at the same time is located in the main body. The location recognition and mapping device 10 may be implemented in one or more locations at a suitable location according to the implemented design.

위치 인식 및 지도 작성 장치(10)는 카메라, CCD(Charge Coupled Device) 이미지 센서, CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서, RGBD 센서, 지자기계 센서, 초음파 센서, 레이저 센서 등 다양한 센서를 이용하여 공간의 거리를 측정한다. 위치 인식 및 지도 작성 장치(10)는 광원으로부터 출사된 광을 통과시키는 홀을 포함하는 곡면 형상의 제1 거울과 주기적으로 스윙하는 제2 거울이 구비된 라이다 센서를 이용하여 3차원 스캐닝할 수 있다.The location recognition and mapping device 10 uses various sensors such as a camera, a charge coupled device (CCD) image sensor, a Complementary Metal Oxide Semiconductor (CMOS) image sensor, an RGBD sensor, a geomagnetic sensor, an ultrasonic sensor, and a laser sensor. Measure the distance. The location recognition and mapping apparatus 10 can perform three-dimensional scanning using a lidar sensor having a curved first mirror including a hole through which light emitted from a light source passes and a second mirror that periodically swings. have.

위치 인식 및 지도 작성 장치(10)는 타임 오브 플라이트(Time of Flight, TOF) 방식으로 동작할 수 있다. 타임 오브 플라이트 방식은 레이저가 펄스 또는 구형파 신호를 방출하여 측정 범위 내에 있는 물체들로부터의 반사 펄스 또는 구형파 신호들이 수신기에 도착하는 시간을 측정함으로써, 측정 대상과 거리 측정 장치 사이의 거리를 측정한다.The location recognition and map preparation apparatus 10 may operate in a Time of Flight (TOF) method. In the time-of-flight method, the laser emits a pulse or square wave signal and measures the time when the reflected pulse or square wave signals from objects within the measurement range arrive at the receiver, thereby measuring the distance between the measurement object and the distance measuring device.

이동 장치(20)는 대상체까지의 거리를 기반으로 주행 경로를 산출하거나 장애물을 검출하여 이동체를 이동시킨다. 이동 장치(20)는 인공표식의 상대 위치를 기반으로 이동체를 이동시킬 수 있다. 이동 장치(20)는 바퀴, 레일, 보행용 다리 등과 같은 이동 수단으로 구현될 수 있다.The moving device 20 calculates a driving path based on the distance to the object or detects an obstacle to move the moving object. The moving device 20 may move the moving object based on the relative position of the artificial mark. The moving device 20 may be implemented as a moving means such as a wheel, a rail, or a walking leg.

이하에서는 도 4를 참조하여 이동체에 구현되거나 독립적으로 동작하는 위치 인식 및 지도 작성 장치를 설명하기로 한다.Hereinafter, an apparatus for recognizing a location and creating a map that is implemented in a moving object or operates independently will be described with reference to FIG. 4.

도 4 및 도 5는 위치 인식 및 지도 작성 장치를 예시한 도면이다.4 and 5 are diagrams illustrating an apparatus for recognizing a location and creating a map.

도 4에 도시한 바와 같이, 위치 인식 및 지도 작성 장치(10)는 스캐너(100), 지역 지도 추정부(200), 및 전역 지도 추정부(300)를 포함한다. 위치 인식 및 지도 작성 장치(10)는 도 3에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다. 예컨대, 거리 측정 장치(10)는 인터페이스를 추가로 포함할 수 있다.As shown in FIG. 4, the location recognition and map preparation apparatus 10 includes a scanner 100, a local map estimation unit 200, and a global map estimation unit 300. The location recognition and map creation apparatus 10 may omit some of the various components exemplarily illustrated in FIG. 3 or additionally include other components. For example, the distance measuring device 10 may further include an interface.

위치 인식 및 지도 작성 장치(10)는 스캐닝을 수행한 위치(Pose)를 노드로 표현하고 노드 간의 상대 위치(Relative Pose)를 산출한다. 위치 인식 및 지도 작성 장치(10)는 노드 간의 상대 위치에 따라 각각의 노드의 위치를 최적화하여 지도를 갱신한다. 위치 인식 및 지도 작성 장치(10)는 구속 조건들을 최대한 만족하는 노드값 또는 구속 조건들을 최소한 벗어나는 노드값을 찾고, 노드들의 위치에서의 오차들을 보정하는 과정을 수행하여 노드의 위치를 최적화한다. 즉, 노드들은 구속 조건을 기반으로 최적의 노드값으로 수렴한다.The location recognition and map creation apparatus 10 expresses a position (Pose) on which the scanning is performed as a node and calculates a relative pose between nodes. The location recognition and map preparation device 10 updates the map by optimizing the location of each node according to the relative location between the nodes. The location recognition and mapping apparatus 10 optimizes the location of the node by searching for a node value that satisfies the constraint conditions as much as possible or a node value that at least deviates from the constraint conditions, and corrects errors in the locations of the nodes. In other words, the nodes converge to the optimal node value based on the constraint condition.

위치 인식 및 지도 작성 장치(10)는 현재 위치를 추정할 때 가까운 지역에서 얻어진 센서 데이터를 이용하여 현재 위치를 추정한다. 스캐닝 주기와 키 프레임 생성 주기는 구현되는 설계에 따라 적합한 수치로 설정되며, 필요에 따라 상이하게 설정될 수 있다.When estimating the current location, the location recognition and mapping apparatus 10 estimates the current location using sensor data obtained from a nearby area. The scanning period and the key frame generation period are set to appropriate values according to the implemented design, and may be set differently as necessary.

스캐너(100)는 이동 로봇이 위치하는 공간의 스캔 정보를 획득한다. 스캐너(100)는 라이다 센서를 이용하여 전방향(Omnidirectional) 또는 일부 영역의 거리 정보를 획득할 수 있다. 위치 인식 및 지도 작성 장치(10)는 거리 정보와 함께 이동 로봇의 오도메트리 정보를 추가로 획득할 수 있다. 위치 인식 및 지도 작성 장치는 이동 로봇의 이동 장치에 연결된 엔코더(Encoder) 또는 IMU(Inertial Measurement Unit)로부터 회전수, 기울기, 회전량 등의 오도메트리 정보를 획득할 수 있다. IMU는 가속도 센서 및 자이로 센서로 구현될 수 있다.The scanner 100 acquires scan information of a space where the mobile robot is located. The scanner 100 may obtain omnidirectional or partial area distance information using a lidar sensor. The location recognition and map preparation device 10 may additionally acquire odometry information of a mobile robot together with distance information. The location recognition and mapping device may acquire odometry information such as rotation speed, tilt, rotation amount, etc. from an encoder or an IMU (Inertial Measurement Unit) connected to a moving device of a mobile robot. The IMU can be implemented with an acceleration sensor and a gyro sensor.

이동 로봇의 위치는 3차원 벡터로 표현될 수 있다. 3차원 벡터는 기준 좌표계의 원점으로부터의 X좌표와 Y좌표, 로봇 좌표계의 X축과 기준 좌표계의 X축이 이루는 각도로 표현될 수 있다. The position of the mobile robot can be expressed as a three-dimensional vector. The 3D vector may be expressed as an angle formed by the X coordinate and Y coordinate from the origin of the reference coordinate system, and the X axis of the robot coordinate system and the X axis of the reference coordinate system.

지역 지도 추정부(200)는 스캔 정보를 이용하여 노드에 관한 키 프레임을 생성하고, 연속하는 노드 간의 오도메트리 엣지를 산출한다. 노드 간의 관측값은 불확실성(Uncertainty)을 갖는다. 오도메트리 엣지의 불확실성은 공분산 행렬로 표현될 수 있다. The area map estimating unit 200 generates a key frame for a node using the scan information, and calculates an odometry edge between consecutive nodes. Observations between nodes have uncertainty. The uncertainty of the odometry edge can be expressed as a covariance matrix.

지역 지도 추정부(200)는 스캐닝 주기마다 획득한 복수의 스캔 정보 중에서 키 프레임을 저장한다. 스캔 정보는 점군(Point Cloud)로 표현될 수 있다. 키 프레임은 거리 정보 및 시간 정보를 포함한다. 지역 지도 추정부(200)는 등록된 키 프레임이 없으면 현재 입력된 거리 정보를 이용하여 키 프레임을 생성하고, 이후 키 프레임을 갱신한 지역 지도를 추정한다. 지역 지도 추정부(200)는 복수의 스캔 정보에 대하여 스캔 매칭을 수행하여 정확도를 향상시킬 수 있다.The area map estimating unit 200 stores a key frame among a plurality of scan information acquired every scanning period. The scan information may be expressed as a point cloud. The key frame includes distance information and time information. If there is no registered key frame, the area map estimating unit 200 generates a key frame using the currently input distance information, and then estimates an area map in which the key frame is updated. The area map estimation unit 200 may improve accuracy by performing scan matching on a plurality of scan information.

지역 지도 추정부(200)는 스캔 정보를 회전 또는 이동하여 스캔 매칭하거나 이동 로봇의 오도메트리 정보를 측정하여 오도메트리 엣지를 산출한다. 지역 지도 추정부(200)는 스캔 매칭을 통하여 노드의 추정값을 기반으로 예측된 오도메트리 엣지 및 측정된 오도메트리 엣지 간의 오차를 보정한다.The area map estimating unit 200 rotates or moves the scan information to scan matching, or calculates an odometry edge by measuring odometry information of a mobile robot. The region map estimation unit 200 corrects an error between the predicted odometry edge and the measured odometry edge based on the estimated value of the node through scan matching.

전역 지도 추정부(300)는 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지를 검출한다. 이동 로봇이 방문한 지역을 다시 방문하면, 노드들의 오차를 보다 정확하게 보정할 수 있다. 시간적으로 연속한 노드 간의 오도메트리 엣지와 달리 루프 클로저 엣지는 시간적으로 연속하지 않는 노드 간에 공간적 관계를 형성한다. 다만, 모든 엣지 간에 루프 클로저 엣지를 생성하는 것은 비효율적이므로 구속 조건을 고려하여 적절한 루프 클로저 엣지를 검출할 필요가 있다.The global map estimating unit 300 detects loop closure edges between nodes that are not consecutive for the updated set of key frames. When the mobile robot revisits the visited area, errors of nodes can be corrected more accurately. Unlike the odometry edge between consecutive nodes in time, the loop closure edge forms a spatial relationship between nodes that are not consecutive in time. However, since it is inefficient to generate loop closure edges between all edges, it is necessary to detect an appropriate loop closure edge in consideration of constraints.

전역 지도 추정부(300)는 오도메트리 엣지 및 루프 클로저 엣지를 기반으로 노드의 위치를 보정하여 전역 지도를 추정한다. 전역 지도 추정부(300)는 지역 지도를 결합하여 전역 지도를 확장하고 갱신한다.The global map estimating unit 300 estimates the global map by correcting the location of the node based on the odometry edge and the loop closure edge. The global map estimation unit 300 expands and updates the global map by combining the local map.

인터페이스는 다른 장치와 정보를 송수신하는 통신 경로이다. 다른 장치는 인터페이스를 통해 위치 인식 및 지도 작성 장치(10)에 접속하여 파라미터를 설정할 수 있다. 위치 인식 및 지도 작성 장치(10)는 인터페이스를 통해 측정 위치 및 지도를 다른 장치로 전송할 수 있다.An interface is a communication path for sending and receiving information with other devices. Another device may access the location recognition and map preparation device 10 through an interface to set parameters. The location recognition and map preparation device 10 may transmit the measurement location and map to another device through an interface.

이하에서는 도 6을 참조하여, 위치 인식 및 지도 작성 장치가 스캔 매칭하는 동작을 설명하기로 한다. 도 6은 위치 인식 및 지도 작성 장치가 스캔 매칭하는 데이터를 예시한 도면이다.Hereinafter, with reference to FIG. 6, an operation of scanning and matching the location recognition and map creation apparatus will be described. 6 is a diagram illustrating data to be scanned and matched by a location recognition and map creation apparatus.

p는 시간 및 위치 변화에 따른 노드의 위치(Pose)이고, e는 노드 간의 공간적 관계이다. 위치 인식 및 지도 작성 장치가 획득한 스캔 정보는 고정 구조물로부터의 거리 정보를 포함한다. p is the position (Pose) of the node according to the time and position change, and e is the spatial relationship between the nodes. The scan information acquired by the location recognition and mapping apparatus includes distance information from the fixed structure.

로봇의 이동 전과 후의 스캔 정보를 비교하면 오도메트리 오차가 누적되어 공통적인 부분이 겹치지 않게 된다. 스캔 정보를 회전 또는 이동하고 관측값의 확률을 산출하는 스캔 매칭을 통하여 오도메트리 오차를 보정함으로써 로봇의 정확한 위치를 추정할 수 있다.If the scan information before and after the robot's movement is compared, odometry errors are accumulated so that common parts do not overlap. The exact position of the robot can be estimated by correcting the odometry error through scan matching that rotates or moves the scan information and calculates the probability of the observed value.

이하에서는 도 7을 참조하여, 위치 인식 및 지도 작성 장치가 필터링하는 동작을 설명하기로 한다. 도 7은 위치 인식 및 지도 작성 장치가 필터링한 데이터를 예시한 도면이다.Hereinafter, with reference to FIG. 7, an operation performed by the apparatus for recognizing a location and creating a map will be described. 7 is a diagram illustrating data filtered by a location recognition and map preparation apparatus.

특정 시간 또는 특정 위치에서 획득한 스캔 정보는 고정 구조물과 달리 이동 장애물과 같은 노이즈를 포함할 수 있고, 이동 로봇이 이동하며 점진적으로 갱신하는 지역 지도는 실제 구조물과 다른 구조물로 변경될 수 있다. 즉, 이동 장애물로 인하여, 동일한 위치에서 상이한 시간 주기로 획득한 스캔 정보를 스캔 매칭하면, 추정한 지도에서 오차가 발생한다.Unlike a fixed structure, the scan information acquired at a specific time or at a specific location may include noise such as a moving obstacle, and the area map gradually updated as the mobile robot moves may be changed to a structure different from the actual structure. That is, due to a moving obstacle, if scan-matching of scan information acquired at different time periods at the same location results in an error in the estimated map.

지역 지도 추정부는 기 설정된 시간 구간에서 획득한 복수의 스캔 정보로부터 확률적 기법으로 스캔정보를 분석하여 이동 장애물과 고정 장애물을 판별하고, 새롭게 획득한 스캔 정보를 비교하여 키 프레임에서 이동 장애물을 제거하여 지역 지도를 갱신한다. 최근 N 개의 스캔 정보를 이용하여 노이즈를 제거하여 지역 지도를 갱신한다. 노이즈는 기 설정된 이동 거리를 이동하거나 기 설정된 회전 각도로 회전하여 변형된 점군 데이터일 수 있다.The area map estimation unit determines moving obstacles and fixed obstacles by analyzing the scan information using a probabilistic method from a plurality of scan information acquired in a preset time period, and compares the newly acquired scan information to remove moving obstacles from the key frame. Update the area map. The area map is updated by removing noise using the latest N scan information. The noise may be point cloud data transformed by moving a preset moving distance or rotating at a preset rotation angle.

지역 지도 추정부는 계산 부하를 줄이고 의미있는 정보를 획득하기 위해 이동 로봇의 이동 거리에 관한 제1 조건을 만족하면 키 프레임을 필터링할 수 있다. 제1 조건은 이동 거리를 기반으로 설정된다. 예컨대, 지역 지도 추정부는 기준 지점으로부터 특정 거리 이상으로 이동하면 필터링을 수행한다. The area map estimator may filter the key frame if the first condition regarding the moving distance of the mobile robot is satisfied in order to reduce the computational load and obtain meaningful information. The first condition is set based on the moving distance. For example, the area map estimator performs filtering when moving more than a specific distance from the reference point.

이하에서는 위치 인식 및 지도 작성 장치가 전역 지도를 추정하는 동작을 설명하기로 한다. 도 8은 위치 인식 및 지도 작성 장치가 전역 지도를 추정하는 동작을 예시한 흐름도이고, 도 9 내지 도 13은 위치 인식 및 지도 작성 장치가 처리하는 데이터를 예시한 도면이다.Hereinafter, an operation of estimating a global map by a location recognition and map preparation device will be described. 8 is a flowchart illustrating an operation of a location recognition and mapping apparatus estimating a global map, and FIGS. 9 to 13 are diagrams illustrating data processed by the location recognition and map creation apparatus.

전역 지도 추정부는 이동 로봇의 이동 거리 또는 주변환경의 변화에 관한 제2 조건을 만족하면 갱신한 키 프레임의 집합에 대하여 전역 지도를 추정한다. 제2 조건은 이동 거리 또는 주변환경의 변화를 기반으로 설정된다. 예컨대, 제2 조건은 특정 거리 이상 주행하거나 특정 거리 범위를 벗어나거나 주변 구조물의 매칭율이 일정 범위를 벗어나는 것으로 설정될 수 있다.The global map estimating unit estimates the global map with respect to the updated set of key frames when the second condition regarding the movement distance of the mobile robot or the change in the surrounding environment is satisfied. The second condition is set based on the moving distance or changes in the surrounding environment. For example, the second condition may be set as driving over a certain distance, out of a certain distance range, or a matching rate of surrounding structures out of a certain range.

최근 N 개의 스캔 정보는 모두 필터링된 데이터이며, 고정 구조물에 관한 데이터를 갖는다. 전역 지도 추정부는 필터링된 키 프레임들을 저장한다.All recent N pieces of scan information are filtered data, and have data on a fixed structure. The global map estimation unit stores the filtered key frames.

단계 S810에서 전역 지도 추정부는 특정된 키 프레임을 기준으로 불확실성 전파(Uncertainty Propagation)를 이용하여 각각의 키 프레임의 오차를 보정하고, 마할라노비스 거리(Mahalanobis Distance)를 이용하여 기 설정된 거리 내에 위치하는 키 프레임에 관한 제1 후보군을 추출한다. 마할라노비스 거리는 평균과의 거리가 표준편차의 몇 배인지를 나타내는 값으로, 어떤 값이 발생하기 어려운 값인지 또는 얼마나 이상한 값인지를 수치화한다. 도 9에서는 최근에 삽입된 키 프레임에 관한 노드(pn)을 기준으로 추출한 제1 후보군의 노드들(pk-1, pk, pk+1, pm-1, pm, pm+1)이 도시되어 있다.In step S810, the global map estimator corrects the error of each key frame using uncertainty propagation based on the specified key frame, and is located within a preset distance using the Mahalanobis Distance. A first candidate group for a key frame is extracted. The Mahalanobis distance is a value indicating how many times the standard deviation is the distance from the mean, and it quantifies which value is difficult to occur or how strange it is. In FIG. 9, nodes (p k-1 , p k , p k+1 , p m-1 , p m , p m ) of the first candidate group extracted based on the node (p n ) related to the recently inserted key frame. +1 ) is shown.

단계 S820에서 전역 지도 추정부는 제1 후보군의 키 프레임 및 기 설정된 시간 구간에서 획득한 키 프레임를 비교하여 기 설정된 확률 범위에 매칭하는 키 프레임에 관한 제2 후보군을 추출한다. 도 10에서는 최근 N 개의 키 프레임에 관한 노드들(pn, pn -1, pn - 2)을 기준으로 추출한 제2 후보군의 노드들(pk, pm-1, pm, pm+1)이 도시되어 있다.In step S820, the global map estimating unit compares the key frame of the first candidate group with the key frame acquired in a preset time interval, and extracts a second candidate group for a key frame matching a preset probability range. In FIG. 10, nodes of the second candidate group extracted based on nodes (p n , p n -1 , p n - 2 ) related to the most recent N key frames (p k , p m-1 , p m , p m) +1 ) is shown.

단계 S830에서 전역 지도 추정부는 일관성 확인 알고리즘을 이용하여 상기 제2 후보군으로부터 기 설정된 일관성 범위에 매칭하는 키 프레임에 관한 제3 후보군을 추출한다. 전역 지도 추정부는 오매칭된 후보를 재검사한다. 예컨대, 일관성 확인 알고리즘으로는 최대 클리크(Maximum Clique) 또는 싱글 클러스터 그래프 파티션(Single Cluster Graph Partitioning) 기법 등이 적용될 수 있다. 도 11에서는 추출한 제3 후보군의 노드들(pm-1, pm, pm+1)이 도시되어 있다.In step S830, the global map estimation unit extracts a third candidate group for a key frame matching a preset consistency range from the second candidate group using a consistency check algorithm. The global map estimation unit re-examines the mismatched candidates. For example, a maximum clique or single cluster graph partitioning technique may be applied as the consistency check algorithm. In FIG. 11, the extracted nodes of the third candidate group (p m-1 , p m , p m+1 ) are shown.

단계 S840에서 전역 지도 추정부는 제3 후보군에 속하는 키 프레임을 대상으로 연속하지 않는 노드 간의 루프 클로저 엣지를 검출한다. 전역 지도 추정부는 최근 노드와 의미있는 노드 간에 공간적 관계를 형성한다. 도 12에서는 연속하지 않는 노드(pn, pm) 간의 루프 클로저 엣지(en, m)이 도시되어 있다.In step S840, the global map estimation unit detects a loop closure edge between non-contiguous nodes for a key frame belonging to the third candidate group. The global map estimation unit forms a spatial relationship between recent nodes and meaningful nodes. In FIG. 12, loop closure edges e n and m between non-contiguous nodes p n and p m are shown.

단계 S850에서 전역 지도 추정부는 그래프 최적화 기법으로 오도메트리 엣지의 오차 및 상기 루프 클로저 엣지의 오차를 보정한다. 전역 지도 추정부는 구속 조건들을 최대한 만족하는 노드값 또는 구속 조건들을 최소한 벗어나는 노드값을 찾고, 노드들의 위치에서의 오차들을 보정하는 과정을 수행하여 노드의 위치를 최적화한다. 즉, 노드들은 구속 조건을 기반으로 최적의 노드값으로 수렴한다. 예컨대, 복수의 오도메트리 에지들과 복수의 루프 클로저 에지들에 의한 에러 벡터에 대한 가중 제곱 합의 최소값을 산출하는 방식으로 오차를 보정할 수 있다.In step S850, the global map estimator corrects the error of the odometry edge and the error of the loop closure edge using a graph optimization technique. The global map estimator optimizes the location of the node by finding a node value that satisfies the constraint conditions as much as possible or a node value that at least deviates from the constraint conditions, and corrects errors in the locations of the nodes. In other words, the nodes converge to the optimal node value based on the constraint condition. For example, the error may be corrected by calculating a minimum value of the sum of the weighted squares of the error vectors due to the plurality of odometry edges and the plurality of loop closure edges.

전역 지도 추정부는 복수의 지역 지도를 합친 전역 지도를 출력할 수 있다.The global map estimating unit may output a global map in which a plurality of local maps are combined.

도 14는 본 발명의 다른 실시예에 따른 위치 인식 및 지도 작성 방법을 예시한 흐름도이다. 이동 로봇의 위치 인식 및 지도 작성 방법은 이동 로봇의 위치 인식 및 지도 작성 장치에 의하여 수행될 수 있다. 14 is a flowchart illustrating a method of recognizing a location and creating a map according to another embodiment of the present invention. A method of recognizing a location of a mobile robot and creating a map may be performed by a device for recognizing a location and creating a map of the mobile robot.

단계 S1410에서 위치 인식 및 지도 작성 장치는 이동 로봇이 위치하는 공간의 스캔 정보를 획득한다. 스캔 정보를 획득하는 단계(S1410)는 라이다 센서를 이용하여 전방향 또는 일부 영역의 거리 정보를 획득할 수 있다. 스캔 정보를 획득하는 단계(S1410)는 거리 정보와 함께 이동 로봇의 오도메트리 정보를 추가로 획득할 수 있다. In step S1410, the location recognition and map creation apparatus acquires scan information of a space where the mobile robot is located. In the step of acquiring the scan information (S1410 ), distance information of an omnidirectional or partial area may be obtained using a lidar sensor. In the step S1410 of acquiring the scan information, odometry information of the mobile robot may be additionally acquired together with distance information.

단계 S1420에서 위치 인식 및 지도 작성 장치는 스캔 정보를 이용하여 노드에 관한 키 프레임을 생성하고, 연속하는 노드 간의 오도메트리 엣지를 산출하고 상기 키 프레임을 갱신하여 지역 지도를 추정한다. In step S1420, the location recognition and map creation apparatus generates a key frame for a node using the scan information, calculates an odometry edge between successive nodes, and updates the key frame to estimate an area map.

지역 지도를 추정하는 단계(S1420)는 상기 스캔 정보를 회전 또는 이동하여 스캔 매칭하거나 상기 이동 로봇의 오도메트리 정보를 측정하여 상기 오도메트리 엣지를 산출한다. 지역 지도를 추정하는 단계(S1420)는 스캔 매칭을 통하여 노드의 추정값을 기반으로 예측된 오도메트리 엣지 및 측정된 오도메트리 엣지 간의 오차를 보정한다.In the step of estimating a region map (S1420), scan matching by rotating or moving the scan information, or measuring odometry information of the mobile robot to calculate the odometry edge. In estimating the area map (S1420), errors between the predicted odometry edge and the measured odometry edge are corrected based on the estimated value of the node through scan matching.

지역 지도를 추정하는 단계(S1420)는 이동 로봇의 이동 거리에 관한 제1 조건을 만족하면 상기 키 프레임을 필터링한다. 지역 지도를 추정하는 단계(S1420)는 기 설정된 시간 구간에서 획득한 복수의 스캔 정보로부터 확률적 기법으로 이동 장애물과 고정 장애물을 판별하고, 새롭게 획득한 스캔 정보를 비교하여 상기 키 프레임에서 상기 이동 장애물을 제거하여 상기 지역 지도를 갱신한다.In the step of estimating the area map (S1420), when the first condition regarding the moving distance of the mobile robot is satisfied, the key frame is filtered. In the step of estimating an area map (S1420), a moving obstacle and a fixed obstacle are determined using a probabilistic method from a plurality of scan information acquired in a preset time interval, and the moving obstacle is compared in the key frame by comparing newly acquired scan information. The area map is updated by removing.

단계 S1430에서 위치 인식 및 지도 작성 장치는 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지를 검출하고, 오도메트리 엣지 및 루프 클로저 엣지를 기반으로 노드의 위치를 보정하여 전역 지도를 추정한다.In step S1430, the location recognition and mapping apparatus detects a loop closure edge between non-contiguous nodes with respect to the updated set of key frames, and corrects the location of the nodes based on the odometry edge and the loop closure edge to create a global map. Estimate.

전역 지도를 추정하는 단계(S1430)는 이동 로봇의 이동 거리 또는 주변환경의 변화에 관한 제2 조건을 만족하면 갱신한 키 프레임의 집합에 대하여 전역 지도를 추정한다. In the step of estimating the global map (S1430), when the second condition for the moving distance of the mobile robot or the change in the surrounding environment is satisfied, the global map is estimated for the updated set of key frames.

전역 지도를 추정하는 단계(S1430)는 특정된 키 프레임을 기준으로 불확실성 전파를 이용하여 각각의 키 프레임의 오차를 보정하고, 마할라노비스 거리를 이용하여 기 설정된 거리 내에 위치하는 키 프레임에 관한 제1 후보군을 추출한다.In the step of estimating the global map (S1430), the error of each key frame is corrected using uncertainty propagation based on the specified key frame, and the key frame located within a preset distance is determined using the Mahalanobis distance. 1 Extract the candidate group.

전역 지도를 추정하는 단계(S1430)는 제1 후보군의 키 프레임 및 기 설정된 시간 구간에서 획득한 키 프레임를 비교하여 기 설정된 확률 범위에 매칭하는 키 프레임에 관한 제2 후보군을 추출한다.In the step of estimating the global map (S1430), a second candidate group for a key frame matching a preset probability range is extracted by comparing the key frame of the first candidate group and the key frame acquired in a preset time period.

전역 지도를 추정하는 단계(S1430)는 일관성 확인 알고리즘을 이용하여 제2 후보군으로부터 기 설정된 일관성 범위에 매칭하는 키 프레임에 관한 제3 후보군을 추출한다. 위치 인식 및 지도 작성 장치는 제1 후보군 내지 제3 후보군에 속하는 노드 중 적어도 하나에 대하여 루프 클로저 엣지를 생성한다.In the step of estimating the global map (S1430), a third candidate group for a key frame matching a preset consistency range is extracted from the second candidate group using a consistency check algorithm. The location recognition and mapping apparatus generates a loop closure edge for at least one of nodes belonging to the first candidate group to the third candidate group.

전역 지도를 추정하는 단계(S1430)는 그래프 최적화 기법으로 오도메트리 엣지의 오차 및 루프 클로저 엣지의 오차를 보정한다.In the step of estimating the global map (S1430), errors of an odometry edge and an error of a loop closure edge are corrected using a graph optimization technique.

본 실시예들은 스캔 정보를 이용하여 노드에 관한 키 프레임을 생성하고 연속하는 노드 간의 오도메트리 엣지 산출하고 키 프레임을 갱신하여 지역 지도를 추정하고, 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지를 검출하고 오도메트리 엣지 및 루프 클로저 엣지를 기반으로 노드의 위치를 보정하여 전역 지도를 추정함으로써, 신뢰성을 확보하고 넓은 영역을 커버하는 지도를 작성할 수 있는 효과가 있다.In the present embodiments, a key frame for a node is generated using scan information, an odometry edge between consecutive nodes is calculated, a key frame is updated to estimate a region map, and a non-contiguous node for the updated set of key frames By detecting the loop closure edge of the liver and estimating the global map by correcting the position of the node based on the odometry edge and the loop closure edge, there is an effect of securing reliability and creating a map covering a large area.

위치 인식 및 지도 작성 장치에 포함된 구성요소들이 도 4 및 도 5에서는 분리되어 도시되어 있으나, 복수의 구성요소들은 상호 결합되어 적어도 하나의 모듈로 구현될 수 있다. 구성요소들은 장치 내부의 소프트웨어적인 모듈 또는 하드웨어적인 모듈을 연결하는 통신 경로에 연결되어 상호 간에 유기적으로 동작한다. 이러한 구성요소들은 하나 이상의 통신 버스 또는 신호선을 이용하여 통신한다.Components included in the location recognition and mapping apparatus are shown separately in FIGS. 4 and 5, but a plurality of components may be combined with each other to be implemented as at least one module. Components are connected to a communication path connecting a software module or a hardware module inside the device and operate organically with each other. These components communicate using one or more communication buses or signal lines.

위치 인식 및 지도 작성 장치는 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합에 의해 로직회로 내에서 구현될 수 있고, 범용 또는 특정 목적 컴퓨터를 이용하여 구현될 수도 있다. 장치는 고정배선형(Hardwired) 기기, 필드 프로그램 가능한 게이트 어레이(Field Programmable Gate Array, FPGA), 주문형 반도체(Application Specific Integrated Circuit, ASIC) 등을 이용하여 구현될 수 있다. 또한, 장치는 하나 이상의 프로세서 및 컨트롤러를 포함한 시스템온칩(System on Chip, SoC)으로 구현될 수 있다.The location recognition and mapping apparatus may be implemented in a logic circuit by hardware, firmware, software, or a combination thereof, or may be implemented using a general purpose or specific purpose computer. The device may be implemented using a hardwired device, a Field Programmable Gate Array (FPGA), an Application Specific Integrated Circuit (ASIC), or the like. In addition, the device may be implemented as a System on Chip (SoC) including one or more processors and controllers.

위치 인식 및 지도 작성 장치는 하드웨어적 요소가 마련된 컴퓨팅 디바이스에 소프트웨어, 하드웨어, 또는 이들의 조합하는 형태로 탑재될 수 있다. 컴퓨팅 디바이스는 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신장치, 프로그램을 실행하기 위한 데이터를 저장하는 메모리, 프로그램을 실행하여 연산 및 명령하기 위한 마이크로프로세서 등을 전부 또는 일부 포함한 다양한 장치를 의미할 수 있다.The location recognition and mapping apparatus may be mounted in software, hardware, or a combination thereof on a computing device provided with hardware elements. Computing devices include all or part of a communication device such as a communication modem for performing communication with various devices or wired/wireless communication networks, a memory storing data for executing a program, and a microprocessor for calculating and commanding a program. It can mean a device.

도 8 및 도 14에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 8 및 도 14에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.In FIGS. 8 and 14, each process is described as sequentially executing, but this is only illustrative, and those skilled in the art are shown in FIGS. 8 and 14 without departing from the essential characteristics of the embodiment of the present invention. By changing the described order, executing one or more processes in parallel, or adding other processes, various modifications and variations may be applied.

본 실시예들에 따른 동작은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능한 매체에 기록될 수 있다. 컴퓨터 판독 가능한 매체는 실행을 위해 프로세서에 명령어를 제공하는 데 참여한 임의의 매체를 나타낸다. 컴퓨터 판독 가능한 매체는 프로그램 명령, 데이터 파일, 데이터 구조 또는 이들의 조합을 포함할 수 있다. 예를 들면, 자기 매체, 광기록 매체, 메모리 등이 있을 수 있다. 컴퓨터 프로그램은 네트워크로 연결된 컴퓨터 시스템 상에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 본 실시예를 구현하기 위한 기능적인(Functional) 프로그램, 코드, 및 코드 세그먼트들은 본 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.The operations according to the embodiments may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. Computer-readable medium refers to any medium that has participated in providing instructions to a processor for execution. The computer-readable medium may include program instructions, data files, data structures, or a combination thereof. For example, there may be a magnetic medium, an optical recording medium, a memory, and the like. Computer programs may be distributed over networked computer systems to store and execute computer-readable codes in a distributed manner. Functional programs, codes, and code segments for implementing the present embodiment may be easily inferred by programmers in the technical field to which the present embodiment belongs.

본 실시예들은 본 실시예의 기술 사상을 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The present embodiments are for explaining the technical idea of the present embodiment, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.

1: 이동 로봇 10: 위치 인식 및 지도 작성 장치
20: 이동 장치 100: 스캐너
200: 지역 지도 추정부 120: 전역 지도 추정부
1: mobile robot 10: location recognition and mapping device
20: mobile device 100: scanner
200: local map estimation unit 120: global map estimation unit

Claims (18)

이동 로봇의 위치 인식 및 지도 작성 방법에 있어서,
상기 이동 로봇이 위치하는 공간의 스캔 정보를 획득하는 단계;
상기 스캔 정보를 이용하여 노드(Node)에 관한 키 프레임(Key Frame)을 생성하고, 연속하는 노드 간의 오도메트리 엣지(Odometry Edge)를 산출하고 상기 오도메트리 엣지의 오차를 보정하여 상기 키 프레임을 갱신한 지역 지도(Local Map)를 추정하는 단계; 및
상기 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지(Loop Closure Edge)를 검출하고, 상기 오도메트리 엣지 및 상기 루프 클로저 엣지를 기반으로 상기 노드의 위치를 보정하여 전역 지도(Global Map)를 추정하는 단계를 포함하며,
상기 지역 지도를 추정하는 단계는 상기 이동 로봇의 이동 거리에 관한 제1 조건을 만족하면 상기 키 프레임을 필터링하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
In the method of recognizing the location of a mobile robot and creating a map,
Obtaining scan information of a space where the mobile robot is located;
The key frame is generated by generating a key frame for a node using the scan information, calculating an odometry edge between successive nodes, and correcting an error of the odometry edge. Estimating an updated local map; And
A global map is performed by detecting a loop closure edge between non-contiguous nodes for the updated set of key frames, and correcting the location of the node based on the odometry edge and the loop closure edge. Map), including the step of estimating,
In the estimating of the area map, the key frame is filtered when the first condition regarding the moving distance of the mobile robot is satisfied.
제1항에 있어서,
상기 스캔 정보를 획득하는 단계는 라이다 센서를 이용하여 전방향(Omnidirectional) 또는 일부 영역의 거리 정보를 획득하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
The method of claim 1,
The obtaining of the scan information includes obtaining omnidirectional or partial distance information using a lidar sensor.
제2항에 있어서,
상기 스캔 정보를 획득하는 단계는 상기 거리 정보와 함께 상기 이동 로봇의 오도메트리 정보를 추가로 획득하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
The method of claim 2,
The obtaining of the scan information includes additionally obtaining odometry information of the mobile robot together with the distance information.
제1항에 있어서,
상기 지역 지도를 추정하는 단계는 상기 스캔 정보를 회전 또는 이동하여 스캔 매칭하거나 상기 이동 로봇의 오도메트리 정보를 측정하여 상기 오도메트리 엣지를 산출하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
The method of claim 1,
In the estimating of the area map, the odometry edge is calculated by rotating or moving the scan information to scan matching or measuring the odometry information of the mobile robot.
제4항에 있어서,
상기 지역 지도를 추정하는 단계는 상기 스캔 매칭을 통하여 상기 노드의 추정값을 기반으로 예측된 오도메트리 엣지 및 측정된 오도메트리 엣지 간의 오차를 보정하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법
The method of claim 4,
The step of estimating the local map comprises correcting an error between a predicted odometry edge and a measured odometry edge based on the estimated value of the node through the scan matching.
삭제delete 제1항에 있어서,
상기 지역 지도를 추정하는 단계는 기 설정된 시간 구간에서 획득한 복수의 스캔 정보로부터 확률적 기법으로 이동 장애물과 고정 장애물을 판별하고, 새롭게 획득한 스캔 정보를 비교하여 상기 키 프레임에서 상기 이동 장애물을 제거하여 상기 지역 지도를 갱신하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
The method of claim 1,
In the estimating of the area map, a moving obstacle and a fixed obstacle are determined by a probabilistic method from a plurality of scan information acquired in a preset time interval, and the moving obstacle is removed from the key frame by comparing newly acquired scan information. And updating the area map by doing so.
제1항에 있어서,
상기 전역 지도를 추정하는 단계는 상기 이동 로봇의 이동 거리 또는 주변환경의 변화에 관한 제2 조건을 만족하면 상기 갱신한 키 프레임의 집합에 대하여 상기 전역 지도를 추정하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
The method of claim 1,
The step of estimating the global map comprises estimating the global map with respect to the updated set of key frames when a second condition for a movement distance of the mobile robot or a change in surrounding environment is satisfied. How to write.
제1항에 있어서,
상기 전역 지도를 추정하는 단계는 특정된 키 프레임을 기준으로 불확실성 전파(Uncertainty Propagation)를 이용하여 각각의 키 프레임의 오차를 보정하고, 마할라노비스 거리(Mahalanobis Distance)를 이용하여 기 설정된 거리 내에 위치하는 키 프레임에 관한 제1 후보군을 추출하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
The method of claim 1,
In estimating the global map, the error of each key frame is corrected using uncertainty propagation based on the specified key frame, and the location is within a preset distance using the Mahalanobis Distance. A method for recognizing a location and creating a map, characterized in that extracting a first candidate group for a key frame to be performed.
제9항에 있어서,
상기 전역 지도를 추정하는 단계는 상기 제1 후보군의 키 프레임 및 기 설정된 시간 구간에서 획득한 키 프레임를 비교하여 기 설정된 확률 범위에 매칭하는 키 프레임에 관한 제2 후보군을 추출하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
The method of claim 9,
The step of estimating the global map comprises comparing the key frame of the first candidate group and the key frame acquired in a preset time interval, and extracting a second candidate group for a key frame matching a preset probability range. And how to map.
제10항에 있어서,
상기 전역 지도를 추정하는 단계는 일관성 확인 알고리즘을 이용하여 상기 제2 후보군으로부터 기 설정된 일관성 범위에 매칭하는 키 프레임에 관한 제3 후보군을 추출하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
The method of claim 10,
The step of estimating the global map comprises extracting a third candidate group for a key frame matching a preset consistency range from the second candidate group using a consistency check algorithm.
제1항에 있어서,
상기 전역 지도를 추정하는 단계는 그래프 최적화 기법으로 상기 오도메트리 엣지의 오차 및 상기 루프 클로저 엣지의 오차를 보정하는 것을 특징으로 하는 위치 인식 및 지도 작성 방법.
The method of claim 1,
The step of estimating the global map comprises correcting an error of the odometry edge and an error of the loop closure edge using a graph optimization technique.
이동 로봇의 위치 인식 및 지도 작성 장치에 있어서,
상기 이동 로봇이 위치하는 공간의 스캔 정보를 획득하는 스캐너;
상기 스캔 정보를 이용하여 노드(Node)에 관한 키 프레임(Key Frame)을 생성하고, 연속하는 노드 간의 오도메트리 엣지(Odometry Edge)를 산출하고 상기 오도메트리 엣지의 오차를 보정하여 상기 키 프레임을 갱신한 지역 지도(Local Map)를 추정하는 지역 지도 추정부; 및
상기 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지(Loop Closure Edge)를 검출하고, 상기 오도메트리 엣지 및 상기 루프 클로저 엣지를 기반으로 상기 노드의 위치를 보정하여 전역 지도(Global Map)를 추정하는 전역 지도 추정부를 포함하며,
상기 지역 지도 추정부는 상기 이동 로봇의 이동 거리에 관한 제1 조건을 만족하면 상기 키 프레임을 필터링하는 것을 특징으로 하는 위치 인식 및 지도 작성 장치.
In the location recognition and map creation device of a mobile robot,
A scanner for obtaining scan information of a space in which the mobile robot is located;
The key frame is generated by generating a key frame for a node using the scan information, calculating an odometry edge between successive nodes, and correcting an error of the odometry edge. A local map estimating unit for estimating an updated local map; And
A global map is performed by detecting a loop closure edge between non-contiguous nodes for the updated set of key frames, and correcting the location of the node based on the odometry edge and the loop closure edge. Map) including a global map estimation unit that estimates,
And the area map estimation unit filters the key frame when the first condition regarding the moving distance of the mobile robot is satisfied.
제13항에 있어서,
상기 지역 지도 추정부는 상기 스캔 정보를 회전 또는 이동하여 스캔 매칭하거나 상기 이동 로봇의 오도메트리 정보를 측정하여 상기 오도메트리 엣지를 산출하며,
상기 스캔 매칭을 통하여 상기 노드의 추정값을 기반으로 예측된 오도메트리 엣지 및 측정된 오도메트리 엣지 간의 오차를 보정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 장치.
The method of claim 13,
The area map estimation unit rotates or moves the scan information to scan matching or measures the odometry information of the mobile robot to calculate the odometry edge,
The apparatus for location recognition and mapping of a mobile robot, characterized in that correcting an error between the predicted odometry edge and the measured odometry edge based on the estimated value of the node through the scan matching.
삭제delete 제13항에 있어서,
상기 전역 지도 추정부는 상기 이동 로봇의 이동 거리 또는 주변환경의 변화에 관한 제2 조건을 만족하면 상기 갱신한 키 프레임의 집합에 대하여 상기 전역 지도를 추정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 장치.
The method of claim 13,
The global map estimating unit estimates the global map for the updated set of key frames when a second condition for the movement distance of the mobile robot or a change in the surrounding environment is satisfied. Filling device.
제13항에 있어서,
상기 전역 지도 추정부는 특정된 키 프레임을 기준으로 불확실성 전파(Uncertainty Propagation)를 이용하여 각각의 키 프레임의 오차를 보정하고, 마할라노비스 거리(Mahalanobis Distance)를 이용하여 기 설정된 거리 내에 위치하는 키 프레임에 관한 제1 후보군을 추출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 장치.
The method of claim 13,
The global map estimator corrects the error of each key frame using uncertainty propagation based on a specified key frame, and a key frame located within a preset distance using a Mahalanobis distance. A location recognition and map creation apparatus for a mobile robot, characterized in that extracting a first candidate group for
프로세서에 의해 실행 가능한 컴퓨터 프로그램 명령어들을 포함하는 비일시적(Non-Transitory) 컴퓨터 판독 가능한 매체에 기록되어 위치 인식 및 지도 작성을 위한 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램 명령어들이 이동 로봇의 적어도 하나의 프로세서에 의해 실행되는 경우에,
상기 이동 로봇이 위치하는 공간의 스캔 정보를 획득하는 단계;
상기 스캔 정보를 이용하여 노드(Node)에 관한 키 프레임(Key Frame)을 생성하고, 연속하는 노드 간의 오도메트리 엣지(Odometry Edge)를 산출하고 상기 오도메트리 엣지의 오차를 보정하여 상기 키 프레임을 갱신한 지역 지도(Local Map)를 추정하는 단계; 및
상기 갱신한 키 프레임의 집합에 대하여 연속하지 않는 노드 간의 루프 클로저 엣지(Loop Closure Edge)를 검출하고, 상기 오도메트리 엣지 및 상기 루프 클로저 엣지를 기반으로 상기 노드의 위치를 보정하여 전역 지도(Global Map)를 추정하는 단계를 포함한 동작들을 수행하며,
상기 지역 지도를 추정하는 단계는 상기 이동 로봇의 이동 거리에 관한 제1 조건을 만족하면 상기 키 프레임을 필터링하는 것을 특징으로 하는 컴퓨터 프로그램.
A computer program for location recognition and mapping by being recorded in a non-transitory computer-readable medium including computer program instructions executable by a processor, wherein the computer program instructions are executed by at least one processor of a mobile robot. If implemented,
Obtaining scan information of a space where the mobile robot is located;
The key frame is generated by generating a key frame for a node using the scan information, calculating an odometry edge between successive nodes, and correcting an error of the odometry edge. Estimating an updated local map; And
A global map is performed by detecting a loop closure edge between non-contiguous nodes for the updated set of key frames, and correcting the location of the node based on the odometry edge and the loop closure edge. Map) and performs operations including estimating,
The step of estimating the area map comprises filtering the key frame when the first condition regarding the moving distance of the mobile robot is satisfied.
KR1020170137745A 2016-11-30 2017-10-23 Method and Apparatus for Localization and Mapping Using LIDAR KR102172602B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020170137745A KR102172602B1 (en) 2017-10-23 2017-10-23 Method and Apparatus for Localization and Mapping Using LIDAR
US15/825,122 US10962647B2 (en) 2016-11-30 2017-11-29 Lidar apparatus based on time of flight and moving object
PCT/KR2018/007847 WO2019039733A1 (en) 2017-08-21 2018-07-11 Moving object and combined sensor using camera and lidar
EP18189682.0A EP3447532A3 (en) 2017-08-21 2018-08-20 Hybrid sensor with camera and lidar, and moving object
US16/136,222 US11579298B2 (en) 2017-09-20 2018-09-19 Hybrid sensor and compact Lidar sensor
US17/183,347 US20210181347A1 (en) 2016-11-30 2021-02-24 Lidar apparatus based on time of flight and moving object
US17/183,349 US20210199807A1 (en) 2016-11-30 2021-02-24 Lidar apparatus based on time of flight and moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170137745A KR102172602B1 (en) 2017-10-23 2017-10-23 Method and Apparatus for Localization and Mapping Using LIDAR

Publications (2)

Publication Number Publication Date
KR20190045006A KR20190045006A (en) 2019-05-02
KR102172602B1 true KR102172602B1 (en) 2020-11-02

Family

ID=66581442

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170137745A KR102172602B1 (en) 2016-11-30 2017-10-23 Method and Apparatus for Localization and Mapping Using LIDAR

Country Status (1)

Country Link
KR (1) KR102172602B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220087775A (en) 2020-12-18 2022-06-27 한서대학교 산학협력단 Rental Service Method for Generating Machinery of Geospatial Information

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11960297B2 (en) 2019-05-03 2024-04-16 Lg Electronics Inc. Robot generating map based on multi sensors and artificial intelligence and moving based on map
US11554495B2 (en) 2019-05-30 2023-01-17 Lg Electronics Inc. Method of localization using multi sensor and robot implementing same
WO2020241934A1 (en) * 2019-05-30 2020-12-03 엘지전자 주식회사 Method for estimating position by synchronizing multi-sensor, and robot for implementing same
WO2020251100A1 (en) * 2019-06-14 2020-12-17 엘지전자 주식회사 Method for updating map in fusion slam and robot implementing same
KR20210065728A (en) 2019-11-27 2021-06-04 재단법인 지능형자동차부품진흥원 Position recognition method and device based on sparse point group using low channel 3D lidar sensor
KR102232629B1 (en) * 2019-12-26 2021-03-26 주식회사 케이티 Server and method for generating map based on network quality data and robot moving based on network quality map
CN113552586B (en) * 2020-04-08 2024-04-05 杭州萤石软件有限公司 Mobile robot positioning method and mobile robot
KR102275682B1 (en) 2020-05-08 2021-07-12 한국건설기술연구원 SLAM-based mobile scan backpack system for rapid real-time building scanning
CN112405526A (en) * 2020-10-26 2021-02-26 北京市商汤科技开发有限公司 Robot positioning method and device, equipment and storage medium
KR20220077519A (en) 2020-12-02 2022-06-09 현대자동차주식회사 Apparatus and method for perceiving high structure, using LADAR sensor
CN112990040B (en) * 2021-03-25 2022-09-06 北京理工大学 Robust loopback detection method combining global and local features
KR20240042776A (en) 2022-09-26 2024-04-02 한국건설기술연구원 Deep learning platform system for monitoring image-based real-time construction site equipment and worker and method thereof
KR102589483B1 (en) 2022-09-26 2023-10-16 한국건설기술연구원 System and method for inspecting road facilities using artificial intelligence

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101538775B1 (en) * 2008-09-12 2015-07-30 삼성전자 주식회사 Apparatus and method for localization using forward images
KR101782057B1 (en) * 2010-05-03 2017-09-26 삼성전자주식회사 Apparatus for building map and method thereof
KR20140009737A (en) * 2012-07-12 2014-01-23 한국과학기술원 Hybrid map based localization method of robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220087775A (en) 2020-12-18 2022-06-27 한서대학교 산학협력단 Rental Service Method for Generating Machinery of Geospatial Information

Also Published As

Publication number Publication date
KR20190045006A (en) 2019-05-02

Similar Documents

Publication Publication Date Title
KR102172602B1 (en) Method and Apparatus for Localization and Mapping Using LIDAR
KR102135560B1 (en) Moving Object and Hybrid Sensor with Camera and Lidar
EP3447532A2 (en) Hybrid sensor with camera and lidar, and moving object
KR101619076B1 (en) Method of detecting and tracking moving object for mobile platform
JP6827627B2 (en) Methods and systems for generating and updating vehicle environment maps
EP3427008B1 (en) Laser scanner with real-time, online ego-motion estimation
Zhang et al. LOAM: Lidar odometry and mapping in real-time.
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101739996B1 (en) Moving robot and simultaneous localization and map-buliding method thereof
KR101503903B1 (en) Apparatus and method for building map used in mobile robot
US8467902B2 (en) Method and apparatus for estimating pose of mobile robot using particle filter
US20190086539A1 (en) Hybrid sensor and compact lidar sensor
US20170010100A1 (en) Map production method, mobile robot, and map production system
JP5728815B2 (en) Object detection device
KR20170061373A (en) Mobile Robot And Method Thereof
JP2009193240A (en) Mobile robot and method for generating environment map
Wang et al. Robust high accuracy visual-inertial-laser slam system
KR20100005488A (en) Apparatus and method for building map for mobile robot
TWI772743B (en) Information processing device and mobile robot
CN115479598A (en) Positioning and mapping method based on multi-sensor fusion and tight coupling system
KR20120037270A (en) Voxel map generator and method thereof
Liu et al. An enhanced lidar inertial localization and mapping system for unmanned ground vehicles
JP2012220227A (en) Method and system for recognizing obstacle for moving body
Jiang et al. A LiDAR-inertial odometry with principled uncertainty modeling
Li et al. Aerial-triangulation aided boresight calibration for a low-cost UAV-LiDAR system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant