WO2017131334A1 - System and method for recognizing location of mobile robot and making map - Google Patents

System and method for recognizing location of mobile robot and making map Download PDF

Info

Publication number
WO2017131334A1
WO2017131334A1 PCT/KR2016/013671 KR2016013671W WO2017131334A1 WO 2017131334 A1 WO2017131334 A1 WO 2017131334A1 KR 2016013671 W KR2016013671 W KR 2016013671W WO 2017131334 A1 WO2017131334 A1 WO 2017131334A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile robot
corner point
coordinate
angle
matching
Prior art date
Application number
PCT/KR2016/013671
Other languages
French (fr)
Korean (ko)
Inventor
박태형
김태형
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Publication of WO2017131334A1 publication Critical patent/WO2017131334A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the present invention relates to a method and system for recognizing a position of a mobile robot, and more particularly, to detect and classify corner points using a laser scanner of a mobile robot capable of autonomous movement, and to determine a corner by using gyroscope angle information.
  • the present invention relates to a method and a system for recognizing a location and a map of a mobile robot, by matching a point and allowing a mobile robot to simultaneously perform location recognition and mapping through error correction.
  • EKF Extended Kalman Filter
  • typical methods using scan matching include a point-to-point scan matching method using an ICP algorithm and an IDC algorithm, an image matching method of matching a laser scan image, and the like.
  • the ICP algorithm and IDC algorithm have a long processing time because they go through the operation of determining the correspondence between the previous data and the current data for all points measured from the laser scanner, and the ICP algorithm has a disadvantage in that the rotation error is large.
  • An image matching method for matching an image has a disadvantage in that the execution time is long due to the process of imaging the laser scan data and processing the image.
  • the present invention has been made in order to solve the above problems, to improve the disadvantages such as the increase of the installation time and the execution of artificial markers, which is a problem of the existing method, in the simultaneous location recognition and mapping of the mobile robot, corner point
  • the purpose of the present invention is to provide a system and method for the simultaneous location recognition and mapping of mobile robots using the matching of.
  • the location recognition and mapping system of the mobile robot of the present invention for achieving the above object is a distance information acquisition unit for obtaining the distance information around the moving robot, the distance information obtained from the distance information acquisition unit Corner point detection unit for performing preprocessing, detecting corner points that meet the line and line, and classifying the detected corner points, and angle information for obtaining angle information according to the moving direction of the mobile robot when the mobile robot moves.
  • An acquiring unit for generating first position coordinates by matching the corner point and the angle information, a driving information acquisition unit for acquiring driving information of a mobile robot, and generating a second position coordinate, the first An error processor for processing an error between a position coordinate and the second position coordinate and the error-processed first position coordinate and a second position coordinate Recognizing a position of using the mobile robot, and comprises, based on the recognized position mapping to create the map portion.
  • the distance information acquisition unit may acquire distance information of the surroundings by using a laser scanner installed in the mobile robot.
  • the distance information acquisition unit may convert the acquired distance information in the form of a rectangular coordinate system into a rectangular coordinate system.
  • the corner point detection unit uses the algorithm of any one of RANSAC (Random SAmple Consensus), Split and Merge, and Iterative End Point Fit to obtain the distance information. Can be detected.
  • RANSAC Random SAmple Consensus
  • Split and Merge Split and Merge
  • Iterative End Point Fit to obtain the distance information. Can be detected.
  • the corner point detector may classify the corner point detector into a concave corner point and a convex corner point based on an angle between two adjacent points.
  • the angle information acquisition unit may acquire angle information by using a gyroscope installed in the mobile robot.
  • the corner point matching unit compares the classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot, and compares the current position at the current position.
  • the displacement of the mobile robot up to may be estimated, converted into absolute coordinates using the estimated displacement, and the position of the current mobile robot in the converted absolute coordinates may be calculated.
  • the corner point matching unit compares the corner point classification type detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot, and compares the corner point classification type. The same, and generate a matching pair in which the distance between the corner point and the mobile robot and the angle between the corner point and the mobile robot is closest to each other and match the difference between the angle information at the previous position and the angle information at the current position.
  • the rotation angle of the mobile robot is obtained, the corner point detected at the current position is rotated using the rotation angle, and the position coordinates of the mobile robot at the current position and the position of the mobile robot at the previous position using the matching pair.
  • the coordinates may be calculated and the difference between the calculated position coordinates may be estimated as the movement amount of the mobile robot from the previous position to the current position.
  • the corner point matching unit obtains an estimated position of the mobile robot at the current position in absolute coordinates by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates, and the corner at the estimated position of the mobile robot at the current position.
  • the first coordinate which is the position of the mobile robot of the current position in the absolute coordinate can be calculated.
  • the driving information acquisition unit may calculate the second coordinates which are absolute positions of the current mobile robot by acquiring the driving information of the mobile robot using an encoder installed in the mobile robot.
  • the error processor may correct an error between the first coordinate and the second coordinate by using a Kalman filter.
  • the map preparation unit acquires the position of the mobile robot corrected through the error processing unit, recognizes the position of the mobile robot, and adds by converting the corner point, which is not present on the absolute coordinate, but is detected at the current position into absolute coordinate,
  • the distance information can be used to map the surrounding environment of the mobile robot.
  • the distance information of the mobile robot moves around Obtaining distance information for acquiring, performing preprocessing on the acquired distance information, detecting corner points which are corner points where the lines meet, detecting corner points for classifying the detected corner points, and when moving the robot
  • An angle information obtaining step for obtaining angle information according to a moving direction of the mobile robot, a corner point matching step for generating first position coordinates by matching the corner point and the angle information, and obtaining driving information of the mobile robot;
  • Acquiring driving information for generating a second position coordinate, and for processing an error between the first position coordinate and the second position coordinate Error processing step, and recognizing the position of a mobile using the first position coordinate and a second position coordinate of the error handling robot, and includes a map creation step of creating a map based on the recognized position.
  • the distance information obtaining step may obtain the distance information of the surroundings using a laser scanner installed in the mobile robot.
  • the distance information acquiring step may convert the acquired distance information in a cylindrical coordinate system into a rectangular coordinate system.
  • the corner point detection step may be performed by using any one of RANSAC (Random SAmple Consensus), Split and Merge, and Iterative End Point Fit algorithm for the obtained distance information. Can be detected.
  • RANSAC Random SAmple Consensus
  • Split and Merge Split and Merge
  • Iterative End Point Fit algorithm for the obtained distance information. Can be detected.
  • the corner point detecting step may be classified into a concave corner point and a convex corner point based on an angle between two adjacent points with respect to one corner point.
  • angle information may be obtained using a gyroscope installed in the mobile robot.
  • the corner point matching step compares the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot.
  • the displacement of the mobile robot to the position may be estimated, converted into absolute coordinates using the estimated displacement, and the position of the current mobile robot in the converted absolute coordinates may be calculated.
  • the corner point matching step compares a corner point classification by comparing the classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot. Create a matching pair of the same type, matching the distance between the corner point and the mobile robot and the point where the angle between the corner point and the mobile robot is closest, and the difference between the angle information at the previous position and the angle information at the current position.
  • the rotation angle of the mobile robot is obtained by using the rotation angle, the corner point detected at the current position is rotated using the rotation angle, and the position coordinate of the mobile robot at the current position and the position of the mobile robot at the previous position using the matching pair.
  • the position coordinates may be calculated, and the difference between the calculated position coordinates may be estimated as the movement amount of the mobile robot from the previous position to the current position.
  • the estimated position of the mobile robot at the current position in absolute coordinates is obtained by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates.
  • the first coordinate which is the position of the mobile robot of the current position in the absolute coordinate can be calculated.
  • driving information of the mobile robot may be obtained using an encoder installed in the mobile robot to calculate second coordinates which are absolute positions of the current mobile robot.
  • the error processing step may correct an error between the first coordinate and the second coordinate by using a Kalman filter.
  • the mapping step acquires the position of the mobile robot corrected through the error processing step, recognizes the position of the mobile robot, adds by converting the corner point detected in the current position, although not present in absolute coordinates, Using the distance information, a map of the surrounding environment of the mobile robot may be prepared.
  • the present invention by recognizing the position of the mobile robot using the laser corner point matching and making a map of the surrounding environment, it is possible to reduce the cost and effort required to install the artificial marker in a general indoor environment.
  • simultaneous location recognition and map creation are possible without additional marking, and the execution time can be shortened by reducing the number of points required for scan matching.
  • FIG. 1 is an exemplary diagram visually showing distance information acquired through a laser scanner according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating corner points detected and classified according to an embodiment of the present invention.
  • FIG. 3 is an exemplary diagram for estimating a moving distance and a rotation angle by matching corner points according to an embodiment of the present invention.
  • FIG. 4 is an exemplary diagram for estimating the position and angle of a current mobile robot in absolute coordinates by matching corner points according to an embodiment of the present invention.
  • FIG. 5 is a block diagram illustrating a configuration of an error processing unit according to an exemplary embodiment of the present invention.
  • FIG. 6 is a block diagram illustrating an internal configuration of a location recognition and map preparation device of a mobile robot according to an embodiment of the present disclosure.
  • FIG. 7 is a flowchart illustrating a method for recognizing a location and creating a map of a mobile robot according to an embodiment of the present invention.
  • the location recognition and mapping system of the mobile robot of the present invention performs a preprocessing on the distance information acquisition unit for obtaining distance information around the moving robot, the distance information obtained from the distance information acquisition unit, and lines and lines.
  • a corner point detection unit for detecting a corner point, which is a corner point that meets the corner point, and classifying the detected corner point;
  • an angle information acquisition unit for obtaining angle information according to a moving direction of the mobile robot when the mobile robot moves;
  • Corner point matching unit for generating the first position coordinates by matching the angle information, driving information acquisition unit for generating the second position coordinates by obtaining the driving information of the mobile robot, the first position coordinates and the second position
  • An error processing unit for processing an error of coordinates and the position of the mobile robot by using the error-processed first position coordinates and second position coordinates And it comprises, based on the recognized position mapping to create the map portion.
  • FIG. 1 is an exemplary diagram visually showing distance information acquired through a laser scanner according to an embodiment of the present invention.
  • the distance information 11 obtained through the laser scanner in the present invention is represented in the form of a cylindrical coordinate system, and when converted into the rectangular coordinate system, the distance information from the laser scanner to the obstacle in the form of a visual point. Can be represented.
  • a corner point refers to a corner point where a line meets a line.
  • FIG. 2 is a diagram illustrating corner points detected and classified according to an embodiment of the present invention.
  • the acquired distance information 11 is obtained by using algorithms such as RANSAC (Random SAmple Consensus), Split and Merge, and Iterative End Point Fit.
  • RANSAC Random SAmple Consensus
  • Split and Merge Split and Merge
  • Iterative End Point Fit The point where the line meets is detected as a corner point.
  • the concave corner point 21 and the convex corner point 22 are classified using an angle between two adjacent points about one corner point. This is called a concave corner point 21 because it is recessed with respect to the laser scanner, and is called a convex corner point 22 when it protrudes convexly.
  • FIG. 3 is an exemplary diagram for estimating a moving distance and a rotation angle by matching corner points according to an embodiment of the present invention.
  • FIG. 3 (a) is a diagram showing distance information acquired at a previous point in time and a previously measured image showing corner points detected and classified using the same, and (b) is a distance obtained at a current point in time.
  • FIG. 11 is a diagram showing current measured images showing information and corner points detected and classified using the same.
  • the corner point type 32 detected and classified at a previous point in time the distance 33 between the corner point and the mobile robot and the angle 34 between the corner point and the mobile robot
  • the corner point type detected and classified at the present time the distance between the corner point and the mobile robot and the angle between the corner point and the robot, the corner point types are the same, and the distance and corner between the corner point and the mobile robot.
  • the matching pair 36 matching the point between the point and the approximated angle between the mobile robots is shown, and the rotation angle 37 of the mobile robot can be obtained through the difference of the angle information obtained by using a gyroscope.
  • the position coordinates of the current mobile robot are based on the coordinates of the previous mobile robot.
  • (x 1 ', y 1 ') 40 and the position coordinates (x 1 , y 1 ) 39 of the previous mobile robot are shown, and the difference of these coordinates is estimated as the amount of movement of the mobile robot from the previous time point to the current time point. can do.
  • FIG. 4 is an exemplary diagram for estimating the position and angle of a current mobile robot in absolute coordinates by matching corner points according to an embodiment of the present invention.
  • FIG. 4 shows distance information obtained from an absolute coordinate origin indicating an absolute position and an angle, and an absolute coordinate image showing corner points detected and classified using the same.
  • FIG. 3 shows a previous and current matching image of matching corner points of a viewpoint.
  • the estimated position of the mobile robot at the current point in absolute coordinates can be obtained by adding the estimated movement amount, and the corner point 46 at the estimated position of the mobile robot at the current point in absolute coordinates estimated and the current estimated position on the absolute coordinate
  • the position (x 2 ′, y 2 ′) 44 of the mobile robot at the present time in absolute coordinates can be obtained.
  • FIG. 5 is a block diagram illustrating a configuration of an error processing unit according to an exemplary embodiment of the present invention.
  • the concave corner point 21 and the convex corner point 22 detected and classified by the laser scanner are matched using the gyroscope angle information, thereby moving the current view in absolute coordinates.
  • the position of the robot (x 2 ', y 2 ') can be obtained.
  • the position (x, y, ⁇ ) of the current mobile robot whose error is estimated by using the encoder (x e , y e , ⁇ e ) 52 using the Kalman Filter. 53 can be obtained.
  • FIG. 6 is a block diagram illustrating an internal configuration of a location recognition and map preparation device of a mobile robot according to an embodiment of the present disclosure.
  • the simultaneous location recognition and map preparation apparatus of the mobile robot includes a distance information acquisition unit 61, a corner point detection unit 62, an angle information acquisition unit 63, and a corner point matching unit 64. ), A driving information acquisition unit 65, an error processing unit 66, and a map preparation unit 67.
  • the distance information acquisition unit 61 obtains the distance information 11 of the surrounding environment through a laser scanner installed in the mobile robot, and converts the obtained distance information 11 in the form of a rectangular coordinate system into a rectangular coordinate system.
  • the corner point detector 62 detects a corner point with respect to the distance information 11 obtained from the distance information acquirer 61, and classifies it into a concave corner point 21 and a convex corner point 22 using an angle reference. do.
  • the angle information acquisition unit 63 obtains angle information of the robot through a gyroscope installed in the mobile robot.
  • the corner point matching unit 64 performs matching using the type and distance angle of the corner points detected and classified at the previous position and the corner points detected at the current position, and calculates the displacement of the mobile robot from the previous position to the current position. It estimates, converts to absolute coordinates using the estimated displacement, and obtains the absolute position (x 2 ', y 2 ') 44 of the current mobile robot through partial matching with the absolute coordinates.
  • the corner point matching unit 64 compares the type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot. Estimate the displacement of the mobile robot from the previous position to the current position. Then, the estimated displacement is converted into absolute coordinates, and the position of the current mobile robot in the converted absolute coordinates is calculated.
  • the corner point matching unit 64 includes a classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot. Are compared to each other to generate a matching pair in which the corner point classification types are the same and the distance between the corner point and the mobile robot and the angle between the corner point and the mobile robot are closest to each other are matched. Then, the rotation angle of the mobile robot is obtained through the difference between the angle information at the previous position and the angle information at the current position, and the corner point detected at the current position is rotated using the rotation angle.
  • the position coordinates of the mobile robot at the current position and the position coordinates of the mobile robot at the previous position are calculated, and the difference between the calculated position coordinates is estimated as the amount of movement of the mobile robot from the previous position to the current position. do.
  • the corner point matching unit 64 obtains the estimated position of the mobile robot at the current position in absolute coordinates by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates, By matching the corner point at the estimated position with the corner point already present in the measurement radius of the current estimated position on the absolute coordinate, the first coordinate which is the position of the mobile robot of the current position at the absolute coordinate is calculated.
  • the driving information acquisition unit 65 obtains driving information of the mobile robot through an encoder installed in the mobile robot and estimates the absolute position (x e , y e , ⁇ e ) 52 of the current robot.
  • the driving information acquisition unit 65 may obtain driving information of the mobile robot by using an encoder installed in the mobile robot, and may calculate second coordinates which are absolute positions of the current mobile robot.
  • the position (x, y, ⁇ ) 53 of the current mobile robot whose error is corrected using (x e , y e , ⁇ e ) 52 is obtained.
  • the error processor 66 may include a Kalman filter.
  • the error processor 66 may correct an error between the first coordinate and the second coordinate by using a Kalman filter.
  • the map generator 67 acquires the position (x, y, ⁇ ) 53 of the current mobile robot having corrected the error through the error processor 66 and recognizes the position.
  • the corner points detected and classified at are converted into absolute coordinates and added, and a map is created using the distance information 11 of the laser scanner.
  • the map preparation unit 67 acquires the position of the mobile robot corrected through the error processor 66 to recognize the position of the mobile robot, and does not exist in absolute coordinates but absolute corner points detected at the current position. Converted coordinates can be added, and distance information can be used to create a map of the surrounding environment of the mobile robot.
  • FIG. 7 is a flowchart illustrating a method for recognizing a location and creating a map of a mobile robot according to an embodiment of the present invention.
  • the location recognition and mapping method of the mobile robot first performs a distance information acquisition step for acquiring distance information around the moving robot. S701).
  • preprocessing is performed on the acquired distance information, a corner point that is a corner point where the line meets the line, and a corner point detection step for classifying the detected corner point is performed (S703).
  • an angle information acquisition step for acquiring angle information according to a moving direction of the mobile robot is performed when the mobile robot moves.
  • the corner point matching step for generating the first position coordinates by matching the corner point and the angle information is performed (S707).
  • a driving information acquisition step for acquiring driving information of the mobile robot and generating a second position coordinate is performed.
  • an error processing step for processing an error between the first position coordinate and the second position coordinate is performed.
  • the position of the mobile robot is recognized using the error-processed first position coordinates and the second position coordinates, and a map creation step of creating a map based on the recognized position is performed (S713).
  • peripheral distance information may be acquired using a laser scanner installed in the mobile robot. Then, the acquired distance information in the form of a cylindrical coordinate system may be converted into a rectangular coordinate system.
  • the corner point may be detected using any one of a random SAmple consensus (RANSAC), a split and merge, and an iterative end point fit with respect to the distance information acquired in step S703. Can be.
  • RANSAC random SAmple consensus
  • the concave corner point and the convex corner point may be classified based on an angle between two adjacent points about one corner point.
  • angle information may be acquired using a gyroscope installed in the mobile robot.
  • step S707 the classification point of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot are compared with each other, and thus, from the previous position to the current position. It is possible to estimate the displacement of the mobile robot at, convert to the absolute coordinates using the estimated displacement, and calculate the position of the current mobile robot at the converted absolute coordinates.
  • step S707 the classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot are compared with each other, and the corner point classification types are the same. Then, a matching pair is generated in which the distance between the corner point and the mobile robot and the angle between the corner point and the mobile robot are most closely matched.
  • the rotation angle of the mobile robot is obtained based on the difference between the angle information at the previous position and the angle information at the current position.
  • the corner point detected at the current position is rotated using the rotation angle, and the matching pair is used.
  • the position coordinates of the mobile robot at the current position and the position coordinates of the mobile robot at the previous position are calculated.
  • step S707 the difference between the position coordinates calculated in step S707 is estimated as the movement amount of the mobile robot from the previous position to the current position.
  • step S707 the estimated position of the mobile robot at the current position in absolute coordinates is obtained by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates, and at the estimated position of the mobile robot at the current position.
  • the first coordinate which is the position of the mobile robot of the current position in the absolute coordinate can be calculated.
  • second coordinates which are absolute positions of the current mobile robot may be calculated by obtaining driving information of the mobile robot using an encoder installed in the mobile robot.
  • an error between the first coordinate and the second coordinate may be corrected using the Kalman filter.
  • step S713 the position of the mobile robot is acquired by recognizing the corrected position of the mobile robot, the corner point detected in the current position, which is not present in absolute coordinates, is converted into absolute coordinates and added, and the mobile robot is used using distance information. Create a map of your surroundings.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optics & Photonics (AREA)

Abstract

A system for recognizing the location of a mobile robot and making a map, of the present invention, comprises: a distance information acquisition unit for acquiring distance information of an area around which the mobile robot moves; a corner point detection unit for pre-processing the distance information acquired by the distance information acquisition unit, detecting a corner point, which is an edge point at which lines meet, and classifying the detected corner points; an angle information acquisition unit for acquiring angle information according to the progressing direction of the mobile robot when the mobile robot moves; a corner point matching unit for matching the corner point and the angle information so as to generate first location coordinates; a traveling information acquisition unit for acquiring the traveling information of the mobile robot so as to generate second location coordinates; an error processing unit for processing the errors of the first location coordinates and the second location coordinates; and a map-making unit for recognizing the location of the mobile robot by using the error-processed first location coordinates and second location coordinates, and making the map on the basis of the recognized location. According to the present invention, cost and effort required to install artificial marks in a general indoor environment can be reduced.

Description

이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법Location Recognition and Mapping System and Method of Mobile Robot
본 발명은 이동 로봇의 위치를 인식하는 방법 및 시스템에 관한 것으로서, 더욱 상세하게는 자율 이동이 가능한 이동 로봇의 레이저 스캐너를 이용하여 코너점을 검출 및 분류하고, 자이로스코프의 각도정보를 이용하여 코너점을 매칭하며, 오차 보정을 통해 이동 로봇이 동시적으로 위치 인식과 지도 작성을 수행할 수 있도록 한 이동 로봇의 위치 인식 및 지도 작성 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for recognizing a position of a mobile robot, and more particularly, to detect and classify corner points using a laser scanner of a mobile robot capable of autonomous movement, and to determine a corner by using gyroscope angle information. The present invention relates to a method and a system for recognizing a location and a map of a mobile robot, by matching a point and allowing a mobile robot to simultaneously perform location recognition and mapping through error correction.
오늘날 의료, 서비스, 산업 및 가사 보조 등 다양한 분야에서 이동 로봇의 수요가 크게 증가하고 있으며, 미지의 실내 환경에서의 이동 로봇이 이동하기 위한 경로를 획득하기 위한 지도 생성이 중요시 되고 있고, 동시에 별도의 설치가 필요한 인공 표식이 아닌, 별도의 설치가 필요하지 않은 자연 표식을 이용한 지도 작성 기술 또한 중요시 되고 있다. Today, the demand for mobile robots is increasing greatly in various fields such as medical, service, industrial and household assistance, and it is important to create maps to obtain a path for mobile robots in unknown indoor environments. In addition to artificial markers that need to be installed, mapping techniques using natural markers that do not require installation are also important.
이와 같은 위치 인식 및 지도 작성의 중요성에 따라 기존에 많은 연구들이 진행되어 왔으며, 특히 레이저 스캐너를 이용한 연구의 경우 레이저 스캐너가 초음파 및 적외선 센서 등의 다른 거리 센서 보다 정밀하다는 장점을 바탕으로 많은 연구들이 진행되어 왔다.Due to the importance of location recognition and mapping, many studies have been conducted in the past. Especially, in the case of research using a laser scanner, many studies have been conducted based on the advantage that the laser scanner is more accurate than other distance sensors such as ultrasonic and infrared sensors. It has been going on.
그러나 기존의 레이저 스캐너를 이용한 기술의 경우, 반사판과 같은 인공 표식의 부가적인 부착과 별도의 시스템 구성이 필요하여 추가적인 비용이 발생하고, 환경의 변화에 대응하기 위해서 추가적인 인공 표식의 설치가 필요하므로, 넓은 환경에서 부가적인 비용이 많이 든다는 단점이 있다. However, in the case of the technology using a conventional laser scanner, additional costs are incurred due to the additional attachment of artificial markers such as reflectors and a separate system configuration, and additional artificial markers are required to cope with changes in the environment. The disadvantage is that the additional cost is high in a wide environment.
이러한 이유로 인공 표식을 이용하지 않는 다양한 방법이 연구되어 왔으며, 대표적으로 EKF(Extended Kalman Filter) 및 스캔 매칭을 이용한 동시적 위치 인식 및 지도 작성 방법에 대해서 많은 연구가 이루어져 왔다. For this reason, various methods that do not use artificial markers have been studied, and many studies have been conducted on simultaneous location recognition and mapping using EKF (Extended Kalman Filter) and scan matching.
그러나 EKF(Extended Kalman Filter)를 이용한 방법은 로봇과 자연표식 간, 그리고 자연표식 서로 간의 관계를 나타내는 공분산 행렬이 전체 자연 표식 수의 제곱에 비례하여 커지며, 이는 연산량의 증가로 성능이 저하되는 문제점이 있다.However, the method using the Extended Kalman Filter (EKF) increases the covariance matrix that represents the relationship between the robot, the natural markers, and the natural markers in proportion to the square of the total natural markers. have.
또한, 스캔 매칭을 이용한 방법으로는 대표적으로 ICP 알고리즘과 IDC 알고리즘을 사용한 점대점 스캔 매칭 방법, 레이저 스캔 이미지를 매칭하는 이미지 매칭 방법 등이 있다. 그러나 ICP 알고리즘과 IDC 알고리즘은 레이저 스캐너로부터 측정되는 모든 점에 대해 이전 데이터와 현재 데이터의 대응을 판단하는 연산과정을 거치므로 수행시간이 길고, ICP 알고리즘은 회전 오차가 크다는 단점이 존재하며, 레이저 스캔 이미지를 매칭하는 이미지 매칭 방법은 레이저 스캔 데이터를 이미지화 하고 이미지를 처리하는 과정으로 인해 수행 시간이 길다는 단점이 있다.In addition, typical methods using scan matching include a point-to-point scan matching method using an ICP algorithm and an IDC algorithm, an image matching method of matching a laser scan image, and the like. However, the ICP algorithm and IDC algorithm have a long processing time because they go through the operation of determining the correspondence between the previous data and the current data for all points measured from the laser scanner, and the ICP algorithm has a disadvantage in that the rotation error is large. An image matching method for matching an image has a disadvantage in that the execution time is long due to the process of imaging the laser scan data and processing the image.
이와 같이, 위치 인식을 위한 다양한 방법이 존재하지만, 인공 표식이 필요하거나 필요하지 않은 방법들도 수행 시간이 증가한다는 단점이 존재한다.As such, there are various methods for location recognition, but methods that require or do not require artificial markers have a disadvantage in that their execution time increases.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 기존 방법의 문제점인 인공 표식 설치 및 수행 시간의 증가 등의 단점을 개선하여, 이동 로봇의 동시적 위치 인식 및 지도 작성에 있어, 코너점의 매칭을 활용한 이동 로봇의 동시적 위치 인식과 지도 작성 시스템 및 방법을 제공하는데 그 목적이 있다.The present invention has been made in order to solve the above problems, to improve the disadvantages such as the increase of the installation time and the execution of artificial markers, which is a problem of the existing method, in the simultaneous location recognition and mapping of the mobile robot, corner point The purpose of the present invention is to provide a system and method for the simultaneous location recognition and mapping of mobile robots using the matching of.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the above-mentioned object, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
이와 같은 목적을 달성하기 위한 본 발명의 이동 로봇의 위치 인식 및 지도 작성 시스템은 이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득부, 상기 거리정보 획득부로부터 획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출부, 이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득부, 상기 코너점과 상기 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭부, 이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득부, 상기 제1 위치 좌표와 상기 제2 위치 좌표의 오차를 처리하기 위한 오차 처리부 및 상기 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성부를 포함한다. The location recognition and mapping system of the mobile robot of the present invention for achieving the above object is a distance information acquisition unit for obtaining the distance information around the moving robot, the distance information obtained from the distance information acquisition unit Corner point detection unit for performing preprocessing, detecting corner points that meet the line and line, and classifying the detected corner points, and angle information for obtaining angle information according to the moving direction of the mobile robot when the mobile robot moves. An acquiring unit, a corner point matching unit for generating first position coordinates by matching the corner point and the angle information, a driving information acquisition unit for acquiring driving information of a mobile robot, and generating a second position coordinate, the first An error processor for processing an error between a position coordinate and the second position coordinate and the error-processed first position coordinate and a second position coordinate Recognizing a position of using the mobile robot, and comprises, based on the recognized position mapping to create the map portion.
상기 거리정보 획득부는 상기 이동 로봇에 설치된 레이저 스캐너를 이용하여 주변의 거리 정보를 획득할 수 있다. The distance information acquisition unit may acquire distance information of the surroundings by using a laser scanner installed in the mobile robot.
상기 거리정보 획득부는 획득한 원통 좌표계 형태의 거리 정보를 직교 좌표계 형태로 변환할 수 있다. The distance information acquisition unit may convert the acquired distance information in the form of a rectangular coordinate system into a rectangular coordinate system.
상기 코너점 검출부는 획득한 거리 정보에 대하여 RANSAC(RANdom SAmple Consensus), 스플릿 앤 머지(Split and Merge) 및 이터러티브 엔드 포인트 핏(Iterative End Point Fit) 중 어느 하나의 알고리즘을 이용하여 코너점을 검출할 수 있다. The corner point detection unit uses the algorithm of any one of RANSAC (Random SAmple Consensus), Split and Merge, and Iterative End Point Fit to obtain the distance information. Can be detected.
상기 코너점 검출부는 하나의 코너점을 중심으로 인접한 다른 두 개의 점과의 사이각을 기준으로 하여, 오목 코너점과 볼록 코너점으로 분류할 수 있다. The corner point detector may classify the corner point detector into a concave corner point and a convex corner point based on an angle between two adjacent points.
상기 각도정보 획득부는 상기 이동 로봇에 설치된 자이로스코프를 이용하여 각도 정보를 획득할 수 있다. The angle information acquisition unit may acquire angle information by using a gyroscope installed in the mobile robot.
상기 코너점 매칭부는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정하고, 추정된 변위를 이용하여 절대 좌표로 변환하고, 변환된 절대 좌표에서의 현재 이동 로봇의 위치를 산출할 수 있다. The corner point matching unit compares the classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot, and compares the current position at the current position. The displacement of the mobile robot up to may be estimated, converted into absolute coordinates using the estimated displacement, and the position of the current mobile robot in the converted absolute coordinates may be calculated.
상기 코너점 매칭부는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 코너점 분류 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 가장 근사한 점을 매칭시킨 매칭 쌍을 생성하고, 이전 위치에서의 각도 정보와 현재 위치에서의 각도 정보의 차이를 통해 이동 로봇의 회전 각도를 구하고, 상기 회전 각도를 이용하여 현재 위치에서 검출된 코너점을 회전시키고, 상기 매칭쌍을 이용하여 현재 위치에서의 이동 로봇의 위치 좌표와 이전 위치에서의 이동 로봇의 위치 좌표를 산출하고, 산출된 위치 좌표 간의 차이를 이전 위치로부터 현재 위치까지의 이동 로봇의 이동량으로 추정할 수 있다. The corner point matching unit compares the corner point classification type detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot, and compares the corner point classification type. The same, and generate a matching pair in which the distance between the corner point and the mobile robot and the angle between the corner point and the mobile robot is closest to each other and match the difference between the angle information at the previous position and the angle information at the current position. The rotation angle of the mobile robot is obtained, the corner point detected at the current position is rotated using the rotation angle, and the position coordinates of the mobile robot at the current position and the position of the mobile robot at the previous position using the matching pair. The coordinates may be calculated and the difference between the calculated position coordinates may be estimated as the movement amount of the mobile robot from the previous position to the current position.
상기 코너점 매칭부는 절대 좌표에서의 이전 위치의 이동 로봇의 위치에 추정된 이동량을 더하는 방식으로 절대 좌표에서의 현재 위치의 이동 로봇의 추정 위치를 구하고, 현재 위치의 이동 로봇의 추정 위치에서의 코너점과 절대 좌표 상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점을 매칭시켜서, 절대 좌표에서의 현재 위치의 이동 로봇의 위치인 제1 좌표를 산출할 수 있다. The corner point matching unit obtains an estimated position of the mobile robot at the current position in absolute coordinates by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates, and the corner at the estimated position of the mobile robot at the current position. By matching the point and the corner point already present in the measurement radius of the current estimated position on the absolute coordinate, the first coordinate which is the position of the mobile robot of the current position in the absolute coordinate can be calculated.
상기 주행정보 획득부는 상기 이동 로봇에 설치된 엔코더를 이용하여 이동 로봇의 주행 정보를 획득하여 현재 이동 로봇의 절대 위치인 제2 좌표를 산출할 수 있다. The driving information acquisition unit may calculate the second coordinates which are absolute positions of the current mobile robot by acquiring the driving information of the mobile robot using an encoder installed in the mobile robot.
상기 오차 처리부는 칼만 필터를 이용하여 상기 제1 좌표 및 상기 제2 좌표의 오차를 보정할 수 있다. The error processor may correct an error between the first coordinate and the second coordinate by using a Kalman filter.
상기 지도 작성부는 상기 오차 처리부를 통해 보정된 이동 로봇의 위치를 획득하여 이동 로봇의 위치를 인식하고, 절대 좌표 상에 존재하지 않으나 현재 위치에서 검출된 코너점을 절대 좌표로 변환하여 추가하고, 상기 거리 정보를 이용하여 이동 로봇의 주변 환경에 대한 지도를 작성할 수 있다. The map preparation unit acquires the position of the mobile robot corrected through the error processing unit, recognizes the position of the mobile robot, and adds by converting the corner point, which is not present on the absolute coordinate, but is detected at the current position into absolute coordinate, The distance information can be used to map the surrounding environment of the mobile robot.
본 발명의 이동 로봇의 위치를 인식하고 주변 환경에 대한 지도를 작성하는 이동 로봇의 위치 인식 및 지도 작성 시스템에서의 이동 로봇의 위치 인식 및 지도 작성 방법에서, 이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득 단계, 획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출 단계, 이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득 단계, 상기 코너점과 상기 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭 단계, 이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득 단계, 상기 제1 위치 좌표와 상기 제2 위치 좌표의 오차를 처리하기 위한 오차 처리 단계 및 상기 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성 단계를 포함한다. In the location recognition and mapping method of the mobile robot in the location recognition and mapping system of the mobile robot that recognizes the location of the mobile robot and creates a map for the surrounding environment, the distance information of the mobile robot moves around Obtaining distance information for acquiring, performing preprocessing on the acquired distance information, detecting corner points which are corner points where the lines meet, detecting corner points for classifying the detected corner points, and when moving the robot An angle information obtaining step for obtaining angle information according to a moving direction of the mobile robot, a corner point matching step for generating first position coordinates by matching the corner point and the angle information, and obtaining driving information of the mobile robot; Acquiring driving information for generating a second position coordinate, and for processing an error between the first position coordinate and the second position coordinate Error processing step, and recognizing the position of a mobile using the first position coordinate and a second position coordinate of the error handling robot, and includes a map creation step of creating a map based on the recognized position.
상기 거리정보 획득 단계는 상기 이동 로봇에 설치된 레이저 스캐너를 이용하여 주변의 거리 정보를 획득할 수 있다. The distance information obtaining step may obtain the distance information of the surroundings using a laser scanner installed in the mobile robot.
상기 거리정보 획득 단계는 획득한 원통 좌표계 형태의 거리 정보를 직교 좌표계 형태로 변환할 수 있다. The distance information acquiring step may convert the acquired distance information in a cylindrical coordinate system into a rectangular coordinate system.
상기 코너점 검출 단계는 획득한 거리 정보에 대하여 RANSAC(RANdom SAmple Consensus), 스플릿 앤 머지(Split and Merge) 및 이터러티브 엔드 포인트 핏(Iterative End Point Fit) 중 어느 하나의 알고리즘을 이용하여 코너점을 검출할 수 있다. The corner point detection step may be performed by using any one of RANSAC (Random SAmple Consensus), Split and Merge, and Iterative End Point Fit algorithm for the obtained distance information. Can be detected.
상기 코너점 검출 단계는 하나의 코너점을 중심으로 인접한 다른 두 개의 점과의 사이각을 기준으로 하여, 오목 코너점과 볼록 코너점으로 분류할 수 있다. The corner point detecting step may be classified into a concave corner point and a convex corner point based on an angle between two adjacent points with respect to one corner point.
상기 각도정보 획득 단계는 상기 이동 로봇에 설치된 자이로스코프를 이용하여 각도 정보를 획득할 수 있다. In the obtaining of the angle information, angle information may be obtained using a gyroscope installed in the mobile robot.
상기 코너점 매칭 단계는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정하고, 추정된 변위를 이용하여 절대 좌표로 변환하고, 변환된 절대 좌표에서의 현재 이동 로봇의 위치를 산출할 수 있다. The corner point matching step compares the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot. The displacement of the mobile robot to the position may be estimated, converted into absolute coordinates using the estimated displacement, and the position of the current mobile robot in the converted absolute coordinates may be calculated.
상기 코너점 매칭 단계는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 코너점 분류 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 가장 근사한 점을 매칭시킨 매칭 쌍을 생성하고, 이전 위치에서의 각도 정보와 현재 위치에서의 각도 정보의 차이를 통해 이동 로봇의 회전 각도를 구하고, 상기 회전 각도를 이용하여 현재 위치에서 검출된 코너점을 회전시키고, 상기 매칭쌍을 이용하여 현재 위치에서의 이동 로봇의 위치 좌표와 이전 위치에서의 이동 로봇의 위치 좌표를 산출하고, 산출된 위치 좌표 간의 차이를 이전 위치로부터 현재 위치까지의 이동 로봇의 이동량으로 추정할 수 있다. The corner point matching step compares a corner point classification by comparing the classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot. Create a matching pair of the same type, matching the distance between the corner point and the mobile robot and the point where the angle between the corner point and the mobile robot is closest, and the difference between the angle information at the previous position and the angle information at the current position. The rotation angle of the mobile robot is obtained by using the rotation angle, the corner point detected at the current position is rotated using the rotation angle, and the position coordinate of the mobile robot at the current position and the position of the mobile robot at the previous position using the matching pair. The position coordinates may be calculated, and the difference between the calculated position coordinates may be estimated as the movement amount of the mobile robot from the previous position to the current position.
상기 코너점 매칭 단계는 절대 좌표에서의 이전 위치의 이동 로봇의 위치에 추정된 이동량을 더하는 방식으로 절대 좌표에서의 현재 위치의 이동 로봇의 추정 위치를 구하고, 현재 위치의 이동 로봇의 추정 위치에서의 코너점과 절대 좌표 상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점을 매칭시켜서, 절대 좌표에서의 현재 위치의 이동 로봇의 위치인 제1 좌표를 산출할 수 있다. In the corner point matching step, the estimated position of the mobile robot at the current position in absolute coordinates is obtained by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates. By matching the corner point and the corner point already present in the measurement radius of the current estimated position on the absolute coordinate, the first coordinate which is the position of the mobile robot of the current position in the absolute coordinate can be calculated.
상기 주행정보 획득 단계는 상기 이동 로봇에 설치된 엔코더를 이용하여 이동 로봇의 주행 정보를 획득하여 현재 이동 로봇의 절대 위치인 제2 좌표를 산출할 수 있다. In the obtaining of the driving information, driving information of the mobile robot may be obtained using an encoder installed in the mobile robot to calculate second coordinates which are absolute positions of the current mobile robot.
상기 오차 처리 단계는 칼만 필터를 이용하여 상기 제1 좌표 및 상기 제2 좌표의 오차를 보정할 수 있다. The error processing step may correct an error between the first coordinate and the second coordinate by using a Kalman filter.
상기 지도 작성 단계는 상기 오차 처리 단계를 통해 보정된 이동 로봇의 위치를 획득하여 이동 로봇의 위치를 인식하고, 절대 좌표 상에 존재하지 않으나 현재 위치에서 검출된 코너점을 절대 좌표로 변환하여 추가하고, 상기 거리 정보를 이용하여 이동 로봇의 주변 환경에 대한 지도를 작성할 수 있다. The mapping step acquires the position of the mobile robot corrected through the error processing step, recognizes the position of the mobile robot, adds by converting the corner point detected in the current position, although not present in absolute coordinates, Using the distance information, a map of the surrounding environment of the mobile robot may be prepared.
본 발명에 의하면, 레이저 코너점 매칭을 이용하여 이동 로봇의 위치를 인식하고 주변 환경 지도를 작성함으로써, 일반적인 실내 환경에서 인공표식을 설치하는데 드는 비용과 노력을 절감할 수 있는 효과가 있다.According to the present invention, by recognizing the position of the mobile robot using the laser corner point matching and making a map of the surrounding environment, it is possible to reduce the cost and effort required to install the artificial marker in a general indoor environment.
그리고, 별도의 표식없이 동시적 위치 인식 및 지도 작성이 가능하며, 스캔 매칭에 필요한 점의 수를 감소시켜 수행 시간을 단축시킬 수 있는 효과가 있다. In addition, simultaneous location recognition and map creation are possible without additional marking, and the execution time can be shortened by reducing the number of points required for scan matching.
그리고, 주행 거리계의 위치 및 방향 오차를 보정함으로써, 이동 로봇의 위치 및 방향의 정확도를 향상시킬 수 있는 효과가 있다.And, by correcting the position and direction errors of the odometer, there is an effect that can improve the accuracy of the position and direction of the mobile robot.
도 1은 본 발명의 일 실시예에 따른 레이저 스캐너를 통해 획득한 거리 정보를 시각적으로 나타낸 예시도이다.1 is an exemplary diagram visually showing distance information acquired through a laser scanner according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 코너점 검출 및 분류된 코너점에 관한 예시도이다.2 is a diagram illustrating corner points detected and classified according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 코너점의 매칭에 의한 이동 거리 및 회전 각도 추정에 대한 예시도이다.3 is an exemplary diagram for estimating a moving distance and a rotation angle by matching corner points according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 코너점의 매칭에 의한 절대 좌표에서의 현재 이동 로봇의 위치 및 각도 추정에 대한 예시도이다.4 is an exemplary diagram for estimating the position and angle of a current mobile robot in absolute coordinates by matching corner points according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 오차 처리부에 대한 구성을 보여주는 블록도이다.5 is a block diagram illustrating a configuration of an error processing unit according to an exemplary embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따른 이동 로봇의 위치 인식 및 지도 작성 장치의 내부 구성을 보여주는 블록도이다.FIG. 6 is a block diagram illustrating an internal configuration of a location recognition and map preparation device of a mobile robot according to an embodiment of the present disclosure.
도 7은 본 발명의 일 실시예에 따른 이동 로봇의 위치 인식 및 지도 작성 방법을 보여주는 흐름도이다. 7 is a flowchart illustrating a method for recognizing a location and creating a map of a mobile robot according to an embodiment of the present invention.
본 발명의 이동 로봇의 위치 인식 및 지도 작성 시스템은 이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득부, 상기 거리정보 획득부로부터 획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출부, 이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득부, 상기 코너점과 상기 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭부, 이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득부, 상기 제1 위치 좌표와 상기 제2 위치 좌표의 오차를 처리하기 위한 오차 처리부 및 상기 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성부를 포함한다. The location recognition and mapping system of the mobile robot of the present invention performs a preprocessing on the distance information acquisition unit for obtaining distance information around the moving robot, the distance information obtained from the distance information acquisition unit, and lines and lines. A corner point detection unit for detecting a corner point, which is a corner point that meets the corner point, and classifying the detected corner point; an angle information acquisition unit for obtaining angle information according to a moving direction of the mobile robot when the mobile robot moves; Corner point matching unit for generating the first position coordinates by matching the angle information, driving information acquisition unit for generating the second position coordinates by obtaining the driving information of the mobile robot, the first position coordinates and the second position An error processing unit for processing an error of coordinates and the position of the mobile robot by using the error-processed first position coordinates and second position coordinates And it comprises, based on the recognized position mapping to create the map portion.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed to have meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components regardless of reference numerals will be given the same reference numerals and duplicate description thereof will be omitted. In the following description of the present invention, if it is determined that the detailed description of the related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.
도 1은 본 발명의 일 실시예에 따른 레이저 스캐너를 통해 획득한 거리 정보를 시각적으로 나타낸 예시도이다.1 is an exemplary diagram visually showing distance information acquired through a laser scanner according to an embodiment of the present invention.
도 1을 참조하면, 본 발명에서 레이저 스캐너를 통해 획득한 거리 정보(11)가 원통 좌표계의 형태로 나타나며, 이를 직교 좌표계로 변환하면, 레이저 스캐너로부터 장애물까지의 거리 정보를 시각적인 점의 형태로 나타낼 수 있다.Referring to FIG. 1, the distance information 11 obtained through the laser scanner in the present invention is represented in the form of a cylindrical coordinate system, and when converted into the rectangular coordinate system, the distance information from the laser scanner to the obstacle in the form of a visual point. Can be represented.
본 발명에서 코너(corner)점이란 선과 선이 만나는 모서리 점을 말한다. In the present invention, a corner point refers to a corner point where a line meets a line.
도 2는 본 발명의 일 실시예에 따른 코너점 검출 및 분류된 코너점에 관한 예시도이다.2 is a diagram illustrating corner points detected and classified according to an embodiment of the present invention.
도 2를 참조하면, 획득한 거리정보(11)에 대해 RANSAC(RANdom SAmple Consensus), 스플릿 앤 머지(Split and Merge) 및 이터러티브 엔드 포인트 핏(Iterative End Point Fit) 등의 알고리즘을 이용하여 선과 선이 만나는 지점을 코너점으로 검출한다. Referring to FIG. 2, the acquired distance information 11 is obtained by using algorithms such as RANSAC (Random SAmple Consensus), Split and Merge, and Iterative End Point Fit. The point where the line meets is detected as a corner point.
그리고, 하나의 코너점을 중심으로 인접한 다른 두 개의 점과의 사이각을 이용하여 오목 코너점(21)과 볼록 코너점(22)으로 분류한다. 이는 레이저 스캐너를 기준으로 오목하게 들어갔다고 하여 오목 코너점(21)이라 하고, 볼록하게 튀어나왔다고 하여 볼록 코너점(22)이라고 한다.The concave corner point 21 and the convex corner point 22 are classified using an angle between two adjacent points about one corner point. This is called a concave corner point 21 because it is recessed with respect to the laser scanner, and is called a convex corner point 22 when it protrudes convexly.
도 3은 본 발명의 일 실시예에 따른 코너점의 매칭에 의한 이동 거리 및 회전 각도 추정에 대한 예시도이다.3 is an exemplary diagram for estimating a moving distance and a rotation angle by matching corner points according to an embodiment of the present invention.
도 3을 참조하면, (a)는 어떤 한 시점의 이전 시점에 획득한 거리 정보와 이를 이용해 검출 및 분류한 코너점을 나타낸 이전 측정 영상을 나타낸 도면이고, (b)는 현재 시점에 획득한 거리 정보와 이를 이용해 검출 및 분류한 코너점을 나타낸 현재 측정 영상을 나타낸 도면이다. Referring to FIG. 3, (a) is a diagram showing distance information acquired at a previous point in time and a previously measured image showing corner points detected and classified using the same, and (b) is a distance obtained at a current point in time. FIG. 11 is a diagram showing current measured images showing information and corner points detected and classified using the same.
도 3 (a), (b), (c)에서 이전 시점에 검출 및 분류한 코너점 유형(32), 코너점과 이동 로봇사이의 거리(33) 및 코너점과 이동 로봇 사이의 각도(34)와, 현재 시점에 검출 및 분류한 코너점 유형, 코너점과 이동 로봇사이의 거리 및 코너점과 로봇사이 각도를 비교하면, 코너점 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 근사한 점을 매칭시킨 매칭 쌍(36)이 나타나며, 자이로스코프(Gyroscope)를 이용하여 획득한 각도 정보의 차이를 통해 이동 로봇의 회전각도(37)을 구할 수 있다. 3 (a), (b) and (c), the corner point type 32 detected and classified at a previous point in time, the distance 33 between the corner point and the mobile robot and the angle 34 between the corner point and the mobile robot ) And the corner point type detected and classified at the present time, the distance between the corner point and the mobile robot and the angle between the corner point and the robot, the corner point types are the same, and the distance and corner between the corner point and the mobile robot. The matching pair 36 matching the point between the point and the approximated angle between the mobile robots is shown, and the rotation angle 37 of the mobile robot can be obtained through the difference of the angle information obtained by using a gyroscope.
현재 시점에 검출 및 분류한 코너점을 이동 로봇의 회전각도(37)를 이용해 회전시키고, 이전 시점에 검출 및 분류한 코너점과 매칭시키면, 이전 이동 로봇의 좌표를 기준으로 현재 이동 로봇의 위치 좌표(x1',y1')(40)와 이전 이동 로봇의 위치 좌표(x1,y1)(39)가 나타나며, 이 좌표의 차이가 이전 시점으로부터 현재 시점으로의 이동 로봇의 이동량으로 추정할 수 있다.When the corner points detected and classified at the current point of time are rotated using the rotation angle 37 of the mobile robot and matched with the corner points detected and classified at the previous point of time, the position coordinates of the current mobile robot are based on the coordinates of the previous mobile robot. (x 1 ', y 1 ') 40 and the position coordinates (x 1 , y 1 ) 39 of the previous mobile robot are shown, and the difference of these coordinates is estimated as the amount of movement of the mobile robot from the previous time point to the current time point. can do.
도 4는 본 발명의 일 실시예에 따른 코너점의 매칭에 의한 절대 좌표에서의 현재 이동 로봇의 위치 및 각도 추정에 대한 예시도이다.4 is an exemplary diagram for estimating the position and angle of a current mobile robot in absolute coordinates by matching corner points according to an embodiment of the present invention.
도 4에서 (a)는 절대 위치와 각도를 나타내는 절대 좌표 원점에서 획득한 거리 정보와, 이를 이용해 검출 및 분류한 코너점을 나타낸 절대 좌표 영상을 도시한 도면이고, (b)는 현재 시점과 이전 시점의 코너점을 매칭한 이전과 현재 매칭 영상을 도시한 도면이다. In FIG. 4, (a) shows distance information obtained from an absolute coordinate origin indicating an absolute position and an angle, and an absolute coordinate image showing corner points detected and classified using the same. FIG. 3 shows a previous and current matching image of matching corner points of a viewpoint.
도 4 (a), (b)를 참조하면, 절대 좌표 원점(0,0)(42)으로부터 절대 좌표에서의 이전 시점의 이동 로봇의 위치(x2,y2)(43)에 현재 시점의 추정 이동량을 더해 절대 좌표에서의 현재 시점의 이동 로봇의 추정 위치를 구할 수 있으며, 추정되는 절대 좌표에서의 현재 시점의 이동 로봇의 추정 위치에서의 코너점(46)과 절대 좌표상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점만을 매칭시켜, 절대 좌표에서의 현재 시점의 이동 로봇의 위치(x2',y2')(44)를 구할 수 있다.Referring to FIGS. 4A and 4B, from the absolute coordinate origin (0,0) 42 to the position (x 2 , y 2 ) 43 of the mobile robot of the previous viewpoint in absolute coordinates of the current viewpoint The estimated position of the mobile robot at the current point in absolute coordinates can be obtained by adding the estimated movement amount, and the corner point 46 at the estimated position of the mobile robot at the current point in absolute coordinates estimated and the current estimated position on the absolute coordinate By matching only the corner points already present in the measurement radius, the position (x 2 ′, y 2 ′) 44 of the mobile robot at the present time in absolute coordinates can be obtained.
도 5는 본 발명의 일 실시예에 따른 오차 처리부에 대한 구성을 보여주는 블록도이다.5 is a block diagram illustrating a configuration of an error processing unit according to an exemplary embodiment of the present invention.
도 5를 참조하면, 본 발명에서는 레이저 스캐너를 통해 검출 및 분류한 오목 코너점(21)과 볼록 코너점(22)을, 자이로스코프의 각도정보를 이용해 매칭함으로써, 절대 좌표에서의 현재 시점의 이동 로봇의 위치(x2',y2')를 구할 수 있다. Referring to FIG. 5, in the present invention, the concave corner point 21 and the convex corner point 22 detected and classified by the laser scanner are matched using the gyroscope angle information, thereby moving the current view in absolute coordinates. The position of the robot (x 2 ', y 2 ') can be obtained.
절대 좌표에서의 현재 시점의 이동 로봇의 위치(x2',y2')와 자이로스코프의 각도 정보를 이용해 나타낸 현재 이동 로봇의 위치(xl,yll)(51)와, 엔코더(encoder)를 통해 추정한 현재 이동 로봇의 위치(xe,yee)(52)를 칼만 필터(Kalman Filter)를 이용하여, 오차 보정한 현재 이동 로봇의 위치(x,y,θ)(53)를 획득할 수 있다.The position of the mobile robot (x 2 ', y 2 ') at the current point in absolute coordinates and the position of the current mobile robot (x l , y l , θ l ) (51) indicated using the gyroscope angle information, and the encoder. The position (x, y, θ) of the current mobile robot whose error is estimated by using the encoder (x e , y e , θ e ) 52 using the Kalman Filter. 53 can be obtained.
도 6은 본 발명의 일 실시예에 따른 이동 로봇의 위치 인식 및 지도 작성 장치의 내부 구성을 보여주는 블록도이다.FIG. 6 is a block diagram illustrating an internal configuration of a location recognition and map preparation device of a mobile robot according to an embodiment of the present disclosure.
도 6을 참조하면, 본 발명의 이동 로봇의 동시적 위치 인식과 지도 작성 장치는 거리정보 획득부(61), 코너점 검출부(62), 각도정보 획득부(63), 코너점 매칭부(64), 주행정보 획득부(65), 오차 처리부(66) 및 지도 작성부(67)를 포함한다.Referring to FIG. 6, the simultaneous location recognition and map preparation apparatus of the mobile robot according to the present invention includes a distance information acquisition unit 61, a corner point detection unit 62, an angle information acquisition unit 63, and a corner point matching unit 64. ), A driving information acquisition unit 65, an error processing unit 66, and a map preparation unit 67.
거리정보 획득부(61)는 이동 로봇에 설치된 레이저 스캐너를 통해 주변 환경의 거리 정보(11)를 획득하고, 획득한 원통 좌표계 형태의 거리 정보(11)를 직교 좌표계 형태로 변환한다.The distance information acquisition unit 61 obtains the distance information 11 of the surrounding environment through a laser scanner installed in the mobile robot, and converts the obtained distance information 11 in the form of a rectangular coordinate system into a rectangular coordinate system.
코너점 검출부(62)는 거리정보 획득부(61)로부터 획득한 거리 정보(11)에 대하여 코너점을 검출하고, 각도 기준을 이용하여 오목 코너점(21)과 볼록 코너점(22)으로 분류한다.The corner point detector 62 detects a corner point with respect to the distance information 11 obtained from the distance information acquirer 61, and classifies it into a concave corner point 21 and a convex corner point 22 using an angle reference. do.
각도정보 획득부(63)는 이동 로봇에 설치된 자이로스코프를 통해 로봇의 각도 정보를 획득한다.The angle information acquisition unit 63 obtains angle information of the robot through a gyroscope installed in the mobile robot.
코너점 매칭부(64)는 이전 위치에서 검출 및 분류된 코너점과 현재 위치에서 검출된 코너점의 유형과 거리 각도를 이용하여 매칭을 수행하고, 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정하고, 추정된 변위를 이용하여 절대 좌표로 변환하며, 절대 좌표와의 부분적인 매칭을 통해 현재 이동 로봇의 절대 위치(x2',y2') (44)를 획득한다.The corner point matching unit 64 performs matching using the type and distance angle of the corner points detected and classified at the previous position and the corner points detected at the current position, and calculates the displacement of the mobile robot from the previous position to the current position. It estimates, converts to absolute coordinates using the estimated displacement, and obtains the absolute position (x 2 ', y 2 ') 44 of the current mobile robot through partial matching with the absolute coordinates.
본 발명에서 코너점 매칭부(64)는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정한다. 그리고, 추정된 변위를 이용하여 절대 좌표로 변환하고, 변환된 절대 좌표에서의 현재 이동 로봇의 위치를 산출한다. In the present invention, the corner point matching unit 64 compares the type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot. Estimate the displacement of the mobile robot from the previous position to the current position. Then, the estimated displacement is converted into absolute coordinates, and the position of the current mobile robot in the converted absolute coordinates is calculated.
보다 상세하게 설명하면, 코너점 매칭부(64)는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 코너점 분류 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 가장 근사한 점을 매칭시킨 매칭 쌍을 생성한다. 그리고, 이전 위치에서의 각도 정보와 현재 위치에서의 각도 정보의 차이를 통해 이동 로봇의 회전 각도를 구하고, 회전 각도를 이용하여 현재 위치에서 검출된 코너점을 회전시킨다. 그리고, 매칭쌍을 이용하여 현재 위치에서의 이동 로봇의 위치 좌표와 이전 위치에서의 이동 로봇의 위치 좌표를 산출하고, 산출된 위치 좌표 간의 차이를 이전 위치로부터 현재 위치까지의 이동 로봇의 이동량으로 추정한다. In more detail, the corner point matching unit 64 includes a classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot. Are compared to each other to generate a matching pair in which the corner point classification types are the same and the distance between the corner point and the mobile robot and the angle between the corner point and the mobile robot are closest to each other are matched. Then, the rotation angle of the mobile robot is obtained through the difference between the angle information at the previous position and the angle information at the current position, and the corner point detected at the current position is rotated using the rotation angle. Then, using the matching pair, the position coordinates of the mobile robot at the current position and the position coordinates of the mobile robot at the previous position are calculated, and the difference between the calculated position coordinates is estimated as the amount of movement of the mobile robot from the previous position to the current position. do.
그리고, 코너점 매칭부(64)는 절대 좌표에서의 이전 위치의 이동 로봇의 위치에 추정된 이동량을 더하는 방식으로 절대 좌표에서의 현재 위치의 이동 로봇의 추정 위치를 구하고, 현재 위치의 이동 로봇의 추정 위치에서의 코너점과 절대 좌표 상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점을 매칭시켜서, 절대 좌표에서의 현재 위치의 이동 로봇의 위치인 제1 좌표를 산출한다. The corner point matching unit 64 obtains the estimated position of the mobile robot at the current position in absolute coordinates by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates, By matching the corner point at the estimated position with the corner point already present in the measurement radius of the current estimated position on the absolute coordinate, the first coordinate which is the position of the mobile robot of the current position at the absolute coordinate is calculated.
주행정보 획득부(65)는 이동 로봇에 설치된 엔코더를 통해 이동 로봇의 주행정보를 획득하여 현재 로봇의 절대 위치(xe,yee)(52)를 추정한다.The driving information acquisition unit 65 obtains driving information of the mobile robot through an encoder installed in the mobile robot and estimates the absolute position (x e , y e , θ e ) 52 of the current robot.
다시 말해서, 주행정보 획득부(65)는 이동 로봇에 설치된 엔코더를 이용하여 이동 로봇의 주행 정보를 획득하여, 현재 이동 로봇의 절대 위치인 제2 좌표를 산출할 수 있다. In other words, the driving information acquisition unit 65 may obtain driving information of the mobile robot by using an encoder installed in the mobile robot, and may calculate second coordinates which are absolute positions of the current mobile robot.
오차 처리부(66)는 코너점 매칭부(64)를 통해 추정된 이동 로봇의 위치(xl,yll)(51)와 주행정보 획득부(65)를 통해 추정된 이동 로봇의 위치(xe,yee)(52)을 이용해 오차를 보정한 현재 이동 로봇의 위치(x,y,θ)(53)를 획득한다. 본 발명의 일 실시예에서 오차 처리부(66)는 칼만 필터를 포함할 수 있다. Error processing unit 66 of the mobile robot estimated by the corner point matching unit position of the mobile robot estimated by the (64) (x l, y l, θ l) (51) and the traveling information acquisition unit 65 is located The position (x, y, θ) 53 of the current mobile robot whose error is corrected using (x e , y e , θ e ) 52 is obtained. In one embodiment of the present invention, the error processor 66 may include a Kalman filter.
본 발명의 일 실시예에서 오차 처리부(66)는 칼만 필터를 이용하여 제1 좌표 및 제2 좌표의 오차를 보정할 수 있다. In one embodiment of the present invention, the error processor 66 may correct an error between the first coordinate and the second coordinate by using a Kalman filter.
지도 작성부(67)는 오차 처리부(66)를 통해 오차를 보정한 현재 이동 로봇의 위치(x,y,θ)(53)를 획득하여 위치를 인식하고, 절대 좌표상에 존재하지 않지만 현재 시점에서 검출 및 분류된 코너점을 절대 좌표로 변환하여 추가하고, 레이저 스캐너의 거리 정보(11)를 이용하여 지도를 작성한다.The map generator 67 acquires the position (x, y, θ) 53 of the current mobile robot having corrected the error through the error processor 66 and recognizes the position. The corner points detected and classified at are converted into absolute coordinates and added, and a map is created using the distance information 11 of the laser scanner.
본 발명에서 지도 작성부(67)는 오차 처리부(66)를 통해 보정된 이동 로봇의 위치를 획득하여 이동 로봇의 위치를 인식하고, 절대 좌표 상에 존재하지 않으나 현재 위치에서 검출된 코너점을 절대 좌표로 변환하여 추가하고, 거리 정보를 이용하여 이동 로봇의 주변 환경에 대한 지도를 작성할 수 있다. In the present invention, the map preparation unit 67 acquires the position of the mobile robot corrected through the error processor 66 to recognize the position of the mobile robot, and does not exist in absolute coordinates but absolute corner points detected at the current position. Converted coordinates can be added, and distance information can be used to create a map of the surrounding environment of the mobile robot.
도 7은 본 발명의 일 실시예에 따른 이동 로봇의 위치 인식 및 지도 작성 방법을 보여주는 흐름도이다. 7 is a flowchart illustrating a method for recognizing a location and creating a map of a mobile robot according to an embodiment of the present invention.
도 7을 참조하면, 이동 로봇의 위치 인식 및 지도 작성 시스템에서의 이동 로봇의 위치 인식 및 지도 작성 방법은, 먼저 이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득 단계를 수행한다(S701). Referring to FIG. 7, in the location recognition and mapping system of the mobile robot, the location recognition and mapping method of the mobile robot first performs a distance information acquisition step for acquiring distance information around the moving robot. S701).
그리고, 획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출 단계를 수행한다(S703).Then, preprocessing is performed on the acquired distance information, a corner point that is a corner point where the line meets the line, and a corner point detection step for classifying the detected corner point is performed (S703).
그리고, 이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득 단계를 수행한다(S705). In operation S705, an angle information acquisition step for acquiring angle information according to a moving direction of the mobile robot is performed when the mobile robot moves.
그리고, 코너점과 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭 단계를 수행한다(S707). Then, the corner point matching step for generating the first position coordinates by matching the corner point and the angle information is performed (S707).
그리고, 이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득 단계를 수행한다(S709). In operation S709, a driving information acquisition step for acquiring driving information of the mobile robot and generating a second position coordinate is performed.
그리고, 제1 위치 좌표와 제2 위치 좌표의 오차를 처리하기 위한 오차 처리 단계를 수행한다(S711). In operation S711, an error processing step for processing an error between the first position coordinate and the second position coordinate is performed.
그리고, 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성 단계를 수행한다(S713). Then, the position of the mobile robot is recognized using the error-processed first position coordinates and the second position coordinates, and a map creation step of creating a map based on the recognized position is performed (S713).
S701 단계에서 이동 로봇에 설치된 레이저 스캐너를 이용하여 주변의 거리 정보를 획득할 수 있다. 그리고, 획득한 원통 좌표계 형태의 거리 정보를 직교 좌표계 형태로 변환할 수 있다. In operation S701, peripheral distance information may be acquired using a laser scanner installed in the mobile robot. Then, the acquired distance information in the form of a cylindrical coordinate system may be converted into a rectangular coordinate system.
S703 단계에서 획득한 거리 정보에 대하여 RANSAC(RANdom SAmple Consensus), 스플릿 앤 머지(Split and Merge) 및 이터러티브 엔드 포인트 핏(Iterative End Point Fit) 중 어느 하나의 알고리즘을 이용하여 코너점을 검출할 수 있다. The corner point may be detected using any one of a random SAmple consensus (RANSAC), a split and merge, and an iterative end point fit with respect to the distance information acquired in step S703. Can be.
S703 단계에서 하나의 코너점을 중심으로 인접한 다른 두 개의 점과의 사이각을 기준으로 하여, 오목 코너점과 볼록 코너점으로 분류할 수 있다. In operation S703, the concave corner point and the convex corner point may be classified based on an angle between two adjacent points about one corner point.
S705 단계에서 이동 로봇에 설치된 자이로스코프를 이용하여 각도 정보를 획득할 수 있다.In operation S705, angle information may be acquired using a gyroscope installed in the mobile robot.
S707 단계에서 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정하고, 추정된 변위를 이용하여 절대 좌표로 변환하고, 변환된 절대 좌표에서의 현재 이동 로봇의 위치를 산출할 수 있다. In step S707, the classification point of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot are compared with each other, and thus, from the previous position to the current position. It is possible to estimate the displacement of the mobile robot at, convert to the absolute coordinates using the estimated displacement, and calculate the position of the current mobile robot at the converted absolute coordinates.
S707 단계에서 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 코너점 분류 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 가장 근사한 점을 매칭시킨 매칭 쌍을 생성한다. In step S707, the classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot are compared with each other, and the corner point classification types are the same. Then, a matching pair is generated in which the distance between the corner point and the mobile robot and the angle between the corner point and the mobile robot are most closely matched.
그리고, S707 단계에서 이전 위치에서의 각도 정보와 현재 위치에서의 각도 정보의 차이를 통해 이동 로봇의 회전 각도를 구하고, 회전 각도를 이용하여 현재 위치에서 검출된 코너점을 회전시키고, 매칭쌍을 이용하여 현재 위치에서의 이동 로봇의 위치 좌표와 이전 위치에서의 이동 로봇의 위치 좌표를 산출한다.In operation S707, the rotation angle of the mobile robot is obtained based on the difference between the angle information at the previous position and the angle information at the current position. The corner point detected at the current position is rotated using the rotation angle, and the matching pair is used. The position coordinates of the mobile robot at the current position and the position coordinates of the mobile robot at the previous position are calculated.
그리고, S707 단계에서 산출된 위치 좌표 간의 차이를 이전 위치로부터 현재 위치까지의 이동 로봇의 이동량으로 추정한다. Then, the difference between the position coordinates calculated in step S707 is estimated as the movement amount of the mobile robot from the previous position to the current position.
본 발명에서 S707 단계에서 절대 좌표에서의 이전 위치의 이동 로봇의 위치에 추정된 이동량을 더하는 방식으로 절대 좌표에서의 현재 위치의 이동 로봇의 추정 위치를 구하고, 현재 위치의 이동 로봇의 추정 위치에서의 코너점과 절대 좌표 상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점을 매칭시켜서, 절대 좌표에서의 현재 위치의 이동 로봇의 위치인 제1 좌표를 산출할 수 있다. In the present invention, in step S707, the estimated position of the mobile robot at the current position in absolute coordinates is obtained by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates, and at the estimated position of the mobile robot at the current position. By matching the corner point and the corner point already present in the measurement radius of the current estimated position on the absolute coordinate, the first coordinate which is the position of the mobile robot of the current position in the absolute coordinate can be calculated.
S709 단계에서 이동 로봇에 설치된 엔코더를 이용하여 이동 로봇의 주행 정보를 획득하여 현재 이동 로봇의 절대 위치인 제2 좌표를 산출할 수 있다. In operation S709, second coordinates which are absolute positions of the current mobile robot may be calculated by obtaining driving information of the mobile robot using an encoder installed in the mobile robot.
S711 단계에서 칼만 필터를 이용하여 제1 좌표 및 제2 좌표의 오차를 보정할 수 있다. In operation S711, an error between the first coordinate and the second coordinate may be corrected using the Kalman filter.
S713 단계에서는 보정된 이동 로봇의 위치를 획득하여 이동 로봇의 위치를 인식하고, 절대 좌표 상에 존재하지 않으나 현재 위치에서 검출된 코너점을 절대 좌표로 변환하여 추가하고, 거리 정보를 이용하여 이동 로봇의 주변 환경에 대한 지도를 작성할 수 있다. In step S713, the position of the mobile robot is acquired by recognizing the corrected position of the mobile robot, the corner point detected in the current position, which is not present in absolute coordinates, is converted into absolute coordinates and added, and the mobile robot is used using distance information. Create a map of your surroundings.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.While the invention has been described using some preferred embodiments, these embodiments are illustrative and not restrictive. Those skilled in the art will appreciate that various changes and modifications can be made without departing from the spirit of the invention and the scope of the rights set forth in the appended claims.

Claims (24)

  1. 이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득부;A distance information acquisition unit for acquiring distance information around the moving robot;
    상기 거리정보 획득부로부터 획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출부;A corner point detector configured to perform preprocessing on the distance information obtained from the distance information acquirer, detect a corner point that is a corner point where a line meets the line, and classify the detected corner point;
    이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득부;An angle information acquisition unit for obtaining angle information according to a moving direction of the mobile robot when the mobile robot moves;
    상기 코너점과 상기 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭부;Corner point matching unit for generating a first position coordinate by matching the corner point and the angle information;
    이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득부;A driving information acquisition unit for acquiring driving information of the mobile robot and generating second position coordinates;
    상기 제1 위치 좌표와 상기 제2 위치 좌표의 오차를 처리하기 위한 오차 처리부; 및An error processor for processing an error between the first position coordinate and the second position coordinate; And
    상기 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성부를 포함하는 이동 로봇의 위치 인식 및 지도 작성 시스템.And a map preparation unit for recognizing the position of the mobile robot using the error-processed first position coordinate and the second position coordinate, and creating a map based on the recognized position.
  2. 청구항 1에 있어서, The method according to claim 1,
    상기 거리정보 획득부는 상기 이동 로봇에 설치된 레이저 스캐너를 이용하여 주변의 거리 정보를 획득하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템. The distance information obtaining unit obtains the distance information of the surroundings by using a laser scanner installed in the mobile robot location recognition and map creation system of the mobile robot.
  3. 청구항 2에 있어서, The method according to claim 2,
    상기 거리정보 획득부는 획득한 원통 좌표계 형태의 거리 정보를 직교 좌표계 형태로 변환하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템. The distance information obtaining unit converts the acquired distance information in the form of a rectangular coordinate system into a rectangular coordinate system form.
  4. 청구항 1에 있어서, The method according to claim 1,
    상기 코너점 검출부는 획득한 거리 정보에 대하여 RANSAC(RANdom SAmple Consensus), 스플릿 앤 머지(Split and Merge) 및 이터러티브 엔드 포인트 핏(Iterative End Point Fit) 중 어느 하나의 알고리즘을 이용하여 코너점을 검출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템. The corner point detection unit uses the algorithm of any one of RANSAC (Random SAmple Consensus), Split and Merge, and Iterative End Point Fit to obtain the distance information. Position recognition and mapping system of a mobile robot, characterized in that for detecting.
  5. 청구항 1에 있어서, The method according to claim 1,
    상기 코너점 검출부는 하나의 코너점을 중심으로 인접한 다른 두 개의 점과의 사이각을 기준으로 하여, 오목 코너점과 볼록 코너점으로 분류하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템. The corner point detecting unit classifies a concave corner point and a convex corner point based on an angle between two adjacent points with respect to one corner point as a center.
  6. 청구항 1에 있어서, The method according to claim 1,
    상기 각도정보 획득부는 상기 이동 로봇에 설치된 자이로스코프를 이용하여 각도 정보를 획득하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템. The angle information obtaining unit obtains the angle information by using a gyroscope installed in the mobile robot position recognition and map creation system of the mobile robot.
  7. 청구항 1에 있어서, The method according to claim 1,
    상기 코너점 매칭부는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정하고, 추정된 변위를 이용하여 절대 좌표로 변환하고, 변환된 절대 좌표에서의 현재 이동 로봇의 위치를 산출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템. The corner point matching unit compares the classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot, and compares the current position at the current position. A system for recognizing and mapping a mobile robot, comprising: estimating the displacement of the mobile robot up to, converting the estimated mobile robot into absolute coordinates using the estimated displacement, and calculating the current position of the mobile robot in the converted absolute coordinates.
  8. 청구항 7에 있어서, The method according to claim 7,
    상기 코너점 매칭부는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 코너점 분류 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 가장 근사한 점을 매칭시킨 매칭 쌍을 생성하고, 이전 위치에서의 각도 정보와 현재 위치에서의 각도 정보의 차이를 통해 이동 로봇의 회전 각도를 구하고, 상기 회전 각도를 이용하여 현재 위치에서 검출된 코너점을 회전시키고, 상기 매칭쌍을 이용하여 현재 위치에서의 이동 로봇의 위치 좌표와 이전 위치에서의 이동 로봇의 위치 좌표를 산출하고, 산출된 위치 좌표 간의 차이를 이전 위치로부터 현재 위치까지의 이동 로봇의 이동량으로 추정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템. The corner point matching unit compares the corner point classification type detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot, and compares the corner point classification type. The same, and generate a matching pair in which the distance between the corner point and the mobile robot and the angle between the corner point and the mobile robot is closest to each other and match the difference between the angle information at the previous position and the angle information at the current position. The rotation angle of the mobile robot is obtained, the corner point detected at the current position is rotated using the rotation angle, and the position coordinates of the mobile robot at the current position and the position of the mobile robot at the previous position using the matching pair. The coordinates are calculated, and the difference between the calculated position coordinates is estimated as the movement amount of the mobile robot from the previous position to the current position. Location recognition and mapping system of mobile robot.
  9. 청구항 8에 있어서, The method according to claim 8,
    상기 코너점 매칭부는 절대 좌표에서의 이전 위치의 이동 로봇의 위치에 추정된 이동량을 더하는 방식으로 절대 좌표에서의 현재 위치의 이동 로봇의 추정 위치를 구하고, 현재 위치의 이동 로봇의 추정 위치에서의 코너점과 절대 좌표 상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점을 매칭시켜서, 절대 좌표에서의 현재 위치의 이동 로봇의 위치인 제1 좌표를 산출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템. The corner point matching unit obtains an estimated position of the mobile robot at the current position in absolute coordinates by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates, and the corner at the estimated position of the mobile robot at the current position. Mapping and recognizing a location of a mobile robot, by matching a point already present in the measurement radius of the current estimated location on the absolute coordinate with a point to calculate a first coordinate, which is the location of the mobile robot at the current location in absolute coordinates. Creation system.
  10. 청구항 9에 있어서, The method according to claim 9,
    상기 주행정보 획득부는 상기 이동 로봇에 설치된 엔코더를 이용하여 이동 로봇의 주행 정보를 획득하여 현재 이동 로봇의 절대 위치인 제2 좌표를 산출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템. The driving information obtaining unit obtains driving information of the mobile robot by using an encoder installed in the mobile robot and calculates a second coordinate which is an absolute position of the current mobile robot.
  11. 청구항 10에 있어서, The method according to claim 10,
    상기 오차 처리부는 칼만 필터를 이용하여 상기 제1 좌표 및 상기 제2 좌표의 오차를 보정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템. And the error processing unit corrects an error between the first coordinate and the second coordinate by using a Kalman filter.
  12. 청구항 1에 있어서, The method according to claim 1,
    상기 지도 작성부는 상기 오차 처리부를 통해 보정된 이동 로봇의 위치를 획득하여 이동 로봇의 위치를 인식하고, 절대 좌표 상에 존재하지 않으나 현재 위치에서 검출된 코너점을 절대 좌표로 변환하여 추가하고, 상기 거리 정보를 이용하여 이동 로봇의 주변 환경에 대한 지도를 작성하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템. The map preparation unit acquires the position of the mobile robot corrected through the error processing unit, recognizes the position of the mobile robot, and adds by converting the corner point, which is not present on the absolute coordinate, but is detected at the current position into absolute coordinate, Position recognition and mapping system of a mobile robot, characterized in that for generating a map of the surrounding environment of the mobile robot using the distance information.
  13. 이동 로봇의 위치를 인식하고 주변 환경에 대한 지도를 작성하는 이동 로봇의 위치 인식 및 지도 작성 시스템에서의 이동 로봇의 위치 인식 및 지도 작성 방법에서, In the location recognition and mapping method of the mobile robot in the location recognition and mapping system of the mobile robot that recognizes the location of the mobile robot and maps the surrounding environment,
    이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득 단계;A distance information obtaining step of obtaining distance information of the surroundings of the mobile robot moving;
    획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출 단계;A corner point detecting step of performing preprocessing on the obtained distance information, detecting a corner point which is a corner point where the line meets the line, and classifying the detected corner point;
    이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득 단계;Obtaining angle information according to a moving direction of the mobile robot when the mobile robot moves;
    상기 코너점과 상기 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭 단계;A corner point matching step of generating a first position coordinate by matching the corner point and the angle information;
    이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득 단계;Driving information acquisition step of acquiring driving information of the mobile robot to generate second position coordinates;
    상기 제1 위치 좌표와 상기 제2 위치 좌표의 오차를 처리하기 위한 오차 처리 단계; 및An error processing step for processing an error between the first position coordinate and the second position coordinate; And
    상기 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성 단계를 포함하는 이동 로봇의 위치 인식 및 지도 작성 방법.And a map making step of recognizing a location of the mobile robot using the error-processed first and second location coordinates and creating a map based on the recognized location.
  14. 청구항 13에 있어서, The method according to claim 13,
    상기 거리정보 획득 단계는 상기 이동 로봇에 설치된 레이저 스캐너를 이용하여 주변의 거리 정보를 획득하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법. Wherein the step of obtaining the distance information location recognition and map creation method of the mobile robot, characterized in that for obtaining the distance information of the surroundings using a laser scanner installed in the mobile robot.
  15. 청구항 14에 있어서, The method according to claim 14,
    상기 거리정보 획득 단계는 획득한 원통 좌표계 형태의 거리 정보를 직교 좌표계 형태로 변환하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.Wherein the step of obtaining the distance information is a position recognition and map creation method of the mobile robot, characterized in that for converting the acquired distance information in the form of a rectangular coordinate system in the form of a Cartesian coordinate system.
  16. 청구항 13에 있어서, The method according to claim 13,
    상기 코너점 검출 단계는 획득한 거리 정보에 대하여 RANSAC(RANdom SAmple Consensus), 스플릿 앤 머지(Split and Merge) 및 이터러티브 엔드 포인트 핏(Iterative End Point Fit) 중 어느 하나의 알고리즘을 이용하여 코너점을 검출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법. The corner point detection step may be performed by using any one of RANSAC (Random SAmple Consensus), Split and Merge, and Iterative End Point Fit for the acquired distance information. Recognizing location and mapping method of the mobile robot, characterized in that for detecting.
  17. 청구항 13에 있어서, The method according to claim 13,
    상기 코너점 검출 단계는 하나의 코너점을 중심으로 인접한 다른 두 개의 점과의 사이각을 기준으로 하여, 오목 코너점과 볼록 코너점으로 분류하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법. The corner point detecting step is to classify the location into a concave corner and a convex corner point on the basis of the angle between the two adjacent points with respect to one corner point, and the method for creating a map of the mobile robot .
  18. 청구항 13에 있어서, The method according to claim 13,
    상기 각도정보 획득 단계는 상기 이동 로봇에 설치된 자이로스코프를 이용하여 각도 정보를 획득하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법. Wherein the step of obtaining the angle information, the position recognition and map creation method of the mobile robot, characterized in that for obtaining the angle information using a gyroscope installed in the mobile robot.
  19. 청구항 13에 있어서, The method according to claim 13,
    상기 코너점 매칭 단계는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정하고, 추정된 변위를 이용하여 절대 좌표로 변환하고, 변환된 절대 좌표에서의 현재 이동 로봇의 위치를 산출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법. The corner point matching step compares the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot. A method of recognizing and mapping a mobile robot, comprising: estimating a displacement of the mobile robot to a position, converting the estimated position into absolute coordinates using the estimated displacement, and calculating a current position of the mobile robot in the converted absolute coordinates .
  20. 청구항 19에 있어서, The method according to claim 19,
    상기 코너점 매칭 단계는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 코너점 분류 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 가장 근사한 점을 매칭시킨 매칭 쌍을 생성하고, 이전 위치에서의 각도 정보와 현재 위치에서의 각도 정보의 차이를 통해 이동 로봇의 회전 각도를 구하고, 상기 회전 각도를 이용하여 현재 위치에서 검출된 코너점을 회전시키고, 상기 매칭쌍을 이용하여 현재 위치에서의 이동 로봇의 위치 좌표와 이전 위치에서의 이동 로봇의 위치 좌표를 산출하고, 산출된 위치 좌표 간의 차이를 이전 위치로부터 현재 위치까지의 이동 로봇의 이동량으로 추정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법. The corner point matching step compares a corner point classification by comparing the classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot. Create a matching pair of the same type, matching the distance between the corner point and the mobile robot and the point where the angle between the corner point and the mobile robot is closest, and the difference between the angle information at the previous position and the angle information at the current position. The rotation angle of the mobile robot is obtained by using the rotation angle, the corner point detected at the current position is rotated using the rotation angle, and the position coordinate of the mobile robot at the current position and the position of the mobile robot at the previous position using the matching pair. Calculating the position coordinates and estimating the difference between the calculated position coordinates as the movement amount of the mobile robot from the previous position to the current position. Location awareness and how to create a map of a mobile robot that.
  21. 청구항 20에 있어서, The method of claim 20,
    상기 코너점 매칭 단계는 절대 좌표에서의 이전 위치의 이동 로봇의 위치에 추정된 이동량을 더하는 방식으로 절대 좌표에서의 현재 위치의 이동 로봇의 추정 위치를 구하고, 현재 위치의 이동 로봇의 추정 위치에서의 코너점과 절대 좌표 상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점을 매칭시켜서, 절대 좌표에서의 현재 위치의 이동 로봇의 위치인 제1 좌표를 산출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법. In the corner point matching step, the estimated position of the mobile robot at the current position in absolute coordinates is obtained by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates. Recognizing the position of the mobile robot, by matching the corner point and the corner point already present in the measurement radius of the current estimated position on the absolute coordinate, the first coordinate which is the position of the mobile robot of the current position in absolute coordinates; How to create a map.
  22. 청구항 21에 있어서, The method according to claim 21,
    상기 주행정보 획득 단계는 상기 이동 로봇에 설치된 엔코더를 이용하여 이동 로봇의 주행 정보를 획득하여 현재 이동 로봇의 절대 위치인 제2 좌표를 산출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법. The acquiring of the driving information may include acquiring driving information of the moving robot using an encoder installed in the moving robot to calculate second coordinates which are absolute positions of the current moving robot.
  23. 청구항 22에 있어서, The method according to claim 22,
    상기 오차 처리 단계는 칼만 필터를 이용하여 상기 제1 좌표 및 상기 제2 좌표의 오차를 보정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법. Wherein the error processing step using the Kalman filter to correct the error of the first coordinate and the second coordinate position recognition and map creation method of the mobile robot.
  24. 청구항 13에 있어서, The method according to claim 13,
    상기 지도 작성 단계는 상기 오차 처리 단계를 통해 보정된 이동 로봇의 위치를 획득하여 이동 로봇의 위치를 인식하고, 절대 좌표 상에 존재하지 않으나 현재 위치에서 검출된 코너점을 절대 좌표로 변환하여 추가하고, 상기 거리 정보를 이용하여 이동 로봇의 주변 환경에 대한 지도를 작성하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법. The mapping step acquires the position of the mobile robot corrected through the error processing step, recognizes the position of the mobile robot, adds by converting the corner point detected in the current position, although not present in absolute coordinates, And generating a map of a surrounding environment of the mobile robot using the distance information.
PCT/KR2016/013671 2016-01-25 2016-11-25 System and method for recognizing location of mobile robot and making map WO2017131334A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0008642 2016-01-25
KR1020160008642A KR101775114B1 (en) 2016-01-25 2016-01-25 System and method for simultaneous localization and mapping of mobile robot

Publications (1)

Publication Number Publication Date
WO2017131334A1 true WO2017131334A1 (en) 2017-08-03

Family

ID=59398066

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/013671 WO2017131334A1 (en) 2016-01-25 2016-11-25 System and method for recognizing location of mobile robot and making map

Country Status (2)

Country Link
KR (1) KR101775114B1 (en)
WO (1) WO2017131334A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108332758A (en) * 2018-01-26 2018-07-27 上海思岚科技有限公司 A kind of corridor recognition method and device of mobile robot
CN110868269A (en) * 2020-01-19 2020-03-06 上海高仙自动化科技发展有限公司 Method and device for determining synchronization between sensors, electronic equipment and storage medium
CN112446916A (en) * 2019-09-02 2021-03-05 北京京东乾石科技有限公司 Method and device for determining parking position of unmanned vehicle
US20220198688A1 (en) * 2019-04-17 2022-06-23 Megvii (Beijing) Technology Co., Ltd. Laser coarse registration method, device, mobile terminal and storage medium
CN115206130A (en) * 2022-07-12 2022-10-18 合众新能源汽车有限公司 Parking space detection method, system, terminal and storage medium

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962647B2 (en) 2016-11-30 2021-03-30 Yujin Robot Co., Ltd. Lidar apparatus based on time of flight and moving object
US11579298B2 (en) 2017-09-20 2023-02-14 Yujin Robot Co., Ltd. Hybrid sensor and compact Lidar sensor
US11874399B2 (en) 2018-05-16 2024-01-16 Yujin Robot Co., Ltd. 3D scanning LIDAR sensor
KR102121458B1 (en) * 2018-12-28 2020-06-10 한국생산기술연구원 Method for path finding of robot cleaner for automatic charging and robot cleaner using the same
KR102230362B1 (en) * 2019-07-04 2021-03-22 경북대학교 산학협력단 Cleaning Robot Apparatus Using Rectangular Map Decomposition and Method for Planning Coverage Path Using the Same
CN113899376B (en) * 2020-07-06 2023-10-20 苏州宝时得电动工具有限公司 Self-mobile device map generation method, system and automatic working system
KR102675144B1 (en) 2021-12-23 2024-06-17 안상진 Robot movement position synchronous output robot control device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834761B1 (en) * 2005-11-23 2008-06-05 삼성전자주식회사 Method and apparatus for reckoning position of moving robot
JP4409035B2 (en) * 2000-03-22 2010-02-03 本田技研工業株式会社 Image processing apparatus, singular part detection method, and recording medium recording singular part detection program
KR20100049325A (en) * 2008-11-03 2010-05-12 삼성전자주식회사 Apparatus and method for extracting feature information of object, and apparatus and method for generating feature map
KR101272422B1 (en) * 2012-02-29 2013-06-07 부산대학교 산학협력단 Device and method for locationing using laser scanner and landmark matching

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100877072B1 (en) * 2007-06-28 2009-01-07 삼성전자주식회사 Method and apparatus of building map for a mobile robot and cleaning simultaneously

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4409035B2 (en) * 2000-03-22 2010-02-03 本田技研工業株式会社 Image processing apparatus, singular part detection method, and recording medium recording singular part detection program
KR100834761B1 (en) * 2005-11-23 2008-06-05 삼성전자주식회사 Method and apparatus for reckoning position of moving robot
KR20100049325A (en) * 2008-11-03 2010-05-12 삼성전자주식회사 Apparatus and method for extracting feature information of object, and apparatus and method for generating feature map
KR101272422B1 (en) * 2012-02-29 2013-06-07 부산대학교 산학협력단 Device and method for locationing using laser scanner and landmark matching

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KIM, TAE-HYEONG ET AL.: "Localization of Mobile Robot Based on Laser Comer Pattern", CONFERENCE ON INFORMATION AND CONTROL SYSTEMS, 23 October 2015 (2015-10-23), pages 120 - 121 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108332758A (en) * 2018-01-26 2018-07-27 上海思岚科技有限公司 A kind of corridor recognition method and device of mobile robot
CN108332758B (en) * 2018-01-26 2021-07-09 上海思岚科技有限公司 Corridor identification method and device for mobile robot
US20220198688A1 (en) * 2019-04-17 2022-06-23 Megvii (Beijing) Technology Co., Ltd. Laser coarse registration method, device, mobile terminal and storage medium
CN112446916A (en) * 2019-09-02 2021-03-05 北京京东乾石科技有限公司 Method and device for determining parking position of unmanned vehicle
CN110868269A (en) * 2020-01-19 2020-03-06 上海高仙自动化科技发展有限公司 Method and device for determining synchronization between sensors, electronic equipment and storage medium
CN110868269B (en) * 2020-01-19 2020-07-31 上海高仙自动化科技发展有限公司 Method and device for determining synchronization between sensors, electronic equipment and storage medium
CN115206130A (en) * 2022-07-12 2022-10-18 合众新能源汽车有限公司 Parking space detection method, system, terminal and storage medium
CN115206130B (en) * 2022-07-12 2023-07-18 合众新能源汽车股份有限公司 Parking space detection method, system, terminal and storage medium

Also Published As

Publication number Publication date
KR101775114B1 (en) 2017-09-05
KR20170088583A (en) 2017-08-02

Similar Documents

Publication Publication Date Title
WO2017131334A1 (en) System and method for recognizing location of mobile robot and making map
WO2021112462A1 (en) Method for estimating three-dimensional coordinate values for each pixel of two-dimensional image, and method for estimating autonomous driving information using same
WO2019225817A1 (en) Vehicle position estimation device, vehicle position estimation method, and computer-readable recording medium for storing computer program programmed to perform said method
WO2011052827A1 (en) Slip detection apparatus and method for a mobile robot
JP4886302B2 (en) Apparatus and method for generating position and map of moving body, and computer-readable recording medium storing computer program for controlling the apparatus
WO2020067751A1 (en) Device and method for data fusion between heterogeneous sensors
WO2020075954A1 (en) Positioning system and method using combination of results of multimodal sensor-based location recognition
WO2021006441A1 (en) Road sign information collection method using mobile mapping system
US20110098923A1 (en) Method of and apparatus for creating map of artificial marks, and method and apparatus for measuring position of moving object using the map
WO2020235734A1 (en) Method for estimating distance to and location of autonomous vehicle by using mono camera
WO2018124337A1 (en) Object detection method and apparatus utilizing adaptive area of interest and discovery window
WO2018066754A1 (en) Method for estimating attitude of vehicle by using lidar sensor
WO2021075772A1 (en) Object detection method and device using multiple area detection
WO2021221334A1 (en) Device for generating color map formed on basis of gps information and lidar signal, and control method for same
WO2016206108A1 (en) System and method for measuring a displacement of a mobile platform
WO2018159902A1 (en) Method and apparatus for calibrating plurality of radar sensors
KR20120103943A (en) Apparatus and method for recognizing position of robot
WO2021045445A1 (en) Driver's license test processing device
WO2015102212A1 (en) Method for evaluating type of distance measured by laser range finder and method for estimating positon of mobile robot by using same
WO2020067712A1 (en) On-site 3d geological mapping system and method using device for displaying boundary surface of geological elements
WO2020171527A1 (en) Mobile robot and robot arm alignment method thereof
WO2019132504A1 (en) Destination guide apparatus and method
Munoz et al. Two-dimensional landmark-based position estimation from a single image
KR20120108277A (en) Method for localizing intelligent mobile robot by using both natural landmark and artificial landmark
CN107330936B (en) Monocular vision-based double-circular marker positioning method and system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16888310

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16888310

Country of ref document: EP

Kind code of ref document: A1