WO2017131334A1 - 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법 - Google Patents

이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법 Download PDF

Info

Publication number
WO2017131334A1
WO2017131334A1 PCT/KR2016/013671 KR2016013671W WO2017131334A1 WO 2017131334 A1 WO2017131334 A1 WO 2017131334A1 KR 2016013671 W KR2016013671 W KR 2016013671W WO 2017131334 A1 WO2017131334 A1 WO 2017131334A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile robot
corner point
coordinate
angle
matching
Prior art date
Application number
PCT/KR2016/013671
Other languages
English (en)
French (fr)
Inventor
박태형
김태형
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Publication of WO2017131334A1 publication Critical patent/WO2017131334A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the present invention relates to a method and system for recognizing a position of a mobile robot, and more particularly, to detect and classify corner points using a laser scanner of a mobile robot capable of autonomous movement, and to determine a corner by using gyroscope angle information.
  • the present invention relates to a method and a system for recognizing a location and a map of a mobile robot, by matching a point and allowing a mobile robot to simultaneously perform location recognition and mapping through error correction.
  • EKF Extended Kalman Filter
  • typical methods using scan matching include a point-to-point scan matching method using an ICP algorithm and an IDC algorithm, an image matching method of matching a laser scan image, and the like.
  • the ICP algorithm and IDC algorithm have a long processing time because they go through the operation of determining the correspondence between the previous data and the current data for all points measured from the laser scanner, and the ICP algorithm has a disadvantage in that the rotation error is large.
  • An image matching method for matching an image has a disadvantage in that the execution time is long due to the process of imaging the laser scan data and processing the image.
  • the present invention has been made in order to solve the above problems, to improve the disadvantages such as the increase of the installation time and the execution of artificial markers, which is a problem of the existing method, in the simultaneous location recognition and mapping of the mobile robot, corner point
  • the purpose of the present invention is to provide a system and method for the simultaneous location recognition and mapping of mobile robots using the matching of.
  • the location recognition and mapping system of the mobile robot of the present invention for achieving the above object is a distance information acquisition unit for obtaining the distance information around the moving robot, the distance information obtained from the distance information acquisition unit Corner point detection unit for performing preprocessing, detecting corner points that meet the line and line, and classifying the detected corner points, and angle information for obtaining angle information according to the moving direction of the mobile robot when the mobile robot moves.
  • An acquiring unit for generating first position coordinates by matching the corner point and the angle information, a driving information acquisition unit for acquiring driving information of a mobile robot, and generating a second position coordinate, the first An error processor for processing an error between a position coordinate and the second position coordinate and the error-processed first position coordinate and a second position coordinate Recognizing a position of using the mobile robot, and comprises, based on the recognized position mapping to create the map portion.
  • the distance information acquisition unit may acquire distance information of the surroundings by using a laser scanner installed in the mobile robot.
  • the distance information acquisition unit may convert the acquired distance information in the form of a rectangular coordinate system into a rectangular coordinate system.
  • the corner point detection unit uses the algorithm of any one of RANSAC (Random SAmple Consensus), Split and Merge, and Iterative End Point Fit to obtain the distance information. Can be detected.
  • RANSAC Random SAmple Consensus
  • Split and Merge Split and Merge
  • Iterative End Point Fit to obtain the distance information. Can be detected.
  • the corner point detector may classify the corner point detector into a concave corner point and a convex corner point based on an angle between two adjacent points.
  • the angle information acquisition unit may acquire angle information by using a gyroscope installed in the mobile robot.
  • the corner point matching unit compares the classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot, and compares the current position at the current position.
  • the displacement of the mobile robot up to may be estimated, converted into absolute coordinates using the estimated displacement, and the position of the current mobile robot in the converted absolute coordinates may be calculated.
  • the corner point matching unit compares the corner point classification type detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot, and compares the corner point classification type. The same, and generate a matching pair in which the distance between the corner point and the mobile robot and the angle between the corner point and the mobile robot is closest to each other and match the difference between the angle information at the previous position and the angle information at the current position.
  • the rotation angle of the mobile robot is obtained, the corner point detected at the current position is rotated using the rotation angle, and the position coordinates of the mobile robot at the current position and the position of the mobile robot at the previous position using the matching pair.
  • the coordinates may be calculated and the difference between the calculated position coordinates may be estimated as the movement amount of the mobile robot from the previous position to the current position.
  • the corner point matching unit obtains an estimated position of the mobile robot at the current position in absolute coordinates by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates, and the corner at the estimated position of the mobile robot at the current position.
  • the first coordinate which is the position of the mobile robot of the current position in the absolute coordinate can be calculated.
  • the driving information acquisition unit may calculate the second coordinates which are absolute positions of the current mobile robot by acquiring the driving information of the mobile robot using an encoder installed in the mobile robot.
  • the error processor may correct an error between the first coordinate and the second coordinate by using a Kalman filter.
  • the map preparation unit acquires the position of the mobile robot corrected through the error processing unit, recognizes the position of the mobile robot, and adds by converting the corner point, which is not present on the absolute coordinate, but is detected at the current position into absolute coordinate,
  • the distance information can be used to map the surrounding environment of the mobile robot.
  • the distance information of the mobile robot moves around Obtaining distance information for acquiring, performing preprocessing on the acquired distance information, detecting corner points which are corner points where the lines meet, detecting corner points for classifying the detected corner points, and when moving the robot
  • An angle information obtaining step for obtaining angle information according to a moving direction of the mobile robot, a corner point matching step for generating first position coordinates by matching the corner point and the angle information, and obtaining driving information of the mobile robot;
  • Acquiring driving information for generating a second position coordinate, and for processing an error between the first position coordinate and the second position coordinate Error processing step, and recognizing the position of a mobile using the first position coordinate and a second position coordinate of the error handling robot, and includes a map creation step of creating a map based on the recognized position.
  • the distance information obtaining step may obtain the distance information of the surroundings using a laser scanner installed in the mobile robot.
  • the distance information acquiring step may convert the acquired distance information in a cylindrical coordinate system into a rectangular coordinate system.
  • the corner point detection step may be performed by using any one of RANSAC (Random SAmple Consensus), Split and Merge, and Iterative End Point Fit algorithm for the obtained distance information. Can be detected.
  • RANSAC Random SAmple Consensus
  • Split and Merge Split and Merge
  • Iterative End Point Fit algorithm for the obtained distance information. Can be detected.
  • the corner point detecting step may be classified into a concave corner point and a convex corner point based on an angle between two adjacent points with respect to one corner point.
  • angle information may be obtained using a gyroscope installed in the mobile robot.
  • the corner point matching step compares the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot.
  • the displacement of the mobile robot to the position may be estimated, converted into absolute coordinates using the estimated displacement, and the position of the current mobile robot in the converted absolute coordinates may be calculated.
  • the corner point matching step compares a corner point classification by comparing the classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot. Create a matching pair of the same type, matching the distance between the corner point and the mobile robot and the point where the angle between the corner point and the mobile robot is closest, and the difference between the angle information at the previous position and the angle information at the current position.
  • the rotation angle of the mobile robot is obtained by using the rotation angle, the corner point detected at the current position is rotated using the rotation angle, and the position coordinate of the mobile robot at the current position and the position of the mobile robot at the previous position using the matching pair.
  • the position coordinates may be calculated, and the difference between the calculated position coordinates may be estimated as the movement amount of the mobile robot from the previous position to the current position.
  • the estimated position of the mobile robot at the current position in absolute coordinates is obtained by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates.
  • the first coordinate which is the position of the mobile robot of the current position in the absolute coordinate can be calculated.
  • driving information of the mobile robot may be obtained using an encoder installed in the mobile robot to calculate second coordinates which are absolute positions of the current mobile robot.
  • the error processing step may correct an error between the first coordinate and the second coordinate by using a Kalman filter.
  • the mapping step acquires the position of the mobile robot corrected through the error processing step, recognizes the position of the mobile robot, adds by converting the corner point detected in the current position, although not present in absolute coordinates, Using the distance information, a map of the surrounding environment of the mobile robot may be prepared.
  • the present invention by recognizing the position of the mobile robot using the laser corner point matching and making a map of the surrounding environment, it is possible to reduce the cost and effort required to install the artificial marker in a general indoor environment.
  • simultaneous location recognition and map creation are possible without additional marking, and the execution time can be shortened by reducing the number of points required for scan matching.
  • FIG. 1 is an exemplary diagram visually showing distance information acquired through a laser scanner according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating corner points detected and classified according to an embodiment of the present invention.
  • FIG. 3 is an exemplary diagram for estimating a moving distance and a rotation angle by matching corner points according to an embodiment of the present invention.
  • FIG. 4 is an exemplary diagram for estimating the position and angle of a current mobile robot in absolute coordinates by matching corner points according to an embodiment of the present invention.
  • FIG. 5 is a block diagram illustrating a configuration of an error processing unit according to an exemplary embodiment of the present invention.
  • FIG. 6 is a block diagram illustrating an internal configuration of a location recognition and map preparation device of a mobile robot according to an embodiment of the present disclosure.
  • FIG. 7 is a flowchart illustrating a method for recognizing a location and creating a map of a mobile robot according to an embodiment of the present invention.
  • the location recognition and mapping system of the mobile robot of the present invention performs a preprocessing on the distance information acquisition unit for obtaining distance information around the moving robot, the distance information obtained from the distance information acquisition unit, and lines and lines.
  • a corner point detection unit for detecting a corner point, which is a corner point that meets the corner point, and classifying the detected corner point;
  • an angle information acquisition unit for obtaining angle information according to a moving direction of the mobile robot when the mobile robot moves;
  • Corner point matching unit for generating the first position coordinates by matching the angle information, driving information acquisition unit for generating the second position coordinates by obtaining the driving information of the mobile robot, the first position coordinates and the second position
  • An error processing unit for processing an error of coordinates and the position of the mobile robot by using the error-processed first position coordinates and second position coordinates And it comprises, based on the recognized position mapping to create the map portion.
  • FIG. 1 is an exemplary diagram visually showing distance information acquired through a laser scanner according to an embodiment of the present invention.
  • the distance information 11 obtained through the laser scanner in the present invention is represented in the form of a cylindrical coordinate system, and when converted into the rectangular coordinate system, the distance information from the laser scanner to the obstacle in the form of a visual point. Can be represented.
  • a corner point refers to a corner point where a line meets a line.
  • FIG. 2 is a diagram illustrating corner points detected and classified according to an embodiment of the present invention.
  • the acquired distance information 11 is obtained by using algorithms such as RANSAC (Random SAmple Consensus), Split and Merge, and Iterative End Point Fit.
  • RANSAC Random SAmple Consensus
  • Split and Merge Split and Merge
  • Iterative End Point Fit The point where the line meets is detected as a corner point.
  • the concave corner point 21 and the convex corner point 22 are classified using an angle between two adjacent points about one corner point. This is called a concave corner point 21 because it is recessed with respect to the laser scanner, and is called a convex corner point 22 when it protrudes convexly.
  • FIG. 3 is an exemplary diagram for estimating a moving distance and a rotation angle by matching corner points according to an embodiment of the present invention.
  • FIG. 3 (a) is a diagram showing distance information acquired at a previous point in time and a previously measured image showing corner points detected and classified using the same, and (b) is a distance obtained at a current point in time.
  • FIG. 11 is a diagram showing current measured images showing information and corner points detected and classified using the same.
  • the corner point type 32 detected and classified at a previous point in time the distance 33 between the corner point and the mobile robot and the angle 34 between the corner point and the mobile robot
  • the corner point type detected and classified at the present time the distance between the corner point and the mobile robot and the angle between the corner point and the robot, the corner point types are the same, and the distance and corner between the corner point and the mobile robot.
  • the matching pair 36 matching the point between the point and the approximated angle between the mobile robots is shown, and the rotation angle 37 of the mobile robot can be obtained through the difference of the angle information obtained by using a gyroscope.
  • the position coordinates of the current mobile robot are based on the coordinates of the previous mobile robot.
  • (x 1 ', y 1 ') 40 and the position coordinates (x 1 , y 1 ) 39 of the previous mobile robot are shown, and the difference of these coordinates is estimated as the amount of movement of the mobile robot from the previous time point to the current time point. can do.
  • FIG. 4 is an exemplary diagram for estimating the position and angle of a current mobile robot in absolute coordinates by matching corner points according to an embodiment of the present invention.
  • FIG. 4 shows distance information obtained from an absolute coordinate origin indicating an absolute position and an angle, and an absolute coordinate image showing corner points detected and classified using the same.
  • FIG. 3 shows a previous and current matching image of matching corner points of a viewpoint.
  • the estimated position of the mobile robot at the current point in absolute coordinates can be obtained by adding the estimated movement amount, and the corner point 46 at the estimated position of the mobile robot at the current point in absolute coordinates estimated and the current estimated position on the absolute coordinate
  • the position (x 2 ′, y 2 ′) 44 of the mobile robot at the present time in absolute coordinates can be obtained.
  • FIG. 5 is a block diagram illustrating a configuration of an error processing unit according to an exemplary embodiment of the present invention.
  • the concave corner point 21 and the convex corner point 22 detected and classified by the laser scanner are matched using the gyroscope angle information, thereby moving the current view in absolute coordinates.
  • the position of the robot (x 2 ', y 2 ') can be obtained.
  • the position (x, y, ⁇ ) of the current mobile robot whose error is estimated by using the encoder (x e , y e , ⁇ e ) 52 using the Kalman Filter. 53 can be obtained.
  • FIG. 6 is a block diagram illustrating an internal configuration of a location recognition and map preparation device of a mobile robot according to an embodiment of the present disclosure.
  • the simultaneous location recognition and map preparation apparatus of the mobile robot includes a distance information acquisition unit 61, a corner point detection unit 62, an angle information acquisition unit 63, and a corner point matching unit 64. ), A driving information acquisition unit 65, an error processing unit 66, and a map preparation unit 67.
  • the distance information acquisition unit 61 obtains the distance information 11 of the surrounding environment through a laser scanner installed in the mobile robot, and converts the obtained distance information 11 in the form of a rectangular coordinate system into a rectangular coordinate system.
  • the corner point detector 62 detects a corner point with respect to the distance information 11 obtained from the distance information acquirer 61, and classifies it into a concave corner point 21 and a convex corner point 22 using an angle reference. do.
  • the angle information acquisition unit 63 obtains angle information of the robot through a gyroscope installed in the mobile robot.
  • the corner point matching unit 64 performs matching using the type and distance angle of the corner points detected and classified at the previous position and the corner points detected at the current position, and calculates the displacement of the mobile robot from the previous position to the current position. It estimates, converts to absolute coordinates using the estimated displacement, and obtains the absolute position (x 2 ', y 2 ') 44 of the current mobile robot through partial matching with the absolute coordinates.
  • the corner point matching unit 64 compares the type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot. Estimate the displacement of the mobile robot from the previous position to the current position. Then, the estimated displacement is converted into absolute coordinates, and the position of the current mobile robot in the converted absolute coordinates is calculated.
  • the corner point matching unit 64 includes a classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot. Are compared to each other to generate a matching pair in which the corner point classification types are the same and the distance between the corner point and the mobile robot and the angle between the corner point and the mobile robot are closest to each other are matched. Then, the rotation angle of the mobile robot is obtained through the difference between the angle information at the previous position and the angle information at the current position, and the corner point detected at the current position is rotated using the rotation angle.
  • the position coordinates of the mobile robot at the current position and the position coordinates of the mobile robot at the previous position are calculated, and the difference between the calculated position coordinates is estimated as the amount of movement of the mobile robot from the previous position to the current position. do.
  • the corner point matching unit 64 obtains the estimated position of the mobile robot at the current position in absolute coordinates by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates, By matching the corner point at the estimated position with the corner point already present in the measurement radius of the current estimated position on the absolute coordinate, the first coordinate which is the position of the mobile robot of the current position at the absolute coordinate is calculated.
  • the driving information acquisition unit 65 obtains driving information of the mobile robot through an encoder installed in the mobile robot and estimates the absolute position (x e , y e , ⁇ e ) 52 of the current robot.
  • the driving information acquisition unit 65 may obtain driving information of the mobile robot by using an encoder installed in the mobile robot, and may calculate second coordinates which are absolute positions of the current mobile robot.
  • the position (x, y, ⁇ ) 53 of the current mobile robot whose error is corrected using (x e , y e , ⁇ e ) 52 is obtained.
  • the error processor 66 may include a Kalman filter.
  • the error processor 66 may correct an error between the first coordinate and the second coordinate by using a Kalman filter.
  • the map generator 67 acquires the position (x, y, ⁇ ) 53 of the current mobile robot having corrected the error through the error processor 66 and recognizes the position.
  • the corner points detected and classified at are converted into absolute coordinates and added, and a map is created using the distance information 11 of the laser scanner.
  • the map preparation unit 67 acquires the position of the mobile robot corrected through the error processor 66 to recognize the position of the mobile robot, and does not exist in absolute coordinates but absolute corner points detected at the current position. Converted coordinates can be added, and distance information can be used to create a map of the surrounding environment of the mobile robot.
  • FIG. 7 is a flowchart illustrating a method for recognizing a location and creating a map of a mobile robot according to an embodiment of the present invention.
  • the location recognition and mapping method of the mobile robot first performs a distance information acquisition step for acquiring distance information around the moving robot. S701).
  • preprocessing is performed on the acquired distance information, a corner point that is a corner point where the line meets the line, and a corner point detection step for classifying the detected corner point is performed (S703).
  • an angle information acquisition step for acquiring angle information according to a moving direction of the mobile robot is performed when the mobile robot moves.
  • the corner point matching step for generating the first position coordinates by matching the corner point and the angle information is performed (S707).
  • a driving information acquisition step for acquiring driving information of the mobile robot and generating a second position coordinate is performed.
  • an error processing step for processing an error between the first position coordinate and the second position coordinate is performed.
  • the position of the mobile robot is recognized using the error-processed first position coordinates and the second position coordinates, and a map creation step of creating a map based on the recognized position is performed (S713).
  • peripheral distance information may be acquired using a laser scanner installed in the mobile robot. Then, the acquired distance information in the form of a cylindrical coordinate system may be converted into a rectangular coordinate system.
  • the corner point may be detected using any one of a random SAmple consensus (RANSAC), a split and merge, and an iterative end point fit with respect to the distance information acquired in step S703. Can be.
  • RANSAC random SAmple consensus
  • the concave corner point and the convex corner point may be classified based on an angle between two adjacent points about one corner point.
  • angle information may be acquired using a gyroscope installed in the mobile robot.
  • step S707 the classification point of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot are compared with each other, and thus, from the previous position to the current position. It is possible to estimate the displacement of the mobile robot at, convert to the absolute coordinates using the estimated displacement, and calculate the position of the current mobile robot at the converted absolute coordinates.
  • step S707 the classification type of the corner point detected at the previous position and the corner point detected at the current position, the distance between the corner point and the mobile robot, and the angle between the corner point and the mobile robot are compared with each other, and the corner point classification types are the same. Then, a matching pair is generated in which the distance between the corner point and the mobile robot and the angle between the corner point and the mobile robot are most closely matched.
  • the rotation angle of the mobile robot is obtained based on the difference between the angle information at the previous position and the angle information at the current position.
  • the corner point detected at the current position is rotated using the rotation angle, and the matching pair is used.
  • the position coordinates of the mobile robot at the current position and the position coordinates of the mobile robot at the previous position are calculated.
  • step S707 the difference between the position coordinates calculated in step S707 is estimated as the movement amount of the mobile robot from the previous position to the current position.
  • step S707 the estimated position of the mobile robot at the current position in absolute coordinates is obtained by adding the estimated movement amount to the position of the mobile robot at the previous position in absolute coordinates, and at the estimated position of the mobile robot at the current position.
  • the first coordinate which is the position of the mobile robot of the current position in the absolute coordinate can be calculated.
  • second coordinates which are absolute positions of the current mobile robot may be calculated by obtaining driving information of the mobile robot using an encoder installed in the mobile robot.
  • an error between the first coordinate and the second coordinate may be corrected using the Kalman filter.
  • step S713 the position of the mobile robot is acquired by recognizing the corrected position of the mobile robot, the corner point detected in the current position, which is not present in absolute coordinates, is converted into absolute coordinates and added, and the mobile robot is used using distance information. Create a map of your surroundings.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optics & Photonics (AREA)

Abstract

본 발명의 이동 로봇의 위치 인식 및 지도 작성 시스템은 이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득부, 상기 거리정보 획득부로부터 획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출부, 이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득부, 상기 코너점과 상기 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭부, 이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득부, 상기 제1 위치 좌표와 상기 제2 위치 좌표의 오차를 처리하기 위한 오차 처리부 및 상기 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성부를 포함한다. 본 발명에 의하면, 일반적인 실내 환경에서 인공표식을 설치하는데 드는 비용과 노력을 절감할 수 있는 효과가 있다.

Description

이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법
본 발명은 이동 로봇의 위치를 인식하는 방법 및 시스템에 관한 것으로서, 더욱 상세하게는 자율 이동이 가능한 이동 로봇의 레이저 스캐너를 이용하여 코너점을 검출 및 분류하고, 자이로스코프의 각도정보를 이용하여 코너점을 매칭하며, 오차 보정을 통해 이동 로봇이 동시적으로 위치 인식과 지도 작성을 수행할 수 있도록 한 이동 로봇의 위치 인식 및 지도 작성 방법 및 시스템에 관한 것이다.
오늘날 의료, 서비스, 산업 및 가사 보조 등 다양한 분야에서 이동 로봇의 수요가 크게 증가하고 있으며, 미지의 실내 환경에서의 이동 로봇이 이동하기 위한 경로를 획득하기 위한 지도 생성이 중요시 되고 있고, 동시에 별도의 설치가 필요한 인공 표식이 아닌, 별도의 설치가 필요하지 않은 자연 표식을 이용한 지도 작성 기술 또한 중요시 되고 있다.
이와 같은 위치 인식 및 지도 작성의 중요성에 따라 기존에 많은 연구들이 진행되어 왔으며, 특히 레이저 스캐너를 이용한 연구의 경우 레이저 스캐너가 초음파 및 적외선 센서 등의 다른 거리 센서 보다 정밀하다는 장점을 바탕으로 많은 연구들이 진행되어 왔다.
그러나 기존의 레이저 스캐너를 이용한 기술의 경우, 반사판과 같은 인공 표식의 부가적인 부착과 별도의 시스템 구성이 필요하여 추가적인 비용이 발생하고, 환경의 변화에 대응하기 위해서 추가적인 인공 표식의 설치가 필요하므로, 넓은 환경에서 부가적인 비용이 많이 든다는 단점이 있다.
이러한 이유로 인공 표식을 이용하지 않는 다양한 방법이 연구되어 왔으며, 대표적으로 EKF(Extended Kalman Filter) 및 스캔 매칭을 이용한 동시적 위치 인식 및 지도 작성 방법에 대해서 많은 연구가 이루어져 왔다.
그러나 EKF(Extended Kalman Filter)를 이용한 방법은 로봇과 자연표식 간, 그리고 자연표식 서로 간의 관계를 나타내는 공분산 행렬이 전체 자연 표식 수의 제곱에 비례하여 커지며, 이는 연산량의 증가로 성능이 저하되는 문제점이 있다.
또한, 스캔 매칭을 이용한 방법으로는 대표적으로 ICP 알고리즘과 IDC 알고리즘을 사용한 점대점 스캔 매칭 방법, 레이저 스캔 이미지를 매칭하는 이미지 매칭 방법 등이 있다. 그러나 ICP 알고리즘과 IDC 알고리즘은 레이저 스캐너로부터 측정되는 모든 점에 대해 이전 데이터와 현재 데이터의 대응을 판단하는 연산과정을 거치므로 수행시간이 길고, ICP 알고리즘은 회전 오차가 크다는 단점이 존재하며, 레이저 스캔 이미지를 매칭하는 이미지 매칭 방법은 레이저 스캔 데이터를 이미지화 하고 이미지를 처리하는 과정으로 인해 수행 시간이 길다는 단점이 있다.
이와 같이, 위치 인식을 위한 다양한 방법이 존재하지만, 인공 표식이 필요하거나 필요하지 않은 방법들도 수행 시간이 증가한다는 단점이 존재한다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 기존 방법의 문제점인 인공 표식 설치 및 수행 시간의 증가 등의 단점을 개선하여, 이동 로봇의 동시적 위치 인식 및 지도 작성에 있어, 코너점의 매칭을 활용한 이동 로봇의 동시적 위치 인식과 지도 작성 시스템 및 방법을 제공하는데 그 목적이 있다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
이와 같은 목적을 달성하기 위한 본 발명의 이동 로봇의 위치 인식 및 지도 작성 시스템은 이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득부, 상기 거리정보 획득부로부터 획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출부, 이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득부, 상기 코너점과 상기 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭부, 이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득부, 상기 제1 위치 좌표와 상기 제2 위치 좌표의 오차를 처리하기 위한 오차 처리부 및 상기 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성부를 포함한다.
상기 거리정보 획득부는 상기 이동 로봇에 설치된 레이저 스캐너를 이용하여 주변의 거리 정보를 획득할 수 있다.
상기 거리정보 획득부는 획득한 원통 좌표계 형태의 거리 정보를 직교 좌표계 형태로 변환할 수 있다.
상기 코너점 검출부는 획득한 거리 정보에 대하여 RANSAC(RANdom SAmple Consensus), 스플릿 앤 머지(Split and Merge) 및 이터러티브 엔드 포인트 핏(Iterative End Point Fit) 중 어느 하나의 알고리즘을 이용하여 코너점을 검출할 수 있다.
상기 코너점 검출부는 하나의 코너점을 중심으로 인접한 다른 두 개의 점과의 사이각을 기준으로 하여, 오목 코너점과 볼록 코너점으로 분류할 수 있다.
상기 각도정보 획득부는 상기 이동 로봇에 설치된 자이로스코프를 이용하여 각도 정보를 획득할 수 있다.
상기 코너점 매칭부는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정하고, 추정된 변위를 이용하여 절대 좌표로 변환하고, 변환된 절대 좌표에서의 현재 이동 로봇의 위치를 산출할 수 있다.
상기 코너점 매칭부는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 코너점 분류 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 가장 근사한 점을 매칭시킨 매칭 쌍을 생성하고, 이전 위치에서의 각도 정보와 현재 위치에서의 각도 정보의 차이를 통해 이동 로봇의 회전 각도를 구하고, 상기 회전 각도를 이용하여 현재 위치에서 검출된 코너점을 회전시키고, 상기 매칭쌍을 이용하여 현재 위치에서의 이동 로봇의 위치 좌표와 이전 위치에서의 이동 로봇의 위치 좌표를 산출하고, 산출된 위치 좌표 간의 차이를 이전 위치로부터 현재 위치까지의 이동 로봇의 이동량으로 추정할 수 있다.
상기 코너점 매칭부는 절대 좌표에서의 이전 위치의 이동 로봇의 위치에 추정된 이동량을 더하는 방식으로 절대 좌표에서의 현재 위치의 이동 로봇의 추정 위치를 구하고, 현재 위치의 이동 로봇의 추정 위치에서의 코너점과 절대 좌표 상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점을 매칭시켜서, 절대 좌표에서의 현재 위치의 이동 로봇의 위치인 제1 좌표를 산출할 수 있다.
상기 주행정보 획득부는 상기 이동 로봇에 설치된 엔코더를 이용하여 이동 로봇의 주행 정보를 획득하여 현재 이동 로봇의 절대 위치인 제2 좌표를 산출할 수 있다.
상기 오차 처리부는 칼만 필터를 이용하여 상기 제1 좌표 및 상기 제2 좌표의 오차를 보정할 수 있다.
상기 지도 작성부는 상기 오차 처리부를 통해 보정된 이동 로봇의 위치를 획득하여 이동 로봇의 위치를 인식하고, 절대 좌표 상에 존재하지 않으나 현재 위치에서 검출된 코너점을 절대 좌표로 변환하여 추가하고, 상기 거리 정보를 이용하여 이동 로봇의 주변 환경에 대한 지도를 작성할 수 있다.
본 발명의 이동 로봇의 위치를 인식하고 주변 환경에 대한 지도를 작성하는 이동 로봇의 위치 인식 및 지도 작성 시스템에서의 이동 로봇의 위치 인식 및 지도 작성 방법에서, 이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득 단계, 획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출 단계, 이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득 단계, 상기 코너점과 상기 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭 단계, 이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득 단계, 상기 제1 위치 좌표와 상기 제2 위치 좌표의 오차를 처리하기 위한 오차 처리 단계 및 상기 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성 단계를 포함한다.
상기 거리정보 획득 단계는 상기 이동 로봇에 설치된 레이저 스캐너를 이용하여 주변의 거리 정보를 획득할 수 있다.
상기 거리정보 획득 단계는 획득한 원통 좌표계 형태의 거리 정보를 직교 좌표계 형태로 변환할 수 있다.
상기 코너점 검출 단계는 획득한 거리 정보에 대하여 RANSAC(RANdom SAmple Consensus), 스플릿 앤 머지(Split and Merge) 및 이터러티브 엔드 포인트 핏(Iterative End Point Fit) 중 어느 하나의 알고리즘을 이용하여 코너점을 검출할 수 있다.
상기 코너점 검출 단계는 하나의 코너점을 중심으로 인접한 다른 두 개의 점과의 사이각을 기준으로 하여, 오목 코너점과 볼록 코너점으로 분류할 수 있다.
상기 각도정보 획득 단계는 상기 이동 로봇에 설치된 자이로스코프를 이용하여 각도 정보를 획득할 수 있다.
상기 코너점 매칭 단계는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정하고, 추정된 변위를 이용하여 절대 좌표로 변환하고, 변환된 절대 좌표에서의 현재 이동 로봇의 위치를 산출할 수 있다.
상기 코너점 매칭 단계는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 코너점 분류 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 가장 근사한 점을 매칭시킨 매칭 쌍을 생성하고, 이전 위치에서의 각도 정보와 현재 위치에서의 각도 정보의 차이를 통해 이동 로봇의 회전 각도를 구하고, 상기 회전 각도를 이용하여 현재 위치에서 검출된 코너점을 회전시키고, 상기 매칭쌍을 이용하여 현재 위치에서의 이동 로봇의 위치 좌표와 이전 위치에서의 이동 로봇의 위치 좌표를 산출하고, 산출된 위치 좌표 간의 차이를 이전 위치로부터 현재 위치까지의 이동 로봇의 이동량으로 추정할 수 있다.
상기 코너점 매칭 단계는 절대 좌표에서의 이전 위치의 이동 로봇의 위치에 추정된 이동량을 더하는 방식으로 절대 좌표에서의 현재 위치의 이동 로봇의 추정 위치를 구하고, 현재 위치의 이동 로봇의 추정 위치에서의 코너점과 절대 좌표 상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점을 매칭시켜서, 절대 좌표에서의 현재 위치의 이동 로봇의 위치인 제1 좌표를 산출할 수 있다.
상기 주행정보 획득 단계는 상기 이동 로봇에 설치된 엔코더를 이용하여 이동 로봇의 주행 정보를 획득하여 현재 이동 로봇의 절대 위치인 제2 좌표를 산출할 수 있다.
상기 오차 처리 단계는 칼만 필터를 이용하여 상기 제1 좌표 및 상기 제2 좌표의 오차를 보정할 수 있다.
상기 지도 작성 단계는 상기 오차 처리 단계를 통해 보정된 이동 로봇의 위치를 획득하여 이동 로봇의 위치를 인식하고, 절대 좌표 상에 존재하지 않으나 현재 위치에서 검출된 코너점을 절대 좌표로 변환하여 추가하고, 상기 거리 정보를 이용하여 이동 로봇의 주변 환경에 대한 지도를 작성할 수 있다.
본 발명에 의하면, 레이저 코너점 매칭을 이용하여 이동 로봇의 위치를 인식하고 주변 환경 지도를 작성함으로써, 일반적인 실내 환경에서 인공표식을 설치하는데 드는 비용과 노력을 절감할 수 있는 효과가 있다.
그리고, 별도의 표식없이 동시적 위치 인식 및 지도 작성이 가능하며, 스캔 매칭에 필요한 점의 수를 감소시켜 수행 시간을 단축시킬 수 있는 효과가 있다.
그리고, 주행 거리계의 위치 및 방향 오차를 보정함으로써, 이동 로봇의 위치 및 방향의 정확도를 향상시킬 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 레이저 스캐너를 통해 획득한 거리 정보를 시각적으로 나타낸 예시도이다.
도 2는 본 발명의 일 실시예에 따른 코너점 검출 및 분류된 코너점에 관한 예시도이다.
도 3은 본 발명의 일 실시예에 따른 코너점의 매칭에 의한 이동 거리 및 회전 각도 추정에 대한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 코너점의 매칭에 의한 절대 좌표에서의 현재 이동 로봇의 위치 및 각도 추정에 대한 예시도이다.
도 5는 본 발명의 일 실시예에 따른 오차 처리부에 대한 구성을 보여주는 블록도이다.
도 6은 본 발명의 일 실시예에 따른 이동 로봇의 위치 인식 및 지도 작성 장치의 내부 구성을 보여주는 블록도이다.
도 7은 본 발명의 일 실시예에 따른 이동 로봇의 위치 인식 및 지도 작성 방법을 보여주는 흐름도이다.
본 발명의 이동 로봇의 위치 인식 및 지도 작성 시스템은 이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득부, 상기 거리정보 획득부로부터 획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출부, 이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득부, 상기 코너점과 상기 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭부, 이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득부, 상기 제1 위치 좌표와 상기 제2 위치 좌표의 오차를 처리하기 위한 오차 처리부 및 상기 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성부를 포함한다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 본 발명의 일 실시예에 따른 레이저 스캐너를 통해 획득한 거리 정보를 시각적으로 나타낸 예시도이다.
도 1을 참조하면, 본 발명에서 레이저 스캐너를 통해 획득한 거리 정보(11)가 원통 좌표계의 형태로 나타나며, 이를 직교 좌표계로 변환하면, 레이저 스캐너로부터 장애물까지의 거리 정보를 시각적인 점의 형태로 나타낼 수 있다.
본 발명에서 코너(corner)점이란 선과 선이 만나는 모서리 점을 말한다.
도 2는 본 발명의 일 실시예에 따른 코너점 검출 및 분류된 코너점에 관한 예시도이다.
도 2를 참조하면, 획득한 거리정보(11)에 대해 RANSAC(RANdom SAmple Consensus), 스플릿 앤 머지(Split and Merge) 및 이터러티브 엔드 포인트 핏(Iterative End Point Fit) 등의 알고리즘을 이용하여 선과 선이 만나는 지점을 코너점으로 검출한다.
그리고, 하나의 코너점을 중심으로 인접한 다른 두 개의 점과의 사이각을 이용하여 오목 코너점(21)과 볼록 코너점(22)으로 분류한다. 이는 레이저 스캐너를 기준으로 오목하게 들어갔다고 하여 오목 코너점(21)이라 하고, 볼록하게 튀어나왔다고 하여 볼록 코너점(22)이라고 한다.
도 3은 본 발명의 일 실시예에 따른 코너점의 매칭에 의한 이동 거리 및 회전 각도 추정에 대한 예시도이다.
도 3을 참조하면, (a)는 어떤 한 시점의 이전 시점에 획득한 거리 정보와 이를 이용해 검출 및 분류한 코너점을 나타낸 이전 측정 영상을 나타낸 도면이고, (b)는 현재 시점에 획득한 거리 정보와 이를 이용해 검출 및 분류한 코너점을 나타낸 현재 측정 영상을 나타낸 도면이다.
도 3 (a), (b), (c)에서 이전 시점에 검출 및 분류한 코너점 유형(32), 코너점과 이동 로봇사이의 거리(33) 및 코너점과 이동 로봇 사이의 각도(34)와, 현재 시점에 검출 및 분류한 코너점 유형, 코너점과 이동 로봇사이의 거리 및 코너점과 로봇사이 각도를 비교하면, 코너점 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 근사한 점을 매칭시킨 매칭 쌍(36)이 나타나며, 자이로스코프(Gyroscope)를 이용하여 획득한 각도 정보의 차이를 통해 이동 로봇의 회전각도(37)을 구할 수 있다.
현재 시점에 검출 및 분류한 코너점을 이동 로봇의 회전각도(37)를 이용해 회전시키고, 이전 시점에 검출 및 분류한 코너점과 매칭시키면, 이전 이동 로봇의 좌표를 기준으로 현재 이동 로봇의 위치 좌표(x1',y1')(40)와 이전 이동 로봇의 위치 좌표(x1,y1)(39)가 나타나며, 이 좌표의 차이가 이전 시점으로부터 현재 시점으로의 이동 로봇의 이동량으로 추정할 수 있다.
도 4는 본 발명의 일 실시예에 따른 코너점의 매칭에 의한 절대 좌표에서의 현재 이동 로봇의 위치 및 각도 추정에 대한 예시도이다.
도 4에서 (a)는 절대 위치와 각도를 나타내는 절대 좌표 원점에서 획득한 거리 정보와, 이를 이용해 검출 및 분류한 코너점을 나타낸 절대 좌표 영상을 도시한 도면이고, (b)는 현재 시점과 이전 시점의 코너점을 매칭한 이전과 현재 매칭 영상을 도시한 도면이다.
도 4 (a), (b)를 참조하면, 절대 좌표 원점(0,0)(42)으로부터 절대 좌표에서의 이전 시점의 이동 로봇의 위치(x2,y2)(43)에 현재 시점의 추정 이동량을 더해 절대 좌표에서의 현재 시점의 이동 로봇의 추정 위치를 구할 수 있으며, 추정되는 절대 좌표에서의 현재 시점의 이동 로봇의 추정 위치에서의 코너점(46)과 절대 좌표상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점만을 매칭시켜, 절대 좌표에서의 현재 시점의 이동 로봇의 위치(x2',y2')(44)를 구할 수 있다.
도 5는 본 발명의 일 실시예에 따른 오차 처리부에 대한 구성을 보여주는 블록도이다.
도 5를 참조하면, 본 발명에서는 레이저 스캐너를 통해 검출 및 분류한 오목 코너점(21)과 볼록 코너점(22)을, 자이로스코프의 각도정보를 이용해 매칭함으로써, 절대 좌표에서의 현재 시점의 이동 로봇의 위치(x2',y2')를 구할 수 있다.
절대 좌표에서의 현재 시점의 이동 로봇의 위치(x2',y2')와 자이로스코프의 각도 정보를 이용해 나타낸 현재 이동 로봇의 위치(xl,yll)(51)와, 엔코더(encoder)를 통해 추정한 현재 이동 로봇의 위치(xe,yee)(52)를 칼만 필터(Kalman Filter)를 이용하여, 오차 보정한 현재 이동 로봇의 위치(x,y,θ)(53)를 획득할 수 있다.
도 6은 본 발명의 일 실시예에 따른 이동 로봇의 위치 인식 및 지도 작성 장치의 내부 구성을 보여주는 블록도이다.
도 6을 참조하면, 본 발명의 이동 로봇의 동시적 위치 인식과 지도 작성 장치는 거리정보 획득부(61), 코너점 검출부(62), 각도정보 획득부(63), 코너점 매칭부(64), 주행정보 획득부(65), 오차 처리부(66) 및 지도 작성부(67)를 포함한다.
거리정보 획득부(61)는 이동 로봇에 설치된 레이저 스캐너를 통해 주변 환경의 거리 정보(11)를 획득하고, 획득한 원통 좌표계 형태의 거리 정보(11)를 직교 좌표계 형태로 변환한다.
코너점 검출부(62)는 거리정보 획득부(61)로부터 획득한 거리 정보(11)에 대하여 코너점을 검출하고, 각도 기준을 이용하여 오목 코너점(21)과 볼록 코너점(22)으로 분류한다.
각도정보 획득부(63)는 이동 로봇에 설치된 자이로스코프를 통해 로봇의 각도 정보를 획득한다.
코너점 매칭부(64)는 이전 위치에서 검출 및 분류된 코너점과 현재 위치에서 검출된 코너점의 유형과 거리 각도를 이용하여 매칭을 수행하고, 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정하고, 추정된 변위를 이용하여 절대 좌표로 변환하며, 절대 좌표와의 부분적인 매칭을 통해 현재 이동 로봇의 절대 위치(x2',y2') (44)를 획득한다.
본 발명에서 코너점 매칭부(64)는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정한다. 그리고, 추정된 변위를 이용하여 절대 좌표로 변환하고, 변환된 절대 좌표에서의 현재 이동 로봇의 위치를 산출한다.
보다 상세하게 설명하면, 코너점 매칭부(64)는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 코너점 분류 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 가장 근사한 점을 매칭시킨 매칭 쌍을 생성한다. 그리고, 이전 위치에서의 각도 정보와 현재 위치에서의 각도 정보의 차이를 통해 이동 로봇의 회전 각도를 구하고, 회전 각도를 이용하여 현재 위치에서 검출된 코너점을 회전시킨다. 그리고, 매칭쌍을 이용하여 현재 위치에서의 이동 로봇의 위치 좌표와 이전 위치에서의 이동 로봇의 위치 좌표를 산출하고, 산출된 위치 좌표 간의 차이를 이전 위치로부터 현재 위치까지의 이동 로봇의 이동량으로 추정한다.
그리고, 코너점 매칭부(64)는 절대 좌표에서의 이전 위치의 이동 로봇의 위치에 추정된 이동량을 더하는 방식으로 절대 좌표에서의 현재 위치의 이동 로봇의 추정 위치를 구하고, 현재 위치의 이동 로봇의 추정 위치에서의 코너점과 절대 좌표 상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점을 매칭시켜서, 절대 좌표에서의 현재 위치의 이동 로봇의 위치인 제1 좌표를 산출한다.
주행정보 획득부(65)는 이동 로봇에 설치된 엔코더를 통해 이동 로봇의 주행정보를 획득하여 현재 로봇의 절대 위치(xe,yee)(52)를 추정한다.
다시 말해서, 주행정보 획득부(65)는 이동 로봇에 설치된 엔코더를 이용하여 이동 로봇의 주행 정보를 획득하여, 현재 이동 로봇의 절대 위치인 제2 좌표를 산출할 수 있다.
오차 처리부(66)는 코너점 매칭부(64)를 통해 추정된 이동 로봇의 위치(xl,yll)(51)와 주행정보 획득부(65)를 통해 추정된 이동 로봇의 위치(xe,yee)(52)을 이용해 오차를 보정한 현재 이동 로봇의 위치(x,y,θ)(53)를 획득한다. 본 발명의 일 실시예에서 오차 처리부(66)는 칼만 필터를 포함할 수 있다.
본 발명의 일 실시예에서 오차 처리부(66)는 칼만 필터를 이용하여 제1 좌표 및 제2 좌표의 오차를 보정할 수 있다.
지도 작성부(67)는 오차 처리부(66)를 통해 오차를 보정한 현재 이동 로봇의 위치(x,y,θ)(53)를 획득하여 위치를 인식하고, 절대 좌표상에 존재하지 않지만 현재 시점에서 검출 및 분류된 코너점을 절대 좌표로 변환하여 추가하고, 레이저 스캐너의 거리 정보(11)를 이용하여 지도를 작성한다.
본 발명에서 지도 작성부(67)는 오차 처리부(66)를 통해 보정된 이동 로봇의 위치를 획득하여 이동 로봇의 위치를 인식하고, 절대 좌표 상에 존재하지 않으나 현재 위치에서 검출된 코너점을 절대 좌표로 변환하여 추가하고, 거리 정보를 이용하여 이동 로봇의 주변 환경에 대한 지도를 작성할 수 있다.
도 7은 본 발명의 일 실시예에 따른 이동 로봇의 위치 인식 및 지도 작성 방법을 보여주는 흐름도이다.
도 7을 참조하면, 이동 로봇의 위치 인식 및 지도 작성 시스템에서의 이동 로봇의 위치 인식 및 지도 작성 방법은, 먼저 이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득 단계를 수행한다(S701).
그리고, 획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출 단계를 수행한다(S703).
그리고, 이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득 단계를 수행한다(S705).
그리고, 코너점과 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭 단계를 수행한다(S707).
그리고, 이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득 단계를 수행한다(S709).
그리고, 제1 위치 좌표와 제2 위치 좌표의 오차를 처리하기 위한 오차 처리 단계를 수행한다(S711).
그리고, 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성 단계를 수행한다(S713).
S701 단계에서 이동 로봇에 설치된 레이저 스캐너를 이용하여 주변의 거리 정보를 획득할 수 있다. 그리고, 획득한 원통 좌표계 형태의 거리 정보를 직교 좌표계 형태로 변환할 수 있다.
S703 단계에서 획득한 거리 정보에 대하여 RANSAC(RANdom SAmple Consensus), 스플릿 앤 머지(Split and Merge) 및 이터러티브 엔드 포인트 핏(Iterative End Point Fit) 중 어느 하나의 알고리즘을 이용하여 코너점을 검출할 수 있다.
S703 단계에서 하나의 코너점을 중심으로 인접한 다른 두 개의 점과의 사이각을 기준으로 하여, 오목 코너점과 볼록 코너점으로 분류할 수 있다.
S705 단계에서 이동 로봇에 설치된 자이로스코프를 이용하여 각도 정보를 획득할 수 있다.
S707 단계에서 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정하고, 추정된 변위를 이용하여 절대 좌표로 변환하고, 변환된 절대 좌표에서의 현재 이동 로봇의 위치를 산출할 수 있다.
S707 단계에서 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 코너점 분류 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 가장 근사한 점을 매칭시킨 매칭 쌍을 생성한다.
그리고, S707 단계에서 이전 위치에서의 각도 정보와 현재 위치에서의 각도 정보의 차이를 통해 이동 로봇의 회전 각도를 구하고, 회전 각도를 이용하여 현재 위치에서 검출된 코너점을 회전시키고, 매칭쌍을 이용하여 현재 위치에서의 이동 로봇의 위치 좌표와 이전 위치에서의 이동 로봇의 위치 좌표를 산출한다.
그리고, S707 단계에서 산출된 위치 좌표 간의 차이를 이전 위치로부터 현재 위치까지의 이동 로봇의 이동량으로 추정한다.
본 발명에서 S707 단계에서 절대 좌표에서의 이전 위치의 이동 로봇의 위치에 추정된 이동량을 더하는 방식으로 절대 좌표에서의 현재 위치의 이동 로봇의 추정 위치를 구하고, 현재 위치의 이동 로봇의 추정 위치에서의 코너점과 절대 좌표 상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점을 매칭시켜서, 절대 좌표에서의 현재 위치의 이동 로봇의 위치인 제1 좌표를 산출할 수 있다.
S709 단계에서 이동 로봇에 설치된 엔코더를 이용하여 이동 로봇의 주행 정보를 획득하여 현재 이동 로봇의 절대 위치인 제2 좌표를 산출할 수 있다.
S711 단계에서 칼만 필터를 이용하여 제1 좌표 및 제2 좌표의 오차를 보정할 수 있다.
S713 단계에서는 보정된 이동 로봇의 위치를 획득하여 이동 로봇의 위치를 인식하고, 절대 좌표 상에 존재하지 않으나 현재 위치에서 검출된 코너점을 절대 좌표로 변환하여 추가하고, 거리 정보를 이용하여 이동 로봇의 주변 환경에 대한 지도를 작성할 수 있다.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.

Claims (24)

  1. 이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득부;
    상기 거리정보 획득부로부터 획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출부;
    이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득부;
    상기 코너점과 상기 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭부;
    이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득부;
    상기 제1 위치 좌표와 상기 제2 위치 좌표의 오차를 처리하기 위한 오차 처리부; 및
    상기 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성부를 포함하는 이동 로봇의 위치 인식 및 지도 작성 시스템.
  2. 청구항 1에 있어서,
    상기 거리정보 획득부는 상기 이동 로봇에 설치된 레이저 스캐너를 이용하여 주변의 거리 정보를 획득하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템.
  3. 청구항 2에 있어서,
    상기 거리정보 획득부는 획득한 원통 좌표계 형태의 거리 정보를 직교 좌표계 형태로 변환하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템.
  4. 청구항 1에 있어서,
    상기 코너점 검출부는 획득한 거리 정보에 대하여 RANSAC(RANdom SAmple Consensus), 스플릿 앤 머지(Split and Merge) 및 이터러티브 엔드 포인트 핏(Iterative End Point Fit) 중 어느 하나의 알고리즘을 이용하여 코너점을 검출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템.
  5. 청구항 1에 있어서,
    상기 코너점 검출부는 하나의 코너점을 중심으로 인접한 다른 두 개의 점과의 사이각을 기준으로 하여, 오목 코너점과 볼록 코너점으로 분류하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템.
  6. 청구항 1에 있어서,
    상기 각도정보 획득부는 상기 이동 로봇에 설치된 자이로스코프를 이용하여 각도 정보를 획득하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템.
  7. 청구항 1에 있어서,
    상기 코너점 매칭부는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정하고, 추정된 변위를 이용하여 절대 좌표로 변환하고, 변환된 절대 좌표에서의 현재 이동 로봇의 위치를 산출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템.
  8. 청구항 7에 있어서,
    상기 코너점 매칭부는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 코너점 분류 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 가장 근사한 점을 매칭시킨 매칭 쌍을 생성하고, 이전 위치에서의 각도 정보와 현재 위치에서의 각도 정보의 차이를 통해 이동 로봇의 회전 각도를 구하고, 상기 회전 각도를 이용하여 현재 위치에서 검출된 코너점을 회전시키고, 상기 매칭쌍을 이용하여 현재 위치에서의 이동 로봇의 위치 좌표와 이전 위치에서의 이동 로봇의 위치 좌표를 산출하고, 산출된 위치 좌표 간의 차이를 이전 위치로부터 현재 위치까지의 이동 로봇의 이동량으로 추정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템.
  9. 청구항 8에 있어서,
    상기 코너점 매칭부는 절대 좌표에서의 이전 위치의 이동 로봇의 위치에 추정된 이동량을 더하는 방식으로 절대 좌표에서의 현재 위치의 이동 로봇의 추정 위치를 구하고, 현재 위치의 이동 로봇의 추정 위치에서의 코너점과 절대 좌표 상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점을 매칭시켜서, 절대 좌표에서의 현재 위치의 이동 로봇의 위치인 제1 좌표를 산출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템.
  10. 청구항 9에 있어서,
    상기 주행정보 획득부는 상기 이동 로봇에 설치된 엔코더를 이용하여 이동 로봇의 주행 정보를 획득하여 현재 이동 로봇의 절대 위치인 제2 좌표를 산출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템.
  11. 청구항 10에 있어서,
    상기 오차 처리부는 칼만 필터를 이용하여 상기 제1 좌표 및 상기 제2 좌표의 오차를 보정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템.
  12. 청구항 1에 있어서,
    상기 지도 작성부는 상기 오차 처리부를 통해 보정된 이동 로봇의 위치를 획득하여 이동 로봇의 위치를 인식하고, 절대 좌표 상에 존재하지 않으나 현재 위치에서 검출된 코너점을 절대 좌표로 변환하여 추가하고, 상기 거리 정보를 이용하여 이동 로봇의 주변 환경에 대한 지도를 작성하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 시스템.
  13. 이동 로봇의 위치를 인식하고 주변 환경에 대한 지도를 작성하는 이동 로봇의 위치 인식 및 지도 작성 시스템에서의 이동 로봇의 위치 인식 및 지도 작성 방법에서,
    이동 로봇이 이동하는 주변의 거리 정보를 획득하기 위한 거리정보 획득 단계;
    획득한 거리 정보에 대하여 전처리를 수행하고, 선과 선이 만나는 모서리 점인 코너점을 검출하고, 검출된 코너점을 분류하기 위한 코너점 검출 단계;
    이동 로봇의 이동 시에 이동 로봇의 진행 방향에 따른 각도 정보를 획득하기 위한 각도정보 획득 단계;
    상기 코너점과 상기 각도 정보를 매칭하여 제1 위치 좌표를 생성하기 위한 코너점 매칭 단계;
    이동 로봇의 주행 정보를 획득하여 제2 위치 좌표를 생성하기 위한 주행정보 획득 단계;
    상기 제1 위치 좌표와 상기 제2 위치 좌표의 오차를 처리하기 위한 오차 처리 단계; 및
    상기 오차 처리된 제1 위치 좌표와 제2 위치 좌표를 이용하여 이동 로봇의 위치를 인식하고, 인식한 위치를 기반으로 지도를 작성하는 지도 작성 단계를 포함하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  14. 청구항 13에 있어서,
    상기 거리정보 획득 단계는 상기 이동 로봇에 설치된 레이저 스캐너를 이용하여 주변의 거리 정보를 획득하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  15. 청구항 14에 있어서,
    상기 거리정보 획득 단계는 획득한 원통 좌표계 형태의 거리 정보를 직교 좌표계 형태로 변환하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  16. 청구항 13에 있어서,
    상기 코너점 검출 단계는 획득한 거리 정보에 대하여 RANSAC(RANdom SAmple Consensus), 스플릿 앤 머지(Split and Merge) 및 이터러티브 엔드 포인트 핏(Iterative End Point Fit) 중 어느 하나의 알고리즘을 이용하여 코너점을 검출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  17. 청구항 13에 있어서,
    상기 코너점 검출 단계는 하나의 코너점을 중심으로 인접한 다른 두 개의 점과의 사이각을 기준으로 하여, 오목 코너점과 볼록 코너점으로 분류하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  18. 청구항 13에 있어서,
    상기 각도정보 획득 단계는 상기 이동 로봇에 설치된 자이로스코프를 이용하여 각도 정보를 획득하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  19. 청구항 13에 있어서,
    상기 코너점 매칭 단계는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여 이전 위치에서 현재 위치까지의 이동 로봇의 변위를 추정하고, 추정된 변위를 이용하여 절대 좌표로 변환하고, 변환된 절대 좌표에서의 현재 이동 로봇의 위치를 산출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  20. 청구항 19에 있어서,
    상기 코너점 매칭 단계는 이전 위치에서 검출된 코너점과 현재 위치에서 검출된 코너점의 분류 유형, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도를 서로 비교하여, 코너점 분류 유형이 동일하고, 코너점과 이동 로봇 사이의 거리 및 코너점과 이동 로봇 사이의 각도가 가장 근사한 점을 매칭시킨 매칭 쌍을 생성하고, 이전 위치에서의 각도 정보와 현재 위치에서의 각도 정보의 차이를 통해 이동 로봇의 회전 각도를 구하고, 상기 회전 각도를 이용하여 현재 위치에서 검출된 코너점을 회전시키고, 상기 매칭쌍을 이용하여 현재 위치에서의 이동 로봇의 위치 좌표와 이전 위치에서의 이동 로봇의 위치 좌표를 산출하고, 산출된 위치 좌표 간의 차이를 이전 위치로부터 현재 위치까지의 이동 로봇의 이동량으로 추정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  21. 청구항 20에 있어서,
    상기 코너점 매칭 단계는 절대 좌표에서의 이전 위치의 이동 로봇의 위치에 추정된 이동량을 더하는 방식으로 절대 좌표에서의 현재 위치의 이동 로봇의 추정 위치를 구하고, 현재 위치의 이동 로봇의 추정 위치에서의 코너점과 절대 좌표 상에서 현재 추정 위치의 측정 반경에 이미 존재하는 코너점을 매칭시켜서, 절대 좌표에서의 현재 위치의 이동 로봇의 위치인 제1 좌표를 산출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  22. 청구항 21에 있어서,
    상기 주행정보 획득 단계는 상기 이동 로봇에 설치된 엔코더를 이용하여 이동 로봇의 주행 정보를 획득하여 현재 이동 로봇의 절대 위치인 제2 좌표를 산출하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  23. 청구항 22에 있어서,
    상기 오차 처리 단계는 칼만 필터를 이용하여 상기 제1 좌표 및 상기 제2 좌표의 오차를 보정하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  24. 청구항 13에 있어서,
    상기 지도 작성 단계는 상기 오차 처리 단계를 통해 보정된 이동 로봇의 위치를 획득하여 이동 로봇의 위치를 인식하고, 절대 좌표 상에 존재하지 않으나 현재 위치에서 검출된 코너점을 절대 좌표로 변환하여 추가하고, 상기 거리 정보를 이용하여 이동 로봇의 주변 환경에 대한 지도를 작성하는 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.
PCT/KR2016/013671 2016-01-25 2016-11-25 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법 WO2017131334A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160008642A KR101775114B1 (ko) 2016-01-25 2016-01-25 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법
KR10-2016-0008642 2016-01-25

Publications (1)

Publication Number Publication Date
WO2017131334A1 true WO2017131334A1 (ko) 2017-08-03

Family

ID=59398066

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/013671 WO2017131334A1 (ko) 2016-01-25 2016-11-25 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR101775114B1 (ko)
WO (1) WO2017131334A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108332758A (zh) * 2018-01-26 2018-07-27 上海思岚科技有限公司 一种移动机器人的走廊识别方法及装置
CN110868269A (zh) * 2020-01-19 2020-03-06 上海高仙自动化科技发展有限公司 一种实现传感器之间同步的确定方法、装置、电子设备及存储介质
CN112446916A (zh) * 2019-09-02 2021-03-05 北京京东乾石科技有限公司 确定无人车停靠位的方法和装置
US20220198688A1 (en) * 2019-04-17 2022-06-23 Megvii (Beijing) Technology Co., Ltd. Laser coarse registration method, device, mobile terminal and storage medium
CN115206130A (zh) * 2022-07-12 2022-10-18 合众新能源汽车有限公司 一种车位检测方法、***、终端及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962647B2 (en) 2016-11-30 2021-03-30 Yujin Robot Co., Ltd. Lidar apparatus based on time of flight and moving object
US11579298B2 (en) 2017-09-20 2023-02-14 Yujin Robot Co., Ltd. Hybrid sensor and compact Lidar sensor
US11874399B2 (en) 2018-05-16 2024-01-16 Yujin Robot Co., Ltd. 3D scanning LIDAR sensor
KR102121458B1 (ko) * 2018-12-28 2020-06-10 한국생산기술연구원 자동 충전을 위한 로봇 청소기의 경로 추정 방법 및 이를 이용한 로봇 청소기
KR102230362B1 (ko) * 2019-07-04 2021-03-22 경북대학교 산학협력단 직사각형 맵 분해 기반의 청소 로봇 장치 및 이를 이용한 커버리지 경로 계획 방법
CN113899376B (zh) * 2020-07-06 2023-10-20 苏州宝时得电动工具有限公司 自移动设备地图生成方法、***和自动工作***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834761B1 (ko) * 2005-11-23 2008-06-05 삼성전자주식회사 이동 로봇의 자기 위치 인식 방법 및 장치
JP4409035B2 (ja) * 2000-03-22 2010-02-03 本田技研工業株式会社 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体
KR20100049325A (ko) * 2008-11-03 2010-05-12 삼성전자주식회사 물체의 특징 정보를 추출하기 위한 장치와 방법, 및 이를 이용한 특징 지도 생성 장치와 방법
KR101272422B1 (ko) * 2012-02-29 2013-06-07 부산대학교 산학협력단 레이저 스캐너와 인공표식 매칭을 이용한 위치측정장치 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100877072B1 (ko) * 2007-06-28 2009-01-07 삼성전자주식회사 이동 로봇을 위한 맵 생성 및 청소를 동시에 수행하는 방법및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4409035B2 (ja) * 2000-03-22 2010-02-03 本田技研工業株式会社 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体
KR100834761B1 (ko) * 2005-11-23 2008-06-05 삼성전자주식회사 이동 로봇의 자기 위치 인식 방법 및 장치
KR20100049325A (ko) * 2008-11-03 2010-05-12 삼성전자주식회사 물체의 특징 정보를 추출하기 위한 장치와 방법, 및 이를 이용한 특징 지도 생성 장치와 방법
KR101272422B1 (ko) * 2012-02-29 2013-06-07 부산대학교 산학협력단 레이저 스캐너와 인공표식 매칭을 이용한 위치측정장치 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KIM, TAE-HYEONG ET AL.: "Localization of Mobile Robot Based on Laser Comer Pattern", CONFERENCE ON INFORMATION AND CONTROL SYSTEMS, 23 October 2015 (2015-10-23), pages 120 - 121 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108332758A (zh) * 2018-01-26 2018-07-27 上海思岚科技有限公司 一种移动机器人的走廊识别方法及装置
CN108332758B (zh) * 2018-01-26 2021-07-09 上海思岚科技有限公司 一种移动机器人的走廊识别方法及装置
US20220198688A1 (en) * 2019-04-17 2022-06-23 Megvii (Beijing) Technology Co., Ltd. Laser coarse registration method, device, mobile terminal and storage medium
CN112446916A (zh) * 2019-09-02 2021-03-05 北京京东乾石科技有限公司 确定无人车停靠位的方法和装置
CN110868269A (zh) * 2020-01-19 2020-03-06 上海高仙自动化科技发展有限公司 一种实现传感器之间同步的确定方法、装置、电子设备及存储介质
CN110868269B (zh) * 2020-01-19 2020-07-31 上海高仙自动化科技发展有限公司 一种实现传感器之间同步的确定方法、装置、电子设备及存储介质
CN115206130A (zh) * 2022-07-12 2022-10-18 合众新能源汽车有限公司 一种车位检测方法、***、终端及存储介质
CN115206130B (zh) * 2022-07-12 2023-07-18 合众新能源汽车股份有限公司 一种车位检测方法、***、终端及存储介质

Also Published As

Publication number Publication date
KR20170088583A (ko) 2017-08-02
KR101775114B1 (ko) 2017-09-05

Similar Documents

Publication Publication Date Title
WO2017131334A1 (ko) 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법
WO2021112462A1 (ko) 2차원 영상의 픽셀별 3차원 좌표값 추정 방법 및 이를 이용한 자율주행정보 추정 방법
WO2019225817A1 (ko) 차량의 위치 추정 장치, 차량의 위치 추정 방법, 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능 기록매체
WO2011052827A1 (ko) 이동 로봇의 슬립 감지 장치 및 방법
JP4886302B2 (ja) 移動体の位置の推定及び地図の生成装置とその方法、並びにその装置を制御するコンピュータプログラムを保存するコンピュータで読み取り可能な記録媒体
WO2020067751A1 (ko) 이종 센서 간의 데이터 융합 장치 및 방법
WO2020075954A1 (ko) 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법
WO2021006441A1 (ko) 이동식 도면화 시스템을 이용한 도로 표지 정보 수집 방법
US20110098923A1 (en) Method of and apparatus for creating map of artificial marks, and method and apparatus for measuring position of moving object using the map
WO2020235734A1 (ko) 모노카메라를 이용한 자율주행 차량의 거리 및 위치 추정 방법
WO2018124337A1 (ko) 적응적 관심영역 및 탐색창을 이용한 객체 검출 방법 및 장치
WO2021235682A1 (en) Method and device for performing behavior prediction by using explainable self-focused attention
WO2018066754A1 (ko) 라이다 센서를 이용한 차량의 자세 추정 방법
WO2021075772A1 (ko) 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치
WO2016206108A1 (en) System and method for measuring a displacement of a mobile platform
WO2021221334A1 (ko) Gps정보 및 라이다 신호를 기초로 형성되는 컬러 맵 생성 장치 및 그 제어방법
WO2021158062A1 (ko) 이동수단의 위치인식방법 및 위치인식시스템
WO2018159902A1 (ko) 복수의 라이다 센서 캘리브레이션 방법 및 장치
KR20120103943A (ko) 로봇의 위치 인식 장치 및 방법
WO2021045445A1 (ko) 운전면허시험 처리 장치
WO2015102212A1 (ko) 레이저 거리 센서에 의해 측정된 측정 거리의 거리 유형을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법
WO2020067712A1 (ko) 지질 요소의 경계면 표시 장치를 사용한 현장 3d 지질도 매핑 시스템 및 방법
WO2020171527A1 (ko) 이동형 로봇 및 그것의 로봇 암 정렬 방법
WO2019132504A1 (ko) 목적지 안내 장치 및 방법
WO2016035924A1 (ko) 달리기 감지 방법 및 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16888310

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16888310

Country of ref document: EP

Kind code of ref document: A1