KR100901311B1 - Autonomous mobile platform - Google Patents

Autonomous mobile platform Download PDF

Info

Publication number
KR100901311B1
KR100901311B1 KR1020090021824A KR20090021824A KR100901311B1 KR 100901311 B1 KR100901311 B1 KR 100901311B1 KR 1020090021824 A KR1020090021824 A KR 1020090021824A KR 20090021824 A KR20090021824 A KR 20090021824A KR 100901311 B1 KR100901311 B1 KR 100901311B1
Authority
KR
South Korea
Prior art keywords
information
laser scanner
main body
scanner
distance
Prior art date
Application number
KR1020090021824A
Other languages
Korean (ko)
Inventor
채정숙
김정환
김준
최덕선
지태영
박용운
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020090021824A priority Critical patent/KR100901311B1/en
Application granted granted Critical
Publication of KR100901311B1 publication Critical patent/KR100901311B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

An autonomous mobile platform is provided to allow a user to make a 3D modeling with a few sensors by installing a first scanner and a camera on the same mount. A main body(110) includes wheels for moving, a first scanner scans the front of the main body by a certain distance and generates first information. The camera(130) takes a picture of the front image of the main body and generates the second information, and the mount(140) on which the first scanner and camera are installed. The mount turns the first saner and the camera so that it control the direction of them, and a controller self-controls of the main body based on the first and the second information.

Description

자율이동 플랫폼{AUTONOMOUS MOBILE PLATFORM}Autonomous Mobile Platform {AUTONOMOUS MOBILE PLATFORM}

본 발명은 복수의 센서들을 이용하여 스스로 주변 상황을 인식하고 판단하여 이동할 수 있는 자율이동 플랫폼 및 이의 이동 제어방법에 관한 것이다.The present invention relates to an autonomous platform and a movement control method thereof that can recognize and determine the surrounding situation by itself using a plurality of sensors.

첨단 과학기술의 개발 및 발전으로 인해 다양한 기술들이 군사용 분야에 적용되고 있으며, 특히, 센서 및 컴퓨터 하드웨어의 발전은 전투체계의 무인화를 가능하게 만들고 있다. Due to the development and development of advanced science and technology, various technologies have been applied to the military field, and in particular, the development of sensors and computer hardware makes the combat system unmanned.

선진국에서는 이미 군사용 로봇에 대한 개발에 큰 관심을 가지고 있으며, 특히 미국은 미래전투체계(Future Combat System)에 무인차량을 배치하기 위해서 국방분야의 무인화에 대한 연구를 진행하고 있다. 국내에서도 무인 차량에 대한 연구가 활발하게 진행되고 있으며 국방분야에서도 다양한 무인체계에 대한 개발이 진행 중에 있다. Developed countries already have great interest in the development of military robots, and the United States, in particular, is conducting research on the unmanned military sector in order to deploy unmanned vehicles in the Future Combat System. Unmanned vehicles are being actively researched in Korea, and various unmanned systems are being developed in the defense sector.

무인화 분야에서의 기술개발 방향을 살펴보면 감시정찰 및 타격, 지휘통제, 폭발물 탐지/제거 등의 임무 기능을 무인 차량, 즉 자율이동 플랫폼이 수행하게 되며, 개별 플랫폼의 체계는 광대역 통신망으로 연동되어 다수의 플랫폼이 가시선/비 가시선 환경에서 체계적인 임무 수행이 가능하게 된다.When looking at the direction of technology development in the unmanned field, unmanned vehicles, or autonomous mobile platforms, perform mission functions such as surveillance, reconnaissance, hitting, command control, and explosive detection / removal. Platforms will be able to perform systematic tasks in the line of sight / non-visible environment.

자율이동이라 함은 인간의 개입 없이 사람의 두뇌 역할을 하는 컴퓨터와 눈의 역할을 센서들을 이용하여 스스로 주변 상황을 인식하고 판단하여 이동하는 것을 의미한다. 이러한 자율이동이 가능하게 하려면 무엇보다 자율이동 플랫폼의 이동 경로의 지형과 상황을 인식할 수 있는 정확한 감지 수단이 필요하다. 이러한 감지 수단으로서 여러 가지 종류의 센서들이 사용되고 있으며, 자율 이동을 최적화시킬 수 있는 센서들의 채택, 조합, 및 배치 등에 대한 다양한 연구가 이루어지고 있다.Autonomous movement refers to the movement of the computer and the eyes, which act as the human brain and humans, using sensors to recognize and judge the surrounding environment without human intervention. In order to enable such autonomous movement, an accurate sensing means capable of recognizing the terrain and the situation of the movement path of the autonomous platform is needed. Various kinds of sensors are used as the sensing means, and various studies have been made on the adoption, combination, and placement of sensors capable of optimizing autonomous movement.

본 발명은 서로 다른 특성을 가진 센서들을 가능한 적은 수로 배치하여 최적의 3차원 공간 모델링이 가능한 자율이동 플랫폼을 제공함과 아울러, 3차원 공간 모델링을 기초로 자율이동 플랫폼의 이동을 효율적으로 제어하기 위한 제어방법을 제공하기 위한 것이다.The present invention provides an autonomous platform capable of optimal 3D space modeling by arranging as few sensors with different characteristics as possible, and also controls to efficiently control movement of the autonomous platform based on 3D space modeling. It is to provide a method.

상기와 같은 목적을 달성하기 위하여 본 발명은 지면을 이동할 수 있도록 바퀴를 구비하는 본체와; 상기 본체 전방의 일정 거리까지 스캐닝하여 제1정보를 생성하는 제1스캐너와; 상기 본체의 전방 영상을 촬영하여 제2정보를 생성하기 위한 카메라와; 상기 제1스캐너와 카메라가 장착되며, 상기 제1스캐너와 카메라의 지향 방향을 조절할 수 있도록 상기 제1스캐너와 카메라를 회전 구동시키는 마운트; 및 상기 제1 및 제2정보를 근거로 상기 본체의 자율 이동을 제어하는 제어부를 포함하는 자율이동 플랫폼을 개시한다.In order to achieve the above object, the present invention includes a main body having a wheel to move the ground; A first scanner configured to generate first information by scanning to a predetermined distance in front of the main body; A camera for photographing the front image of the main body to generate second information; A mount configured to mount the first scanner and the camera and to rotate the first scanner and the camera so as to adjust a direction in which the first scanner and the camera are directed; And a controller for controlling autonomous movement of the main body based on the first and second information.

상기 제1스캐너는 본체 전방을 향하여 레이저 빔을 조사하는 2D 레이저 스캐너이며, 상기 제1정보는 상기 레이저 빔이 도달하는 대상까지의 거리 정보를 포함할 수 있다.The first scanner is a 2D laser scanner for irradiating a laser beam toward the front of the main body, and the first information may include distance information to a target that the laser beam reaches.

상기 카메라는 제1 및 제2촬영부를 구비하는 스테레오 카메라이며, 상기 제2정보는 스테레오 매칭을 통해 대상의 촬영대상의 위치 정보를 추정할 수 있도록 동일 촬영대상에 대하여 상기 제1 및 제2촬영부가 각각 촬영한 한 쌍의 영상 정보일 수 있다.The camera is a stereo camera having a first and a second recording unit, wherein the second information is the first and second recording unit for the same object to be estimated so as to estimate the position information of the object to be photographed through stereo matching Each photographed pair may be image information.

상기 제어부는 상기 제1 및 제2정보를 융합하여 3차원의 월드 모델을 생성하는 월드 모델링부; 및 상기 월드 모델을 근거로 상기 본체의 자율 이동에 대한 경로 계획을 형성하는 경로계획 생성부를 포함할 수 있다.The control unit comprises a world modeling unit for generating a three-dimensional world model by fusing the first and second information; And it may include a route plan generation unit for forming a route plan for the autonomous movement of the main body based on the world model.

상기 본체에는 지면과 평행한 방향으로 전방을 스캐닝하여 제3정보를 생성하는 제2스캐너가 추가적으로 구비될 수 있다. 또한, 상기 본체에는 상기 제1스캐너의 스캐닝 거리보다 원거리까지 스캐닝하여 제4정보를 생성하는 제3스캐너가 추가적으로 구비될 수 있다.The main body may further include a second scanner that scans the front in a direction parallel to the ground to generate third information. The main body may further include a third scanner that generates fourth information by scanning farther than the scanning distance of the first scanner.

한편, 본 발명은 자율이동 플랫폼으로부터 일정 거리까지 스캐닝하여 제1정보를 생성하고, 상기 자율이동 플랫폼의 전방 영상을 촬영하여 제2정보를 생성하는 단계와; 상기 제1 및 제2정보를 융합하여 3차원의 월드 모델을 생성하는 단계와; 상기 월드 모델을 근거로 상기 자율이동 플랫폼의 자율이동에 대한 경로 계획을 생성하는 단계; 및 상기 경로 계획에 따라 상기 자율이동 플랫폼의 자율이동을 제어하는 단계를 포함하는 자율이동 플랫폼의 이동 제어방법을 개시한다.On the other hand, the present invention includes the steps of generating a first information by scanning a distance from the autonomous platform, and generating a second information by photographing the front image of the autonomous platform; Fusing the first and second information to generate a three-dimensional world model; Generating a route plan for autonomous movement of the autonomous platform based on the world model; And controlling the autonomous movement of the autonomous platform in accordance with the route plan.

상기 월드 모델의 생성단계는 상기 제1 및 제2정보에 항법 센서에 의해 획득된 위치 정보를 결합하여 포인트 분포 지도를 생성하는 단계와; 상기 포인트 분포 지도의 포인트들을 연결하여 복수의 그리드로 표현하는 단계를 포함할 수 있다.The generating of the world model may include: generating a point distribution map by combining position information obtained by the navigation sensor with the first and second information; And connecting the points of the point distribution map to represent a plurality of grids.

상기 경로 계획은 3D 레이저 스캐너에 의해 획득된 정보를 근거로 생성되는 원거리 경로 계획과, 상기 제1 및 제2정보를 근거로 생성되는 근거리 경로 계획을 포함할 수 있다.The path plan may include a far path plan generated based on information obtained by the 3D laser scanner, and a near path plan generated based on the first and second information.

본 발명은 제1스캐너와 카메라를 동일 마운트에 장착시키고, 제1스캐너와 카메라를 회전 구동시켜 적은 수의 센서로도 많은 갯수의 센서를 적용한 것과 같은 효과를 발휘하며, 이를 기초로 최적의 공간 모델링이 가능한 자율이동 플랫폼을 제공한다.According to the present invention, the first scanner and the camera are mounted on the same mount, and the first scanner and the camera are rotated to achieve the same effect as applying a large number of sensors with a small number of sensors. This provides a viable autonomous platform.

또한, 본 발명은 자율 이동 플랫폼이 야지 및 험지를 신속하게 이동할 때 갑자기 출현하는 이동 장애물을 신속하게 회피할 수 있도록 사각지역 없이 자율 이동 플랫폼 전방의 전 영역을 센싱할 수 있는 센서의 배치 구조를 제공한다.In addition, the present invention provides an arrangement structure of the sensor that can sense the entire area in front of the autonomous mobile platform without blind spots so that the autonomous mobile platform can quickly avoid moving obstacles that suddenly appear when moving quickly to the field and rough terrain. do.

또한, 본 발명은 센서들로부터 획득한 데이터를 근거로 월드 모델을 생성하고 이를 기초로 한 경로 계획에 따라 자율이동 플랫폼의 이동을 제어하는 효율적인 자율이동 플랫폼의 제어방법을 제공한다.In addition, the present invention provides an efficient method for controlling an autonomous mobile platform for generating a world model based on the data obtained from the sensors and controlling the movement of the autonomous mobile platform according to a route plan based on the same.

이하, 본 발명과 관련된 자율이동 플랫폼 및 이의 이동 제어방법에 대하여 도면을 참조하여 보다 상세하게 설명한다.Hereinafter, the autonomous platform and the movement control method thereof according to the present invention will be described in more detail with reference to the accompanying drawings.

도 1 및 도 2는 본 발명의 일실시예와 관련된 자율이동 플랫폼의 사시도와 정면도이다.1 and 2 are a perspective view and a front view of the autonomous platform according to an embodiment of the present invention.

본 발명과 관련된 자율이동 플랫폼은 본체(110), 제1스캐너(120), 카메라(130), 및 마운트(140), 및 제어부(150, 도 5 참조)를 포함한다.The autonomous platform associated with the present invention includes a main body 110, a first scanner 120, a camera 130, a mount 140, and a controller 150 (see FIG. 5).

본체(110)는 자율이동 플랫폼이 지면을 이동할 수 있도록 복수의 바퀴(111)들을 구비한다. 바퀴(111)들은 자율이동 플랫폼이 야지 및 험지에서 주행할 수 있 도록 본체(110)에 회전 가능하게 연결된 암에 연결될 수 있다.The main body 110 includes a plurality of wheels 111 so that the autonomous platform can move the ground. The wheels 111 may be connected to an arm rotatably connected to the main body 110 to allow the autonomous platform to travel in the field and the hum.

본체(110)에는 자율이동 플랫폼의 자율 이동을 제어하는 제어부(150)와, 무선통신을 위한 무선통신모듈 등이 전자부품의 형태로 내장된다.The main body 110 includes a controller 150 for controlling autonomous movement of the autonomous mobile platform and a wireless communication module for wireless communication in the form of electronic components.

제1스캐너(120)는 본체 전방의 일정 거리까지 스캐닝하여 제1정보를 생성한다. 제1스캐너(120)는 본체(110)의 전방을 향하여 레이저 빔을 조사하여 대상 물체로부터 반사된 레이저를 수광하는 2D 레이저 스캐너의 형태로 구현될 수 있다. 이러한 경우, 제1정보는 레이저빔이 도달하는 대상까지의 거리 정보의 형태를 갖는다. The first scanner 120 scans to a predetermined distance in front of the main body to generate first information. The first scanner 120 may be implemented in the form of a 2D laser scanner that receives a laser beam reflected from an object by irradiating a laser beam toward the front of the main body 110. In this case, the first information has a form of distance information to the object to which the laser beam arrives.

본 실시예에 적용된 2D 레이저 스캐너는 전방 200m 거리까지의 대상물체와의 거리를 2차원의 정보로 나타낸다. 2D 레이저 스캐너의 장착 위치가 본체의 폭 방향으로 중앙인 경우, 수직 방향으로 0.8° 각도의 4개의 주사선이 동일하게 전방을 지향하여 대상 물체와의 거리 데이터를 획득한다.The 2D laser scanner applied to the present embodiment shows the distance from the object to the front 200m distance in two-dimensional information. When the mounting position of the 2D laser scanner is centered in the width direction of the main body, four scanning lines at an angle of 0.8 ° in the vertical direction are equally forward to obtain distance data with the target object.

카메라(130)는 본체(110)의 전방 영상을 촬영하여 제2정보를 생성하기 위한 것이다. 카메라(130)는 복수의 CCD 카메라들이 하나의 마운트에 고정된 형태를 갖는 스테레오 카메라의 형태를 가질 수 있다.The camera 130 is for generating the second information by photographing the front image of the main body 110. The camera 130 may have a form of a stereo camera having a plurality of CCD cameras fixed to one mount.

본 실시예에 의한 카메라(130)는 제1 및 제2촬영부(131,132)를 구비하는 스테레오 카메라의 형태로 구현될 수 있다. 이러한 경우, 제2정보는 동일 촬영 대상에 대하여 제1 및 제2촬영부(131,132)가 각각 촬영한 한 쌍의 영상 정보일 수 있으며, 이러한 영상 정보는 스테레오 매칭을 통해 대상의 촬영대상의 위치 정보를 추정하는데 사용된다. The camera 130 according to the present embodiment may be implemented in the form of a stereo camera having the first and second photographing units 131 and 132. In this case, the second information may be a pair of image information captured by the first and second photographing units 131 and 132, respectively, with respect to the same photographing target, and the image information may be stereoscopic matching. Used to estimate

스테레오 카메라는 획득된 좌,우 영상들의 변이를 추정하고 삼각법을 통해서 본체(110)와 대상 물체와의 거리 및 지형정보의 3차원 거리 데이터를 측정할 수 있다. 이러한 3차원 거리데이터를 지면 기준으로 투영하게 되면 지형의 고도맵이 생성되며, 이러한 고도맵은 제1스캐너(120)의 2차원 데이터(제1정보)와 융합되어 전방의 3차원 공간 모델링에 사용된다.The stereo camera may estimate the disparity of the acquired left and right images, and measure the distance between the main body 110 and the target object and three-dimensional distance data of the terrain information through a triangulation method. When the 3D distance data is projected based on the ground, an altitude map of the terrain is generated, and the altitude map is fused with the 2D data (first information) of the first scanner 120 and used for 3D spatial modeling in front. do.

마운트(140)는 제1스캐너(120)와 카메라(130)를 함께 안착시키기 위한 구조로서, 본체(110)의 전면에 고정된다. 마운트(140)에는 제1스캐너(120)와 카메라(130)의 지향 방향을 조절할 수 있도록 제1스캐너(120)와 카메라(130)가 회전 가능하게 장착된다. 본 실시예에 의하면 제1 및 제2촬영부(131,132)가 제1스캐너(120)의 양단에 위치한다.The mount 140 is a structure for mounting the first scanner 120 and the camera 130 together, and is fixed to the front of the main body 110. The first scanner 120 and the camera 130 are rotatably mounted to the mount 140 to adjust the direction in which the first scanner 120 and the camera 130 are directed. According to the present exemplary embodiment, the first and second photographing units 131 and 132 are positioned at both ends of the first scanner 120.

도 3 및 도 4는 제1스캐너와 카메라의 센싱 범위를 나타내는 개념도이다.3 and 4 are conceptual diagrams illustrating sensing ranges of a first scanner and a camera.

마운트(140)는 여러가지 상황, 예를 들어 자율이동 플랫폼의 임무 목적, 이동중인지의 여부, 주행환경 등에 따라 제1스캐너(120)와 카메라(130)의 회전 방향 및 속도가 조절할 수 있도록 구성될 수 있다.The mount 140 may be configured to adjust the rotation direction and speed of the first scanner 120 and the camera 130 according to various situations, for example, the purpose of the autonomous platform, whether it is moving, and the driving environment. have.

본 실시예에 적용된 마운트(140)는 제1스캐너(120)와 카메라(130)를 수평방향에서 아래 방향으로 -30°, 그리고, 위 방향으로 +10°까지 회전 구동시킬 수 있도록 구성된다.The mount 140 applied to the present embodiment is configured to rotate the first scanner 120 and the camera 130 to -30 ° in the horizontal direction and to + 10 ° in the upward direction.

마운트(140)는 상기와 같은 회전 범위 내에서 제1스캐너(120)와 카메라(130)를 반복적으로 회전 구동시킬 수 있다. 마운트(140)는 이와 같이 제1스캐너(120)와 카메라(130)의 지향 방향을 조절함으로써 일정 구간의 범위 내에 있는 대상물의 거 리 데이터를 획득할 수 있다. 여기서, 제1스캐너(120)와 카메라(130)의 회전 속도는 본체(110)의 이동 속도에 따라 조절될 수 있다. 예를 들어, 마운트는 본체의 이동 속도에 비례하여 제1스캐너(120)와 카메라(130)의 회전 속도를 증가시킬 수 있다.The mount 140 may repeatedly drive the first scanner 120 and the camera 130 within the rotation range as described above. The mount 140 may acquire distance data of an object within a range of a predetermined period by adjusting the direction of the first scanner 120 and the camera 130. Here, the rotation speed of the first scanner 120 and the camera 130 may be adjusted according to the moving speed of the main body 110. For example, the mount may increase the rotational speed of the first scanner 120 and the camera 130 in proportion to the moving speed of the main body.

또한, 본체(110)가 험지를 이동하면서 경사로를 오르거나 내려갈 때 본체(110)의 전면이 들리거나 내려가 제1스캐너(120)와 카메라(130)의 지향 방향이 허공을 향하게 되는 경우, 마운트(140)는 지면의 기울기에 따라 제1스캐너(120)와 카메라(130)의 지향 방향을 조절할 수 있다.In addition, when the main body 110 moves up or down the slope while moving up the rough ground, the front of the main body 110 is lifted or lowered so that the directing direction of the first scanner 120 and the camera 130 faces the air. 140 may adjust the directing directions of the first scanner 120 and the camera 130 according to the inclination of the ground.

본 실시예에 의하면, 마운트(140)가 제1스캐너(120)와 카메라(130)를 본체(110)의 상하 방향으로 구동시키는 것을 예시하고 있으나, 마운트(140)는 제1스캐너(120)와 카메라(130)를 상하 방향뿐만 아니라 본체(110)의 좌우 방향으로 구동시키도록 구성되는 것도 가능하다. According to the present exemplary embodiment, the mount 140 drives the first scanner 120 and the camera 130 in the up and down direction of the main body 110, but the mount 140 is connected to the first scanner 120. It is also possible to be configured to drive the camera 130 in the horizontal direction of the main body 110 as well as the vertical direction.

예를 들어, 자율이동 플랫폼은 본체(110)에 장착된 항법센서로부터 위치 데이터를 수신 받는데, 항법 센서의 고장 및 음영지역 등으로 자신의 위치 데이터를 잃었을 경우 순수하게 Dead-reckoning(몇 개의 다른 저가의 보조센서와 필터 등을 이용해서 시작점의 위치정보를 추정하는 추측항법)으로만 자신의 위치를 찾아 이동해야 하는 경우가 있다. For example, the autonomous platform receives position data from the navigation sensor mounted on the main body 110. When the position data is lost due to the failure and shadow area of the navigation sensor, it is purely dead-reckoning (several other low cost). It may be necessary to find and move its own location only with dead reckoning, which estimates the position information of the starting point using the auxiliary sensor and the filter.

이러할 경우, 자율이동 플랫폼은 자신의 위치를 찾기 위해서 기 저장된 영상 DB(사전 주행을 통해 위치 데이터와 영상 특징 정보가 함께 저장됨)와 좌우로 스캔된 영상 데이터에서 추출된 특징점을 기준으로 검색하여 현재 자신의 위치를 찾게 되는데, 이때 마운트(140)를 선택적으로 좌우로 구동하여 주변 영상정보를 최대한 획득함으로써 검색의 성공 가능성을 높일 수 있다.In this case, the autonomous platform is searched based on the pre-stored image DB (the location data and the image feature information are stored together through pre-driving) and the feature points extracted from the left and right scanned image data to find its location. It finds its own position, and in this case, the mount 140 may be selectively driven left and right to obtain the surrounding image information as much as possible, thereby increasing the probability of success of the search.

이와 같이, 마운트(140)의 구동에 의하여 다수의 센서를 배치한 것과 같은 센서 운용이 가능하다.In this way, the sensor can be operated such that a plurality of sensors are arranged by driving the mount 140.

제어부(150)는 제1스캐너(120)와 카메라(130)에 의해 생성된 제1 및 제2정보를 근거로 본체(110)의 자율 이동을 제어한다. 제어부(150)는 제1스캐너(120)와 카메라(130)가 생성한 거리 데이터들에 본체(110)에 장착된 항법 센서로부터 제공된 고도 값을 결합하여 3차원 데이터를 생성한다. 제어부(150)는 이러한 3차원 데이터를 근거로 자율이동 플랫폼이 이동을 제어하게 된다. 자율이동 플랫폼의 이동을 제어하는 상세한 과정에 대해서는 후술하기로 한다.The controller 150 controls the autonomous movement of the main body 110 based on the first and second information generated by the first scanner 120 and the camera 130. The controller 150 generates 3D data by combining the altitude values provided from the navigation sensor mounted on the main body 110 with the distance data generated by the first scanner 120 and the camera 130. The controller 150 controls the movement of the autonomous platform based on the 3D data. A detailed process of controlling the movement of the autonomous platform will be described later.

한편, 본체(110)에는 지면과 평행한 방향으로 전방을 스캐닝하여 제3정보를 생성하는 제2스캐너(160)가 추가적으로 장착될 수 있다. 본 실시예와 같이 마운트(140)가 본체(110)의 상부에 위치하는 경우, 제1스캐너(120)의 센싱범위는 본체의 수평 방향을 기준으로 상하 방향으로 일정 각도 범위 내에 있게 된다. 이에 따라 도 3과 같이 본체(110)의 하부 주변에는 제1스캐너(120)의 센싱 범위를 벗어나는 사각 지역이 발생하게 된다. 따라서, 제2스캐너(160)는 본체(110)의 마운트(140)의 장착 위치에서 하측 방향으로 일정 간격만큼 이격된 위치에 추가적으로 장착되어, 이러한 사각지역에 있는 대상물의 거리 정보를 측정한다.On the other hand, the main body 110 may be additionally equipped with a second scanner 160 for generating the third information by scanning the front in a direction parallel to the ground. When the mount 140 is located above the main body 110 as in the present embodiment, the sensing range of the first scanner 120 is within a predetermined angle range in the vertical direction based on the horizontal direction of the main body. Accordingly, as shown in FIG. 3, a blind spot outside the sensing range of the first scanner 120 occurs around the lower portion of the main body 110. Therefore, the second scanner 160 is additionally mounted at a position spaced apart by a predetermined interval in the downward direction from the mounting position of the mount 140 of the main body 110, and measures the distance information of the object in the blind area.

제2스캐너(160)로서 제1스캐너(120)와 마찬가지로 2D 레이저 스캐너가 사용될 수 있으며, 제3정보는 지면과 평행한 방향에 위치한 지형 및 장애물 등에 관한 거리 정보일 수 있다. Like the first scanner 120, a 2D laser scanner may be used as the second scanner 160, and the third information may be distance information about terrain, obstacles, and the like located in a direction parallel to the ground.

제2스캐너(160)는 지면을 기준으로 수평 방향을 지향하도록 배치되며, 그로부터 본체(110)의 이동시 전방의 일정 높이 이상의 장애물에 대한 거리 및 폭 정보를 획득한다. 이러한 정보는 장애물 인식의 요청이 들어오면 2차원 데이터로 구성된 장애물 맵으로 변환 활용할 수 있다. 이동 장애물의 경우 장애물 인식에 대한 빠른 응답성이 요구되기 때문에 계산량이 많고 복잡한 3차원 데이터 대신 2차원 데이터가 사용된다. 본체(110)는 제2스캐너(160)로부터 제공된 제3정보에 의해 근거리 장애물과 주행로를 정확히 판단함과 아울러 근거리에서 갑자기 출현하는 이동 장애물 등을 인식하여 신속히 회피할 수 있다.The second scanner 160 is disposed so as to be oriented in the horizontal direction with respect to the ground, and obtains distance and width information about obstacles having a predetermined height or more in front of the body 110 when the main body 110 moves. Such information may be converted into an obstacle map composed of two-dimensional data when a request for obstacle recognition is received. Moving obstacles require fast responsiveness to obstacle recognition, so two-dimensional data is used instead of computational and complex three-dimensional data. The main body 110 may accurately determine the short distance obstacle and the driving path based on the third information provided from the second scanner 160, and recognize the moving obstacle suddenly appearing at the short distance, and quickly avoid it.

제2스캐너(160)는 지면으로부터 바퀴(111)의 반경(R)에 대응되는 높이에 위치할 수 있다. 본 실시예에 의한 자율이동 플랫폼은 바퀴(111)의 반경(R)보다 낮은 높이의 장애물을 넘을 수 있도록 설계되어 있다. 이러한 경우, 반경(R)에 대응되는 높이에 위치한 제2스캐너(160)가 제공한 거리 정보는 자율이동 플랫폼이 장애물을 넘어서 이동할 것인지 아니면 장애물을 회피하여 이동할 것인지를 결정하기 위한 기초 자료로서 사용될 수 있다.The second scanner 160 may be located at a height corresponding to the radius R of the wheel 111 from the ground. The autonomous platform according to the present embodiment is designed to overcome obstacles of a height lower than the radius R of the wheel 111. In this case, the distance information provided by the second scanner 160 located at a height corresponding to the radius R may be used as a basis for determining whether the autonomous platform moves over an obstacle or moves to avoid an obstacle. have.

보다 구체적으로 설명하면, 지향 방향에 차이가 있는 제1 및 제2스캐너(120,160)로부터 획득된 2차원 거리 데이터들로부터 상호 지향각의 차이를 이용하여 전방 대상이 지면인지 또는 장애물인지를 구분하는데 활용된다. 즉, 보는 각도가 다르게 배치된 제1 및 제2스캐너(120,160)로부터 획득되는 거리정보를 활용하여 대상물체의 기울기를 계산하고 기울기의 정도에 따라 전방의 대상물이 경사가 가파른 지면인지, 아니면 회피해야 할 장애물인지를 구분할 수 있다. In more detail, the two-dimensional distance data obtained from the first and second scanners 120 and 160 having the difference in the direction of orientation are used to distinguish whether the front object is the ground or an obstacle by using the difference in the mutual orientation angles. do. That is, the inclination of the object is calculated by using the distance information obtained from the first and second scanners 120 and 160 having different viewing angles, and the object in front of the object is a steep ground or avoided according to the degree of inclination. You can tell if it is an obstacle to do.

도 1 및 2를 참조하면, 본체(110)의 일면에는 제1스캐너(120)의 스캐닝 거리보다 원거리까지 스캐닝하여 제4정보를 생성하는 제3스캐너(170)가 추가적으로 배치될 수 있다.1 and 2, a third scanner 170 for generating fourth information by scanning farther than the scanning distance of the first scanner 120 may be further disposed on one surface of the main body 110.

제3스캐너(170)는 360도 회전 가능하도록 본체(110)의 상면에 돌출되게 설치될 수 있으며, 제3스캐너(170)로서 2D 레이저 스캐너보다 먼 거리에 있는 대상물의 거리 정보(제4정보)를 획득할 수 있는 3D 레이저 스캐너가 사용될 수 있다.The third scanner 170 may be installed to protrude on the upper surface of the main body 110 to be rotated 360 degrees, the distance information of the object that is farther than the 2D laser scanner as the third scanner 170 (fourth information) A 3D laser scanner capable of obtaining can be used.

3D 레이저 스캐너는 제1스캐너(120, 2D 레이저 스캐너)와 항법센서로부터 생성되는 3차원 데이터보다 정확한 3차원 좌표 값을 획득할 수 있다. 본 실시예에 사용된 3D 레이저 스캐너는 수직방향으로 다중 배열된 레이저 발생장치에서 동일 시간대에 전방 방향 주사를 수행하고, 또한 360°로 회전하면서 방위각 전 방향에 대한 3차원 데이터를 생성한다. The 3D laser scanner may acquire more accurate 3D coordinate values than 3D data generated from the first scanner 120 (2D laser scanner) and the navigation sensor. The 3D laser scanner used in the present embodiment performs forward scanning at the same time zone in the laser generator arranged in the vertical direction, and also generates three-dimensional data for the azimuth direction while rotating at 360 °.

3D 레이저 스캐너는 단방향에 대해 고속으로 좌우 스캔하는 2D 레이저 스캐너보다 단위방향의 스캔속도나 공간 분해능이 부족하지만, 전 방향으로 3차원 데이터를 직접적으로 충분히 획득할 수 있다. 이러한 3차원 데이터는 사전에 계획되지 않은 넓은 지역의 경로계획 및 주행 판단에 사용될 수 있다. 또한, 3D 레이저 스캐너가 획득한 3차원 데이터는 2D 레이저 스캐너(120)와 항법센서로부터 생성되는 3차원 데이터와 상호 비교 융합됨으로써 데이터의 정확도와 신뢰도를 검증하거나 향상시킬 수 있다.Although the 3D laser scanner lacks a unit scan speed or spatial resolution than a 2D laser scanner that scans left and right at a high speed in a single direction, the 3D laser scanner can directly and sufficiently acquire 3D data in all directions. This three-dimensional data can be used for route planning and driving judgment in large areas that have not been planned in advance. In addition, the 3D data obtained by the 3D laser scanner is compared and fused with the 3D data generated from the 2D laser scanner 120 and the navigation sensor, thereby verifying or improving the accuracy and reliability of the data.

이하에서는 앞선 설명을 기초로 본 발명과 관련된 자율이동 플랫폼의 이동 제어방법에 대하여 설명한다.Hereinafter, a description will be given of the movement control method of the autonomous platform associated with the present invention based on the foregoing description.

도 5는 본 발명의 일실시예에 따른 자율이동 플랫폼의 블록 구성도이다.5 is a block diagram of an autonomous platform according to an embodiment of the present invention.

도 5를 참조하면, 제어부(150)는 월드 모델링부(151)와 경로계획 생성부(152)와, 제어신호 발생부(153)을 포함한다.Referring to FIG. 5, the controller 150 includes a world modeling unit 151, a route plan generation unit 152, and a control signal generator 153.

월드 모델링부(151)는 제1스캐너(120, 2D 레이저 스캐너)에서 생성된 거리 데이터에 항법 센서로부터의 획득된 고도 값을 결합하여 3차원 데이터(포인트 분포지도, point cloud)를 생성할 수 있다. 도 6은 제1스캐너(120, 2D 레이저 스캐너)로부터 획득된 거리 데이터를 근거로 생성된 포인트 분포 지도를 나타내고 있다.The world modeling unit 151 may generate three-dimensional data (point distribution map, point cloud) by combining the elevation data obtained from the navigation sensor with the distance data generated by the first scanner 120 (2D laser scanner). . 6 illustrates a point distribution map generated based on distance data obtained from the first scanner 120 (2D laser scanner).

월드 모델링부(151)는 포인트 분포 지도를 기초로 월드 모델을 생성한다. 여기서 월드 모델은 포인트 분포지도를 메쉬(mesh) 형태로 연결하여 지면을 그리드(grid) 형태로 표현한 것을 의미한다. 도 8은 이러한 월드 모델 데이터의 일예를 나타내고 있다.The world modeling unit 151 generates a world model based on the point distribution map. Here, the world model means that the ground is represented in a grid form by connecting the point distribution map in a mesh form. 8 shows an example of such world model data.

앞서 설명된 바와 같이, 카메라(130)에 의해 측정된 거리 데이터를 이용하여 지형의 고도맵이 생성될 수 있으며, 이러한 고도맵은 제1스캐너(120)의 데이터와 융합되어 포인트 분포 지도를 형성할 수 있다. 포인트 분포 지도는 시공간 누적을 통해 최종 통합된 월드 모델로 표현된다.As described above, an altitude map of the terrain may be generated using distance data measured by the camera 130, and the altitude map may be fused with data of the first scanner 120 to form a point distribution map. Can be. The point distribution map is represented by the final integrated world model through space-time accumulation.

제2스캐너(160)는 전방 50m 정도 구간의 거리 데이터, 즉 전방 지형의 굴곡 및 장애물에 관한 거리 데이터를 생성한다. 이러한 제2스캐터가 생성한 데이터를 이용하여 월드 모델을 보다 정교하게 생성시킬 수 있다. 이에 따라 자율이동 플랫폼은 근거리 장애물과 주행로를 정확히 판단함과 아울러 근거리에서 갑자기 출현하 는 이동 장애물을 인식하여 신속히 회피할 수 있다.The second scanner 160 generates distance data of a distance of about 50m ahead, that is, distance data about bending and obstacles of the front terrain. The data generated by the second scatter can be used to more precisely generate the world model. Accordingly, the autonomous platform can accurately determine near obstacles and driving paths, and can quickly avoid them by recognizing moving obstacles suddenly appearing at near distance.

제3스캐너(170). 즉 3D 레이저 스캐너는 앞서 설명된 바와 같이 제1스캐너(120)보다 먼 거리의 거리 정보를 획득하며, 수신되는 전 방향 공간에 대한 거리정보는 3차원의 포인트 분포지도(point cloud)로 변환된다. 도 7은 3D 레이저 스캐너에 의해 획득된 거리 데이터를 근거로 생성된 포인트 분포지도(point cloud)의 일 예를 나타내며, 이로부터 격자구조의 월드모델을 생성할 수 있다.Third scanner 170. That is, as described above, the 3D laser scanner acquires distance information of a farther distance than the first scanner 120, and the received distance information on the omnidirectional space is converted into a three-dimensional point cloud. FIG. 7 illustrates an example of a point cloud generated based on distance data acquired by a 3D laser scanner, and a world model of a grid structure may be generated therefrom.

상기 설명된 제1 내지 제3스캐너(120,160,170)와 카메라(130)에서 생성된 3차원 데이터들을 모두 이용하여 최종의 월드 모델 데이터를 생성할 수 있다. 즉, 포인트 분포지도의 이전 프레임과 다음 프레임의 시공간 누적을 통해 최종 통합된 월드 모델 데이터가 생성되게 된다. 도 8은 이와 같이 스캐너들과 카메라에서 생성된 3차원 데이터가 융합되어 최종의 월드 모델 데이터를 생성시킨 것을 예시하고 있다.The final world model data may be generated using all of the 3D data generated by the first to third scanners 120, 160 and 170 and the camera 130 described above. That is, the final integrated world model data is generated through the space-time accumulation of the previous frame and the next frame of the point distribution map. FIG. 8 illustrates that the three-dimensional data generated by the scanners and the camera are fused to generate the final world model data.

경로계획 생성부(152)는 기설정된 시작점과 끝점, 및 상기와 같이 생성된 월드 모델 데이터를 근거로 자율이동 플랫폼의 자율이동에 대한 경로계획을 생성한다. 즉, 경로계획 생성부(152)는 자율이동 플랫폼이 주행하고자 하는 이동 경로를 설정함과 아울러 자율 이동 플랫폼이 장애물을 극복하거나 회피하기 위한 최종의 이동 지도(mobility map)을 생성한다.The route plan generation unit 152 generates a route plan for autonomous movement of the autonomous platform on the basis of a predetermined start point and end point and the generated world model data. That is, the route plan generation unit 152 sets the movement route to which the autonomous platform is to travel, and generates a final mobility map for the autonomous platform to overcome or avoid obstacles.

이와 같은 경로계획은 근거리 경로계획과 원거리 경로계획을 포함할 수 있다. 경로계획 생성부(152)는 제1스캐너(120)와 카메라(130)의 제1 및 제2정보, 제2스캐너(160)의 제3정보 등을 근거로 근거리 경로계획을 생성할 수 있다. 아울러, 경로계획 생성부(152)는 제3스캐너(170)의 제4정보를 근거로 원거리 경로계획을 생성할 수 있다.Such a route plan may include a near route plan and a far route plan. The route plan generator 152 may generate a near route plan based on the first and second information of the first scanner 120 and the camera 130, the third information of the second scanner 160, and the like. In addition, the route plan generator 152 may generate a far route plan based on the fourth information of the third scanner 170.

근거리 경로계획이라 함은 제1스캐너(120)와 카메라(130)가 감지하는 영역내의 대상물을 감지하고 주행할 경로를 생성하는 근거리(예를 들어, 50m 이내) 주행 경로 점들의 집합(set)을 의미한다.The short-range route plan refers to a set of short-range (eg, within 50m) driving route points that detects an object in an area detected by the first scanner 120 and the camera 130 and generates a route to travel. it means.

이러한 주행 경로들은 자율이동 플랫폼이 갑자기 출현하는 이동 장애물을 회피할 수 있도록 새로운 경로로 다시 갱신되는 주기를 가지고 있다. These driving paths have a cycle in which the autonomous platform is updated again with new paths to avoid sudden obstacles to movement.

원거리 경로계획이라 함은 제3스캐너(170)에 의해 감지되는 영역에서 고려되는 근거리 경로계획보다 상대적으로 먼 거리 즉(50∼120m이내)의 주행 경로점의 집합(set)을 의미한다. The far path plan refers to a set of driving path points of a relatively far distance (within 50 to 120 m) than the near path plan considered in the area sensed by the third scanner 170.

도 9는 앞서 설명된 제1 내지 제3스캐너의 스캐닝 범위 및 데이터의 측정의 유효거리를 나타내는 개념도이다.FIG. 9 is a conceptual diagram illustrating an effective range of a scanning range and measurement of data of the first to third scanners described above.

도 9의 가장 바깥에 표시된 라운드 실선은 제3스캐너(170), 즉 3D 레이저 스캐너에 의해 유효하게 측정되는 데이터 센싱 영역을 나타낸다. The outer solid line shown in the outermost part of FIG. 9 represents a data sensing area that is effectively measured by the third scanner 170, that is, the 3D laser scanner.

가운데 점선은 중앙에 배치된 제1스캐너(120) 및 카메라(130)에 의해 유효하게 측정되는 데이터 센싱 영역을 표시하며, 근거리 경로계획을 위해 활용된다. The dotted line in the middle indicates a data sensing area effectively measured by the first scanner 120 and the camera 130 disposed in the center, and is used for near path planning.

마지막 가장 안쪽의 점선은 근거리 장애물 회피용으로 배치된 제2스캐너(160)의 유효하게 측정되는 데이터 센싱 영역을 의미한다.The last inner dashed line indicates an effective measured data sensing area of the second scanner 160 disposed for short-range obstacle avoidance.

자율이동 플랫폼 전면의 좌우 및 후방에는 초음파 센서에 의해 감지되는 영역이 표시되어 있다. 초음파 센서는 자율이동 플랫폼에 근접하게 출현하는 이동물 체를 감지하기 위하여 자율이동 플랫폼 전면의 좌우 및 후방에 추가적으로 설치될 수 있다.Areas detected by the ultrasonic sensors are displayed on the left and right and rear sides of the front surface of the autonomous platform. Ultrasonic sensors may be additionally installed on the left and right and rear sides of the front surface of the autonomous platform in order to detect moving objects appearing in proximity to the autonomous platform.

한편, 원거리 경로계획은 상대적으로 높은 갱신 주기를 갖는 근거리 경로계획의 갱신에 의하여 재수정될 수 있다.On the other hand, the remote route plan can be re-modified by updating the near route plan with a relatively high update period.

예를 들어, 자율이동 플랫폼의 주행 중 전방 영역에서 이동 물체가 감지되면 근거리 경로계획에 의하여 이동 물체를 회피하며, 이러한 자율이동 플랫폼의 이동 경로가 원거리 경로계획에서 많이 벗어난 경우 원거리 경로계획이 재수정될 수 있다.For example, if a moving object is detected in the front area during the operation of the autonomous platform, the moving object is avoided by the near path plan. If the moving path of the autonomous platform is far from the far path plan, the far path plan may be modified. Can be.

원거리 경로계획에서는 이동 물체의 감지 및 인식 정보에 의한 추적 및 충돌회피는 고려되지 않는다. 즉, 원거리 물체에 대한 이동이나 정지 물체의 판단은 요구되지 않는다. 왜냐하면, 레이저 스캐너의 특성상 원거리 데이터의 정확도는 많은 에러를 가지고 있으며, 이동 물체의 추적을 위해서는 데이터의 갱신율 및 정확도가 증가하여야 하며, 이를 위해서는 고가의 고성능 장비가 필요하게 되기 때문이다. 따라서,장애물 충돌회피는 근거리 경로계획에서만 고려대상이 된다.In remote path planning, tracking and collision avoidance by moving object detection and recognition information are not considered. That is, the movement of the remote object or the determination of the stationary object is not required. This is because the accuracy of the remote data has a lot of errors due to the characteristics of the laser scanner, and the update rate and accuracy of the data need to be increased for tracking the moving object, which requires expensive and high-performance equipment. Therefore, obstacle avoidance is only considered in the near path planning.

3D 레이저 스캐너, 즉 제3스캐너(170)는 2D 레이저 스캐너에 비해 낮은 데이터 갱신율을(15Hz 수준)을 가지며, 최초 계획된 원거리 경로계획을 변경함에 있어 기초가 되는 원거리 데이터를 제공한다. The 3D laser scanner, i.e., the third scanner 170, has a lower data update rate (15 Hz level) than the 2D laser scanner, and provides the far-field data that is the basis for changing the originally planned far path plan.

제어신호 발생부(152)는 상기와 같은 경로계획을 근거로 자율이동 플랫폼의 이동을 위한 제어신호를 발생시킨다. 이에 따라 자율이동 플랫폼은 경로계획을 따라 자율이동을 수행하게 된다.The control signal generator 152 generates a control signal for moving the autonomous platform based on the path plan as described above. Accordingly, the autonomous platform will perform autonomous movement according to the route plan.

이상에서는 본 발명에 관련된 자율이동 플랫폼 및 이의 이동 제어방법을 첨부한 도면들을 참조하여 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상의 범위 내에서 당업자에 의해 다양한 변형이 이루어질 수 있다.In the above described with reference to the accompanying drawings, the autonomous mobile platform and the movement control method related to the present invention, the present invention is not limited by the embodiments and drawings disclosed herein, it is within the scope of the technical idea of the present invention Various modifications can be made by those skilled in the art.

도 1은 본 발명의 일실시예와 관련된 자율이동 플랫폼의 사시도.1 is a perspective view of an autonomous platform associated with an embodiment of the present invention.

도 2는 도 1에 도시된 자율이동 플랫폼의 정면도.FIG. 2 is a front view of the autonomous platform shown in FIG. 1. FIG.

도 3 및 도 4는 제1스캐너와 카메라의 센싱 범위를 나타내는 개념도.3 and 4 are conceptual views illustrating a sensing range of a first scanner and a camera.

도 5는 본 발명의 일실시예와 관련된 자율이동 플랫폼의 블록 구성도.Figure 5 is a block diagram of an autonomous platform associated with one embodiment of the present invention.

도 6은 제1스캐너로부터 획득된 거리 데이터를 근거로 생성한 포인트 분포 지도.6 is a point distribution map generated based on distance data obtained from a first scanner.

도 7은 제3스캐너로부터 획득된 거리 데이터를 근거로 생성한 포인트 분포지도.7 is a point distribution map generated based on distance data obtained from a third scanner.

도 8은 도 6 및 7의 포인트 분포 지도로부터 생성된 월드 모델 데이터.8 is world model data generated from the point distribution maps of FIGS. 6 and 7;

도 9는 제1 내지 제3스캐너의 스캐닝 범위 및 데이터의 측정의 유효거리를 나타내는 개념도.9 is a conceptual diagram showing an effective range of the scanning range of the first to third scanners and measurement of data;

Claims (24)

복수의 센서를 이용하여 주변상황을 인식하고 판단하여 이동할 수 있는 자율이동 플랫폼에 있어서,In the autonomous mobile platform that can recognize, determine and move the surrounding situation using a plurality of sensors, 지면을 이동할 수 있도록 바퀴를 구비하는 본체; A main body having wheels to move the ground; 상기 본체의 전면에 장착되며, 상기 본체의 전방을 향하여 레이저 빔을 조사하여 상기 레이저빔이 도달하는 대상까지의 거리정보가 포함된 2차원의 제1정보를 생성하는 제1 레이저 스캐너; A first laser scanner mounted on a front surface of the main body and generating two-dimensional first information including distance information to a target to which the laser beam reaches by irradiating a laser beam toward the front of the main body; 상기 제1 레이저 스캐너의 양단에 배치된 제1 및 제2 촬영부를 구비하며, 동일 촬영 대상에 대해 상기 제1 및 제2 촬영부를 통해 촬영된 한 쌍의 스테레오 영상들이 포함된 제2정보를 생성하는 스테레오 카메라; A first and second photographing units disposed at both ends of the first laser scanner, and generating second information including a pair of stereo images photographed through the first and second photographing units for the same photographing target; Stereo cameras; 상기 제1레이저 스캐너 및 스테레오 카메라가 장착되며, 상기 본체의 주행시상기 제1레이저 스캐너 및 스테레오 카메라의 지향 방향과 회전 속도가 조절되도록 일정 회전범위 내에서 상기 제1레이저 스캐너 및 스테레오 카메라를 회전 구동시키는 마운트; 및The first laser scanner and the stereo camera are mounted to rotate the first laser scanner and the stereo camera within a predetermined rotation range so that the direction and the rotation speed of the first laser scanner and the stereo camera are adjusted when the main body is driven. Mount; And 상기 제1 및 제2정보를 근거로 상기 본체의 자율 이동을 제어하는 제어부를 포함하고, A control unit for controlling the autonomous movement of the main body based on the first and second information, 상기 마운트는 상기 본체가 주행하는 지면의 기울기에 따라 상기 제1레이저 스캐너 및 스테레오 카메라의 지향 방향이 조절되도록 상기 제1레이저 스캐너 및 스테레오 카메라를 회전 구동시키며,The mount rotates the first laser scanner and the stereo camera so that the direction of orientation of the first laser scanner and the stereo camera is adjusted according to the inclination of the ground on which the main body travels. 상기 제어부는,The control unit, 상기 제2정보의 스테레오 영상들로부터 삼각법을 통해 상기 본체와 대상 물체와의 거리 및 지형정보의 3차원 거리 데이터를 생성하고, 상기 3차원 거리 데이터를 지면 기준으로 투영하여 고도맵을 생성한 후 상기 고도맵을 상기 제1정보와 융합하여 3차원의 월드 모델을 생성하는 월드 모델링부; 및After generating the 3D distance data of the distance between the main body and the target object and the topographical information from the stereo images of the second information and the terrain information, and projecting the 3D distance data on the ground basis to generate an altitude map A world modeling unit for generating a three-dimensional world model by fusing an elevation map with the first information; And 상기 월드 모델을 근거로 상기 본체의 이동에 대한 경로 계획을 형성하는 경로계획 생성부를 포함하는 것을 특징으로 하는 자율이동 플랫폼 An autonomous platform comprising a route plan generator for forming a route plan for movement of the main body based on the world model. 제1항에 있어서,The method of claim 1, 상기 마운트는 상기 제1레이저 스캐너와 스테레오 카메라를 지면과 수평 방향에 대해 상하 방향으로 회전시키도록 구성되는 것을 특징으로 하는 자율이동 플랫폼.And the mount is configured to rotate the first laser scanner and the stereo camera in a vertical direction with respect to a horizontal direction with respect to the ground. 제1항에 있어서,The method of claim 1, 상기 마운트는 일정 회전 범위 내에서 상기 제1레이저 스캐너를 반복적으로 회전 구동시키도록 구성되는 것을 특징으로 하는 자율이동 플랫폼.And the mount is configured to repeatedly drive the first laser scanner within a range of rotation. 제3항에 있어서,The method of claim 3, 상기 제1레이저 스캐너의 회전 속도는 상기 본체의 이동 속도에 따라 조절되는 것을 특징으로 하는 자율이동 플랫폼.The rotation speed of the first laser scanner is adjusted according to the moving speed of the main body. 제1항에 있어서,The method of claim 1, 상기 본체에 장착되며, 지면과 평행한 방향으로 전방을 스캐닝하여 상기 제1레이저 스캐너의 비검출 영역에 위치한 지형 및 장애물에 관한 거리 정보가 포함된 제3정보를 생성하는 제2레이저 스캐너를 더 포함하는 것을 특징으로 하는 자율이동 플랫폼.And a second laser scanner mounted on the main body, the third laser scanner generating a third information including distance information about a terrain and an obstacle located in a non-detection area of the first laser scanner by scanning the front in a direction parallel to the ground. Autonomous platform, characterized in that. 제5항에 있어서,The method of claim 5, 상기 제2레이저 스캐너는 상기 마운트의 장착 위치에서 하측 방향으로 일정 간격만큼 이격된 위치에 장착되는 것을 특징으로 하는 자율이동 플랫폼.And the second laser scanner is mounted at a position spaced apart by a predetermined interval in a downward direction from a mounting position of the mount. 제6항에 있어서,The method of claim 6, 상기 제2레이저 스캐너는 지면으로부터 상기 바퀴의 반경에 대응되는 높이에 위치하며,The second laser scanner is located at a height corresponding to the radius of the wheel from the ground, 제2레이저 스캐너에 의해 제공된 거리 정보는 상기 본체가 장애물을 넘어서 이동할 것인지 또는 장애물을 회피하여 이동할 것인지를 결정하기 위한 기초 자료로서 사용되는 것을 특징으로 하는 자율이동 플랫폼.The distance information provided by the second laser scanner is used as a basis for determining whether the main body moves over an obstacle or moves to avoid an obstacle. 제1항에 있어서,The method of claim 1, 상기 본체에 장착되며, 상기 제1레이저 스캐너의 스캐닝 거리보다 원거리까지 스캐닝하여 제4정보를 생성하는 제3레이저 스캐너를 더 포함하는 것을 특징으로 하는 자율이동 플랫폼.And a third laser scanner mounted to the main body, the third laser scanner generating fourth information by scanning farther than the scanning distance of the first laser scanner. 제8항에 있어서,The method of claim 8, 상기 제3레이저 스캐너는 상기 본체의 상면에 회전 가능하게 설치되는 3D 레이저 스캐너이며,The third laser scanner is a 3D laser scanner rotatably installed on the upper surface of the main body, 상기 제4정보는 상기 제1레이저 스캐너의 스캐닝 거리보다 원거리에 해당하는 거리 정보인 것을 특징으로 하는 자율이동 플랫폼.And the fourth information is distance information corresponding to a distance from the scanning distance of the first laser scanner. 제9항에 있어서,The method of claim 9, 상기 제4정보는 상기 제1 및 제2정보보다 낮은 갱신율로 생성되는 것을 특징으로 하는 자율이동 플랫폼.And the fourth information is generated at a lower update rate than the first and second information. 제9항에 있어서,The method of claim 9, 상기 제어부는 상기 제4정보를 근거로 원거리 경로계획을 생성하고, 상기 제1 및 제2정보를 근거로 근거리 경로계획을 생성하는 것을 특징으로 하는 자율이동 플랫폼.The controller generates a distance route plan based on the fourth information, and generates a near route plan based on the first and second information. 제11항에 있어서,The method of claim 11, 상기 근거리 경로계획은 상기 본체가 이동함에 따라 일정 주기를 가지며 갱신되며,The near path plan is updated with a certain period as the main body moves, 상기 원거리 경로계획은 상기 근거리 경로계획의 갱신에 의하여 재수정되는 것을 특징으로 하는 자율이동 플랫폼.And the remote route plan is re-modified by updating the short range route plan. 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020090021824A 2009-03-13 2009-03-13 Autonomous mobile platform KR100901311B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090021824A KR100901311B1 (en) 2009-03-13 2009-03-13 Autonomous mobile platform

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090021824A KR100901311B1 (en) 2009-03-13 2009-03-13 Autonomous mobile platform

Publications (1)

Publication Number Publication Date
KR100901311B1 true KR100901311B1 (en) 2009-06-05

Family

ID=40982364

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090021824A KR100901311B1 (en) 2009-03-13 2009-03-13 Autonomous mobile platform

Country Status (1)

Country Link
KR (1) KR100901311B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101209573B1 (en) 2010-11-16 2012-12-07 한국과학기술연구원 Curb detection method using distance sensor and unmaned vehicle using the same
KR101242253B1 (en) 2011-02-23 2013-03-11 고려대학교 산학협력단 Method for building an elevation map with elevation information baded on terrain classification and matching strategy
KR101359649B1 (en) 2012-02-02 2014-02-05 삼성중공업 주식회사 obstacle detection sensor
KR101461316B1 (en) * 2013-04-30 2014-11-13 공주대학교 산학협력단 System and method for controling Automatic Guided Vehicles based on color maker using dual camera
KR101640789B1 (en) * 2016-02-04 2016-07-19 국방과학연구소 Guard and surveillance system using mobile robot and control method thereof
CN107562061A (en) * 2017-10-18 2018-01-09 长沙冰眼电子科技有限公司 Counterreconnaissance unmanned vehicle
KR20180055292A (en) * 2016-11-16 2018-05-25 국민대학교산학협력단 Integration method for coordinates of multi lidar
CN108161886A (en) * 2018-01-22 2018-06-15 东莞理工学院 Map structuring robot based on laser scanning and Kalman Filter Technology
CN111152237A (en) * 2020-01-22 2020-05-15 深圳国信泰富科技有限公司 Robot head with laser radars arranged on two sides and environment sampling method thereof
CN112147641A (en) * 2020-09-18 2020-12-29 河南理工大学 Laser navigation lamp system for rescue vehicle in complex environment and navigation method
KR102559714B1 (en) 2022-09-30 2023-07-27 주식회사 한국쓰리축 Mobile platform with track driving apparatus
KR102559715B1 (en) 2022-09-30 2023-07-27 주식회사 한국쓰리축 Agricultural driving apparatus using mobile platform with track driving device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004170429A (en) 2003-12-01 2004-06-17 Asahi Koyo Kk Method and apparatus for generating three-dimensional information
JP2006031642A (en) * 2004-07-22 2006-02-02 Ihi Aerospace Co Ltd Self-position specification method of mobile object
JP2006209644A (en) 2005-01-31 2006-08-10 Matsushita Electric Works Ltd Cleaning robot
KR100877072B1 (en) * 2007-06-28 2009-01-07 삼성전자주식회사 Method and apparatus of building map for a mobile robot and cleaning simultaneously

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004170429A (en) 2003-12-01 2004-06-17 Asahi Koyo Kk Method and apparatus for generating three-dimensional information
JP2006031642A (en) * 2004-07-22 2006-02-02 Ihi Aerospace Co Ltd Self-position specification method of mobile object
JP2006209644A (en) 2005-01-31 2006-08-10 Matsushita Electric Works Ltd Cleaning robot
KR100877072B1 (en) * 2007-06-28 2009-01-07 삼성전자주식회사 Method and apparatus of building map for a mobile robot and cleaning simultaneously

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101209573B1 (en) 2010-11-16 2012-12-07 한국과학기술연구원 Curb detection method using distance sensor and unmaned vehicle using the same
KR101242253B1 (en) 2011-02-23 2013-03-11 고려대학교 산학협력단 Method for building an elevation map with elevation information baded on terrain classification and matching strategy
KR101359649B1 (en) 2012-02-02 2014-02-05 삼성중공업 주식회사 obstacle detection sensor
KR101461316B1 (en) * 2013-04-30 2014-11-13 공주대학교 산학협력단 System and method for controling Automatic Guided Vehicles based on color maker using dual camera
KR101640789B1 (en) * 2016-02-04 2016-07-19 국방과학연구소 Guard and surveillance system using mobile robot and control method thereof
KR20180055292A (en) * 2016-11-16 2018-05-25 국민대학교산학협력단 Integration method for coordinates of multi lidar
CN107562061A (en) * 2017-10-18 2018-01-09 长沙冰眼电子科技有限公司 Counterreconnaissance unmanned vehicle
CN108161886A (en) * 2018-01-22 2018-06-15 东莞理工学院 Map structuring robot based on laser scanning and Kalman Filter Technology
CN111152237A (en) * 2020-01-22 2020-05-15 深圳国信泰富科技有限公司 Robot head with laser radars arranged on two sides and environment sampling method thereof
CN111152237B (en) * 2020-01-22 2023-12-22 深圳国信泰富科技有限公司 Robot head with laser radars arranged on two sides and environment sampling method thereof
CN112147641A (en) * 2020-09-18 2020-12-29 河南理工大学 Laser navigation lamp system for rescue vehicle in complex environment and navigation method
CN112147641B (en) * 2020-09-18 2024-05-17 河南理工大学 Laser navigation lamp system for rescue vehicle in complex environment and navigation method
KR102559714B1 (en) 2022-09-30 2023-07-27 주식회사 한국쓰리축 Mobile platform with track driving apparatus
KR102559715B1 (en) 2022-09-30 2023-07-27 주식회사 한국쓰리축 Agricultural driving apparatus using mobile platform with track driving device

Similar Documents

Publication Publication Date Title
KR100901311B1 (en) Autonomous mobile platform
CN107992052B (en) Target tracking method and device, mobile device and storage medium
US11041958B2 (en) Sensing assembly for autonomous driving
CN108572663B (en) Target tracking
JP3561473B2 (en) Object position tracking / detection method and vehicle
KR102327997B1 (en) Surround sensing system
WO2020258721A1 (en) Intelligent navigation method and system for cruiser motorcycle
TWI710798B (en) Laser scanning system atteched on moving object, laser scanning method for laser scanner atteched on moving object, and laser scanning program
KR20170061373A (en) Mobile Robot And Method Thereof
CN109917420A (en) A kind of automatic travelling device and robot
RU2669200C2 (en) Obstacle detection device with crossing planes and method of detecting thereby
WO2018061084A1 (en) Self-position estimation method and self-position estimation device
JP2008268204A (en) Landmark navigation for vehicle using blinking optical beacon
CN112740274A (en) System and method for VSLAM scale estimation on robotic devices using optical flow sensors
CN112819943B (en) Active vision SLAM system based on panoramic camera
JP6527726B2 (en) Autonomous mobile robot
JP4333611B2 (en) Obstacle detection device for moving objects
RU2740229C1 (en) Method of localizing and constructing navigation maps of mobile service robot
JP5429986B2 (en) Mobile robot remote environment recognition apparatus and method
US20210311195A1 (en) Vision-cued random-access lidar system and method for localization and navigation
KR101040528B1 (en) Sensor assembly for detecting terrain and autonomous mobile platform having the same
JP4116116B2 (en) Ranging origin recognition device for moving objects
CN110945510A (en) Method for spatial measurement by means of a measuring vehicle
Shacklock et al. Visual guidance for autonomous vehicles: capability and challenges
KR101700764B1 (en) Method for Autonomous Movement and Apparatus Thereof

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130531

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140602

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150601

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190604

Year of fee payment: 11