KR101901599B1 - System for operating mobile robot based on complex map information and operating method thereof - Google Patents

System for operating mobile robot based on complex map information and operating method thereof Download PDF

Info

Publication number
KR101901599B1
KR101901599B1 KR1020170000350A KR20170000350A KR101901599B1 KR 101901599 B1 KR101901599 B1 KR 101901599B1 KR 1020170000350 A KR1020170000350 A KR 1020170000350A KR 20170000350 A KR20170000350 A KR 20170000350A KR 101901599 B1 KR101901599 B1 KR 101901599B1
Authority
KR
South Korea
Prior art keywords
information
map
cleaning
mobile robot
area
Prior art date
Application number
KR1020170000350A
Other languages
Korean (ko)
Other versions
KR20170087403A (en
Inventor
신경철
박성주
최영일
이재영
문병권
정명교
Original Assignee
주식회사 유진로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유진로봇 filed Critical 주식회사 유진로봇
Priority to US15/410,763 priority Critical patent/US10335949B2/en
Publication of KR20170087403A publication Critical patent/KR20170087403A/en
Application granted granted Critical
Publication of KR101901599B1 publication Critical patent/KR101901599B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2823Reporting information sensed by appliance or service execution status of appliance services in a home automation network
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L2012/2847Home automation networks characterised by the type of home appliance used
    • H04L2012/285Generic home appliances, e.g. refrigerators

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Tourism & Hospitality (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Signal Processing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

본 발명에 의한 복합 지도 정보 기반의 이동 로봇을 운영하기 위한 시스템 및 그 방법이 개시된다. 본 발명의 일 실시예에 따른 복합 지도 정보 기반의 이동 로봇은 청소 가능 영역의 적어도 일부가 변경된 다수의 복합 지도 정보를 저장하는 저장부; 및 상기 저장된 다수의 복합 지도 정보 중 하나의 복합 지도 정보를 선택하고, 상기 선택된 복합 지도 정보를 구성하는 청소 영역 지도 상에서 위치를 인식하고 상기 인식된 위치로부터 상기 청소 가능 영역에 대한 청소를 수행하도록 제어하는 제어부를 포함한다.A system and method for operating a mobile robot based on compound map information according to the present invention are disclosed. According to another aspect of the present invention, there is provided a mobile robot including a storage unit storing a plurality of pieces of complex map information in which at least a part of a cleanable area is changed; And a controller configured to select one of the stored composite map information and to recognize a position on a map of a cleaning area constituting the selected composite map information and to perform cleaning on the cleanable area from the recognized position, .

Description

복합 지도 정보 기반의 이동 로봇을 운영하기 위한 시스템 및 그 방법{SYSTEM FOR OPERATING MOBILE ROBOT BASED ON COMPLEX MAP INFORMATION AND OPERATING METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a system for operating a mobile robot based on compound map information,

본 발명은 이동 로봇에 관한 것으로서, 보다 상세하게는, 운용 환경에 따라 다른 다수의 복합 지도 정보를 이용하는 이동 로봇을 운영하기 위한 시스템 및 그 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a mobile robot, and more particularly, to a system and a method for operating a mobile robot using a plurality of pieces of complex map information depending on an operating environment.

초기의 청소 로봇은 스스로 주행하면서 무작위로 청소를 수행하였으며, 장애물의 존재 및 바닥 면의 상태 등에 의해 청소를 수행하지 못하는 영역이 발생하기도 했다.The initial cleaning robot performed a random cleaning while traveling on its own, and areas where obstacles existed or the floor surface was not cleaned due to the presence of obstacles occurred.

이를 보완하기 위해 지도를 기반으로 청소를 수행하는 기술들이 개발되고 있고, 지도 기반 청소 로봇은 크게 두 가지 방식으로 운영되고 있다.In order to compensate for this, techniques for cleaning based on maps are being developed, and map-based cleaning robots are operated in two ways.

첫째는 청소 로봇이 내부에 저장된 지도를 사용하여 청소를 수행하면서 청소 진행 상황이나 완료 상황을 사용자 단말에 전송하는 방식이다. 둘째는 청소 로봇이 내부에 저장된 지도를 사용자에게 제공하여 사용자가 제공 받은 지도를 이용하여 명령을 전달하는 방식이다.First, the cleaning robot carries out cleaning using the map stored therein, and transmits the cleaning progress or completion status to the user terminal. Second, the cleaning robot provides a map stored in the inside of the robot to the user, and transmits the command using the map provided by the user.

이러한 기존의 지도 기반 청소 로봇은 모두 하나의 지도를 사용하고 있어 작업 환경이 변경될 때마다 새로운 청소 지도를 작성하고 청소를 진행해야 하는 번거로움이 있다.These conventional map-based cleaning robots all use a single map, so that it is troublesome to create a new cleaning map and perform cleaning every time the working environment is changed.

따라서 이러한 종래 기술의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 청소 영역을 표시하는 청소 영역 지도와 청소 영역 내 위치를 인식하기 위한 환경 정보 지도, 사용자에 의해 설정된 옵션 정보로 구성되는 다수의 복합 지도 정보를 생성하고, 생성된 다수의 복합 지도 정보를 선택적으로 이용하여 위치를 인식하면서 청소를 수행하는 이동 로봇을 운영하기 위한 시스템 및 그 방법을 제공하는데 있다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior art, and it is an object of the present invention to provide a cleaning area map displaying a cleaning area, an environment information map for recognizing a position in a cleaning area, The present invention provides a system and a method for operating a mobile robot that generates map information and performs cleaning while recognizing a location by selectively using a plurality of generated composite map information.

그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to those mentioned above, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 목적들을 달성하기 위하여, 본 발명의 한 관점에 따른 복합 지도 정보 기반의 이동 로봇은 청소 가능 영역의 적어도 일부가 변경된 다수의 복합 지도 정보를 저장하는 저장부; 및 상기 저장된 다수의 복합 지도 정보 중 하나의 복합 지도 정보를 선택하고, 상기 선택된 복합 지도 정보를 구성하는 청소 영역 지도 상에서 위치를 인식하고 상기 인식된 위치로부터 상기 청소 가능 영역에 대한 청소를 수행하도록 제어하는 제어부를 포함할 수 있다.According to an aspect of the present invention, there is provided a mobile robot including a storage unit storing a plurality of pieces of complex map information in which at least a part of a cleanable area is changed; And a controller configured to select one of the stored composite map information and to recognize a position on a map of a cleaning area constituting the selected composite map information and to perform cleaning on the cleanable area from the recognized position, And a control unit.

또한, 상기 복합 지도 정보는 청소 가능 영역을 표시하는 청소 영역 지도, 상기 청소 영역 지도 내 위치를 인식하기 위한 환경 정보로 구성된 환경 정보 지도, 사용자에 의해 설정된 옵션 정보를 포함할 수 있다.The composite map information may include a cleaning area map indicating a cleanable area, an environmental information map configured with environmental information for recognizing a location in the cleaning area map, and option information set by a user.

또한, 상기 제어부는 사용자에 의한 제어 명령에 따라 제1 위치에서 제2 위치까지 미리 설정된 방식으로 이동하면서 영상을 획득하고, 상기 획득된 영상으로부터 특징점을 추출하여 상기 추출된 특징점으로 구성된 임시 환경 정보 지도를 구성하며, 상기 구성된 임시 환경 정보 지도와 상기 저장된 다수의 복합 지도 정보 각각을 구성하는 환경 정보 지도를 비교하여 그 비교한 결과로 가장 매칭률이 높은 환경 정보 지도로 구성된 복합 지도 정보를 선택할 수 있다.The control unit may acquire an image while moving in a predetermined manner from a first position to a second position according to a control command by a user, extract feature points from the obtained image, and generate a temporary environment information map And compares the constructed temporary environment information map with the environment information maps constituting each of the stored multiple compound map information and selects the composite map information composed of the environment information map having the highest matching rate as the comparison result .

또한, 상기 제어부는 상기 제1 위치에서 상기 제2 위치까지 이동함에 따라 획득된 관성 정보를 이용하여 오도메트리 정보를 산출하고, 상기 산출된 오도메트리 정보를 기반으로 이동 지점을 예측하며, 상기 예측된 이동 지점에서 얻은 임시 환경 정보와 상기 이동 지점과 그 주변에서 얻은 상기 환경 정보 지도를 구성하는 환경 정보를 비교하며, 그 비교한 결과로 가장 매칭률이 높은 환경 정보에 상응하는 상기 복합 지도 정보를 구성하는 청소 영역 지도 내 위치를 상기 제2 위치로 결정할 수 있다.The control unit may calculate odometry information using the inertia information obtained as the object moves from the first position to the second position, predict a moving point based on the calculated oedipal information, Comparing the temporary environment information obtained at the predicted movement point with environment information constituting the environmental information map obtained at the vicinity of the movement point and comparing the environment information constituting the environmental information map with the environment information constituting the environment information map, Can be determined to be the second position.

또한, 상기 제어부는 상기 제2 위치가 결정되면, 상기 제1 위치에서 상기 제2 위치까지 청소가 완료된 영역으로 상기 복합 지도 정보를 구성하는 청소 영역 지도를 갱신하고, 상기 갱신된 청소 영역 지도 내 상기 제2 위치부터 상기 청소 가능 영역에 대한 청소를 수행하고 그 수행한 결과를 갱신하도록 제어할 수 있다.When the second position is determined, the control unit updates the cleaning area map constituting the composite map information to the area where the cleaning is completed from the first position to the second position, Cleaning can be performed from the second position to the cleanable area, and the result of the cleaning can be updated.

또한, 상기 제어부는 상기 구성된 임시 환경 정보 지도로부터 미리 설정된 기하학 정보를 추출하고, 상기 추출된 기하학 정보를 기반으로 상기 임시 환경 정보 지도와 상기 저장된 다수의 복합 지도 정보 각각을 구성하는 환경 정보 지도를 비교하여 그 비교한 결과로 가장 매칭률이 높은 환경 정보 지도로 구성된 복합 지도 정보를 선택할 수 있다.The control unit extracts predetermined geometry information from the constructed temporary environment information map, and compares the temporary environment information map with an environmental information map constituting each of the stored multiple compound map information based on the extracted geometry information As a result of the comparison, it is possible to select composite map information constituted by an environmental information map having the highest matching rate.

또한, 상기 제어부는 사용자 기기로부터 무선 공유기의 정보를 수신하면, 상기 수신된 무선 공유기의 정보를 기반으로 해당 무선 공유기에 무선 연결할 수 있다.In addition, when the controller receives the information of the wireless router from the user equipment, the controller can wirelessly connect to the wireless router based on the received information of the wireless router.

또한, 상기 제어부는 사용자 기기에 무선 연결이 가능한 무선 공유기로서의 역할을 수행하기 위한 제1 모드를 운영하고, 상기 사용자 기기로부터 무선 공유기의 정보를 수신하면, 상기 제1 모드를 중지하며, 상기 제1 모드가 중지되면 상기 수신된 무선 공유기의 정보를 기반으로 해당 무선 공유기에 연결하기 위한 제2 모드를 운영할 수 있다.Also, the control unit may operate a first mode for performing a role as a wireless router capable of wireless connection to the user equipment, stop the first mode when receiving the information of the wireless router from the user equipment, When the mode is stopped, the second mode for connecting to the wireless router based on the information of the received wireless router can be operated.

본 발명의 다른 한 관점에 따른 이동 로봇을 운영하기 위한 시스템은 이동 로봇이 위치하는 공간에 배치되어, 상기 이동 로봇과 무선 연결되는 무선 공유기; 및 상기 무선 공유기를 통해 상기 이동 로봇에 제어 명령을 송신하고 이에 대한 응답으로 상기 이동 로봇이 미리 저장된 복합 지도 정보를 기반으로 청소를 수행하면서 청소가 완료된 영역에 대한 정보와 상기 복합 지도 정보를 수신하는 사용자 기기를 포함할 수 있다.According to another aspect of the present invention, there is provided a system for operating a mobile robot, comprising: a wireless router disposed in a space where a mobile robot is located and wirelessly connected to the mobile robot; And a controller for transmitting a control command to the mobile robot through the wireless router and performing cleaning based on the complex map information stored in advance by the mobile robot in response to the control command, User equipment.

또한, 상기 사용자 기기는 모바일 어플리케이션을 활성화하여 상기 활성화된 모바일 어플리케이션을 통해 상기 이동 로봇이 연결되어야 할 무선 공유기의 정보를 상기 이동 로봇에 전송할 수 있다.In addition, the user equipment activates a mobile application and transmits information of a wireless router to which the mobile robot is to be connected to the mobile robot through the activated mobile application.

또한, 상기 사용자 기기는 상기 이동 로봇에 제어 명령을 송신하여 이에 대한 응답으로 상기 이동 로봇으로부터 미리 저장된 다수의 복합 지도 정보를 제공 받고, 상기 제공 받은 다수의 복합 지도 정보 중 사용자로부터 하나의 복합 지도 정보가 선택되면 그 선택된 결과를 상기 이동 로봇에 제공할 수 있다.In addition, the user equipment transmits a control command to the mobile robot, receives a plurality of pieces of complex map information previously stored from the mobile robot in response thereto, and receives a composite map information The mobile robot can provide the selected result to the mobile robot.

본 발명의 또 다른 한 관점에 따른 이동 로봇을 운영하기 위한 방법은 사용자에 의한 제어 명령에 따라 미리 저장된 다수의 복합 지도 정보 중 하나의 복합 지도 정보를 선택하는 단계; 상기 선택된 복합 지도 정보를 구성하는 청소 영역 지도 상에서 위치를 인식하는 단계; 및 상기 인식된 위치로부터 상기 청소 영역 지도 내 청소 가능 영역에 대한 청소를 수행하면서 상기 수행한 결과로 청소가 완료된 영역으로 상기 청소 영역 지도를 갱신하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for operating a mobile robot, the method comprising: selecting one of a plurality of pieces of complex map information stored according to a control command by a user; Recognizing a position on a cleaning area map constituting the selected composite map information; And updating the cleaning area map to an area that has been cleaned as a result of performing cleaning on the cleanable area in the cleaning area map from the recognized position.

또한, 상기 선택하는 단계는 상기 제어 명령에 따라 제1 위치에서 제2 위치까지 미리 설정된 방식으로 이동하면서 영상을 획득하고, 상기 획득된 영상으로부터 특징점을 추출하여 상기 추출된 특징점으로 구성된 임시 환경 정보 지도를 구성하며, 상기 구성된 임시 환경 정보 지도와 상기 저장된 다수의 복합 지도 정보 각각을 구성하는 환경 정보 지도를 비교하여 그 비교한 결과로 가장 매칭률이 높은 환경 정보 지도로 구성된 복합 지도 정보를 선택할 수 있다.The selecting may further include obtaining an image while moving in a predetermined manner from a first position to a second position in accordance with the control command, extracting a feature point from the obtained image, and generating a temporary environment information map And compares the constructed temporary environment information map with the environment information maps constituting each of the stored multiple compound map information and selects the composite map information composed of the environment information map having the highest matching rate as the comparison result .

또한, 상기 인식하는 단계는 상기 제1 위치에서 상기 제2 위치까지 이동함에 따라 획득된 관성 정보를 이용하여 오도메트리 정보를 산출하고, 상기 산출된 오도메트리 정보를 기반으로 이동 지점을 예측하며, 상기 예측된 이동 지점에서 얻은 임시 환경 정보와 상기 이동 지점과 그 주변에서 얻은 상기 환경 정보 지도를 구성하는 환경 정보를 비교하며, 그 비교한 결과로 가장 매칭률이 높은 환경 정보에 상응하는 상기 복합 지도 정보를 구성하는 청소 영역 지도 내 위치를 상기 제2 위치로 결정할 수 있다.In addition, the recognizing step may include calculating odometry information using the inertia information obtained by moving from the first position to the second position, predicting the moving point based on the calculated oedipal information, Comparing the temporary environment information obtained at the predicted movement point with environment information constituting the environment information map obtained at the vicinity of the movement point and comparing the environment information constituting the environment information map with the environment information constituting the environmental information map, It is possible to determine the position in the cleaning area map constituting the map information as the second position.

또한, 상기 갱신하는 단계는 상기 제2 위치가 결정되면, 상기 제1 위치에서 상기 제2 위치까지 청소가 완료된 영역으로 상기 복합 지도 정보를 구성하는 청소 영역 지도를 갱신하고, 상기 갱신된 청소 영역 지도 내 상기 제2 위치부터 상기 청소 가능 영역에 대한 청소를 수행하고 그 수행한 결과를 갱신할 수 있다.The updating step updates the cleaning area map constituting the composite map information to the area where the cleaning is completed from the first position to the second position when the second position is determined, Cleaning can be performed from the second position to the cleanable area and the result of the cleaning can be updated.

이처럼, 본 발명은 청소 영역을 표시하는 청소 영역 지도와 청소 영역 내 위치를 인식하기 위한 환경 정보 지도, 사용자에 의해 설정된 옵션 정보로 구성되는 다수의 복합 지도 정보를 생성하고, 생성된 다수의 복합 지도 정보를 선택적으로 이용하여 위치를 인식하면서 청소를 수행하도록 함으로써, 작업 환경의 변화에 따른 사용자의 개입을 최소화할 수 있다.As described above, according to the present invention, a cleaning area map indicating a cleaning area, an environment information map for recognizing a position in a cleaning area, a plurality of complex map information composed of option information set by a user, By performing the cleaning while recognizing the position by selectively using the information, the user's intervention due to the change of the working environment can be minimized.

또한, 본 발명은 이동 로봇의 이동 시 환경 정보를 이용하여 청소 영역 내 위치를 인식하기 때문에 실제 위치와 지도 상의 위치 간의 차이를 최소화할 수 있다.In addition, since the present invention recognizes the position in the cleaning area using the environment information when the mobile robot moves, the difference between the actual position and the position on the map can be minimized.

또한, 본 발명은 이동 로봇의 이동 시 청소 영역 내 위치를 인식하는 과정을 수행하면서도 청소를 함께 수행하기 때문에 청소 시간을 단축하면서 청소 효율을 높일 수 있다.In addition, since the present invention performs a cleaning operation while performing a process of recognizing a position in a cleaning area when the mobile robot moves, the cleaning time can be shortened and the cleaning efficiency can be improved.

도 1은 본 발명의 일 실시예에 따른 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 네트워크 설정 과정을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 동등 계층간 연결 구조를 나타내는 도면이다.
도 4a 내지 도 4b는 본 발명의 일 실시예에 따른 정보 교환 원리를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 주행/청소 제어 기능을 설명하기 위한 도면이다.
도 6a 내지 도 6b는 본 발명의 일 실시예에 따른 지도 정보 확인 기능을 설명하기 위한 도면이다.
도 7a 내지 도 7c는 본 발명의 일 실시예에 따른 청소 지역 설정 기능을 설명하기 위한 도면이다.
도 8a 내지 도 8b는 본 발명의 일 실시예에 따른 청소 일정 설정 기능을 설명하기 위한 도면이다.
도 9a 내지 도 9b는 본 발명의 일 실시예에 따른 복합 지도 정보를 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 청소를 수행하기 위한 방법을 나타내는 도면이다.
도 11은 본 발명의 일 실시예에 따른 위치 인식 과정을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 이동 로봇의 상세한 구성을 나타내는 도면이다.
1 is a diagram showing a schematic configuration of an overall system according to an embodiment of the present invention.
2 is a diagram illustrating a network setup process according to an embodiment of the present invention.
3 is a diagram illustrating a connection structure between peers according to an embodiment of the present invention.
4A to 4B are views for explaining the information exchange principle according to an embodiment of the present invention.
5 is a view for explaining a driving / cleaning control function according to an embodiment of the present invention.
6A and 6B are views for explaining a map information checking function according to an embodiment of the present invention.
7A to 7C are views for explaining a cleaning area setting function according to an embodiment of the present invention.
8A and 8B illustrate a cleaning schedule setting function according to an embodiment of the present invention.
9A to 9B are views for explaining compound map information according to an embodiment of the present invention.
10 is a diagram illustrating a method for performing cleaning according to an embodiment of the present invention.
11 is a view for explaining a position recognition process according to an embodiment of the present invention.
12 is a view showing a detailed configuration of a mobile robot according to an embodiment of the present invention.

이하에서는, 본 발명의 실시예에 따른 복합 지도 정보 기반의 이동 로봇을 운영하기 위한 시스템 및 그 방법을 첨부한 도면을 참조하여 설명한다. 본 발명에 따른 동작 및 작용을 이해하는 데 필요한 부분을 중심으로 상세히 설명한다.Hereinafter, a system and method for operating a mobile robot based on a complex map information according to an embodiment of the present invention will be described with reference to the accompanying drawings. The present invention will be described in detail with reference to the portions necessary for understanding the operation and operation according to the present invention.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 동일한 명칭의 구성 요소에 대하여 도면에 따라 다른 참조부호를 부여할 수도 있으며, 서로 다른 도면임에도 불구하고 동일한 참조부호를 부여할 수도 있다. 그러나, 이와 같은 경우라 하더라도 해당 구성 요소가 실시예에 따라 서로 다른 기능을 갖는다는 것을 의미하거나, 서로 다른 실시예에서 동일한 기능을 갖는다는 것을 의미하는 것은 아니며, 각각의 구성 요소의 기능은 해당 실시예에서의 각각의 구성 요소에 대한 설명에 기초하여 판단하여야 할 것이다.In describing the constituent elements of the present invention, the same reference numerals may be given to constituent elements having the same name, and the same reference numerals may be given thereto even though they are different from each other. However, even in such a case, it does not mean that the corresponding component has different functions according to the embodiment, or does not mean that the different components have the same function. It should be judged based on the description of each component in the example.

이때, 본 발명에서는 청소 영역을 표시하는 청소 영역 지도와 청소 영역 내 위치를 인식하기 위한 환경 정보 지도, 사용자에 의해 설정된 옵션 정보로 구성되는 다수의 복합 지도 정보를 생성하고, 생성된 다수의 복합 지도 정보를 사용자 명령에 따라 선택적으로 이용하여 위치를 인식하면서 청소를 수행하도록 한 새로운 방안을 제안한다.At this time, in the present invention, a plurality of compound map information including option information set by the user is generated, and a plurality of compound maps We propose a new method to perform cleaning while recognizing the position by selectively using information according to user command.

본 발명에서 이동 로봇은 자율 주행이 가능한 로봇 또는 사용자의 조작 명령에 의하여 이동하는 로봇을 의미한다. 특히, 이동 로봇은 예를 들어 청소 로봇, 산업 물류 이송을 위한 물류 이송 로봇, 음식 등의 개인 물건을 이송하기 위한 서비스 로봇, 군사 목적에 따른 군사용 로봇, 기타 이동 가능한 로봇을 모두 포함할 수 있다. 본 발명에서는 대표적으로 청소 로봇을 이용하는 경우를 일 예로 설명한다.In the present invention, the mobile robot means a robot capable of autonomous travel or a robot moving according to an operation command of a user. In particular, the mobile robot may include, for example, a cleaning robot, a logistics transfer robot for transferring industrial logistics, a service robot for transferring personal items such as food, a military robot for military purposes, and other mobile robots. In the present invention, a cleaning robot is used as an example.

도 1은 본 발명의 일 실시예에 따른 전체 시스템의 개략적인 구성을 나타내는 도면이다.1 is a diagram showing a schematic configuration of an overall system according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 사용자 기기(100), 중계 서버(200), 무선 공유기(300), 이동 로봇(400)을 포함할 수 있다.1, an overall system according to an exemplary embodiment of the present invention may include a user equipment 100, a relay server 200, a wireless router 300, and a mobile robot 400.

사용자 기기(100)는 네트워크를 통해 이동 로봇(400)과 연동하여 이동 로봇(400)으로부터 제공 받은 각종 정보를 화면 상에 출력함으로써, 출력된 정보를 기반으로 각종 기능을 수행할 수 있다.The user equipment 100 can perform various functions based on the output information by outputting various information provided from the mobile robot 400 in cooperation with the mobile robot 400 through the network.

이때, 사용자 기기(100)는 모바일 어플리케이션을 통해 각종 기능을 수행한다. 이러한 기능은 리모컨 기능, 영상 통화 기능, 주행/청소 제어 기능, 지도 정보 확인 기능, 청소 상황 확인 기능, 청소 지역 설정 기능, 청소 일정 설정 기능 등을 포함한다.At this time, the user device 100 performs various functions through the mobile application. These functions include a remote control function, a video call function, a driving / cleaning control function, a map information confirmation function, a cleaning condition check function, a cleaning area setting function, a cleaning schedule setting function and the like.

1)리모컨 기능은 이동 로봇의 리모컨으로 사용자 기기를 사용하는 것으로 입출력 장치가 취약한 이동 로봇을 대신하여 사용자 기기를 이동 로봇에 대한 입출력 장치로 사용할 수 있도록 하는 기능이다.1) The remote control function is a function that allows the user device to be used as an input / output device for a mobile robot in place of a mobile robot having a weak input / output device by using a user device as a remote controller of the mobile robot.

2)영상 통화 기능은 이동 로봇에 장착되어 있는 카메라, 마이크, 스피커를 이용하여 이동 로봇의 주변에 있는 사람과 영상 통화를 수행할 수 있도록 하는 기능이다.2) The video call function is a function to perform a video call with a person in the vicinity of the mobile robot using a camera, a microphone, and a speaker mounted on the mobile robot.

3)주행/청소 제어 기능은 이동 로봇을 이동시키거나 청소를 지시할 수 있도록 하는 기능이다.3) The traveling / cleaning control function is a function to move the mobile robot or to instruct cleaning.

4)지도 정보 확인 기능은 이동 로봇에서 SLAM 등의 기술을 이용하여 생성한 지도 정보를 사용자 기기에 전달하여 사용자가 지도를 확인할 수 있도록 하는 기능이다.4) The map information confirmation function is a function that allows the user to check the map by transmitting the map information generated by the mobile robot using the technology such as SLAM to the user device.

5)청소 상황 확인 기능은 이동 로봇이 지도 정보를 기반으로 청소 중 또는 이동 중에 청소한 영역, 청소할 영역 등을 사용자 기기에 전달하여 사용자가 청소 상황을 확인할 수 있도록 하는 기능이다.5) The cleaning status check function is a function that allows the mobile robot to transmit the cleaned area or the cleaned area to the user device during cleaning or moving based on the map information so that the user can check the cleaning status.

6)청소 지역 설정 기능은 사용자가 지도 정보를 기반으로 청소가 가능한 전체 지역 중 일부 지역 즉, 진입 금지 구역, 집중 청소 지역 등을 설정할 수 있는 기능이다.6) The cleaning area setting function is to set a part of the whole area where the user can clean based on the map information, that is, the entry prohibition area and the concentrated cleaning area.

7)청소 일정 설정 기능은 사용자가 청소할 요일, 시간 등을 설정할 수 있는 기능이다.7) The cleaning schedule setting function is to set the day and time to be cleaned by the user.

사용자 기기(100)는 무선 통신이 가능한 전자 기기로서, 예컨대, 휴대폰, 스마트폰, 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, 넷북, 태블릿 등을 포함하며, 다양한 형태로 구비될 수 있다.The user device 100 is an electronic device capable of wireless communication and can be used as a portable device such as a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a portable multimedia player (PMP) A tablet, and the like, and may be provided in various forms.

중계 서버(200)는 사용자 기기와 이동 로봇 각각과 연동하여 상대의 정보를 제공할 수 있다. 이러한 중계 서버(200)는 사용자 기기와 이동 로봇 각각에 상대의 식별 정보와 상대의 네트워크 상의 위치 정보 예컨대, 네트워크 주소를 제공함으로써, 사용자 기기와 이동 로봇 각각은 상대와 네트워크를 통해 연결할 수 있다.The relay server 200 can provide the partner information in cooperation with the user equipment and the mobile robot. The relay server 200 provides the user equipment and the mobile robot with the identification information of the other party and the location information of the other party on the network, for example, the network address, so that the user equipment and the mobile robot can connect with each other through the network.

무선 공유기(300)는 이동 로봇이 배치된 위치와 기 설정된 범위 이내의 인접한 위치에 배치되어 네트워크에 접속되어 사용자 기기에서 전송하는 정보를 이동 로봇으로 전달하고, 이동 로봇에서 전송하는 정보를 사용자 기기로 전달할 수 있다.The wireless router 300 is disposed at a position adjacent to the position where the mobile robot is disposed and adjacent to the mobile robot 300. The wireless router 300 transmits information transmitted from the user equipment to the mobile robot, .

이때, 무선 공유기(300)는 인터넷 라인에 연결하여 무선 신호를 송출하면서, 복수개의 소프트웨어 장치가 하나의 인터넷 라인을 공유해 동시에 인터넷 접근이 가능하게 하는 네트워크 기기이다. 무선 공유기(300)는 AP(Access Point)로서, 일정 거리의 무선 통신 가능 영역에서 무선 통신을 수행하여 이동 로봇(400)을 네트워크에 연결한다.At this time, the wireless router 300 is a network device that connects to an Internet line to transmit a wireless signal, and allows a plurality of software devices to share one Internet line and simultaneously access the Internet. The wireless router 300, as an access point (AP), performs wireless communication in a wireless coverage area of a predetermined distance and connects the mobile robot 400 to the network.

이동 로봇(400)은 네트워크를 통해 사용자 기기(100)와 연동하여 사용자 기기(100)로부터 제공 받은 사용자 명령에 따라 동작하면서 각종 정보를 사용자 기기(100)에 제공할 수 있다.The mobile robot 400 can provide various information to the user device 100 while operating in accordance with a user command provided from the user device 100 in cooperation with the user device 100 through the network.

이때, 이동 로봇(400)은 예를 들어, 청소로봇, 병원 서비스 로봇, 물류 서비스 로봇, 군사용 로봇, 산업용 로봇으로 예시될 수 있으며 로봇의 종류에 제한은 없다. 다만, 아래의 실시예에서는 대표적인 이동 로봇인 청소 로봇을 위주로 설명한다.At this time, the mobile robot 400 can be exemplified as a cleaning robot, a hospital service robot, a logistics service robot, a military robot, and an industrial robot. In the following embodiments, a cleaning robot, which is a representative mobile robot, is mainly described.

또한, 무선 통신은 무선 랜(Wireless LAN; WLAN), 와이파이(Wi-Fi), Wibro(Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등을 포함한다.In addition, the wireless communication may be performed by a wireless LAN (WLAN), a Wi-Fi, a Wibro (wireless broadband), a Wimax (World Interoperability for Microwave Access), a HSDPA (High Speed Downlink Packet Access) (Radio Frequency Identification), IrDA (Infrared Data Association), UWB (Ultra Wideband), ZigBee, 3G (3rd Generation), 3rd Generation Partnership Project (3GPP), Long Term Evolution .

도 2는 본 발명의 일 실시예에 따른 네트워크 설정 과정을 나타내는 도면이다.2 is a diagram illustrating a network setup process according to an embodiment of the present invention.

도 2에 도시한 바와 같이, 이동 로봇이 무선 공유기로서의 역할 즉, 제1 모드를 수행하도록 설정되는 경우(S201), 사용자 기기는 무선 공유기로서의 역할을 수행하는 무선 공유기에 무선 연결할 수 있다(S202).2, when the mobile robot is set to perform the role of the wireless router (i.e., the first mode) (S201), the user equipment can wirelessly connect to the wireless router performing the role of the wireless router (S202) .

이때, 이동 로봇은 무선 공유기에 연결하기 위한 네트워크 어댑터를 가지고 있는데, 네트워크 어댑터는 무선 공유기의 역할을 수행하는 제1 모드 즉, soft-AP(Software enabled Access Point) 또는 인프라스트럭처 모드(infrastructure mode)를 수행하거나 무선 공유기에 연결하는 제2 모드 즉, 클라이언트 모드(client mode)로 동작할 수 있다.At this time, the mobile robot has a network adapter for connecting to the wireless router. The network adapter includes a first mode for performing a role of a wireless router, that is, a software enabled access point (soft AP) or an infrastructure mode Or a second mode of connecting to a wireless router, i.e., a client mode.

다음으로, 사용자 기기는 모바일 어플리케이션을 활성화할 수 있다(S203).Next, the user device can activate the mobile application (S203).

다음으로, 사용자 기기는 활성화된 모바일 어플리케이션을 통해 이동 로봇이 연결되어야 할 특정 무선 공유기의 정보 즉, SSID(Service Set Identifier), 보안 프로토콜, 보안 알고리즘, 보안 키 등의 정보를 이동 로봇에 전송할 수 있다(S204).Next, the user equipment can transmit to the mobile robot information such as SSID (Service Set Identifier), security protocol, security algorithm, security key, etc., of the specific wireless router to which the mobile robot should be connected through the activated mobile application (S204).

다음으로, 사용자 기기는 모바일 어플리케이션을 비활성화할 수 있다(S205).Next, the user device may deactivate the mobile application (S205).

다음으로, 이동 로봇은 특정 무선 공유기의 정보를 수신하면, 무선 공유기로서의 역할을 중단하고(S206), 수신된 정보를 설정하여(S207) 특정 무선 공유기에 연결할 수 있다(S208).Next, when the mobile robot receives the information of the specific wireless router, it stops serving as the wireless router (S206), sets the received information (S207), and connects to the specific wireless router (S208).

이때, 사용자 기기는 무선 공유기에 무선 연결한 후(S209) 모바일 어플리케이션을 활성화하여 활성화된 모바일 어플리케이션을 통해 이동 로봇을 제어할 수 있다(S210).At this time, after the user device wirelessly connects to the wireless router (S209), the mobile application can be activated to control the mobile robot through the activated mobile application (S210).

이때, 사용자 기기와 이동 로봇은 실시간으로 음성 정보, 영상 정보와 같은 대용량의 정보를 교환해야 하는데, 본 발명에서는 사용자 기기와 이동 로봇 간 중계 서버를 통해 정보를 교환하거나 동등 계층간 연결(peer-to-peer connection)을 통해 정보를 교환할 수 있다.At this time, the user equipment and the mobile robot have to exchange large amounts of information such as voice information and image information in real time. In the present invention, peer-to-peer communication is performed between the user equipment and the mobile robot through the relay server -peer connection).

여기서는 사용자 기기와 이동 로봇 간 동등 계층간 연결을 적용한 경우를 일예로 설명한다.Here, a case where a connection between peer layers between a user equipment and a mobile robot is applied will be described as an example.

도 3은 본 발명의 일 실시예에 따른 동등 계층간 연결 구조를 나타내는 도면이다.3 is a diagram illustrating a connection structure between peers according to an embodiment of the present invention.

도 3에 도시한 바와 같이, 사용자 기기와 이동 로봇은 중계 서버로부터 상대의 식별 정보와 상대의 네트워크 상의 위치 정보를 획득하여 상호 연결 즉, 동등 계층간 연결을 이룬다.As shown in FIG. 3, the user equipment and the mobile robot acquire the identification information of the counterpart and the positional information of the counterpart network from the relay server, thereby establishing mutual connection, that is, connection between peers.

이때, 사용자 기기와 이동 로봇은 두 ICE(Interactive connectivity Establishment) 프로토콜을 통해 연결 및 통신을 수행하는 ICE 프레임워크를 구비한다.At this time, the user equipment and the mobile robot have an ICE framework for performing connection and communication through two ICE (Interactive Association Establishment) protocols.

또한, 동등 계층간 연결을 위해서는 중계 서버와 별도로 자신의 네트워크 상의 위치 정보를 얻기 위한 STUN(Session Traversal Utilities for NAT) 서버를 구비한다.In addition, for connection between peers, a STUN (Session Traversal Utilities for NAT) server is provided to acquire location information on the own network separately from the relay server.

이렇게 사용자 기기와 이동 로봇 간에 동등 계층간 연결이 수립되면, 음성 정보, 영상 정보, 제어 정보 등을 교환할 수 있는데, 정보 교환 원리를 설명하기로 한다.When the connection between peer layers is established between the user equipment and the mobile robot, voice information, image information, control information, and the like can be exchanged, and the principle of information exchange will be described.

도 4a 내지 도 4b는 본 발명의 일 실시예에 따른 정보 교환 원리를 설명하기 위한 도면이다.4A to 4B are views for explaining the information exchange principle according to an embodiment of the present invention.

도 4a에 도시한 바와 같이, 제어 정보를 교환하는 경우, 이동 로봇은 사용자의 입력을 통해 이벤트가 발생하면 이벤트에 상응하는 명령을 생성하고 생성된 명령을 네트워크 패킷 형태로 동등 계층간 연결을 통해 사용자 기기로 전송한다.As shown in FIG. 4A, when exchanging control information, the mobile robot generates a command corresponding to an event when an event occurs through a user's input, and transmits the generated command in the form of a network packet to the user To the device.

사용자 기기는 이동 로봇으로부터 동등 계층간 연결을 통해 명령을 수신하고 수신된 명령을 해석하여 그 해석한 결과로 해당 명령에 상응하는 동작을 수행할 수 있다.The user equipment receives the command from the mobile robot through the connection between the peer hierarchies, analyzes the received command, and can perform an operation corresponding to the interpreted result.

도 4b에 도시한 바와 같이, 이동 로봇이 위치한 곳의 주변 영상이나 음성을 사용자 기기의 사용자가 확인하거나 이동 로봇이 위치한 곳에 다른 사용자가 있을 경우 음성 통화 또는 영상 통화가 가능하다.As shown in FIG. 4B, when a user of the user device confirms a surrounding image or voice at a location where the mobile robot is located, or when another user is located at a location where the mobile robot is located, voice communication or video communication is possible.

예컨대, 음성 정보와 영상 정보를 교환하는 경우, 이동 로봇은 카메라를 통해 입력되는 영상 정보와 마이크를 통해 입력되는 음성 정보를 가공하여 동등 계층간 연결을 통해 사용자 기기에 전송한다.For example, when voice information and video information are exchanged, the mobile robot processes the video information input through the camera and the voice information input through the microphone, and transmits the video information to the user equipment through the connection between the equal layers.

사용자 기기는 이동 로봇으로부터 음성 정보와 영상 정보를 수신하고 수신된 음성 정보와 영상 정보를 역 가공하여 영상 출력장치와 음성 출력장치를 통해 재생시킬 수 있다.The user equipment receives the voice information and the video information from the mobile robot, reverses the received voice information and the video information, and reproduces the voice information and the voice information through the video output device and the voice output device.

도 5는 본 발명의 일 실시예에 따른 주행/청소 제어 기능을 설명하기 위한 도면이다.5 is a view for explaining a driving / cleaning control function according to an embodiment of the present invention.

도 5에 도시한 바와 같이, 사용자 기기에서 이동 로봇을 제어하기 위한 모바일 어플리케이션의 화면을 보여주고 있는데, 우측 하단의 3개의 버튼을 통해 이동 방향 및 주행 여부가 결정될 수 있다.As shown in FIG. 5, a screen of a mobile application for controlling a mobile robot in a user equipment is shown, and a moving direction and a traveling state can be determined through three buttons on the lower right side.

예컨대, 사용자가 하나의 버튼을 누르게 되면, 사용자 기기는 누른 버튼에 상응하는 이동 방향과 주행 시작이라는 명령을 네트워크를 통해 이동 로봇에 전달하고, 이동 로봇은 수신된 명령을 해석하여 해당 이동 방향으로 주행을 시작한다.For example, when the user presses one button, the user equipment transmits a command of moving direction and traveling start corresponding to the pressed button to the mobile robot through the network, and the mobile robot interprets the received command and travels in the moving direction .

사용자가 누르고 있는 해당 버튼에서 손을 떼게 되면, 사용자 기기는 로봇 정지라는 명령을 이동 로봇에 전달하고 이동 로봇은 명령을 해석하여 주행을 정지한다.When the user depresses the corresponding button that the user presses down, the user device transmits an instruction to stop the robot to the mobile robot, and the mobile robot interprets the command and stops the travel.

또한, 사용자는 메뉴 또는 버튼을 통해 청소 모드를 선택할 수 있는데, 이러한 청소 모드는 예컨대, 자동으로 청소하는 자동 모드(automatic mode), 청소 시작 지점을 중점적으로 청소하는 스팟 모드(spot mode), 청소 흡입력을 강하게 하는 터보 모드(turbo mode), 청소 흡입력을 약하게 하는 조용 모드(silent mode)를 포함할 수 있다.In addition, the user can select a cleaning mode through a menu or a button. The cleaning mode includes, for example, an automatic mode for automatically cleaning, a spot mode for cleaning the cleaning start point, A turbo mode to strengthen the suction force, and a silent mode to weaken the suction force.

또한, 사용자는 메뉴 또는 버튼을 통해 청소 시작, 청소 중지, 충전 등을 명령한다.In addition, the user instructs start of cleaning, stop of cleaning, charging, etc. through a menu or a button.

도 6a 내지 도 6b는 본 발명의 일 실시예에 따른 지도 정보 확인 기능을 설명하기 위한 도면이다.6A and 6B are views for explaining a map information checking function according to an embodiment of the present invention.

도 6a 내지 도 6b에 도시한 바와 같이, 이동 로봇은 이동하면서 카메라를 통해 취득한 영상을 가지고 SLAM 기술을 기반으로 지도를 생성할 수 있다. 이때, 이동 로봇에 장착되어 있는 초음파 센서, 바닥 감지 센서, 적외선 센서, 부하전류 센서 등으로부터 수집된 정보를 지도에 반영하여 보다 정확한 지도를 생성한다.As shown in FIGS. 6A and 6B, the mobile robot can generate a map based on the SLAM technology with the images acquired through the camera while moving. At this time, the information collected from the ultrasonic sensor, the floor sensor, the infrared sensor, the load current sensor, and the like mounted on the mobile robot is reflected on the map to generate a more accurate map.

이동 로봇이 생성하는 지도 정보는 정방형 격자의 배열로 구성되고 각 정방형 격자는 해당 지역의 형태를 구분할 수 있는 정보를 포함할 수 있다. 해당 지역의 형태를 구분할 수 있는 정보로는 이미 청소한 지역, 이동할 수 없는 장애물, 절벽과 같이 바닥이 검출되지 않는 지역, 미끄럼이 발생한 지역, 바닥이 카펫인 지역, 바닥에 마그넷스트립이 있는 지역, 바닥에 먼지가 많은 지역 등을 포함할 수 있다.The map information generated by the mobile robot is composed of an array of square lattices, and each square lattice can include information that can distinguish the shape of the area. Information that can identify the type of area is the area already cleaned, the obstacle that can not be moved, the area where the floor is not detected such as a cliff, the slip area, the floor carpet area, the area with the magnet strip on the floor, Dusty areas on the floor, and the like.

이렇게 지역의 형태를 구분할 수 있는 정보에 따라 정방향 격자의 색은 다르게 표시될 수 있다.The color of the forward grid can be displayed differently depending on the information that can distinguish the local form.

이동 로봇은 청소 중 생성되거나 갱신된 정방형 격자의 배열로 이루어진 지도 정보를 사용자 기기에 전달함으로써 사용자 기기는 실시간으로 지도 정보가 갱신되는 과정을 확인할 수 있고, 지도 정보에 포함된 정보를 통해 청소 상태를 파악할 수 있다.The mobile robot transmits map information including an array of square lattices generated or updated during the cleaning to the user equipment, so that the user equipment can check the process of updating the map information in real time, .

이때, 이동 로봇은 기 완성된 지도 정보만을 제공하지 않고, 도 6a와 같이 생성 중인 지도 정보를 전달하거나 도 6b와 같이 생성이 완료된 지도 정보를 전달할 수 있다.At this time, the mobile robot does not provide only the completed map information but can transmit the generated map information as shown in FIG. 6A or can transmit the generated map information as shown in FIG. 6B.

이동 로봇은 한번 청소가 완료되는 경우 청소 대상 지역에 대한 전체 지도 정보를 획득하고 획득된 지도 정보는 청소 대상 지역을 다시 청소할 때 참조될 수 있다.The mobile robot acquires the entire map information about the area to be cleaned once cleaning is completed and the obtained map information can be referred to when cleaning the area to be cleaned again.

도 7a 내지 도 7c는 본 발명의 일 실시예에 따른 청소 지역 설정 기능을 설명하기 위한 도면이다.7A to 7C are views for explaining a cleaning area setting function according to an embodiment of the present invention.

도 7a 내지 7c에 도시한 바와 같이, 사용자 기기가 지도 정보를 화면 상에 표시하면 사용자는 표시된 지도 정보 내에서 미리 정해진 방법으로 진입 금지 지역, 집중 청소 지역을 설정할 수 있다.As shown in FIGS. 7A to 7C, when the user device displays the map information on the screen, the user can set the entry prohibited area and the concentrated cleaning area in a predetermined manner in the displayed map information.

그 일예로, 사용자가 사용자 기기의 지도 화면에 진입 금지 지역과 집중 청소 지역을 지정하기 위한 버튼을 누른 후 터치를 통해 해당 지역을 지정할 수 있다. 도 7a와 같이, 사용자가 지정하고 싶은 사각형 영역의 임의의 한 꼭지점을 잠시 동안 누른 후 누른 상태에서 사각형 영역의 마주보는 꼭지점까지 드래그한 후 떼면, 도 7b와 같이 사각형 영역이 해당 지역으로 지정된다.For example, a user can designate a corresponding area by touching a button for designating an entry prohibited area and an intensive cleaning area on a map screen of a user device. As shown in FIG. 7A, if a user depresses an arbitrary vertex of a rectangular area to be designated for a while and then drags the vertex to the opposite vertex of the rectangular area, the square area is designated as a corresponding area as shown in FIG. 7B.

이렇게 설정된 진입 금지 지역과 집중 청소 지역의 정보는 지도 상에서 사각형의 영역으로 표현되며 사각형의 좌측 상단의 좌표와 우측 하단의 좌표로 구성될 수 있다.The information of the prohibited entry area and the concentrated cleaning area is expressed as a square area on the map and can be composed of the coordinates of the upper left corner and the coordinates of the lower right corner of the rectangle.

다른 예로, 사용자가 사용자 기기의 지도 화면에 진입 금지 지역과 집중 청소 지역을 지정하기 위한 버튼을 누른 후 미리 설정된 진입 금지 지역 또는 집중 청소 지역을 잠시 눌러 삭제 여부를 묻는 메시지가 뜨면 이 메시지에 응답하여 해당 지역의 설정을 삭제할 수 있다.As another example, if the user presses a button for designating an entry prohibited area and an intensive cleaning area on the map screen of the user device, and then a message asking whether to delete the entry prohibited area or the concentrated cleaning area is displayed You can delete the settings for that region.

도 7c와 같이 진입 금지 지역과 집중 청소 지역은 필요에 따라 다수 개가 설정될 수 있다.As shown in FIG. 7C, a plurality of entry prohibited areas and concentrated cleaning areas can be set as needed.

도 8a 내지 도 8b는 본 발명의 일 실시예에 따른 청소 일정 설정 기능을 설명하기 위한 도면이다.8A and 8B illustrate a cleaning schedule setting function according to an embodiment of the present invention.

도 8a 내지 도 8b에 도시한 바와 같이, 이동 로봇은 사용자의 직접적인 청소 지시 신호에 의한 청소 수행 외에도 사용자에 의해 예약된 시각에 청소를 수행할 수 있다.As shown in FIGS. 8A and 8B, the mobile robot can perform cleaning at a time reserved by the user in addition to cleaning performed by a user's direct cleaning instruction signal.

도 8a와 같이 사용자는 청소 수행을 예약하기 위한 화면에서 청소를 시작할 시각, 청소를 수행할 요일을 설정할 수 있고, 도 8b와 같이 다수 개의 예약이 가능하다.As shown in FIG. 8A, the user can set a time to start cleaning and a day to perform cleaning on a screen for making a reservation for performing cleaning, and a plurality of reservations can be made as shown in FIG. 8B.

사용자 기기는 청소 일정이 예약되면 청소 예약에 해당하는 명령이 이동 로봇으로 전달되고 이동 로봇은 청소 일정을 저장하고 해당 요일, 시각에 청소를 수행한다.When the cleaning schedule of the user equipment is reserved, a command corresponding to the cleaning reservation is transmitted to the mobile robot, and the mobile robot stores the cleaning schedule and performs cleaning at the corresponding day and time.

이때, 이동 로봇은 저장된 지도를 이용하여 청소를 수행하는데, 일반적으로 다른 곳으로 이동하여 청소를 수행하는 경우 새로운 지도를 작성하여 청소를 수행하게 된다. 따라서 본 발명에서는 하나의 지도만을 생성하지 않고 작업 환경에 따라 다른 다수의 지도를 생성하여 선택적으로 사용하고자 한다.At this time, the mobile robot performs cleaning using the stored map. In general, when the robot moves to another location and performs cleaning, a new map is created and cleaned. Therefore, in the present invention, a plurality of maps different according to the work environment are generated without using only one map, and the map is selectively used.

도 9a 내지 도 9b는 본 발명의 일 실시예에 따른 복합 지도 정보를 설명하기 위한 도면이다.9A to 9B are views for explaining compound map information according to an embodiment of the present invention.

도 9a 내지 도 9b에 도시한 바와 같이, 본 발명에서는 다수의 지도를 생성하되, 도 9a와 같이 청소 가능 영역을 표시하는 청소 영역 지도, 도 9b와 같이 청소 영역 내 위치를 인식하기 위한 환경 정보를 포함하는 환경 정보 지도, 및 사용자에 의해 설정된 옵션 정보로 구성되는 다수의 복합 지도 정보를 생성할 수 있다.As shown in FIGS. 9A and 9B, in the present invention, a plurality of maps are generated, and a cleaning area map indicating a cleanable area as shown in FIG. 9A, and environment information for recognizing a cleaning area in FIG. A plurality of pieces of complex map information constituted by an environmental information map included, and option information set by the user.

하나의 복합 지도 정보는 {청소 영역 지도, 환경 정보 지도, 옵션 정보}로 구성될 수 있다.One composite map information may be composed of {cleaning area map, environmental information map, option information}.

청소 영역 지도는 청소 대상인 청소 영역에 대한 정방형 격자의 배열로 구성된 지도일 수 있다. 각 정방형 격자는 해당 지역의 형태를 구분할 수 있는 정보를 포함할 수 있다.The cleaning area map may be a map composed of an array of square lattices for the cleaning area to be cleaned. Each square grid may contain information that can distinguish the shape of the area.

예컨대, 청소 영역 지도는 청소를 완료한 영역, 장애물 정보, 충전 스테이션 정보 등을 함께 저장한다.For example, the cleaning area map stores the cleaning completed area, obstacle information, charging station information, and the like together.

환경 정보 지도는 청소 영역 내 이동 로봇의 위치를 인식하기 위한 환경 정보로 구성된 지도로서, 환경 정보는 예컨대, 카메라에 의해 촬영된 영상으로부터 추출된 특징점의 좌표 등을 포함할 수 있다. 이러한 환경 정보는 청소 영역 지도를 구성하는 정방형 격자마다 생성되며, 다수 개일 수 있다.The environmental information map is a map composed of environmental information for recognizing the position of the mobile robot in the cleaning area. The environmental information may include coordinates of the minutiae extracted from the image photographed by the camera, for example. Such environmental information is generated for each square lattice constituting the cleaning area map, and may be plural.

옵션 정보는 사용자에 의해 설정되는 정보로서, 예컨대, 진입 금지 영역, 집중 청소 영역 등을 나타내는 청소 영역 정보, 이동 패턴, 이동 속도, 청소 순서 등을 나타내는 청소 방식 정보 등을 포함할 수 있다.The option information is information set by the user, and may include, for example, cleaning area information indicating an entry prohibited area, an intensive cleaning area, cleaning pattern information indicating a moving pattern, a moving speed,

이러한 복합 지도 정보는 동일 장소에 대해 다수 개로 생성될 수 있고, 다른 장소에 대해 다수 개로 생성될 수도 있다. 예컨대, 동일 장소에서 룸(room)의 방문이 닫혀있는 경우와 그렇지 않은 경우 각각에 대한 복합 지도 정보가 생성될 수 있고 복층의 환경일 경우 각 층마다 복합 지도 정보가 생성될 수 있다.Such composite map information may be generated for a plurality of locations for the same location, or may be generated for a plurality of locations for different locations. For example, it is possible to generate composite map information for both the case where the room is closed at the same place and the case where the room is closed at the same place, and the composite map information for each layer can be generated when the environment is a multi-layered environment.

이러한 복합 지도 정보는 이동 로봇 스스로 작성한 지도 정보일 수 있지만 반드시 이에 한정되지 않고 사용자가 사용자 기기를 통해 제공한 지도 정보일 수도 있다.The complex map information may be map information created by the mobile robot itself, but it is not necessarily limited thereto, and may be map information provided by the user through the user device.

도 10은 본 발명의 일 실시예에 따른 청소를 수행하기 위한 방법을 나타내는 도면이다.10 is a diagram illustrating a method for performing cleaning according to an embodiment of the present invention.

도 10에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 로봇은 사용자 또는 사용자 기기로부터 제어 명령 예컨대, 청소 시작 명령을 입력 받으면(S1001), 미리 저장된 복합 지도 정보가 존재하는지를 확인할 수 있다(S1002).As shown in FIG. 10, the mobile robot according to an embodiment of the present invention can receive a control command (e.g., a cleaning start command) from a user or a user equipment (S1001) to check whether there is any stored complex map information S1002).

다음으로, 이동 로봇은 복합 지도 정보가 존재하는 경우, 청소 시작 전 위치를 판단하기 위한 탐색 모드를 구동하여(S1003) 탐색 모드에 따라 제1 위치부터 청소를 수행하면서 미리 설정된 방식에 따라 이동하여 영상을 획득할 수 있다(S1004).Next, when the compound map information exists, the mobile robot drives a search mode for determining the position before the start of cleaning (S1003), moves according to a preset method while performing cleaning from the first position according to the search mode, (S1004).

부연 설명하면, 이동 로봇의 구동 환경은 실내로서 실내 인테리어에 따라 다양한 구조가 있을 수 있는데, 이러한 구조는 반복적인 형태로 이루어질 수 있다. 이렇게 단순한 구조로 반복되어 구성된 구동 환경의 경우 이동 로봇이 청소 시작 전 제자리에서 획득한 정보만으로는 정확한 현재의 위치를 추정할 수 없어 본 발명에서는 다양한 방식으로 정보를 획득하고자 한다.In other words, the driving environment of the mobile robot may have various structures depending on the interior of the room, and the structure may be repeated. In the case of the driving environment constructed repeatedly with such a simple structure, since the mobile robot can not estimate the accurate current position only by the information acquired in place before the cleaning, the present invention intends to acquire information in various ways.

예컨대, 1)제1 방식은 이동 로봇이 제자리에서 회전을 하면서 카메라로부터 영상을 획득하는 방식이다. 제1 방식을 통해 획득된 영상으로부터 추출된 정보는 정지 동작에서 획득한 정보보다 지도 정보와 높은 매칭률을 보일 수 있다. 그러나 여전히 단순 반복 구조의 실내 환경에서는 낮은 매칭률을 보일 수 있다.For example, 1) the first method is a method in which the mobile robot rotates in place and acquires an image from the camera. The information extracted from the image obtained through the first scheme may show a higher matching rate with the map information than the information obtained from the stopping operation. However, it can still show a low matching rate in the indoor environment of the simple repetition structure.

2)제2 방식은 이동 로봇이 제자리에서 회전을 한 후 직선 주행을 하는 과정에서 카메라로부터 영상을 획득하는 방식이며, 3)제3 방식은 상기 제1 방식과 상기 제2 방식을 병합하되, 실제 사용하는 주행 패턴을 기반으로 주행하는 방식이다.2) The second method is a method of acquiring an image from a camera in the course of straight traveling after the mobile robot rotates in place. 3) The third method merges the first method and the second method, It travels based on the driving pattern you use.

이때, 이동 로봇은 실제 청소를 수행하는 경우와 동일한 이동 패턴으로 동작하되, 위치 인식의 성공률을 높이기 위해 실제 이동 속도보다 낮은 속도로 동작한다.At this time, the mobile robot operates at a speed lower than the actual moving speed in order to increase the success rate of the position recognition operation while operating in the same movement pattern as in the actual cleaning.

반면, 이동 로봇은 복합 지도 정보가 존재하지 않는 경우, 새로운 복합 지도 정보를 생성하여 생성된 새로운 복합 지도 정보를 기반으로 청소를 수행할 수 있다(S1014).On the other hand, if the composite map information does not exist, the mobile robot can generate new composite map information and perform cleaning based on the generated new composite map information (S1014).

다음으로, 이동 로봇은 획득된 영상으로부터 특징점을 추출하여(S1005) 추출된 특징점으로 구성된 임시(temporary) 환경 정보 지도를 생성할 수 있다(S1006).Next, the mobile robot may extract a feature point from the acquired image (S1005) and generate a temporary environment information map including the extracted feature points (S1006).

이때, 특징점은 주로 모서리, 방 구석, 주요 물품의 에지 등으로부터 추출된다.At this time, the minutiae are extracted mainly from the edges, the corner, and the edge of the main article.

다음으로, 이동 로봇은 생성된 임시 환경 정보 지도를 구성하는 특징점들 간의 기하학 정보 예컨대, 기하학적 형상과 기하학적 상관관계 등을 추출할 수 있다(S1007).Next, the mobile robot can extract geometric information (e.g., geometric shape, geometric correlation, etc.) between the minutiae constituting the generated temporary environmental information map (S1007).

다음으로, 이동 로봇은 추출된 기하학 정보를 미리 저장된 복합 지도 정보와 비교하여(S1008) 그 비교한 결과로서 일치 정도를 나타내는 매칭률을 산출할 수 있다(S1009).Next, the mobile robot compares the extracted geometric information with previously stored complex map information (S1008), and calculates a matching rate indicating the degree of matching as a result of the comparison (S1009).

다음으로, 이동 로봇은 산출된 매칭률이 가장 높은 하나의 복합 지도 정보를 선택할 수 있다(S1010). 즉, 이동 로봇은 매칭률이 가장 높은 복합 지도 정보가 생성된 영역이 현재 자신이 위치하고 청소하고자 하는 대상인 청소 영역이라고 판단할 수 있다.Next, the mobile robot can select one composite map information having the highest matching rate calculated (S1010). That is, the mobile robot can determine that the area in which the composite map information with the highest matching rate is generated is the cleaning area in which the current location is located and is the object to be cleaned.

이때, 매칭률은 SAD(Sum of Absolute Differences), SSD(Sum of Squared Differences) 등을 이용하여 산출될 수 있는데, 반드시 이에 한정되지 않고 다양한 방식이 사용된다.At this time, the matching rate can be calculated using Sum of Absolute Differences (SAD), Sum of Squared Differences (SSD), and the like.

다음으로, 이동 로봇은 선택된 복합 지도 정보를 로딩하고 로딩된 복합 지도 정보를 구성하는 환경 정보 지도와 임시 환경 정보 지도를 비교하여 현재의 제2 위치를 인식할 수 있다(S1011).Next, the mobile robot loads the selected composite map information and compares the environment information map constituting the loaded composite map information with the temporary environment information map to recognize the current second position (S1011).

즉, 이동 로봇은 로딩된 복합 지도 정보를 구성하는 환경 정보 지도 중 임시 환경 정보 지도와 일치하는 환경 정보 지도의 해당 위치를 현재의 제2 위치로 인식한다.That is, the mobile robot recognizes the corresponding position of the environmental information map matching the temporary environmental information map among the environmental information maps constituting the loaded composite map information as the current second position.

이때, 이동 로봇은 임시 환경 정보 지도와 로딩된 복합 지도 정보를 구성하는 환경 정보 지도 모두를 비교하지 않고, 오도메트리 정보를 이용하여 이동 지점을 예측하고 예측된 이동 지점의 주변에 위치하는 환경 정보 지도들을 비교한다.At this time, the mobile robot does not compare both the temporary environment information map and the environmental information map constituting the loaded complex map information, and predicts the movement point using the odometry information, Compare the maps.

이를 위해서, 이동 로봇은 탐색 모드를 운영하는 중 관성 정보를 수집하여 수집된 관성 정보를 기반으로 오도메트리 정보 즉, 주행 거리와 주행 방향을 산출할 수 있다.For this purpose, the mobile robot collects the inertia information that operates the search mode and can calculate the odometry information, that is, the travel distance and the travel direction, based on the collected inertia information.

도 11은 본 발명의 일 실시예에 따른 위치 인식 과정을 설명하기 위한 도면이다.11 is a view for explaining a position recognition process according to an embodiment of the present invention.

도 11에 도시한 바와 같이, 이동 로봇이 제1 위치 R부터 탐색 모드에 따라 청소를 수행하면서 미리 설정된 방식으로 동작하여 영상을 획득하는 과정에서, 오도메트리 정보 즉, 주행 거리 d와 주행 방향 θ를 이용하여 이동 지점 P1을 예측 가능하다.11, in the process of acquiring an image by operating in a predetermined manner while the mobile robot performs cleaning according to the search mode from the first position R, the odometry information, that is, the travel distance d and the travel direction? It is possible to predict the moving point P1.

이때, 이동 로봇은 예측된 이동 지점 P1에서의 임시 환경 정보와, 상기 이동 지점 P1과 그 주변 P2, P3, P4, P5, P6, P7, P8, P9의 실제 복합 지도 정보를 구성하는 환경 정보 지도의 환경 정보를 비교하여 그 비교한 결과로 매칭률이 가장 높은 위치 P2를 제2 위치로 결정할 수 있다.At this time, the mobile robot of the temporary environment information from the predicted moving point P 1, the moving point P 1 and the surrounding P 2, P 3, P 4 , P 5, P 6, P 7, P 8, P 9 It is possible to compare the environmental information of the environmental information map constituting the actual composite map information and determine the position P 2 having the highest matching rate as the second comparison result.

다음으로, 이동 로봇은 제2 위치 인식 과정에서 청소 완료한 영역을 복합 지도 정보에 오버래핑할 수 있다(S1012). 즉, 이동 로봇은 탐색 모드에 따라 위치를 인식하는 과정에서 청소가 완료된 영역으로 복합 지도 정보를 업데이트할 수 있다.Next, the mobile robot may overlap the cleaned area with the composite map information in the second position recognition process (S1012). That is, the mobile robot can update the composite map information to the area where the cleaning is completed in the process of recognizing the position according to the search mode.

이처럼 이동 로봇은 위치 인식 과정에서 이미 청소 완료한 영역에 대한 확인이 가능하기 때문에, 이로 인해 청소 시간이 단축되며 청소 효율성을 높일 수 있다.In this way, since the mobile robot can confirm the already cleaned area in the location recognition process, the cleaning time can be shortened and the cleaning efficiency can be improved.

다음으로, 이동 로봇은 복합 지도 정보의 제2 위치로부터 청소를 시작할 수 있다(S1013).Next, the mobile robot can start cleaning from the second position of the composite map information (S1013).

도 12는 본 발명의 일 실시예에 따른 이동 로봇의 상세한 구성을 나타내는 도면이다.12 is a view showing a detailed configuration of a mobile robot according to an embodiment of the present invention.

도 12에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 로봇(400)은 영상 획득부(110), IMU(120), 통신부(130), 제어부(140), 오디오 입출력부(150), 영상 표시부(160), 저장부(170)를 포함할 수 있다.12, the mobile robot 400 includes an image acquisition unit 110, an IMU 120, a communication unit 130, a control unit 140, an audio input / output unit 150, An image display unit 160, and a storage unit 170.

영상 획득부(110)는 예컨대, 카메라로서, 기 설정된 관심 영역을 갖도록 장착되어 영상을 획득할 수 있다. 여기서, 관심 영역이란 이동 로봇에 구비된 카메라를 이용하여 촬영하고자 하는 영역이 될 것이다.The image acquiring unit 110 may be mounted, for example, as a camera to have a predetermined region of interest to acquire an image. Here, the region of interest is an area to be photographed using a camera provided in the mobile robot.

IMU(120)는 이동 로봇의 관성 정보 예컨대, 위치, 자세 등의 정보를 측정할 수 있다. 이러한 IMU(120)는 예컨대, 자이로 센서(121), 가속도 센서(122)를 포함할 수 있다.The IMU 120 can measure inertia information of the mobile robot, such as position, posture, and the like. The IMU 120 may include, for example, a gyro sensor 121 and an acceleration sensor 122.

자이로 센서(121)는 이동 로봇의 각속도 정보를 수집한다.The gyro sensor 121 collects angular velocity information of the mobile robot.

본 발명의 일 실시예에 따른 이동 로봇은 3차원 각도 정보를 이용하여 이동 로봇의 자세나 동작 상태를 구분하고 구분된 자세나 동작 상태를 이용하여 이동 로봇을 제어하는바, 자이로 센서(121)는 3축 센서인 것이 바람직하다.The mobile robot according to an embodiment of the present invention classifies the posture or operation state of the mobile robot using the three-dimensional angle information, and controls the mobile robot using the posture or the operation state. The gyro sensor 121 It is preferable to be a three-axis sensor.

즉, 자이로 센서(121)는 x축, y축, z축의 3축의 각속도 정보를 수집할 수 있다.That is, the gyro sensor 121 can collect angular velocity information of three axes of x-axis, y-axis, and z-axis.

3축 자이로 센서(121)에서 감지하는 x축, y축, z축의 3측의 각속도를 각각 롤(roll), 피치(pitch), 요(yaw)라고 한다.The three angular velocities of the x-axis, y-axis, and z-axis sensed by the three-axis gyro sensor 121 are referred to as roll, pitch, and yaw, respectively.

구체적으로 이동 로봇이 x축을 중심으로 회전하는 것을 롤(roll), y축을 중심으로 회전하는 것을 피치(pitch), z축을 중심으로 회전하는 것을 요(yaw)라고 한다.Specifically, it is said that the rotation of the mobile robot about the x-axis is a roll, the rotation about the y-axis is a pitch, and the rotation about the z-axis is yaw.

본 발명에서는 획득하고자 하는 3차원 각속도 정보는 롤, 피치, 요를 의미한다.In the present invention, the three-dimensional angular velocity information to be acquired means roll, pitch, and yaw.

가속도 센서(122)는 중력 가속도 및 이동 로봇의 이동에 의한 가속도를 측정한다. 이러한 가속도 센서(122)는 자이로 센서(121)와 마찬가지로 3축 센서인 것이다.The acceleration sensor 122 measures acceleration due to gravity acceleration and movement of the mobile robot. The acceleration sensor 122 is a three-axis sensor like the gyro sensor 121.

즉, 가속도 센서(122)는 x축, y축, z축의 3측의3축의 가속도 정보를 수집할 수 있다.That is, the acceleration sensor 122 can collect acceleration information of three axes on the x-axis, the y-axis, and the z-axis.

통신부(130)는 사용자 기기와 무선 통신으로 연동하여 각종 정보를 송수신할 수 있다. 예컨대, 통신부(130)는 사용자 기기로부터 제어 명령을 수신하고, 지도 정보를 사용자 기기에 송신할 수 있다.The communication unit 130 can transmit and receive various information in cooperation with the user equipment through wireless communication. For example, the communication unit 130 may receive the control command from the user equipment and transmit the map information to the user equipment.

제어부(140)는 청소 시작 명령에 따라 미리 저장된 복합 지도 정보를 기반으로 주행 모터와 흡입 모터를 구동시켜 이동하면서 청소를 수행하도록 제어할 수 있다.The control unit 140 may drive the traveling motor and the suction motor based on the composite map information stored in advance according to the cleaning start command to perform cleaning while moving.

제어부(140)는 IMU(120)로부터 제공 받은 관성 정보를 기반으로 오도메트리 정보 즉, 주행 거리, 주행 방향 등을 획득하고 획득된 오도메트리 정보를 기반으로 이동 지점을 예측하고, 예측된 이동 지점을 기반으로 청소하고자 하는 영역에 대한 청소 영역 지도, 환경 정보 지도, 옵션 정보 등으로 구성된 복합 지도 정보를 생성 및 갱신할 수 있다.The control unit 140 acquires odometry information, that is, the driving distance and the driving direction, based on the inertia information provided from the IMU 120, predicts the moving point based on the obtained odometry information, A composite map information including a cleaning area map, an environmental information map, and option information for an area to be cleaned based on a point can be generated and updated.

제어부(140)는 기 저장된 다수의 복합 지도 정보 중 하나의 복합 지도 정보를 선택하여 선택된 복합 지도 정보를 기반으로 청소를 수행하도록 제어할 수 있다. 이때, 제어부(140)는 위치를 판단하기 위한 탐색 모드를 운영하여 그 탐색 모드에 따라 영상을 획득하고, 획득된 영상으로부터 특징점을 추출하여 추출된 특징점을 기반으로 임시 환경 정보 지도를 생성하며, 생성된 임시 환경 정보 지도와 기 저장된 다수의 복합 지도 정보 각각을 구성하는 환경 정보 지도를 비교하여 그 비교한 결과로 하나의 복합 지도 정보를 선택할 수 있다.The control unit 140 may select one of the previously stored complex map information and control to perform cleaning based on the selected composite map information. At this time, the control unit 140 operates a search mode for determining a location, acquires an image according to the search mode, extracts a feature point from the acquired image, generates a temporary environment information map based on the extracted feature points, And the environment information map constituting each of the plurality of stored complex map information is compared with each other, and one composite map information can be selected as a result of the comparison.

제어부(140)는 이동에 따른 이동 지점을 예측하여 예측된 이동 지점에 대한 환경 정보와 선택된 복합 지도 정보를 구성하는 환경 정보 지도를 비교하여 현재의 위치를 인식하고, 인식한 현재의 위치를 기반으로 청소를 수행하도록 제어할 수 있다.The control unit 140 estimates the movement point according to the movement, compares the environment information about the predicted movement point with the environment information map constituting the selected composite map information, recognizes the current position, and based on the recognized current position It can be controlled to perform cleaning.

제어부(140)는 복합 지도 정보를 기반으로 청소를 수행하면, 복합 지도 정보를 구성하는 청소 영역 지도 상의 청소 가능 영역과는 다른 청소 영역이 생성될 수 있다. 따라서, 제어부(140)는 청소가 완료된 후 새롭게 생성된 청소 영역 지도 상의 청소를 완료한 영역이 원래의 청소 영역 지도 상의 청소 가능 영역보다 넓을 경우 새롭게 생성된 청소 영역 지도가 사용자 환경에 더 적합하다고 판단되어, 새롭게 생성된 청소 영역 지도를 저장하고 기존의 청소 영역 지도를 삭제할 수 있다.If the control unit 140 performs cleaning based on the composite map information, a cleaning area different from the cleanable area on the cleaning area map constituting the composite map information can be created. Accordingly, when the area that has been cleaned on the newly created cleaning area map after cleaning is completed is wider than the cleanable area on the original cleaning area map, the controller 140 determines that the newly generated cleaning area map is more suitable for the user environment Thereby saving the newly generated cleaning area map and deleting the existing cleaning area map.

제어부(140)는 사용자 기기로부터 제어 명령을 수신하면, 수신된 제어 명령에 따라 이동 로봇을 제어할 수 있다. 그 일예로, 제어부(140)는 주행/청소 제어 기능을 위한 제어 명령에 따라 이동 로봇의 이동 방향, 이동 속도, 청소 시작, 청소 중지 등을 제어할 수 있다.When the control unit 140 receives the control command from the user equipment, the control unit 140 can control the mobile robot according to the received control command. For example, the control unit 140 may control the moving direction of the mobile robot, the moving speed, the start of cleaning, and the stop of cleaning according to a control command for the traveling / cleaning control function.

다른 예로, 제어부(140)는 지도 정보 확인 기능을 위한 제어 명령에 따라 기 저장된 다수의 복합 지도 정보를 사용자 기기에 제공할 수 있다.As another example, the control unit 140 may provide a plurality of previously stored composite map information to the user equipment according to a control command for the map information check function.

또 다른 예로, 제어부(140)는 청소 상황 확인 기능을 위한 제어 명령에 따라 청소 중 또는 이동 중에 청소한 영역, 청소할 영역 등을 사용자 기기에 전달할 수 있다.As another example, the control unit 140 may transmit a cleaned area, a cleaned area, or the like to the user equipment during cleaning or during movement according to a control command for the cleaning condition check function.

또 다른 예로, 제어부(140)는 영상 통화 기능에 따라 음성 데이터 또는 영상 데이터를 수신하여 출력하고 입력 받은 음성 데이터 또는 영상 데이터를 사용자 기기에 전달할 수 있다.As another example, the control unit 140 may receive voice data or image data according to a video call function, and output the received voice data or image data to the user equipment.

오디오 입출력부(150)는 음성 정보를 입력 받거나 출력할 수 있다. 이러한 오디오 출력부(150)는 음성 정보를 입력 받는 마이크, 음성 정보를 출력하는 스피커로 구성될 수 있다.The audio input / output unit 150 may receive or output audio information. The audio output unit 150 may include a microphone for receiving voice information and a speaker for outputting voice information.

영상 표시부(160)는 청소 영역 지도 등과 같은 영상 정보를 화면에 표시할 수 있을 뿐 아니라, 영상 통화 기능에 따라 사용자 기기로부터 수신된 영상 정보를 표시할 수 있다.The video display unit 160 can display video information such as a cleaning area map on the screen and display video information received from the user equipment according to the video call function.

저장부(170)는 운용 환경에 따라 다르게 생성된 다수의 복합 지도 정보를 저장할 수 있다. 저장부(170)는 복합 지도 정보를 구성하는 청소 영역 지도, 환경 영역 지도, 옵션 정보 등을 하나의 파일로 저장하거나 서로 연결된 다수의 파일로 저장할 수 있다.The storage unit 170 may store a plurality of pieces of complex map information generated according to the operating environment. The storage unit 170 may store a cleaning area map, an environment area map, option information, and the like, which form the composite map information, as a single file or a plurality of files connected to each other.

이러한 이동 로봇은 다양한 센서를 포함할 수 있는데, 예컨대, 장애물 감지 센서, 바닥 감지 센서 등을 포함할 수 있다. 장애물 감지 센서는 장애물과의 접촉 여부에 따라 접촉식 센서로 마련될 수도 있고, 비접촉식 센서로 마련될 수 있으며, 접촉식 센서와 비접촉식 센서가 혼용되어 마련되는 것도 가능하다.Such a mobile robot may include various sensors, for example, an obstacle detection sensor, a floor detection sensor, and the like. The obstacle detection sensor may be provided as a contact type sensor depending on whether the obstacle is in contact with an obstacle or may be provided as a non-contact type sensor, or a contact type sensor and a non-contact type sensor may be used in combination.

접촉식 센서는 실제로 이동 로봇이 장애물과 충돌함으로써 장애물을 감지하는 센서를 의미한다.The contact-type sensor means a sensor that actually detects obstacles when the mobile robot collides with obstacles.

비접촉식 센서는 이동 로봇이 장애물과 충돌하지 않거나 장애물과의 충돌 전에 장애물을 미리 감지하는 센서를 의미하며, 초음파 센서, 광 센서 또는 RF 센서 등을 포함할 수 있다. The non-contact type sensor means a sensor that does not collide with an obstacle or detects an obstacle in advance before collision with an obstacle. The non-contact type sensor may include an ultrasonic sensor, an optical sensor, or an RF sensor.

한편, 이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체 등이 포함될 수 있다.It is to be understood that the present invention is not limited to these embodiments, and all of the elements constituting the embodiments of the present invention described above may be combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer-readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement embodiments of the present invention. As the storage medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.

이상에서 설명한 실시예들은 그 일 예로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100: 사용자 기기
200: 중계 서버
300: 무선 공유기
400: 이동 로봇
100: User device
200: relay server
300: Wireless router
400: Mobile robot

Claims (15)

청소 가능 영역의 적어도 일부가 변경된 다수의 복합 지도 정보를 저장하는 저장부; 및
상기 저장된 다수의 복합 지도 정보 중 하나의 복합 지도 정보를 선택하고, 상기 선택된 복합 지도 정보를 구성하는 청소 영역 지도 상에서 위치를 인식하기 위한 환경 정보로 구성된 환경 정보 지도를 이용하여, 상기 인식된 위치로부터 상기 청소 가능 영역에 대한 청소를 수행하도록 제어하는 제어부;를 포함하되,
상기 제어부는 사용자에 의한 제어 명령에 따라 제1 위치에서 제2 위치까지 미리 설정된 방식으로 이동하면서 영상을 획득하고, 상기 획득된 영상으로부터 특징점을 추출하여 상기 추출된 특징점에 따른 임시 환경 정보로 구성된 임시 환경 정보 지도를 생성하며, 관성 정보를 이용하여 상기 제1 위치에서 상기 제2 위치까지 이동함에 따라 획득된 주행 거리 및 주행 방향을 포함하는 오도메트리 정보를 산출하고, 상기 산출된 오도메트리 정보를 기반으로 이동 지점을 예측하며, 상기 복합 지도 정보를 구성하는 상기 환경 정보 지도 모두를 비교하지 않고, 상기 이동 지점에서 얻은 상기 임시 환경 정보와 상기 이동 지점 및 상기 이동 지점의 주변에서 얻은 상기 환경 정보를 비교하며, 그 비교한 결과로 매칭률이 가장 높은 환경 정보에 상응하는 상기 복합 지도 정보를 기반으로 하는 지도 상에서의 지점을 상기 제2 위치로 결정하는 것을 특징으로 하는 복합 지도 정보 기반의 이동 로봇.
A storage unit for storing a plurality of pieces of complex map information in which at least a part of the cleanable area is changed; And
Using one of the plurality of stored composite map information and an environmental information map composed of environment information for recognizing a location on a cleaning area map constituting the selected composite map information, And a control unit for controlling the cleaning unit to perform cleaning for the cleanable area,
Wherein the control unit acquires an image while moving in a predetermined manner from a first position to a second position in accordance with a control command by a user, extracts a feature point from the obtained image, And generating odometry information including the odometry and the driving direction acquired as the vehicle moves from the first position to the second position using the inertia information, And the environmental information map constituting the composite map information is compared with the environment information obtained from the environment information obtained from the moving point and the environment information obtained from the moving point and the surroundings of the moving point And as a result of the comparison, it is judged whether or not the above- Composite map information based on the mobile robot, characterized in that for determining the point on the map based on the map information to said second position.
제1 항에 있어서,
상기 복합 지도 정보는,
청소 가능 영역을 표시하는 청소 영역 지도, 상기 청소 영역 지도 내 위치를 인식하기 위한 환경 정보로 구성된 환경 정보 지도, 사용자에 의해 설정된 옵션 정보를 포함하는, 복합 지도 정보 기반의 이동 로봇.
The method according to claim 1,
The composite map information includes:
Wherein the navigation information includes a cleaning area map indicating a cleanable area, an environment information map configured by environment information for recognizing a location in the cleaning area map, and option information set by a user.
삭제delete 삭제delete 제1 항에 있어서,
상기 제어부는,
상기 제2 위치가 결정되면, 상기 제1 위치에서 상기 제2 위치까지 청소가 완료된 영역으로 상기 복합 지도 정보를 구성하는 청소 영역 지도를 갱신하고,
상기 갱신된 청소 영역 지도 내 상기 제2 위치부터 상기 청소 가능 영역에 대한 청소를 수행하고 그 수행한 결과를 갱신하도록 제어하는, 복합 지도 정보 기반의 이동 로봇.
The method according to claim 1,
Wherein,
Updating the cleaning area map constituting the composite map information to the area where the cleaning is completed from the first position to the second position when the second position is determined,
And performs cleaning of the cleanable area from the second position in the updated cleaning area map, and updates the result of the cleaning.
제1 항에 있어서,
상기 제어부는,
상기 구성된 임시 환경 정보 지도로부터 미리 설정된 기하학 정보를 추출하고,
상기 추출된 기하학 정보를 기반으로 상기 임시 환경 정보 지도와 상기 저장된 다수의 복합 지도 정보 각각을 구성하는 환경 정보 지도를 비교하여 그 비교한 결과로 가장 매칭률이 높은 환경 정보 지도로 구성된 복합 지도 정보를 선택하는, 복합 지도 정보 기반의 이동 로봇.
The method according to claim 1,
Wherein,
Extracts geometry information set in advance from the configured temporary environment information map,
And comparing the environment information map constituting each of the stored complex map information with the temporary environment information map based on the extracted geometry information and comparing the composite map information constituted by the environment information map having the highest matching rate as the comparison result A mobile robot based on compound map information to select.
제1 항에 있어서,
상기 제어부는,
사용자 기기로부터 무선 공유기의 정보를 수신하면, 상기 수신된 무선 공유기의 정보를 기반으로 해당 무선 공유기에 무선 연결하는, 복합 지도 정보 기반의 이동 로봇.
The method according to claim 1,
Wherein,
And when the information of the wireless router is received from the user equipment, the mobile robot wirelessly connects to the wireless router based on the information of the received wireless router.
제1 항에 있어서,
상기 제어부는,
사용자 기기에 무선 연결이 가능한 무선 공유기로서의 역할을 수행하기 위한 제1 모드를 운영하고,
상기 사용자 기기로부터 무선 공유기의 정보를 수신하면, 상기 제1 모드를 중지하며,
상기 제1 모드가 중지되면 상기 수신된 무선 공유기의 정보를 기반으로 해당 무선 공유기에 연결하기 위한 제2 모드를 운영하는, 복합 지도 정보 기반의 이동 로봇.
The method according to claim 1,
Wherein,
A first mode for performing a role as a wireless router capable of wireless connection to a user device is operated,
Upon receiving the information of the wireless router from the user equipment, stops the first mode,
And when the first mode is suspended, operates the second mode for connecting to the wireless router based on the received information of the wireless router.
청소 가능 영역의 적어도 일부를 포함하는 복합 지도 정보를 저장하고 상기 저장된 복합 지도 정보를 구성하는 청소 영역 지도 상에서 위치를 인식하기 위한 환경 정보로 구성된 환경 정보 지도를 이용하여, 상기 청소 가능 영역에 대한 청소를 수행하는 이동 로봇;
상기 이동 로봇이 위치하는 공간에 배치되어, 상기 이동 로봇과 무선 연결되는 무선 공유기; 및
상기 무선 공유기를 통해 상기 이동 로봇에 제어 명령을 송신하고 이에 대한 응답으로 상기 이동 로봇이 미리 저장된 복합 지도 정보를 기반으로 청소를 수행하면서 청소가 완료된 영역에 대한 정보와 상기 복합 지도 정보를 수신하는 사용자 기기;를 포함하되,
상기 이동 로봇은 사용자에 의한 제어 명령에 따라 제1 위치에서 제2 위치까지 미리 설정된 방식으로 이동하면서 영상을 획득하고, 상기 획득된 영상으로부터 특징점을 추출하여 상기 추출된 특징점에 따른 임시 환경 정보로 구성된 임시 환경 정보 지도를 생성하며, 관성 정보를 이용하여 이동 지점을 예측하여 예측된 이동 지점에서 얻은 임시 환경 정보와 상기 이동 지점 및 상기 이동 지점의 주변에서 얻은 상기 환경 정보를 비교하며, 그 비교한 결과로 매칭률이 가장 높은 환경 정보에 상응하는 상기 복합 지도 정보를 기반으로 하는 지도 상에서의 지점을 상기 제2 위치를 결정하고,
상기 사용자 기기는 상기 이동 로봇으로부터 결정된 제1 위치 및 제2 위치가 표시된 복합 지도 정보를 수신하는 것을 특징으로 하는, 이동 로봇을 운영하기 위한 시스템.
And a cleaning information storage unit for storing the composite map information including at least a part of the cleanable area and cleaning the cleanable area by using an environment information map for storing the composite map information, A mobile robot for performing the following functions;
A wireless router disposed in a space where the mobile robot is located and wirelessly connected to the mobile robot; And
The control unit transmits a control command to the mobile robot through the wireless router, and performs cleaning based on the composite map information stored in advance by the mobile robot in response to the control command, Device,
Wherein the mobile robot acquires an image while moving in a predetermined manner from a first position to a second position in accordance with a control command by a user, extracts a feature point from the obtained image, A temporary environment information map is generated and the temporary environment information obtained at the predicted movement point by predicting the movement point using the inertia information is compared with the environmental information obtained at the movement point and the vicinity of the movement point, Determining a second point on the map based on the composite map information corresponding to the environment information having the highest matching rate,
Wherein the user equipment receives the composite map information indicating the determined first and second positions from the mobile robot.
제9 항에 있어서,
상기 사용자 기기는,
모바일 어플리케이션을 활성화하여 상기 활성화된 모바일 어플리케이션을 통해 상기 이동 로봇이 연결되어야 할 무선 공유기의 정보를 상기 이동 로봇에 전송하는, 이동 로봇을 운영하기 위한 시스템.
10. The method of claim 9,
Wherein the user equipment comprises:
Activating a mobile application and transmitting information of a wireless router to which the mobile robot is to be connected to the mobile robot through the activated mobile application.
제9 항에 있어서,
상기 사용자 기기는,
상기 이동 로봇에 제어 명령을 송신하여 이에 대한 응답으로 상기 이동 로봇으로부터 미리 저장된 다수의 복합 지도 정보를 제공 받고,
상기 제공 받은 다수의 복합 지도 정보 중 사용자로부터 하나의 복합 지도 정보가 선택되면 그 선택된 결과를 상기 이동 로봇에 제공하는, 이동 로봇을 운영하기 위한 시스템.
10. The method of claim 9,
Wherein the user equipment comprises:
A control command is transmitted to the mobile robot, and a plurality of complex map information previously stored from the mobile robot is received in response to the control command,
And provides the selected result to the mobile robot when one piece of the complex map information is selected from the user among the plurality of provided complex map information.
사용자에 의한 제어 명령에 따라 미리 저장된 다수의 복합 지도 정보 중 하나의 복합 지도 정보를 선택하는 단계;
상기 선택된 복합 지도 정보를 구성하는 청소 영역 지도 상에서 위치를 인식하기 위한 환경 정보로 구성된 환경 정보 지도를 이용하여 위치를 인식하는 단계; 및
상기 인식된 위치로부터 상기 청소 영역 지도 내 청소 가능 영역에 대한 청소를 수행하면서, 수행한 결과로 청소가 완료된 영역으로 상기 청소 영역 지도를 갱신하는 단계;를 포함하되,
상기 청소 영역 지도를 갱신하는 단계는, 사용자에 의한 제어 명령에 따라 제1 위치에서 제2 위치까지 미리 설정된 방식으로 이동하면서 영상을 획득하고, 상기 획득된 영상으로부터 특징점을 추출하여 상기 추출된 특징점에 따른 임시 환경 정보로 구성된 임시 환경 정보 지도를 생성하며, 관성 정보를 이용하여 상기 제1 위치에서 상기 제2 위치까지 이동함에 따라 획득된 주행 거리 및 주행 방향을 포함하는 오도메트리 정보를 산출하고, 상기 산출된 오도메트리 정보를 기반으로 이동 지점을 예측하며, 상기 복합 지도 정보를 구성하는 상기 환경 정보 지도 모두를 비교하지 않고, 상기 이동 지점에서 얻은 상기 임시 환경 정보와 상기 이동 지점 및 상기 이동 지점의 주변에서 얻은 상기 환경 정보를 비교하며, 그 비교한 결과로 매칭률이 가장 높은 환경 정보에 상응하는 상기 복합 지도 정보를 기반으로 하는 지도 상에서의 지점을 상기 제2 위치로 결정하는 것을 특징으로 하는, 이동 로봇을 운영하기 위한 방법.
Selecting one of the plurality of pieces of complex map information stored according to a control command by a user;
Recognizing a location using an environment information map configured by environmental information for recognizing a location on a cleaning area map constituting the selected complex map information; And
And updating the cleaning area map to an area that has been cleaned as a result of performing cleaning on the cleanable area in the cleaning area map from the recognized position,
The step of updating the cleaning area map may include obtaining an image while moving in a predetermined manner from a first position to a second position in accordance with a control command by a user, extracting a feature point from the obtained image, Generating odometry information including the odometry information and the driving direction obtained as the vehicle moves from the first position to the second position using the inertia information, And the environment information map constituting the compound map information are compared with each other, the temporary environment information obtained from the movement point, the movement point and the movement point And compares the environmental information obtained from the surroundings of the environment And determining a point on the map based on the composite map information corresponding to the information as the second position.
삭제delete 삭제delete 제12 항에 있어서,
상기 갱신하는 단계는,
상기 제2 위치가 결정되면, 상기 제1 위치에서 상기 제2 위치까지 청소가 완료된 영역으로 상기 복합 지도 정보를 구성하는 청소 영역 지도를 갱신하고,
상기 갱신된 청소 영역 지도 내 상기 제2 위치부터 상기 청소 가능 영역에 대한 청소를 수행하고 그 수행한 결과를 갱신하는, 이동 로봇을 운영하기 위한 방법.
13. The method of claim 12,
Wherein the updating comprises:
Updating the cleaning area map constituting the composite map information to the area where the cleaning is completed from the first position to the second position when the second position is determined,
And performing cleaning on the cleanable area from the second location in the updated cleaning area map and updating the result of the cleaning.
KR1020170000350A 2016-01-20 2017-01-02 System for operating mobile robot based on complex map information and operating method thereof KR101901599B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/410,763 US10335949B2 (en) 2016-01-20 2017-01-19 System for operating mobile robot based on complex map information and operating method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020160007244 2016-01-20
KR20160007244 2016-01-20
KR1020160114021A KR20170087387A (en) 2016-01-20 2016-09-05 Multi-map management and its usage with relocation
KR1020160114021 2016-09-05

Publications (2)

Publication Number Publication Date
KR20170087403A KR20170087403A (en) 2017-07-28
KR101901599B1 true KR101901599B1 (en) 2018-09-28

Family

ID=59422500

Family Applications (5)

Application Number Title Priority Date Filing Date
KR1020160109293A KR101844744B1 (en) 2016-01-20 2016-08-26 Remote control apparatus and system for a mobile robot, and method thereof
KR1020160109294A KR101941060B1 (en) 2016-01-20 2016-08-26 Signal Processing Method and Apparatus for Performing Communication with Mobile Robot
KR1020160109292A KR101857952B1 (en) 2016-01-20 2016-08-26 Apparatus and System for Remotely Controlling a Robot Cleaner and Method thereof
KR1020160114021A KR20170087387A (en) 2016-01-20 2016-09-05 Multi-map management and its usage with relocation
KR1020170000350A KR101901599B1 (en) 2016-01-20 2017-01-02 System for operating mobile robot based on complex map information and operating method thereof

Family Applications Before (4)

Application Number Title Priority Date Filing Date
KR1020160109293A KR101844744B1 (en) 2016-01-20 2016-08-26 Remote control apparatus and system for a mobile robot, and method thereof
KR1020160109294A KR101941060B1 (en) 2016-01-20 2016-08-26 Signal Processing Method and Apparatus for Performing Communication with Mobile Robot
KR1020160109292A KR101857952B1 (en) 2016-01-20 2016-08-26 Apparatus and System for Remotely Controlling a Robot Cleaner and Method thereof
KR1020160114021A KR20170087387A (en) 2016-01-20 2016-09-05 Multi-map management and its usage with relocation

Country Status (1)

Country Link
KR (5) KR101844744B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200132098A (en) * 2019-05-15 2020-11-25 주식회사 폴라리스쓰리디 Localization system and means of transportation with the same and computing device for executing the same
WO2020246753A1 (en) * 2019-06-03 2020-12-10 Samsung Electronics Co., Ltd. Electronic apparatus for object recognition and control method thereof
KR20230094218A (en) 2021-12-20 2023-06-28 한국전자기술연구원 Autonomous driving mobile robot and method using schematic map
KR20230102387A (en) 2021-12-30 2023-07-07 주식회사 클로봇 Method, apparatus and program for correcting position of mobile robot corresponding to the map change
KR102611689B1 (en) * 2022-12-30 2023-12-08 한국로봇융합연구원 Robot cleaning system and control method thereof

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111093447B (en) 2017-09-26 2022-09-02 伊莱克斯公司 Movement control of a robotic cleaning device
EP3695282B1 (en) * 2017-10-11 2023-03-29 trinamiX GmbH Autonomous robotic device and associated control method
KR102428216B1 (en) * 2017-12-04 2022-08-01 엘지전자 주식회사 a Moving robot Using artificial intelligence, Controlling method for the moving robot, Controlling system for the moving robot
KR102008367B1 (en) * 2018-01-18 2019-08-07 소프트온넷(주) System and method for autonomous mobile robot using a.i. planning and smart indoor work management system using the robot
US11173605B2 (en) 2018-02-26 2021-11-16 dogugonggan Co., Ltd. Method of controlling mobile robot, apparatus for supporting the method, and delivery system using mobile robot
KR102500529B1 (en) * 2018-04-05 2023-02-15 엘지전자 주식회사 Moving Robot and controlling method
CN108628311B (en) * 2018-05-14 2021-11-02 努比亚技术有限公司 Control method, sweeping robot, terminal and computer-readable storage medium
KR102557736B1 (en) * 2018-07-19 2023-07-24 삼성전자주식회사 Movable robot control apparatus through drawing and method of operation thereof
KR20200015340A (en) 2018-08-02 2020-02-12 주식회사 유진로봇 Mobile Robot That Moves Dynamically according to Attribute Block, User Terminal Device, and Map Management Server
US11278176B2 (en) * 2018-09-06 2022-03-22 Irobot Corporation Scheduling system for autonomous robots
KR102147211B1 (en) 2018-10-22 2020-08-24 엘지전자 주식회사 Controlling method for Artificial intelligence Moving robot
KR102255273B1 (en) 2019-01-04 2021-05-24 삼성전자주식회사 Apparatus and method for generating map data of cleaning space
KR102190900B1 (en) * 2019-07-08 2020-12-14 이상부 A method for providing cleaning service and an apparatus therefore
CN111449572A (en) * 2020-03-26 2020-07-28 北京石头世纪科技股份有限公司 Cleaning robot control method and device, storage medium and cleaning robot
WO2022086161A1 (en) * 2020-10-20 2022-04-28 삼성전자주식회사 Robot and control method therefor
WO2023068542A1 (en) * 2021-10-21 2023-04-27 한국전자통신연구원 Method and computing device for global localization of mobile robot
KR20230100049A (en) * 2021-12-28 2023-07-05 (주)에스엘엠 A hull surface management system
CN114983267A (en) * 2022-05-10 2022-09-02 安克创新科技股份有限公司 Cleaning robot control method, device and system and cleaning robot

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101412590B1 (en) * 2011-09-07 2014-06-26 엘지전자 주식회사 Robot cleaner, and system and method for remotely controlling the same
KR101553950B1 (en) * 2009-03-02 2015-09-17 엘지전자 주식회사 Robot cleaner and method for detecting position thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101517339B1 (en) 2005-02-18 2015-05-04 아이로보트 코퍼레이션 Surface treatment robot
KR102094347B1 (en) 2013-07-29 2020-03-30 삼성전자주식회사 Auto-cleaning system, cleaning robot and controlling method thereof
KR102118049B1 (en) * 2013-12-19 2020-06-09 엘지전자 주식회사 robot cleaner, robot cleaner system and a control method of the same
KR101784183B1 (en) * 2014-06-17 2017-10-11 주식회사 유진로봇 APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101553950B1 (en) * 2009-03-02 2015-09-17 엘지전자 주식회사 Robot cleaner and method for detecting position thereof
KR101412590B1 (en) * 2011-09-07 2014-06-26 엘지전자 주식회사 Robot cleaner, and system and method for remotely controlling the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200132098A (en) * 2019-05-15 2020-11-25 주식회사 폴라리스쓰리디 Localization system and means of transportation with the same and computing device for executing the same
KR102212268B1 (en) * 2019-05-15 2021-02-04 주식회사 폴라리스쓰리디 Localization system and means of transportation with the same and computing device for executing the same
WO2020246753A1 (en) * 2019-06-03 2020-12-10 Samsung Electronics Co., Ltd. Electronic apparatus for object recognition and control method thereof
US11151357B2 (en) 2019-06-03 2021-10-19 Samsung Electronics Co., Ltd. Electronic apparatus for object recognition and control method thereof
US11719544B2 (en) 2019-06-03 2023-08-08 Samsung Electronics Co., Ltd. Electronic apparatus for object recognition and control method thereof
KR20230094218A (en) 2021-12-20 2023-06-28 한국전자기술연구원 Autonomous driving mobile robot and method using schematic map
KR20230102387A (en) 2021-12-30 2023-07-07 주식회사 클로봇 Method, apparatus and program for correcting position of mobile robot corresponding to the map change
KR102611689B1 (en) * 2022-12-30 2023-12-08 한국로봇융합연구원 Robot cleaning system and control method thereof

Also Published As

Publication number Publication date
KR101857952B1 (en) 2018-05-15
KR101844744B1 (en) 2018-04-05
KR20170087385A (en) 2017-07-28
KR20170087386A (en) 2017-07-28
KR20170087403A (en) 2017-07-28
KR20170087384A (en) 2017-07-28
KR101941060B1 (en) 2019-01-22
KR20170087387A (en) 2017-07-28

Similar Documents

Publication Publication Date Title
KR101901599B1 (en) System for operating mobile robot based on complex map information and operating method thereof
US10335949B2 (en) System for operating mobile robot based on complex map information and operating method thereof
EP3196726B1 (en) Apparatus and system for remotely controlling a moving robot and method thereof
US11830618B2 (en) Interfacing with a mobile telepresence robot
EP3525992B1 (en) Mobile robot and robotic system comprising a server and the robot
US20190358814A1 (en) Robot and robot system comprising same
KR101297255B1 (en) Mobile robot, and system and method for remotely controlling the same
KR20180039437A (en) Cleaning robot for airport and method thereof
CN110888428A (en) Mobile robot, remote terminal, computer-readable medium, control system, control method
JP2016133945A (en) Server device and method for determining travel route
KR20110053760A (en) Robot cleaner, robot cleaning system, and method for controlling the robot cleaner
US20190354246A1 (en) Airport robot and movement method therefor
US11822314B2 (en) Conveyance control system, conveyance control program, and conveyance control method
JP2012143383A (en) Controller, model device, and control method
JP2020004182A (en) Robot, robot control program and robot control method
KR20110054473A (en) Robot cleaner and controlling method thereof
KR102336450B1 (en) Method and robot device for sharing object data
KR102653679B1 (en) Automatic Movable Desk System
EP2609471A2 (en) Remote vehicle missions and systems for supporting remote vehicle missions
JP2022003437A (en) Control system and control method of mobile body
KR20230173939A (en) Robot-friendly buildings, methods and systems for map creation for robot operation
JP2022050115A (en) Movable body position estimation system, operator terminal device, and position estimation method
JP2021131713A (en) Own position estimating system and moving body
Kamegawa et al. System Integration for Grouped Rescue Robots System Using Robohoc Network
Kamal et al. Intelligent Agent Integration of On-Board and Off-Board Sensors Systems for Mobile Robot Path Planning

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant