KR20180046175A - Moving Robot and controlling method - Google Patents

Moving Robot and controlling method Download PDF

Info

Publication number
KR20180046175A
KR20180046175A KR1020160141106A KR20160141106A KR20180046175A KR 20180046175 A KR20180046175 A KR 20180046175A KR 1020160141106 A KR1020160141106 A KR 1020160141106A KR 20160141106 A KR20160141106 A KR 20160141106A KR 20180046175 A KR20180046175 A KR 20180046175A
Authority
KR
South Korea
Prior art keywords
pattern
obstacle
escape
light
obstacles
Prior art date
Application number
KR1020160141106A
Other languages
Korean (ko)
Other versions
KR102167898B1 (en
Inventor
전우찬
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160141106A priority Critical patent/KR102167898B1/en
Priority to CN201720543800.7U priority patent/CN207979622U/en
Priority to TW106116154A priority patent/TWI653964B/en
Priority to TW106116156A priority patent/TWI639021B/en
Priority to TW106116151A priority patent/TWI689387B/en
Priority to TW106116158A priority patent/TWI652034B/en
Priority to US15/597,531 priority patent/US10349798B2/en
Priority to PCT/KR2017/005135 priority patent/WO2017200304A2/en
Priority to EP17799661.8A priority patent/EP3459690B1/en
Priority to EP17799662.6A priority patent/EP3459691B1/en
Priority to PCT/KR2017/005133 priority patent/WO2017200303A2/en
Priority to US15/597,333 priority patent/US10456004B2/en
Priority to JP2018560524A priority patent/JP2019516483A/en
Priority to PCT/KR2017/005132 priority patent/WO2017200302A2/en
Priority to US15/597,670 priority patent/US10656656B2/en
Priority to PCT/KR2017/005136 priority patent/WO2017200305A1/en
Priority to EP17799659.2A priority patent/EP3459688B1/en
Priority to AU2017267155A priority patent/AU2017267155B2/en
Priority to US15/597,418 priority patent/US10517456B2/en
Priority to RU2018144340A priority patent/RU2719222C1/en
Priority to EP17799660.0A priority patent/EP3459689B1/en
Priority to RU2018145035A priority patent/RU2710412C1/en
Priority to US15/599,862 priority patent/US10463221B2/en
Priority to EP21160113.3A priority patent/EP3861911A3/en
Priority to US15/599,786 priority patent/US10524628B2/en
Priority to RU2018145036A priority patent/RU2701999C1/en
Priority to AU2017266811A priority patent/AU2017266811B2/en
Priority to PCT/KR2017/005247 priority patent/WO2017200351A1/en
Priority to TW106116756A priority patent/TWI663951B/en
Priority to RU2018145049A priority patent/RU2710413C1/en
Priority to RU2018145054A priority patent/RU2710453C1/en
Priority to CN202110302638.0A priority patent/CN113017472B/en
Priority to JP2018560994A priority patent/JP6757423B2/en
Priority to EP17799707.9A priority patent/EP3459418B1/en
Priority to US15/599,800 priority patent/US10420448B2/en
Priority to EP22217266.0A priority patent/EP4201289A3/en
Priority to US15/599,829 priority patent/US10463212B2/en
Priority to EP22202275.8A priority patent/EP4154784A3/en
Priority to PCT/KR2017/005243 priority patent/WO2017200347A1/en
Priority to PCT/KR2017/005244 priority patent/WO2017200348A1/en
Priority to US15/599,863 priority patent/US10362916B2/en
Priority to EP17799704.6A priority patent/EP3459415B1/en
Priority to CN201720567976.6U priority patent/CN207575101U/en
Priority to EP17799710.3A priority patent/EP3459420B1/en
Priority to PCT/KR2017/005246 priority patent/WO2017200350A1/en
Priority to PCT/KR2017/005245 priority patent/WO2017200349A1/en
Priority to AU2017266813A priority patent/AU2017266813B2/en
Priority to AU2017266810A priority patent/AU2017266810B2/en
Priority to RU2018145051A priority patent/RU2703100C1/en
Priority to EP17799706.1A priority patent/EP3459417B1/en
Priority to JP2018560941A priority patent/JP6724169B2/en
Priority to TW106116763A priority patent/TWI657786B/en
Priority to TW106116754A priority patent/TWI663950B/en
Priority to TW106116753A priority patent/TWI698213B/en
Priority to EP17799700.4A priority patent/EP3459692B1/en
Priority to PCT/KR2017/005236 priority patent/WO2017200343A1/en
Priority to US15/599,783 priority patent/US10441128B2/en
Priority to PCT/KR2017/005238 priority patent/WO2017200344A1/en
Priority to EP22202196.6A priority patent/EP4154779A3/en
Priority to JP2018560965A priority patent/JP6804561B2/en
Priority to EP17799708.7A priority patent/EP3459419B1/en
Priority to PCT/KR2017/005240 priority patent/WO2017200346A1/en
Priority to RU2018145038A priority patent/RU2710508C1/en
Priority to EP17799702.0A priority patent/EP3459413B1/en
Priority to AU2017266809A priority patent/AU2017266809B2/en
Priority to EP22203582.6A priority patent/EP4159101A3/en
Priority to CN202210024970.XA priority patent/CN114305209A/en
Priority to ES17799703T priority patent/ES2863523T3/en
Priority to US15/599,804 priority patent/US10481611B2/en
Priority to TW106116758A priority patent/TWI652033B/en
Priority to EP17799705.3A priority patent/EP3459416B1/en
Priority to PCT/KR2017/005249 priority patent/WO2017200353A1/en
Priority to CN202210024981.8A priority patent/CN114305210A/en
Priority to JP2018561002A priority patent/JP7005521B2/en
Priority to AU2017267231A priority patent/AU2017267231B2/en
Priority to RU2018145053A priority patent/RU2699837C1/en
Priority to JP2018561028A priority patent/JP6926123B2/en
Priority to EP21166598.9A priority patent/EP3878338B1/en
Priority to CN201780038048.3A priority patent/CN109310257B/en
Priority to EP17799701.2A priority patent/EP3459412B1/en
Priority to TW106116762A priority patent/TWI661802B/en
Priority to JP2018560969A priority patent/JP6728402B2/en
Priority to TW106116759A priority patent/TWI657787B/en
Priority to AU2017266814A priority patent/AU2017266814B2/en
Priority to US15/599,894 priority patent/US10342405B2/en
Priority to EP22203554.5A priority patent/EP4159100A3/en
Priority to AU2017266808A priority patent/AU2017266808B2/en
Priority to TW106116761A priority patent/TWI655923B/en
Priority to PCT/KR2017/005239 priority patent/WO2017200345A1/en
Priority to US15/599,870 priority patent/US10398276B2/en
Priority to TW106116755A priority patent/TWI653961B/en
Priority to US15/599,780 priority patent/US10342400B2/en
Priority to EP17799703.8A priority patent/EP3459414B1/en
Priority to CN201780038067.6A priority patent/CN109414143B/en
Priority to CN201720574446.4U priority patent/CN207444899U/en
Priority to CN201720573658.0U priority patent/CN207561864U/en
Priority to CN201720573639.8U priority patent/CN207506527U/en
Priority to CN201720574286.3U priority patent/CN207613711U/en
Priority to CN201720574388.5U priority patent/CN207613712U/en
Priority to CN201720574268.5U priority patent/CN207444896U/en
Priority to CN201720574386.6U priority patent/CN207613708U/en
Publication of KR20180046175A publication Critical patent/KR20180046175A/en
Priority to US16/014,994 priority patent/US10939792B2/en
Priority to US16/014,967 priority patent/US10835095B2/en
Priority to US16/014,924 priority patent/US10827895B2/en
Priority to US16/014,957 priority patent/US10827896B2/en
Priority to US16/053,009 priority patent/US10856714B2/en
Application granted granted Critical
Publication of KR102167898B1 publication Critical patent/KR102167898B1/en
Priority to US17/162,899 priority patent/US11547263B2/en
Priority to AU2021209262A priority patent/AU2021209262B2/en
Priority to JP2021128230A priority patent/JP7299276B2/en
Priority to US17/994,187 priority patent/US11846937B2/en
Priority to US18/090,309 priority patent/US20230136647A1/en
Priority to JP2023098360A priority patent/JP7487389B2/en
Priority to AU2023251397A priority patent/AU2023251397A1/en
Priority to US18/386,119 priority patent/US20240061441A1/en
Priority to US18/390,680 priority patent/US20240126291A1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

According to the present invention, a mobile robot includes: a first pattern emitting unit for emitting a first-patterned light toward a floor in a cleaning area at a front of a main body; and a second pattern emitting unit for emitting a second-patterned light toward an upper front of the main body, wherein the mobile robot is configured to acquire, through an image acquisition unit, an image in which the patterned lights respectively emitted from the first pattern emitting unit and the second pattern emitting unit are incident on an obstacle so as to determine the obstacle by detecting patterns from the acquired image. Accordingly, the mobile robot determines whether a current situation is a constrained situation in which traveling is restricted due to a plurality of obstacles based on information on nearby obstacles, and travels by setting an escape route based on the information on the nearby obstacles, so that quick determination and operation are performed regarding the obstacles and a traveling state of the mobile robot, and the mobile robot escapes from the constrained situation more effectively and travels.

Description

이동 로봇 및 그 제어방법{Moving Robot and controlling method}[0001] The present invention relates to a mobile robot,

본 발명은 이동 로봇 및 그 제어방법에 관한 것으로, 장애물을 감지하여 회피하는 이동 로봇 및 그 제어방법에 관한 것이다. The present invention relates to a mobile robot and a control method thereof, and more particularly, to a mobile robot for detecting and avoiding obstacles and a control method thereof.

일반적으로 이동 로봇은 사용자의 조작 없이도 청소하고자 하는 구역 내를 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입하여 자동으로 청소하는 기기이다.Generally, a mobile robot is a device that automatically moves inside a region to be cleaned without user's operation, while suctioning foreign substances such as dust from a floor surface.

통상 이러한 이동 로봇은 청소구역 내에 설치된 가구나 사무용품, 벽 등의 장애물까지의 거리를 감지하고, 그에 따라 청소구역을 매핑(mapping)하거나, 좌륜과 우륜의 구동을 제어하여 장애물 회피 동작을 수행한다. Generally, such a mobile robot senses distances to obstacles such as furniture, office supplies, and walls installed in the cleaning area, maps the cleaning area accordingly, or controls the driving of the left and right wheels to perform the obstacle avoidance operation.

종래에는 천장 또는 바닥을 주시하는 센서를 통해 이동 로봇이 이동한 거리를 계측하고, 이를 기반으로 장애물까지의 거리를 산출하는 방식이었으나, 이동 로봇의 이동 거리를 기반으로 장애물까지의 거리를 추정하는 간접적인 방식이기 때문에, 바닥의 굴곡등으로 이동 로봇의 이동 거리가 정확하게 계측되지 못하는 경우, 장애물까지의 거리 역시 오차를 가질 수밖에 없었다. 특히, 이러한 이동 로봇에 주로 사용되는 거리 측정 방식은 적외선 또는 초음파를 이용한 것으로, 광 또는 음이 장애물에 의해 산란되는 양이 많아 거리 계측에 상당한 오차가 발생되는 문제가 있었다.Conventionally, the distance traveled by the mobile robot is measured through a sensor that observes the ceiling or floor, and the distance to the obstacle is calculated based on the distance. However, the distance to the obstacle is indirectly estimated based on the travel distance of the mobile robot Therefore, if the moving distance of the mobile robot can not be precisely measured due to the bending of the floor or the like, the distance to the obstacle also has an error. Particularly, the distance measuring method mainly used in such mobile robots uses infrared rays or ultrasonic waves, and there is a problem that a considerable error occurs in distance measurement because light or sound is scattered by obstacles.

그에 따라 이동 로봇의 전방으로 특정한 패턴의 광을 조사하여 이를 촬영하고, 촬영된 영상으로부터 패턴을 추출하고, 이를 바탕으로 청소구역 내의 장애물 상황을 파악하여 주행을 제어하는 기술이 적용되고 있다. 예를 들어, 한국공개특허 10-2013-0141979호(이하, '979 발명이라 함.)는 십자 패턴의 광을 조사하는 광원부과 청소기 전방의 영상을 획득하는 카메라 부을 구비한 이동 로봇을 개시하고 있다. Accordingly, a technique of irradiating light of a specific pattern to the front of the mobile robot and photographing it, extracting a pattern from the photographed image, and detecting the obstacle situation in the cleaning area based on the extracted pattern, is applied. For example, Korean Patent Laid-Open Publication No. 10-2013-0141979 (hereinafter referred to as '979 invention') discloses a mobile robot having a light source unit for irradiating light in a cross pattern and a camera unit for acquiring an image in front of the cleaner .

그러나 이러한 종래의 이동 로봇은 하나의 광원으로부터 일정한 각도로 광을 조사하도록 구성됨에 따라 장애물을 감지할 수 있는 범위에 제약이 따르고, 높이를 갖는 장애물의 입체적인 형태를 파악하는데도 어려움이 있었다. However, since such a conventional mobile robot is configured to irradiate light from a single light source at a certain angle, it is difficult to detect obstacles, and it is also difficult to grasp stereoscopic shapes of obstacles having a height.

또한, 종래의 이동 로봇은, 주변에 장애물이 많고 내부 공간이 좁은 영역에 진입하는 경우, 장애물에 고립되어 이동 로봇의 움직임이 구속되는 문제가 있다. 특히 이동 로봇은 장애물을 감지하여 회피하려고 시도하더라도 복수의 장애물로 인하여 회피를 반복하다 배터리가 방전되어 버리는 문제가 있다. In addition, the conventional mobile robot has a problem that movement of the mobile robot is constrained when the obstacle is isolated from the obstacle when the obstacle enters a region with a large number of obstacles and a narrow inner space. In particular, even if the mobile robot detects obstacles and attempts to avoid them, there is a problem that the battery is repeatedly avoided due to a plurality of obstacles.

이러한 구속상황에 대비하여, 이동 로봇이 특정영역에 대해 진입하지 않고 무시하는 경우가 있으나, 이 경우 청소 가능영역이 좁아지는 문제점이 있다. In order to cope with such a restraint situation, there is a case in which the mobile robot ignores a specific area without entering the area. In this case, however, the area that can be cleaned becomes narrow.

따라서 이동 로봇이 복수의 장애물로 인하여 구속된 상황을 판단하고, 이를 탈출할 수 있도록 방안이 모색되어야 한다.
Therefore, it is necessary to find a way to determine the situation where the mobile robot is constrained by multiple obstacles and escape from it.

본 발명이 해결하고자 하는 과제는, 복수의 장애물로 인하여 이동 로봇의 주행이 제한되는 구속상황을 판단하고, 주변 장애물 정보를 바탕으로 탈출 경로를 설정하여 구속상황에서 벗어나는 이동 로봇 및 그 제어방법을 제공하는 것이다.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a mobile robot and a control method thereof that determine a constraint state in which travel of a mobile robot is limited due to a plurality of obstacles and set an escape route based on surrounding obstacle information, .

본 발명이 일 실시예에 따른 이동 로봇은 청소구역을 주행하며, 청소구역 내 바닥의 이물질을 흡입하는 본체, 상기 본체의 전면에 배치되어, 상기 본체의 전방 하측을 향해 제 1 패턴의 광을 조사하는 제 1 패턴 조사부, 상기 본체의 전면에 배치되며, 상기 제 1 패턴 조사부의 하측에 배치되어, 상기 본체의 전방 상측을 향해 제 2 패턴의 광을 조사하는 제 2 패턴 조사부, 상기 본체의 전면에 배치되어, 상기 본체의 전방에 대한 영상을 획득하는 영상 획득부 및 상기 영상 획득부로부터 입력되는 획득영상으로부터, 제 1 패턴의 광에 대응하는 제 1 광 패턴과, 상기 제 2 패턴의 광에 대응하는 제 2 광 패턴을 검출하여 장애물을 판단하고 상기 장애물을 통과하거나 또는 회피하도록 제어하는 제어부를 포함하고, 상기 제어부는, 복수의 장애물에 의해 주행할 수 없는 상태가 되면 구속상황으로 판단하여 탈출모드를 설정하고, 주변의 장애물에 대한 정보를 감지하여 탈출경로를 설정하고, 상기 탈출경로에 따라 주행하여 구속상황에서 탈출하도록 하는 것을 특징으로 한다. A mobile robot according to an embodiment of the present invention includes a main body that travels in a cleaning area and sucks foreign substances on the floor in a cleaning area, a main body disposed on a front surface of the main body, A second pattern irradiating unit disposed on a front surface of the main body and disposed below the first pattern irradiating unit to irradiate light of a second pattern toward the front upper side of the main body, A first light pattern corresponding to the light of the first pattern and a second light pattern corresponding to the light of the second pattern from the acquired image input from the image acquiring unit, And a control unit for detecting the second light pattern to determine an obstacle and controlling the obstacle to pass or avoid the obstacle, wherein the control unit is capable of traveling by a plurality of obstacles It is determined that the vehicle is in a restricted state and the escape mode is set, the information about the surrounding obstacles is sensed to set an escape route, and the vehicle runs along the escape route to escape from the restraint state.

또한, 본 발명의 이동 로봇의 제어방법은, 제 1 패턴의 광과 제 2 패턴의 광을 조사하고, 전방의 영상을 촬영하며 주행하는 단계, 촬영된 획득영상으로부터 상기 제 1 패턴의 광에 대응하는 제 1 광 패턴과, 상기 제 2 패턴의 광에 대응하는 제 2 광 패턴을 검출하여 장애물을 감지하는 단계, 상기 제 1 광 패턴 또는 상기 제 2 광 패턴에 의해 감지되는 복수의 장애물에 의해 주행할 수 없는 상태가 되면 구속상황으로 판단하여 탈출모드를 설정하는 단계, 상기 복수의 장애물에 대한 정보를 감지하여 주행 가능한 경로를 탐색하고 탈출경로를 설정하는 단계 및 상기 탈출경로에 따라 주행하여 구속상황에서 탈출하는 단계를 포함한다. A control method for a mobile robot according to the present invention is a method for controlling a mobile robot comprising the steps of irradiating light of a first pattern and a second pattern and photographing a preceding image and traveling, Detecting an obstacle by detecting a first light pattern corresponding to the light of the first pattern and a second light pattern corresponding to the light of the second pattern and detecting an obstacle by driving the plurality of obstacles sensed by the first light pattern or the second light pattern Setting an escape mode based on the information on the plurality of obstacles; searching for a route that can be traveled and setting an escape route; .

본 발명의 이동 로봇 및 그 제어방법은 상하로 배치되어 조사되는 패턴들을 이용하여 장애물에 대한 보다 구체적인 정보를 획득할 수 있고 장애물에 대한 빠른 판단과 동작이 가능하며, 주변의 장애물에 대한 정보를 바탕으로 복수의 장애물로 인하여 주행이 제한되는 구속상황인지 여부를 판단하고, 주변 장애물에 대한 정보를 바탕으로 탈출 경로를 설정하여 주행함으로써, 이동 로봇의 주행상태 및 장애물에 대한 빠른 판단과 동작이 가능하고 보다 효과적으로 구속상황을 탈출하여 주행할 수 있다.
The mobile robot and its control method according to the present invention can acquire more detailed information about an obstacle by using patterns irradiated up and down, enable quick determination and operation of an obstacle, It is possible to quickly determine and operate the traveling state and the obstacle of the mobile robot by determining whether or not the obstacle is restricted due to a plurality of obstacles and setting the escape route based on the information about the surrounding obstacle It is possible to escape from the restraint state more effectively and travel.

도 1은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이다.
도 2는 도 1의 이동 로봇의 수평 화각을 도시한 도이다.
도 3은 도 1의 이동 로봇의 전면도이다.
도 4는 도 1의 이동 로봇의 저면을 도시한 도이다.
도 5는 도 1의 이동 로봇의 주요부들을 도시한 블록도이다.
도 6은 장애물 감지유닛의 전면도와 측면도이다.
도 7은 장애물 탐지 부의 조사 범위와 장애물 탐지 범위를 도시한 도이다.
도 8 은 제 1 패턴 조사부에 의해 조사되는 패턴의 광을 도시한 도이다.
도 9 는 본 발명의 일실시예에 따른 이동 로봇에 있어서, 장애물에 조사되는 패턴의 형태를 도시한 예시도이다.
도 10 은 본 발명의 일실시예에 따른 이동 로봇의 구속상황을 설명하는데 참조되는 도이다.
도 11 는 도 10의 구속 상황에서 이동 로봇의 탈출 동작을 설명하는데 참조되는 도이다.
도 12 는 도 10의 구속 상황에서, 진입가능여부를 판단하는 이동 로봇의 동작을 설명하는데 참조되는 도이다.
도 13 은 도 10의 구속 상황에서, 장애물을 판단하는 이동 로봇의 동작을 설명하는데 참조되는 도이다.
도 14 는 도 10의 구속 상황에서, 탈출경로를 설정하는 이동 로봇의 동작을 설명하는데 참조되는 도이다.
도 15 는 도 10의 구속 상황에서 탈출하는 이동 로봇의 동작을 설명하는데 참조되는 도이다.
도 16 은 도 10의 구속 상황에서, 주변영역의 정보를 획득하는 이동 로봇의 동작을 설명하는데 참조되는 도이다.
도 17 은 도 10의 구속 상황에서, 이동 로봇에 의해 생성되는 주변영역에 대한 지도가 도시된 예시도이다.
도 18 은 본 발명의 일실시예에 따른 이동 로봇의 모드에 따른 탈출방법을 설명하는데 참조되는 도이다.
도 19 은 본 발명의 일실시예에 따른, 구속 상황을 탈출하는 이동 로봇의 제어방법이 도시된 순서도이다.
도 20 은 기본모드에서 구속 상황을 탈출하는 이동 로봇의 제어방법이 도시된 순서도이다.
도 21 은 빠른청소모드에서 구속 상황을 탈출하는 이동 로봇의 제어방법이 도시된 순서도이다.
1 is a perspective view of a mobile robot according to an embodiment of the present invention.
FIG. 2 is a view showing the horizontal angle of view of the mobile robot of FIG. 1. FIG.
3 is a front view of the mobile robot of FIG.
FIG. 4 is a bottom view of the mobile robot of FIG. 1. FIG.
5 is a block diagram showing the main parts of the mobile robot of FIG.
6 is a front view and a side view of the obstacle detection unit.
7 is a diagram showing an irradiation range and an obstacle detection range of the obstacle detection unit.
8 is a diagram showing light of a pattern irradiated by the first pattern irradiating unit.
FIG. 9 is an exemplary view showing a pattern of a pattern irradiated to an obstacle in a mobile robot according to an embodiment of the present invention. FIG.
10 is a diagram for explaining a restraint state of a mobile robot according to an embodiment of the present invention.
11 is a diagram referred to explain the escape operation of the mobile robot in the constraint situation of FIG.
FIG. 12 is a diagram referred to explain the operation of the mobile robot for determining whether or not the robot can enter the robot in the constrained state of FIG.
Fig. 13 is a diagram for explaining the operation of the mobile robot for determining obstacles in the constraint situation of Fig. 10; Fig.
Fig. 14 is a diagram referred to explain the operation of the mobile robot for setting the escape route in the constraint situation of Fig. 10; Fig.
Fig. 15 is a diagram referred to explain the operation of the mobile robot that escapes from the constraint situation of Fig. 10; Fig.
Fig. 16 is a diagram referred to explain the operation of the mobile robot for acquiring the information of the peripheral region in the constraint situation of Fig. 10; Fig.
Fig. 17 is an exemplary diagram showing a map of a peripheral region generated by the mobile robot in the constraint situation of Fig. 10; Fig.
18 is a diagram for explaining an escape method according to a mode of a mobile robot according to an embodiment of the present invention.
FIG. 19 is a flowchart showing a control method of a mobile robot for escaping a restraint state according to an embodiment of the present invention.
20 is a flowchart showing a control method of a mobile robot for escaping a restraint state in a basic mode.
21 is a flowchart showing a control method of a mobile robot for escaping a restraint state in a quick cleaning mode.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

도 1은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이다. 도 2는 도 1의 이동 로봇의 수평 화각을 도시한 것이다. 도 3은 도 1의 이동 로봇의 전면도이다. 도 4는 도 1의 이동 로봇의 저면을 도시한 것이다. 도 5는 도 1의 이동 로봇의 주요부들을 도시한 블록도이다. 1 is a perspective view of a mobile robot according to an embodiment of the present invention. Fig. 2 shows the horizontal angle of view of the mobile robot of Fig. 1. Fig. 3 is a front view of the mobile robot of FIG. Fig. 4 is a bottom view of the mobile robot of Fig. 1. Fig. 5 is a block diagram showing the main parts of the mobile robot of FIG.

도 1 내지 도 4를 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(1)은 청소구역의 바닥을 따라 이동하며, 바닥 상의 먼지 등의 이물질을 흡입하는 본체(10)와, 본체(10)의 전면에 배치되는 장애물 감지유닛(100)을 포함할 수 있다.1 to 4, a mobile robot 1 according to an embodiment of the present invention includes a main body 10 moving along the bottom of a cleaning area and sucking foreign substances such as dust on the floor, And an obstacle detection unit 100 disposed on the front of the vehicle.

본체(10)는 외관을 형성하며 내측으로 본체(10)를 구성하는 부품들이 수납되는 공간을 형성하는 케이싱(11)과, 케이싱(11)에 배치되어 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(34)과, 케이싱(11)에 회전 가능하게 구비되는 좌륜(36(L))과 우륜(36(R))을 포함할 수 있다. 좌륜(36(L))과 우륜(36(R))이 회전함에 따라 본체(10)가 청소구역의 바닥을 따라 이동되며, 이 과정에서 흡입유닛(34)을 통해 이물질이 흡입된다.The main body 10 includes a casing 11 forming an outer appearance and defining a space for accommodating components constituting the main body 10 inwardly and a suction unit 12 disposed in the casing 11 for sucking foreign substances such as dust, A left wheel 36 (L) and a right wheel 36 (R) which are rotatably provided in the casing 11. As the left wheel 36 (L) and the right wheel 36 (R) rotate, the main body 10 moves along the bottom of the cleaning area, and foreign substances are sucked through the suction unit 34 in this process.

흡입유닛(34)은 흡입력을 발생시키는 흡입 팬(미도시)과, 흡입 팬의 회전에 의해 생성된 기류가 흡입되는 흡입구(10h)를 포함할 수 있다. 흡입유닛(34)은 흡입구(10h)를 통해 흡입된 기류 중에서 이물질을 채집하는 필터(미도시)와, 필터에 의해 채집된 이물질들이 축적되는 이물질 채집통(미도시)을 포함할 수 있다.The suction unit 34 may include a suction fan (not shown) for generating a suction force and a suction port 10h for sucking the airflow generated by the rotation of the suction fan. The suction unit 34 may include a filter (not shown) for collecting foreign substances in the air stream sucked through the suction port 10h and a foreign matter collecting box (not shown) in which foreign substances collected by the filter are accumulated.

또한, 본체(10)는 좌륜(36(L))과 우륜(36(R))을 구동시키는 주행 구동부를 포함할 수 있다. 주행 구동부는 적어도 하나의 구동모터를 포함할 수 있다. 적어도 하나의 구동모터는 좌륜(36(L))을 회전시키는 좌륜 구동모터와 우륜(36(R))을 회전시키는 우륜 구동모터를 포함할 수 있다.In addition, the main body 10 may include a driving portion for driving the left wheel 36 (L) and the right wheel 36 (R). The running drive unit may include at least one drive motor. The at least one drive motor may include a left wheel drive motor for rotating the left wheel 36 (L) and a right wheel drive motor for rotating the right wheel 36 (R).

좌륜 구동모터와 우륜 구동모터는 제어부의 주행제어부에 의해 작동이 독립적으로 제어됨으로써 본체(10)의 직진, 후진 또는 선회가 이루어질 수 있다. 예를들어, 본체(10)가 직진 주행하는 경우에는 좌륜 구동모터와 우륜 구동모터가 같은 방향으로 회전되나, 좌륜 구동모터와 우륜 구동모터가 다른 속도로 회전되거나, 서로 반대 방향으로 회전되는 경우에는 본체(10)의 주행 방향이 전환될 수 있다. 본체(10)의 안정적인 지지를 위한 적어도 하나의 보조륜(37)이 더 구비될 수 있다.The left and right wheel driving motors and the right wheel driving motors can be controlled to be operated independently by the travel control unit of the control unit, thereby making it possible to straighten, reverse, or turn the main body 10. For example, when the main body 10 runs straight, the left wheel driving motor and the right wheel driving motor are rotated in the same direction. However, when the left wheel driving motor and the right wheel driving motor are rotated at different speeds or in opposite directions The running direction of the main body 10 can be switched. At least one auxiliary wheel 37 for stably supporting the main body 10 may be further provided.

케이싱(11)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 복수의 브러시(35)가 더 구비될 수 있다. 복수의 브러시(35)의 회전에 의해 청소구역의 바닥으로부터 먼지들이 제거되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구(10h)를 통해 흡입되어 채집통에 모인다.A plurality of brushes 35, which are located on the front side of the bottom surface of the casing 11 and have a plurality of radially extending blades, may be further provided. The dusts are removed from the bottom of the cleaning area by the rotation of the plurality of brushes 35, so that the dusts separated from the floor are sucked through the suction port 10h and collected in the collecting box.

케이싱(11)의 상면에는 사용자로부터 이동 로봇(1)의 제어를 위한 각종 명령을 입력받는 컨트롤 패널(39)이 구비될 수 있다.On the upper surface of the casing 11, a control panel 39 for receiving various commands for controlling the mobile robot 1 from a user may be provided.

장애물 감지유닛(100)은 본체(10)의 전면에 배치될 수 있다. The obstacle detection unit 100 may be disposed on the front surface of the main body 10. [

장애물 감지유닛(100)은 케이싱(11)의 전면에 고정되고, 제 1 패턴 조사부(120), 제 2 패턴 조사부(130) 및 영상 획득부(140)를 포함한다. The obstacle detecting unit 100 is fixed to the front surface of the casing 11 and includes a first pattern irradiating unit 120, a second pattern irradiating unit 130 and an image acquiring unit 140.

본체(10)에는 재충전이 가능한 배터리(38)가 구비되며, 배터리(38)의 충전 단자(33)가 상용 전원(예를 들어, 가정 내의 전원 콘센트)과 연결되거나, 상용 전원과 연결된 별도의 충전대(미도시)에 본체(10)가 도킹되어, 충전 단자(33)가 상용 전원과 전기적으로 연결되고, 배터리(38)의 충전이 이루어질 수 있다. 이동 로봇(1)을 구성하는 전장 부품들은 배터리(38)로부터 전원을 공급받을 수 있으며, 따라서, 배터리(38)가 충전된 상태에서 이동 로봇(1)은 상용 전원과 전기적으로 분리된 상태에서 자력 주행이 가능하다.The main body 10 is provided with a rechargeable battery 38. The charging terminal 33 of the battery 38 is connected to a commercial power source (for example, a power outlet in a home) The main body 10 is docked to the charging terminal 33 (not shown), the charging terminal 33 is electrically connected to the commercial power supply, and the battery 38 can be charged. Electric components constituting the mobile robot 1 can be supplied with power from the battery 38. Therefore, in a state where the battery 38 is charged and the mobile robot 1 is electrically disconnected from the commercial power supply, It is possible to drive.

도 5는 도 1의 이동 로봇의 주요부들을 도시한 블록도이다.5 is a block diagram showing the main parts of the mobile robot of FIG.

이동 로봇(1)은 주행 구동부(300), 청소부(310), 데이터부(240) 장애물 감지유닛(100), 그리고 동작 전반을 제어하는 제어부(200)를 포함한다. The mobile robot 1 includes a travel driving unit 300, a cleaning unit 310, a data unit 240, an obstacle sensing unit 100, and a controller 200 for controlling overall operations.

제어부(200)는 주행 구동부(300)를 제어하는 주행제어부(230)를 포함할 수 있다. 주행제어부(230)에 의해 좌륜 구동모터와 우륜 구동모터의 작동이 독립적으로 제어됨으로써 본체(10)가 직진 또는 회전하여 주행하게 된다. The control unit 200 may include a driving control unit 230 for controlling the driving driving unit 300. The operation of the left wheel driving motor and the right wheel driving motor is independently controlled by the travel control unit 230 so that the main body 10 is driven to travel straight or rotate.

또한, 제어부(200)는 장애물 감지유닛(100)으로부터 입력되는 데이터를 분석하여 패턴을 검출하는 패턴검출부(210) 및, 패턴으로부터 장애물을 판단하는 장애물 정보획득부(220)를 포함한다. The control unit 200 includes a pattern detection unit 210 for analyzing data input from the obstacle detection unit 100 to detect a pattern and an obstacle information obtaining unit 220 for determining an obstacle from the pattern.

패턴검출부(210)는 영상 획득부(140)에 의해 획득된 영상(획득영상)으로부터 광 패턴(P1, P2)을 검출한다. 패턴검출부(210)는 획득영상을 구성하는 소정의 픽셀들에 대해 점, 선, 면 등의 특징을 검출 (feature detection)하고, 이렇게 검출된 특징을 바탕으로 광 패턴(P1, P2) 또는 광 패턴(P1, P2)을 구성하는 점, 선, 면 등을 검출할 수 있다.The pattern detecting unit 210 detects the light patterns P1 and P2 from the image (acquired image) obtained by the image obtaining unit 140. [ The pattern detecting unit 210 detects features such as a point, a line, and a surface with respect to predetermined pixels constituting the acquired image, and detects the light patterns P1 and P2 or the light patterns Points, lines, surfaces, and the like that constitute the points P1 and P2 can be detected.

장애물 정보획득부(220)는 패턴검출부(210)로부터 검출된 패턴을 바탕으로 장애물 유무를 판단하고, 장애물의 형태를 판단한다. The obstacle information obtaining unit 220 determines the presence of the obstacle based on the pattern detected from the pattern detecting unit 210 and determines the shape of the obstacle.

주행 구동부(300)는 적어도 하나의 구동모터를 포함하여 주행제어부(230)의 제어명령에 따라 이동 로봇(1)이 주행하도록 한다. 주행 구동부(300)는 앞서 설명한 바와 같이, 좌륜(36(L))을 회전시키는 좌륜 구동모터와 우륜(36(R))을 회전시키는 우륜 구동모터를 포함할 수 있다.The travel driving unit 300 includes at least one driving motor and causes the mobile robot 1 to travel according to a control command of the travel control unit 230. [ As described above, the travel driving unit 300 may include a left wheel driving motor for rotating the left wheel 36 (L) and a right wheel driving motor for rotating the right wheel 36 (R).

청소부(310)는 브러쉬를 동작시켜 이동 로봇(1) 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다. 청소부(310)는 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(34)에 구비되는 흡입 팬의 동작을 제어하여 먼지가 흡입구를 통해 이물질 채집통에 투입되도록 한다. The cleaning unit 310 operates the brush to make dust or foreign matter around the mobile robot 1 in a condition easy to suck, and operates the suction device to suck dust or foreign matter. The cleaning unit 310 controls the operation of the suction fan provided in the suction unit 34 that sucks foreign matter such as dust or trash so that the dust is introduced into the foreign matter collecting container through the suction port.

데이터부(240)에는 장애물 감지유닛(100)으로부터 입력되는 획득영상을 저장하고, 장애물 정보획득부(220)가 장애물을 판단하기 위한 기준데이터가 저장되며, 감지된 장애물에 대한 장애물정보가 저장된다. 또한, 데이터부(240)에는 이동 로봇(1)의 동작을 제어하기 위한 제어데이터 및 이동 로봇(1)의 청소모드에 따른 데이터가 저장되며, 생성되거나 또는 외부로부터 수신되는 맵이 저장될 수 있다. The data unit 240 stores an acquired image input from the obstacle detection unit 100, reference data for the obstacle information acquisition unit 220 to determine an obstacle is stored, and obstacle information for the detected obstacle is stored . The data part 240 stores control data for controlling the operation of the mobile robot 1 and data according to the cleaning mode of the mobile robot 1 and stores a map generated or received from the outside .

또한, 데이터부(240)는, 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장하는 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치를 포함할 수 있다. The data unit 240 stores data that can be read by a microprocessor and includes a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD) , CD-ROM, magnetic tape, floppy disk, optical data storage device.

장애물 감지유닛(100)은 제 1 패턴 조사부(120), 제 2 패턴 조사부(130), 그리고 영상 획득부(140)를 포함한다. The obstacle detecting unit 100 includes a first pattern irradiating unit 120, a second pattern irradiating unit 130, and an image acquiring unit 140.

장애물 감지유닛(100)은 제 1 패턴 조사부(120), 제 2 패턴 조사부(130) 및 영상 획득부(140)가, 앞서 설명한 바와 같이, 본체(10)의 전면에 설치되어, 이동 로봇(1)의 전방에 제 1 및 제 2 패턴의 광(P1, P2)을 조사하고, 조사된 패턴의 광을 촬영하여 영상을 획득한다. The obstacle detecting unit 100 is provided in the front of the main body 10 and is provided with the first pattern irradiating unit 120, the second pattern irradiating unit 130 and the image obtaining unit 140, The first and second patterns of light P1 and P2 are irradiated to the front side of the light emitting device 1 and the light of the irradiated pattern is photographed to acquire an image.

제어부(200)는 획득영상을 데이터부(240)에 저장하고, 패턴검출부(210)는 획득영상을 분석하여 패턴을 추출한다. 즉 패턴검출부(210)는 제 1 패턴 조사부 또는 제 2 패턴 조사부로부터 조사된 패턴의 광이 바닥 또는 장애물에 조사되어 나타나는 광 패턴을 추출한다. 장애물 정보획득부(220)는 추출된 광 패턴을 바탕으로 장애물을 판단한다.The control unit 200 stores the acquired image in the data unit 240, and the pattern detecting unit 210 analyzes the acquired image to extract a pattern. That is, the pattern detecting unit 210 extracts a light pattern that is generated when the light of the pattern irradiated from the first pattern irradiating unit or the second pattern irradiating unit is irradiated to the bottom or the obstacle. The obstacle information obtaining unit 220 determines an obstacle based on the extracted light pattern.

제어부(200)는 장애물 감지유닛(100)으로부터 입력되는 획득영상을 통해 장애물을 판단하여 이동방향 또는 주행경로를 변경하여 장애물을 회피하여 주행하도록 주행 구동부(300)를 제어한다. The control unit 200 determines the obstacle through the acquired image input from the obstacle detection unit 100 and controls the travel driving unit 300 to avoid the obstacle by changing the moving direction or the traveling route.

제어부(200)는 장애물 중, 낭떠러지의 경우 이동 로봇(1)이 추락할 수 있으므로, 획득영상을 통해 낭떠러지를 감지하고, 구비되는 낭떠러지 센서(미도시)를 통해 낭떠러지 여부를 재확인하여, 낭떠러지에 떨어지지 않도록 주행을 제어한다. 제어부(200)는 낭떠러지로 판단되는 경우, 획득영상을 통해 패턴의 변화를 판단하여 낭떠러지를 따라 주행하도록 주행 구동부(300)를 제어한다. The control unit 200 detects the cliff through the acquired image because the mobile robot 1 may fall in the case of a cliff, and it is checked whether the cliff is cliffed through a cliff sensor (not shown) So as to control the running. If the controller 200 determines that the vehicle is a cliff, the control unit 200 determines the change of the pattern through the captured image and controls the driving unit 300 to travel along the cliff.

또한, 제어부(200)는 일정크기 이하의 영역에 복수의 장애물이 존재하여 주행에 제약이 발생하는 경우, 이동 로봇(1)이 구속상황인지 여부를 판단하고, 구속상황을 탈출하도록 탈출모드를 설정한다. The controller 200 determines whether or not the mobile robot 1 is in a constrained state when a plurality of obstacles exist in a region of a predetermined size or less and constrains the travel, and sets an exit mode do.

제어부(200)는 현재 설정된 모드가, 기본모드인지 또는 빠른청소모드인지 여부에 따라 각각 주변의 장애물에 대한 정보를 바탕으로 탈출경로를 설정하여 이동 로봇(1)이 구속상황에서 벗어나도록 한다. The control unit 200 sets the escape route based on the information about the surrounding obstacles according to whether the currently set mode is the basic mode or the quick cleaning mode so that the mobile robot 1 deviates from the restraint state.

제어부(200)는 모드에 따라, 기본모드에서, 주변의 모든 장애물에 대한 정보를 획득하여 주변영역에 대한 지도를 생성한 후 탈출경로를 설정할 수 있고, 또한 빠른청소모드에서, 감지되는 장애물과 장애물 사이의 거리에 따라 진입 가능 여부를 판단하여 탈출경로를 설정할 수 있다. According to the mode, the control unit 200 can acquire information about all the surrounding obstacles in the basic mode to create a map for the surrounding area and then set an escape route. In addition, in the quick cleaning mode, It is possible to set the escape route by determining whether or not entry is possible.

제어부(200)는 감지되는 장애물에 대하여, 획득영상의 패턴을 분석하여, 장애물과 장애물 사이의 거리를 판단하고, 장애물 사이의 거리가 일정값 이상이면 주행 및 진입 가능한 것으로 판단하여 주행하도록 제어함으로써, 구속상황에서 탈출하도록 한다. The control unit 200 analyzes the pattern of the acquired image to determine the distance between the obstacle and the obstacle and controls the vehicle so as to determine that the vehicle can travel and enter when the distance between the obstacles is equal to or greater than a predetermined value, Let them escape from the arrest situation.

도 6은 장애물 감지유닛의 전면도와 측면도이다. 도 7은 장애물 탐지 부의 조사 범위와 장애물 탐지 범위를 도시한 것이다. 도 6의 (a)는 장애물 감지유닛의 전면도이고, 도 6의 (b)는 측면도이다. 6 is a front view and a side view of the obstacle detection unit. FIG. 7 shows an irradiation range and an obstacle detection range of the obstacle detection unit. 6 (a) is a front view of the obstacle detection unit, and Fig. 6 (b) is a side view.

도 6의 (a) 및 (b)에 도시된 바와 같이, 장애물 감지유닛(100)의 제 1 및 제 2 패턴 조사부(120, 130)는 광원과, 광원으로부터 조사된 광이 투과됨으로써 소정의 패턴을 생성하는 패턴생성자(OPPE: Optical Pattern Projection Element)를 포함할 수 있다. 광원은 레이저 다이오드(Laser Diode, LD), 발광 다이오드(Light Emitteing Diode, LED) 등 일 수 있다. 레이저 광은 단색성, 직진성 및 접속 특성에 있어 다른 광원에 비해 월등해, 정밀한 거리 측정이 가능하며, 특히, 적외선 또는 가시광선은 대상체의 색상과 재질 등의 요인에 따라 거리 측정의 정밀도에 있어서 편차가 크게 발생되는 문제가 있기 때문에, 광원으로는 레이저 다이오드가 바람직하다. 패턴생성자는 렌즈, DOE(Diffractive optical element)를 포함할 수 있다. 각각의 패턴 조사부(120, 130)에 구비된 패턴 생성자의 구성에 따라 다양한 패턴의 광이 조사될 수 있다.6 (a) and 6 (b), the first and second pattern irradiating units 120 and 130 of the obstacle detecting unit 100 include a light source and a light source, (OPPE: Optical Pattern Projection Element) that generates an optical pattern. The light source may be a laser diode (LD), a light emitting diode (LED), or the like. The laser light is excellent in monochromaticity, straightness and connection characteristics compared to other light sources, and it is possible to measure the distance with precision. Particularly, the infrared light or visible light has a variation in the accuracy of the distance measurement depending on factors such as the color and material of the object A laser diode is preferable as the light source. The pattern generator may include a lens, a diffractive optical element (DOE). Depending on the configuration of the pattern generator included in each of the pattern irradiators 120 and 130, light of various patterns can be irradiated.

제 1 패턴 조사부(120)는 제 1 패턴의 광(P1, 이하, 제 1 패턴 광이라고 함.)을 본체(10)의 전방 하측을 향해 조사할 수 있다. 따라서, 제 1 패턴 광(P1)은 청소구역의 바닥에 입사될 수 있다. The first pattern irradiating unit 120 can irradiate the first pattern light P1 (hereinafter, referred to as the first pattern light) toward the front lower side of the main body 10. Accordingly, the first pattern light P1 may be incident on the bottom of the cleaning area.

제 1 패턴 광(P1)은 수평선의 형태로 구성될 수 있다. The first pattern light P1 may be formed in the form of a horizontal line.

또한, 제 1 패턴 광(P1)은 수평선과 수직선이 교차하는 십자 패턴의 형태로 구성되는 것 또한 가능하다. It is also possible that the first pattern light P1 is formed in the form of a cross pattern in which the horizontal line and the vertical line cross each other.

제 1 패턴 조사부(120), 제 2 패턴 조사부(130) 및 영상 획득부(140)는 수직으로, 일렬 배치될 수 있다. 영상 획득부(140)는, 제 1 패턴 조사부(120)와 제 2 패턴 조사부(130)의 하부에 배치되나, 반드시 이에 한정되는 것은 아니며, 제 1 패턴 조사부와 제 2 패턴 조사부의 상부에 배치될 수도 있다. The first pattern irradiating unit 120, the second pattern irradiating unit 130, and the image acquiring unit 140 may be vertically arranged in a line. The image acquiring unit 140 is disposed below the first pattern irradiating unit 120 and the second pattern irradiating unit 130 but is not necessarily limited thereto and may be disposed above the first pattern irradiating unit and the second pattern irradiating unit It is possible.

실시예에서, 제 1 패턴 조사부(120)는 상측에 위치하여 전방을 향해 하방으로 제 1 패턴 광(P1)을 조사하여, 제 1 패턴 조사부(120)보다 하측에 위치하는 장애물을 감지하고, 제 2 패턴 조사부(130)는 제 1 패턴 조사부(120)의 하측에 위치하여 전방을 향해 상방으로 제 2 패턴의 광(P2, 이하, 제 2 패턴 광이라고 함.)을 조사할 수 있다. 따라서, 제 2 패턴 광(P2)은 벽면이나, 청소구역의 바닥으로부터 적어도 제 2 패턴 조사부(130)보다 높이 위치하는 장애물 또는 장애물의 일정 부분에 입사될 수 있다.In the embodiment, the first pattern irradiating unit 120 is located on the upper side and irradiates the first pattern light P1 downward toward the front to detect obstacles located below the first pattern irradiating unit 120, The two-pattern irradiating unit 130 is located below the first pattern irradiating unit 120 and can irradiate the second pattern light (P2, hereinafter referred to as second pattern light) upward toward the front. Accordingly, the second pattern light P2 may be incident on a wall or a certain portion of the obstacle or obstacle located at least higher than the second pattern irradiating portion 130 from the bottom of the cleaning area.

제 2 패턴 광(P2)은 제 1 패턴 광(P1)과 다른 패턴으로 이루어질 수 있고, 바람직하게는 수평선을 포함하여 구성된다. 여기서, 수평선은 반드시 연속한 선분이어야 하는 것은 아니고, 점선으로 이루어질 수도 있다.The second pattern light P2 may have a pattern different from that of the first pattern light P1, and preferably includes a horizontal line. Here, the horizontal line is not necessarily a continuous line segment, but may be a dotted line.

한편, 앞서 설명한 도 2에서, 표시된 조사각(θh)은 제 1 패턴 조사부(120)로부터 조사된 제 1 패턴 광(P1)의 수평조사 각을 표시한 것으로, 수평선의 양단이 제 1 패턴 조사부(120)와 이루는 각도를 나타내며, 130˚ 내지 140˚ 범위에서 정해지는 것이 바람직하나, 반드시 이에 한정되어야 하는 것은 아니다. 도 2에 표시된 점선은 이동 로봇(1)의 전방을 향하는 것이며, 제 1 패턴 광(P1)은 점선에 대해 대칭인 형태로 구성될 수 있다.2, the irradiation angle h shown in FIG. 2 represents the horizontal irradiation angle of the first pattern light P1 irradiated from the first pattern irradiation unit 120, and both ends of the horizontal line are irradiated with the first pattern irradiation unit 120, and is preferably set in the range of 130 DEG to 140 DEG, but the present invention is not limited thereto. The dotted line shown in Fig. 2 is directed toward the front of the mobile robot 1, and the first patterned light P1 may be configured to be symmetrical with respect to the dotted line.

제 2 패턴 조사부(130) 역시 제 1 패턴 조사부(120)와 마찬가지로 수평 조사각이, 바람직하게는, 130˚ 내지 140˚ 범위에서 정해질 수 있으며, 실시예에 따라서는 제 1 패턴 조사부(120)와 동일한 수평 조사각으로 패턴 광(P2)을 조사할 수 있으며, 이 경우, 제 2 패턴 광(P1) 역시 도 2에 표시된 점선에 대해 대칭인 형태로 구성될 수 있다.The second pattern irradiating unit 130 may be set to a horizontal irradiation angle in a range of 130 to 140 degrees as in the case of the first pattern irradiating unit 120. In some embodiments, The second pattern light P1 may be formed symmetrically with respect to the dotted line shown in FIG.

영상 획득부(140)는 본체(10) 전방의 영상을 획득할 수 있다. 특히, 영상 획득부(140)에 의해 획득된 영상(이하, 획득영상이라고 함.)에는 패턴 광(P1, P2)이 나타나며, 이하, 획득영상에 나타난 패턴 광(P1, P2)의 상을 광 패턴이라고 하고, 이는 실질적으로 실제 공간 상에 입사된 패턴 광(P1, P2)이 이미지 센서에 맺힌 상이기 때문에, 패턴 광들(P1, P2)과 같은 도면 부호를 부여하여, 제 1 패턴 광(P1) 및 제 2 패턴 광(P2)과 각각 대응하는 상들을 제 1 광 패턴(P1) 및 제 2 광 패턴(P2)이라고 하기로 한다.The image acquisition unit 140 may acquire an image in front of the main body 10. Particularly, pattern light P1 and P2 appear in an image obtained by the image obtaining unit 140 (hereinafter, referred to as an acquired image), and an image of pattern light P1 and P2, Since the pattern light P1 or P2 incident on the actual space is substantially formed on the image sensor, the same reference numerals as the pattern lights P1 and P2 are assigned to the first pattern light P1 And the second pattern light P2 are referred to as a first light pattern P1 and a second light pattern P2, respectively.

영상 획득부(140)는 피사체의 상을 전기적 신호로 변환시킨 후 다시 디지털 신호로 바꿔 메모리소자에 기억시키는 디지털 카메라를 포함할 수 있으며, 디지털 카메라는 이미지센서(미도시)와 영상처리부(미도시)를 포함할 수 있다.The image acquisition unit 140 may include a digital camera that converts an image of an object into an electrical signal and then converts the digital signal into a digital signal and stores the digital signal in a memory device. The digital camera includes an image sensor (not shown) ).

이미지센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 집적된 칩으로 구성되며, 광 다이오드로는 픽셀(pixel)을 예로 들 수 있다. 렌즈를 통과한 광에 의해 칩에 맺힌 영상에 의해 각각의 픽셀들에 전하가 축적되며, 픽셀에 축적된 전하들은 전기적 신호(예를들어, 전압)로 변환된다. 이미지센서로는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등이 잘 알려져 있다.An image sensor is an apparatus for converting an optical image into an electrical signal. The image sensor is composed of a chip on which a plurality of photo diodes are integrated, and a photodiode is exemplified as a pixel. Charges are accumulated in the respective pixels by an image formed on the chip by the light passing through the lens, and the charges accumulated in the pixels are converted into an electrical signal (for example, voltage). Charge Coupled Device (CCD) and Complementary Metal Oxide Semiconductor (CMOS) are well known as image sensors.

영상처리부는 이미지센서로부터 출력된 아날로그 신호를 바탕으로 디지털 영상을 생성한다. 영상처리부는 아날로그 신호를 디지털 신호로 변환하는 AD컨버터와, AD컨버터로부터 출력된 디지털 신호에 따라 일시적으로 디지털 정보(digital data)를 기록하는 버퍼 메모리(buffer memory)와, 버퍼 메모리에 기록된 정보를 처리하여 디지털 영상을 구성하는 디지털 신호처리기(DSP:Digital Signal Processor)를 포함할 수 있다.The image processor generates a digital image based on the analog signal output from the image sensor. The image processing unit includes an AD converter for converting an analog signal into a digital signal, a buffer memory for temporarily storing digital information according to the digital signal output from the AD converter, And may include a digital signal processor (DSP) that processes the digital image and forms a digital image.

패턴검출부(210)는 획득영상을 구성하는 소정의 픽셀들에 대해 점, 선, 면 등의 특징을 검출 (feature detection)하고, 이렇게 검출된 특징을 바탕으로 광 패턴(P1, P2) 또는 광 패턴(P1, P2)을 구성하는 점, 선, 면 등을 검출할 수 있다.The pattern detecting unit 210 detects features such as a point, a line, and a surface with respect to predetermined pixels constituting the acquired image, and detects the light patterns P1 and P2 or the light patterns Points, lines, surfaces, and the like that constitute the points P1 and P2 can be detected.

예를 들어, 패턴검출부(210)는 주변보다 밝은 픽셀들이 연속됨으로써 구성되는 선분들을 추출하여, 제 1 광 패턴(P1)을 구성하는 수평선, 제 2 광 패턴(P2)을 구성하는 수평선을 추출할 수 있다.For example, the pattern detecting unit 210 extracts line segments constituted by successive pixels brighter than the surroundings, extracts a horizontal line constituting the first light pattern P1, a horizontal line constituting the second light pattern P2, can do.

그러나 이에 한정되지 않고, 디지털 영상으로부터 원하는 형태의 패턴을 추출하는 다양한 기법들이 이미 알려져 있는바, 패턴검출부(210)는 이들 공지된 기술들을 이용하여 제 1 광 패턴(P1)과 제 2 광 패턴(P2)을 추출할 수 있다.However, the present invention is not limited thereto. Various techniques for extracting a desired pattern from a digital image are already known. The pattern detecting unit 210 detects a first light pattern P1 and a second light pattern P2) can be extracted.

도 7에 도시된 바와 같이, 제 1 패턴 조사부(120)와 제 2 패턴 조사부(130)는 대칭으로 배치될 수 있다. 제 1 패턴 조사부(120)와 제 2 패턴 조사부(130)는 거리 h3 만큼 떨어져 상하로 배치되어 제 1 패턴 조사부는 하부로 제 1 패턴 광을 조사하고, 제 2 패턴 조사부는 상부로 제 2 패턴 광을 조사하여 상호 패턴 광이 교차된다. As shown in FIG. 7, the first pattern irradiating unit 120 and the second pattern irradiating unit 130 may be arranged symmetrically. The first pattern irradiating unit 120 and the second pattern irradiating unit 130 are disposed vertically apart by a distance h3 so that the first pattern irradiating unit irradiates the first pattern light to the lower part, To cross the pattern light.

영상 획득부(140)는 제 2 패턴 조사부로부터 거리 h2 만큼 떨어진 하부에 위치하여, 상하방향에 대하여 화각 θs로 로 본체(10)의 전방의 영상을 촬영한다. 영상 획득부(140)는 바닥면으로부터 거리 h1의 위치에 설치된다. 영상 획득부(140)는 이동 로봇(1)의 본체(10)의 전면부 하단을 구성하는 범퍼(미도시), 또는 주행 또는 청소를 위한 구조물의 형태를 고려하여, 전방을 촬영하는데 방해되지 않는 위치에 설치되는 것이 바람직하다. The image acquiring unit 140 is located at a lower position spaced apart by a distance h2 from the second pattern irradiating unit and captures an image in front of the furnace body 10 at an angle of view? S with respect to the up and down directions. The image acquiring unit 140 is installed at a position of distance h1 from the bottom surface. The image acquisition unit 140 may be configured to acquire the image data of the bumpers (not shown) constituting the lower end of the front portion of the main body 10 of the mobile robot 1, It is preferable to install it in the position.

제 1 패턴 조사부(120) 또는 제 2 패턴 조사부(130)는 각각의 패턴 조사부(120, 130)를 구성하는 렌즈들의 주축(Optical axis)이 향하는 방향이 일정 조사각을 형성하도록 설치된다. The first pattern irradiating unit 120 or the second pattern irradiating unit 130 is installed such that the direction of the optical axis of the lenses constituting the pattern irradiating units 120 and 130 forms a certain irradiation angle.

제 1 패턴 조사부(120)는 제 1 조사각(θr1)으로 제 1 패턴 광(P1)을 하부에 조사하고, 제 2 패턴 조사부(130)는 제 2 조사각(θr2)으로 제 2 패턴 광(P2)을 상부에 조사한다. 이때, 제 1 조사각과 제 2 조사각은 상이한 것을 기본으로 하나 경우에 따라 동일하게 설정될 수 있다. 제 1 조사각과 제 2 조사각은, 바람직하게는 50˚ 내지 75˚ 범위에서 정해지나 반드시 이에 한정되어야 하는 것을 아니다. 예를 들어 제 1 조사각은 60 내지 70도 제 2 조사각은 50 내지 55도로 설정될 수 있다. 이동 로봇(1)의 하부 범퍼의 구조 또는 하부 물체감지 거리, 그리고 감지하고자 하는 상부의 높이에 따라 변경될 수 있다. The first pattern irradiating unit 120 irradiates the first pattern light P1 with the first irradiation angle? R1 and the second pattern irradiating unit 130 irradiates the second pattern light P1 with the second irradiation angle? P2) is irradiated on the upper part. At this time, the first irradiation angle and the second irradiation angle are different from each other, but they may be set to be the same in some cases. The first irradiation angle and the second irradiation angle are preferably set within the range of 50 DEG to 75 DEG, but are not limited thereto. For example, the first irradiation angle may be set to 60 to 70 degrees, and the second irradiation angle may be set to 50 to 55 degrees. The structure of the lower bumper of the mobile robot 1, the distance of the lower object detection, and the height of the upper part to be sensed.

제 1 패턴 조사부(120) 및/또는 제 2 패턴 조사부(130)로부터 조사된 패턴 광이 장애물에 입사되었을 시, 장애물이 제 1 패턴 조사부(120)로부터 떨어진 위치에 따라, 획득영상에서 광 패턴(P1, P2)의 위치가 달라진다. 예를 들어, 제 1 패턴 광(P1)과 제 2 패턴 광(P2)이 소정의 장애물에 입사되었을 시, 장애물이 이동 로봇(1)으로부터 가깝게 위치한 것일수록, 획득영상에서 제 1 광 패턴(P1)이 높은 위치에 표시되며, 반대로, 제 2 광 패턴(P2)은 낮은 위치에 표시된다. 즉, 영상 획득부(140)에 의해 생성되는 영상을 구성하는 행(횡방향으로 배열된 픽셀들로 이루어진 선)에 대응하는 장애물까지의 거리 데이터를 미리 저장하였다가, 영상 획득부(140)를 통해 획득된 영상에서 검출된 광 패턴(P1, P2)이 소정의 행에서 검출되면, 그 행에 대응하는 장애물까지의 거리 데이터로부터 장애물의 위치가 추정될 수 있다.When the pattern light emitted from the first pattern irradiating unit 120 and / or the second pattern irradiating unit 130 is incident on the obstacle, P1, P2) are changed. For example, when the first pattern light P1 and the second pattern light P2 are incident on a predetermined obstacle, the closer the obstacle is located from the mobile robot 1, the more the first light pattern P1 Is displayed at a high position, and conversely, the second light pattern P2 is displayed at a low position. That is, the distance data to the obstacle corresponding to the row (line consisting of pixels arranged in the horizontal direction) constituting the image generated by the image obtaining unit 140 is stored in advance, and the image obtaining unit 140 When the light patterns P1 and P2 detected in the image obtained through the image sensing are detected in a predetermined row, the position of the obstacle can be estimated from the distance data to the obstacle corresponding to the row.

영상 획득부(140)는 렌즈의 주축이 수평한 방향을 향하도록 정렬되고, 도 7에 표시된 θs는 영상 획득부(140)의 화각을 표시한 것으로, 100˚ 이상의 값으로 설정되고, 바람직하게는 100˚ 내지 110˚이나, 반드시 이에 한정되어야 하는 것을 아니다.The image acquiring unit 140 is arranged so that the main axis of the lens is oriented in a horizontal direction, and? S shown in FIG. 7 indicates the angle of view of the image acquiring unit 140 and is set to a value of 100 degrees or more, 100 ° to 110 °, but not necessarily limited thereto.

또한, 청소구역의 바닥으로부터 영상 획득부(140)까지의 거리는 대략 60mm 내지 70mm 사이에서 정해질 수 있고, 이 경우, 영상 획득부(140)가 획득한 영상에서 청소구역의 바닥은 영상 획득부로부터 D1 이후부터 나타나며, D2는 획득영상에 나타난 바닥 중에서 제 1 광 패턴(P1)이 표시되는 위치이다. 이때, D2에 장애물이 위치하는 경우, 영상 획득부(140)에 의해 장애물에 제 1 패턴 광(P1)이 입사된 영상이 획득될 수 있다. 장애물이 D2보다 이동 로봇(1)에 근접한 경우 입사된 제 1 패턴 광(P1)에 대응하여 제 1 광 패턴은 기준위치(ref1)보다 상측에 표시된다. Also, the distance from the bottom of the cleaning zone to the image acquisition unit 140 may be set between about 60 mm and 70 mm. In this case, the bottom of the cleaning zone in the image acquired by the image acquisition unit 140 D1, and D2 is a position at which the first light pattern P1 is displayed in the bottom of the acquired image. At this time, if an obstacle is located at D2, the image obtained by the image obtaining unit 140 with the first pattern light P1 incident on the obstacle can be obtained. When the obstacle is closer to the mobile robot 1 than D2, the first light pattern is displayed above the reference position ref1 corresponding to the incident first pattern light P1.

여기서, 본체(10)로부터 D1까지의 거리는 바람직하게는 100mm 내지 150mm로 이고, D2까지의 거리는 바람직하게는 180mm 내지 280mm 이나, 반드시 이에 한정되는 것은 아니다. 한편, D3는 본체의 전면부 중 가장 돌출된 부분부터 제 2 패턴 광이 입사되는 위치까지의 거리를 나타낸 것으로, 본체는 이동중에 장애물을 감지하므로, 장애물에 충돌하지 않고 전방(상부)의 장애물을 감지할 수 있는 최소한의 거리이다. D3는 대략 23mm 내지 30mm 로 설정될 수 있다.  Here, the distance from the main body 10 to D1 is preferably 100 mm to 150 mm, and the distance up to D2 is preferably 180 mm to 280 mm, though not always limited thereto. D3 denotes the distance from the most protruding part of the front part of the main body to the position where the second pattern light is incident. Since the main body detects an obstacle while moving, it does not collide with the obstacle, It is the minimum distance that can be detected. D3 can be set to approximately 23 mm to 30 mm.

한편, 장애물 정보획득부(220)는 본체(10)가 주행하는 중, 획득영상에 나타난 제 1 광 패턴(P1)이 정상상태에서 사라지는 경우 또는 제 1 광 패턴의 일부만 표시되는 경우, 이동 로봇(1)의 주변에 낭떠러지가 존재하는 것으로 판단한다. On the other hand, when the first light pattern P1 shown in the acquired image disappears from the steady state or only a part of the first light pattern is displayed while the main body 10 is traveling, the obstacle information obtaining unit 220 obtains the obstacle information from the mobile robot 1) in the vicinity of the cliff.

장애물 정보획득부(220)는 획득영상에 제 1 광 패턴이 표시되지 않는 경우, 이동 로봇(1)의 전방에 위치하는 낭떠러지를 인식할 수 있다. 이동 로봇(1)의 전방에 낭떠러지(예를 들어, 계단)가 존재하는 경우, 제 1 패턴 광이 바닥에 입사되지 않으므로, 획득영상에서 제 1 광 패턴(P1)이 사라지게 된다. The obstacle information obtaining unit 220 can recognize a cliff located in front of the mobile robot 1 when the first light pattern is not displayed on the acquired image. In the case where a cliff (for example, a step) exists in front of the mobile robot 1, the first pattern light P1 is not incident on the floor, and thus the first light pattern P1 disappears in the acquired image.

장애물 정보획득부(220)는 D2의 길이를 바탕으로, 본체(10)로부터 D2 만큼 떨어진 전방에 낭떠러지가 있는 것으로 판단할 수 있다. 이때, 제 1 패턴 광(P1)이 십자 형상인 경우에는 수평선은 사라지고 수직선만 표시됨에 따라 낭떠러지를 판단할 수 있다. The obstacle information obtaining unit 220 may determine that there is a cliff in front of the main body 10 at distance D2 based on the length of D2. At this time, when the first pattern light P1 is a cross shape, the horizontal line disappears and only the vertical line is displayed, so that the cliff can be determined.

또한, 장애물 정보획득부(220)는 제 1 광 패턴의 일부가 표시되지 않는 경우, 이동 로봇(1)의 좌측 또는 우측에 낭떠러지가 존재하는 것으로 판단할 수 있다. 제 1 광 패턴의 우측 일부가 표시되지 않는 경우, 낭떠러지가 우측에 존재하는 것으로 판단할 수 있다. The obstacle information obtaining unit 220 may determine that a cliff exists in the left or right side of the mobile robot 1 when a part of the first light pattern is not displayed. If the right part of the first light pattern is not displayed, it can be determined that the cliff exists on the right side.

따라서, 장애물 정보획득부(220)는 파악된 낭떠러지 정보를 바탕으로, 주행제어부(230)는 이동 로봇(1)이 낭떠러지에 빠지지 않는 경로를 따라 주행 될 수 있도록 주행 구동부(300)를 제어할 수 있다.Accordingly, the obstacle information obtaining unit 220 can control the travel driving unit 300 so that the mobile robot 1 can travel along a path that does not fall into a cliff, based on the detected cliff information. have.

또한, 주행제어부(230)는 전방에 낭떠러지가 존재하는 경우, 일정거리, 예를 들어 D2 또는 그 이하로 전진하여, 본체의 하부에 설치된 낭떠러지센서를 이용하여, 낭떠러지인지 여부를 다시 한번 확인할 수 있다. 이동 로봇(1)은 획득영상을 통해 낭떠러지를 1차 확인하고, 일정거리 주행하여 낭떠러지 센서를 통해 2차 확인할 수 있다. In addition, if there is a cliff in front of the vehicle, the travel controller 230 advances to a predetermined distance, for example, D2 or less, and can again check whether the cliff is a cliff by using a cliff sensor installed at a lower portion of the main body . The mobile robot (1) first confirms a cliff through an acquired image, then travels a certain distance and can secondarily confirm the cliff through a cliff sensor.

도 8 은 제 1 패턴 조사부에 의해 조사되는 패턴의 광을 도시한 도이다. 8 is a diagram showing light of a pattern irradiated by the first pattern irradiating unit.

패턴검출부(210)는 영상 획득부(140)로부터 입력되는 획득영상으로부터 제 1 광 패턴 또는 제 2 광 패턴을 검출하여 장애물 정보획득부(220)로 인가한다.The pattern detecting unit 210 detects the first light pattern or the second light pattern from the acquired image input from the image obtaining unit 140 and applies the detected first light pattern or the second light pattern to the obstacle information obtaining unit 220.

장애물 정보획득부(220)는 획득영상으로부터 검출된 제 1 광 패턴 또는 제 2 광 패턴을 분석하여 제 1 광 패턴의 위치를 정해진 기준위치(ref1)와 비교하여 장애물을 판단한다. The obstacle information obtaining unit 220 analyzes the first light pattern or the second light pattern detected from the acquired image and compares the position of the first light pattern with a predetermined reference position ref1 to determine an obstacle.

도 8의 (a)에 도시된 바와 같이, 제 1 광 패턴(P1)의 수평선이 기준위치(ref1)에 위치하는 경우, 정상상태로 판단한다. 이때 정상상태란, 바닥이 높낮이가 없고 고른, 평편한 상태이고, 전방에 장애물이 존재하지 않아 계속 주행 가능한 상태이다. As shown in FIG. 8 (a), when the horizontal line of the first light pattern P1 is located at the reference position ref1, it is determined as a normal state. In this case, the steady state means that the floor is flat and flat without any elevation, and there is no obstacle in front, so that the vehicle can continue to travel.

제 2 광 패턴(P2)은, 전방의 상부에 장애물이 존재하는 경우 장애물에 입사되어 획득영상에 나타나므로, 정상상태에서는 제 2 광 패턴(P2)은 나타나지 않는 것이 일반적이다. It is general that the second light pattern P2 does not appear in the steady state because the second light pattern P2 is incident on the obstacle when an obstacle exists in the upper part of the front and is displayed in the acquired image.

도 8의 (b)에 도시된 바와 같이, 제 1 광 패턴(P1)의 수평선이 기준위치(ref1)보다 상부에 위치하는 경우, 장애물 정보획득부(220)는 전방에 장애물이 존재하는 것으로 판단한다. 8 (b), when the horizontal line of the first light pattern P1 is located above the reference position ref1, the obstacle information obtaining unit 220 determines that an obstacle is present in front of the obstacle information obtaining unit 220 do.

주행제어부(230)는 도시된 바와 같이 장애물 정보획득부(220)를 통해 장애물이 감지되면, 장애물을 회피하여 주행하도록 주행 구동부(300)를 제어한다. 한편, 장애물 정보획득부(220)는 제 1 광 패턴(P1) 및 제 2 광 패턴의 위치와 제 2 광 패턴의 표시 여부에 대응하여 감지된 장애물의 위치와 크기를 판단할 수 있다. 또한, 장애물 정보획득부(220)는 주행중에 획득영상에 표시되는 제 1 광 패턴과 제 2 광 패턴의 변화에 대응하여 장애물의 위치와 크기를 판단할 수 있다. When the obstacle is detected through the obstacle information obtaining unit 220 as shown in the figure, the driving control unit 230 controls the driving driving unit 300 so as to avoid the obstacle. On the other hand, the obstacle information obtaining unit 220 can determine the position and size of the detected obstacle in accordance with the position of the first light pattern P1 and the second light pattern, and the display state of the second light pattern. In addition, the obstacle information obtaining unit 220 can determine the position and size of the obstacle in accordance with the change of the first light pattern and the second light pattern displayed on the acquired image during driving.

주행제어부(230)는 장애물 정보획득부(220)로부터 입력되는 장애물의 정보를 바탕으로, 장애물에 대하여 계속 주행할 수 있는지 또는 회피하여 주행할지 여부를 판단하여 주행 구동부(300)를 제어한다. 예를 들어 주행제어부(230)는 장애물의 높이가 일정 높이 이하로 낮은 경우, 또는 장애물과 바닥 사이에 공간에 진입 가능한 경우에는 주행이 가능하다고 판단한다. Based on the information of the obstacle input from the obstacle information obtaining unit 220, the travel controller 230 determines whether the obstacle can be continuously traveled or avoided, and controls the travel driving unit 300. For example, the travel control unit 230 determines that the vehicle can travel when the height of the obstacle is lower than a predetermined height or when it is possible to enter the space between the obstacle and the floor.

도 8의 (c)에 도시된 바와 같이, 제 1 광 패턴(P1)이 기준위치(ref1)보다 낮은 위치에 표시될 수 있다. 장애물 정보획득부(220)는 제 1 광 패턴(P1)이 기준위치보다 낮은 위치에 나타나는 경우, 내리막 경사로가 존재하는 것으로 판단한다. 낭떠러지의 경우 제 1 광 패턴(P1)이 사라지므로 낭떠러지와는 구분될 수 있다. The first light pattern P1 may be displayed at a position lower than the reference position ref1, as shown in Fig. 8 (c). The obstacle information obtaining unit 220 determines that the downhill ramp exists when the first light pattern P1 appears at a position lower than the reference position. In the case of a cliff, since the first light pattern P1 disappears, it can be distinguished from the cliff.

도 8의 (d)에 도시된 바와 같이, 장애물 정보획득부(220)는 제 1 광 패턴이 표시되지 않는 경우 주행방향에 낭떠러지가 존재하는 것으로 판단한다. As shown in FIG. 8 (d), the obstacle information obtaining unit 220 determines that a cliff exists in the traveling direction when the first light pattern is not displayed.

또한, 도 8의 (e)와 같이, 제 1 광 패턴의 일부가 표시되지 않는 경우, 장애물 정보획득부(220)는 좌측 또는 우측에 낭떠러지가 존재하는 것으로 판단할 수 있다. 이 경우 장애물 정보획득부(220)는 본체(10)의 좌측에 낭떠러지가 존재하는 것으로 판단한다. 8 (e), when a part of the first light pattern is not displayed, the obstacle information obtaining unit 220 may determine that a cliff exists on the left or right side. In this case, the obstacle information obtaining unit 220 determines that a cliff is present on the left side of the main body 10.

한편, 제 1 광 패턴(P1)이 십자형상인 경우에는 수평선의 위치와, 수직선의 길이를 모두 고려하여 장애물을 판단할 수 있다. On the other hand, when the first light pattern P1 is in a cross shape, an obstacle can be determined by considering both the position of the horizontal line and the length of the vertical line.

도 9 는 본 발명의 일실시예에 따른 이동 로봇(1)에 있어서 장애물에 조사되는 패턴의 형태를 도시한 예시도이다. FIG. 9 is an exemplary view showing a pattern of a pattern irradiated to an obstacle in the mobile robot 1 according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 장애물 감지유닛(100)으로부터 조사되는 패턴 광이 장애물에 입사되어, 촬영된 획득영상에 광 패턴이 나타남에 따라 장애물 정보획득부(220)는 장애물의 위치, 크기, 형태를 판단할 수 있다. As shown in FIG. 9, the pattern light irradiated from the obstacle sensing unit 100 is incident on the obstacle, and a light pattern appears on the captured image, the obstacle information obtaining unit 220 obtains the position, size, The shape can be judged.

도 9의 (a)에 도시된 바와 같이, 주행 중 전방에 벽면이 존재하는 경우, 제 1 패턴 광은 바닥에 입사되고 제 2 패턴 광은 벽면에 입사된다. 그에 따라 획득영상에는 제 1 광 패턴(P1)과 제 2 광 패턴(P2)이 두 개의 수평선으로 표시된다. 이때 벽면과의 거리가 D2보다 먼 경우 제 1 광 패턴(P1)은 기준위치(ref1)에 표시되나 제 2 광 패턴이 표시됨에 따라 장애물 정보획득부(220)는 장애물이 존재하는 것을 판단할 수 있다. As shown in FIG. 9A, when a wall surface exists in front of the vehicle during traveling, the first pattern light is incident on the bottom and the second pattern light is incident on the wall surface. Accordingly, the first light pattern P1 and the second light pattern P2 are displayed as two horizontal lines in the acquired image. At this time, if the distance from the wall surface is longer than D2, the first light pattern P1 is displayed at the reference position ref1, but the second light pattern is displayed, so that the obstacle information obtaining unit 220 can determine that an obstacle exists have.

한편, 본체(10)와 벽면과의 거리가 D2 미만으로 근접하는 경우, 제 1 패턴 광이 바닥이 아닌 벽면에 입사되므로, 획득영상에는 제 1 광 패턴이 기준위치(ref1)보다 상측에 표시되고, 그 상측에 제 2 광 패턴이 표시된다. 제 2 광 패턴은 장애물에 근접할수록 그 위치가 하측에 표시되므로, 벽면과 본체(10)의 거리가 D2보다 먼 경우보다는 하측에 표시된다. 단, 제 2 패턴 광은 기준위치 및 제 1 광 패턴보다는 상측에 표시된다. On the other hand, when the distance between the main body 10 and the wall surface is less than D2, the first pattern light is incident on the wall surface rather than the bottom, so that the first light pattern is displayed above the reference position ref1 on the acquired image , And a second light pattern is displayed on the upper side thereof. The distance between the wall surface and the main body 10 is displayed on the lower side rather than the distance D2 because the position of the second light pattern is displayed on the lower side as it approaches the obstacle. However, the second pattern light is displayed above the reference position and the first light pattern.

그에 따라 장애물 정보획득부(220)는 제 1 광 패턴과 제 2 광 패턴을 통해 장애물인 벽면까지의 거리를 산출할 수 있다. Accordingly, the obstacle information obtaining unit 220 can calculate the distance to the obstacle wall surface through the first light pattern and the second light pattern.

도 9의 (b)에 도시된 바와 같이, 침대, 서랍장 등의 장애물이 전방에 존재하는 경우, 제 1 패턴 광(P1)과 제 2 패턴 광(P2)이 두개의 수평선으로 바닥과 장애물에 각각 입사된다. As shown in FIG. 9B, when an obstacle such as a bed, a drawer, or the like exists in front, the first pattern light P1 and the second pattern light P2 form two horizontal lines, .

장애물 정보획득부(220)는 제 1 광 패턴과 제 2 광 패턴을 바탕으로 장애물을 판단한다. 제 2 광 패턴의 위치 및 장애물에 접근하는 중 나타나는 제 2 광 패턴의 변화를 바탕으로 장애물의 높이를 판단할 수 있다. 그에 따라 주행제어부(230)는 장애물의 하부 공간에 진입 가능한지 여부를 판단하여 주행 구동부(300)를 제어한다. The obstacle information obtaining unit 220 determines obstacles based on the first light pattern and the second light pattern. The height of the obstacle can be determined based on the position of the second light pattern and the change of the second light pattern appearing when approaching the obstacle. Accordingly, the driving control unit 230 determines whether or not the vehicle can enter the lower space of the obstacle and controls the driving driving unit 300.

예를 들어 청소구역 내에 침대와 같이 바닥과의 사이에 소정의 공간이 형성되는 장애물이 위치하는 경우, 공간을 인지할 수 있으며, 바람직하게는 공간의 높이를 파악하여 장애물을 통과할 것인지, 회피할 것인지를 판단할 수 있다. 공간의 높이가 본체(10)의 높이보다 낮다고 판단된 경우, 주행제어부(230)는 본체(10)가 장애물을 회피하여 주행하도록 주행 구동부(300)를 제어할 수 있다. 반대로, 공간의 높이가 본체(10)의 높이보다 높다고 판단된 경우, 주행제어부(230)는 본체(10)가 공간 내로 진입 또는 공간을 통과하도록 주행 구동부(300)를 제어하는 것도 가능하다.For example, when an obstacle, such as a bed, in which a predetermined space is formed is located in a cleaning area, the space can be recognized. Preferably, the height of the space is determined so as to pass through the obstacle . When the height of the space is determined to be lower than the height of the main body 10, the travel control unit 230 can control the travel driving unit 300 so that the main body 10 avoids the obstacle and travels. Conversely, when it is determined that the height of the space is higher than the height of the main body 10, the travel control unit 230 may control the travel driving unit 300 so that the main body 10 enters into the space or passes through the space.

이때, 전술한 9의 (a)에도 제 1 광 패턴과 제 2 광 패턴이 두개의 수평선으로 표시되기는 하나, 장애물 정보획득부(220)는 제 1 광 패턴과 제 2 광 패턴 사이의 거리가 상이하므로 이를 구분할 수 있다. 또한, 도 9의 (a)의 경우, 장애물에 근접할수록 제 1 광 패턴의 위치가 기준위치보다 위에 표시되나, 도 9의 (b)와 같이, 상부에 위치한 장애물의 경우에는 일정거리 근접하더라도 제 1 광 패턴(P1)은 기준위치(ref1)에 표시되고, 제 2 광 패턴(P2)의 위치가 변경되므로, 장애물 정보획득부(220)는 장애물의 종류를 구분할 수 있다. At this time, although the first light pattern and the second light pattern are indicated by two horizontal lines in (a) of FIG. 9, the obstacle information obtaining unit 220 may determine that the distance between the first light pattern and the second light pattern is different This can be distinguished. In the case of FIG. 9A, the position of the first light pattern is displayed above the reference position as it approaches the obstacle, but in the case of the obstacle located at the upper part as shown in FIG. 9B, One light pattern P1 is displayed at the reference position ref1 and the position of the second light pattern P2 is changed so that the obstacle information obtaining unit 220 can sort the obstacle types.

도 9의 (c)와 같이, 침대 또는 서랍장 모서리의 경우, 제 1 패턴 광(P1)은 바닥에 수평선으로 조사되고, 제 2 패턴 광(P2)은 장애물의 모서리에 조사됨에 따라 그 일부는 수평선으로 나타나고 나머지 일부는 사선으로 장애물에 입사되어 나타난다. 제 2 광 패턴은 본체(10)로부터 멀수록 상승하므로, 장애물의 측면의 경우, 전면에 조사되는 수평선보다 상측으로 꺾어지는 사선이 된다. 9 (c), in the case of a corner of a bed or a drawer, the first pattern light P1 is irradiated to the bottom at a horizontal line, and the second pattern light P2 is irradiated at the edge of the obstacle, And some of the others appear in oblique lines. Since the second light pattern rises as it is farther from the main body 10, in the case of the side surface of the obstacle, the second light pattern becomes a slanting line which is bent upward above the horizontal line irradiated on the front surface.

도 9의 (d)에 도시된 바와 같이, 본체(10)가 벽면 모서리에 일정거리 이상 근접한 경우, 제 1 패턴 광(P1)은 일부가 기준위치보다 상측에 수평선으로 표시되고, 모서리의 측면에 일부가 조사되어 하부로 꺾어지는 사선으로 표시되며, 바닥면에 대해서는 기준위치에서 수평선으로 표시된다. 9 (d), when the main body 10 is close to the edge of the wall by a predetermined distance or more, a part of the first pattern light P1 is displayed as a horizontal line above the reference position, Some are illuminated and shown as diagonal lines that bend downward, and the bottom surface is indicated as a horizontal line at the reference location.

한편, 제 2 패턴 광은 전술한 도 9의 (c)와 같이 일부는 수평선으로 표시되고, 모서리의 측면에 조사되는 일부는 상부로 꺾어지는 사선으로 입사되어 나타난다. On the other hand, a part of the second pattern light is displayed as a horizontal line as shown in (c) of FIG. 9, and a part of the light irradiated to the side of the corner is incident on a diagonal line bent upward.

또한, 도 9의 (e)와 같이, 벽면으로부터 돌출된 장애물에 대하여, 제 1 광 패턴은 기준위치(ref1)에 수평선으로 표시되고, 제 2 광 패턴(P2)은 돌출면에 일부가 수평선으로 표시되고, 일부는 돌출면의 측면에 조사되어 상부로 꺾어지는 사선으로 표시되며, 나머지 일부는 벽면에 조사되어 수평선으로 나타난다. 9 (e), for the obstacle protruding from the wall surface, the first light pattern is displayed as a horizontal line at the reference position ref1, and the second light pattern P2 is displayed as a horizontal line A part of the light is irradiated on the side surface of the protruding surface and is indicated by a slanting line which is bent upward, and the remaining part is irradiated on the wall surface and appears as a horizontal line.

그에 따라 장애물 정보획득부(220)는 제 1 패턴 광과 제 2 패턴 광의 위치 및 형태를 바탕으로 장애물의 위치, 형태, 크기(높이)를 판단한다. Accordingly, the obstacle information obtaining unit 220 determines the position, shape, and size (height) of the obstacle based on the position and shape of the first pattern light and the second pattern light.

도 10 은 본 발명의 일실시예에 따른 이동 로봇의 구속상황을 설명하는데 참조되는 도이다. 10 is a diagram for explaining a restraint state of a mobile robot according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 이동 로봇(1)은 청소 또는 주행 중에, 복수의 장애물(O1 내지O4)가 존재하는 영역으로 진입할 수 있다. 예를 들어, 의자 밑, 식탁 밑과 같이 의자나 식탁의 다리, 바닥에 놓여있는 장애물로 둘러싸인 일정 크기 이하의 영역에 이동 로봇(1)이 진입하여, 주변의 장애물로 인해 주행할 수 없는 구속 상황이 발생한다. As shown in Fig. 10, the mobile robot 1 can enter a region where a plurality of obstacles O1 to O4 exist during cleaning or traveling. For example, when the mobile robot 1 enters an area of a certain size or less surrounded by a chair, a leg of a dining table, an obstacle lying on the floor, and a restraint condition Lt; / RTI >

이동 로봇(1)은 광 패턴(P1)을 조사하여 장애물 감지유닛(100)으로부터 입력되는 획득영상의 패턴을 분석하고 그에 따라 장애물의 존재 및 장애물의 위치를 판단하고 장애물을 회피하여 주행한다. The mobile robot 1 analyzes the pattern of the acquired image input from the obstacle sensing unit 100 by irradiating the light pattern P1, determines the presence of the obstacle and the position of the obstacle according to the pattern, avoids the obstacle, and travels.

일정크기 이하의 영역에서, 복수의 장애물이 인접하여 배치된 경우, 하나의 장애물을 회피하더라도 새로운 장애물이 나타나게 되므로, 장애물의 회피가 쉽지 않고, 장애물 감지 및 회피를 반복하며 해당 영역에서 장시간 지체하게 된다. When a plurality of obstacles are arranged adjacent to each other in a region of a predetermined size or less, a new obstacle appears even if one obstacle is avoided. Therefore, it is not easy to avoid the obstacle, and obstacle detection and avoidance are repeated and the area is delayed for a long time .

제어부(200)는 일정거리 내에서, 복수의 장애물로 인하여 주행을 할 수 없는 상태가 반복되면, 구속상황으로 판단하여 탈출모드를 설정하고, 주변의 장애물에 대한 정보를 바탕으로 탈출경로를 설정하여 구속상황에서 벗어나도록 한다.If the control unit 200 repeats a state in which the vehicle can not travel due to a plurality of obstacles within a certain distance, the control unit 200 determines an escape mode based on the determination of the restraint state and sets an escape route based on the information about the obstacles surrounding the obstacle Get out of the redemption situation.

도 11 는 도 10의 구속 상황에서 이동 로봇의 탈출 동작을 설명하는데 참조되는 도이다. 11 is a diagram referred to explain the escape operation of the mobile robot in the constraint situation of FIG.

도 11의 (a)에 도시된 바와 같이, 이동 로봇(1)은, 획득영상의 광 패턴을 인식하여 장애물을 감지하여, 장애물을 회피하여 주행할 수 있는지 여부를 우선 판단한다. As shown in Fig. 11A, the mobile robot 1 recognizes an optical pattern of an acquired image, detects an obstacle, and determines whether or not the obstacle can be avoided and traveled.

이동 로봇(1)은, 주행이 불가능한 경우, 장애물을 회피하기 위해 도 11의 (b)에 도시된 바와 같이, 일정 각도 회전한다. 이동 로봇(1)은 회전 후, 새로운 장애물을 감지하고 주행이 가능한지 여부를 다시 판단한다. When the mobile robot 1 can not travel, the mobile robot 1 rotates by a certain angle as shown in Fig. 11 (b) in order to avoid obstacles. After the mobile robot 1 rotates, it senses a new obstacle and judges again whether or not it is possible to travel.

이동 로봇(1)은 일정각도 회전하는 동안 획득영상을 통해 패턴을 분석하여 주변의 장애물에 대한 정보를 획득하여 저장한다. The mobile robot 1 analyzes the pattern through the acquired image while rotating at a predetermined angle to acquire and store information about the surrounding obstacles.

이동 로봇(1)은 이와 같은 동작을 반복하여 복수의 장애물로 둘러싸여 주행하지 못하는 구속상황이 발생하면, 구속상황인지 여부를 우선 판단하고 탈출모드를 설정한다. The mobile robot 1 determines whether or not it is a restraint situation, and sets an escape mode when a restraint situation occurs in which the robot 1 can not travel while being surrounded by a plurality of obstacles repeatedly.

제어부(200)는 탈출모드를 설정하고, 기 저장된 주변의 장애물에 대한 정보와 획득영상의 패턴을 분석하여 주행 또는 진입가능한 경로가 있는지 여부를 판단하여 탈출경로를 설정한다. The control unit 200 sets an escape mode, analyzes the information about the previously stored obstacles and the pattern of the acquired image, determines whether there is a route that can be traveled or enters, and sets an escape route.

제어부(200)는 탈출모드에서, 장애물과 장애물 사이의 공간의 크기를 바탕으로 주행 또는 진입 여부를 판단하여 탈출경로를 설정한다. In the escape mode, the controller 200 determines whether the vehicle is traveling or not based on the size of the space between the obstacle and the obstacle, and sets the escape route.

도 12 는 도 10의 구속 상황에서, 진입가능 여부를 판단하는 이동 로봇의 동작을 설명하는데 참조되는 도이다. FIG. 12 is a diagram referred to explain the operation of the mobile robot for determining whether or not the robot can enter the robot in the constrained state of FIG.

도 12의 (a)에 도시된 바와 같이, 이동 로봇(1)은 탈출모드에서, 제 1 및 제 2 패턴조사부(120, 130)를 통해 전방으로 패턴 광(P1, P2)을 조사하고, 장애물에 조사되는 패턴광(P1, P2)을 영상 획득부(140)를 통해 촬영한다. 12A, the mobile robot 1 irradiates the pattern light P1 and P2 forward through the first and second pattern irradiating units 120 and 130 in the escape mode, The pattern light P1 and the pattern light P2 irradiated to the pattern image forming unit 140 are captured.

패턴검출부(210)는 입력되는 획득영상을 분석하여 장애물에 조사된 광 패턴을 추출하고, 장애물 정보획득부(220)는 광 패턴을 분석하여 장애물의 위치, 장애물의 크기 및 형태 등의 장애물에 대한 정보를 획득한다. The pattern detector 210 analyzes the input image to extract a light pattern irradiated to the obstacle. The obstacle information obtaining unit 220 analyzes the light pattern to analyze the position of the obstacle, the size and the shape of the obstacle, Obtain information.

주행제어부(230)는 획득된 장애물에 대한 정보를 바탕으로, 주행 또는 진입 가능 여부를 판단하고, 그에 따라 장애물을 회피하거나 장애물을 통과하여 주행하도록 탈출경로를 설정한다. Based on the information on the obtained obstacle, the travel control unit 230 determines whether the vehicle can travel or is allowed to enter, and sets the escape route so as to avoid the obstacle or travel through the obstacle.

장애물 정보획득부(220)는 입력되는 광 패턴에 대하여, 도 12의 (b)에 도시된 바와 같이 광 패턴(P1)이 나타나는 경우, 광 패턴이 기준위치(ref1)에 위치하지 않고, 그 형태가 사선이므로, 주변에 장애물이 존재하는 것으로 판단한다. When the light pattern P1 appears as shown in FIG. 12 (b), the obstacle information obtaining unit 220 determines that the light pattern is not located at the reference position ref1, Since it is an oblique line, it is judged that an obstacle exists in the vicinity.

장애물 정보획득부(220)는 광 패턴의 양쪽 끝이 기준위치보다 상부에 위치하고, 중앙부분은 기준위치에 위치하고 있으므로, 전방의 좌측과 우측에 각각 장애물이 존재하는 것을 판단할 수 있다. The obstacle information obtaining unit 220 can determine that the obstacles exist on the left and right sides of the front because the both ends of the light pattern are located above the reference position and the center portion is located at the reference position.

한편, 장애물 정보획득부(220)는 광 패턴의 일부가 기준위치에 표시됨에 따라, 전방의 좌측에 위치한 장애물과 우측에 위치한 장애물의 사이에 일정 공간이 존재하는 것으로 판단한다. 이때 장애물 정보획득부(220)는 기준위치에 표시되는 패턴의 길이를 통해 장애물 사이의 공간의 폭을 판단한다. On the other hand, the obstacle information obtaining unit 220 determines that a certain space exists between the obstacle located on the left side of the front and the obstacle located on the right side as a part of the optical pattern is displayed at the reference position. At this time, the obstacle information obtaining unit 220 determines the width of the space between the obstacles through the length of the pattern displayed at the reference position.

장애물 정보획득부는 광패턴을 단위길이(예를 들어 1mm)에 대응하는 실제 영역의 크기(길이)에 대한 데이터를 바탕으로 그 값을 환산하여 공간의 폭을 판단할 수 있다. The obstacle information obtaining unit may determine the width of the space by converting the light pattern based on data on the size (length) of the actual area corresponding to the unit length (for example, 1 mm).

장애물 정보획득부(220)는 광 패턴 중, 기준위치에 표시되는 패턴(이하, 직선패턴)의 길이(D1)를 산출하여 주행제어부(230)로 인가한다. The obstacle information obtaining unit 220 calculates the length D1 of a pattern (hereinafter referred to as a straight line pattern) displayed at the reference position among the light patterns and applies the calculated length D1 to the travel control unit 230. [

주행제어부(230)는 장애물 정보획득부(220)로부터 입력되는 패턴의 길이, 즉 획득영상의 광 패턴 중, 기준위치에 표시되는 패턴의 일부분(직선패턴)에 대한 길이를 설정길이와 비교하여 이동 로봇(1)이 진입 또는 주행 가능한지 여부를 판단한다. The driving control unit 230 compares the length of a pattern input from the obstacle information obtaining unit 220, that is, a length of a portion of a pattern (straight line pattern) displayed at a reference position among the optical patterns of the acquired image, It is determined whether or not the robot 1 can enter or travel.

설정길이는 이동 로봇(1)이 통과 가능한 폭인지 여부를 판단하기 위한 기준값으로, 본체가 주행하기 위한 최소한의 폭을 기준으로 설정된다. 설정길이는, 이동 로봇(1)의 크기에 따라 결정되며, 이동 로봇(1)의 폭 보다 큰 값에 대응하여 설정된다. 이때 설정길이는 판단방식에 따라, 실제 길이를 광패턴의 길이로 환산한 값일 수 있고, 경우에 따라 실제 장애물 사이의 길이에 대한 값으로 설정될 수 있다. The set length is a reference value for determining whether or not the mobile robot 1 can pass, and is set based on a minimum width for running the main body. The set length is determined according to the size of the mobile robot 1 and is set corresponding to a value larger than the width of the mobile robot 1. [ At this time, the set length may be a value obtained by converting the actual length into the length of the light pattern according to the determination method, and may be set to a value for the length between actual obstacles depending on the case.

주행제어부(230)는 직선패턴의 길이가 설정길이 이하인 경우, 진입 불가로 판단하고, 직선패턴의 길이(D1)가 설정길이를 초과하는 경우 진입가능으로 판단한다.When the length of the straight line pattern is equal to or shorter than the set length, the travel control unit 230 determines that entry is impossible, and determines that the entry is possible if the length D1 of the straight line pattern exceeds the set length.

직선패턴의 길이가 설정길이 이하로, 진입할 수 없다고 판단되는 경우 주행제어부(230)는 앞서 설명한 바와 같이 전방의 장애물을 회피하는 새로운 경로를 탐색한다. 그에 따라 주행제어부(230)는 이동 로봇(1)이 일정각도 회전하도록 하여 다음 장애물 또는 새로운 경로를 탐색한다. If it is determined that the length of the straight line pattern is not equal to or shorter than the set length, the travel control unit 230 searches for a new route avoiding the obstacle ahead, as described above. The travel controller 230 causes the mobile robot 1 to rotate at a predetermined angle to search for the next obstacle or a new route.

주행제어부(230)는 탈출모드에서, 이동 로봇(1)이 빠른 청소모드로 설정된 경우, 진입 가능한 경로가 존재하면, 즉시 진입 가능한 경로로 주행하도록 주행 구동부(300)를 제어한다. When the mobile robot 1 is set in the quick cleaning mode in the escape mode, the travel control unit 230 controls the travel driving unit 300 to travel on a path that can be immediately entered if a path that can be entered exists.

주행제어부(230)는, 구속상황으로 판단되는 경우라도, 이동 로봇(1)이 진입한 경로가 존재하고 또는 다른 새로운 경로가 존재할 수 있으므로, 진입 가능하다면 탈출경로로 설정하여 탈출을 시도한다. Even if it is determined that the state is the restraint state, the travel control unit 230 may set an escape route if the mobile robot 1 is able to enter because there is a route that the mobile robot 1 has entered or another new route exists.

주행제어부(230)는 탈출모드 설정 시, 기존의 장애물 정보를 초기화하고, 장애물을 새로 탐색할 수 있다. 주행제어부(230)는 반복적으로 새로운 장애물이 감지되고 감지된 장애물에 대한 회피를 시도하였으나, 정상적인 주행이 불가능한 경우 구속상황으로 판단하므로, 기존의 장애물 정보로 구속상황을 회피하지 못한 것으로 판단하여 정보를 초기화 한 후 장애물을 감지할 수 있다. When the escape mode is set, the travel control unit 230 initializes the existing obstacle information and newly searches for the obstacle. The driving control unit 230 repeatedly detects a new obstacle and attempts to avoid the detected obstacle. However, if the driving obstacle can not be normally traveled, the driving control unit 230 determines that the obstacle can not be avoided by the existing obstacle information, After initialization, the obstacle can be detected.

또한, 주행제어부는 탈출모드에서, 이동 로봇(1)이 기본모드로 설정된 경우, 주변의 장애물에 대한 주변영역지도를 생성한 후, 지도로부터 진입 가능한 경로를 탐색하여 탈출경로로 설정한다.When the mobile robot 1 is set to the basic mode in the escape mode, the travel control unit creates a map of the surrounding area for the surrounding obstacle, and then searches for a path that can be entered from the map and sets it as an escape route.

도 13 은 도 10의 구속 상황에서, 장애물을 판단하는 이동 로봇의 동작을 설명하는데 참조되는 도이다. Fig. 13 is a diagram for explaining the operation of the mobile robot for determining obstacles in the constraint situation of Fig. 10; Fig.

도 13의 (a)에 도시된 바와 같이, 이동 로봇(1)은 경로를 탐색하기 위해 회전하거나 또는 주행하는 중, 새로운 장애물이 나타나면, 패턴조사부를 통해 조사된 패턴광이 장애물에 입사되어 획득영상을 통해 광 패턴이 나타난다. As shown in FIG. 13A, when a new obstacle appears while the mobile robot 1 is rotating or traveling to search for a path, the pattern light irradiated through the pattern irradiating unit is incident on the obstacle, A light pattern appears.

도시된 바와 같이, 장애물의 모서리 방향으로 이동 로봇(1)이 위치하는 경우, 도 13의 (b)에 도시된 바와 같이, 광 패턴은 중앙이 삼각형 모양으로 표시되고, 좌우는 기준위치(ref1)에 직선으로 표시된다. 13 (b), when the mobile robot 1 is positioned in the corner direction of the obstacle, the center of the light pattern is displayed in a triangular shape, and the left and right reference positions ref1, As shown in FIG.

장애물 정보획득부(220)는 광 패턴을 바탕으로, 전방에 장애물(모서리)이 존재하고, 좌측 또는 우측에는 장애물이 위치하지 않음을 판단할 수 있다. 그에 따라 주행제어부(230)는 좌측 또는 우측으로 회전하여 새로운 경로를 탐색할 수 있다. The obstacle information obtaining unit 220 may determine that an obstacle (corner) exists in front of the obstacle based on the light pattern and that no obstacle is located on the left or right side. Accordingly, the travel controller 230 can rotate to the left or right to search for a new route.

이때, 장애물 정보획득부(220)는 광 패턴 중 기준위치에 표시되는 직선패턴의 길이를 각각 산출하여 주행제어부(230)로 입력한다. 주행제어부(230)는 직선패턴의 길이(D2a, D2b)를 바탕으로 진입 가능 여부를 판단할 수 있고, 또한 좌측과 우측 중 어느 한 방향으로 회전방향을 설정할 수 있다. 단, 이동 로봇(1)의 위치나 각도에 따라 좌우 직선패턴의 길이는 상이할 수 있으므로, 회전 또는 주행 후에도 지속적으로 장애물을 감지하여 주행방향을 설정한다. At this time, the obstacle information obtaining unit 220 calculates the lengths of the straight line patterns displayed at the reference position among the light patterns, and inputs them to the travel control unit 230. The travel control unit 230 can determine whether or not the vehicle can be entered based on the lengths D2a and D2b of the straight line pattern and can set the direction of rotation in either the left or right direction. However, since the lengths of the left and right linear patterns may be different depending on the position and angle of the mobile robot 1, the obstacle is continuously detected even after the rotation or running to set the running direction.

장애물 정보획득부(220)는, 이와 같이 새로운 장애물이 감지되는 경우, 새로운 장애물에 대한 정보를 저장한 후, 주행제어부(230)로 인가하고, 주행제어부(230)는 새로운 장애물에 대응하여 탈출경로를 변경한다. When a new obstacle is detected, the obstacle information obtaining unit 220 stores the information on the new obstacle and then applies the information to the driving control unit 230. The driving control unit 230 controls the obstacle information obtaining unit 220, .

주행제어부(230)는 일정거리 내에서, 새로운 장애물에 의해 탈출경로가 변경되는 횟수를 카운트하여 저장한다. The travel control unit 230 counts and stores the number of times the escape route is changed by a new obstacle within a predetermined distance.

주행제어부(230)는 일정 거리 내에서 장애물이 연속으로 감지됨에 따라, 탈출경로가 변경되는 횟수를 설정횟수와 비교하여 탈출 완료 여부를 판단한다. The driving control unit 230 compares the number of times the escape route is changed with the set times as the obstacle is continuously detected within a predetermined distance to determine whether or not the escape is completed.

이때, 주행제어부는 일정거리 이상 주행한 이후에 새로운 장애물이 감지되는 경우에는 횟수를 재설정한 후 다시 카운트한다. 즉 기 설정된 탈출경로에 따라 주행중 일정거리 내에서, 반복적으로 탈출경로를 변경하는 경우 횟수를 카운트하고, 일정거리 이상 주행한 경우에는 해당 영역을 벗어난 것으로 판단하여 횟수를 재설정한다. At this time, if a new obstacle is sensed after traveling for a predetermined distance or more, the travel control unit resets the count and then counts again. That is, the number of times of repeatedly changing the escape route is counted within a predetermined distance of the escape route according to the predetermined escape route, and when the vehicle travels over a certain distance, it is determined that the escape route is out of range and the number is reset.

주행제어부는 구속상황을 판단하는 경우에도 일정크기 이하의 영역에서 반복적으로 장애물이 감지되는 경우 동일한 방식으로 탈출모드를 설정할 수 있다. The driving control unit may set the escape mode in the same manner when an obstacle is repeatedly detected in an area of a predetermined size or less even when the restraint state is determined.

도 14 는 도 10의 구속 상황에서, 탈출경로를 설정하는 이동 로봇의 동작을 설명하는데 참조되는 도이다. Fig. 14 is a diagram referred to explain the operation of the mobile robot for setting the escape route in the constraint situation of Fig. 10; Fig.

도 14의 (a)에 도시된 바와 같이, 이동 로봇(1)은 탈출모드에서, 장애물과 장애물 사이에 일정 크기가 공간이 존재하는 경우, 앞서 설명한 도 12와 같이 장애물 사이의 공간의 크기를 판단하여 주행 또는 진입 여부를 결정한다. As shown in FIG. 14 (a), when the mobile robot 1 has a space of a certain size between the obstacle and the obstacle in the escape mode, it determines the size of the space between the obstacles as shown in FIG. And decide whether to run or enter.

이동 로봇(1)은 도 14의 (b)에 도시된 바와 같이, 획득영상으로부터 추출된 광 패턴의 형태에 따라 주행가능 여부를 판단한다. 14 (b), the mobile robot 1 determines whether or not it is possible to run according to the shape of the light pattern extracted from the acquired image.

장애물 정보획득부(220)는 광 패턴의 좌측과 우측이 사선형태로, 이동 로봇(1)의 좌측과 우측에 장애물이 존재함을 판단한다. 또한, 중앙의 직선패턴의 길이(D03)를 산출하여 주행제어부(230)로 입력한다. The obstacle information obtaining unit 220 determines that obstacles are present on the left and right sides of the mobile robot 1 in a slant form on the left and right sides of the light pattern. Further, the length D03 of the center straight line pattern is calculated and inputted to the travel control section 230. [

주행제어부(230)는 직선패턴의 길이(D03)를 설정길이와 비교하고, 직선패턴의 길이가 설정길이 이상인 경우 주행 또는 진입 가능으로 판단하여 주행한다. The travel control unit 230 compares the length D03 of the straight line pattern with the set length and judges that the straight line pattern is traveling or can enter if the length of the straight line pattern is equal to or greater than the set length.

광 패턴의 직선길이를 바탕으로, 장애물 사이의 공간이 주행 가능한 정도의 폭인 경우 주행제어부(230)는 해당 경로를 탈출경로로 설정하고 주행상태를 유지하도록 주행 구동부(300)를 제어한다. If the space between the obstacles can be traveled on the basis of the straight line length of the light pattern, the travel control unit 230 sets the route as an escape route and controls the travel driving unit 300 to maintain the traveling state.

장애물 정보획득부(220)는 주행 중에도 지속적으로 입력되는 획득영상의 광 패턴을 바탕으로 장애물 정보를 판단한다. The obstacle information obtaining unit 220 determines the obstacle information based on the optical pattern of the continuously acquired input image even during driving.

주행제어부(230)는 주행중에 입력되는 장애물 정보를 바탕으로 주행 가능 여부를 지속적으로 판단한다. The travel control unit 230 continuously determines whether or not the vehicle can travel based on the obstacle information input during traveling.

주행제어부(230)는 중앙의 직선패턴의 길이가 감소하는 경우, 주행 여부를 다시 판단한다. 직선패턴의 길이가 감소하는 경우, 설정길이 미만이면 주행이 불가능하다고 판단하여, 이동 로봇이 후진하도록 한다. 현재 공간의 크기에 따라 회전이 가능하다면 회전하여 장애물을 탈출하고 새로운 경로를 탐색한다. When the length of the straight line pattern at the center decreases, the travel control unit 230 again determines whether or not the vehicle is traveling. If the length of the straight line pattern is decreased, if the length of the straight line pattern is less than the set length, it is determined that the travel is impossible, and the mobile robot moves backward. If it is possible to rotate according to the size of the current space, it rotates and escapes the obstacle and searches for a new route.

주행제어부(230)는 직선패턴의 길이가 유지되거나 증가하는 경우, 현재 경로를 유지하도록 한다.  The travel controller 230 maintains the current path when the length of the straight line pattern is maintained or increased.

도 15 는 도 10의 구속 상황에서 탈출하는 이동 로봇의 동작을 설명하는데 참조되는 도이다. Fig. 15 is a diagram referred to explain the operation of the mobile robot that escapes from the constraint situation of Fig. 10; Fig.

도 15의 (a)에 도시된 바와 같이, 이동 로봇(1)은 장애물과 장애물 사이를 주행하여 구속상황에서 탈출할 수 있다. As shown in Fig. 15 (a), the mobile robot 1 can travel between obstacles and obstacles and escape from the restraint situation.

도 15의 (b)에 도시된 바와 같이, 광 패턴이 기준위치(ref1)에 직선으로 표시되는 경우 주행제어부(230)는 구속상황에서 탈출한 것으로 판단하여 탈출모드를 해제하고, 기존의 설정에 따라 청소를 수행하거나 또는 특정 목적지로 주행한다. 또한, 주행제어부(230)는 충전이 필요한 경우 충전대로 복귀할 수 있다. As shown in FIG. 15B, when the light pattern is displayed in a straight line at the reference position ref1, the travel control unit 230 determines that the light pattern has escaped from the restraint state, releases the escape mode, Follow the cleaning or go to a specific destination. Further, the travel control unit 230 can return to the charging state when charging is required.

주행제어부(230)는 구속상황에 따른 장애물의 정보와, 그에 따른 탈출경로를 저장하여, 동일한 장애물에 구속되는 경우, 장애물 정보를 바탕으로 동일한 장애물 인지 판단하고 그에 대응하여 지정된 탈출경로로 탈출을 시도한다. 저장되지 않은 새로운 장애물이 감지되면, 장애물 정보를 갱신하고, 그에 따라 새로운 탈출경로를 설정할 수 있다. The travel control unit 230 stores the information of the obstacle according to the restraint situation and the escape route corresponding thereto and judges whether the obstacle is the same obstacle based on the obstacle information and escapes to the designated escape route in response thereto do. If a new obstacle that is not stored is detected, the obstacle information can be updated and a new escape route can be set accordingly.

도 16 은 도 10의 구속 상황에서, 주변영역의 정보를 획득하는 이동 로봇의 동작을 설명하는데 참조되는 도이다. Fig. 16 is a diagram referred to explain the operation of the mobile robot for acquiring the information of the peripheral region in the constraint situation of Fig. 10; Fig.

이동 로봇(1)은 구속상황으로 판단되어, 탈출모드가 설정되면, 도 16에 도시된 바와 같이, 현재 위치에서 1회전 하여 주변의 장애물을 감지한다. 현재 위치에서 회전이 불가능한 경우, 이동 로봇(1)은 일정거리 이동 후 1회전 한다. When the escape mode is set, the mobile robot 1 is determined to be in a restrained state, and as shown in Fig. If rotation at the current position is impossible, the mobile robot 1 makes one rotation after moving a certain distance.

주행제어부(230)는 반복적인 장애물 감지로 구속상황인 것으로 판단하면, 현재 위치에서 기 저장된 장애물에 대한 정보를 삭제하여 초기화한다. 예를 들어 동일한 장애물에 반복하여 접근하는 경우 또는 이동하는 장애물이 존재하는 경우도 있으므로, 주변영역에 대한 장애물 정보를 초기화한다. If the driving control unit 230 determines that the vehicle is in the restricted state due to repeated obstacle detection, the driving control unit 230 deletes the information about the obstacle previously stored at the current position and initializes the information. For example, in the case of repeatedly approaching the same obstacle or in the presence of a moving obstacle, the obstacle information for the surrounding area is initialized.

이때, 이동 로봇(1)은 기준으로 일정 거리 내의 장애물에 대한 정보는 초기화하고, 기 청소한 영역에 대한 정보는 유지한다. At this time, the mobile robot 1 initializes the information about the obstacle within a certain distance based on the reference, and keeps information about the previously cleaned area.

주행제어부(230)는 주행 구동부(300)를 제어하여 이동 로봇(1)이 1회전(S1)하도록 한다. The travel control unit 230 controls the travel driving unit 300 so that the mobile robot 1 makes one revolution (S1).

도 16과 같이 제 1 내지 제 4 장애물(O1 내지 O4)가 존재하는 상태에서 이동 로봇(1)이 1회전(S1)하는 경우, 앞서 설명한 도 12의 (b), 도 13의 (b), 도 14의 (b)와 같은 패턴이 연속하여 반복적으로 나타나게 된다. 12 (b), 13 (b), 13 (b), 13 (b) and 13 (c) described above, when the mobile robot 1 makes one turn (S1) in the state where the first to fourth obstacles The pattern as shown in FIG. 14 (b) is repeatedly and continuously displayed.

장애물 정보획득부(220)는, 장애물 감지유닛(100)을 통해 입력되는 획득영상으로부터 추출된 광 패턴을 분석하여, 이동 로봇(1)으로부터 일정거리 내에 위치하는 장애물에 대한 정보를 추출한다. The obstacle information obtaining unit 220 analyzes the optical pattern extracted from the acquired image input through the obstacle detecting unit 100 and extracts information on an obstacle located within a certain distance from the mobile robot 1. [

도 17 은 도 10의 구속 상황에서, 이동 로봇에 의해 생성되는 주변영역에 대한 지도가 도시된 예시도이다. Fig. 17 is an exemplary diagram showing a map of a peripheral region generated by the mobile robot in the constraint situation of Fig. 10; Fig.

도 17에 도시된 바와 같이, 장애물 정보획득부(220)는 광 패턴으로부터 판단된 장애물에 대한 정보를 바탕으로 주변영역지도를 생성한다. As shown in FIG. 17, the obstacle information obtaining unit 220 generates a map of the surrounding area based on the information on the obstacle determined from the light pattern.

장애물 정보획득부(220)는, 장애물 감지유닛(100)을 통해 입력되는 획득영상으로부터 추출된 광 패턴을 분석하여, 주변영역에 위치하는 장애물의 위치와 형태를 광 패턴에 따라 판단한다. The obstacle information obtaining unit 220 analyzes the light pattern extracted from the acquired image input through the obstacle detecting unit 100 and determines the position and the shape of the obstacle located in the surrounding area according to the light pattern.

장애물 정보획득부(220)는 광 패턴의 나타나는 위치를 기준위치(ref1)와 비교하여 장애물까지의 거리를 판단할 수 있고, 광 패턴의 형태, 예를 들어 사선으로 나타내는 광 패턴에 대하여, 좌측 또는 우측에 장애물이 존재함으로 판단할 수 있으며, 삼각형 형태의 광 패턴에 대하여 사각형의 모서리를 판단할 수 있다. The obstacle information obtaining unit 220 can determine the distance to the obstacle by comparing the appearance position of the light pattern with the reference position ref1 and determine the distance to the obstacle based on the shape of the light pattern, It can be judged that there is an obstacle on the right side, and the edge of the rectangle can be judged with respect to the triangular light pattern.

또한, 장애물 정보획득부(220)는 제 1 패턴 광뿐 아니라, 제 2 패턴 광을 통해 상부의 장애물을 감지하여 장애물의 높이는 판단할 수 있다. In addition, the obstacle information obtaining unit 220 can detect the obstacle at the upper part through the second pattern light as well as the first pattern light, and can determine the height of the obstacle.

장애물 정보획득부(220)는 장애물의 위치 및 형태뿐 아니라, 장애물과 장애물 사이의 폭(D11 내지 D14)을, 앞서 설명한 바와 같이 기준위치에 표시되는 직선패턴의 길이에 따라 장애물 사이의 공간의 크기를 판단한다. The obstacle information obtaining unit 220 obtains the obstacle distance D11 to D14 between the obstacle and the obstacle as well as the position and the shape of the obstacle based on the size of the space between the obstacles according to the length of the straight line pattern displayed at the reference position, .

주행제어부(230)는 주변영역지도가 생성되면, 주변영역지도에 따라 장애물을 회피하여 구속상황을 탈출할 수 있는 탈출경로를 설정한다. When the surrounding area map is generated, the driving control unit 230 sets an escape route that can avoid an obstacle according to the surrounding area map and escape the restraint state.

주행제어부(230)는 장애물과 장애물 사이의 공간의 크기에 따라 이동 로봇(1)이 주행할 수 있는지 여부를 판단하여 탈출경로를 설정한다. 장애물 사이의 공간이 이동 로봇(1)이 주행할 수 있는 정도의 폭인 경우 해당 위치로 주행하도록 탈출경로를 설정한다. 이때 주행제어부(230)는 해당 위치로 이동하기 위한 회전각 등을 설정한다. The travel control unit 230 determines whether the mobile robot 1 can travel according to the size of the space between the obstacle and the obstacle, and sets the escape route. When the space between the obstacles is large enough for the mobile robot 1 to travel, the escape route is set so as to travel to the corresponding position. At this time, the travel control unit 230 sets a rotation angle and the like for moving to the corresponding position.

예를 들어 제 1 내지 제 4 장애물(O1 내지 O4)에 둘러싸인 구속상황에서, 이동 로봇(1)은 주변영역지도를 바탕으로 제 1 장애물(O1)과 제 4 장애물(O4) 사이의 폭(D14)이 이동 로봇(1)이 주행 가능한 폭이므로, 제 1 장애물과 제 4 장애물의 사이 공간으로 탈출하도록 탈출경로를 설정할 수 있다. For example, in a constrained state surrounded by the first to fourth obstacles O1 to O4, the mobile robot 1 calculates the width D14 between the first obstacle O1 and the fourth obstacle O4 Is a width that the mobile robot 1 can travel, the escape route can be set so as to escape to the space between the first obstacle and the fourth obstacle.

주행제어부(230)는 탈출경로가 설정되면 주행 구동부(300)를 제어하여 탈출경로에 따라 이동하도록 한다. When the escape route is set, the travel control unit 230 controls the travel driving unit 300 to move along the escape route.

주행제어부(230)는 탈출경로로 이동하는 중, 감지되지 않은 새로운 장애물이 감지되면, 장애물 정보획득부(220)를 통해 감지되는 장애물 정보를 바탕으로, 탈출경로를 수정하여 변경된 탈출경로로 이동하도록 주행 구동부(300)를 제어한다. When a new obstacle that is not detected is detected during the movement to the escape route, the travel control unit 230 corrects the escape route based on the obstacle information detected by the obstacle information obtaining unit 220 and moves to the escape route And controls the driving driving unit 300.

도 18 은 본 발명의 일실시예에 따른 이동 로봇의 모드에 따른 탈출방법을 설명하는데 참조되는 도이다. 18 is a diagram for explaining an escape method according to a mode of a mobile robot according to an embodiment of the present invention.

도 18의 (a)에 도시된 바와 같이, 이동 로봇(1)은 제 1 장애물(O1)과 제 4 장애물(O4)의 사이의 공간으로 탈출하도록 이동한 후, 직진주행하도록 방향을 설정하고 회전하여, 주행한다(S10).18A, the mobile robot 1 moves so as to escape to the space between the first obstacle O1 and the fourth obstacle O4, sets the direction to run straight ahead, (S10).

제 1 장애물(O1)과 제 4 장애물(O4)의 측면에 대하여 평행하고 직선 주행하여 탈출하도록 한다. Parallel to the side faces of the first obstacle O1 and the fourth obstacle O4, and straightly run to escape.

한편, 도 18의 (b)와 같이 제 1 장애물(O1)과 제 4 장애물(O4)의 사이에서 장애물과 일정한 각을 이루면서 주행하는 경우, 초기 진입 전에는 광 패턴의 직선길이가 이동 로봇(1)이 주행 가능한 길이이므로 계속 주행하게 된다(S11). 18 (b), when the robot 1 travels at a certain angle with the obstacle between the first obstacle O1 and the fourth obstacle O4, (S11).

도 18의 (b)와 같이 주행 중, 제 4 장애물(O4)에 인접하게 되면, 이동 로봇(1)은 탈출경로를 수정하여, 제 4 장애물을 회피하기 위해 일정각 회전하고(S12), 다시 직진주행하여 구속상황을 탈출한다(S13).18 (b), the mobile robot 1 modifies the escape route and rotates by a predetermined angle to avoid the fourth obstacle (S12). Then, The vehicle runs straight and escapes the restraint state (S13).

도 19 은 본 발명의 일실시예에 따른, 구속 상황을 탈출하는 이동 로봇의 제어방법이 도시된 순서도이다. FIG. 19 is a flowchart showing a control method of a mobile robot for escaping a restraint state according to an embodiment of the present invention.

도 19에 도시된 바와 같이, 이동 로봇(1)은 주행 중(S310), 장애물 감지유닛(100)으로부터 제 1 및 제 2 패턴 광을 조사하고, 영상 획득부(140)를 통해 조사된 패턴 광을 촬영하여 획득영상을 입력한다(S320).19, the mobile robot 1 irradiates the first and second pattern lights from the obstacle detection unit 100 during traveling (S310), and irradiates the pattern light irradiated through the image acquisition unit 140 And inputs the acquired image (S320).

패턴검출부(210)는 획득영상으로부터 광 패턴을 추출하고, 장애물 정보획득부(220)는 광 패턴을 분석하여 장애물의 위치, 장애물의 형태 및 크기 중 적어도 하나에 대한 정보를 판단한다.The pattern detecting unit 210 extracts a light pattern from the acquired image, and the obstacle information obtaining unit 220 analyzes the light pattern to determine information about at least one of the position of the obstacle, the shape and the size of the obstacle.

주행제어부(230)는, 장애물이 감지되지 않으면 기 설정된 경로에 따라 현재 주행상태를 유지한다. If an obstacle is not detected, the travel control unit 230 maintains the current traveling state according to a predetermined route.

한편, 장애물이 감지되면(S330), 장애물 정보획득부(220)는 장애물 정보를 주행제어부(230)로 인가하고, 주행제어부(230)는 장애물을 회피하도록 주행경로를 변경하여 회피주행하도록 주행 구동부(300)를 제어한다(S340). When the obstacle is detected (S330), the obstacle information obtaining unit 220 applies the obstacle information to the driving control unit 230, and the driving control unit 230 changes the traveling route so as to avoid an obstacle, (S340).

앞서 장애물을 회피하여 주행한 후, 장애물 정보획득부(220)를 통해 새로운 장애물이 감지되면, 주행제어부(230)는 회피주행 및 장애물 감지 횟수(n)를 기준횟수와 비교하여 기준횟수 미만이면 회피주행하고(S340), 기준횟수 이상이면 현재 이동 로봇(1)이 구속상태인 것으로 판단한다(S370). If a new obstacle is detected through the obstacle information acquisition unit 220 after avoiding the obstacle, the driving control unit 230 compares the avoidance driving and obstacle detection number n with the reference number, (S340). If the number is greater than or equal to the reference number, it is determined that the current mobile robot 1 is in the constrained state (S370).

주행제어부(230)는 탈출모드를 설정하고(S380), 이동 로봇(1)의 현재 설정된 모드에 따라 탈출경로를 설정한다. The driving control unit 230 sets an escape mode (S380) and sets an escape route in accordance with the currently set mode of the mobile robot 1. [

주행제어부(230)는 빠른청소모드인 상태에서 탈출모드가 설정된 경우, 획득영상의 광 패턴을 분석하여(S400), 진입 또는 주행 가능한 경로가 존재하는 경우, 해당 경로로 주행하도록 한다(S410).When the escape mode is set in the quick cleaning mode, the driving control unit 230 analyzes the optical pattern of the acquired image (S400). If there is a path that can be entered or traveled, the driving control unit 230 drives the route through the corresponding path (S410).

한편, 빠른 청소모드가 아닌 경우, 주행제어부(230)는 주변영역에 대한 지도를 생성하고(S420), 지도에 포함된 장애물에 대한 정보를 바탕으로 탈출경로를 설정한다(S430).On the other hand, when the vehicle is not in the quick cleaning mode, the driving control unit 230 generates a map of the surrounding area (S420), and sets an escape route based on the information on the obstacles included in the map (S430).

주행제어부(230)는 각 모드에 따라 주행하며, 광 패턴을 통해 탈출에 성공했는지 여부를 판단하고(S440), 탈출 완료 시, 탈출모드를 해제한다(S450). 이때 광 패턴이 기준위치에 직선으로 표시되는 경우 주변에 장애물이 없는 영역으로 탈출에 성공한 것으로 판단할 수 있다. The travel control unit 230 travels according to each mode and determines whether or not the escape is successful through the optical pattern (S440). When the escape is completed, the escape mode is canceled (S450). At this time, if the light pattern is displayed as a straight line at the reference position, it can be judged that the escape to the area without the obstacle is succeeded.

한편, 탈출에 실패한 경우, 예를 들어 새로운 장애물을 만난 경우, 탈출이 완료되지 않은 것으로 판단하고 탈출횟수를 카운트하여, 설정횟수(m) 미만인 경우(S460) 각 모드에 따른 탈출 시도를 반복한다(S390 내지 S460).On the other hand, if the escape is unsuccessful, for example, if a new obstacle is encountered, it is determined that the escape is not completed and the escape count is counted, and if it is less than the set number m (S460) S390 to S460).

한편, 탈출횟수가 설정횟수 이상인 경우, 주행제어부(230)는, 탈출이 불가능한 것으로 판단하여 에러를 출력한다(S470). 이때, 소정의 경고음 또는 효과음을 출력하여 사용자로 하여금 이동 로봇(1)의 위치를 파악할 수 있도록 한다. On the other hand, if the number of escapes is equal to or greater than the preset number, the travel control unit 230 determines that escape is impossible and outputs an error (S470). At this time, a predetermined warning sound or a sound effect is output so that the user can grasp the position of the mobile robot 1.

도 20 은 기본모드에서 구속 상황을 탈출하는 이동 로봇의 제어방법이 도시된 순서도이다. 20 is a flowchart showing a control method of a mobile robot for escaping a restraint state in a basic mode.

도 20에 도시된 바와 같이, 이동 로봇(1)은 구속상황으로 판단되면 탈출모드를 설정한다(S510). As shown in Fig. 20, the mobile robot 1 sets an escape mode when it is judged as a restraint state (S510).

주행제어부(230)는 이동 로봇(1)의 주행 및 청소에 따른 모드가 기본모드인 경우(S520), 기 저장된, 일정거리 내의 장애물 정보가 포함된 데이터를 초기화한다. 구속상황을 판단하기까지, 복수의 장애물을 감지하는 과정에서 잘못 감지된 장애물이 존재할 수 있고 동일한 장애물을 여러번 감지할 수도 있으므로, 장애물에 대한 정보를 삭제하고 새로 감지하기 위한 것이다. The travel control unit 230 initializes the data including the previously stored obstacle information at a predetermined distance when the mode related to traveling and cleaning of the mobile robot 1 is the basic mode (S520). It is possible to erroneously detect information about obstacles and to detect new obstacles because it is possible to detect a plurality of obstacles in a process of detecting a plurality of obstacles.

주행제어부(230)는 현재 위치에서 회전할 수 있는 경우, 주행 구동부(300)를 제어하여 제자리에서 1회전 하도록 한다(S540). 현재 위치에서 1회전이 불가능한 경우에는 전진 또는 후진한 후 1회전 하도록 한다. If the driving control unit 230 can rotate at the current position, the driving control unit 230 controls the driving driving unit 300 to make one rotation in place (S540). If it is impossible to make one revolution at the current position, make one revolution after advancing or reversing.

장애물 감지유닛(100)은 이동 로봇(1)이 1회전 하는 동안, 패턴 광을 조사하고 패턴 광을 촬영한 획득영상을 패턴검출부(210)로 입력한다. 패턴검출부(210)는 획득영상으로부터 광 패턴을 추출하고, 장애물 정보획득부(220)는 광 패턴을 분석하여 광 패턴의 형태, 위치, 길이에 따라, 이동 로봇(1)으로부터 일정거리 내의 장애물에 대한 정보를 추출한다(S550). The obstacle detection unit 100 irradiates the pattern light while the mobile robot 1 makes one rotation and inputs the acquired image to the pattern detection unit 210. The pattern detecting unit 210 extracts a light pattern from the acquired image, and the obstacle information obtaining unit 220 analyzes the light pattern to detect an obstacle within a certain distance from the mobile robot 1 according to the shape, (S550).

장애물 정보획득부(220)는 앞서 설명한 바와 같이, 광 패턴을 기준위치와 비교하여 장애물의 위치를 판단하고, 광 패턴의 형상으로부터 장애물의 형태 또는 크기를 판단하며, 기준위치에 표시되는 직선의 패턴(직선패턴)의 길이에 따라 장애물 사이의 공간의 크기(길이)를 판단한다. The obstacle information obtaining unit 220 compares the light pattern with the reference position to determine the position of the obstacle, determines the shape or size of the obstacle from the shape of the light pattern, (Length) of the space between the obstacles according to the length of the straight line pattern.

그에 따라 장애물 정보획득부(220)는 이동 로봇(1)으로부터 일정거리 내에 위치한 장애물 정보가 포함된, 주변영역지도를 생성한다(S560). 생성된 주변영역지도는 데이터부에 저장된다. Accordingly, the obstacle information obtaining unit 220 generates a surrounding area map including obstacle information located within a certain distance from the mobile robot 1 (S560). The generated peripheral area map is stored in the data portion.

주행제어부(230)는 생성된 주변영역지도를 바탕으로, 이동 로봇(1)이 주행할 수 있는 위치를 판단하고, 그에 따라 탈출경로를 설정한다(S570).Based on the generated map of the peripheral region, the travel control unit 230 determines a position where the mobile robot 1 can travel and sets an escape route accordingly (S570).

주행제어부(230)는 탈출경로가 설정되면, 탈출경로에 따라 이동하도록 주행 구동부(300)를 제어한다. 그에 따라 주행 구동부(300)는, 이동 로봇(1)이 탈출방향으로 일정각 회전하도록 하고(S580), 탈출경로에 따라 주행한다(S590).When the escape route is set, the travel control unit 230 controls the travel driving unit 300 to move along the escape route. Accordingly, the travel driving unit 300 causes the mobile robot 1 to rotate at a certain angle in the escape direction (S580), and travels along the escape route (S590).

장애물 정보획득부(220)는 입력되는 획득영상의 광 패턴을 지속적으로 분석하여 장애물을 감지하여 주행제어부로 장애물 정보를 입력한다. 장애물 정보획득부(220)는 광 패턴이 기준위치에 직선으로 표시되는 경우, 주변에 장애물이 존재하지 않는 것으로 판단하여 그에 따른 정보를 주행제어부로 입력한다. The obstacle information acquisition unit 220 continuously analyzes the optical pattern of the input acquired image to detect the obstacle and inputs the obstacle information to the driving control unit. When the light pattern is displayed as a straight line at the reference position, the obstacle information obtaining unit 220 determines that an obstacle does not exist in the surrounding area, and inputs the information to the driving control unit.

주행제어부(230)는 장애물 정보획득부(220)로부터 입력되는 정보에 따라 탈출완료 여부를 판단한다(S600).The driving control unit 230 determines whether or not the escape is completed according to the information input from the obstacle information obtaining unit 220 (S600).

주행제어부(230)는 새로운 장애물이 감지되는 경우, 이동 로봇이 다시 주변의 장애물에 대한 정보를 획득하도록 하고, 그에 따라 새로운 경로를 설정할 수 있다(S530 내지 S590). 경우에 따라 If a new obstacle is sensed, the travel controller 230 may acquire information about an obstacle around the obstacle again and set a new path accordingly (S530 to S590). In some cases

한편, 주행제어부(230)는 주변에, 일정거리 내에 장애물이 없는 경우 탈출완료로 판단하여, 탈출모드를 해제한다(S610). On the other hand, if there is no obstacle within a predetermined distance, the travel control unit 230 determines that the escape is completed and releases the escape mode (S610).

주행제어부(230)는 주행 구동부(300)를 제어하여 기 설정된 주행 또는 청소모드에 따른 동작을 수행한다. The driving control unit 230 controls the driving driving unit 300 to perform an operation according to a predetermined driving or cleaning mode.

도 21 은 빠른청소모드에서 구속 상황을 탈출하는 이동 로봇의 제어방법이 도시된 순서도이다. 21 is a flowchart showing a control method of a mobile robot for escaping a restraint state in a quick cleaning mode.

도 21에 도시된 바와 같이, 이동 로봇(1)은 구속상황으로 판단되면 탈출모드를 설정한다(S650). As shown in FIG. 21, the mobile robot 1 sets an escape mode when it is determined that the robot is in the constrained state (S650).

주행제어부(230)는 이동 로봇(1)의 주행 및 청소에 따른 모드가 빠른 청소모드인 경우(S660), 일정거리 내의 장애물 정보가 포함된 데이터를 초기화한다. The travel control unit 230 initializes data including the obstacle information within a certain distance when the mode of traveling and cleaning of the mobile robot 1 is the quick cleaning mode (S660).

장애물 감지유닛(100)은 패턴 광을 조사하고 패턴 광을 촬영한 획득영상을 패턴검출부(210)로 입력한다. 패턴검출부(210)는 획득영상으로부터 광 패턴을 추출하고, 장애물 정보획득부(220)는 광 패턴을 분석하여 광 패턴의 형태, 위치, 길이에 따라, 이동 로봇(1)으로부터 일정거리 내의 장애물에 대한 정보를 추출한다(S680).The obstacle detection unit 100 irradiates the pattern light and inputs the acquired image obtained by photographing the pattern light to the pattern detection unit 210. [ The pattern detecting unit 210 extracts a light pattern from the acquired image, and the obstacle information obtaining unit 220 analyzes the light pattern to detect an obstacle within a certain distance from the mobile robot 1 according to the shape, (S680).

장애물 정보획득부(220)는 앞서 설명한 바와 같이, 광 패턴을 기준위치와 비교하여 장애물의 위치를 판단하고, 광 패턴의 형상으로부터 장애물의 형태 또는 크기를 판단하며, 기준위치에 표시되는 직선의 패턴(직선패턴)의 길이에 따라 장애물 사이의 공간의 크기(길이)를 판단한다. The obstacle information obtaining unit 220 compares the light pattern with the reference position to determine the position of the obstacle, determines the shape or size of the obstacle from the shape of the light pattern, (Length) of the space between the obstacles according to the length of the straight line pattern.

주행제어부(230)는 직선패턴의 길이를 설정길이와 비교하여 주행 또는 진입 가능 여부를 판단한다(S680). The travel control unit 230 compares the length of the straight line pattern with the set length and determines whether the vehicle can travel or enter (S680).

직선패턴의 길이가 설정길이 미만으로 주행 또는 진입이 불가능한 경우, 주행제어부(230)는 주행 구동부(300)를 제어하여 이동 로봇(1)의 주행 방향이 변경되도록 한다(S690). If the length of the straight line pattern is less than the predetermined length, the travel control unit 230 controls the travel driving unit 300 to change the travel direction of the mobile robot 1 (S690).

한편, 직선패턴의 길이가 설정길이 이상으로 주행 또는 진입이 가능한 경우, 주행제어부(230)는 주행 또는 진입 가능한 영역으로 주행하도록 주행 구동부(300)는 제어하고, 그에 따라 주행 구동부(300)는 이동 로봇(1)이 해당 영역으로 주행하도록 한다(S700).On the other hand, when the length of the straight line pattern can be traveled or entered beyond the set length, the travel controller 300 controls the travel controller 230 to travel to the travelable or enterable area, And causes the robot 1 to travel to the corresponding area (S700).

주행 중, 장애물 감지유닛(100)은 지속적으로 패턴 광을 조사하고 그에 따른 획득영상을 입력하며, 장애물 정보획득부(220)는 광 패턴을 분석하여 장애물을 감지한다. During driving, the obstacle detection unit 100 continuously irradiates the pattern light and inputs an acquired image, and the obstacle information obtaining unit 220 analyzes the light pattern to detect obstacles.

새로운 장애물이 감지되면(S710), 주행제어부(230)는 장애물 감지 횟수가 설정횟수(m) 이상인지 판단하고(S730), 설정횟수 미만이면, 주행방향을 변경하도록 하고(S690), 변경된 방향으로 진입 가능한 경로에 따라 주행한다. If a new obstacle is sensed (S710), the driving control unit 230 determines whether the number of obstacle detection times is equal to or greater than the preset number m (S730). If the number of obstacles is less than the set number of times, Drives according to possible entry route.

한편, 탈출모드에서 경로를 설정한 이후에 새로운 장애물이 감지된 횟수가 설정횟수(m) 이상이면, 주행제어부(230)는 탈출에 실패한 것으로 판단하여 에러를 출력한다(S750). On the other hand, if the number of times that a new obstacle is sensed after setting the route in the escape mode is more than the preset number m, the driving control unit 230 determines that the escape has failed and outputs an error at step S750.

주행제어부(230)는 진입 가능한 영역으로 주행하도록 경로를 설정한 후, 주행방향에 장애물이 지속적으로 감지되는 경우로서, 설정횟수 이상으로 장애물을 만나 주행방향을 변경(경로 변경)하였으므로 탈출에 실패한 것으로 판단한다. When the obstacle is continuously detected in the direction of travel after setting the route to travel into the accessible area, the travel control unit 230 has failed to escape because the traveling direction is changed (route changed) by meeting the obstacle more than the set number of times .

또한, 경로를 설정한 후, 일정거리 내에서는 탈출이 완료되지 않은 것으로 판단하여(S720), 진입 가능한 경로로 주행하는 것을 반복한다(S700). In addition, after setting the route, it is determined that the escape is not completed within a certain distance (S720), and it is repeated to travel on the possible route (S700).

한편, 주행제어부(230)는, 설정횟수 내에서 일정거리 이상 주행한 후에 주변에 장애물이 감지되는 않는 상태가 되면, 주행제어부(230)는 탈출 완료로 판단하고(S720), 탈출모드를 해제한다(S720).On the other hand, if the obstacle is not detected in the surroundings after traveling for a certain distance within the preset number of times, the travel control unit 230 determines that the escape is completed (S720) and cancels the escape mode (S720).

주행제어부(230)는 주행 구동부(300)를 제어하여 기 설정된 주행 또는 청소모드에 따른 동작을 수행한다. 또한, 주행제어부(230)는 충전이 필요한 경우 충전대로 복귀할 수 있다. The driving control unit 230 controls the driving driving unit 300 to perform an operation according to a predetermined driving or cleaning mode. Further, the travel control unit 230 can return to the charging state when charging is required.

따라서 이동 로봇(1)은 광 패턴을 이용하여 장애물을 감지하여 주행하고, 구속상황에서 광 패턴을 바탕으로 주변의 장애물을 감지하여, 주행 또는 진입가능 한 경로를 탈출경로로 설정하여 주행함으로써, 구속상황에서 빠르게 탈출할 수 있다.
Therefore, the mobile robot 1 senses an obstacle by using a light pattern and travels, detects an obstacle around the obstacle based on the light pattern in the restrained state, and sets the traveling or entering possible route as an escape route, You can quickly escape from the situation.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.

1: 이동 로봇 10: 본체
100: 장애물 감지유닛 120: 제 1 패턴 조사부
130: 제 2 패턴 조사부 140: 영상 획득부
200: 제어부 210: 패턴검출부
220: 장애물 정보획득부 230: 주행제어부
240: 데이터부 300: 주행 구동부
1: mobile robot 10: main body
100: an obstacle detection unit 120: a first pattern inspection unit
130: second pattern inspection unit 140:
200: control unit 210: pattern detection unit
220: Obstacle information acquisition unit 230:
240: Data part 300: Driving part

Claims (20)

청소구역을 주행하며, 청소구역 내 바닥의 이물질을 흡입하는 본체;
상기 본체의 전면에 배치되어, 상기 본체의 전방 하측을 향해 제 1 패턴의 광을 조사하는 제 1 패턴 조사부;
상기 본체의 전면에 배치되며, 상기 제 1 패턴 조사부의 하측에 배치되어, 상기 본체의 전방 상측을 향해 제 2 패턴의 광을 조사하는 제 2 패턴 조사부;
상기 본체의 전면에 배치되어, 상기 본체의 전방에 대한 영상을 획득하는 영상 획득부; 및
상기 영상 획득부로부터 입력되는 획득영상으로부터, 제 1 패턴의 광에 대응하는 제 1 광 패턴과, 상기 제 2 패턴의 광에 대응하는 제 2 광 패턴을 검출하여 장애물을 판단하고 상기 장애물을 통과하거나 또는 회피하도록 제어하는 제어부를 포함하고,
상기 제어부는, 복수의 장애물에 의해 주행할 수 없는 상태가 되면 구속상황으로 판단하여 탈출모드를 설정하고, 주변의 장애물에 대한 정보를 감지하여 탈출경로를 설정하고, 상기 탈출경로에 따라 주행하여 구속상황에서 탈출하도록 하는 것을 특징으로 하는 이동 로봇.
A main body for traveling a cleaning zone and sucking foreign substances from the bottom of the cleaning zone;
A first pattern irradiating unit disposed on a front surface of the main body and irradiating light of a first pattern toward a front lower side of the main body;
A second pattern irradiating unit disposed on a front surface of the main body and disposed below the first pattern irradiating unit to irradiate light of a second pattern toward a front upper side of the main body;
An image acquiring unit disposed on a front surface of the main body to acquire an image of a front of the main body; And
A first light pattern corresponding to light of the first pattern and a second light pattern corresponding to the light of the second pattern are detected from the acquired image input from the image acquiring unit to determine an obstacle, Or avoiding,
The control unit determines an escape mode by determining that the vehicle can not be driven by a plurality of obstacles, sets an escape mode, detects an information about an obstacle surrounding the escape route, sets the escape route, Thereby allowing the robot to escape from the situation.
제 1 항에 있어서,
상기 제어부는 일정크기 이하의 영역에서, 상기 복수의 장애물에 의해 주행할 수 없는 상태가 일정횟수 반복되면, 구속상황으로 판단하여 상기 탈출모드를 설정하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the controller sets the escape mode by judging a state of restraint when the state that the robot can not travel due to the plurality of obstacles is repeated a predetermined number of times in an area of a predetermined size or less.
제 1 항에 있어서,
상기 제어부는 상기 탈출모드 설정 시, 상기 본체의 동작 모드가, 빠른청소모드인 경우, 상기 복수의 장애물 중, 감지되는 두 장애물 사이의 거리에 따라 진입 가능 여부를 판단하고, 주행 가능한 영역이 존재하는 경우 상기 탈출경로로 설정하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the control unit determines whether or not the vehicle can be entered according to a distance between two obstacles detected among the plurality of obstacles when the operation mode of the main body is a quick cleaning mode at the time of setting the exit mode, And sets the escape route as the escape route.
제 1 항에 있어서,
상기 제어부는 상기 탈출모드 설정 시, 상기 본체의 동작 모드가, 기본모드인 경우, 일정거리 내의 상기 복수의 장애물에 대한 장애물 정보를 감지하고, 상기 장애물 정보가 포함된 주변영역지도를 생성한 후, 상기 주변영역지도를 바탕으로 주행 가능한 영역을 탐색하여 상기 탈출경로를 설정하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the control unit detects obstacle information for the plurality of obstacles within a predetermined distance when the operation mode of the main body is the basic mode, generates a map of the surrounding area including the obstacle information, And the escape route is set by searching for a travelable area based on the peripheral area map.
제 4 항에 있어서,
상기 제어부는 현재 위치에서 1회전 한 후, 1회전 중 상기 획득영상의 상기 제 1 광 패턴 또는 상기 제 2 광 패턴을 분석하여 상기 복수의 장애물에 대한 장애물 정보를 감지하고, 상기 주변영역지도를 생성하는 것을 특징으로 하는 이동 로봇.
5. The method of claim 4,
The control unit analyzes the first light pattern or the second light pattern of the acquired image during one rotation after one rotation at the current position to detect obstacle information for the plurality of obstacles, Wherein the mobile robot is a mobile robot.
제 1 항에 있어서,
상기 제어부는 상기 획득영상으로부터 광 패턴을 추출하는 패턴검출부;
상기 제 1 광 패턴 또는 상기 제 2 광 패턴의 형태 또는 길이에 대응하여 장애물의 위치, 형태 및 크기를 판단하고, 상기 제 1 광 패턴의 적어도 일부분이 기준위치에 표시되는 경우, 상기 기준위치에 표시되는 직선패턴의 길이에 따라 장애물 사이의 거리를 판단하는 장애물 정보획득부; 및
상기 장애물 정보획득부로부터 상기 직선패턴의 길이가 입력되면, 기 설정된 설정길이와 비교하여, 주행가능 여부를 판단하여 상기 탈출경로를 설정하는 주행제어부를 포함하는 이동 로봇.
The method according to claim 1,
Wherein the control unit comprises: a pattern detector for extracting a light pattern from the acquired image;
The position, shape and size of the obstacle are determined corresponding to the shape or length of the first light pattern or the second light pattern, and when at least a part of the first light pattern is displayed at the reference position, An obstacle information obtaining unit for determining a distance between the obstacles according to the length of the straight line pattern; And
And a travel controller for comparing the length of the straight line pattern from the obstacle information obtaining unit with a preset length to determine whether or not the travel is possible and setting the escape route.
제 6 항에 있어서,
상기 장애물 정보획득부는, 상기 탈출모드 설정 시, 기 저장된 일정거리 내의 장애물에 대한 정보를 초기화한 후, 상기 복수의 장애물에 대한 정보를 다시 감지하는 것을 특징으로 하는 이동 로봇.
The method according to claim 6,
Wherein the obstacle information obtaining unit re-detects information on the plurality of obstacles after initializing the information on the obstacles within a predetermined distance at the time of setting the exit mode.
제 6 항에 있어서,
상기 주행제어부는 상기 본체의 크기에 대응하여, 상기 본체가 주행하기 위한 최소한의 폭을 기준으로 상기 설정길이를 설정하는 것을 특징으로 하는 이동 로봇.
The method according to claim 6,
Wherein the travel controller sets the set length based on a minimum width for traveling the main body corresponding to the size of the main body.
제 6 항에 있어서,
상기 주행제어부는 상기 탈출모드 설정 시, 상기 탈출경로에 따라 주행 중, 새로운 장애물이 감지되면, 상기 탈출경로를 변경하는 것을 특징으로 하는 이동 로봇.
The method according to claim 6,
Wherein the travel control unit changes the escape route when a new obstacle is sensed while traveling along the escape route when the escape mode is set.
제 9 항에 있어서,
상기 주행제어부는 상기 탈출경로를 변경하는 횟수를 카운트하고,
상기 횟수가 설정횟수에 도달하기 전, 소정 거리 내에 장애물이 존재하지 않는 영역에 도달하면 탈출완료로 판단하여 상기 탈출모드를 해제하고,
상기 횟수가 상기 설정횟수에 도달하면 구속상황으로부터 탈출하지 못한 것으로 판단하여 에러를 출력하는 것을 특징으로 하는 이동 로봇.
10. The method of claim 9,
The travel control unit counts the number of times the escape route is changed,
If it is determined that the escape has been completed and the escape mode is canceled when the number of times reaches the area where the obstacle does not exist within the predetermined distance before reaching the preset number,
And outputs an error when it is determined that the robot can not escape from the restraint state when the number of times reaches the set number of times.
제 10 항에 있어서,
상기 주행제어부는 일정거리 이상 주행한 이후에 새로운 장애물이 감지되는 경우, 상기 횟수를 재설정한 후 다시 카운트하는 것을 특징으로 하는 이동 로봇.
11. The method of claim 10,
Wherein the travel control unit resets and counts the number of times when a new obstacle is sensed after traveling for a predetermined distance or more.
제 10 항에 있어서,
상기 주행제어부는 탈출 완료 시, 상기 탈출경로를 저장하고,
상기 복수의 장애물과 동일한 장애물에 의해 구속상황이 발생하는 경우 저장된 상기 탈출경로에 따라 주행하도록 하는 것을 특징으로 하는 이동 로봇.
11. The method of claim 10,
Wherein the travel control unit stores the escape route upon completion of the escape,
And when the restraint situation occurs due to the same obstacle as the plurality of obstacles, travels along the stored escape route.
제 1 패턴의 광과 제 2 패턴의 광을 조사하고, 전방의 영상을 촬영하며 주행하는 단계;
촬영된 획득영상으로부터 상기 제 1 패턴의 광에 대응하는 제 1 광 패턴과, 상기 제 2 패턴의 광에 대응하는 제 2 광 패턴을 검출하여 장애물을 감지하는 단계;
상기 제 1 광 패턴 또는 상기 제 2 광 패턴에 의해 감지되는 복수의 장애물에 의해 주행할 수 없는 상태가 되면 구속상황으로 판단하여 탈출모드를 설정하는 단계;
상기 복수의 장애물에 대한 정보를 감지하여 주행 가능한 경로를 탐색하고 탈출경로를 설정하는 단계; 및
상기 탈출경로에 따라 주행하여 구속상황에서 탈출하는 단계를 포함하는 이동 로봇의 제어방법.
Irradiating light of a first pattern and light of a second pattern, photographing a front image, and traveling;
Detecting an obstacle by detecting a first light pattern corresponding to the light of the first pattern and a second light pattern corresponding to the light of the second pattern from the captured image;
Setting an escape mode by determining that the vehicle is in a state of being unable to travel due to a plurality of obstacles sensed by the first light pattern or the second light pattern;
Detecting information on the plurality of obstacles and searching for a route that can be traveled and setting an escape route; And
And traveling along the escape route to escape from the restraint situation.
제 13 항에 있어서,
상기 탈출모드 설정 시, 기 저장된 일정거리 내의 장애물에 대한 정보를 초기화한 후, 상기 복수의 장애물에 대한 정보를 다시 감지하는 단계를 더 포함하는 것을 특징으로 하는 이동 로봇의 제어방법.
14. The method of claim 13,
Further comprising the step of re-detecting the information on the plurality of obstacles after initializing the information on the obstacles within the predetermined stored distance at the time of setting the escape mode.
제 13 항에 있어서,
상기 탈출경로를 설정하는 단계는,
동작 모드가, 빠른청소모드인 경우, 상기 복수의 장애물 중, 감지되는 두 장애물 사이의 거리에 따라 진입 가능 여부를 판단하여 주행 가능한 영역이 존재하는 경우 상기 탈출경로로 설정하는 단계; 및
동작 모드가, 기본모드인 경우, 일정거리 내의 상기 복수의 장애물에 대한 장애물 정보를 감지하고, 상기 장애물 정보가 포함된 주변영역지도를 생성한 후, 상기 주변영역지도를 바탕으로 주행 가능한 영역을 탐색하여 상기 탈출경로를 설정하는 단계를 더 포함하는 이동 로봇의 제어방법.
14. The method of claim 13,
Wherein the step of setting the escape route comprises:
Determining whether or not the vehicle can be entered according to a distance between two obstacles detected among the plurality of obstacles when the operation mode is the quick cleaning mode, and setting the vehicle as the escape route when the travelable area exists; And
Wherein the control unit detects obstacle information for the plurality of obstacles within a predetermined distance when the operation mode is the basic mode, generates a map of the surrounding area including the obstacle information, And setting the escape route.
제 15 항에 있어서,
상기 동작 모드가, 기본모드인 경우, 현재 위치에서 1 회전하는 단계; 를 더 포함하고,
상기 1 회전하는 동안 입력되는 상기 획득영상의 상기 제 1 광 패턴 또는 상기 제 2 광 패턴을 분석하여 상기 복수의 장애물에 대한 장애물 정보를 감지하고, 상기 주변영역지도를 생성하는 것을 특징으로 하는 이동 로봇의 제어방법.
16. The method of claim 15,
If the operation mode is the basic mode, making one revolution at the current position; Further comprising:
And detects the obstacle information for the plurality of obstacles by analyzing the first light pattern or the second light pattern of the acquired image inputted during the one rotation, and generates the peripheral area map / RTI >
제 15 항에 있어서,
상기 탈출경로를 설정하는 단계는,
상기 제 1 광 패턴의 적어도 일부분이 기준위치에 표시되는 경우, 상기 기준위치에 표시되는 직선패턴의 길이에 따라 장애물 사이의 거리를 판단하는 단계;
상기 직선패턴의 길이를, 상기 본체가 주행하기 위한 최소한의 폭을 기준으로 설정된 설정길이와 비교하여, 주행가능 여부를 판단하는 단계를 더 포함하는 이동 로봇의 제어방법.
16. The method of claim 15,
Wherein the step of setting the escape route comprises:
Determining a distance between obstacles according to a length of a straight line pattern displayed at the reference position when at least a part of the first light pattern is displayed at a reference position;
Further comprising the step of comparing the length of the straight line pattern with a set length set based on a minimum width for traveling the main body so as to determine whether or not the vehicle can travel.
제 13 항에 있어서,
상기 탈출경로에 따라 주행하는 중, 새로운 장애물이 감지되면, 상기 탈출경로를 변경하는 단계;
일정거리 미만으로 주행한 상태에서 상기 탈출경로가 변경되는 경우 변경된 횟수를 카운트하는 단계;
상기 횟수가 설정횟수에 도달하기 전, 소정 거리 내에 장애물이 존재하지 않는 영역에 도달하면 탈출완료로 판단하여 상기 탈출모드를 해제하는 단계; 및
상기 횟수가 상기 설정횟수에 도달하면 구속상황으로부터 탈출하지 못한 것으로 판단하여 에러를 출력하는 단계를 더 포함하는 이동 로봇의 제어방법.
14. The method of claim 13,
Changing the escape route when a new obstacle is sensed while traveling along the escape route;
Counting the number of times the escape route is changed when the vehicle travels less than the predetermined distance;
Determining that the escape has been completed when the number of times reaches the region where the obstacle does not exist within a predetermined distance before reaching the preset number, and releasing the escape mode; And
And outputting an error when it is determined that the robot has not escaped from the restraint state when the number of times reaches the set number of times.
제 13 항에 있어서,
상기 탈출경로에 따라 주행하여, 탈출 완료 시, 상기 탈출경로를 저장하는 단계; 및
상기 복수의 장애물과 동일한 장애물에 의해 구속상황이 발생하는 경우 저장된 상기 탈출경로에 따라 주행하는 단계를 더 포함하는 이동 로봇의 제어방법.
14. The method of claim 13,
Storing the escape route upon completion of the escape route; And
And traveling in accordance with the stored escape route when a restraint situation occurs due to the same obstacle as the plurality of obstacles.
제 13 항에 있어서,
상기 탈출모드 설정 시,
일정크기 이하의 영역에서, 상기 복수의 장애물이 감지되어 주행할 수 없는 상태가 일정횟수 반복되면, 구속상황으로 판단하여 상기 탈출모드를 설정하는 것을 특징으로 하는 이동 로봇의 제어방법.
14. The method of claim 13,
Upon setting the escape mode,
Wherein when the plurality of obstacles are detected and the inability to travel is repeated a predetermined number of times in an area of a predetermined size or less, the control unit sets the escape mode based on the determination of the constraint state.
KR1020160141106A 2016-05-17 2016-10-27 Moving Robot and controlling method KR102167898B1 (en)

Priority Applications (115)

Application Number Priority Date Filing Date Title
KR1020160141106A KR102167898B1 (en) 2016-10-27 2016-10-27 Moving Robot and controlling method
CN201720543800.7U CN207979622U (en) 2016-05-17 2017-05-16 Robot cleaner
TW106116154A TWI653964B (en) 2016-05-17 2017-05-16 Mobile robot and its control method
TW106116156A TWI639021B (en) 2016-05-17 2017-05-16 Mobile robot and method of controlling the same
TW106116151A TWI689387B (en) 2016-05-17 2017-05-16 Mobile robot
TW106116158A TWI652034B (en) 2016-05-17 2017-05-16 Cleaning robot
US15/597,531 US10349798B2 (en) 2016-05-17 2017-05-17 Mobile robot and method of controlling the same
PCT/KR2017/005135 WO2017200304A2 (en) 2016-05-17 2017-05-17 Mobile robot and control method therefor
EP17799661.8A EP3459690B1 (en) 2016-05-17 2017-05-17 Mobile robot and control method therefor
EP17799662.6A EP3459691B1 (en) 2016-05-17 2017-05-17 Robot vacuum cleaner
PCT/KR2017/005133 WO2017200303A2 (en) 2016-05-17 2017-05-17 Mobile robot and control method therefor
US15/597,333 US10456004B2 (en) 2016-05-17 2017-05-17 Mobile robot
JP2018560524A JP2019516483A (en) 2016-05-17 2017-05-17 Robot vacuum cleaner
PCT/KR2017/005132 WO2017200302A2 (en) 2016-05-17 2017-05-17 Mobile robot and control method therefor
US15/597,670 US10656656B2 (en) 2016-05-17 2017-05-17 Mobile robot and method for controlling and detecting inclination using pattern light
PCT/KR2017/005136 WO2017200305A1 (en) 2016-05-17 2017-05-17 Robot vacuum cleaner
EP17799659.2A EP3459688B1 (en) 2016-05-17 2017-05-17 Mobile robot and control method therefor
AU2017267155A AU2017267155B2 (en) 2016-05-17 2017-05-17 Robot vacuum cleaner
US15/597,418 US10517456B2 (en) 2016-05-17 2017-05-17 Mobile robot and method of controlling the same
RU2018144340A RU2719222C1 (en) 2016-05-17 2017-05-17 Robot vacuum cleaner
EP17799660.0A EP3459689B1 (en) 2016-05-17 2017-05-17 Mobile robot and control method therefor
RU2018145035A RU2710412C1 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
US15/599,862 US10463221B2 (en) 2016-05-20 2017-05-19 Autonomous cleaner
EP21160113.3A EP3861911A3 (en) 2016-05-20 2017-05-19 Robot cleaner
US15/599,786 US10524628B2 (en) 2016-05-20 2017-05-19 Autonomous cleaner
RU2018145036A RU2701999C1 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
AU2017266811A AU2017266811B2 (en) 2016-05-20 2017-05-19 Robot cleaner
PCT/KR2017/005247 WO2017200351A1 (en) 2016-05-20 2017-05-19 Robot cleaner
TW106116756A TWI663951B (en) 2016-05-20 2017-05-19 Robot cleaner
RU2018145049A RU2710413C1 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
RU2018145054A RU2710453C1 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
CN202110302638.0A CN113017472B (en) 2016-05-20 2017-05-19 Robot cleaner
JP2018560994A JP6757423B2 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
EP17799707.9A EP3459418B1 (en) 2016-05-20 2017-05-19 Robot cleaner
US15/599,800 US10420448B2 (en) 2016-05-20 2017-05-19 Autonomous cleaner
EP22217266.0A EP4201289A3 (en) 2016-05-20 2017-05-19 Robot cleaner
US15/599,829 US10463212B2 (en) 2016-05-20 2017-05-19 Autonomous cleaner
EP22202275.8A EP4154784A3 (en) 2016-05-20 2017-05-19 Robot cleaner
PCT/KR2017/005243 WO2017200347A1 (en) 2016-05-20 2017-05-19 Robot cleaner
PCT/KR2017/005244 WO2017200348A1 (en) 2016-05-20 2017-05-19 Robot cleaner
US15/599,863 US10362916B2 (en) 2016-05-20 2017-05-19 Autonomous cleaner
EP17799704.6A EP3459415B1 (en) 2016-05-20 2017-05-19 Robot cleaner
CN201720567976.6U CN207575101U (en) 2016-05-20 2017-05-19 Robot cleaner
EP17799710.3A EP3459420B1 (en) 2016-05-20 2017-05-19 Robot cleaner
PCT/KR2017/005246 WO2017200350A1 (en) 2016-05-20 2017-05-19 Robot cleaner
PCT/KR2017/005245 WO2017200349A1 (en) 2016-05-20 2017-05-19 Robot cleaner
AU2017266813A AU2017266813B2 (en) 2016-05-20 2017-05-19 Robot cleaner
AU2017266810A AU2017266810B2 (en) 2016-05-20 2017-05-19 Robot cleaner
RU2018145051A RU2703100C1 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
EP17799706.1A EP3459417B1 (en) 2016-05-20 2017-05-19 Robot cleaner
JP2018560941A JP6724169B2 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
TW106116763A TWI657786B (en) 2016-05-20 2017-05-19 Robot cleaner
TW106116754A TWI663950B (en) 2016-05-20 2017-05-19 Robot cleaner
TW106116753A TWI698213B (en) 2016-05-20 2017-05-19 Robot cleaner
EP17799700.4A EP3459692B1 (en) 2016-05-20 2017-05-19 Robot cleaner
PCT/KR2017/005236 WO2017200343A1 (en) 2016-05-20 2017-05-19 Robot cleaner
US15/599,783 US10441128B2 (en) 2016-05-20 2017-05-19 Autonomous cleaner
PCT/KR2017/005238 WO2017200344A1 (en) 2016-05-20 2017-05-19 Robot cleaner
EP22202196.6A EP4154779A3 (en) 2016-05-20 2017-05-19 Robot cleaner
JP2018560965A JP6804561B2 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
EP17799708.7A EP3459419B1 (en) 2016-05-20 2017-05-19 Robot cleaner
PCT/KR2017/005240 WO2017200346A1 (en) 2016-05-20 2017-05-19 Robot cleaner
RU2018145038A RU2710508C1 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
EP17799702.0A EP3459413B1 (en) 2016-05-20 2017-05-19 Robot cleaner
AU2017266809A AU2017266809B2 (en) 2016-05-20 2017-05-19 Robot cleaner
EP22203582.6A EP4159101A3 (en) 2016-05-20 2017-05-19 Robot cleaner
CN202210024970.XA CN114305209A (en) 2016-05-20 2017-05-19 Robot cleaner
ES17799703T ES2863523T3 (en) 2016-05-20 2017-05-19 Cleaning robot
US15/599,804 US10481611B2 (en) 2016-05-20 2017-05-19 Autonomous cleaner
TW106116758A TWI652033B (en) 2016-05-20 2017-05-19 Cleaning robot
EP17799705.3A EP3459416B1 (en) 2016-05-20 2017-05-19 Robot cleaner
PCT/KR2017/005249 WO2017200353A1 (en) 2016-05-20 2017-05-19 Robot cleaner
CN202210024981.8A CN114305210A (en) 2016-05-20 2017-05-19 Robot cleaner
JP2018561002A JP7005521B2 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
AU2017267231A AU2017267231B2 (en) 2016-05-20 2017-05-19 Robot cleaner
RU2018145053A RU2699837C1 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
JP2018561028A JP6926123B2 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
EP21166598.9A EP3878338B1 (en) 2016-05-20 2017-05-19 Robot cleaner
CN201780038048.3A CN109310257B (en) 2016-05-20 2017-05-19 Robot cleaner
EP17799701.2A EP3459412B1 (en) 2016-05-20 2017-05-19 Robot cleaner
TW106116762A TWI661802B (en) 2016-05-20 2017-05-19 Robot cleaner
JP2018560969A JP6728402B2 (en) 2016-05-20 2017-05-19 Robot vacuum cleaner
TW106116759A TWI657787B (en) 2016-05-20 2017-05-19 Robot cleaner
AU2017266814A AU2017266814B2 (en) 2016-05-20 2017-05-19 Robot cleaner
US15/599,894 US10342405B2 (en) 2016-05-20 2017-05-19 Autonomous cleaner
EP22203554.5A EP4159100A3 (en) 2016-05-20 2017-05-19 Robot cleaner
AU2017266808A AU2017266808B2 (en) 2016-05-20 2017-05-19 Robot cleaner
TW106116761A TWI655923B (en) 2016-05-20 2017-05-19 Cleaning robot
PCT/KR2017/005239 WO2017200345A1 (en) 2016-05-20 2017-05-19 Robot cleaner
US15/599,870 US10398276B2 (en) 2016-05-20 2017-05-19 Autonomous cleaner
TW106116755A TWI653961B (en) 2016-05-20 2017-05-19 Cleaning robot
US15/599,780 US10342400B2 (en) 2016-05-20 2017-05-19 Autonomous cleaner
EP17799703.8A EP3459414B1 (en) 2016-05-20 2017-05-19 Robot cleaner
CN201780038067.6A CN109414143B (en) 2016-05-20 2017-05-19 Robot cleaner
CN201720574446.4U CN207444899U (en) 2016-05-20 2017-05-22 Robot cleaner
CN201720573658.0U CN207561864U (en) 2016-05-20 2017-05-22 Robot cleaner
CN201720573639.8U CN207506527U (en) 2016-05-20 2017-05-22 Robot cleaner
CN201720574286.3U CN207613711U (en) 2016-05-20 2017-05-22 Robot cleaner
CN201720574388.5U CN207613712U (en) 2016-05-20 2017-05-22 Robot cleaner
CN201720574268.5U CN207444896U (en) 2016-05-20 2017-05-22 Robot cleaner
CN201720574386.6U CN207613708U (en) 2016-05-20 2017-05-22 Robot cleaner
US16/014,994 US10939792B2 (en) 2016-05-20 2018-06-21 Autonomous cleaner
US16/014,967 US10835095B2 (en) 2016-05-20 2018-06-21 Autonomous cleaner
US16/014,924 US10827895B2 (en) 2016-05-20 2018-06-21 Autonomous cleaner
US16/014,957 US10827896B2 (en) 2016-05-20 2018-06-21 Autonomous cleaner
US16/053,009 US10856714B2 (en) 2016-05-20 2018-08-02 Autonomous cleaner
US17/162,899 US11547263B2 (en) 2016-05-20 2021-01-29 Autonomous cleaner
AU2021209262A AU2021209262B2 (en) 2016-05-20 2021-07-28 Robot cleaner
JP2021128230A JP7299276B2 (en) 2016-05-20 2021-08-04 robot vacuum cleaner
US17/994,187 US11846937B2 (en) 2016-05-20 2022-11-25 Autonomous cleaner
US18/090,309 US20230136647A1 (en) 2016-05-20 2022-12-28 Autonomous cleaner
JP2023098360A JP7487389B2 (en) 2016-05-20 2023-06-15 Robot vacuum cleaner
AU2023251397A AU2023251397A1 (en) 2016-05-20 2023-10-16 Robot cleaner
US18/386,119 US20240061441A1 (en) 2016-05-20 2023-11-01 Autonomous cleaner
US18/390,680 US20240126291A1 (en) 2016-05-20 2023-12-20 Autonomous cleaner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160141106A KR102167898B1 (en) 2016-10-27 2016-10-27 Moving Robot and controlling method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180156703A Division KR20180133829A (en) 2018-12-07 2018-12-07 Moving Robot and controlling method

Publications (2)

Publication Number Publication Date
KR20180046175A true KR20180046175A (en) 2018-05-08
KR102167898B1 KR102167898B1 (en) 2020-10-20

Family

ID=62187258

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160141106A KR102167898B1 (en) 2016-05-17 2016-10-27 Moving Robot and controlling method

Country Status (1)

Country Link
KR (1) KR102167898B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113261821A (en) * 2021-05-25 2021-08-17 珠海科技学院 Ring art design model exhibition stand
JP2021536637A (en) * 2018-09-06 2021-12-27 エルジー エレクトロニクス インコーポレイティドLg Electronics Inc. Multiple autonomous mobile robots
CN113940186A (en) * 2021-11-15 2022-01-18 南京苏美达智能技术有限公司 Control method of intelligent mower
US11409308B2 (en) 2018-09-06 2022-08-09 Lg Electronics Inc. Robot cleaner and a controlling method for the same
US11432697B2 (en) 2018-09-06 2022-09-06 Lg Electronics Inc. Robot cleaner and a controlling method for the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130141979A (en) * 2012-06-18 2013-12-27 엘지전자 주식회사 Autonomous mobile robot
KR101362373B1 (en) * 2007-08-17 2014-02-12 삼성전자주식회사 Robot cleaner and control method of the same of
KR20150050159A (en) * 2013-10-31 2015-05-08 엘지전자 주식회사 Moving Robot and operating method
US20150168954A1 (en) * 2005-10-21 2015-06-18 Irobot Corporation Methods and systems for obstacle detection using structured light

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150168954A1 (en) * 2005-10-21 2015-06-18 Irobot Corporation Methods and systems for obstacle detection using structured light
KR101362373B1 (en) * 2007-08-17 2014-02-12 삼성전자주식회사 Robot cleaner and control method of the same of
KR20130141979A (en) * 2012-06-18 2013-12-27 엘지전자 주식회사 Autonomous mobile robot
KR20150050159A (en) * 2013-10-31 2015-05-08 엘지전자 주식회사 Moving Robot and operating method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021536637A (en) * 2018-09-06 2021-12-27 エルジー エレクトロニクス インコーポレイティドLg Electronics Inc. Multiple autonomous mobile robots
US11409308B2 (en) 2018-09-06 2022-08-09 Lg Electronics Inc. Robot cleaner and a controlling method for the same
US11432697B2 (en) 2018-09-06 2022-09-06 Lg Electronics Inc. Robot cleaner and a controlling method for the same
US11906979B2 (en) 2018-09-06 2024-02-20 Lg Electronics Inc. Plurality of autonomous mobile robots and controlling method for the same
CN113261821A (en) * 2021-05-25 2021-08-17 珠海科技学院 Ring art design model exhibition stand
CN113940186A (en) * 2021-11-15 2022-01-18 南京苏美达智能技术有限公司 Control method of intelligent mower

Also Published As

Publication number Publication date
KR102167898B1 (en) 2020-10-20

Similar Documents

Publication Publication Date Title
EP3459688B1 (en) Mobile robot and control method therefor
US10517456B2 (en) Mobile robot and method of controlling the same
US10656656B2 (en) Mobile robot and method for controlling and detecting inclination using pattern light
KR20180024326A (en) Moving Robot and controlling method
KR102167898B1 (en) Moving Robot and controlling method
KR101566207B1 (en) Robot cleaner and control method thereof
KR102147208B1 (en) Moving Robot and controlling method
KR102070067B1 (en) Artificial intelligence Moving Robot and controlling method
KR20190035377A (en) Moving Robot and controlling method
US20230091839A1 (en) Moving robot and control method thereof
KR101917116B1 (en) Robot cleaner
KR20130042422A (en) Robot cleaner and control method for the same
US20220257075A1 (en) Moving robot and method of controlling the same
KR20180133829A (en) Moving Robot and controlling method
KR20190003846A (en) Moving Robot and controlling method
KR102428214B1 (en) Moving Robot and controlling method
KR102430113B1 (en) Robot cleaner
KR102318756B1 (en) Robot cleaner and method for controlling the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2018101005085; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20181217

Effective date: 20191230

S901 Examination by remand of revocation
E902 Notification of reason for refusal
GRNO Decision to grant (after opposition)
GRNT Written decision to grant