WO2019135518A1 - 청소용 이동장치, 협업청소 시스템 및 그 제어방법 - Google Patents

청소용 이동장치, 협업청소 시스템 및 그 제어방법 Download PDF

Info

Publication number
WO2019135518A1
WO2019135518A1 PCT/KR2018/016258 KR2018016258W WO2019135518A1 WO 2019135518 A1 WO2019135518 A1 WO 2019135518A1 KR 2018016258 W KR2018016258 W KR 2018016258W WO 2019135518 A1 WO2019135518 A1 WO 2019135518A1
Authority
WO
WIPO (PCT)
Prior art keywords
cleaning
individual
area
map
robot
Prior art date
Application number
PCT/KR2018/016258
Other languages
English (en)
French (fr)
Inventor
김인주
소제윤
김진희
신동민
윤상식
이주상
장환
홍준표
Original Assignee
삼성전자(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자(주) filed Critical 삼성전자(주)
Priority to US16/959,485 priority Critical patent/US11707175B2/en
Priority to CN201880084910.9A priority patent/CN111565896B/zh
Priority to EP18898202.9A priority patent/EP3718704B1/en
Publication of WO2019135518A1 publication Critical patent/WO2019135518A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2857User input or output elements for control, e.g. buttons, switches or displays
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2894Details related to signal transmission in suction cleaners
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/02Docking stations; Docking operations
    • A47L2201/022Recharging of batteries
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45098Vacuum cleaning robot

Definitions

  • the present invention relates to a cleaning mobile device, a collaborative cleaning system, and a control method thereof, and more particularly, to a cleaning mobile device, a collaborative cleaning system, and a control method thereof for automatically cleaning a floor while traveling.
  • a cleaning mobile device such as a cleaning robot is an electronic device having a cleaning module for cleaning a predetermined ground such as a floor surface in a home and a moving module for moving on the ground, .
  • the cleaning robot is controlled so as to avoid collision with obstacles existing on the traveling path while traveling on the floor surface in the cleaning area and to uniformly clean the cleaning area.
  • the present invention provides a cleaning mobile device, a collaborative cleaning system, and a control method thereof capable of effectively performing cooperative cleaning while a plurality of cleaning robots communicate with each other in a cleaning space .
  • a plurality of cleaning robots are allocated an individual cleaning area by automatic or user input according to various conditions including the positional information thereof, thereby reducing the cleaning time, Apparatus, a collaborative cleaning system, and a control method thereof.
  • a cleaning mobile device including: a cleaning unit that performs cleaning; A traveling section for moving the cleaning moving device; A communication unit capable of communicating with the secondary apparatus; And an individual cleaning area corresponding to the cleaning mobile device among the plurality of individual cleaning areas allocated according to the current position of the cleaning mobile device and the at least one other cleaning mobile device, And a processor for controlling the traveling section and the cleaning section to perform cleaning while traveling the determined individual cleaning area.
  • the current location of each of the cleaning mobile device and at least one other cleaning mobile device corresponds to the location of the charging station.
  • the cleaning robot in the charged state can receive the command and perform the cooperative cleaning.
  • the processor may determine the current position of the cleaning mobile device based on data obtained by the sensing portion that detects the ambient environment of the cleaning mobile device. Therefore, even in the case of a cleaning robot in which the starting position is not fixed, it is possible to identify the position of the cleaning robot and perform efficient cooperative cleaning.
  • the processor may map the current location of the cleaning mobile device and at least one other cleaning mobile device on the map including the entire cleaning area and control the plurality of individual cleaning areas to be allocated according to the mapped current location.
  • the current position of the cleaning robots can be easily identified using the map.
  • the processor generates a first map based on the data acquired by the sensing unit that detects the environment of the cleaning mobile device and displays the current position of the cleaning mobile device and at least one other cleaning mobile device on the generated first map Can be mapped. Accordingly, the map generated by utilizing sensors provided in at least one cleaning robot performing cooperative cleaning is used for position identification.
  • the processor receives a second map including a corresponding individual cleaning area from at least one other cleaning mobile device, combines the received second map with the first map to generate an integrated map, Can be controlled so as to be allocated to the individual cleaning areas.
  • a map of the entire cleaning area can be obtained by integrating the maps generated by two or more cleaning robots.
  • the processor moves the cleaning moving device to another individual cleaning area to perform the cleaning based on the status information of at least one other cleaning moving device received through the communication part,
  • the traveling section can be controlled to move to the station. Therefore, efficient collaborative cleaning can be performed in consideration of the current state of the cleaning robot.
  • the cooperative cleaning system includes: a plurality of cleaning mobile devices; And a terminal device, wherein the terminal device comprises: a communication part capable of communicating with a plurality of cleaning mobile devices; A plurality of individual cleaning areas are allocated to the entire cleaning area in accordance with the current position of each of the plurality of cleaning moving devices on the basis of the information received via the communication part, So that a command for performing cleaning on the communication unit is transmitted through the communication unit.
  • the terminal device comprises: a communication part capable of communicating with a plurality of cleaning mobile devices;
  • a plurality of individual cleaning areas are allocated to the entire cleaning area in accordance with the current position of each of the plurality of cleaning moving devices on the basis of the information received via the communication part, So that a command for performing cleaning on the communication unit is transmitted through the communication unit.
  • the terminal device may further include a display unit for displaying a user interface (UI), and the processor may control the plurality of individual cleaning areas to be allocated to each of the plurality of cleaning mobile devices corresponding to the user input to the UI.
  • the UI may include a plurality of items into which setting values can be input such that an individual cleaning area is allocated to each of the plurality of cleaning mobile devices.
  • the processor may display a map for the entire cleaning area on the display and control the plurality of cleaning moving devices to be assigned a plurality of individual cleaning areas according to user input on the displayed map. Accordingly, the user can easily identify the current position of the cleaning robots by using the map, and more efficient division of the cleaning area is possible.
  • the processor may generate a map of the entire cleaning area based on data received from the at least one cleaning mobile device via the communication portion.
  • the processor can receive the position information from the plurality of cleaning mobile devices via the communication unit, and can control the display unit to map the received position information on the map and display it. Accordingly, a map generated by utilizing sensors provided in at least one cleaning robot performing cooperative cleaning is utilized for cleaning area division.
  • a UI for setting a priority order for a plurality of cleaning robots is further displayed, and the processor can transmit the priority information set through the UI to the corresponding cleaning mobile device through the communication unit. Accordingly, since the cleaning robot having the priority order has priority over the predetermined cleaning area and cooperative cleaning is performed, it is possible to efficiently share the roles among the cleaning robots.
  • a cooperative cleaning control method including: allocating a plurality of individual cleaning areas to a plurality of cleaning mobile devices capable of communicating with each other based on a current position; And performing cleaning while traveling the individual cleaning areas to which the plurality of cleaning mobile devices are allocated.
  • the current location of each of the plurality of cleaning mobile devices may correspond to the location of the charging station. And a step of the plurality of cleaning mobile devices judging the current position based on the data obtained by the sensing portion provided in the at least one cleaning mobile device. Accordingly, it is possible to efficiently control the cooperative cleaning according to the current position irrespective of whether the starting position of the cleaning robot is fixed or not.
  • the step of generating a map includes receiving a map including corresponding individual cleaning areas from two or more cleaning mobile devices; And combining the maps of the received individual cleaning areas to generate an integrated map. By using the map, more efficient division of the cleaning area is possible.
  • the step of allocating a plurality of individual cleaning areas may include allocating a plurality of individual cleaning areas using a user interface (UI) displayed on a terminal device capable of communicating with a plurality of cleaning mobile devices.
  • UI user interface
  • the plurality of cleaning robots allocate the individual cleaning areas based on the positional information thereof, thereby shortening the entire cleaning time, It is effective.
  • FIG. 1 is a view illustrating a cooperative cleaning system according to an embodiment of the present invention.
  • FIG. 2 is a view illustrating a cooperative cleaning system according to another embodiment of the present invention.
  • FIG. 3 is a perspective view illustrating a cleaning mobile device according to an embodiment of the present invention
  • FIG. 4 is a block diagram illustrating the configuration of the cleaning mobile device of FIG.
  • FIG. 5 is a block diagram showing the configuration of a terminal device according to an embodiment of the present invention.
  • FIG. 6 is a view illustrating a screen for setting an individual cleaning area of the cleaning robot according to an embodiment of the present invention.
  • FIG. 7 is a view showing a screen for setting an individual cleaning area of the cleaning robot according to another embodiment of the present invention.
  • FIG. 8 and FIG. 9 are views showing screens for setting individual cleaning areas of the cleaning robot according to another embodiment of the present invention.
  • FIG. 10 is a view for explaining automatic setting of an individual cleaning area according to an embodiment of the present invention.
  • FIG. 11 is a view for explaining a process of finding a current position of a plurality of cleaning robots according to an embodiment of the present invention.
  • FIG. 12 is a diagram illustrating a process of map integration according to an embodiment of the present invention.
  • FIGS. 13 to 16 are views for explaining a process of performing cooperative cleaning by giving priority to a plurality of cleaning robots according to an embodiment of the present invention.
  • 17 is a flowchart illustrating a cooperative cleaning control method according to an embodiment of the present invention.
  • At least one of the plurality of elements in the present specification refers not only to all of a plurality of elements but also to each one or a combination thereof excluding the rest of the plurality of elements.
  • FIG. 1 is a view illustrating a cooperative cleaning system according to an embodiment of the present invention.
  • the cooperative cleaning system 10 includes a plurality of cleaning robots 100, 101,..., 102 capable of performing network communication.
  • the plurality of cleaning robots 100, 101, ..., 102 perform mutual communication via a predetermined network.
  • the network shown in FIG. 1 is a private network connectable to a wide area network, that is, a public network.
  • the network includes an access point (AP) such as a gateway, a router, . ≪ / RTI >
  • AP access point
  • a plurality of cleaning robots 100, 101, ..., 102 are provided with a communication unit 110 for communication with each other, and a Wi-Fi communication module is an example thereof.
  • the plurality of cleaning robots 100, 101, ..., 102 can directly communicate with each other without AP.
  • the communication unit 110 provided in the plurality of cleaning robots 100, 101,..., 102 may be a wireless communication unit, such as a Bluetooth, (Wi-Fi Direct), Zigbee, UWB (Ultra Wideband), NFC (Near Field Communication), and LET (Long Term Evolution).
  • the cooperative cleaning system 10 of FIG. 1 may further include a server (not shown) communicating with a plurality of cleaning robots 100, 101, ..., 102.
  • the server can be connected through a public network to which the network is connectable, and includes a cloud server.
  • the server receives data including positional information from a plurality of cleaning robots 100, 101, ..., 102, and the cleaning robot 100 (101, ..., 102) It can be controlled to perform cleaning.
  • FIG. 2 is a view illustrating a cooperative cleaning system according to another embodiment of the present invention.
  • the cooperative cleaning system 11 according to another embodiment of the present invention further includes the terminal device 300 in comparison with the embodiment.
  • the plurality of cleaning robots 100, 101, ..., 102 can communicate with each other via the AP or directly with each other as described in the embodiment.
  • the terminal device 300 may be implemented as a mobile device such as a smart pad such as a cell phone, a smart phone, or a tablet.
  • the terminal device 300 may be implemented as a computer (PC) including a laptop or a desktop.
  • the terminal device 300 may be implemented in a television, such as a smart TV. That is, in the collaborative cleaning system 11 of the present invention, the terminal device 300 includes various devices including a display unit (330 in FIG. 5) and capable of user input.
  • At least one program that provides a service for managing and controlling the plurality of cleaning robots 100, 101, ..., 102, that is, a cleaning robot application is installed in the terminal device 300.
  • the application may be distributed by the manufacturer of the cleaning robot or the like and may be downloaded and installed in the terminal device 300 from a market such as a launch or an app store built in the manufacturing process of the terminal device 300.
  • the user monitors the status of a plurality of cleaning robots 100, 101, ..., 102 using a program installed in the terminal device 300 and performs appropriate cooperative cleaning by the cleaning robots 100, 101, ..., Can be controlled. For example, the user assigns an individual cleaning area to a plurality of cleaning robots 100, 101, ..., 102 using a program installed in the terminal device 300, and the cleaning robots 100, 101, ..., 102 ), And the control signal may be transmitted to the plurality of cleaning robots (100, 101, 102) via the predetermined network or directly to the cleaning robot (100, 101, ..., 102).
  • the collaborative cleaning system 11 of FIG. 2 may further include a plurality of cleaning robots 100, 101, ..., 102 and a server (not shown) communicating with the terminal device 300.
  • the server is provided so as to be connectable by the same user account as the terminal device 300.
  • Each of the cleaning robots 100, 101, ..., 102 of the cooperative cleaning system 10, 11 is a cleaning moving device that autonomously moves and performs a predetermined operation, And an auxiliary device for assisting the operation of the mobile device while being fixedly installed at a predetermined position is separately provided.
  • FIG. 3 is a perspective view illustrating a cleaning mobile device according to an embodiment of the present invention
  • FIG. 4 is a block diagram illustrating the configuration of the cleaning mobile device of FIG.
  • the configuration and configuration of the cleaning mobile device 100 of Figs. 3 and 4 is applied to all cleaning robots in the system 10, 11 including the cleaning robots 101, 102 shown in Figs. 1 and 2 .
  • the cleaning moving device is a cleaning robot 100 that automatically rides and cleans the bottom surface of a certain area
  • the auxiliary device is a charging station for charging the battery of the cleaning robot 100, (Hereinafter, also referred to as a docking station or a base station).
  • the implementation method of each of the mobile device and the auxiliary device to which the spirit of the present invention can be applied is not limited, and various types of devices other than the cleaning robot 100 and the charging device 200 may be implemented as a mobile device or an auxiliary device have.
  • the cleaning robot 100 may be implemented as an autonomous travel apparatus that has a sensing unit 150 that can grasp the surrounding environment and can recognize the position of the robot itself and move to a destination.
  • the cleaning robot 100 includes a main body 101 having an outer shape and provided with various components, a traveling portion 120 for moving the cleaning robot 100 in a predetermined direction, a cleaning robot A cleaning unit 130 for cleaning the floor surface according to the movement of the cleaning robot 100, and a sensing unit 150 for sensing a surrounding environment of the cleaning robot 100.
  • the above components are parts of the entire structure of the cleaning robot 100 that appear outside the main body 101.
  • the driving force for all operations of the cleaning robot 100 including the traveling unit 120 and the cleaning unit 130 is provided by a battery (180 in FIG. 4) built in the main body 101, A charging terminal for charging the battery 180 is provided.
  • the traveling unit 120 includes at least one wheel that basically contacts the bottom surface for movement of the cleaning robot 100, a motor as a driving unit that generates driving force for movement, a link that transmits the driving force of the motor to the wheels, .
  • the driving unit 120 has a plurality of wheels, and the wheels are individually driven, thereby enabling the cleaning robot 100 to perform various movements such as forward movement, backward movement, rotation movement, and rearward movement.
  • the moving direction and the moving speed of the cleaning robot 100 by the drive unit 120 are determined by a control signal transmitted from the processor 190 (Fig. 4) in the cleaning robot 100 to the motor.
  • the traveling unit 120 may further include a steering mechanism physically changing the angle of each of the plurality of wheels by a control signal of the processor 190.
  • the number of revolutions of each of the plurality of wheels constituting the traveling unit 120 is controlled through the control signal of the processor 190, so that the traveling direction control of the moving cleaning robot 100, that is, have.
  • the cleaning unit 130 includes a brush for scattering foreign substances such as dust present on the floor surface, a suction module for sucking scattered foreign substances, a storage tank for storing foreign substances to be sucked, and the like.
  • the cleaning unit 130 operates when the cleaning robot 100 is moved by the running unit 120 or when the cleaning robot 100 is stopped, thereby cleaning the bottom surface.
  • the sensing unit 150 includes at least one sensor capable of sensing the surrounding environment.
  • the sensing unit 150 is provided to detect the surrounding environment of the cleaning robot 100 being moved or being cleaned.
  • the sensing unit 150 is a position recognition module capable of recognizing the position of the cleaning robot 100 based on the sensing result of the sensor.
  • the sensor of the sensing unit 150 may include an image sensor provided in the camera and a sensor such as a LiDAR sensor, a 3D sensor, a geomagnetism sensor, an infrared ray sensor, an ultrasonic sensor, a laser sensor, a radar sensor, and a position sensitive detector (PSD) sensor.
  • a sensor such as a LiDAR sensor, a 3D sensor, a geomagnetism sensor, an infrared ray sensor, an ultrasonic sensor, a laser sensor, a radar sensor, and a position sensitive detector (PSD) sensor.
  • a sensor such as a LiDAR sensor, a 3D sensor, a geomagnetism sensor, an infrared ray sensor, an ultrasonic sensor, a laser sensor, a radar sensor, and a position sensitive detector (PSD) sensor.
  • PSD position sensitive detector
  • the position-aware sensor can measure the distance and sense the object using radio waves.
  • the sensing unit 150 transmits a sensing signal toward the front through the position recognition sensor, receives the sensing signal, and can detect the surrounding environment including the obstacle using the received sensing signal.
  • the detection signal used in the position recognition sensor is not limited to the frequency band, and may have a spectrum in which energy is distributed in a wide frequency band.
  • the sensing signal may be implemented as an ultra-wideband (UWB) RF signal to minimize interference with other signals in a relatively narrow band (GPS, Bluetooth, ZigBee, WLAN, etc.).
  • UWB ultra-wideband
  • the image sensor captures or captures an image of the environment of the cleaning robot 100 to generate an image.
  • the position of the camera 101 in the main body 101 is not limited.
  • the camera may include a front portion of the main body 101 or a front portion of the main body 101 to capture the front of the cleaning robot 100, Respectively.
  • the cleaning robot 100 may be provided with a plurality of cameras.
  • the camera includes a lens and an image sensor through which the sensed image is transmitted.
  • a CMOS (Complementary Metal-Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor may be used as the image sensor, and captures a front view of the cleaning robot 100 and generates a digital image of the captured result.
  • CMOS Complementary Metal-Oxide Semiconductor
  • CCD Charge Coupled Device
  • the camera may be provided with various types of optical lenses in order to capture the surrounding environment in a wider range or to capture with a more precise image.
  • a lens having a wide angle of view is used in the camera so that all surrounding areas can be photographed even at a predetermined position. Further, the camera is installed upward so that all areas of the ceiling can be photographed.
  • the cleaning robot 100 can recognize the position itself based on the image data of the ceiling or generate a map of the cleaning area. Also, the pre-generated map may be modified using the image data, and the integrated map for the entire cleaning area may be generated using the image data photographed by another cleaning robot.
  • the position recognition sensor of the sensing unit 150 is installed on the front side or the upper side of the main body 101 so as to detect an obstacle positioned in the moving direction of the cleaning robot 100.
  • a plurality of position recognition sensors are provided.
  • a plurality of sensors may be arranged in series above or below the front portion of the main body 101. The plurality of sensors sequentially transmit the detection signals and sequentially receive the reflection signals corresponding thereto.
  • the cleaning robot 100 can utilize the data obtained through the sensing unit 150 to generate or modify the map itself.
  • the cleaning robot 100 may have a variety of configurations.
  • the cleaning robot 100 may include a user interface (not shown) installed in the main body 101 for receiving user input and displaying status information of the cleaning robot 100, (160). ≪ / RTI >
  • the user interface unit 160 includes a power button for turning on and off the power of the cleaning robot 100, an operation toggle button for starting and stopping the operation of the cleaning robot 100, A return button for returning the cleaning robot 100 to the charging station 200, a display unit for displaying the current state of the cleaning robot 100 and a state according to a user instruction.
  • the user interface unit 160 may further include a voice input unit for receiving the voice / sound uttered by the user.
  • the voice input unit may be implemented as a microphone for receiving a voice signal.
  • the charging device 200 is fixedly installed at a position in the use environment of the cleaning robot 100, and an external power source is connected thereto. In one embodiment, the charging device 200 is installed at a predetermined location in any one of the individual cleaning areas.
  • the charging apparatus 200 basically charges the battery of the cleaning robot 100 when the cleaning robot 100 is docked and can perform various maintenance operations of the cleaning robot 100 in addition thereto .
  • the charging apparatus 200 includes a main body 201 constituting an external shape and provided with all components, and a charging connector 210 connectable to a charging terminal provided in the cleaning robot 100 do.
  • the charging device 200 may have various configurations.
  • the charging device 200 may be installed in the interior of the charging device 200 to convert external power (AC) ) To the charging power supply (DC).
  • AC external power
  • DC charging power supply
  • the start position of the cleaning robot 100 may be fixed.
  • the cleaning robot 100 may be preset to receive a cleaning command while being docked to the charging station 200, in which case the starting position is fixed to the docking position.
  • the cleaning robot 100 may not be fixed in the starting position of cleaning execution, and may be fluid. In this case, the cleaning robot 100 determines its own position based on the data of the sensing unit 150, and carries out a cleaning operation with the position as a start position.
  • the cleaning robot 100 may perform a predetermined operation, for example, rotation, etc., in order to grasp the position.
  • FIG. 4 is a block diagram showing the configuration of a cleaning robot according to an embodiment of the present invention.
  • the cleaning robot 100 includes a communication unit 110, a traveling unit 120, a cleaning unit 130, a sensing unit 150, a user interface unit 160, a storage unit 170, A battery 180 and a processor 190.
  • the driving unit 120, the cleaning unit 130, the sensing unit 150, and the user interface unit 160 are the same as those of the embodiment of FIG.
  • the communication unit 110 includes hardware such as a communication circuit or a communication chip for performing wireless communication based on various wireless protocols with other cleaning robots of the collaborative cleaning systems 10 and 11.
  • the cleaning robot 100 communicates with another cleaning robot via a predetermined network by connecting to the AP, or directly communicates with another cleaning robot.
  • Examples of the wireless communication protocol supported by the communication unit 110 include various types of WiFi, Bluetooth, infrared, RF, Zigbee, WiFi direct, and LTE.
  • the cleaning robot 100 can further communicate with at least one of the external device such as the charging station 200, the terminal device 300, or the server through the communication unit 110 .
  • the storage unit 170 is provided as a place where data storage or loading is performed.
  • the storage unit 170 includes a non-volatile memory in which data is stored regardless of whether or not the system power is applied, and a volatile memory in which data processed by the processor 190, for example, a control program is temporarily loaded.
  • Nonvolatile memories include flash memories, EPROMs, HDDs, SDDs, and ROMs, and volatile memories include RAMs and buffers.
  • a map of the cleaning area is stored in the storage unit 170 of the cleaning robot 100 according to the embodiment of the present invention.
  • the stored map includes an obstacle map for showing the cleaning area and a feature map stored internally.
  • the characteristic map is used by the cleaning robot 100 to determine its current position.
  • the storage unit 170 may store data such as a control program, an application, an algorithm, and the like for operation of the cleaning robot 100 related to cleaning, charging, and running.
  • An algorithm for collaborative cleaning with another cleaning robot is stored in the storage unit 170 of the cleaning robot 100 according to the embodiment of the present invention.
  • the battery 180 which supplies power for the operation of the cleaning robot 100, can be reused by charging when the internal power is consumed.
  • the battery 180 provides a predetermined voltage for each component of the cleaning robot 100 according to a control signal from the processor 190.
  • the battery 180 has a terminal for transmitting the power supplied through the charging connector 210 of the charging station 200 to the battery 180 while the cleaning robot 100 is docked to the charging station 200.
  • the battery 140 may be provided with a sensor for detecting the remaining charge amount, so that the processor 190 can check the charge remaining amount information of the battery.
  • the processor 190 is a combination of a CPU and a chipset, a microcontroller, or a circuit implemented in SoC.
  • the processor 190 performs an operation and an instruction operation for all operations performed by the cleaning robot 100 according to a control program.
  • the control program may include program (s) implemented in the form of at least one of BIOS, device driver, operating system, firmware, platform or application (application).
  • the application program may be installed in the cleaning robot 100 at the time of manufacturing the cleaning robot 100, or may be installed in the cleaning robot 100 based on data of an application program received from the outside at the time of use later .
  • the data of the application program may be downloaded to the cleaning robot 100 from an external server such as an application market.
  • an external server is an example of the computer program product of the present invention, but is not limited thereto.
  • the processor 190 of the cleaning robot 100 includes a navigation module for generating a control signal for controlling movement of the cleaning robot 100, And a SLAM (Simultaneous Localization and Mapping) module for determining the position.
  • a navigation module for generating a control signal for controlling movement of the cleaning robot 100
  • SLAM Simultaneous Localization and Mapping
  • the cleaning robot 100 moves, that is, travels in the cleaning zone according to the control signal generated in the navigation module, and an obstacle map is thereby generated.
  • the SLAM module includes a localization function for determining the current position of the cleaning robot 100 based on data acquired through the sensing unit 150 and a localization function for determining the current position of the cleaning robot 100, It is designed to support localization (Re-Localization) function.
  • the property map can be generated by the operation of the SLAM module.
  • the processor 190 of the cleaning robot 100 communicates with other cleaning robots through the communication unit 110 and controls the traveling unit 120 and the cleaning unit 120 to perform cooperative cleaning for a predetermined cleaning area, (130).
  • the processor 190 groups the plurality of cleaning robots 100, 101, ..., 102 and controls the grouping of the cleaning robots 100, 101, ..., can do.
  • the individual cleaning area is automatically divided or allocated based on the location information, map, etc. of the cleaning robots 100, 101, ..., 102 grouped by the processor 190, Lt; / RTI > Here, it is fixed to a predetermined position of each of the cleaning robots 100, 101, ..., 102, for example, the position of the charging station 200, or the position is fixed, .
  • the individual cleaning area is set by the terminal device 300, the server, or the like, and can be received through each of the corresponding cleaning robots 100, 101, ..., 102 via the communication part 110.
  • the user inputs a predetermined set value through a map displayed on the terminal device 300 or through a displayed user interface (UI), hereinafter referred to as a GUI (Graphic User Interface) 101, ..., 102 are allocated to the individual cleaning areas.
  • UI displayed user interface
  • the processor 190 of the predetermined cleaning robot 100 may control the cleaning robot 100 and at least one of the cleaning robot 100 and the at least one cleaning robot 100 based on the information received through the communication unit 100.
  • An individual cleaning area corresponding to the cleaning mobile device 100 is determined among a plurality of individual cleaning areas allocated according to the current position of each of the other cleaning robots 101 and 102 and the cleaning is performed while traveling the determined individual cleaning area
  • the driving unit 120 and the cleaning unit 130 are controlled.
  • FIG. 5 is a block diagram showing the configuration of a terminal device according to an embodiment of the present invention.
  • the terminal device 300 can be wirelessly connected to other devices including the cleaning robots 100, 101, ..., 102 to transmit / receive control signals.
  • the terminal device 300 is defined as a device having a touch screen and capable of transmitting and receiving data through the communication unit 310.
  • the terminal device 300 is defined as an apparatus that receives user input through an input device such as a mouse, a keyboard, a remote control, and the like, and performs network communication through the communication unit 310.
  • the terminal device 300 includes a communication unit 310, an image processing unit 320, a display unit 330, a user interface unit 360, a storage unit 370, and a processor 390, .
  • the communication unit 310 of the terminal device 300 is provided in correspondence with the communication standard of the communication unit 210 of the cleaning robot 100 and is provided with a plurality of cleaning robots 100 and 101 , ..., 102).
  • the communication unit 310 further includes a mobile communication unit, and the mobile communication unit can be connected to an external device using one or more antennas under the control of the processor 390.
  • the mobile communication unit can communicate with a mobile phone, a smart phone, a tablet or other terminal device (portable device) having a telephone number connectable with the terminal device 300 by voice call, video call, SMS, multimedia image (MMS) Lt; / RTI >
  • the image processing unit 320 may include a broadcast communication unit, an audio playback unit, or a moving image playback unit.
  • the broadcast communication unit can receive a broadcast signal transmitted from an external broadcast station through a broadcast communication antenna under the control of the processor 390.
  • the image processing unit 320 may process the received broadcast signal and broadcast supplementary information to be reproducible on the display unit 330 and / or the speaker using a video codec unit and / or an audio codec unit .
  • the display unit 330 displays an image based on the image signal processed by the image processing unit 320.
  • the implementation of the display unit 330 is not limited.
  • the display unit 330 may further include additional components such as a driving unit according to the implementation method.
  • the display unit 330 includes an object (100, 101, ..., 102) including a menu item of the terminal device 300 such as a menu, text, image, video, Icons, and shortcut icons).
  • the object is displayed on the initial screen of the terminal device 300 and includes a cleaning robot icon (301 in Fig. 2) corresponding to the application for controlling the cleaning robot.
  • a user can input a user by selecting an object displayed on the display unit 330 with an input device such as a user's body such as a finger or a star illustration, a pointing device, or a mouse.
  • an input device such as a user's body such as a finger or a star illustration, a pointing device, or a mouse.
  • a physical button In the terminal device 300 according to the embodiment of FIG. 5, a physical button, a keypad displayed on a touch screen, a separate input device (stylus, pointing device, etc.) (Mouse, keyboard, etc.), and a microphone capable of receiving user voice / sound.
  • the user interface unit 360 may receive a touch by the user's body (e.g., a finger) with respect to the touch screen.
  • the user interface unit 360 transmits various preset control commands or information to the processor 390 according to a user's input including a touch input.
  • the user interface unit 360 of the terminal device 300 may receive a user's interaction with the content displayed on the display unit 330, that is, a gesture input.
  • the user interface unit 360 may include at least one of one or more buttons, a microphone, a keypad, or an input device.
  • the button includes not only a physical button but also a touch button provided on the touch screen.
  • the touch button may be displayed as text or an icon in the display unit 330.
  • the keypad includes at least one of a physical keypad formed on the front surface of the terminal device 100, a virtual keypad displayed on the display unit 330, an external keypad (e.g., a keyboard dock) .
  • the user interface unit 360 can set an individual cleaning area corresponding to the map or UI displayed on the display unit 330, and the information of the individual cleaning area is transmitted to the corresponding cleaning robot.
  • the storage unit 370 is configured to store various data of the terminal device 300.
  • the storage unit 370 may be provided with a writable ROM that can retain data even if the power supplied to the terminal device 300 is disconnected and can reflect the change. That is, the storage unit 370 may be provided as any one of a flash memory, an EPROM, and an EEPROM.
  • the storage unit 370 may further include a volatile memory such as a DRAM or an SRAM whose reading or writing speed of the terminal 300 is higher than that of the nonvolatile memory.
  • the data stored in the storage unit 370 includes, for example, an operating system for driving the terminal device 300, various applications executable on the operating system, image data, additional data, and the like.
  • the storage unit 370 may store a control program for controlling the terminal device 300, UI information received from an external source, such as a server, provided by a manufacturer, images for providing a UI, user information, or related data .
  • the processor 390 performs control to operate all the configurations of the terminal apparatus 300.
  • the processor 390 is at least one processor for performing such a control operation and includes any one of a CPU (Central Processing Unit), an AP (application processor), and a microcomputer.
  • the processor 390 loads the control program from the non-volatile memory, that is, the ROM, into which the control program (or the instruction) is installed, into the volatile memory or RAM, and executes the control program.
  • the processor may include single core, dual core, triple core, quad core and multiples thereof.
  • the processor includes a plurality of processors, for example, a main processor and a sub processor operating in a sleep mode (e.g., only standby power is supplied and not operating as a display device) can do.
  • the processor, ROM and RAM may be interconnected via an internal bus.
  • the processor 390 may further include a GPU (Graphic Processing Unit) for graphic processing.
  • GPU Graphic Processing Unit
  • processor 390 may include a GPU, e.g., processor 390 It can be implemented as SoC (System On Chip) which is a combination of core and GPU.
  • SoC System On Chip
  • the control program may include program (s) implemented in the form of at least one of BIOS, device driver, operating system, firmware, platform and application (application).
  • the application program is installed or stored in advance at the time of manufacturing the terminal device 300, or receives data of the application program from the outside at the time of use, and transmits the application program data to the terminal device 300 Can be installed.
  • the data of the application program may be downloaded to the terminal device 300 from an external server such as an application market.
  • an external server is an example of the computer program product of the present invention, but is not limited thereto.
  • FIG. 6 is a view showing a screen for setting an individual cleaning area of the cleaning robot according to an embodiment of the present invention, and includes a UI capable of setting an individual cleaning area without using a map for a cleaning space.
  • a plurality of grouping cleaning robots 100, 101, ..., 102 for example, a robot 1 (Robot # 1) capable of inputting a maximum range (Max Range) as setting values for setting individual cleaning areas for the robots 2 (Robot # 1), Robot # 2 (Robot # 602, and 603 are displayed as a UI.
  • the maximum range represents a distance as a radius centering on the position of each of the cleaning robots 100, 101, ..., 102.
  • the user inputs a distance corresponding to the maximum range of the individual cleaning area as a set value, and the individual cleaning area for each of the robot 1, the robot 2, and the robot N is determined by the processor 390 accordingly.
  • the display unit 330 of the terminal device 300 is provided with setting values for setting individual cleaning areas for the grouped robots 1, 2,
  • a plurality of items 611, 612, 613, 614, 615, and 616 that can input the maximum range and offset are displayed as the UI.
  • the maximum range represents the distance as a radius around the position of each cleaning robot 100, 101, ..., 102
  • the offset represents an applicable deviation with respect to the distance.
  • the processor 390 sets an individual cleaning area having a radius corresponding to the maximum range input to each of the robot 1, the robot 2, and the robot N, and adjusts the range of the individual cleaning area according to each input offset have.
  • the display unit 330 of the terminal device 300 may include, as setting values for setting individual cleaning areas in the grouped robots 1 and robots 2, A plurality of items 631 and 632 which can input a distance and an orientation between them are displayed as a UI.
  • the processor 390 sets an individual cleaning area having a predetermined radius to each of the robot 1 and the robot 2 in correspondence with the inputted distance and direction.
  • FIG. 7 is a view showing a screen for setting an individual cleaning area of the cleaning robot according to another embodiment of the present invention, and includes a UI for setting an individual cleaning area using a map of the cleaning space.
  • the map of the entire cleaning area in the present invention is an example of a map composed of individual cleaning areas A00, A02, and A03 classified in advance.
  • the present invention is not limited to this, and the entire cleaning area may be artificially divided by user input or the like, and the individual cleaning area may be set.
  • a map of the entire cleaning area consisting of A00, A01, and A02 is displayed on the display unit 330 of the terminal device 300, as shown in FIG. 7 (a).
  • the displayed map of the cleaning area can be generated in advance using at least one cleaning robot, and can be received from the cleaning robot, server, or the like through the communication unit 310 to the terminal device 300.
  • the cleaning robot 1 (# 1) 701 and the cleaning robot 2 (# 2) 702 are displayed at fixed positions docked to the respective charging stations 200 in the map, A message 705 indicating that charging is in progress may further be displayed.
  • the user can set and adjust the individual cleaning areas by dragging the areas 703 and 704 for the cleaning robot 1 (# 1) and cleaning robot 2 (# 2), respectively.
  • the individual cleaning areas of the cleaning robot 1 (# 1) include some areas of A01 and A00
  • the individual cleaning areas of the cleaning robot 2 (# 2) include A02 A00. ≪ / RTI >
  • the processor 390 controls the individual cleaning areas corresponding to the cleaning robots # 1 and # 2, respectively, And sends a command to perform cleaning on the display unit.
  • a map of the cleaning area consisting of A00, A01, and A02 is displayed on the display unit 330 of the terminal device 300, and the cleaning robot 1 (# 1) ( 711 and the cleaning robot 2 (# 2) 712 are displayed at fixed positions docked to the respective charging stations 200 in the map, and a message 715 indicating that charging is in progress may further be displayed.
  • input windows 713 and 714 for inputting individual cleaning areas for the cleaning robot 1 (# 1) and cleaning robot 2 (# 2) are further displayed as a UI.
  • the user can set and adjust the individual cleaning area by inputting area information to the input windows 713 and 714 corresponding to the cleaning robots # 1 and # 2.
  • the processor 390 includes the individual cleaning areas A01 and A01 of the cleaning robot 1 (# 1), and the individual cleaning area of the cleaning robot 2 (# 2) .
  • the processor 390 controls the communication unit 110 to communicate with the cleaning robots # 1 and # 2, And sends a command to perform cleaning on the display unit.
  • a map of a cleaning area consisting of A00, A01, and A02 is displayed on the display unit 330 of the terminal device 300 as shown in FIG. 7 (c)
  • the robot 721 and the cleaning robot 2 (# 2) 722 are displayed at fixed positions docked to the respective charging stations 200 in the map, and a message 725 indicating that charging is in progress may further be displayed.
  • the individual cleaning areas for the cleaning robot 1 (# 1) and cleaning robot 2 (# 2) may be selected to be automatically set 723, whereby the processor 390
  • the cleaning area is automatically divided based on the map of the cleaning area, the positions of the cleaning robots # 1 and # 2, and the like to set the individual cleaning area.
  • the processor 390 controls the individual cleaning areas corresponding to the cleaning robots # 1 and # 2, respectively, And sends a command to perform cleaning on the display unit.
  • a specific embodiment in which the individual cleaning areas are automatically allocated will be described in more detail in Fig. 10 which will be described later.
  • FIG. 8 and FIG. 9 are views showing a screen for setting an individual cleaning area of the cleaning robot according to another embodiment of the present invention, and include a UI for setting an individual cleaning area using a map of the cleaning space.
  • a map of a cleaning area consisting of R1, R2, R3, and R4 is displayed on the display unit 330 of the terminal device 300. As shown in FIG.
  • start positions 811 and 812 of the cleaning robots A and B are updated and displayed as shown in Fig.
  • designated start positions 811 and 812 of the cleaning robots A and B may be the positions of the respective charging stations 200, respectively.
  • the user can select the cleaning robot A 901 and allocate R1 911 to the individual cleaning area of the cleaning robot A selected as shown in Fig. 9 (b), as shown in Fig. 9 (a).
  • the user can select cleaning robot B 902 and allocate R2 912 to the individual cleaning area of cleaning robot B.
  • the user can be selected to be included in the individual cleaning area of the cleaning robot A or B in the same manner also in the areas R3 and R4.
  • the user of the terminal device 300 mainly sets the individual cleaning areas for the plurality of cleaning robots by using the UI displayed on the screen.
  • the present invention has been described with reference to the above- The present invention is not limited to the embodiments but may be implemented so that individual cleaning areas of a plurality of cleaning robots can be set in various ways depending on automatic or user input, with or without using a map.
  • FIG. 10 is a view for explaining automatic setting of an individual cleaning area according to an embodiment of the present invention.
  • the automatic setting of the individual cleaning area described in Fig. 10 may be performed by at least one of the processor 190 of the predetermined cleaning robot 100 or the processor 390 of the terminal device 300.
  • the areas of the entire cleaning area and each individual cleaning area may be as follows.
  • each cleaning area 50m 2 A00, A01 30m 2, 20m 2 A02
  • the area of the entire cleaning area is divided by the number of cleaning robots, the individual cleaning areas are allocated according to the number of cases as described below, and the size difference between the allocated areas is compared do.
  • A00: 50 and A01 + A02: 50 are selected in the case where the size difference according to the area allocation is the smallest, so that one cleaning robot 1001 in A00 and one cleaning robot 1002 in A01 + A02 ) Is allocated to each of the plurality of cleaning robots, so that individual cleaning areas for the plurality of cleaning robots are determined.
  • the entire cleaning area is divided into individual cleaning areas such as A00, A01, and A02.
  • the present invention can perform automatic area allocation even when there is no pre- .
  • the processors 190 and 390 calculate the area of the entire cleaning area, divide the entire cleaning area so that the average areas of the individual cleaning areas of the cleaning robots are equal to each other according to the number of cleaning robots, And the divided areas to be individual cleaning areas.
  • a cleaning robot is assigned to each room by judging each room as an individual cleaning area divided in advance.
  • the living room can be divided so that the area is the same according to the number of cleaning robots, and the cleaning robot can be allocated to each divided area.
  • A00 1010 in FIG. 12 is a living room and A01 1011 and A02 1012 are rooms
  • cleaning robot 1 (1001) and A02 (1012) are connected to cleaning robot 2
  • the cleaning robot 1 and the cleaning robot 2 may be divided so as to clean the cleaning robot 1 and the cleaning robot 1, respectively.
  • the processors 190 and 390 can control the cleaning robots to be allocated to the individual cleaning areas in order to minimize the movement distance, considering the distance between each cleaning robot and the individual cleaning areas.
  • the plurality of cleaning robots are grouped, individual cleaning areas are assigned to the grouping cleaning robots, and cleaning is performed on the individual cleaning areas allocated to the cleaning robots And can be classified as shown in Table 1 in the process of allocating individual cleaning areas or performing cleaning in each of the allocated individual cleaning areas.
  • the positions of the plurality of cleaning robots are fixed to the positions of the respective charging stations, and individual cleaning areas for the respective cleaning robots are set around the fixed positions.
  • the individual cleaning areas of the respective cleaning robots are set without using a map.
  • the individual cleaning areas can be set by using a console, have. 6A, the user can input, as a set value, the maximum range indicating the distance as the radius around the fixed position of the predetermined cleaning robot, and the individual cleaning area of the cleaning robot corresponding thereto is determined do. Also, the user can input the distance and direction between the cleaning robots as a set value as shown in FIG. 6 (c), and the individual cleaning areas of the cleaning robots are determined correspondingly.
  • the shape of the determined cleaning area may have not only a circular shape, but also a rectangular shape, or any shape corresponding to an actual cleaning space.
  • the individual cleaning area may be set through the user interface unit 160 of the cleaning robot 100 itself without using the terminal device 300.
  • the setting of the individual cleaning area using the user interface unit 160 includes setting by voice recognition.
  • the individual cleaning area can be automatically set in each cleaning robot without user input.
  • the cleaning robot can determine a relative position, i.e., a distance, a direction, and the like with respect to other cleaning robots based on the data obtained through the sensing unit 150, and performs a preset operation such as initial rotation
  • the driving unit 120 can be controlled.
  • the cleaning robot sets individual cleaning areas for the respective cleaning robots based on the relative positions determined as described above.
  • the processor 190 of each of the cleaning robots sets the individual cleaning area as a kind of virtual wall so that the cleaning robot does not travel through the virtual wall while performing cleaning.
  • each of the cleaning robots is controlled to perform cleaning at the same time while communicating with each other using a network. In this process, status information such as start and end of cleaning, and battery can be mutually shared.
  • various additional settings can be performed for cleaning robots or individual cleaning areas.
  • the cleaning direction of each of the plurality of cleaning robots can be additionally set in consideration of the relative position.
  • the two cleaning robots travel in opposite directions to each other. For example, So that the cleaning is performed.
  • the individual cleaning area 1 is dry-cleaned and the individual cleaning area 2 is wet-cleaned.
  • the individual cleaning area 1 is wet- Scheduling can be done in a manner such that dry cleaning is performed for zone 2.
  • the cleaning robot 1, which is a dry cleaner is assigned to the individual cleaning area 1
  • the cleaning robot 2, which is a wet cleaner is allocated to the individual cleaning area 2 at the first cleaning time.
  • the cleaning robot 2, which is a wet cleaner is allocated to the individual cleaning area 1, and the cleaning robot 1, which is a dry cleaner, can be allocated to the individual cleaning area 2.
  • cleaning can be controlled to be performed after completion of charging.
  • the traveling motions can be set for each of the cleaning robots.
  • the cleaning robot 1 performs cleaning while traveling in a zigzag, and the cleaning robot 2 is controlled to perform cleaning while traveling in a spiral manner .
  • the positions of the plurality of cleaning robots that is, the start positions of the cleaning operations are fixed to the positions of the respective charging stations, and individual cleaning areas for the respective cleaning robots are set around the fixed positions.
  • the individual cleaning area of each cleaning robot is set using a map showing the entire cleaning area.
  • a console that is, A user gesture for the map displayed in the field 330, and the like.
  • the displayed map of the cleaning area is generated by at least one cleaning robot and transmitted to the terminal device 300 through the communication unit 310 as an example.
  • the map of the cleaning area can be received from a server or the like by reflecting the actual position.
  • the map showing the cleaning area can be mapped to the starting position of each cleaning robot in the generation process.
  • a plurality of scavenging robots can be controlled so that the starting position is mapped to the respective charging station by close communication with the docking and charging stations.
  • the position of this charging station is input as the starting position.
  • the map generated or input / received as described above is transmitted to the terminal device 300 through the network and displayed through the display unit 330.
  • the user can input a distance representing a radius around the predetermined cleaning robot as text, or set an individual cleaning area by a method such as drawing using drag .
  • a distance representing a radius around the predetermined cleaning robot as text
  • set an individual cleaning area by a method such as drawing using drag .
  • the processor 190 of each of the cleaning robots sets the individual cleaning area as a kind of virtual wall so that the cleaning robot does not travel through the virtual wall while performing cleaning.
  • each of the cleaning robots is controlled to perform cleaning at the same time while communicating with each other using a network. In this process, status information such as start and end of cleaning, and battery can be mutually shared.
  • two or more cleaning robots may be set to be redundant with respect to a predetermined cleaning area.
  • any one cleaning robot may be set to have priority over the other cleaning robots. The case where the priority is set will be described in more detail in the fifth embodiment to be described later.
  • the individual cleaning area 1 is dry-cleaned and the individual cleaning area 2 is wet-cleaned.
  • the individual cleaning area 1 is wet- Scheduling can be done in a manner such that dry cleaning is performed for zone 2.
  • the cleaning robot 1, which is a dry cleaner is assigned to the individual cleaning area 1
  • the cleaning robot 2, which is a wet cleaner is allocated to the individual cleaning area 2 at the first cleaning time.
  • the cleaning robot 2, which is a wet cleaner is allocated to the individual cleaning area 1, and the cleaning robot 1, which is a dry cleaner, can be allocated to the individual cleaning area 2.
  • cleaning can be controlled to be performed after completion of charging.
  • the traveling motions can be set for each of the cleaning robots.
  • the cleaning robot 1 performs cleaning while traveling in a zigzag, and the cleaning robot 2 is controlled to perform cleaning while traveling in a spiral manner .
  • the starting positions of the plurality of cleaning robots are not fixed, and the current position of each cleaning robot is identified, and an individual cleaning area for each cleaning robot is set around the identified position.
  • the individual cleaning area of each cleaning robot is set using a map showing the entire cleaning area.
  • a console that is, A user gesture for the map displayed on the map 330, and the like.
  • the displayed map of the cleaning area is generated by at least one cleaning robot and transmitted to the terminal device 300 through the communication unit 310 as an example.
  • the map of the cleaning area can be received from a server or the like by reflecting the actual position.
  • the localization or re-localization for determining the current position of the cleaning robot is performed by the processor 190 of the cleaning robot 100 in the process of generating the map, The current position of the cleaning robot is mapped onto the map.
  • FIG. 11 is a view for explaining a process of finding a current position of a plurality of cleaning robots according to an embodiment of the present invention.
  • the map of the entire cleaning area 1100 includes ceiling patterns 1110 and 1020.
  • Information of the patterns 1110 and 1020 is detected by the detection Can be obtained from the image data by the image sensor of the unit 150.
  • the pattern information around the cleaning robots 1101 and 1002 shown in Fig. 11 (b) is obtained by comparing the pattern information included in the map with the patterns 1111 and 1022 as shown in Fig. 11 (c) Is determined as the current position of the cleaning robots 1101 and 1002.
  • the map to which the current position of the generation and cleaning robot is mapped is transmitted to the terminal device 300 through the network and displayed through the display unit 330.
  • the user inputs a distance indicating a radius around the current position of the cleaning robot as text, or sets an individual cleaning area in a manner such as drawing using drag .
  • the individual cleaning area can be automatically set so that cleaning can be performed with a minimum time in consideration of the current position of the cleaning robot without user input.
  • the map may automatically display a location of a general cleaner, as well as a cleaning robot that rides and performs cleaning.
  • a general vacuum cleaner is provided with a module capable of recognizing a position, such as a sensing unit, and a general cleaning area can be grasped for cleaning.
  • a cleaning history of the general cleaner is used to set an individual cleaning area of the cleaning robot, or when a user cleans a predetermined cleaning area using a general cleaner, if there is a cleaning history of the cleaning robot for the corresponding area, 300 or the like, so as to prevent duplicate cleaning.
  • the processor 190 of each of the cleaning robots sets the individual cleaning area as a kind of virtual wall so that the cleaning robot does not travel through the virtual wall while performing cleaning.
  • each of the cleaning robots is controlled to perform cleaning at the same time while communicating with each other using a network. In this process, status information such as start and end of cleaning, and battery can be mutually shared.
  • two or more cleaning robots may be set to be redundant with respect to a predetermined cleaning area.
  • any one cleaning robot may be set to have priority over the other cleaning robots. The case where the priority is set will be described in more detail in the fifth embodiment to be described later.
  • the individual cleaning area 1 is dry-cleaned and the individual cleaning area 2 is wet-cleaned.
  • the individual cleaning area 1 is wet- Scheduling can be done in a manner such that dry cleaning is performed for zone 2.
  • the cleaning robot 1, which is a dry cleaner is assigned to the individual cleaning area 1
  • the cleaning robot 2, which is a wet cleaner is allocated to the individual cleaning area 2 at the first cleaning time.
  • the cleaning robot 2, which is a wet cleaner is allocated to the individual cleaning area 1, and the cleaning robot 1, which is a dry cleaner, can be allocated to the individual cleaning area 2.
  • cleaning can be controlled to be performed after completion of charging.
  • the traveling motions can be set for each of the cleaning robots.
  • the cleaning robot 1 performs cleaning while traveling in a zigzag, and the cleaning robot 2 is controlled to perform cleaning while traveling in a spiral manner .
  • an individual cleaning area is set by sharing a map measured in real time by each of the cleaning robots performing cooperative cleaning without using a map provided in advance or through a cleaning robot previously provided.
  • maps generated in each cleaning robot cleaning the predetermined individual cleaning area are shared in real time through mutual networking.
  • map integration is performed.
  • FIG. 12 is a diagram illustrating a process of map integration according to an embodiment of the present invention.
  • the map merging generated by the first cleaning robot 1201 includes information of a predetermined pattern 1210 on the ceiling
  • the second cleaning robot 1202 includes information of a predetermined pattern 1211 of a ceiling.
  • At least one of the plurality of grouping cleaning robots can receive the map generated by the second cleaning robot 1202 through the communication unit 120 thereof. Then, as shown in Fig. 12 (c), the pattern 1212 which matches is matched from the map (first map) of its own and the received map (second map) of the other cleaning robot, .
  • each of the cleaning robots may be set to generate a map by using the acquired data for the region to be traveled when traveling in a certain size region, or may be set to generate the map by utilizing data acquired during the predetermined time have.
  • a predetermined signal is detected by another cleaning robot, the obtained data is transmitted to another cleaning robot and is used for map generation.
  • a trigger signal corresponding to other predetermined events is received, Data may be used to control the generation of the map.
  • an individual cleaning area of each cleaning robot is shared through an integrated map as shown in Fig. 12 (c), and any one of the cleaning robots grouped for the vacant individual cleaning area is allocated Thereby performing cooperative cleaning.
  • This integrated map can be used both in the current or future collaborative cleaning.
  • the allocation of the unassigned (i.e., empty) individual cleaning area can be applied to either the automatic allocation described in the first to third embodiments or the allocation by the user selection.
  • the area allocation in the integrated map can be utilized further by information of a general cleaner, as well as cleaning robots that automatically run and perform cleaning.
  • a general vacuum cleaner is provided with a module capable of recognizing a position, such as a sensing unit, and a general cleaning area can be grasped for cleaning.
  • a cleaning history of the general cleaner is used to set an individual cleaning area of the cleaning robot, or when a user cleans a predetermined cleaning area using a general cleaner, if there is a cleaning history of the cleaning robot for the corresponding area, 300 or the like, so as to prevent duplicate cleaning.
  • the processor 190 of each of the cleaning robots sets the individual cleaning area as a kind of virtual wall so that the cleaning robot does not travel through the virtual wall while performing cleaning.
  • each of the cleaning robots is controlled to perform cleaning at the same time while communicating with each other using a network. In this process, status information such as start and end of cleaning, and battery can be mutually shared.
  • various additional settings can be performed for each cleaning robot or individual cleaning area.
  • two or more cleaning robots may be set to be redundant with respect to a predetermined cleaning area.
  • any one cleaning robot may be set to have priority over the other cleaning robots. The case where the priority is set will be described in more detail in the fifth embodiment to be described later.
  • the individual cleaning area 1 is dry-cleaned and the individual cleaning area 2 is wet-cleaned.
  • the individual cleaning area 1 is wet- Scheduling can be done in a manner such that dry cleaning is performed for zone 2.
  • the cleaning robot 1, which is a dry cleaner is assigned to the individual cleaning area 1
  • the cleaning robot 2, which is a wet cleaner is allocated to the individual cleaning area 2 at the first cleaning time.
  • the cleaning robot 2, which is a wet cleaner is allocated to the individual cleaning area 1, and the cleaning robot 1, which is a dry cleaner, can be allocated to the individual cleaning area 2.
  • the predetermined cleaning robot may be given a role other than cleaning execution.
  • the cleaning robot 1 performs cleaning
  • the cleaning robot 2 can be controlled to generate a map for the cleaning area through exploration.
  • cleaning can be controlled to be performed after completion of charging.
  • the traveling motions can be set for each of the cleaning robots.
  • the cleaning robot 1 performs cleaning while traveling in a zigzag, and the cleaning robot 2 is controlled to perform cleaning while traveling in a spiral manner .
  • the positions of the plurality of cleaning robots may be fixed or movable to the positions of the respective charging stations, and are given priority to each of the cleaning robots so as to perform cleaning for the individual cleaning areas accordingly .
  • FIGS. 13 to 16 are views for explaining a process of performing cooperative cleaning by giving priority to a plurality of cleaning robots according to an embodiment of the present invention.
  • the user can select a predetermined cleaning robot in the cleaning area, that is, the cleaning robot A 1301, to have a priority order with respect to the other cleaning robot B 1302 using the terminal device 300 .
  • the cleaning robots 1301 and 1302 are docked to the charging station and the priority is set using the UI.
  • the present invention is not limited thereto. For example, even when the positions of the cleaning robots are flexible as in the third embodiment described above, the priority order of the plurality of cleaning robots can be set.
  • the present invention can be set such that each cleaning robot has a priority order sequentially. Also, when the user does not designate the priority, the case where the priority is automatically determined according to a predetermined criterion by the terminal device 300 is also included in the present invention.
  • a plurality of cleaning robots perform collaborative cleaning for the entire cleaning area according to the priority set as described above.
  • the cooperative cleaning process may be controlled by the processor 390 of the terminal device 300 or the processor 190 of any one of the cleaning robots 100.
  • the user sets the cleaning robot A to have priority over the cleaning robot B among the cleaning robots A and B existing in the same individual cleaning space R1, and performs collaborative cleaning Quot; command "
  • the cleaning robot A 1401 having the priority order cleans the individual cleaning area R1, and the cleaning robot B 1402 moves to another nearby area, for example, the individual cleaning area R2 To perform cleaning.
  • the cleaning robot B 1402 can be controlled to move to R2, which is a region close to R1, to perform cleaning.
  • the cleaning robot A (1501) When the cleaning robot A (1501) completes the cleaning of the individual cleaning area R4, the cleaning robot A (1501) returns to the starting position A where the charging station is located as shown in FIG. 15 (b) Lt; / RTI > Here, the cleaning robot A (1501) is controlled to return to the charging station or cooperatively clean the individual cleaning area R2 in accordance with the cleaning progress state of the cleaning robot B (1502) performing the cooperative cleaning.
  • the cleaning robot B 1602 has cleaned less than 50% of the individual cleaning area R2, that is, when the space of R2 that has not been cleaned is more than 50%, as shown in FIG. 16A ,
  • the cleaning robot A 1601 moves to R2 and is controlled to perform cooperative cleaning for the individual cleaning area R2.
  • the cleaning robot A 1601 and the cleaning robot B 1602 perform cooperative cleaning for cleaning the individual cleaning areas R2 together.
  • the two cleaning robots 1601 , 1602 may perform some cleaning overlap.
  • the overlapping space can be controlled to be only 10% of the individual cleaning area R2.
  • the cleaning robot A 1601 immediately goes to the charging station Can return.
  • the cleaning robots having the priority order are given priority among the cleaning robots, and the cleaning robots having the priority order are assigned to the individual cleaning areas prior to the other cleaning robots and are controlled to perform the cleaning.
  • the cleaning is controlled to move to another individual cleaning area that has not been cleaned and perform cleaning. Also, it is controlled so that two or more cleaning robots can perform cooperative cleaning in such a manner that the same individual cleaning area is simultaneously cleaned according to the cleaning state of the space allocated to another cleaning robot.
  • 17 is a flowchart illustrating a cooperative cleaning control method according to an embodiment of the present invention.
  • a plurality of cleaning robots 100, 101, ..., 102 are grouped so that cooperative cleaning can be performed (S1701).
  • the grouping is performed between a plurality of cleaning robots capable of mutual communication.
  • Individual cleaning areas are allocated to the plurality of cleaning robots 100, 101, ..., 102 grouped in step S1701 (S1703).
  • the individual cleaning area is performed by user input through the terminal device 300 capable of communicating with the plurality of cleaning robots 100, 101, ..., Based on location information.
  • the positions of the cleaning robots 100, 101, ..., 102 may be fixed to the position of the charging station, or may be fluid.
  • the processor 190 in the cleaning robot can determine the current position of the cleaning robot.
  • the map generated based on the data acquired by the sensing unit 150 is available Do. When the map is used, the current positions of the plurality of cleaning robots are mapped on the map.
  • the user can input a command to perform collaborative cleaning using the terminal 300 or the user interface 160 provided in any one of the cleaning robots.
  • the plurality of cleaning robots 100, 101, ..., , 102 perform collaborative cleaning while traveling in the individual cleaning area allocated in step S1703 (S1705).
  • the plurality of cleaning robots 100, 101, ..., 102 may be set in advance so as to have a priority among each other, and a cleaning robot having a priority for a predetermined individual cleaning area may be controlled to perform cleaning .
  • This priority may be set by the user or automatically set using the user interface 160 of the terminal device 300 or the predetermined cleaning robot.
  • the cleaning robot which has been cleaned in the individual cleaning areas assigned to itself, can move to another space that has not been cleaned and perform cleaning. In this process, It is possible to perform cleaning such that these two or more cleaning robots overlap each other.
  • the plurality of cleaning robots are assigned to the individual cleaning areas based on the position information thereof, and are controlled to perform the cooperative cleaning on the assigned areas, Time can be shortened and cleaning can be performed efficiently.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

본 발명은 청소용 이동장치, 협업청소 시스템 및 그 제어방법에 관한 것으로서, 청소용 이동장치는, 청소를 수행하는 클리닝부; 청소용 이동장치를 이동시키는 주행부; 외부장치와 통신 가능한 통신부; 통신부를 통하여 수신된 정보에 기초하여, 전체 청소영역에 대하여, 청소용 이동장치 및 적어도 하나의 다른 청소용 이동장치 각각의 현재 위치에 따라 할당된 복수의 개별 청소영역 중에서 청소용 이동장치에 대응하는 개별 청소영역을 결정하고, 결정된 개별 청소영역을 주행하면서 청소를 수행하도록 주행부 및 클리닝부를 제어하는 프로세서를 포함한다. 이에 의하여, 복수의 청소로봇에 대해 그 위치정보에 기반하여 개별 청소영역이 할당됨으로써, 전체 청소시간을 단축하여 효율적인 협업청소가 이루어지는 효과가 있다.

Description

청소용 이동장치, 협업청소 시스템 및 그 제어방법
본 발명은 청소용 이동장치, 협업청소 시스템 및 그 제어방법에 관한 것으로서, 보다 상세하게는 자동으로 주행하면서 바닥면을 청소하는 청소용 이동장치, 협업청소 시스템 및 그 제어방법에 관한 것이다.
청소로봇과 같은 청소용 이동장치는 가정 내의 바닥면과 같은 소정의 지면을 청소하기 위한 청소모듈 및 지면 위를 이동하기 위한 이동모듈을 구비하며, 지면 위를 이동하며 자동으로 청소를 수행하는 전자장치이다.
청소로봇은 청소구역 내의 바닥면을 주행하면서 주행 경로 상에 존재하는 장애물과의 충돌을 회피하고, 청소구역을 균일하게 청소하도록 제어된다.
그런데, 하나의 청소구역을 두 대 이상의 청소로봇이 주행하면서 함께 청소하는 경우가 있다. 이 경우, 공간의 구조, 청소이력, 청소로봇의 상태 등을 고려하여, 복수의 청소로봇이 청소구역을 효율적으로 분할하여 청소하도록 제어될 필요가 있다.
본 발명은, 상기한 문제점을 해결하고자 하는 것으로, 청소공간 내에서 복수의 청소로봇이 서로 통신을 수행하면서 효율적으로 협업청소를 수행할 수 있는 있는 청소용 이동장치, 협업청소 시스템 및 그 제어방법을 제공하는 것이다.
또한, 본 발명은, 복수의 청소로봇들에 대해 그 위치정보를 포함하는 다양한 조건에 따라 자동 또는 사용자입력에 의한 개별 청소영역을 할당함으로써, 청소시간의 단축하여 효율적인 협업청소가 이루어지도록 하는 청소용 이동장치, 협업청소 시스템 및 그 제어방법을 제공하는 것이다.
본 발명 일 실시예에 따른 청소용 이동장치는, 청소를 수행하는 클리닝부; 청소용 이동장치를 이동시키는 주행부; 부장치와 통신 가능한 통신부; 및 통신부를 통하여 수신된 정보에 기초하여, 전체 청소영역에 대하여, 청소용 이동장치 및 적어도 하나의 다른 청소용 이동장치 각각의 현재 위치에 따라 할당된 복수의 개별 청소영역 중에서 청소용 이동장치에 대응하는 개별 청소영역을 결정하고, 결정된 개별 청소영역을 주행하면서 청소를 수행하도록 주행부 및 클리닝부를 제어하는 프로세서를 포함한다. 이에 의하여, 복수의 청소로봇의 위치정보에 기반하여 개별 청소영역을 할당함으로써, 전체 청소시간을 단축한 효율적인 협업청소가 수행된다.
청소용 이동장치 및 적어도 하나의 다른 청소용 이동장치 각각의 현재 위치는 충전 스테이션의 위치에 대응한다. 이에, 충전상태인 청소로봇이 커맨드를 수신하여 협업청소를 수행할 수 있다.
프로세서는, 청소용 이동장치의 주변 환경을 검출하는 감지부에 의해 획득된 데이터에 기초하여 청소용 이동장치의 현재위치를 판단할 수 있다. 이에, 시작위치가 고정되지 않은 청소로봇의 경우에도 그 위치를 식별하여 효율적인 협업청소가 이루어지도록 제어할 수 있다.
프로세서는, 전체 청소영역을 포함하는 맵 상에 청소용 이동장치 및 적어도 하나의 다른 청소용 이동장치의 현재 위치를 맵핑하고, 맵핑된 현재 위치에 따라 복수의 개별 청소영역이 할당되도록 제어할 수 있다. 이에, 맵을 이용하여 청소로봇들의 현재 위치를 용이하게 식별할 수 있다.
프로세서는, 청소용 이동장치의 주변 환경을 검출하는 감지부에 의해 획득된 데이터에 기초하여 제1 맵을 생성하고, 생성된 제1맵 상에 청소용 이동장치 및 적어도 하나의 다른 청소용 이동장치의 현재 위치를 맵핑할 수 있다. 이에, 협업청소를 수행하는 적어도 하나의 청소로봇에 마련된 센서를 활용하여 생성된 맵을 위치식별에 활용한다.
프로세서는, 적어도 하나의 다른 청소용 이동장치로부터 대응되는 개별 청소영역을 포함하는 제2맵을 수신하고, 수신된 제2맵과 제1맵을 통합하여 통합 맵을 생성하고, 통합 맵을 이용하여 복수의 개별 청소영역이 할당되도록 제어할 수 있다. 이에, 둘 이상의 청소로봇에서 생성된 맵을 통합하는 방식으로 전체 청소영역의 맵을 획득할 수 있다.
프로세서는, 결정된 개별 청소영역에 대한 청소가 완료되면, 통신부를 통하여 수신된 적어도 하나의 다른 청소용 이동장치의 상태정보에 기초하여, 청소용 이동장치가 다른 개별 청소영역으로 이동하여 청소를 수행하거나 또는 충전 스테이션으로 이동하도록 주행부를 제어할 수 있다. 이에, 청소로봇의 현재상태를 고려한 효율적인 협업청소가 이루어질 수 있다.
한편, 본 발명 일 실시예에 따른 협업청소 시스템은, 복수의 청소용 이동장치; 및 단말장치를 포함하며, 단말장치는, 복수의 청소용 이동장치와 통신 가능한 통신부; 및 통신부를 통하여 수신된 정보에 기초하여, 전체 청소영역에 대하여, 복수의 청소용 이동장치 각각의 현재 위치에 따라 복수의 개별 청소영역을 할당하고, 복수의 청소용 이동장치 각각에 할당된 개별 청소영역에 대해 청소를 수행하도록 하는 커맨드가 통신부를 통해 송신되도록 제어하는 프로세서를 포함한다. 이에 의하여, 복수의 청소로봇의 위치정보에 기반하여 개별 청소영역을 할당함으로써, 전체 청소시간을 단축한 효율적인 협업청소가 수행되도록 제어할 수 있다.
단말장치는, 사용자 인터페이스(UI)가 표시되는 디스플레이부를 더 포함하고, 프로세서는, UI에 대한 사용자입력에 대응하여 복수의 청소용 이동장치 각각에 복수의 개별 청소영역이 할당되도록 제어할 수 있다. UI는 복수의 청소용 이동장치 각각에 대해 개별 청소영역이 할당되도록 하는 설정값이 입력 가능한 복수의 항목을 포함할 수 있다. 이에, 단말장치의 UI를 이용하여 개별 청소영역을 할당할 수 있도록 함으로써, 사용자 편의가 향상된다.
프로세서는, 전체 청소영역에 대한 맵을 디스플레이부에 표시하고, 표시된 맵에 대한 사용자입력에 따라 복수의 청소용 이동장치 각각에 복수의 개별 청소영역이 할당되도록 제어할 수 있다. 이에, 맵을 이용하여 사용자가 청소로봇들의 현재 위치를 용이하게 식별하여, 보다 효율적인 청소영역의 분할이 가능하다.
프로세서는, 적어도 하나의 청소용 이동장치로부터 통신부를 통해 수신된 데이터에 기초하여 전체 청소영역의 맵을 생성할 수 있다. 프로세서는, 통신부를 통해 복수의 청소용 이동장치로부터 위치정보를 수신하고, 수신된 위치정보를 맵 상에 맵핑하여 표시하도록 디스플레이부를 제어할 수 있다. 이에, 협업청소를 수행하는 적어도 하나의 청소로봇에 마련된 센서를 활용하여 생성된 맵을 청소영역 분할에 활용한다.
디스플레이부에는 복수의 청소로봇에 대하여 우선순위가 설정되도록 하는 UI가 더 표시되며, 프로세서는, UI를 통해 설정된 우선순위 정보를 통신부를 통해 대응되는 청소용 이동장치로 송신할 수 있다. 이에, 우선순위를 가진 청소로봇이 소정 청소영역에 대해 우선권을 가지고 협업청소가 이루어지므로, 각 청소로봇 간의 효율적인 역할 분담이 가능하다.
한편, 본 발명 일실시예에 따른 협업청소 제어방법은, 상호 통신 가능한 복수의 청소용 이동장치 각각에 대해 현재 위치에 기초하여 복수의 개별 청소영역을 할당하는 단계; 및 복수의 청소용 이동장치가 할당된 개별 청소영역을 주행하면서 청소를 수행하는 단계를 포함한다. 이에 의하여, 복수의 청소로봇의 위치정보에 기반하여 개별 청소영역을 할당함으로써, 전체 청소시간을 단축한 효율적인 협업청소가 수행된다.
복수의 청소용 이동장치 각각의 현재 위치는 충전 스테이션의 위치에 대응할 수 있다. 적어도 하나의 청소용 이동장치에 마련된 감지부에 의해 획득된 데이터에 기초하여 복수의 청소용 이동장치가 현재 위치를 판단하는 단계를 포함할 수 있다. 이에, 청소로봇의 시작위치의 고정 또는 유동 여부와 관계없이, 현재 위치에 따른 효율적인 협업청소의 제어가 가능하다.
적어도 하나의 청소용 이동장치에 마련된 감지부에 의해 획득된 데이터에 기초하여 맵을 생성하는 단계; 및 생성된 맵 상에 복수의 청소용 이동장치의 현재 위치를 맵핑하는 단계를 포함할 수 있다. 맵을 생성하는 단계는, 2 이상의 청소용 이동장치로부터 대응하는 개별 청소영역을 포함하는 맵을 수신하는 단계; 및 수신된 개별 청소영역의 맵을 통합하여 통합 맵을 생성하는 단계를 포함할 수 있다. 이에, 맵을 활용함으로써 보다 효율적인 청소영역의 분할이 가능하다.
복수의 개별 청소영역을 할당하는 단계는, 복수의 청소용 이동장치와 통신 가능한 단말장치에 표시된 사용자 인터페이스(UI)를 이용하여 복수의 개별 청소영역을 할당하는 단계를 포함할 수 있다. 이에, 사용자 편의가 더욱 향상된다.
상기한 바와 같은 본 발명의 청소용 이동장치, 협업청소 시스템 및 그 제어방법에 따르면, 복수의 청소로봇이 그 위치정보에 기반하여 개별 청소영역을 할당함으로써, 전체 청소시간을 단축하여 효율적인 협업청소가 이루어지는 효과가 있다.
도 1은 본 발명 일 실시예에 의한 협업청소 시스템을 도시한 도면이다.
도 2는 본 발명 다른 실시예에 의한 협업청소 시스템을 도시한 도면이다.
도 3은 본 발명 일 실시예에 따른 청소용 이동장치를 도시한 사시도이고, 도 4는 도 3의 청소용 이동장치의 구성을 도시한 블록도이다.
도 5는 본 발명 일 실시예에 따른 단말장치의 구성을 도시한 블록도이다.
도 6은 본 발명 일 실시예에 따라 청소로봇의 개별 청소영역을 설정하는 화면을 도시한 도면이다.
도 7은 본 발명 다른 실시예에 따라 청소로봇의 개별 청소영역을 설정하는 화면을 도시한 도면이다.
도 8과 도 9는 본 발명 또 다른 실시예에 따라 청소로봇의 개별 청소영역을 설정하는 화면을 도시한 도면이다.
도 10은 본 발명 일 실시예에 따른 개별 청소영역의 자동설정을 설명하기 위한 도면이다.
도 11은 본 발명 일 실시예에 따라 복수의 청소로봇의 현재위치를 찾는 과정을 설명하기 위한 도면이다.
도 12은 본 발명 일 실시예에 따라 맵 통합이 이루어지는 과정을 설명하는 도면이다.
도 13 내지 도 16은 본 발명 일 실시예에 따라 복수의 청소로봇에 우선순위를 부여하여 협업청소를 수행하는 과정을 설명하기 위한 도면이다.
도 17은 본 발명 일 실시예에 따른 협업청소 제어방법을 도시한 흐름도이다.
이하에서는 첨부도면을 참조하여 본 발명에 따른 실시예들에 관해 상세히 설명한다. 이하 실시예들의 설명에서는 첨부된 도면들에 기재된 사항들을 참조하는 바, 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 나타낸다.
본 명세서에서의 복수의 요소 중 적어도 하나(at least one)는, 복수의 요소 전부뿐만 아니라, 복수의 요소 중 나머지를 배제한 각 하나 혹은 이들의 조합 모두를 지칭한다.
도 1은 본 발명 일 실시예에 의한 협업청소 시스템을 도시한 도면이다.
도 1에 도시된 바와 같이, 본 발명 일 실시예에 따른 협업청소 시스템(10)는 네트워크 통신 가능한 복수의 청소로봇(100, 101, … , 102)을 포함한다.
일 실시예에서 복수의 청소로봇(100, 101, … , 102)은 소정 네트워크를 통해 상호간 통신을 수행한다. 도 1에 도시된 네트워크는 광역 네트워크 즉, 공중망(public network)에 접속 가능한 프라이빗 네트워크(private network)로서, 소정 어드레스가 할당된 게이트웨이(gateway), 라우터(router)또는 공유기와 같은 AP(access point)에 의해 구성될 수 있다.
복수의 청소로봇(100, 101, … , 102)에는 상호간의 통신을 위한 통신부(도 4의 110)가 마련되며, 와이파이(Wi-Fi) 통신모듈이 그 일례가 된다.
다른 예로서, 복수의 청소로봇(100, 101, … , 102)은 AP 없이 상호간에 다이렉트로 통신을 수행할 수 있다. 이 경우, 복수의 청소로봇(100, 101, … , 102)에 마련되는 통신부(110)는 블루투스(bluetooth), 블루투스 저에너지(bluetooth low energy), 적외선통신(IrDA, infrared data association), 와이파이 다이렉트(Wi-Fi Direct), 지그비(Zigbee), UWB(Ultra Wideband), NFC(Near Field Communication), LET(Long Term Evolution) 등의 통신모듈 중 적어도 하나를 포함한다.
도 1의 협업청소 시스템(10)은 복수의 청소로봇(100, 101, … , 102)과 통신하는 서버(도시 안됨)를 더 포함할 수 있다. 여기서, 서버는 네트워크가 접속 가능한 공중망을 통해 연결될 수 있으며, 클라우드 서버를 포함한다. 서버는 복수의 청소로봇(100, 101, … , 102)으로부터 위치정보를 포함한 데이터를 수신하며, 수신된 데이터에 의해 각 청소로봇(100, 101, … , 102)이 협업에 의해 청소영역에 대한 청소를 수행하도록 제어할 수 있다.
도 2는 본 발명 다른 실시예에 의한 협업청소 시스템을 도시한 도면이다.
도 2에 도시된 바와 같이, 본 발명 다른 실시예에 의한 협업청소 시스템(11)은, 일 실시예와 비교하여, 단말장치(300)를 더 포함한다.
복수의 청소로봇(100, 101, … , 102)은 일 실시예에서 설명한 바와 같이 AP를 통해 또는 다이렉트로 상호간에 통신을 수행할 수 있다.
일 실시예에서 단말장치(300)는 휴대폰, 스마트폰(smart phone), 태블릿(table)과 같은 스마트패드(smart pad) 등의 모바일 디바이스로 구현될 수 있다. 다른 실시예에서 단말장치(300)는 랩탑(laptop) 또는 데스크탑(desktop)을 포함하는 컴퓨터(PC)로 구현될 수 있다. 또 다른 실시예에서 단말장치(300)는 스마트 TV와 같은 텔레비전으로 구현될 수 있다. 즉, 본 발명 협업청소 시스템(11)에서 단말장치(300)는 디스플레이부(도 5의 330)를 포함하고 사용자입력이 가능한 다양한 장치들을 포함한다.
단말장치(300)에는 복수의 청소로봇(100, 101, … , 102)을 관리 및 제어하도록 하는 서비스를 제공하는 적어도 하나의 프로그램 즉, 청소로봇 어플리케이션이 설치된다. 해당 어플리케이션은 청소로봇의 제조사 등에 의해 배포될 수 있으며, 단말장치(300)의 제조 과정에서 내장되어 출시 또는 앱스토어와 같은 마켓으로부터 단말장치(300)로 다운로드 및 설치될 수 있다.
사용자는 단말장치(300)에 설치된 프로그램을 이용하여 복수의 청소로봇(100, 101, … , 102)의 상태를 모니터링하며, 각 청소로봇(100, 101, … , 102)에 의해 적절한 협업청소가 이루어지도록 제어할 수 있다. 예를 들어, 사용자는 단말장치(300)에 설치된 프로그램을 이용하여 복수의 청소로봇(100, 101, … , 102)에 대하여 개별 청소영역을 할당하고, 각 청소로봇(100, 101, … , 102)에 할당된 영역에 대한 청소를 수행하도록 하는 커맨드를 포함하는 제어신호를 송신하도록 하는 사용자입력을 할 수 있으며, 제어신호는 소정 네트워크를 통하거나, 또는 다이렉트로 복수의 청소로봇(100, 101, … , 102)로 송신된다.
도 2의 협업청소 시스템(11)은 복수의 청소로봇(100, 101, … , 102) 및 단말장치(300)와 통신하는 서버(도시 안됨)를 더 포함할 수 있다. 일 실시예에서, 서버는 단말장치(300)와 동일한 사용자 계정에 의해 접속 가능하게 마련된다.
상기와 같은 본 발명 실시예에 따른 협업청소 시스템(10, 11)의 각 청소로봇(100, 101, … , 102)은 자율적으로 이동하며 소정 작업을 수행하는 청소용 이동장치이며, 그 이동장치와 분리되고 소정의 위치에 고정적으로 설치된 상태에서 이동장치의 작업을 보조하는 보조장치가 별도로 마련된다.
도 3은 본 발명 일 실시예에 따른 청소용 이동장치를 도시한 사시도이고, 도 4는 도 3의 청소용 이동장치의 구성을 도시한 블록도이다.
도 3 및 도 4의 청소용 이동장치(100)의 형태 및 구성은, 도 1 및 도 2에 도시된 청소로봇(101, 102)를 포함하여 시스템(10, 11) 내의 모든 청소로봇에 대해 적용된다.
도 3에 도시된 본 발명 실시예에서, 청소용 이동장치는 자동으로 주행하면서 일정한 면적 범위의 바닥면을 청소하는 청소로봇(100)이며, 보조장치는 청소로봇(100)의 배터리를 충전시키는 충전 스테이션(이하, 도킹 스테이션 또는 베이스 스테이션 이라고도 한다)으로 마련되는 충전장치(200)이다. 그러나, 본 발명의 사상이 적용될 수 있는 이동장치 및 보조장치 각각의 구현 방식은 한정되지 않으며, 청소로봇(100) 및 충전장치(200) 이외에도 다양한 종류의 장치들이 이동장치 또는 보조장치로 구현될 수 있다.
일 실시예에서 청소로봇(100)은 주변 환경을 파악할 수 있는 감지부(150)가 구비되어, 스스로 위치를 인식하고 목적지까지 이동 가능한 자율주행장치로서 구현될 수 있다.
청소로봇(100)은, 도 3에 도시된 바와 같이, 외형을 형성하고 제반 구성이 설치되는 본체(101), 청소로봇(100)을 소정 방향을 향하여 이동시키는 주행부(120), 청소로봇(100)이 이동함에 따라서 바닥면을 청소하는 클리닝부(130), 청소로봇(100)의 주변 환경을 검출하는 감지부(150)를 포함한다. 이상의 구성요소들은 청소로봇(100)을 이루는 전체 구성요소들 중에서 본체(101)의 외측으로 나타나는 일부이다.
주행부(120) 및 클리닝부(130)를 비롯한 청소로봇(100)의 제반 동작을 위한 구동력은 본체(101)에 내장된 배터리(도 4의 180)에 의해 제공되며, 청소로봇(100)에는 배터리(180)의 충전을 위한 충전용 단자가 마련된다.
주행부(120)는 청소로봇(100)의 이동을 위해, 기본적으로 바닥면에 접촉하는 하나 이상의 바퀴, 이동을 위한 구동력을 생성하는 구동부로서의 모터, 모터의 구동력을 바퀴에 전달하는 링크 및 축 구조를 포함한다.
주행부(120)는 복수의 바퀴를 가지고 각 바퀴가 개별적으로 구동함으로써, 청소로봇(100)이 전진 이동, 후진 이동, 회전 이동, 제자리 이동 등 다양한 주행이 가능하게 한다. 주행부(120)에 의한 청소로봇(100)의 이동방향 및 이동속도는, 청소로봇(100) 내 프로세서(도 4의 190)로부터 모터에 전달되는 제어신호에 의해 결정된다.
일 실시예에서, 주행부(120)는 프로세서(190)의 제어신호에 의해 물리적으로 복수의 바퀴 각각의 각도를 변경하는 조향기구를 더 포함할 수 있다.
다른 실시예에서, 프로세서(190)의 제어신호를 통해 주행부(120)를 구성하는 복수의 바퀴 각각의 회전수가 제어됨으로써, 이동중인 청소로봇(100)의 주행방향 제어 즉, 조향이 용이할 수 있다.
클리닝부(130)는 바닥면에 존재하는 먼지 등의 이물질을 비산시키는 브러시, 비산되는 이물질을 흡입하는 흡입모듈, 흡입되는 이물질을 저장하는 저장탱크 등을 포함한다. 클리닝부(130)는 주행부(120)에 의해 청소로봇(100)이 이동할 때 또는 청소로봇(100)이 정지해 있을 때에 동작함으로써, 바닥면을 청소한다.
감지부(150)는 주변 환경을 파악할 수 있는 적어도 하나의 센서를 포함한다. 감지부(150)는 이동 중이거나 청소 중인 청소로봇(100)의 주변 환경을 검출할 수 있도록 마련된다. 본 발명 일 실시예에서, 감지부(150)는 센서의 감지결과에 기초하여 청소로봇(100)의 위치를 인식할 수 있는 위치인식모듈이 된다.
감지부(150)의 센서는, 카메라에 마련된 이미지센서와, 라이더(LiDAR) 센서, 3D 센서, 지자기 센서, 적외선(IR, infrared ray) 센서, 초음파 센서, 레이저 센서(laser sensor), 레이더 센서(radar sensor), PSD(position sensitive detector) 센서 등의 위치인식센서를 포함한다.
일 실시예에서, 위치인식센서는 전파를 이용하여 거리를 측정하고 물체를 감지할 수 있다. 감지부(150)는 위치인식센서를 통해 전방을 향해 감지신호를 송출하고 그 반사신호를 수신하며, 수신된 반사신호를 이용하여 장애물을 포함한 주변 환경을 검출할 수 있다. 위치인식센서에서 사용하는 감지신호는 그 주파수 대역이 한정되지 않으며, 넓은 주파수 대역에 에너지가 분포되는 형태의 스펙트럼을 가질 수 있다. 일례로서, 감지신호는 초광대역(UWB, ultra-wideband) RF 신호로 구현되어, 상대적으로 좁은 대역의 다른 신호(GPS, 블루투스, 지그비, WLAN 등)와의 간섭을 최소화할 수 있다.
이미지센서는 청소로봇(100)의 주위 환경의 모습을 촬상 또는 캡쳐하여 이미지를 생성한다.
본체(101)에서 카메라가 설치되는 위치는 한정되지 않으며, 일 실시예에서 카메라는 청소로봇(100)의 이동방향인 청소로봇(100)의 전방을 캡쳐할 수 있도록 본체(101)의 전방부 또는 상측에 설치된다. 일 실시예에서 청소로봇(100)에는 복수의 카메라가 마련될 수 있다.
카메라는 촬상된 이미지가 투과되는 렌즈 및 이미지센서를 포함한다. 이미지센서는 CMOS(Complementary Metal-Oxide Semiconductor) 센서 또는 CCD(Charge Coupled Device) 센서가 적용될 수 있으며, 청소로봇(100) 전방의 모습을 캡쳐하고, 캡쳐 결과를 디지털 이미지로 생성한다.
카메라에는 주위 환경을 보다 넓은 범위로 캡쳐하거나 또는 보다 정밀한 이미지로 캡쳐하기 위해, 다양한 종류의 광학렌즈가 마련될 수 있다.
일 실시예에서 카메라에는 소정의 위치에서도 주변의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈가 사용된다. 또한, 카메라가 상방으로 설치되어, 천장의 모든 영역이 촬영될 수 있도록 한다. 청소로봇(100)은 이렇게 천장을 촬영한 영상데이터를 근거로 자체적으로 위치를 인식하거나, 청소영역에 대한 지도 즉, 맵(map)을 생성할 수 있다. 또한, 기생성된 맵이 영상데이터를 이용하여 수정될 수 있으며, 다른 청소로봇에서 촬영된 영상데이터를 이용하여 전체 청소영역에 대한 통합된 맵을 생성할 수도 있다.
일 실시예에서 감지부(150)의 위치인식센서는 청소로봇(100)의 이동방향에 위치된 장애물을 검출할 수 있도록 본체(101)의 전방부 또는 상측에 설치된다. 일 실시예에서 위치인식센서는 복수로 마련되며, 예를 들어 본체(101)의 전방부 상측 또는 하측에 복수의 센서가 직렬 배열된 형태로 설치될 수 있다. 복수의 센서는 순차적으로 감지신호를 송출하고, 그에 따른 반사신호를 순차적으로 수신할 수 있다.
본 발명 실시예에 따른 청소로봇(100)은 감지부(150)를 통해 획득된 데이터를 자체적으로 맵을 생성 또는 수정하는데 활용할 수 있다.
그 외에도 청소로봇(100)은 다양한 구성을 추가로 가질 수 있는 바, 예를 들면 본체(101)에 설치되어, 사용자 입력을 수신하고 청소로봇(100)의 상태(status) 정보를 표시하는 사용자 인터페이스부(160)를 더 포함할 수 있다.
일 실시예에서 사용자 인터페이스부(160)는 청소로봇(100)의 전원의 턴온 및 턴오프를 위한 전원버튼, 청소로봇(100)의 동작의 기동 및 정지를 위한 동작 토글 버튼, 청소로봇(100)을 충전 스테이션(200)으로 복귀시키는 복귀 버튼 등의 입력 버튼 구조, 청소로봇(100)의 현재 상태 및 사용자 지시에 따른 상태를 표시하는 디스플레이부를 포함할 수 있다.
일 실시예에서 사용자 인터페이스부(160)는 사용자로부터 발화된 음성/사운드를 수신하는 음성입력부를 더 포함할 수 있다. 음성입력부는 음성신호를 수신하는 마이크로폰(microphone)으로 구현될 수 있다.
충전장치(200)는 청소로봇(100)의 사용 환경 내 일 위치에 고정 설치되며, 외부 전원이 접속된다. 일 실시예에서, 충전장치(200)는 어느 하나의 개별 청소영역의 소정 위치에 설치된다.
충전장치(200)는 기본적으로 청소로봇(100)이 도킹되어 있을 때에 청소로봇(100)의 배터리를 충전시키며, 그 외에도 청소로봇(100)의 다양한 메인테넌스(maintenance) 동작을 수행할 수 있다.
충전장치(200)는, 도 3에 도시된 바와 같이, 외형을 구성하고 제반 구성이 설치되는 본체(201), 청소로봇(100)에 마련된 충전용 단자에 연결 가능한 충전용 커넥터(210)를 포함한다.
그 외에도 충전장치(200)는 다양한 구성을 추가로 가질 수 있는 바, 예를 들면 내부에 설치되어 외부전원(AC)을 변환하여 충전용 커넥터(210)를 통해 청소로봇(100)의 배터리(180)에 충전전원(DC)으로 공급되도록 하는 전원제어회로를 더 포함할 수 있다.
일 실시예에서 청소로봇(100)은 청소수행의 시작위치가 고정될 수 있다. 예를 들어, 청소로봇(100)은 충전 스테이션(200)에 도킹된 상태에서 청소명령을 수신하도록 미리 설정될 수 있으며, 이 경우 시작위치는 도킹위치로 고정된다.
다른 실시예에서 청소로봇(100)은 청소수행의 시작위치가 고정되지 않고, 유동적일 수 있다. 이 경우, 청소로봇(100)은 감지부(150)의 데이터를 근거로 자체적으로 자신의 위치를 판단하며, 그 위치를 시작위치로 하여 청소동작을 수행한다. 여기서, 청소로봇(100)은 위치 파악을 위해 미리 정해진 소정의 동작, 예를 들면 회전 등을 수행할 수 있다.
이하, 청소로봇(100)의 내부 구성들에 관해 설명한다.
도 4는 본 발명의 일 실시예에 따른 청소로봇의 구성을 도시한 블록도이다.
도 4에 도시된 바와 같이, 청소로봇(100)은 통신부(110), 주행부(120), 클리닝부(130), 감지부(150), 사용자 인터페이스부(160), 저장부(170), 배터리(180) 및 프로세서(190)를 포함한다.
주행부(120), 클리닝부(130), 감지부(150), 사용자 인터페이스부(160) 등의 구성요소들은 앞서 도 3의 실시예와 관련하여 이미 설명한 바와 같다.
통신부(110)는 협업청소 시스템(10, 11)의 다른 청소로봇과 다양한 무선 프로토콜에 기반한 무선통신을 수행하기 위한 통신회로 또는 통신칩과 같은 하드웨어를 포함한다. 통신부(110)의 지원 프로토콜에 따라서, 청소로봇(100)은 AP 에 접속함으로써 소정 네트워크를 통해 다른 청소로봇과 통신을 수행하거나, 또는 다이렉트로 다른 청소로봇과 통신을 수행한다. 통신부(110)가 지원하는 무선통신 프로토콜에는, 와이파이, 블루투스, 적외선, RF, 지그비(Zigbee), 와이파이 다이렉트, LTE 등 다양한 종류의 예시가 가능하다.
본 발명 실시예에 따른 청소로봇(100)은 통신부(110)를 통해 일 외부장치, 예를 들면 충전 스테이션(200), 단말장치(300), 또는 서버 중 적어도 하나와 더 통신을 수행할 수 있다.
저장부(170)는 데이터의 저장 또는 로딩이 수행되는 장소로서 마련된다. 저장부(170)는 시스템 전원의 인가 여부와 무관하게 데이터를 저장되는 비휘발성 메모리와, 프로세서(190)에 의해 처리되는 데이터, 예를 들어 제어프로그램이 임시로 로딩되는 휘발성 메모리를 포함한다. 비휘발성 메모리에는 플래시메모리, EPROM, HDD, SDD, ROM 등이 있으며, 휘발성 메모리에는 RAM, 버퍼 등이 있다.
본 발명 실시예에 따른 청소로봇(100)의 저장부(170)에는 청소영역에 대한 맵이 저장된다. 여기서, 저장되는 맵은 청소영역을 보여주기 위한 장애물맵(obstacle map)과, 내부적으로 저장되는 특성맵(feature map)을 포함한다. 특성맵은 청소로봇(100)이 자신의 현재 위치를 판단하는데 이용된다.
저장부(170)에는 청소, 충전, 주행 등과 관련된 청소로봇(100)의 동작을 위한 데이터 예를 들어, 제어 프로그램, 어플리케이션, 알고리즘 등이 저장될 수 있다. 본 발명 실시예에 따른 청소로봇(100)의 저장부(170)에는 다른 청소로봇과의 협업청소를 위한 알고리즘이 저장된다.
청소로봇(100)의 동작을 위한 전원을 공급하는 배터리(180)는 내부 전력이 소모되면 충전에 의한 재사용이 가능하도록 마련된다. 배터리(180)는 프로세서(190)로부터의 제어신호에 따라서 청소로봇(100)의 각 구성요소들에 대해 기 설정된 전압의 전원을 제공한다. 배터리(180)는 청소로봇(100)이 충전 스테이션(200)에 도킹되어 있는 동안에 충전 스테이션(200)의 충전커넥터(210)를 통해 제공받는 전원을 배터리(180)에 전달하기 위한 단자를 가진다.
일 실시예에서 배터리(140)에는 충전잔량을 감지하는 센서가 마련될 수 있으며, 그에 따라 프로세서(190)가 배터리의 충전잔량 정보를 확인할 수 있다.
프로세서(190)는 CPU 및 칩셋, 마이크로컨트롤러의 조합 또는 SoC로 구현된 회로이다. 프로세서(190)는 제어프로그램에 따라 청소로봇(100)에 의해 수행되는 제반 동작을 위한 연산과 지시 동작을 수행한다.
제어프로그램은, BIOS, 디바이스드라이버, 운영체계, 펌웨어, 플랫폼 또는 응용프로그램(어플리케이션) 중 적어도 하나의 형태로 구현되는 프로그램(들)을 포함할 수 있다. 일 실시예로서, 응용프로그램은, 청소로봇(100)의 제조 시에 미리 설치 또는 저장되거나, 혹은 추후 사용 시에 외부로부터 수신된 응용프로그램의 데이터에 기초하여 청소로봇(100)에 설치될 수 있다. 응용 프로그램의 데이터는, 예컨대, 어플리케이션 마켓과 같은 외부 서버로부터 청소로봇(100)으로 다운로드될 수도 있다. 이와 같은 외부 서버는, 본 발명의 컴퓨터프로그램제품의 일례이나, 이에 한정되는 것은 아니다.
본 발명 일 실시예에 따른 청소로봇(100)의 프로세서(190)는 청소로봇(100)의 움직임 즉, 이동을 제어하는 제어신호를 생성하는 내비게이션(navigation) 모듈과, 청소로봇(100)의 현재위치를 판단하도록 하는 SLAM(Simultaneous Localization and Mapping) 모듈을 포함한다.
청소로봇(100)은 내비게이션 모듈에서 생성된 제어신호에 따라 청소구역을 이동 즉, 주행하며, 그에 따라 장애물 맵이 생성된다.
SLAM 모듈은 감지부(150)를 통해 획득한 데이터에 기초하여 청소로봇(100)의 현재 위치를 판단하는 로컬라이제이션(Localization) 기능과, 특성 맵의 정보를 더 활용하여 현재 위치를 다시 판단하는 리-로컬라이제이션(Re-Localization) 기능을 지원할 수 있도록 마련된다. SLAM 모듈의 동작에 의해 특성 맵이 생성될 수 있다.
본 발명 실시예에 따른 청소로봇(100)의 프로세서(190)는 통신부(110)를 통해 다른 청소로봇과 통신을 수행하면서, 소정 청소영역에 대한 협업청소를 수행하도록 주행부(120)와 클리닝부(130)를 제어한다.
여기서, 프로세서(190)는 복수의 청소로봇(100, 101, … , 102)을 그룹핑(grapping)하고, 그룹핑된 청소로봇(100, 101, … , 102) 각각에 대해 개별 청소영역을 할당되도록 제어할 수 있다.
일 실시예에서 개별 청소영역은 프로세서(190)에 의해 그룹핑된 청소로봇(100, 101, … , 102)의 위치정보, 맵 등에 기반하여 자동으로 분할 또는 할당되거나, 인터페이스부(160)를 통한 사용자의 입력에 의해 설정될 수 있다. 여기서, 각 청소로봇(100, 101, … , 102)의 소정 위치, 예를 들면 충전 스테이션(200)의 위치로 고정되거나, 또는 그 위치가 유동적이므로 감지부(150)의 감지결과에 기초하여 식별될 수 있다.
다른 실시예에서, 개별 청소영역은 단말장치(300)나 서버 등에 의해 설정되어 통신부(110)를 통해 대응되는 청소로봇(100, 101, … , 102) 각각으로 수신될 수 있다. 사용자는 단말장치(300)에 표시된 맵을 이용하거나, 또는 표시된 사용자 인터페이스(UI, user interface, 이하 GUI(graphic user interface) 라고도 한다)를 통해 소정 설정값을 입력하는 방식으로, 청소로봇(100, 101, … , 102)에 개별 청소영역이 할당되도록 설정할 수 있다.
상기와 같은 본 발명 실시예에 따라 소정 청소로봇(100)의 프로세서(190)는 통신부(100)를 통하여 수신된 정보에 기초하여, 전체 청소영역에 대하여, 당해 청소로봇(100) 및 적어도 하나의 다른 청소로봇(101, 102) 각각의 현재 위치에 따라 할당된 복수의 개별 청소영역 중에서 당해 청소용 이동장치(100)에 대응하는 개별 청소영역을 결정하고, 결정된 개별 청소영역을 주행하면서 청소를 수행하도록 주행부(120) 및 클리닝부(130)를 제어하게 된다.
도 5는 본 발명 일 실시예에 따른 단말장치의 구성을 도시한 블록도이다.
단말장치(300)는 청소로봇(100, 101, … , 102)을 포함하는 타 기기와 무선으로 연결되어 제어신호를 송/수신할 수 있다. 일 실시예에서 단말장치(300)는 터치스크린을 가지고, 통신부(310)를 통해 데이터를 송수신 가능한 장치로서 정의된다. 다른 실시예에서 단말장치(300)는 마우스, 키보드, 리모컨 등의 입력장치를 통해 사용자입력을 수신하고, 통신부(310)를 통한 네트워크 통신을 수행하는 장치로서 정의된다.
단말장치(300)는, 도 5에 도시된 바와 같이, 통신부(310), 영상처리부(320), 디스플레이부(330), 사용자 인터페이스부(360), 저장부(370), 및 프로세서(390)를 포함한다.
단말장치(300)의 통신부(310)는 청소로봇(100)의 통신부(210)의 통신규격에 대응되게 마련되며, AP에 의해 구성된 소정 네트워크를 통하거나 또는 다이렉트로 복수의 청소로봇(100, 101, … , 102)과 통신을 수행한다.
일 실시예에서 통신부(310)는 이동통신부를 더 포함하며, 이동통신부는 프로세서(390)의 제어에 따라 하나 또는 둘 이상의 안테나를 이용하여 외부장치와 연결할 수 있다. 이동통신부는 단말장치(300)와 연결 가능한 전화번호를 가지는 휴대폰, 스마트폰, 태블릿 또는 다른 단말장치(휴대장치)와 음성통화, 화상통화, 문자메시지(SMS), 멀티미디어이미지(MMS) 및 데이터 통신을 위한 무선신호를 송수신한다.
영상처리부(320)는 방송통신유닛, 오디오재생유닛 또는 동영상재생유닛을 포함할 수 있다. 방송통신유닛은 프로세서(390)의 제어에 따라, 방송통신안테나를 통해 외부의 방송국에서부터 송출되는 방송신호를 수신할 수 있다. 또한, 영상처리부(320)는 수신된 방송신호 및 방송 부가정보를 비디오 코덱유닛(codec unit) 및/또는 오디오 코덱유닛을 이용하여 디스플레이부(330) 및/또는 스피커에서 재생 가능하도록 처리할 수 있다.
디스플레이부(330)는 영상처리부(320)에 의해 처리되는 영상신호에 기초하여 영상을 표시한다. 디스플레이부(330)의 구현 방식은 한정되지 않으며, 예를 들면 액정(liquid crystal), 플라즈마(plasma), 발광 다이오드(light-emitting diode), 유기발광 다이오드(organic light-emitting diode), 면전도 전자총(surface-conduction electron-emitter), 탄소 나노 튜브(carbon nano-tube), 나노 크리스탈(nano-crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있다. 디스플레이부(330)는 그 구현 방식에 따라 구동부와 같은 부가적인 구성을 더 포함할 수 있다.
디스플레이부(330)는 사용자 인터페이스(UI)로서 단말장치(300)의 메뉴항목을 포함하는 오브젝트(object, (100, 101, … , 102), 예를 들어 메뉴, 텍스트, 이미지, 비디오, 도형, 아이콘 및 단축아이콘)를 표시할 수 있다. 일 실시예에서 오브젝트는 단말장치(300)의 초기화면에 표시되며, 청소로봇의 제어를 위한 어플리케이션에 대응하는 청소로봇 아이콘(도 2의 301)을 포함한다.
사용자는 디스플레이부(330)에 표시된 오브젝트를 손가락과 같은 사용자의 신체 또는 스타일러스트, 포인팅 디바이스, 마우스와 같은 입력장치로 선택하는 방식으로 사용자 입력을 할 수 있다.
도 5의 실시예에 따른 단말장치(300)에서는, 물리적인 버튼, 터치스크린에 표시되는 키패드, 사용자의 터치입력이 가능한 별도의 입력장치(스타일러스, 포인팅 디바이스 등) 또는 단말장치에 연결 가능한 입력장치(마우스, 키보드 등), 사용자 음성/사운드를 수신 가능한 마이크 중 적어도 하나를 포함하는 사용자 인터페이스부(360)를 정의할 수 있다.
사용자 인터페이스부(360)는 터치스크린에 대한 사용자의 신체(예를 들어, 손가락)에 의한 터치를 수신할 수 있다. 사용자 인터페이스부(360)는 터치입력을 포함한 사용자의 입력에 따라, 기 설정된 다양한 제어 커맨드 또는 정보를 프로세서(390)에 전달한다. 일 실시예에서 단말장치(300)의 사용자 인터페이스부(360)는 디스플레이부(330)에 표시된 컨텐츠에 대한 사용자의 인터랙션 즉, 제스처(gesture) 입력을 수신할 수 있다.
사용자 인터페이스부(360)는 하나 또는 둘 이상의 버튼, 마이크, 키패드 또는 입력장치 중 적어도 하나를 포함할 수 있다. 일 실시예의 단말장치(300)에서 버튼은 물리적 버튼뿐 아니라, 터치스크린에 마련되는 터치 버튼을 포함하며, 터치 버튼은 디스플레이부(330) 내에 텍스트 또는 아이콘으로 표시될 수 있다. 키패드는 단말장치(100)의 전면에 형성되는 물리적인 키패드, 디스플레이부(330)에 표시되는 가상키패드, 유선 또는 무선으로 연결 가능한 외부키패드(예를 들어, 키보드 도크(keyboard dock)) 중 적어도 하나를 포함한다.
일 실시예에서 사용자 인터페이스부(360)는 디스플레이부(330)에 표시된 맵 또는 UI에 대응하여 개별 청소영역을 설정할 수 있으며, 이렇게 설정된 개별 청소영역의 정보는 대응되는 청소로봇으로 전송된다.
저장부(370)는 단말장치(300)의 다양한 데이터를 저장하도록 구성된다. 저장부(370)는 단말장치(300)에 공급되는 전원이 차단되더라도 데이터들이 남아있어야 하며, 변동사항을 반영할 수 있도록 쓰기 가능한 비휘발성 메모리(writable ROM)로 구비될 수 있다. 즉, 저장부(370)는 플래쉬 메모리(flash memory), EPROM 또는 EEPROM 중 어느 하나로 구비될 수 있다. 저장부(370)는 단말장치(300)의 읽기 또는 쓰기 속도가 비휘발성 메모리에 비해 빠른 DRAM 또는 SRAM과 같은 휘발성 메모리(volatile memory)를 더 구비할 수 있다.
저장부(370)에 저장되는 데이터는, 예를 들면 단말장치(300)의 구동을 위한 운영체제를 비롯하여, 이 운영체제 상에서 실행 가능한 다양한 어플리케이션, 영상데이터, 부가데이터 등을 포함한다. 저장부(370)는 단말장치(300)의 제어를 위한 제어 프로그램, 제조사에서 제공되거나 서버와 같은 외부로부터 수신된 UI의 정보, UI를 제공하기 위한 이미지들, 사용자 정보 또는 관련 데이터들을 저장할 수 있다.
프로세서(390)는 단말장치(300)의 제반 구성들이 동작하기 위한 제어를 수행한다. 프로세서(390)는 이러한 제어 동작을 수행할 수 있도록 하는 적어도 하나의 프로세서로서, CPU(Central Processing Unit), AP(Application processor) 또는 마이컴(microcomputer) 중 어느 하나를 포함한다. 프로세서(390)는 제어프로그램(혹은 인스트럭션)이 설치되는 비휘발성의 메모리 즉, 롬(ROM)으로부터 제어프로그램의 적어도 일부를 휘발성의 메모리 즉 램(RAM)으로 로드하여 제어프로그램을 실행한다.
프로세서는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 프로세서는 복수의 프로세서, 예를 들어, 메인 프로세서(main processor) 및 슬립 모드(sleep mode, 예를 들어, 대기 전원만 공급되고 디스플레이장치로서 동작하지 않는)에서 동작하는 서브 프로세서(sub processor)를 포함할 수 있다. 또한, 프로세서, 롬 및 램은 내부 버스(bus)를 통해 상호 연결될 수 있다.
본 발명 일실시예에서 단말장치(300)가 데스크탑 또는 랩탑 컴퓨터로 구현되는 경우, 프로세서(390)는 그래픽 처리를 위한 GPU(Graphic Processing Unit, 도시되지 아니함)를 더 포함할 수 있다.
또한, 다른 실시예에서 단말장치(300)가 스마트폰 또는 스마트패드와 같은 모바일 디바이스나, 스마트 TV로 구현되는 경우, 프로세서(390)가 GPU를 포함할 수 있으며, 예를 들어 프로세서(390)는 코어(core)와 GPU가 결합된 SoC(System On Chip) 형태로 구현될 수 있다.
제어프로그램은, BIOS, 디바이스드라이버, 운영체계, 펌웨어, 플랫폼 및 응용프로그램(어플리케이션) 중 적어도 하나의 형태로 구현되는 프로그램(들)을 포함할 수 있다. 일 실시예로서, 응용프로그램은, 단말장치(300)의 제조 시에 미리 설치 또는 저장되거나, 혹은 추후 사용 시에 외부로부터 응용프로그램의 데이터를 수신하여 수신된 데이터에 기초하여 단말장치(300)에 설치될 수 있다. 응용 프로그램의 데이터는, 예컨대, 어플리케이션 마켓과 같은 외부 서버로부터 단말장치(300)로 다운로드될 수도 있다. 이와 같은 외부 서버는, 본 발명의 컴퓨터프로그램제품의 일례이나, 이에 한정되는 것은 아니다.
이하, 단말장치(300)를 이용하여 개별 청소영역을 설정하는 실시예를 설명한다.
도 6은 본 발명 일 실시예에 따라 청소로봇의 개별 청소영역을 설정하는 화면을 도시한 도면으로, 청소공간에 대한 맵을 이용하지 않고 개별 청소영역이 설정 가능한 UI를 포함한다.
일례로서 단말장치(300)의 디스플레이부(330)에는, 도 6(a)에 도시된 바와 같이, 그룹핑된 복수의 청소로봇(100, 101, … , 102), 예를 들어 로봇 1(Robot #1), 로봇 2(Robot #2) 및 로봇 N(Robot #N), 각각에 대하여 개별 청소영역을 설정하기 위한 설정값으로서 최대범위(Max. Range)를 입력할 수 있는 복수의 항목(601, 602, 603)이 UI로서 표시된다. 여기서, 최대범위는 각 청소로봇(100, 101, … , 102)의 위치를 중심으로 하는 반경으로서의 거리를 나타낸다. 사용자는 개별 청소영역의 최대범위에 대응하는 거리를 설정값으로 입력하고, 그에 따라 프로세서(390)에 의해 로봇 1, 로봇 2, 로봇 N 각각에 대한 개별 청소영역이 결정된다.
다른 예로서 단말장치(300)의 디스플레이부(330)에는, 도 6(b)에 도시된 바와 같이, 그룹핑된 로봇 1, 로봇 2, 로봇 N 각각에 대해 개별 청소영역을 설정하기 위한 설정값으로서 최대범위와 오프셋(offset)을 입력할 수 있는 복수의 항목(611, 612, 613, 614, 615, 616)이 UI로서 표시된다. 여기서, 최대범위는 각 청소로봇(100, 101, … , 102)의 위치를 중심으로 하는 반경으로서의 거리를 나타내며, 오프셋은 그 거리에 대해 적용 가능한 편차를 나타낸다. 프로세서(390)는 로봇 1, 로봇 2, 로봇 N 각각에 입력된 최대범위에 대응하는 거리를 반경으로 하는 개별 청소영역을 설정하되, 각각의 입력된 오프셋에 따라 그 개별 청소영역의 범위가 조정할 수 있다.
또 다른 예로서 단말장치(300)의 디스플레이부(330)에는, 도 6(c)에 도시된 바와 같이, 그룹핑된 로봇 1과 로봇 2 각각에 개별 청소영역을 설정하기 위한 설정값으로서 청소로봇들 간의 거리(distance)와 방향(orientation)을 입력할 수 있는 복수의 항목(631, 632)이 UI로서 표시된다. 프로세서(390)는 입력된 거리 및 방향에 대응하여 로봇 1과 로봇 2 각각에 대해 소정 거리를 반경으로 하는 개별 청소영역이 설정되도록 한다.
도 7은 본 발명 다른 실시예에 따라 청소로봇의 개별 청소영역을 설정하는 화면을 도시한 도면으로, 청소공간에 대한 맵을 이용하여 개별 청소영역을 설정하는 UI를 포함한다.
본 발명에서 전체 청소영역의 맵은, 도 7에 도시된 바와 같이, 미리 구분된 개별 청소영역 A00, A02, A03 로 구성되어 있는 것을 일례로 한다. 다만, 본 발명은 이에 한정되지 않으며, 전체 청소영역을 사용자 입력 등에 의해 인위적으로 구분하여, 개별 청소영역을 설정하도록 구현될 수도 있을 것이다.
일례로서, 도 7(a)에 도시된 바와 같이, 단말장치(300)의 디스플레이부(330)에는 A00, A01, A02로 이루어진 전체 청소영역의 맵이 표시된다. 여기서, 표시되는 청소영역의 맵은 적어도 하나의 청소로봇을 이용하여 미리 생성되어, 해당 청소로봇이나 서버 등으로부터 통신부(310)를 통해 단말장치(300)로 수신될 수 있다.
도 7(a)를 참조하면, 청소로봇 1(#1)(701)과 청소로봇 2(#2)(702)는 맵 내에서 각각의 충전 스테이션(200)에 도킹된 고정위치에 표시되며, 충전중임을 나타내는 메시지(705)가 더 표시될 수 있다.
사용자는 청소로봇 1(#1)과 청소로봇 2(#2) 각각에 대한 영역(703, 704)을 드래그하는 방식으로 개별 청소영역을 설정 및 조정할 수 있다. 그에 따라, 도 7(a)에서 프로세서(390)는 청소로봇 1(#1)의 개별 청소영역은 A01과 A00의 일부 영역을 포함하며, 청소로봇 2(#2)의 개별 청소영역은 A02와 A00의 일부 영역을 포함하도록 설정한다. 이렇게 개별 청소영역의 설정이 완료되고, 사용자에 의해 시작버튼(706)이 선택되면, 프로세서(390)는 통신부(110)를 통해 해당 청소로봇(#1, #2)에 각각 대응되는 개별 청소영역에 대해 청소를 수행하도록 하는 커맨드를 송신한다.
다른 예로서, 도 7(b)에 도시된 바와 같이, 단말장치(300)의 디스플레이부(330)에는 A00, A01, A02로 이루어진 청소영역의 맵이 표시되며, 청소로봇 1(#1)(711)과 청소로봇 2(#2)(712)는 맵 내에서 각각의 충전 스테이션(200)에 도킹된 고정위치에 표시되고, 충전중임을 나타내는 메시지(715)가 더 표시될 수 있다.
도 7(b)의 화면에는 청소로봇 1(#1)과 청소로봇 2(#2) 각각에 대한 개별 청소영역을 입력할 수 있는 입력창(713, 714)이 UI로서 더 표시된다. 사용자는 각 청소로봇(#1, #2)에 대응하는 입력창(713, 714)에 영역정보를 입력하는 방식으로 개별 청소영역을 설정 및 조정할 수 있다. 그에 따라, 도 7(b)에서 프로세서(390)는 청소로봇 1(#1)의 개별 청소영역은 A01과 A01을 포함하며, 청소로봇 2(#2)의 개별 청소영역은 A00의 일부 영역을 포함하도록 설정한다. 이렇게 개별 청소영역의 설정이 완료되고, 사용자에 의해 시작버튼(716)이 선택되면, 프로세서(390)는 통신부(110)를 통해 해당 청소로봇(#1, #2)에 각각 대응되는 개별 청소영역에 대해 청소를 수행하도록 하는 커맨드를 송신한다.
또 다른 예로서, 도 7(c)에 도시된 바와 같이, 단말장치(300)의 디스플레이부(330)에는 A00, A01, A02로 이루어진 청소영역의 맵이 표시되며, 청소로봇 1(#1)(721)과 청소로봇 2(#2)(722)는 맵 내에서 각각의 충전 스테이션(200)에 도킹된 고정위치에 표시되고, 충전중임을 나타내는 메시지(725)가 더 표시될 수 있다.
여기서, 도 7(c)와 같이, 청소로봇 1(#1)과 청소로봇 2(#2)에 대한 개별 청소영역이 자동설정(723)되도록 선택될 수 있으며, 그에 따라, 프로세서(390)는 청소영역의 맵, 각 청소로봇(#1, #2)의 위치 등에 기반하여 자동으로 청소영역을 분할하여 개별 청소영역을 설정한다. 이렇게 개별 청소영역의 설정이 완료되고, 사용자에 의해 시작버튼(726)이 선택되면, 프로세서(390)는 통신부(110)를 통해 해당 청소로봇(#1, #2)에 각각 대응되는 개별 청소영역에 대해 청소를 수행하도록 하는 커맨드를 송신한다. 개별 청소영역이 자동할당되는 구체적인 실시예는 후술하는 도 10에서 보다 상세하게 설명하기로 한다.
도 8과 도 9는 본 발명 또 다른 실시예에 따라 청소로봇의 개별 청소영역을 설정하는 화면을 도시한 도면으로, 청소공간에 대한 맵을 이용하여 개별 청소영역을 설정하는 UI를 포함한다.
일례로서, 도 8 및 도 9에 도시된 바와 같이, 단말장치(300)의 디스플레이부(330)에는 R1, R2, R3, R4로 이루어진 청소영역의 맵이 표시된다.
청소영역 내에 청소로봇 A와 청소로봇 B가 존재하는 경우, 사용자가, 도 8(a)에 도시된 바와 같이, 청소로봇 A, B 각각의 시작위치(801, 802)를 지정하면, 도 8(b)와 같이 청소로봇 A, B 각각의 시작위치(811, 812)가 갱신되어 표시된다. 여기서, 청소로봇 A, B 각각의 지정된 시작위치(811, 812)는 각각의 충전 스테이션(200)의 위치가 될 수 있다.
사용자는, 도 9(a)와 같이, 청소로봇 A(901)를 선택하고, 도 9(b)와 같이 선택된 청소로봇 A의 개별 청소영역에 R1(911)을 할당할 수 있다. 같은 방식으로, 사용자는 청소로봇 B(902)를 선택하고, 청소로봇 B의 개별 청소영역에 R2(912)를 할당할 수 있다. 또한, 사용자는 영역 R3, R4에도 같은 방식으로 청소로봇 A 또는 B의 개별 청소영역에 포함되도록 선택 가능하다.
이상, 도 6 내지 도 9와 관련하여 단말장치(300)의 사용자가 화면에 표시된 UI를 이용하여 복수의 청소로봇 각각에 대해 개별 청소영역을 설정하는 실시예들을 위주로 설명하였으며, 본 발명은 상기한 실시예들에 한정되지 않고, 맵을 이용하거나 또는 이용하지 않고, 자동 또는 사용자 입력에 따른 다양한 방식으로 복수의 청소로봇의 개별 청소영역이 설정될 수 있도록 구현될 것이다.
도 10은 본 발명 일 실시예에 따른 개별 청소영역의 자동설정을 설명하기 위한 도면이다.
도 10에서 설명하는 개별 청소영역의 자동설정은, 소정 청소로봇(100)의 프로세서(190) 또는 단말장치(300)의 프로세서(390) 중 적어도 하나에 의해 수행될 수 있다.
도 10에 도시된 바와 같이, 전체 청소영역이 개별 청소영역 A00(1010), A01(1011), A02(1012) 로 구성된 경우, 전체 청소영역과 각 개별 청소영역의 면적이 다음과 같을 수 있다.
전체 청소영역의 면적: 100m2
개별 청소영역의 면적: A00 50m2, A01 30m2, A02 20m2
여기서, 협업청소를 수행하는 청소로봇이 2대인 경우, 전체 청소영역의 면적을 청소로봇의 대수로 나눠서, 아래와 같이 경우의 수에 따라 개별 청소영역을 할당하고, 할당된 영역들 간의 크기 차이를 비교한다.
A00: 50, A01+A02: 50, 차이 0
A00+A01: 80, A02: 20, 차이 60
A00+A02: 70, A012: 30, 차이 40
그리고, 영역 할당에 따른 크기 차이가 가장 작은 케이스 즉, A00: 50, A01+A02: 50을 선택하여, A00에 어느 하나의 청소로봇(1001)을, A01+A02에 다른 하나의 청소로봇(1002)을 할당하는 방식으로, 복수의 청소로봇에 대한 개별 청소영역이 결정되게 된다.
도 10에서는, 전체 청소영역에 A00, A01, A02와 같이 미리 나누어진 개별 청소영역이 존재하는 경우를 예로 들어 설명하였으나, 본 발명은 미리 나누어진 영역이 없는 경우도 자동 영역할당이 수행될 수 있다.
구체적으로, 프로세서(190, 390)는 전체 청소영역의 면적을 계산하고, 상하/좌우를 기준선으로 하여 청소로봇의 대수에 따라 각 청소로봇의 개별 청소영역의 평균 면적이 동일하도록 전체 청소영역을 분할 및 분할된 영역을 개별 청소영역이 되도록 결정할 수 있다.
또한, 상기한 두 가지 방법을 혼재하여 사용할 수도 있는데, 예를 들면 방(room)의 경우, 각 방을 미리 구분된 개별 청소영역으로 판단하여 각 방에 청소로봇을 할당한다. 또한, 거실(living room)은 그 영역을 청소로봇의 대수에 따라 면적이 동일하도록 분할하여 분할된 각 영역에 청소로봇을 할당할 수 있다.
예를 들어, 도 12의 A00(1010)는 거실이고, A01(1011)과 A02(1012)는 방이라고 가정하면, A01(1011)에는 청소로봇 1(1001), A02(1012)에는 청소로봇 2(1001)가 할당되며, A00(1010)는 면적이 각각 25m2가 되도록 분할하여, 청소로봇 1과 2가 나누어 청소하도록 각각 할당할 수 있을 것이다.
여기서, 프로세서(190, 390)는 각 청소로봇과 개별 청소영역 간의 거리를 고려하여, 이동 거리가 최소화되도록 개별 청소영역에 청소로봇을 할당하도록 제어할 수 있다.
이하, 본 발명에 따른 협업청소 시스템(10, 11)에서 복수의 청소로봇(100, 101, … , 102)이 협업청소를 수행하는 다양한 실시예들에 대해 설명한다.
본 발명에서 협업청소를 수행하는 실시예들은 복수의 청소로봇을 그룹핑하고, 그룹핑된 청소로봇 각각에 대해 개별 청소영역을 할당하여, 각 청소로봇이 할당된 개별 청소영역에 대한 청소를 수행하는 점에서 공통되며, 개별 청소영역을 할당하거나, 또는 할당된 각 개별 청소영역에서 청소를 수행하는 과정에 있어 아래 표 1과 같이 구분될 수 있다.
특징 맵 활용 여부 시작위치 고정 여부 실시간 맵 공유 여부 우선순위 설정여부
제1 실시예 청소로봇의 고정된 위치를 중심으로 개별 청소영역 설정하여 협업청소를 수행 비활용 고정 비공유 비설정
제2 실시예 청소로봇의 위치가 고정된 맵을 활용하여 개별 청소영역 설정하여 협업청소를 수행 활용 고정 비공유 비설정/설정가능
제3 실시예 청소로봇의 위치가 유동적인 맵을 활용하여 개별 청소영역 설정하여 협업청소를 수행 활용 비고정 비공유 비설정/설정가능
제4 실시예 각 청소로봇이 맵을 실시간 공유하여 개별 청소영역을 추가 설정하여 협업청소를 수행 비활용 비고정 공유 비설정
제5 실시예 청소로봇에 우선순위를 부여하여 개별 청소영역을 설정하고 협업청소를 수행 활용 고정/비고정 비공유 설정
<제1 실시예>
제1 실시예에서는 복수의 청소로봇의 위치가 각각의 충전 스테이션의 위치로 고정되며, 그 고정된 위치를 중심으로 각 청소로봇에 대한 개별 청소영역이 설정된다.
제1 실시예에서, 각 청소로봇의 개별 청소영역은 맵을 이용하지 않고 설정되는데, 예를 들면, 도 6에서 설명한 바와 같이, 콘솔(console) 즉, 단말장치(300)를 이용하여 설정될 수 있다. 여기서, 사용자는 도 6(a)와 같이 소정 청소로봇의 고정된 위치를 중심으로 하는 반경으로서의 거리를 나타내는 최대범위를 설정값으로 입력할 수 있으며, 그에 대응하여 해당 청소로봇의 개별 청소영역이 결정된다. 또한, 사용자는 도 6(c)와 같이 청소로봇들 간의 거리와 방향을 설정값으로 입력할 수 있으며, 그에 대응하여 청소로봇들 각각의 개별 청소영역이 결정된다. 여기서, 결정되는 청소영역의 형상은 원형뿐 아니라, 직사각형이나, 또는 실제 청소공간에 대응하는 임의의 형상을 가질 수 있다.
다른 예로, 개별 청소영역은 단말장치(300)를 이용하지 않고 청소로봇(100) 자체의 사용자 인터페이스부(160)를 통해 설정될 수 있다. 여기서, 사용자 인터페이스부(160)를 이용한 개별 청소영역의 설정은 음성인식에 의한 설정을 포함한다.
또 다른 예로, 개별 청소영역은 사용자입력 없이 각 청소로봇에서 자동으로 설정될 수 있다. 이를 위해, 청소로봇은 감지부(150)를 통해 획득된 데이터에 기초하여 다른 청소로봇에 대한 상대위치 즉, 거리, 방향 등을 판단할 수 있으며, 이를 위해 초기 회전 등의 미리 설정된 동작을 수행하도록 주행부(120)를 제어할 수 있다. 청소로봇은 상기와 같이 판단된 상대위치에 기초하여 각 청소로봇에 대한 개별 청소영역을 설정한다.
각 청소로봇의 프로세서(190)는 이렇게 설정된 개별 청소영역을 일종의 가상벽으로 설정함으로써, 청소로봇이 청소를 수행하면서 가상벽을 통과하여 주행하지 않도록 제어한다. 또한, 각 청소로봇은 네트워크를 이용하여 상호간에 통신을 수행하면서 동시에 청소를 수행하도록 제어되며, 이 과정에서 청소의 시작과 종료, 배터리 등의 상태정보가 상호 공유될 수 있다.
상기와 같은 제1 실시예는 각 청소로봇 또는 개별 청소영역에 대해 청소수행을 위한 다양한 추가설정이 가능하도록 구현된다.
먼저, 청소로봇이 다른 청소로봇에 대한 상대위치에 따라 자동으로 개별 청소영역이 설정된 경우, 그 상대위치를 고려하여 복수의 청소로봇 각각의 청소방향이 추가 설정될 수 있다. 즉, 두 청소로봇의 상대위치로서 그 거리가 소정 미만인 경우, 두 청소로봇이 서로 반대방향으로 주행하면서 청소가 수행될 수 있는데, 예를 들면, 청소로봇 1은 좌수법, 청소로봇 2는 우수법에 따라 주행하면서 청소를 수행하도록 제어된다.
또한, 각 청소로봇에 대한 스케줄링으로서, 복수의 청소로봇 즉, 청소로봇 1과 청소로봇 2가 서로 시간차를 두고 청소를 수행하도록 설정할 수 있다. 예를 들어, 첫번째 청소 타임에는 개별 청소영역 1에 대하여 건식청소가 이루어지고 개별 청소영역 2에 대하여 습식청소가 이루어지도록 설정하며, 두번째 청소 타임에는 개별 청소영역 1에 대하여 습식청소가 이루어지고 개별 청소영역 2에 대하여 건식청소가 이루어지는 방식으로의 스케줄링이 이루어질 수 있다. 이 경우, 첫번째 청소 타임에는 건식청소기인 청소로봇 1이 개별 청소영역 1에 대해 할당되고, 습식청소기인 청소로봇 2가 개별 청소영역 2에 대해 할당된다. 또한, 두번째 청소 타임에는 습식청소기인 청소로봇 2가 개별 청소영역 1에 대해 할당되고, 건식청소기인 청소로봇 1이 개별 청소영역 2에 대해 할당될 수 있다.
또한, 어느 하나의 청소로봇이 배터리 충전 중이거나, 배터리 소진이 감지된 경우, 이를 고려하여 충전 완료 후 청소가 수행되도록 제어될 수 있다.
또한, 각 청소로봇에 대해 주행 모션이 설정 가능하며, 예를 들면 청소로봇 1은 지그재그(zigzag)로 주행하면서 청소를 수행하고, 청소로봇 2는 나선형(spiral)으로 주행하면서 청소를 수행하도록 제어될 수 있다.
<제2 실시예>
제2 실시예에서는 복수의 청소로봇의 위치 즉, 청소수행의 시작위치가 각각의 충전 스테이션의 위치로 고정되며, 그 고정된 위치를 중심으로 각 청소로봇에 대한 개별 청소영역이 설정된다.
제2 실시예에서, 각 청소로봇의 개별 청소영역은 전체 청소영역을 보여주는 맵을 이용하여 설정되는데, 예를 들면, 도 7에서 설명한 바와 같이, 콘솔(console) 즉, 단말장치(300)의 디스플레이부(330)에 표시된 맵에 대한 사용자 제스처 등을 이용하여 설정될 수 있다. 여기서, 표시되는 청소영역의 맵은 적어도 하나의 청소로봇에 의해 생성되어, 통신부(310)를 통해 단말장치(300)로 전달되는 것을 일례로 한다. 다른 예로, 청소영역의 맵은 실측위치가 반영되어 서버 등으로부터 수신될 수 있다.
청소영역을 보여주는 맵은 그 생성과정에서 각 청소로봇의 시작위치가 맵핑될 수 있다. 이를 위해, 복수의 청소로봇은 각 충전 스테이션으로 도킹 및 충전 스테이션과의 근거리 통신으로 시작위치가 맵핑되도록 제어될 수 있다. 맵에는 이 충전 스테이션의 위치가 시작위치로서 입력된다.
상기와 같이 생성 또는 입력/수신되는 맵은 네트워크를 통해 단말장치(300)로 전달되어 그 디스플레이부(330)를 통해 표시된다.
사용자는, 도 7의 (a) 또는 (b)에서 설명한 바와 같이, 소정 청소로봇을 중심으로 한 반경을 나타내는 거리를 텍스트로 입력하거나, 드래그를 이용한 드로잉 등의 방식으로 개별 청소영역을 설정할 수 있다. 또한, 도 7(c)에서 설명한 바와 같이, 사용자입력 없이 청소로봇의 시작위치를 고려하여 최소시간으로 청소가 가능하도록 개별 청소영역이 자동으로 설정되도록 할 수 있다.
각 청소로봇의 프로세서(190)는 이렇게 설정된 개별 청소영역을 일종의 가상벽으로 설정함으로써, 청소로봇이 청소를 수행하면서 가상벽을 통과하여 주행하지 않도록 제어한다. 또한, 각 청소로봇은 네트워크를 이용하여 상호간에 통신을 수행하면서 동시에 청소를 수행하도록 제어되며, 이 과정에서 청소의 시작과 종료, 배터리 등의 상태정보가 상호 공유될 수 있다.
상기와 같은 제2 실시예는 각 청소로봇 또는 개별 청소영역에 대해 청소수행을 위한 다양한 추가설정이 가능하도록 구현된다.
먼저, 2대 이상의 청소로봇이 소정 청소영역에 대해 중복으로 설정될 수 있다. 이 경우, 어느 하나의 청소로봇이 다른 청소로봇에 대해 우선순위를 가지도록 설정될 수 있다. 우선순위가 설정된 케이스는 후술하는 제5 실시예에서 보다 상세하게 설명하기로 한다.
또한, 각 청소로봇에 대한 스케줄링으로서, 복수의 청소로봇 즉, 청소로봇 1과 청소로봇 2가 서로 시간차를 두고 청소를 수행하도록 설정할 수 있다. 예를 들어, 첫번째 청소 타임에는 개별 청소영역 1에 대하여 건식청소가 이루어지고 개별 청소영역 2에 대하여 습식청소가 이루어지도록 설정하며, 두번째 청소 타임에는 개별 청소영역 1에 대하여 습식청소가 이루어지고 개별 청소영역 2에 대하여 건식청소가 이루어지는 방식으로의 스케줄링이 이루어질 수 있다. 이 경우, 첫번째 청소 타임에는 건식청소기인 청소로봇 1이 개별 청소영역 1에 대해 할당되고, 습식청소기인 청소로봇 2가 개별 청소영역 2에 대해 할당된다. 또한, 두번째 청소 타임에는 습식청소기인 청소로봇 2가 개별 청소영역 1에 대해 할당되고, 건식청소기인 청소로봇 1이 개별 청소영역 2에 대해 할당될 수 있다.
또한, 어느 하나의 청소로봇이 배터리 충전 중이거나, 배터리 소진이 감지된 경우, 이를 고려하여 충전 완료 후 청소가 수행되도록 제어될 수 있다.
또한, 각 청소로봇에 대해 주행 모션이 설정 가능하며, 예를 들면 청소로봇 1은 지그재그(zigzag)로 주행하면서 청소를 수행하고, 청소로봇 2는 나선형(spiral)으로 주행하면서 청소를 수행하도록 제어될 수 있다.
<제3 실시예>
제3 실시예에서는 복수의 청소로봇의 시작위치가 고정되지 않으며, 각 청소로봇의 현재 위치를 식별하고 그 식별된 위치를 중심으로 각 청소로봇에 대한 개별 청소영역이 설정된다.
제3 실시예에서, 각 청소로봇의 개별 청소영역은 전체 청소영역을 보여주는 맵을 이용하여 설정되는데, 예를 들면, 제2 실시예와 마찬가지로 콘솔(console) 즉, 단말장치(300)의 디스플레이부(330)에 표시된 맵에 대한 사용자 제스처 등을 이용하여 설정될 수 있다. 여기서, 표시되는 청소영역의 맵은 적어도 하나의 청소로봇에 의해 생성되어, 통신부(310)를 통해 단말장치(300)로 전달되는 것을 일례로 한다. 다른 예로, 청소영역의 맵은 실측위치가 반영되어 서버 등으로부터 수신될 수 있다.
다만, 제3 실시예에서는 청소로봇의 위치가 고정되지 않으므로, 맵의 생성과정에서 청소로봇(100)의 프로세서(190)에 의해 자신의 현재 위치를 판단하는 로컬라이제이션 또는 리-로컬라이제이션이 수행되며, 그에 따른 청소로봇의 현재 위치가 맵 상에 맵핑된다.
도 11은 본 발명 일 실시예에 따라 복수의 청소로봇의 현재위치를 찾는 과정을 설명하기 위한 도면이다.
도 11(a)에 도시된 바와 같이, 전체 청소영역(1100)의 맵은 천장의 패턴(1110, 1020)을 포함하며, 이 패턴(1110, 1020) 정보는 청소로봇(110)에 구비된 감지부(150)의 이미지센서에 의한 영상데이터로부터 획득될 수 있다. 도 11(b)에 도시된 청소로봇(1101, 1002) 주변의 패턴 정보는 맵에 포함된 패턴 정보와의 비교에 따라, 도 11(c)에 도시된 바와 같이 패턴(1111, 1022)이 일치되는 위치가 청소로봇(1101, 1002)의 현재위치로서 결정된다.
상기와 같이 생성 및 청소로봇의 현재 위치가 맵핑된 맵은 네트워크를 통해 단말장치(300)로 전달되어 그 디스플레이부(330)를 통해 표시된다.
사용자는, 도 7의 (a) 또는 (b)에서 설명한 바와 같이, 청소로봇의 현재위치를 중심으로 한 반경을 나타내는 거리를 텍스트로 입력하거나, 드래그를 이용한 드로잉 등의 방식으로 개별 청소영역을 설정할 수 있다. 또한, 도 7(c)에서 설명한 바와 같이, 사용자입력 없이 청소로봇의 현재위치를 고려하여 최소시간으로 청소가 가능하도록 개별 청소영역이 자동으로 설정되도록 할 수 있다.
일 실시예에서 맵에는 자동으로 주행하며 청소를 수행하는 청소로봇뿐 아니라, 일반 청소기의 위치가 더 표시될 수 있다. 이를 위해, 일반 청소기에 감지부와 같은 위치인식이 가능한 모듈이 설치되며, 그에 따른 일반 청소기가 청소를 수행하는 청소영역이 파악될 수 있다. 또한, 일반 청소기의 청소이력이 청소로봇의 개별 청소영역 설정에 활용되거나, 또는 사용자가 일반 청소기를 이용하여 소정 청소영역을 청소 시 해당 영역에 대한 청소로봇의 청소이력이 존재하는 경우 이를 단말장치(300) 등을 통해 사용자에게 제공하여, 중복 청소가 이루어지지 않도록 제어할 수도 있다.
각 청소로봇의 프로세서(190)는 이렇게 설정된 개별 청소영역을 일종의 가상벽으로 설정함으로써, 청소로봇이 청소를 수행하면서 가상벽을 통과하여 주행하지 않도록 제어한다. 또한, 각 청소로봇은 네트워크를 이용하여 상호간에 통신을 수행하면서 동시에 청소를 수행하도록 제어되며, 이 과정에서 청소의 시작과 종료, 배터리 등의 상태정보가 상호 공유될 수 있다.
상기와 같은 제3 실시예는 각 청소로봇 또는 개별 청소영역에 대해 청소수행을 위한 다양한 추가설정이 가능하도록 구현된다.
먼저, 2대 이상의 청소로봇이 소정 청소영역에 대해 중복으로 설정될 수 있다. 이 경우, 어느 하나의 청소로봇이 다른 청소로봇에 대해 우선순위를 가지도록 설정될 수 있다. 우선순위가 설정된 케이스는 후술하는 제5 실시예에서 보다 상세하게 설명하기로 한다.
또한, 각 청소로봇에 대한 스케줄링으로서, 복수의 청소로봇 즉, 청소로봇 1과 청소로봇 2가 서로 시간차를 두고 청소를 수행하도록 설정할 수 있다. 예를 들어, 첫번째 청소 타임에는 개별 청소영역 1에 대하여 건식청소가 이루어지고 개별 청소영역 2에 대하여 습식청소가 이루어지도록 설정하며, 두번째 청소 타임에는 개별 청소영역 1에 대하여 습식청소가 이루어지고 개별 청소영역 2에 대하여 건식청소가 이루어지는 방식으로의 스케줄링이 이루어질 수 있다. 이 경우, 첫번째 청소 타임에는 건식청소기인 청소로봇 1이 개별 청소영역 1에 대해 할당되고, 습식청소기인 청소로봇 2가 개별 청소영역 2에 대해 할당된다. 또한, 두번째 청소 타임에는 습식청소기인 청소로봇 2가 개별 청소영역 1에 대해 할당되고, 건식청소기인 청소로봇 1이 개별 청소영역 2에 대해 할당될 수 있다.
또한, 어느 하나의 청소로봇이 배터리 충전 중이거나, 배터리 소진이 감지된 경우, 이를 고려하여 충전 완료 후 청소가 수행되도록 제어될 수 있다.
또한, 각 청소로봇에 대해 주행 모션이 설정 가능하며, 예를 들면 청소로봇 1은 지그재그(zigzag)로 주행하면서 청소를 수행하고, 청소로봇 2는 나선형(spiral)으로 주행하면서 청소를 수행하도록 제어될 수 있다.
<제4 실시예>
제4 실시예에서는 사전에 제공되거나 어느 하나의 청소로봇을 통해 미리 생성된 맵을 이용하지 않고, 협업청소를 수행하는 각 청소로봇에서 실시간으로 측정되는 맵을 공유하여 개별 청소영역이 설정된다.
제4 실시예에서, 소정 개별 청소영역을 청소하는 각 청소로봇에서 생성되는 맵은 상호간의 네트워킹을 통해 실시간으로 공유되는데, 각 맵에서 일치하는 영역이 발견되는 경우 맵 통합이 수행된다.
도 12은 본 발명 일 실시예에 따라 맵 통합이 이루어지는 과정을 설명하는 도면이다.
도 12의 (a)와 (b)에 도시된 바와 같이, 제1 청소로봇(1201)에서 생성된 맵(map merging)은 천장의 소정 패턴(1210)의 정보를 포함하며, 제2 청소로봇(1202)에서 생성된 맵은 천장의 소정 패턴(1211)의 정보를 포함한다.
그룹핑된 복수의 청소로봇 중 적어도 하나, 예를 들면 제1 청소로봇(1201)은 그의 통신부(120)를 통해, 제2 청소로봇(1202)에서 생성된 맵을 수신할 수 있다. 그리고, 도 12(c)에 도시된 바와 같이, 자신의 맵(제1맵)과 수신된 다른 청소로봇의 맵(제2맵)으로부터 일치되는 패턴(1212)을 식별하여, 통합된 맵을 생성하게 된다.
여기서, 각 청소로봇은 일정크기 영역을 주행하면 주행된 영역에 대하여 획득된 데이터를 활용하여 맵을 생성하도록 설정되거나, 소정 시간 주행하면 그 시간 동안 획득된 데이터를 활용하여 맵을 생성하도록 설정될 수 있다. 또한, 다른 청소로봇으로부터 소정 신호가 감지되면, 그때까지의 획득된 데이터를 다른 청소로봇으로 전송하여 맵 생성에 활용되도록 제어되거나, 그 외 소정 이벤트에 대응하는 트리거 신호가 수신되면 그때까지의 획득된 데이터를 이용하여 맵 생성이 이루어지도록 제어될 수도 있을 것이다.
제4 실시예에서는, 도 12(c)와 같은 통합된 맵을 통해 각 청소로봇의 개별 청소영역을 공유하고, 청소로봇의 할당 없이 비어있는 개별 청소영역에 대해 그룹핑된 청소로봇 중 어느 하나를 할당함으로써 협업청소가 수행되도록 제어한다. 이렇게 통합된 맵은 당해 또는 향후 협업청소 시에 모두 활용 가능하다. 여기서, 미 할당 즉 비어있는 개별 청소영역의 할당은 제1 내지 제3 실시예에서 설명한 자동할당 또는 사용자선택에 의한 할당 중 어느 하나가 적용될 수 있다.
일 실시예에서 통합된 맵에서의 영역 할당에는 자동으로 주행하며 청소를 수행하는 청소로봇뿐 아니라, 일반 청소기의 정보가 더 활용될 수 있다. 이를 위해, 일반 청소기에 감지부와 같은 위치인식이 가능한 모듈이 설치되며, 그에 따른 일반 청소기가 청소를 수행하는 청소영역이 파악될 수 있다. 또한, 일반 청소기의 청소이력이 청소로봇의 개별 청소영역 설정에 활용되거나, 또는 사용자가 일반 청소기를 이용하여 소정 청소영역을 청소 시 해당 영역에 대한 청소로봇의 청소이력이 존재하는 경우 이를 단말장치(300) 등을 통해 사용자에게 제공하여, 중복 청소가 이루어지지 않도록 제어할 수도 있다.
각 청소로봇의 프로세서(190)는 이렇게 설정된 개별 청소영역을 일종의 가상벽으로 설정함으로써, 청소로봇이 청소를 수행하면서 가상벽을 통과하여 주행하지 않도록 제어한다. 또한, 각 청소로봇은 네트워크를 이용하여 상호간에 통신을 수행하면서 동시에 청소를 수행하도록 제어되며, 이 과정에서 청소의 시작과 종료, 배터리 등의 상태정보가 상호 공유될 수 있다.
상기와 같은 제4 실시예는 각 청소로봇 또는 개별 청소영역에 대해 청소수행을 위한 다양한 추가설정이 가능하도록 구현된다.
먼저, 2대 이상의 청소로봇이 소정 청소영역에 대해 중복으로 설정될 수 있다. 이 경우, 어느 하나의 청소로봇이 다른 청소로봇에 대해 우선순위를 가지도록 설정될 수 있다. 우선순위가 설정된 케이스는 후술하는 제5 실시예에서 보다 상세하게 설명하기로 한다.
또한, 각 청소로봇에 대한 스케줄링으로서, 복수의 청소로봇 즉, 청소로봇 1과 청소로봇 2가 서로 시간차를 두고 청소를 수행하도록 설정할 수 있다. 예를 들어, 첫번째 청소 타임에는 개별 청소영역 1에 대하여 건식청소가 이루어지고 개별 청소영역 2에 대하여 습식청소가 이루어지도록 설정하며, 두번째 청소 타임에는 개별 청소영역 1에 대하여 습식청소가 이루어지고 개별 청소영역 2에 대하여 건식청소가 이루어지는 방식으로의 스케줄링이 이루어질 수 있다. 이 경우, 첫번째 청소 타임에는 건식청소기인 청소로봇 1이 개별 청소영역 1에 대해 할당되고, 습식청소기인 청소로봇 2가 개별 청소영역 2에 대해 할당된다. 또한, 두번째 청소 타임에는 습식청소기인 청소로봇 2가 개별 청소영역 1에 대해 할당되고, 건식청소기인 청소로봇 1이 개별 청소영역 2에 대해 할당될 수 있다.
또한, 소정 청소로봇에는 청소수행이 아닌 다른 역할이 부여될 수 있다. 예를 들어, 청소로봇 1은 청소를 수행하며, 청소로봇 2는 주행(exploration)을 통해 청소영역에 대한 맵 생성이 이루어지도록 제어될 수 있다.
또한, 어느 하나의 청소로봇이 배터리 충전 중이거나, 배터리 소진이 감지된 경우, 이를 고려하여 충전 완료 후 청소가 수행되도록 제어될 수 있다.
또한, 각 청소로봇에 대해 주행 모션이 설정 가능하며, 예를 들면 청소로봇 1은 지그재그(zigzag)로 주행하면서 청소를 수행하고, 청소로봇 2는 나선형(spiral)으로 주행하면서 청소를 수행하도록 제어될 수 있다.
<제5 실시예>
제5 실시예에서는 복수의 청소로봇의 위치가 각각의 충전 스테이션의 위치로 고정되거나 또는 유동적일 수 있으며, 각 청소로봇에 대하여 우선순위를 부여하여 그에 따라 개별 청소영역에 대해 청소를 수행하도록 제어된다.
도 13 내지 도 16은 본 발명 일 실시예에 따라 복수의 청소로봇에 우선순위를 부여하여 협업청소를 수행하는 과정을 설명하기 위한 도면이다.
도 13에 도시된 바와 같이, 사용자는 단말장치(300)를 이용하여 청소영역 내의 소정 청소로봇 즉, 청소로봇 A(1301)가 다른 청소로봇 B(1302)에 대하여 우선순위를 가지도록 선택할 수 있다. 도 13에서는, 청소로봇들(1301, 1302)가 충전 스테이션에 도킹된 상태에서 UI를 이용하여 우선순위를 설정하는 경우를 예로 들어 도시하였으나, 본 발명은 이에 한정되지 않는다. 예를 들면, 전술한 제3 실시예와 같이 청소로봇의 위치가 유동적인 경우에도, 복수의 청소로봇에 대해 우선순위를 설정할 수 있을 것이다.
또한, 본 발명은 청소로봇의 개수가 3대 이상인 경우에도, 각 청소로봇에 대해 순차적으로 우선순위를 가지도록 설정할 수 있다. 또한, 사용자가 우선순위를 지정하지 않은 경우, 단말장치(300)에 의해 소정 기준에 따라 자동으로 우선순위가 결정되는 경우도 본 발명에 포함된다.
제5 실시예에서, 복수의 청소로봇은 상기와 같이 설정된 우선순위에 따라 전체 청소영역에 대한 협업청소를 수행하게 된다. 여기서, 협업청소 과정은 단말장치(300)의 프로세서(390) 또는 어느 하나의 청소로봇(100)의 프로세서(190)에 의해 제어될 수 있다.
예를 들어, 도 13에서 설명한 바와 같이, 사용자는 동일한 개별 청소공간인 R1에 존재하는 청소로봇 A와 B 중에서, 청소로봇 A가 청소로봇 B에 대하여 우선순위를 가지도록 설정하고, 협업청소를 수행하도록 하는 명령을 전송할 수 있다.
이 경우, 도 14에 도시된 바와 같이, 우선순위를 갖는 청소로봇 A(1401)가 개별 청소영역 R1을 청소하고, 청소로봇 B(1402)는 가까운 다른 영역, 예를 들어 개별 청소영역 R2로 이동하여 청소를 수행하도록 제어된다. 여기서, 청소로봇 B(1402)는 R1에 가까운 영역인 R2로 이동하여 청소를 수행하도록 제어될 수 있다.
이후, 도 15(a)에 도시된 바와 같이, 청소로봇 A(1501)이 개별 청소영역 R1에 대한 청소를 완료하면, 청소로봇 B(1502)가 청소를 수행하고 있는 영역인 R2를 제외한 다른 영역, 예를 들어 개별 청소영역 R3로 이동하여 청소를 수행하도록 제어된다. 그리고, 도 15(b)에 도시된 바와 같이, 개별 청소영역 R3의 청소가 완료되면, 청소로봇 A(1501)는 R1, R2, R3를 제외한 개별 청소영역 R4로 이동하여 청소를 수행하도록 제어된다.
청소로봇 A(1501)가 개별 청소영역 R4의 청소까지 완료하면, 청소로봇 A(1501)는 도 15(b)와 같이 충전 스테이션이 위치한 시작위치 A로 복귀하거나 또는 다른 청소영역에 대한 협업청소를 수행하도록 제어될 수 있다. 여기서, 청소로봇 A(1501)는 협업청소를 수행하고 있는 청소로봇 B(1502)의 청소진행 상태에 따라, 충전 스테이션으로 복귀하거나 또는 개별 청소영역 R2를 협업청소하도록 제어된다.
구체적으로, 청소로봇 B(1602)가 개별 청소영역 R2의 50% 미만을 청소한 경우, 즉, 청소를 수행하지 못한 R2의 공간이 50% 이상 남아있으면, 도 16(a)에 도시된 바와 같이, 청소로봇 A(1601)는 R2로 이동하여 개별 청소영역 R2에 대한 협업청소를 수행하도록 제어된다.
그에 따라, 도 16(b)에 도시된 바와 같이, 청소로봇 A(1601)와 청소로봇 B(1602)는 개별 청소영역 R2를 함께 청소하는 협업청소를 수행하며, 이 과정에서 두 청소로봇(1601, 1602)가 청소를 수행하는 공간이 일부 오버랩(overlap)될 수 있다. 여기서, 오버랩되는 공간은 개별 청소영역 R2의 10% 미미만이 되도록 제어될 수 있다.
다른 예로서, 청소로봇 B(1602)가 개별 청소영역 R2에서 청소를 수행하지 못한 R2의 공간이 50% 미만인 경우, 청소로봇 A(1601)는 도 15(b)에서 설명한 바와 같이 바로 충전 스테이션으로 복귀할 수 있다.
상기와 같은 제5 실시예에서는 청소로봇들 간에 우선순위를 부여하여 우선순위를 갖는 청소로봇이 다른 청소로봇보다 소정 개별 청소영역에 우선 할당되어 청소를 수행하도록 제어되며, 청소로봇이 할당된 개별 청소영역의 청소가 완료되면, 청소가 완료되지 않은 다른 개별 청소영역으로 이동하여 청소를 수행하도록 제어된다. 또한, 다른 청소로봇이 할당된 공간의 청소상태에 따라 2 이상의 청소로봇이 동일한 개별 청소영역을 동시에 청소를 수행하는 방식의 협업청소도 가능하도록 제어된다.
이하, 본 발명 실시예들에 따른 복수의 청소로봇에 의한 협업청소 제어방법에 관해 도면을 참조하여 설명한다.
도 17은 본 발명 일 실시예에 따른 협업청소 제어방법을 도시한 흐름도이다.
도 17에 도시된 바와 같이, 본 발명 실시예에서는 협업청소를 수행 가능하도록 복수의 청소로봇(100, 101, … , 102)을 그룹핑한다(S1701). 여기서, 그룹핑은 상호 통신 가능한 복수의 청소로봇들 간에 이루어진다.
단계 S1701에서 그룹핑된 복수의 청소로봇(100, 101, … , 102)에 대하여는 개별 청소영역이 할당된다(S1703). 여기서, 개별 청소영역은 복수의 청소로봇(100, 101, … , 102)과 통신 가능한 단말장치(300)를 통한 사용자입력에 의해 수행되거나, 각 청소로봇(100, 101, … , 102)의 현재 위치정보에 기반하여 자동으로 이루어질 수 있다. 또한, 각 청소로봇(100, 101, … , 102)의 위치는 충전 스테이션의 위치로 고정되거나, 또는 유동적일 수 있다. 청소로봇의 위치가 유동적인 경우, 청소로봇 내의 프로세서(190)에 의해 자신의 현재 위치를 판단할 수 있으며, 이 과정에서 감지부(150)에 의해 획득된 데이터에 근거하여 생성된 맵이 이용 가능하다. 맵을 이용하는 경우, 복수의 청소로봇의 현재 위치가 맵 상에 맵핑된다.
사용자는 단말장치(300) 또는 어느 하나의 청소로봇에 마련된 사용자 인터페이스(160) 등을 이용하여 협업청소를 수행하도록 하는 명령을 입력할 수 있으며, 그에 응답하여 복수의 청소로봇(100, 101, … , 102)은 단계 S1703에서 할당된 개별 청소영역을 주행하면서 협업청소를 수행한다(S1705). 여기서, 복수의 청소로봇(100, 101, … , 102)은 상호간에 우선순위를 가지도록 미리 설정될 수 있으며, 소정 개별 청소영역에 대하여 우선순위를 갖는 청소로봇이 청소를 수행하도록 제어될 수 있다. 이러한 우선순위는 단말장치(300) 또는 소정 청소로봇의 사용자 인터페이스(160)를 이용하여 사용자가 설정하거나, 자동으로 설정될 수 있다. 또한, 자신에게 할당된 개별 청소영역의 청소가 완료된 청소로봇은, 청소가 완료되지 않은 다른 공간으로 이동하여 청소를 수행할 수 있으며, 이 과정에서 다른 청소로봇에 할당된 공간을 함께 협업하여 일부 공간이 2 이상의 청소로봇에 의해 오버랩되게 청소를 수행할 수 있다.
상기와 같은 본 발명의 다양한 실시예에 따르면, 본 발명은 복수의 청소로봇이 그 위치정보에 기반하여 개별 청소영역이 할당되고, 그 할당된 영역들에 대한 협업청소를 수행하도록 제어됨으로써, 전체 청소시간을 단축하고 효율적으로 청소를 수행할 수 있다.
이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시될 수 있다.

Claims (15)

  1. 청소용 이동장치에 있어서,
    청소를 수행하는 클리닝부;
    상기 청소용 이동장치를 이동시키는 주행부;
    외부장치와 통신 가능한 통신부;
    상기 통신부를 통하여 수신된 정보에 기초하여, 전체 청소영역에 대하여, 상기 청소용 이동장치 및 적어도 하나의 다른 청소용 이동장치 각각의 현재 위치에 따라 할당된 복수의 개별 청소영역 중에서 상기 청소용 이동장치에 대응하는 개별 청소영역을 결정하고, 상기 결정된 개별 청소영역을 주행하면서 청소를 수행하도록 상기 주행부 및 상기 클리닝부를 제어하는 프로세서를 포함하는 청소용 이동장치.
  2. 제1항에 있어서,
    상기 청소용 이동장치 및 적어도 하나의 다른 청소용 이동장치 각각의 현재 위치는 충전 스테이션의 위치에 대응하는 청소용 이동장치.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 청소용 이동장치의 주변 환경을 검출하는 감지부에 의해 획득된 데이터에 기초하여 상기 청소용 이동장치의 현재위치를 판단하는 청소용 이동장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 전체 청소영역을 포함하는 맵 상에 상기 청소용 이동장치 및 상기 적어도 하나의 다른 청소용 이동장치의 현재 위치를 맵핑하고, 상기 맵핑된 현재 위치에 따라 상기 복수의 개별 청소영역이 할당되도록 제어하는 청소용 이동장치.
  5. 제4항에 있어서,
    상기 프로세서는, 상기 청소용 이동장치의 주변 환경을 검출하는 감지부에 의해 획득된 데이터에 기초하여 제1맵을 생성하고, 상기 생성된 제1맵 상에 상기 청소용 이동장치 및 상기 적어도 하나의 다른 청소용 이동장치의 현재 위치를 맵핑하는 청소용 이동장치.
  6. 제5항에 있어서,
    상기 프로세서는,
    상기 적어도 하나의 다른 청소용 이동장치로부터 대응되는 개별 청소영역을 포함하는 제2맵을 수신하고, 상기 수신된 제2맵과 상기 제1맵을 통합하여 통합 맵을 생성하고,
    상기 통합 맵을 이용하여 상기 복수의 개별 청소영역이 할당되도록 제어하는 청소용 이동장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 결정된 개별 청소영역에 대한 청소가 완료되면, 상기 청소용 이동장치가 다른 개별 청소영역으로 이동하여 청소를 수행하도록 상기 주행부를 제어하는 청소용 이동장치.
  8. 협업청소 시스템에 있어서,
    복수의 청소용 이동장치; 및
    단말장치를 포함하며,
    상기 단말장치는,
    상기 복수의 청소용 이동장치와 통신 가능한 통신부; 및
    상기 통신부를 통하여 수신된 정보에 기초하여, 전체 청소영역에 대하여, 상기 복수의 청소용 이동장치 각각의 현재 위치에 따라 복수의 개별 청소영역을 할당하고, 상기 복수의 청소용 이동장치 각각에 상기 할당된 개별 청소영역에 대해 청소를 수행하도록 하는 커맨드가 상기 통신부를 통해 송신되도록 제어하는 프로세서를 포함하는 협업청소 시스템.
  9. 제8항에 있어서,
    상기 단말장치는,
    사용자 인터페이스(UI)가 표시되는 디스플레이부를 더 포함하고,
    상기 프로세서는, 상기 UI에 대한 사용자입력에 대응하여 상기 복수의 청소용 이동장치 각각에 상기 복수의 개별 청소영역이 할당되도록 제어하는 협업청소 시스템.
  10. 제9항에 있어서,
    상기 UI는 상기 복수의 청소용 이동장치 각각에 대해 상기 개별 청소영역이 할당되도록 하는 설정값이 입력 가능한 복수의 항목을 포함하는 협업청소 시스템.
  11. 제9항에 있어서,
    상기 프로세서는,
    상기 전체 청소영역에 대한 맵을 상기 디스플레이부에 표시하고, 상기 표시된 맵에 대한 사용자입력에 따라 상기 복수의 청소용 이동장치 각각에 상기 복수의 개별 청소영역이 할당되도록 제어하는 협업청소 시스템.
  12. 제11항에 있어서,
    상기 프로세서는,
    적어도 하나의 청소용 이동장치로부터 상기 통신부를 통해 수신된 데이터에 기초하여 상기 전체 청소영역의 맵을 생성하도록 제어하는 협업청소 시스템.
  13. 제12항에 있어서,
    상기 프로세서는,
    상기 통신부를 통해 상기 복수의 청소용 이동장치로부터 위치정보를 수신하고, 상기 수신된 위치정보를 상기 맵 상에 맵핑하여 표시하도록 상기 디스플레이부를 제어하는 협업청소 시스템.
  14. 제9항에 있어서,
    상기 디스플레이부에는 상기 복수의 청소로봇에 대하여 우선순위가 설정되도록 하는 UI가 더 표시되며,
    상기 프로세서는,
    상기 UI를 통해 설정된 우선순위 정보를 상기 통신부를 통해 대응되는 청소용 이동장치로 송신하는 협업청소 시스템.
  15. 복수의 청소용 이동장치에 의한 협업청소 제어방법에 있어서,
    상호 통신 가능한 복수의 청소용 이동장치 각각에 대해 현재 위치에 기초하여 복수의 개별 청소영역을 할당하는 단계; 및
    상기 복수의 청소용 이동장치가 상기 할당된 개별 청소영역을 주행하면서 청소를 수행하는 단계를 포함하는 협업청소 제어방법.
PCT/KR2018/016258 2018-01-03 2018-12-19 청소용 이동장치, 협업청소 시스템 및 그 제어방법 WO2019135518A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/959,485 US11707175B2 (en) 2018-01-03 2018-12-19 Moving apparatus for cleaning, collaborative cleaning system, and method of controlling the same
CN201880084910.9A CN111565896B (zh) 2018-01-03 2018-12-19 用于清洁的移动装置、协作清洁***及其控制方法
EP18898202.9A EP3718704B1 (en) 2018-01-03 2018-12-19 Moving device for cleaning, cooperative cleaning system and method for controlling same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0000917 2018-01-03
KR1020180000917A KR102489806B1 (ko) 2018-01-03 2018-01-03 청소용 이동장치, 협업청소 시스템 및 그 제어방법

Publications (1)

Publication Number Publication Date
WO2019135518A1 true WO2019135518A1 (ko) 2019-07-11

Family

ID=67143679

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/016258 WO2019135518A1 (ko) 2018-01-03 2018-12-19 청소용 이동장치, 협업청소 시스템 및 그 제어방법

Country Status (5)

Country Link
US (1) US11707175B2 (ko)
EP (1) EP3718704B1 (ko)
KR (1) KR102489806B1 (ko)
CN (1) CN111565896B (ko)
WO (1) WO2019135518A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111813111A (zh) * 2020-06-29 2020-10-23 佛山科学技术学院 一种多机器人协同工作方法
EP3974932A1 (de) * 2020-09-24 2022-03-30 Robert Bosch GmbH Robotersystem und verfahren zur steuerung eines angetrieben bewegbaren roboters eines robotersystems
US11656082B1 (en) * 2017-10-17 2023-05-23 AI Incorporated Method for constructing a map while performing work

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105446350B (zh) * 2014-09-26 2018-05-29 科沃斯机器人股份有限公司 自移动机器人移动界限划定方法
KR102015498B1 (ko) * 2018-06-27 2019-10-23 엘지전자 주식회사 복수의 자율주행 청소기 및 그 제어방법
KR102298582B1 (ko) * 2019-07-12 2021-09-08 엘지전자 주식회사 센서 데이터를 이용하여 청소 동선을 결정하는 인공 지능 로봇 및 그 방법
CN112493924B (zh) * 2019-08-26 2023-03-10 苏州宝时得电动工具有限公司 清洁机器人及其控制方法
DE102019131583A1 (de) * 2019-11-22 2021-05-27 Vorwerk & Co. Interholding Gmbh System mit mindestens zwei sich selbsttätig fortbewegenden Bodenbearbeitungsgeräten sowie Verfahren zum Betrieb eines Systems
KR20210073032A (ko) * 2019-12-10 2021-06-18 엘지전자 주식회사 충전 장치
EP4118632A4 (en) * 2020-03-13 2024-02-21 Brain Corporation SYSTEMS AND METHODS FOR ROUTE SYNCHRONIZATION FOR ROBOTIC DEVICES
KR102390040B1 (ko) * 2020-05-08 2022-04-25 엘지전자 주식회사 로봇 청소기 및 그 제어 방법
US12007775B2 (en) 2020-06-02 2024-06-11 Daegu Gyeongbuk Institute Of Science And Technology System for installing floor finishing materials using autonomous driving robot
KR102342189B1 (ko) * 2020-06-02 2021-12-23 재단법인대구경북과학기술원 자율주행 로봇을 이용한 바닥 마감재 설치 시스템
KR20220003682A (ko) * 2020-07-01 2022-01-11 엘지전자 주식회사 로봇 청소기와 이를 구비하는 로봇 청소기 시스템
CN112190182B (zh) * 2020-09-24 2021-07-27 广东杜尼智能机器人工程技术研究中心有限公司 一种集群式完成清扫任务的方法
KR20220047453A (ko) * 2020-10-08 2022-04-18 엘지전자 주식회사 이동 로봇 시스템
KR20220046860A (ko) * 2020-10-08 2022-04-15 엘지전자 주식회사 청소기 스테이션 및 이를 포함하는 청소기 시스템
KR102490755B1 (ko) * 2020-10-08 2023-01-25 엘지전자 주식회사 이동 로봇 시스템
KR102490754B1 (ko) * 2020-10-08 2023-01-20 엘지전자 주식회사 이동 로봇 시스템
KR102410529B1 (ko) * 2020-10-08 2022-06-20 엘지전자 주식회사 이동 로봇 시스템
CN112677154B (zh) * 2020-12-21 2022-04-12 正从科技(上海)有限公司 一种人工智能清洁机器人协同清洁方法及***
CN112631299B (zh) * 2020-12-24 2023-09-26 南京苏美达智能技术有限公司 一种多区域多台割草机控制方法
JP7436401B2 (ja) * 2021-01-18 2024-02-21 株式会社日立製作所 分散協調システム
CN113609206A (zh) * 2021-07-21 2021-11-05 车主邦(北京)科技有限公司 一种助力节能减排的地图展示方法、装置及电子设备
CN113749565B (zh) * 2021-09-23 2023-08-15 珠海一微半导体股份有限公司 一种机器人的多楼层清洁控制方法
CN113854906B (zh) * 2021-10-22 2022-07-15 广州科语机器人有限公司 多台清洁机器人协同作业的控制方法、装置及设备
DE102022202326A1 (de) * 2022-03-08 2023-09-14 BSH Hausgeräte GmbH Kooperative Bodenbearbeitung
CN114983299A (zh) * 2022-06-06 2022-09-02 深圳银星智能集团股份有限公司 多清洁机器人的维护方法、清洁机器人、基站及清洁***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235878A (ja) * 2005-02-23 2006-09-07 Matsushita Electric Works Ltd 自律移動装置
KR20120058945A (ko) * 2010-11-30 2012-06-08 이커스텍(주) 무선 네트워크기반 로봇 청소기 제어 장치 및 방법
KR20120126772A (ko) * 2011-05-12 2012-11-21 엘지전자 주식회사 청소 장치, 및 복수의 로봇 청소기를 이용한 협동 청소 방법
KR20140017216A (ko) * 2012-07-31 2014-02-11 김복수 로봇 청소 시스템
KR20150061398A (ko) * 2013-11-27 2015-06-04 한국전자통신연구원 군집 로봇의 협력 청소 방법 및 제어 장치

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6629028B2 (en) * 2000-06-29 2003-09-30 Riken Method and system of optical guidance of mobile body
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
AU767561B2 (en) * 2001-04-18 2003-11-13 Samsung Kwangju Electronics Co., Ltd. Robot cleaner, system employing the same and method for reconnecting to external recharging device
DE60301148T2 (de) 2002-01-24 2006-06-01 Irobot Corp., Burlington Verfahren und System zur Roboterlokalisierung und Beschränkung des Arbeitsbereichs
KR100483548B1 (ko) * 2002-07-26 2005-04-15 삼성광주전자 주식회사 로봇 청소기와 그 시스템 및 제어 방법
US7332890B2 (en) * 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
EP2073088B1 (en) * 2004-02-03 2011-06-15 F. Robotics Aquisitions Ltd. Robot docking station and robot for use therewith
JP2005224264A (ja) * 2004-02-10 2005-08-25 Funai Electric Co Ltd 自走式掃除機
KR100645848B1 (ko) * 2005-08-30 2006-11-14 삼성광주전자 주식회사 이동로봇 시스템 및 이동로봇 원격제어방법
US7861366B2 (en) * 2006-04-04 2011-01-04 Samsung Electronics Co., Ltd. Robot cleaner system having robot cleaner and docking station
JP4839487B2 (ja) * 2007-12-04 2011-12-21 本田技研工業株式会社 ロボット及びタスク実行システム
JP4936288B2 (ja) * 2007-12-10 2012-05-23 本田技研工業株式会社 目標経路生成システム
US8755936B2 (en) * 2008-01-28 2014-06-17 Seegrid Corporation Distributed multi-robot system
DE102008014912B4 (de) * 2008-03-19 2023-01-19 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Bodenstaub-Aufsammelgerät
KR101178847B1 (ko) * 2008-12-08 2012-08-31 한국전자통신연구원 가상공간과 연계된 다중 로봇 제어 장치 및 방법
CN102138768B (zh) * 2010-01-28 2015-07-08 深圳先进技术研究院 清洁机器人的定位方法和设备
KR101750340B1 (ko) * 2010-11-03 2017-06-26 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US9026248B1 (en) * 2011-05-06 2015-05-05 Google Inc. Methods and systems for multirobotic management
US9582000B2 (en) * 2011-09-07 2017-02-28 Lg Electronics Inc. Robot cleaner, and system and method for remotely controlling the same
JP5968627B2 (ja) * 2012-01-17 2016-08-10 シャープ株式会社 掃除機、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体
US8428777B1 (en) * 2012-02-07 2013-04-23 Google Inc. Methods and systems for distributing tasks among robotic devices
US9008839B1 (en) * 2012-02-07 2015-04-14 Google Inc. Systems and methods for allocating tasks to a plurality of robotic devices
US8830057B1 (en) * 2012-02-09 2014-09-09 Google Inc. Systems and methods for using robots to monitor environmental conditions in an environment
KR101954144B1 (ko) 2012-06-08 2019-03-05 엘지전자 주식회사 로봇 청소기와, 이의 제어 방법, 및 이를 포함한 로봇 청소 시스템
KR101309527B1 (ko) 2012-09-28 2013-09-24 군산대학교산학협력단 네트워크 유지를 위한 군집 로봇의 행동 제어 방법 및 시스템
US9538892B2 (en) * 2012-10-05 2017-01-10 Irobot Corporation Robot management systems for determining docking station pose including mobile robots and methods using same
EP2946567B1 (en) * 2013-01-18 2020-02-26 iRobot Corporation Environmental management systems including mobile robots and methods using same
KR101647757B1 (ko) 2013-04-03 2016-08-17 인덕대학교 산학협력단 군집 로봇 청소기 및 그 제어방법
GB2513912B (en) * 2013-05-10 2018-01-24 Dyson Technology Ltd Apparatus for guiding an autonomous vehicle towards a docking station
CN104162894B (zh) * 2013-05-17 2016-03-02 光宝电子(广州)有限公司 清扫机器人及清扫机器人的定位方法
KR101450843B1 (ko) 2013-05-20 2014-10-15 한국생산기술연구원 군집 로봇 시스템 및 그 제어 방법
KR102082757B1 (ko) * 2013-07-11 2020-02-28 삼성전자주식회사 청소 로봇 및 그 제어 방법
KR20150044562A (ko) 2013-10-17 2015-04-27 한국과학기술원 주종관계 협업을 위한 군집로봇 시스템 및 이를 위한 로봇
KR20150075639A (ko) 2013-12-26 2015-07-06 주식회사 라스테크 협동로봇 제어시스템
KR102158690B1 (ko) 2013-12-27 2020-10-23 엘지전자 주식회사 로봇 청소기, 로봇 청소기 시스템 및 그 제어방법
KR102158695B1 (ko) * 2014-02-12 2020-10-23 엘지전자 주식회사 로봇 청소기 및 이의 제어방법
US10537996B2 (en) 2014-05-05 2020-01-21 Georgia Tech Research Corporation Control of swarming robots
KR102306709B1 (ko) * 2014-08-19 2021-09-29 삼성전자주식회사 청소 로봇, 청소 로봇의 제어 장치, 제어 시스템, 및 제어 방법
KR20160058594A (ko) * 2014-11-17 2016-05-25 삼성전자주식회사 로봇 청소기, 단말장치 및 그 제어 방법
KR20160123613A (ko) 2015-04-16 2016-10-26 엘지전자 주식회사 로봇 청소기
KR101641022B1 (ko) 2015-06-29 2016-07-20 중앙대학교 산학협력단 이동 로봇 및 미지의 미끄러짐을 갖는 이동 로봇에서의 제어 방법
KR101605994B1 (ko) 2015-07-07 2016-03-24 중앙대학교 산학협력단 미지의 스키딩과 슬리핑을 갖는 이동 로봇을 위한 적응적 선도-추종 군집 제어 방법 및 그 장치
KR101866617B1 (ko) 2015-08-17 2018-06-12 한국과학기술원 해파리 퇴치용 군집 로봇 시스템을 효율적으로 운용하기 위한 해파리 분포 인식 방법 및 시스템
KR102521493B1 (ko) * 2015-10-27 2023-04-14 삼성전자주식회사 청소 로봇 및 그 제어방법
KR20170071443A (ko) 2015-12-15 2017-06-23 성균관대학교산학협력단 군집 로봇의 행위 기반 분산 제어 시스템 및 방법
US9777502B2 (en) 2015-12-18 2017-10-03 Amazon Technologies, Inc. Multi-level fulfillment center for unmanned aerial vehicles
US10173320B1 (en) * 2016-06-08 2019-01-08 X Development Llc Robot task optimization based on historical task and location correlated durations
CN106993987B (zh) * 2017-05-03 2022-07-15 深圳银星智能集团股份有限公司 清洁设备
CN107456162A (zh) * 2017-09-01 2017-12-12 苏州爱普电器有限公司 地面清洁机器人以及用于地面清洁机器人的控制方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235878A (ja) * 2005-02-23 2006-09-07 Matsushita Electric Works Ltd 自律移動装置
KR20120058945A (ko) * 2010-11-30 2012-06-08 이커스텍(주) 무선 네트워크기반 로봇 청소기 제어 장치 및 방법
KR20120126772A (ko) * 2011-05-12 2012-11-21 엘지전자 주식회사 청소 장치, 및 복수의 로봇 청소기를 이용한 협동 청소 방법
KR20140017216A (ko) * 2012-07-31 2014-02-11 김복수 로봇 청소 시스템
KR20150061398A (ko) * 2013-11-27 2015-06-04 한국전자통신연구원 군집 로봇의 협력 청소 방법 및 제어 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3718704A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11656082B1 (en) * 2017-10-17 2023-05-23 AI Incorporated Method for constructing a map while performing work
CN111813111A (zh) * 2020-06-29 2020-10-23 佛山科学技术学院 一种多机器人协同工作方法
CN111813111B (zh) * 2020-06-29 2024-02-20 佛山科学技术学院 一种多机器人协同工作方法
EP3974932A1 (de) * 2020-09-24 2022-03-30 Robert Bosch GmbH Robotersystem und verfahren zur steuerung eines angetrieben bewegbaren roboters eines robotersystems

Also Published As

Publication number Publication date
KR102489806B1 (ko) 2023-01-19
US20210068605A1 (en) 2021-03-11
KR20190088115A (ko) 2019-07-26
EP3718704A1 (en) 2020-10-07
CN111565896A (zh) 2020-08-21
EP3718704B1 (en) 2024-05-22
US11707175B2 (en) 2023-07-25
CN111565896B (zh) 2023-11-17
EP3718704A4 (en) 2021-03-31

Similar Documents

Publication Publication Date Title
WO2019135518A1 (ko) 청소용 이동장치, 협업청소 시스템 및 그 제어방법
AU2018239735B2 (en) Cleaner and method of controlling the same
WO2015183005A1 (en) Mobile device, robot cleaner, and method for controlling the same
WO2017171204A1 (ko) 단말장치 및 그 제어방법
WO2019240373A1 (en) Terminal apparatus and method of transmitting control command thereof
WO2019027140A1 (ko) 청소 로봇 및 그 제어방법
WO2015060672A1 (ko) 청소 로봇
WO2018066816A1 (ko) 공항용 로봇 및 그의 동작 방법
WO2022045808A1 (ko) 청소 로봇 및 그 제어 방법
WO2019143129A1 (ko) 로봇 청소기 및 그 제어 방법
WO2018070687A1 (ko) 공항 로봇 및 그를 포함하는 공항 로봇 시스템
WO2020171317A1 (en) Moving robot system comprising moving robot and charging station
WO2015023145A1 (ko) 공간 해상도가 가변되는 거리 정보를 획득할 수 있는 거리검출장치 및 이를 구비한 영상표시장치
WO2018110963A1 (en) Movable object and method for controlling the same
WO2020106088A1 (en) Moving device and object detection method thereof
WO2016204357A1 (ko) 이동 단말기 및 그 제어 방법
WO2017204517A1 (ko) 청소 로봇 및 그 제어 방법
WO2019117576A1 (ko) 이동 로봇 및 이동 로봇의 제어방법
WO2020004824A1 (en) Plurality of autonomous cleaner and controlling method for the same
WO2022092571A1 (ko) 로봇 청소기 및 그의 주행 방법
WO2017094972A1 (ko) 전자 프레임의 충전 어셈블리 및 전자 프레임의 충전 방법
WO2022240274A1 (ko) 로봇 장치, 그 제어 방법, 및 프로그램이 기록된 기록매체
WO2020080803A1 (ko) 로봇 청소기 및 그의 제어 방법
WO2020080769A1 (ko) 사용자 단말기, 이를 포함하는 청소 로봇 및 그 제어 방법
EP3935412A1 (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18898202

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018898202

Country of ref document: EP

Effective date: 20200630