WO2018043966A1 - 로봇 청소기, 단말 장치 및 그 제어 방법 - Google Patents

로봇 청소기, 단말 장치 및 그 제어 방법 Download PDF

Info

Publication number
WO2018043966A1
WO2018043966A1 PCT/KR2017/009030 KR2017009030W WO2018043966A1 WO 2018043966 A1 WO2018043966 A1 WO 2018043966A1 KR 2017009030 W KR2017009030 W KR 2017009030W WO 2018043966 A1 WO2018043966 A1 WO 2018043966A1
Authority
WO
WIPO (PCT)
Prior art keywords
cleaning
robot cleaner
information
space
terminal device
Prior art date
Application number
PCT/KR2017/009030
Other languages
English (en)
French (fr)
Inventor
안현진
김재정
신영선
임경애
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US16/327,181 priority Critical patent/US20210283773A1/en
Publication of WO2018043966A1 publication Critical patent/WO2018043966A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2857User input or output elements for control, e.g. buttons, switches or displays
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2894Details related to signal transmission in suction cleaners
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/06Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning

Definitions

  • the present disclosure relates to a robot cleaner, a terminal apparatus, and a control method thereof, and more particularly, to a robot cleaner, a terminal apparatus, and a control method capable of dividing a cleaning result of a robot cleaner into a space unit and providing the same to a user.
  • robots are developed for industrial use and are widely used in various industrial sites. Recently, the field using robots has been further expanded, and is being used not only in the medical field and the aerospace field but also in general homes.
  • a typical robot used at home is a robot cleaner.
  • the robot cleaner performs a function of cleaning by inhaling foreign substances such as dust while driving the interior space of the home by itself.
  • the robot cleaner has adopted a function of providing the user terminal device with a moving path during the cleaning process.
  • the user had to directly infer the area corresponding to the inner room on the entire movement trajectory, and further, the entire movement path was displayed at once. As a result, it was difficult to grasp the state of cleaning for each space (eg, bedroom, kitchen, etc.).
  • an object of the present disclosure is to provide a robot cleaner, a terminal device, and a control method thereof, which can divide a cleaning result of the robot cleaner into space units and provide the same to a user.
  • a terminal device connectable to a robot cleaner includes a storage unit for storing space information partitioned into a plurality of spaces, and communication for receiving cleaning result information including a cleaning path from the robot cleaner.
  • the processor may control the display unit to display the cleaning area of the robot cleaner for the space in which the cleaning operation is performed among the plurality of spaces.
  • the processor may control the display unit to display a map of the space where the cleaning operation is performed and a cleaning area on the map.
  • the processor may control the display unit to display the cleaning area of the space where the cleaning operation is performed and the moving path of the robot cleaner on the cleaning area.
  • the processor may separate the cleaning paths included in the cleaning result information for each of the plurality of spaces based on the space information, and generate a cleaning area image of the robot cleaner for each of the plurality of spaces based on the separated cleaning paths.
  • the cleaning result information may include a plurality of cleaning paths separated by a plurality of spaces, and the processor may generate a cleaning area image of the robot cleaner for each of the plurality of spaces based on the plurality of cleaning paths.
  • the communication interface unit receives map information generated by the robot cleaner from the robot cleaner, and the processor generates space information partitioned into a plurality of spaces based on the received map information and stores the map information in the storage unit. Can be.
  • the processor may control the communication interface unit such that a cleaning command for the selected space is transmitted to the robot cleaner when the at least one space of the plurality of spaces is selected by the user.
  • the processor may control the display unit such that the selected cleaning area is enlarged and displayed when one cleaning area of the displayed cleaning area is selected.
  • the robot cleaner is a driving unit for moving the robot cleaner, a suction unit for sucking dust on the bottom surface of the robot cleaner, communication for receiving spatial information partitioned into a plurality of spaces from a terminal device
  • the communication interface to move the robot cleaner and the robot cleaner to perform a cleaning operation, and to transmit cleaning result information including a cleaning path of the robot cleaner for each space based on the received space information to the terminal device; It includes a processor for controlling the wealth.
  • the processor may control the communication interface unit to transmit cleaning result information including only cleaning paths of each of the spaces in which the cleaning operation is performed, to the terminal device.
  • the robot cleaner moves to the specific space based on the received space information to perform a cleaning operation. Can be controlled.
  • the processor generates the map information according to the movement of the robot cleaner and controls the communication interface to be transmitted to the terminal device, wherein the generated map information is partitioned into a plurality of spaces. Location information of each of the plurality of spaces.
  • the communication interface may receive cleaning schedule information from the terminal device, and the processor may perform a cleaning operation according to the received cleaning schedule information.
  • control method of the terminal device connectable to the robot cleaner the step of pre-stored space information partitioned into a plurality of spaces, receiving the cleaning result information including a cleaning path from the robot cleaner And displaying a cleaning area of the robot cleaner for each of the plurality of spaces based on the received cleaning result information and the stored space information.
  • the displaying may display a cleaning area of the robot cleaner with respect to the space where the cleaning operation is performed among the plurality of spaces.
  • the displaying may include displaying a map of the space where the cleaning operation is performed and a cleaning area on the map.
  • the cleaning area of the space where the cleaning operation is performed and the movement path of the robot cleaner on the cleaning area may be displayed together.
  • control method further comprises the step of separating the cleaning path included in the cleaning result information for each of the plurality of spaces based on the space information, and based on the separated cleaning path of the plurality of spaces of the robot cleaner You can create a cleaning area image and display the newly created cleaning area image.
  • the cleaning result information may include a plurality of cleaning paths separated by a plurality of spaces, and the displaying may include generating a cleaning area image of the robot cleaner for each of the plurality of spaces based on the plurality of cleaning paths.
  • the generated cleaning area image may be displayed.
  • FIG. 1 is a block diagram showing the configuration of a cleaning system according to an embodiment of the present disclosure
  • FIG. 2 is a block diagram showing the configuration of the robot cleaner of FIG.
  • FIG. 3 is a block diagram illustrating a configuration of a terminal device of FIG. 1;
  • 4 to 10 illustrate various examples of a user interface window that may be displayed on the display of FIG. 3;
  • FIG. 11 is a flowchart illustrating a control method of a robot cleaner according to an embodiment of the present disclosure
  • FIG. 12 is a flowchart illustrating a control method of a terminal device according to an exemplary embodiment.
  • FIG. 1 is a block diagram illustrating a configuration of a cleaning system according to an embodiment of the present disclosure.
  • the cleaning system 300 includes a robot cleaner 100 and a terminal device 200.
  • the robot cleaner 100 may be driven and sucks foreign substances such as dust on the bottom surface.
  • the robot cleaner 100 performs cleaning according to a cleaning command or a cleaning schedule transmitted from the terminal device 200.
  • the robot cleaner 100 may store a moving path (or a cleaning path), generate cleaning result information including the stored moving path, and transmit the generated cleaning result information to the terminal device 200.
  • a detailed configuration of the robot cleaner 100 will be described later with reference to FIG. 2.
  • the terminal device 200 may generate a cleaning schedule and provide the generated cleaning schedule to the robot cleaner 100.
  • the terminal device 200 may receive a cleaning command from the user and provide the received cleaning command to the robot cleaner 100.
  • the user may input a cleaning command for a specific space (eg, a living room, a room, etc.) as well as a cleaning command for the entire space.
  • the terminal device 200 may receive the cleaning result information received from the robot cleaner 100, and display the cleaning schedule and the cleaning result information of the robot cleaner to the user.
  • the terminal device 200 may classify and display the cleaning area of the robot cleaner according to a plurality of spaces in the form of an image. Accordingly, the user can easily check the cleaning status of the robot cleaner for each space. A detailed configuration and operation of the terminal device 200 will be described later with reference to FIG. 3.
  • the cleaning system 300 provides the cleaning result of the robot cleaner to a plurality of space cleaning areas, and the user can easily check the cleaning result of each space.
  • the cleaning system 300 provides a cleaning function for each space, and the user can provide a cleaning service for a space requiring cleaning without complicated manipulation.
  • the robot cleaner 100 may be a relay device such as the terminal device 200, an AP, and a router. It may be connected through, or may be connected through a separate server such as a home server.
  • one robot cleaner and one terminal device are connected to the cleaning system 300, but a plurality of robot cleaners exist in the cleaning system 300 to operate simultaneously.
  • Each robot cleaner may be connected to a plurality of terminal devices.
  • one terminal device may be connected to a plurality of robot cleaners.
  • the cleaning command for the robot cleaner is input through the terminal device 200, but it is also possible to receive the cleaning command directly from the robot cleaner.
  • the cleaning area for each space has been described as being displayed by the terminal device 100, when the robot cleaner has a display function, the cleaning area for each space may be displayed by the robot cleaner.
  • FIG. 2 is a block diagram illustrating a configuration of the robot cleaner of FIG. 1.
  • the robot cleaner 100 may include a communication interface 110, a display 120, an operation input unit 130, a storage 140, a detector 150, and a driver ( 160, the suction unit 170, and the processor 180.
  • the communication interface 110 is formed to connect the robot cleaner 100 to an external device (specifically, a terminal device or a home server), and not only short-range wireless communication (eg, Bluetooth, Wi-Fi, WiFi Direct), It may be connected by a long range wireless communication (eg, wireless communication such as GSM, UMTS, LTE, WiBRO, etc.).
  • an external device specifically, a terminal device or a home server
  • short-range wireless communication eg, Bluetooth, Wi-Fi, WiFi Direct
  • a long range wireless communication eg, wireless communication such as GSM, UMTS, LTE, WiBRO, etc.
  • the communication interface 110 receives the cleaning schedule information from the terminal device 200.
  • the cleaning schedule information may include time information (eg, cleaning start time or cleaning completion time), and space information (eg, entire space or some space).
  • the space may be a space partitioned by a user or a space partitioned by a structure (for example, a living room, a kitchen, a room, etc.) among the entire spaces in which the robot cleaner can move. Therefore, the space information is information on a plurality of partitioned spaces, and may be referred to as partition information.
  • the communication interface 110 receives a cleaning command.
  • This cleaning command may be a cleaning command for the entire space, and may be a cleaning command for a specific space or a cleaning command for a specific location.
  • the position means a specific point in a specific space.
  • the communication interface 110 receives spatial information.
  • the communication interface 110 may receive spatial information partitioned into a plurality of spaces from the terminal device 200.
  • the spatial information may be an image file such as information on a plurality of spaces of a home (or company) where a robot cleaner is located, a map (specifically, a floor plan), or a data file composed of a plurality of coordinates based on a specific location. Can be.
  • Such spatial information may be generated based on map information generated by the robot cleaner.
  • the communication interface 110 transmits cleaning result information.
  • the communication interface 110 may transmit the cleaning result information to the terminal device 200 when the cleaning completion time or the information providing request is received from the terminal device 200.
  • the cleaning result information includes a cleaning path of the robot cleaner, and may further include not only the cleaning path but also map information, error information, and uncleaned area information generated in the robot cleaner.
  • the display 120 may display various information supported by the robot cleaner 100.
  • the display unit 120 may be a small size monitor such as an LCD or the like, and may be implemented as a touch screen capable of simultaneously performing a function of the operation input unit 130 to be described later.
  • the display 120 displays the operation state (whether in the cleaning mode or the sleep mode) of the robot cleaner 100, information related to the cleaning progress (for example, the cleaning progress time and the current cleaning mode (for example, suction strength)). It can display information such as battery information, charging status, whether the dust container is full of dust, and error status (liquid contact status). If the error is detected, the display 120 may display the detected error.
  • the display 120 may display the cleaning area for each space.
  • the display 120 may display the cleaning area in response to a user's history display command.
  • the display 120 may classify and display the cleaning area by a plurality of spaces.
  • the display 120 may display only the cleaning area of the space on which the cleaning is performed.
  • the operation input unit 130 includes a plurality of function keys for allowing a user to set or select various functions supported by the terminal device 200.
  • the manipulation input unit 130 may be implemented as a device such as a plurality of buttons, or may be implemented as a touch screen capable of simultaneously performing the functions of the display unit 120 described above.
  • the manipulation inputter 130 may receive an on / off command of a cleaning function of the robot cleaner 100, a selection of a cleaning mode, a reclean command for an uncleaned area, a cleaning command for a specific space, and the like.
  • the storage 140 may store various programs and data necessary for the operation of the robot cleaner 100.
  • the storage 140 may be implemented as a nonvolatile memory, a volatile memory, a flash-memory, a hard disk drive (HDD), a solid state drive (SSD), or the like.
  • the storage 140 may store cleaning schedule information received through the communication interface 110. At this time, the storage 140 may store a plurality of cleaning schedule information of different cleaning time zones. For example, the storage 140 may include first schedule information for cleaning the entire space at 12 o'clock on weekdays, and cleaning for a specific space (eg, a living room) at 2 pm on Saturdays and days. 2 Schedule information can be saved. In the above description, all of the plurality of schedule information are exemplified as a periodic schedule, but one cleaning schedule may be a one-time schedule that is not periodic.
  • the storage 140 may store map information generated according to the driving of the driving unit 160.
  • the map information is information indicating a movement path of the robot cleaner during the cleaning process, and may be in the form of an image or may be coordinate data in the form of a coordinate.
  • the moving path is the entire path of the robot cleaner during the fixing of the cleaning
  • the cleaning path means the path in which the dust suction operation is performed at the suction part of the entire path. Therefore, the movement route is used when generating the map information, but the cleaning route may be used when generating the cleaning result information to be described later.
  • the implementation may be implemented to perform the suction operation in the movement process, it is also possible to generate the cleaning result information using the movement path, the movement path to be described later can also be interpreted as the cleaning path, cleaning path also Conversely, it can be interpreted as a movement path.
  • the storage 140 may store spatial information provided by the terminal device 200.
  • the space information is location information on the map information of each space when the map information is divided into a plurality of spaces. Therefore, when the map information is in the form of an image, the spatial information may also be in the form of a map.
  • the storage 140 may store a history, etc., generated during the cleaning process as history information.
  • the history information may include cleaning time, charging count information, error occurrence count information, respective error information, information on an uncleaned area, and the like.
  • the detector 150 detects obstacles around the robot cleaner 100.
  • the detector 150 may detect a location of an obstacle and a distance between the obstacles around the robot cleaner 100 using an ultrasonic sensor, an infrared sensor, and an RF sensor.
  • the sensing unit 150 may further include a collision sensor that detects the obstacle through collision with the obstacle.
  • the detector 150 detects an object located in front of the robot cleaner.
  • the detector 150 may include an imaging unit capable of capturing the front surface of the robot cleaner 100, and may detect an object through image processing on an image captured by the imaging unit.
  • the sensing unit 150 may store the captured image in the storage 140 for an object requiring suction or bypass.
  • the sensing unit 150 may detect the degree of dust on the bottom surface.
  • the detection unit 150 may include a dust sensor that detects a degree of dust of air input to the suction unit. Through this, the sensing unit 150 may determine that cleaning is well performed when the amount of dust detected in real time is reduced to a predetermined amount.
  • the detector 150 detects whether the robot cleaner 100 is in contact with the liquid. Specifically, the sensing unit 150 may detect whether or not the liquid contacting the wheel constituting the drive unit 160 of the robot cleaner 100.
  • the driving unit 160 moves the robot cleaner.
  • the driving unit 160 is connected to one or more wheels and includes a driving unit such as a motor.
  • the driving unit 160 performs a driving operation such as moving, stopping, or changing the direction according to the control signal of the processor 180.
  • the suction unit 170 sucks dust on the bottom surface of the robot cleaner 100.
  • the suction unit 170 may perform a cleaning operation by absorbing foreign substances below while moving or stopping.
  • the suction unit 170 may further include an air purification unit for purifying contaminants in the air.
  • the suction unit 170 has a plurality of operation modes.
  • the operation mode may be classified according to the suction intensity.
  • the operation mode may be set by the user in advance, and may vary according to the weather. For example, when the operation mode is divided into 1 to 5 according to the suction strength, and the user sets the default value to 3, when there is a yellow dust or fine dust warning, the suction unit 170 adjusts the suction strength.
  • the default value can also be operated in an increased operating mode, for example 4 or 5.
  • the processor 180 controls each component in the robot cleaner 100.
  • the processor 180 may start a cleaning operation according to a cleaning schedule.
  • the processor 180 may control the suction unit 170 to operate in an operation mode corresponding to the weather information based on the weather information received from the server or the terminal device. For example, when there is a yellow dust or fine dust warning in the weather information, the processor 180 may control the suction unit 170 to operate at a suction strength higher than the default suction strength. On the contrary, in the summer when the dust is less, the processor 180 may control the suction unit 170 to operate at a suction strength lower than the default suction strength.
  • the processor 180 controls the driving unit 160 to move the robot cleaner 100 according to previously stored map information, and controls the suction unit 170 to perform cleaning when the robot cleaner 100 is moved or stopped. can do.
  • the processor 190 controls the driving unit 160 to move the robot cleaner to the corresponding space based on the pre-stored map information. When the movement is confirmed, the cleaning operation may be performed.
  • the processor 180 controls the driving unit 160 to move the robot cleaner 100 according to a preset algorithm, and generates map information according to the movement trajectory of the robot cleaner 100. can do.
  • the processor 180 may control the communication interface 110 to transmit the generated map information to the terminal device 200.
  • the processor 180 may control the driving unit 160 to be moved to a charging station and charged when charging is required according to a power state in the robot cleaner 100.
  • the processor 180 may control the driving unit 160 and the suction unit 170 according to the degree of dust detected by the sensing unit 150. For example, in an area where dust is introduced in a large amount, the cleaning efficiency may be improved by slowing the repeating driving and driving speed or increasing the suction force of the suction unit 170. On the contrary, the driving unit 160 may be controlled to increase the traveling speed in an area where dust does not flow.
  • the processor 180 may control the communication interface 110 to provide the cleaning result information including the cleaning path of the robot cleaner to the terminal device 200.
  • the processor 180 may generate the cleaning result information including the cleaning path of the robot cleaner for each of the plurality of spaces based on the space information, and control the communication interface 110 to transmit the generated cleaning result information.
  • the cleaning result information including only one cleaning path may be generated and provided by the terminal device 100, and the cleaning path received from the terminal device 100 may be partitioned into a plurality of spaces.
  • the processor 180 does not provide a cleaning path for each space, but generates an image of the cleaning area for each space, and provides the generated cleaning area image for each space to the terminal device 200 as cleaning result information. It is also possible.
  • the processor 180 may control the communication interface 110 to provide initial map information to the terminal device 200.
  • the robot cleaner 100 performs an initial cleaning operation, the robot cleaner 100 generates map information on a space where the robot cleaner 100 can move.
  • the processor 180 may provide the generated map information to the terminal device 200 and perform a cleaning operation by using the map information generated in a later cleaning process. Meanwhile, when the robot cleaner recognizes that the robot cleaner is different from the previously stored map information by moving to another environment, the processor 180 updates the existing map information and provides the updated map information to the terminal device 200. 110 may be controlled. In the implementation, the map information may be updated not only when moving to another environment but also when furniture arrangement is changed or when new furniture is arranged and the cleaning area is changed.
  • the robot cleaner 100 may perform the cleaning by using the space information partitioned into a plurality of spaces, and may perform a cleaning operation on only a specific space.
  • the robot cleaner 100 according to the present embodiment provides the cleaning path for each space to the terminal device 200 as the cleaning result information, and the user can easily check the cleaning status for each space.
  • FIG. 3 is a block diagram illustrating a configuration of a terminal device of FIG. 1.
  • the terminal device 200 includes a communication interface unit 210, a display unit 220, an operation input unit 230, a storage unit 240, and a processor 250.
  • the terminal device 200 may be a smart phone, a notebook computer, a PMP, an MP3 player, a smart TV, a wearable device (for example, a smart watch), or the like.
  • the communication interface 210 is formed to connect the terminal device 200 to an external device (specifically, a robot cleaner and an internet network), and is connected to an external device through a local area network (LAN) and the internet network.
  • Wireless communication eg, Z-wave, 4LoWPAN, RFID, LTE D2D, BLE, GPRS, Weightless, Edge Zigbee, ANT +, NFC, IrDA, DECT, WLAN, Bluetooth, Wi-Fi, Wi-Fi Direct
  • Wireless communication such as GSM, UMTS, LTE, WiBRO, etc.
  • the communication interface 210 transmits cleaning schedule information.
  • the communication interface 210 may transmit the cleaning schedule information set by the user to the robot cleaner 100.
  • the communication interface 210 may transmit a cleaning command to the robot cleaner 100.
  • the cleaning command may be a cleaning command for the entire space or a cleaning command for a specific space (eg, a living room).
  • the communication interface 210 receives the cleaning result information. Specifically, the communication interface 210 may receive the cleaning result information including the cleaning path of the robot cleaner.
  • the cleaning paths may be all paths that the robot cleaner has moved in one cleaning process, and may be paths separated by spaces.
  • the cleaning area image for each space according to the cleaning path may be received as the cleaning result information instead of the cleaning path.
  • the display unit 220 may display various information supported by the terminal device 200.
  • the display unit 220 may be a monitor such as an LCD, a CRT, or the like, and may be implemented as a touch screen capable of simultaneously performing a function of the operation input unit 230 to be described later.
  • the display 220 displays the received cleaning schedule information and cleaning result information.
  • the display 220 may display cleaning schedule information of the robot cleaner according to a user's selection.
  • the display unit 220 may display the map information pre-generated by the robot cleaner 100 and information on the predetermined movement route of the robot cleaner.
  • the display unit 220 may display information such as a cleaning start time and a cleaning time.
  • the display 220 may display the cleaning result information.
  • the display 220 may display an image corresponding to a cleaning area of the plurality of space-specific robot cleaners.
  • the display unit 220 may generate a cleaning area image for each of the plurality of space cleaning paths by reflecting the cleaning width of the robot cleaner and display the generated space cleaning area image.
  • the generated cleaning area image may include a cleaning path or may not include the cleaning path.
  • the cleaning area image may be in a form synthesized with the generated map information or may be in an unsynthesized form.
  • the display unit 220 may enlarge and display an image of the cleaning area corresponding to the selected area.
  • the display unit 220 may display the cleaning time and error occurrence when displaying the cleaning result information, and if there is a history of inhaling an object or there is an uncleaned area, the display unit 220 may also display information on the cleaning result information. Can be. Accordingly, the user can easily check the cleaning operation of the robot cleaner 100, can check the object sucked by the robot cleaner 100, and can also easily check the area in which the cleaning has not been performed.
  • the operation input unit 230 includes a plurality of function keys for the user to set or select various functions supported by the terminal device 200.
  • the manipulation input unit 230 may be implemented as a device such as a mouse, a keyboard, or the like, or may be implemented as a touch screen capable of simultaneously performing the functions of the display unit 220 described above.
  • the manipulation inputter 230 may receive a cleaning schedule of the robot cleaner from a user.
  • the manipulation inputter 230 may receive a control command for the driving state of the robot cleaner 100.
  • the robot cleaner 100 may receive a command for cleaning.
  • the operation input unit 230 may receive a cleaning command for all areas on the cleaning map or receive a cleaning command for a specific area.
  • the operation input unit 230 may receive a display command of a cleaning history of the robot cleaner.
  • the manipulation inputter 230 may receive a selection command for selecting any one of the displayed cleaning histories.
  • the manipulation inputter 230 may receive a command for selecting any one of the displayed cleaning areas for each space.
  • the storage unit 240 may store various programs and data necessary for the operation of the terminal device 200.
  • the storage unit 150 may be implemented as a nonvolatile memory, a volatile memory, a flash-memory, a hard disk drive (HDD), or a solid state drive (SSD).
  • the storage unit 240 may be accessed by the processor 250, and the read / write / modify / delete / update of data by the processor 140 may be performed.
  • the term “storage unit” refers to a storage card 240, a ROM in the processor 250, a RAM, or a memory card (not shown) mounted in the terminal device 200 (for example, micro SD card, memory stick).
  • the storage 240 may store programs and data for configuring various screens to be displayed on the user interface window.
  • the storage unit 240 may store a program that is a set of various commands required for driving the terminal device 200.
  • the program includes not only an application (or application program) for providing a specific service but also an operating program for running the application.
  • the storage unit 240 may store the cleaning schedule generated by the processor 250 and store the cleaning result information received through the communication interface 210.
  • the storage unit 240 may store map information received through the communication interface unit 210, and may also store spatial information generated according to the map information.
  • the processor 250 performs control of each component in the terminal device 200.
  • the processor 250 controls the overall operation of the terminal device 200 using various programs stored in the storage 240.
  • the processor 250 may include a CPU, RAM, ROM, and a system bus.
  • the ROM is a configuration in which a command set for system booting is stored, and the CPU copies an operating system stored in the storage unit 240 to RAM according to the instructions stored in the ROM, and executes O / S to boot the system.
  • the CPU may copy various applications stored in the storage unit 240 to the RAM and execute the various operations.
  • the processor 250 includes only one CPU. However, the processor 250 may be implemented by a plurality of CPUs (or DSPs, SoCs, etc.).
  • the processor 250 may drive an application for controlling the robot cleaner or generating a cleaning schedule, and may control the display unit 220 to display a user interface window according to driving of the application. have.
  • the processor 250 generates a cleaning schedule of the robot cleaner according to a control command input from the user, and communicates the generated cleaning schedule to the robot cleaner 100 so that an operation according to the generated cleaning schedule is performed. 210 can be controlled.
  • the processor 250 may control the communication interface 210 to transmit the cleaning command. Specifically, when a cleaning command is input from the user, the processor 250 controls the display unit 220 to display space information for selecting a space to be cleaned, and when a specific space is selected from the displayed spaces, The cleaning command may be generated and transmitted to the robot cleaner 100.
  • the processor 250 When the processor 250 receives the map information from the robot cleaner 100, the processor 250 generates spatial information based on the received map information.
  • the processor 250 may set the entire area (that is, the size of a home house) in which the robot cleaner may move based on the received map information, and divide the entire area into a plurality of areas based on the movement path. Such an operation may be automatically partitioned through a predetermined algorithm or may be partitioned through a user's manipulation.
  • the processor 250 may set names of each area, or may receive names of a plurality of areas from a user.
  • the processor 250 may control the display unit 220 to display a cleaning result of the robot cleaner.
  • the processor 250 generates an image corresponding to the cleaning areas of the plurality of space-based robot cleaners based on the path information and the space information in the received cleaning result information and displays the generated cleaning area images for each space.
  • the unit 220 may be controlled.
  • the processor 250 may control the display unit 220 to display an enlarged image of the selected cleaning area image.
  • the terminal device 200 according to the present embodiment can input a cleaning command for each space by using space information partitioned into a plurality of spaces, thereby improving user convenience.
  • the terminal device 200 according to the present embodiment provides a cleaning area for each space to the user, and the user can easily check the cleaning status for each space.
  • the terminal device 200 generates spatial information and provides the generated spatial information to the robot cleaner.
  • the robot cleaner may generate the space information itself.
  • the terminal device 200 and the robot cleaner 100 generate space information using map information in a separate server (not shown), and the generated space information is used for the terminal device 200 or the robot cleaner 100. It can also be implemented in the form provided by.
  • 4 to 10 illustrate various examples of a user interface window that may be displayed on the display of FIG. 3.
  • FIG. 4 is a diagram illustrating an example of a user interface window displayed when a cleaning application is first started.
  • the user interface window 400 includes a control area 410 and a space selection area 420.
  • the control area 410 is an area for displaying a menu for receiving various user control commands for controlling the operation of the robot cleaner. When the control area 410 is selected, the user interface window as shown in FIG. 7 may be displayed.
  • the space selection area 420 is an area for displaying a menu for receiving a space cleaning command. Currently, in FIG. 4, the space selection area 420 is selected. A message indicating that space information needs to be generated since the space information is still generated is displayed at the bottom of the space selection area 420. If the space information is already generated, if the space selection area 420 is selected, a user interface window as shown in FIG. 5 may be displayed.
  • the terminal device 200 may generate the space information by dividing the map information received from the robot cleaner 100 into a plurality of spaces.
  • generating spatial information by using the map information generated by the robot cleaner is a well known technique, the detailed description thereof will be omitted in the present disclosure.
  • 5 is an example of a user interface window displayed when spatial information is parasiticly generated.
  • the UI window 500 displays spatial information 510 partitioned into a plurality of spaces.
  • space information divided into five spaces is shown, but there may be only one space according to an environment in which the robot cleaner exists, and the space divided into two to four or six or more spaces. There may be information.
  • each space is represented by a number, but a user may set each space to a name (eg, a living room, a room, a kitchen, etc.) desired by the user.
  • a name eg, a living room, a room, a kitchen, etc.
  • the user can select a space to be cleaned on the displayed space information. For example, when the first space of the illustrated spaces is selected, the user interface window as shown in FIG. 6 may be displayed.
  • FIG. 6 is an example of a user interface window that may be displayed when a specific space to be cleaned is selected.
  • the user interface window 600 includes a spatial information display area 610, a cleaning start command area 615, a battery information display area 620, a space change area 630, and a name modification area 630. It includes.
  • the space information display area 610 displays space information partitioned into a plurality of spaces, and displays the area selected by the user in the foregoing process.
  • the cleaning start command area 615 is an area for receiving a cleaning start command for the spatial information display area 610.
  • the terminal device 200 may transmit a cleaning start command for the space '01' to the robot cleaner 100.
  • the battery information display area 620 is an area for displaying a battery state of the robot cleaner. In the illustrated example, only the battery state is displayed, but in implementation, other states of the robot cleaner may be displayed together with the battery state. For example, dust amount information, error information, and the like in the dust container may be displayed.
  • the space change area 630 is an area for receiving a user command for changing a section of a plurality of spaces. If such an area 630 is selected, the process returns to the process shown in FIG. 4 and the spatial information can be regenerated.
  • the name modification area 630 is an area for receiving a name for each space currently partitioned. When the name correction area 630 is selected, a user interface window for receiving a name for each space currently partitioned may be displayed.
  • FIG. 7 is an example of a user interface window displayed when the control area 410 of FIG. 4 is selected.
  • the user interface window 700 includes a control UI display area 710, a battery status display area 720, an output display area 730, a schedule display area 740, and a cleaning history display area 750. to be.
  • the control UI display area 710 is a UI display area for receiving a plurality of control commands for the robot cleaner.
  • the control UI display area 710 receives commands such as a cleaning pause, a forward command, a left rotation command, a right rotation command, and a specific area repetition cleaning. UI is displayed.
  • the battery status display area 720 is an area for displaying the battery status of the current robot cleaner.
  • the implementation may indicate not only the battery state but also various states of the robot cleaner (for example, whether there is an error or the amount of dust in the dust bin).
  • the output display area 730 is an area for displaying the suction strength of the robot cleaner.
  • the schedule display area 730 is an area for receiving a command for displaying a cleaning schedule currently set in the robot cleaner. The user can select a corresponding area to check the cleaning schedule set in the robot cleaner or add or change a new cleaning schedule.
  • the cleaning history display area 740 is an area for displaying the previously performed cleaning history. When the corresponding area is selected, the user interface window as shown in FIG. 8 may be displayed.
  • FIG. 8 is an example of a user interface window displaying a cleaning history.
  • the user interface window 800 displays a plurality of cleaning histories 810, 820, 830, and 840.
  • One of the plurality of cleaning histories displays a cleaning area for each space as images 821, 822, and 823.
  • the user may check the cleaning area for each space by moving the cleaning history 820 from side to side.
  • the cleaning area is displayed for only one history, but in the implementation, the cleaning history image for each space may be displayed for all the history.
  • the cleaning histories are displayed only for the latest histories, and other histories are for cleaning results only. I can display it. Even in this case, if the user selects the history, the cleaning area image for each area may be displayed at the cleaning history.
  • the user can then select any of the displayed cleaning areas. For example, if the living room cleaning history 821 is selected, a user interface window as shown in FIG. 9 may be displayed.
  • 9 is an example of a user interface window that may be displayed when any one of a plurality of spaces is selected.
  • the user interface window 900 displays a specific cleaning area of the robot cleaner for the space selected by the user.
  • the present invention not only displays the cleaning area by dividing the plurality of spaces but also displays the detailed cleaning area image of the cleaning area selected by the user. The user can easily and intuitively check the cleaning result of the robot cleaner. .
  • the hatched area in the illustrated cleaning area image 910 is a cleaning area, and a black line represents a moving path of the robot cleaner.
  • the cleaning area and the moving path are displayed and described together, but in the implementation, only the cleaning area may be displayed without displaying the moving path as shown in FIG. 10.
  • FIG. 10 is another example of a user interface window that can be displayed when the cleaning history display area is selected.
  • the user interface window 1000 displays a plurality of cleaning histories 1010, 1020, 1030, and 1040.
  • One of the plurality of cleaning histories displays a cleaning area for each space as images 1021, 1022, and 1023.
  • the movement paths of the robot cleaners are not displayed in FIG. 10 in the images 1021, 1022, and 1023 of the space-specific cleaning areas.
  • the user may select whether to display as shown in FIG. 8 or as shown in FIG. 10 in the setting menu.
  • FIG. 11 is a flowchart illustrating a method of controlling a robot cleaner according to an embodiment of the present disclosure.
  • a cleaning command is received from a user (S1110). Specifically, a cleaning command is received from an external terminal device 200 or a cleaning command is directly received through the operation input unit 130 provided in the robot cleaner 100.
  • the cleaning command received here may be a cleaning schedule.
  • Cleaning is performed according to the received cleaning command (S1120).
  • the robot cleaner may be controlled to move along a predetermined path while cleaning by sucking dust on the bottom surface during the movement.
  • the cleaning command received from the user was a cleaning command for a specific space
  • the movement to the specific space may be performed prior to performing the cleaning first.
  • the cleaning result information including the cleaning paths of the plurality of space-based robot cleaners may be generated based on the received space information, and the generated cleaning result information may be transmitted to the terminal device 200 (S1130).
  • the cleaning may be performed by using space information partitioned into a plurality of spaces, and thus a cleaning operation may be performed on a specific space.
  • the control method of the robot cleaner 100 according to the present embodiment provides the cleaning path for each space to the terminal device 200 as the cleaning result information, so that the user can easily check the cleaning status for each space.
  • the control method as shown in FIG. 11 may be executed on the robot cleaner having the configuration of FIG. 2 or may be executed on the robot cleaner having another configuration.
  • control method as described above may be implemented as a program including an executable algorithm that can be executed in a computer, and the program may be stored and provided in a non-transitory computer readable medium. .
  • the non-transitory readable medium refers to a medium that stores data semi-permanently and is readable by a device, not a medium storing data for a short time such as a register, a cache, a memory, and the like.
  • a non-transitory readable medium such as a CD, a DVD, a hard disk, a Blu-ray disk, a USB, a memory card, a ROM, or the like.
  • FIG. 12 is a flowchart illustrating a control method of a terminal device according to an exemplary embodiment.
  • space information divided into a plurality of spaces is generated and stored (S1210).
  • the map information is received from the robot cleaner 100, and the received map information is partitioned into a plurality of spaces through an algorithm to generate partition information, or the partition information is partitioned into a plurality of spaces by being partitioned into a plurality of spaces from a user. Can be generated.
  • cleaning result information including a cleaning path is received from the robot cleaner.
  • the cleaning path included in the cleaning result information may be divided into a plurality of spaces based on the space information (S1230). If the cleaning result information received from the robot cleaner includes cleaning paths classified by spaces, this operation may be omitted.
  • a cleaning area of the robot cleaner for each of a plurality of spaces is displayed.
  • the cleaning area images of the plurality of space-specific robot cleaners may be generated based on the space-specific cleaning paths.
  • a thumbnail of the generated space-specific cleaning area image may be displayed. If the user selects any one of the displayed thumbnails, the cleaning area image corresponding to the selected thumbnail may be displayed.
  • control method of the terminal device provides the cleaning area for each space to the user, and the user can easily check the cleaning state for each space.
  • the control method of the terminal device as shown in FIG. 12 may be executed on the terminal device having the configuration of FIG. 3 or may be executed on the terminal device having other configurations.
  • control method as described above may be implemented as a program including an executable algorithm that can be executed in a computer, and the program may be stored and provided in a non-transitory computer readable medium. .
  • the non-transitory readable medium refers to a medium that stores data semi-permanently and is readable by a device, not a medium storing data for a short time such as a register, a cache, a memory, and the like.
  • a non-transitory readable medium such as a CD, a DVD, a hard disk, a Blu-ray disk, a USB, a memory card, a ROM, or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

로봇 청소기와 연결 가능한 단말 장치가 개시된다. 본 단말 장치는 복수의 공간으로 구획된 공간 정보를 저장하는 저장부, 로봇 청소기로부터 청소 경로를 포함하는 청소 결과 정보를 수신하는 통신 인터페이스부, 청소 결과 정보를 표시하는 디스플레이부, 및 수신된 청소 결과 정보 및 저장된 공간 정보에 기초하여 복수의 공간별 로봇 청소기의 청소 영역이 표시되도록 디스플레이부를 제어하는 프로세서를 포함한다.

Description

로봇 청소기, 단말 장치 및 그 제어 방법
본 개시는 로봇 청소기, 단말 장치 및 그 제어 방법에 관한 것으로, 로봇 청소기의 청소 결과를 공간 단위로 구획하여 사용자에게 제공할 수 있는 로봇 청소기, 단말 장치 및 그 제어 방법에 관한 것이다.
일반적으로 로봇은 산업용으로 개발되어 여러 산업 현장에서 널리 사용되고 있다. 최근에는 로봇을 이용한 분야가 더욱 확대되어, 의료 분야, 우주 항공 분야뿐만 아니라, 일반 가정집에도 활용되고 있다.
가정에서 사용되는 로봇 중 대표적인 것이, 로봇 청소기이다. 로봇 청소기는 가정 내 실내 공간을 스스로 주행하면서 먼지 등의 이물질을 흡입하면서 청소하는 기능을 수행한다.
그러나 종래의 로봇 청소기는 어떠한 방식으로 청소를 수행하였는지를 사용자에게 정확하게 제공하지 않았기 때문에 로봇 청소기에 대한 만족도가 높지 않았다.
이에 따라, 최근의 로봇 청소기는 청소 과정 중의 이동 경로를 사용자 단말 장치에 제공하는 기능이 채용되고 있다.
그러나 종래에는 청소 과정 중의 전체 움직임 궤적만을 사용자에게 제공하였기 때문에, 사용자가 로봇 청소기의 청소 영역을 확인하기 어려웠다.
예를 들어, 실제 공간(예를 들어, 안방)에 대한 청소가 어떻게 수행되었는지 확인하기 위해서는 전체 움직임 궤적 상에서 안방에 대응되는 영역이 어디인지를 사용자가 직접 유추해야 하였고, 더욱이 전체 이동 경로가 한꺼번에 표시되어 각 공간 별(예를 들어, 안방, 부엌 등) 청소 상태를 파악하기 어려운 점이 있었다.
따라서, 본 개시의 목적은 로봇 청소기의 청소 결과를 공간 단위로 구획하여 사용자에게 제공할 수 있는 로봇 청소기, 단말 장치 및 그 제어 방법을 제공하는 데 있다.
이상과 같은 목적을 달성하기 위한 본 개시에 따른 로봇 청소기와 연결 가능한 단말 장치는 복수의 공간으로 구획된 공간 정보를 저장하는 저장부, 상기 로봇 청소기로부터 청소 경로를 포함하는 청소 결과 정보를 수신하는 통신 인터페이스부, 상기 청소 결과 정보를 표시하는 디스플레이부, 및 상기 수신된 청소 결과 정보 및 상기 저장된 공간 정보에 기초하여 상기 복수의 공간별 상기 로봇 청소기의 청소 영역이 표시되도록 상기 디스플레이부를 제어하는 프로세서를 포함한다.
이 경우, 상기 프로세서는 상기 복수의 공간 중 청소 작업이 수행된 공간에 대한 상기 로봇 청소기의 청소 영역이 표시되도록 상기 디스플레이부를 제어할 수 있다.
한편, 상기 프로세서는 청소 작업이 수행된 공간의 지도 및 상기 지도 상의 청소 영역을 함께 표시하도록 상기 디스플레이부를 제어할 수 있다.
한편, 상기 프로세서는 청소 작업이 수행된 공간의 청소 영역과 상기 청소 영역 상의 상기 로봇 청소기의 이동 경로를 함께 표시하도록 상기 디스플레이부를 제어할 수 있다.
한편, 상기 프로세서는 상기 공간 정보에 기초하여 상기 청소 결과 정보에 포함된 청소 경로를 복수의 공간별로 분리하고, 분리된 청소 경로에 기초하여 복수의 공간별 상기 로봇 청소기의 청소 영역 이미지를 생성할 수 있다.
한편, 상기 청소 결과 정보는 복수의 공간별 분리된 복수의 청소 경로를 포함하고, 상기 프로세서는 상기 복수의 청소 경로에 기초하여 복수의 공간별 상기 로봇 청소기의 청소 영역 이미지를 생성할 수 있다.
한편, 상기 통신 인터페이스부는 상기 로봇 청소기로부터 상기 로봇 청소기에서 생성된 지도 정보를 수신하고, 상기 프로세서는, 상기 수신된 지도 정보에 기초하여 복수의 공간으로 구획된 공간 정보를 생성하여 상기 저장부에 저장할 수 있다.
한편, 상기 프로세서는 상기 복수의 공간 중 적어도 하나의 공간을 사용자로부터 선택받으면, 상기 선택된 공간에 대한 청소 명령이 상기 로봇 청소기에 전송되도록 상기 통신 인터페이스부를 제어할 수 있다.
한편, 상기 프로세서는 상기 표시된 공간별 청소 영역 중 어느 하나의 청소 영역이 선택되면, 상기 선택된 청소 영역이 확대되어 표시되도록 상기 디스플레이부를 제어할 수 있다.
한편, 본 개시의 일 실시 예에 따른 로봇 청소기는 상기 로봇 청소기를 이동시키는 구동부, 상기 로봇 청소기의 바닥면에 먼지를 흡입하는 흡입부, 단말 장치로부터 복수의 공간으로 구획된 공간 정보를 수신하는 통신 인터페이스부, 및 상기 로봇 청소기를 이동시켜 청소 작업을 수행하고, 상기 수신된 공간 정보에 기초하여 복수의 공간별 상기 로봇 청소기의 청소 경로를 포함하는 청소 결과 정보가 상기 단말 장치에 전송하도록 상기 통신 인터페이스부를 제어하는 프로세서를 포함한다.
이 경우, 상기 프로세서는 상기 복수의 공간 중 청소 작업이 수행된 공간 각각의 청소 경로만을 포함하는 청소 결과 정보를 상기 단말 장치에 전송하도록 상기 통신 인터페이스부를 제어할 수 있다.
한편, 상기 프로세서는 상기 복수의 공간 중 특정 공간에 대한 청소 명령을 상기 단말 장치로부터 수신하면, 상기 수신된 공간 정보에 기초하여 상기 특정 공간으로 상기 로봇 청소기가 이동하여 청소 작업을 수행하도록 상기 로봇 청소기를 제어할 수 있다.
한편, 상기 프로세서는 상기 로봇 청소기의 이동에 따른 지도 정보를 생성하여 상기 단말 장치에 전송되도록 상기 통신 인터페이스부를 제어하고, 상기 공간 정보는, 상기 생성된 지도 정보가 복수의 공간으로 구획되고, 상기 구획된 복수의 공간 각각의 위치 정보일 수 있다.
한편, 상기 통신 인터페이스부는 상기 단말 장치로부터 청소 스케줄 정보를 수신하고, 상기 프로세서는 상기 수신된 청소 스케줄 정보에 따라 청소 작업을 수행할 수 있다.
한편, 본 개시의 일 실시 예에 따른 로봇 청소기와 연결 가능한 단말 장치의 제어 방법은 복수의 공간으로 구획된 공간 정보를 기저장하는 단계, 상기 로봇 청소기로부터 청소 경로를 포함하는 청소 결과 정보를 수신하는 단계, 및 상기 수신된 청소 결과 정보 및 상기 저장된 공간 정보에 기초하여 상기 복수의 공간별 상기 로봇 청소기의 청소 영역을 표시하는 단계를 포함한다.
이 경우 상기 표시하는 단계는 상기 복수의 공간 중 청소 작업이 수행된 공간에 대한 상기 로봇 청소기의 청소 영역을 표시할 수 있다.
한편, 상기 표시하는 단계는 청소 작업이 수행된 공간의 지도 및 상기 지도 상의 청소 영역을 함께 표시할 수 있다.
한편, 상기 표시하는 단계는 청소 작업이 수행된 공간의 청소 영역과 상기 청소 영역 상의 상기 로봇 청소기의 이동 경로를 함께 표시할 수 있다.
한편, 본 제어 방법은 상기 공간 정보에 기초하여 상기 청소 결과 정보에 포함된 청소 경로를 복수의 공간별로 분리하는 단계를 더 포함하고, 상기 분리된 청소 경로에 기초하여 복수의 공간별 상기 로봇 청소기의 청소 영역 이미지를 생성하고 새성된 청소 영역 이미지를 표시할 수 있다.
한편, 상기 청소 결과 정보는 복수의 공간별 분리된 복수의 청소 경로를 포함하고, 상기 표시하는 단계는 상기 복수의 청소 경로에 기초하여 복수의 공간별 상기 로봇 청소기의 청소 영역 이미지를 생성하고, 상기 생성된 청소 영역 이미지를 표시할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 청소 시스템의 구성을 도시한 블록도,
도 2는 도 1의 로봇 청소기의 구성을 도시한 블록도,
도 3은 도 1의 단말 장치의 구성을 도시한 블록도,
도 4 내지 도 10은 도 3의 디스플레이부에서 표시될 수 있는 사용자 인터페이스 창의 다양한 예를 도시한 도면,
도 11은 본 개시의 일 실시 예에 따른 로봇 청소기의 제어 방법을 설명하기 위한 흐름도, 그리고,
도 12는 본 개시의 일 실시 예에 따른 단말 장치의 제어 방법을 설명하기 위한 흐름도이다.
이하에서는 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 이하에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여 이하의 실시 예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략한다.
도 1은 본 개시의 일 실시 예에 따른 청소 시스템의 구성을 도시한 블록도이다.
도 1을 참조하면, 청소 시스템(300)은 로봇 청소기(100) 및 단말 장치(200)로 구성된다.
로봇 청소기(100)는 구동 가능하며, 바닥 면의 먼지 등 이물질을 흡입한다. 그리고 로봇 청소기(100)는 단말 장치(200)로부터 전달된 청소 명령 또는 청소 스케줄에 따라 청소를 수행한다. 그리고 청소 과정에서, 로봇 청소기(100)는 이동 경로(또는 청소 경로)를 저장하고, 저장된 이동 경로를 포함하는 청소 결과 정보를 생성하여 단말 장치(200)에 전송할 수 있다. 로봇 청소기(100)의 구체적인 구성에 대해서는 도 2를 참조하여 후술한다.
단말 장치(200)는 청소 스케줄을 생성하고, 생성된 청소 스케줄을 로봇 청소기(100)에 제공할 수 있다. 그리고 단말 장치(200)는 청소 명령을 사용자로부터 입력받고, 입력받은 청소 명령을 로봇 청소기(100)에 제공할 수 있다. 이때, 사용자는 전체 공간에 대한 청소 명령뿐만 아니라 특정 공간(예를 들어, 거실, 안방 등)에 대한 청소 명령을 입력할 수 있다.
그리고 단말 장치(200)는 로봇 청소기(100)로부터 수신된 청소 결과 정보를 수신하고, 사용자에게 로봇 청소기의 청소 스케줄 및 청소 결과 정보를 표시할 수 있다.
그리고 단말 장치(200)는 청소 결과 정보를 표시할 때 로봇 청소기의 청소 영역을 이미지 형태로 복수의 공간별로 구분하여 표시할 수 있다. 이에 따라 사용자는 손쉽게 공간별 로봇 청소기의 청소 상태를 확인할 수 있게 된다. 이러한 단말 장치(200)의 구체적인 구성 및 동작에 대해서는 도 3을 참조하여 후술한다.
이와 같이 본 실시 예에 따른 청소 시스템(300)은 로봇 청소기의 청소 결과를 복수의 공간별 청소 영역으로 제공하는바, 사용자는 손쉽게 각 공간별 청소 결과를 확인하는 것이 가능하다. 또한, 청소 시스템(300)은 공간별 청소 기능을 제공하는바, 사용자는 복잡한 조작 없이 청소가 필요한 공간에 대한 청소 서비스 제공이 가능하다.
한편, 도 1을 설명함에 있어서, 로봇 청소기(100)가 단말 장치(200)에 직접 연결되는 것으로 도시하였지만, 구현시에 로봇 청소기(100)는 단말 장치(200)와 AP, 라우터 등과 같은 중계 기기를 통하여 연결될 수도 있으며, 홈 서버 등과 같은 별도의 서버를 통하여 연결되는 것도 가능하다.
또한, 도 1을 설명함에 있어서, 청소 시스템(300) 내에 하나의 로봇 청소기와 하나의 단말 장치가 연결되는 것으로 설명하였지만, 청소 시스템(300) 내에는 복수의 로봇 청소기가 존재하여 동시에 동작할 수 있으며, 각 로봇 청소기는 복수의 단말 장치와 연결될 수 있다. 또한, 하나의 단말 장치는 복수의 로봇 청소기와 연결될 수도 있다.
또한, 도 1을 설명함에 있어서, 로봇 청소기에 대한 청소 명령을 단말 장치(200)를 통하여 입력받는 것으로 설명하였지만, 로봇 청소기에서 직접 청소 명령을 입력받는 것도 가능하다. 또한, 공간별 청소 영역을 단말 장치(100)에서 표시하는 것으로 설명하였지만, 로봇 청소기에 표시 기능이 있는 경우, 로봇 청소기에서 공간별 청소 영역을 표시할 수도 있다.
도 2는 도 1의 로봇 청소기의 구성을 도시한 블록도이다.
도 2를 참조하면, 본 실시 예에 따른 로봇 청소기(100)는 통신 인터페이스부(110), 디스플레이부(120), 조작 입력부(130), 저장부(140), 감지부(150), 구동부(160), 흡입부(170), 프로세서(180)로 구성될 수 있다.
통신 인터페이스부(110)는 로봇 청소기(100)를 외부 장치(구체적으로, 단말 장치 또는 홈 서버)에 연결하기 위해 형성되고, 근거리 무선 통신(예를 들어, 블루투스, 와이파이, WiFi Direct)뿐만 아니라, 원거리 무선 통신(예를 들어, GSM, UMTS, LTE, WiBRO 등의 무선 통신) 방식에 의해서 접속될 수 있다.
그리고 통신 인터페이스부(110)는 단말 장치(200)로부터 청소 스케줄 정보를 수신한다. 이러한 청소 스케줄 정보는 시간 정보(예를 들어, 청소 시작 시간 또는 청소 완료 시간), 공간 정보(예를 들어, 전체 공간 또는 일부 공간)를 포함할 수 있다. 여기서 공간은 로봇 청소기가 이동 가능한 전체 공간 중 사용자가 구획한 공간 또는 구조물에 의하여 구획된 공간(예를 들어, 거실, 부엌, 안방 등)일 수 있다. 따라서, 공간 정보는 구획된 복수의 공간에 대한 정보로, 구획 정보로 지칭될 수도 있다.
그리고 통신 인터페이스부(110)는 청소 명령을 수신한다. 이러한 청소 명령은 전체 공간에 대한 청소 명령일 수 있으며, 특정 공간에 대한 청소 명령이거나 특정 위치에 대한 청소 명령일 수 있다. 여기서 위치는 특정 공간 내의 특정 지점을 의미한다.
그리고 통신 인터페이스부(110)는 공간 정보를 수신한다. 구체적으로, 통신 인터페이스부(110)는 단말 장치(200)로부터 복수의 공간으로 구획된 공간 정보를 수신할 수 있다. 여기서 공간 정보는 로봇 청소기가 위치하는 가정(또는 회사)의 복수의 공간에 대한 정보, 지도(구체적으로, 평면도)와 같은 이미지 파일일 수 있으며, 특정 위치를 기준으로 복수의 좌표로 구성된 데이터 파일일 수 있다. 이러한 공간 정보는 로봇 청소기가 생성한 지도 정보에 기초하여 생성된 것일 수 있다.
그리고 통신 인터페이스부(110)는 청소 결과 정보를 송신한다. 구체적으로, 통신 인터페이스부(110)는 청소 완료 시점 또는 단말 장치(200)로부터 정보 제공 요청을 수신한 경우에, 청소 결과 정보를 단말 장치(200)에 전송할 수 있다. 여기서 청소 결과 정보는 로봇 청소기의 청소 경로를 포함하며, 청소 경로뿐만 아니라 로봇 청소기에 생성한 지도 정보, 에러 정보, 미청소 영역 정보 등을 더 포함할 수 있다.
디스플레이부(120)는 로봇 청소기(100)에서 지원하는 각종 정보를 디스플레이할 수 있다. 이러한 디스플레이부(120)는 LCD 등과 같은 작은 크기의 모니터일 수 있으며, 후술할 조작 입력부(130)의 기능을 동시에 수행할 수 있는 터치 스크린으로 구현될 수도 있다.
디스플레이부(120)는 로봇 청소기(100)의 동작 상태(청소 모드 또는 휴면 모드인지 여부), 청소 진행과 관련된 정보(예를 들어, 청소 진행 시간, 현재 청소 모드(예를 들어, 흡입 강도)), 배터리 정보, 충전 여부, 먼지 통에 먼지가 가득 찼는지 여부, 에러 상태(액체 접촉 상태) 등의 정보를 표시할 수 있다. 그리고 디스플레이부(120)는 에러가 감지되면, 감지된 에러를 표시할 수 있다.
디스플레이부(120)는 공간별 청소 영역을 표시할 수 있다. 구체적으로, 디스플레이부(120)는 사용자의 이력 표시 명령에 대응하여, 청소 영역을 표시할 수 있다. 이때, 디스플레이부(120)는 청소 영역을 복수의 공간별로 구분하여 표시할 수 있다. 또한, 복수의 공간 중 일부 공간에 대한 청소만 수행된 경우, 디스플레이부(120)는 청소가 수행된 공간에 대한 청소 영역만을 표시할 수도 있다.
조작 입력부(130)는 단말 장치(200)에서 지원하는 각종 기능을 사용자가 설정 또는 선택할 수 있는 다수의 기능키를 구비한다. 이러한 조작 입력부(130)는 복수의 버튼 등과 같은 장치로 구현될 수 있으며, 상술한 디스플레이부(120)의 기능을 동시에 수행할 수 있는 터치 스크린으로 구현될 수도 있다.
조작 입력부(130)는 로봇 청소기(100)의 청소 기능의 온/오프 명령, 청소 모드의 선택, 미청소 영역에 대한 재청소 명령, 특정 공간에 대한 청소 명령 등을 입력받을 수 있다.
저장부(140)는 로봇 청소기(100)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 저장부(140)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.
저장부(140)는 통신 인터페이스부(110)를 통하여 수신한 청소 스케줄 정보를 저장할 수 있다. 이때, 저장부(140)는 서로 다른 청소 시간대의 복수의 청소 스케줄 정보를 저장할 수 있다. 예를 들어, 저장부(140)는 평일 12시에 전체 공간에 대한 청소를 수행하는 제1 스케줄 정보, 토/일 오후 2시에 특정 공간(예를 들어, 거실)에 대한 청소를 수행하는 제2 스케줄 정보 등을 저장할 수 있다. 이상에서는 복수의 스케줄 정보 모두가 주기적인 스케줄인 것으로 예들 들었지만, 하나의 청소 스케줄은 주기적인지 않은 단발성 스케줄일 수도 있다.
그리고 저장부(140)는 구동부(160)의 구동에 따라 생성된 지도 정보를 저장할 수 있다. 여기서 지도 정보는 청소 과정 중의 로봇 청소기의 이동 경로를 나타내는 정보로, 이미지 형태일 수 있으며, 좌표 형태의 궤적 데이터일 수도 있다. 여기서 이동 경로는 청소 고정 중에 로봇 청소기의 전체 경로이고, 청소 경로는 전체 경로 중 흡입부에서 먼지 흡입 동작이 수행된 경로를 의미한다. 따라서, 지도 정보를 생성시에는 이동 경로를 이용하지만, 후술할 청소 결과 정보를 생성시에는 청소 경로를 이용할 수 있다. 다만, 구현시에 이동 과정에서도 흡입 동작이 수행되도록 구현될 수 있으며, 이동 경로를 이용하여 청소 결과 정보를 생성하는 것도 가능한바, 후술할 이동 경로는 청소 경로로 해석하는 것도 가능하며, 청소 경로 역시 반대로 이동 경로로 해석하는 것도 가능하다.
그리고 저장부(140)는 단말 장치(200)에서 제공한 공간 정보를 저장할 수 있다. 여기서 공간 정보는 지도 정보가 복수의 공간으로 구획되었을 때, 각 공간의 지도 정보 상의 위치 정보이다. 따라서, 지도 정보가 이미지 형태인 경우, 공간 정보 역시 지도 형태일 수 있다.
그리고 저장부(140)는 청소 과정 중에 발생한 이력 등을 이력 정보로 저장할 수 있다. 여기서 이력 정보로, 청소 시간, 충전 횟수 정보, 에러 발생 횟수 정보, 각 에러 정보, 미청소 영역에 대한 정보 등을 포함할 수 있다.
감지부(150)는 로봇 청소기(100) 주변의 장애물을 감지한다. 구체적으로, 감지부(150)는 초음파 센서(supersonic sensor), 적외선 센서(InfraRed sensor), RF 센서 등을 이용하여 로봇 청소기(100) 주변의 장애물의 위치 및 장애물과의 거리를 감지할 수 있다. 또한, 감지부(150)는 장애물과의 충돌을 통하여 장애물을 감지하는 충돌 센서를 더 포함할 수 있다.
감지부(150)는 로봇 청소기의 전면에 위치한 물체를 감지한다. 구체적으로, 감지부(150)는 로봇 청소기(100)의 전면을 촬상할 수 있는 촬상부를 구비하며, 촬상부에서 촬상된 이미지에서 영상 처리를 통하여 물체를 감지할 수 있다. 그리고 감지부(150)는 흡입 또는 우회가 필요한 물체에 대해서는 해당 촬상 이미지가 저장부(140)에 저장할 수 있다.
그리고 감지부(150)는 바닥면의 먼지 정도를 감지할 수 있다. 구체적으로, 감지부(150)는 흡입부에 입력되는 공기의 먼지 정도를 감지하는 먼지 센서를 포함할 수 있다. 이를 통하여, 감지부(150)는 실시간으로 감지되는 먼지량이 기설정된 양으로 줄어들면, 청소가 잘된 것으로 판단할 수 있다.
그리고 감지부(150)는 로봇 청소기(100)의 액체 접촉 여부를 감지한다. 구체적으로, 감지부(150)는 로봇 청소기(100)의 구동부(160)를 구성하는 바퀴에 액체 접촉 여부를 감지할 수 있다.
구동부(160)는 로봇 청소기를 이동시킨다. 구동부(160)는 하나 또는 둘 이상의 바퀴와 연결되고, 모터 등의 구동 유닛을 구비한다. 그리고 구동부(160)는 프로세서(180)의 제어 신호에 따라 이동, 정지, 방향 전환 등의 주행 동작을 수행한다.
흡입부(170)는 로봇 청소기(100)의 바닥 면에 먼지를 흡입한다. 구체적으로, 흡입부(170)는 이동중이거나 또는 정지 중에 하방에 있는 이물질을 흡수하여 청소 동작을 수행할 수 있다. 이러한 흡입부(170)는 공기 중의 오염물질을 정화하는 공기 정화 유닛을 더 포함할 수 있다.
흡입부(170)는 복수의 동작 모드를 갖는다. 여기서 동작 모드는 흡입 강도에 따라 구분될 수 있다. 이러한 동작 모드는 사용자가 미리 어느 하나를 설정해 놓을 수 있으며, 날씨에 따라 가변될 수 있다. 예를 들어, 흡입 강도에 따라 동작 모드가 1~5로 구분되어 있으며, 사용자가 디폴트로 설정한 것이 3인 경우에, 황사 또는 미세 먼지 경고가 있는 경우에, 흡입부(170)는 흡입 강도를 디폴트값도 증가한 예를 들어, 4 또는 5의 동작 모드로 동작될 수 있다.
프로세서(180)는 로봇 청소기(100) 내의 각 구성에 대한 제어를 수행한다. 구체적으로, 프로세서(180)는 청소 스케줄에 따라 청소 작업을 개시할 수 있다. 이때, 프로세서(180)는 서버 또는 단말 장치로부터 수신된 날씨 정보에 기초하여 날씨 정보에 대응되는 동작 모드로 동작하도록 흡입부(170)를 제어할 수 있다. 예를 들어, 날씨 정보에 황사 또는 미세 먼지 경고가 있는 경우에 프로세서(180)는 디폴트 흡입 강도보다 높은 흡입 강도로 흡입부(170)가 동작하도록 제어할 수 있다. 반대로, 먼지가 적은 여름에 프로세서(180)는 디폴트 흡입 강도보다 낮은 흡입 강도로 흡입부(170)가 동작하도록 제어할 수 있다.
그리고 프로세서(180)는 기저장된 지도 정보에 따라 로봇 청소기(100)가 이동되도록 구동부(160)를 제어하고, 로봇 청소기(100)의 이동 또는 정지 시에 청소가 수행되도록 흡입부(170)를 제어할 수 있다. 구체적으로, 단말 장치(200)로부터 특정 공간에 대한 청소 명령을 입력받았으면, 프로세서(190)는 기저장된 지도 정보에 기초하여 로봇 청소기가 해당 공간으로 이동하도록 구동부(160)를 제어하고, 해당 공간으로 이동됨이 확인되면 청소 동작이 수행되도록 할 수 있다.
만약, 기저장된 지도 정보가 없는 경우, 프로세서(180)는 로봇 청소기(100)가 기설정된 알고리즘에 따라 이동되도록 구동부(160)를 제어하고, 로봇 청소기(100)의 이동 궤적에 따른 지도 정보를 생성할 수 있다. 그리고 지도 정보가 생성되면, 프로세서(180)는 생성된 지도 정보가 단말 장치(200)에 전송되도록 통신 인터페이스부(110)를 제어할 수 있다.
그리고 프로세서(180)는 로봇 청소기(100) 내의 전원 상태에 따라 충전이 필요한 경우, 충전 스테이션으로 이동되어 충전되도록 구동부(160)를 제어할 수 있다.
그리고 프로세서(180)는 감지부(150)에서 감지된 먼지 정도에 따라 구동부(160) 및 흡입부(170)를 제어할 수 있다. 예를 들면 먼지의 유입이 많은 영역에서는 반복 주행 및 주행 속도를 늦추거나 흡입부(170)의 흡입력을 증가시켜 청소 효율을 높일 수 있다. 반대로 먼지가 유입되지 않는 지역에서는 주행 속도가 증가하도록 구동부(160)를 제어할 수 있다.
프로세서(180)는 청소가 완료되면, 로봇 청소기의 청소 경로를 포함하는 청소 결과 정보가 단말 장치(200)에 제공되도록 통신 인터페이스부(110)를 제어할 수 있다. 이때, 프로세서(180)는 공간 정보에 기초하여 복수의 공간별로 로봇 청소기의 청소 경로를 포함하는 청소 결과 정보를 생성하고, 생성한 청소 결과 정보가 전송되도록 통신 인터페이스부(110)를 제어할 수 있다.
한편, 구현시에는 하나의 청소 경로만을 포함하는 청소 결과 정보를 생성하여 단말 장치(100)에서 제공하고, 단말 장치(100) 측에서 수신된 청소 경로를 복수의 공간별로 구획하여 이용하는 것도 가능하다. 또한, 구현시에는 프로세서(180)는 공간별 청소 경로를 제공하는 것이 아니라, 공간별 청소 영역에 대한 이미지를 생성하고, 생성된 공간별 청소 영역 이미지를 청소 결과 정보로서 단말 장치(200)에 제공하는 것도 가능하다.
또한, 프로세서(180)는 최초 지도 정보가 단말 장치(200)에 제공되도록 통신 인터페이스부(110)를 제어할 수 있다. 구체적으로, 로봇 청소기(100)가 최초 청소 동작을 수행하는 경우, 로봇 청소기가 이동 가능한 공간에 대한 지도 정보를 생성한다.
프로세서(180)는 이렇게 생성된 지도 정보를 단말 장치(200)에 제공하고, 이후의 청소 과정에서 생성된 지도 정보를 활용하여 청소 작업을 수행할 수 있다. 한편, 로봇 청소기가 다른 환경에 이동되어 기저장된 지도 정보와 다름을 인지한 경우, 프로세서(180)는 기존의 지도 정보를 업데이트하고, 업데이트된 지도 정보가 단말 장치(200)에 제공되도록 통신 인터페이스부(110)를 제어할 수 있다. 한편, 구현시에는 다른 환경에 이동되는 경우뿐만 아니라 가구 배치가 변경되거나 새로운 가구가 배치되어 청소 가능 영역이 변경된 경우에도 지도 정보를 업데이트할 수 있다.
이상과 같이 본 실시 예에 따른 로봇 청소기(100)는 복수의 공간으로 구획된 공간 정보를 이용하여 청소를 수행할 수 있는바, 특정 공간 만에 대한 청소 작업을 수행할 수 있다. 또한, 본 실시 예에 따른 로봇 청소기(100)는 공간별 청소 경로를 청소 결과 정보로 단말 장치(200)에 제공하는바, 사용자는 손쉽게 공간별 청소 상태를 확인할 수 있게 된다.
도 3은 도 1의 단말 장치의 구성을 도시한 블록도이다.
도 3을 참조하면, 본 실시 예에 따른 단말 장치(200)는 통신 인터페이스부(210), 디스플레이부(220), 조작 입력부(230), 저장부(240) 및 프로세서(250)로 구성된다. 이와 같은 단말 장치(200)는 스마트 폰, 노트북, PMP, MP3 player, 스마트 TV, 웨어러블 장치(예를 들어, 스마트 워치) 등일 수 있다.
통신 인터페이스부(210)는 단말 장치(200)를 외부 장치(구체적으로, 로봇 청소기와 인터넷 망)에 연결하기 위해 형성되고, 근거리 통신망(LAN: Local Area Network) 및 인터넷망을 통해 외부 장치에 접속되는 형태뿐만 아니라, 무선 통신(예를 들어, Z-wave, 4LoWPAN, RFID, LTE D2D, BLE, GPRS, Weightless, Edge Zigbee, ANT+, NFC, IrDA, DECT, WLAN, 블루투스, 와이파이, Wi-Fi Direct, GSM, UMTS, LTE, WiBRO 등의 무선 통신) 방식에 의해서 접속될 수 있다.
그리고 통신 인터페이스부(210)는 청소 스케줄 정보를 전송한다. 구체적으로, 통신 인터페이스부(210)는 사용자가 설정한 청소 스케줄 정보를 로봇 청소기(100)에 전송할 수 있다. 또한, 통신 인터페이스부(210)는 청소 명령을 로봇 청소기(100)에 전송할 수 있다. 여기서 청소 명령은 전체 공간에 대한 청소 명령일 수 있으며, 특정 공간(예를 들어, 거실)에 대한 청소 명령일 수 있다.
그리고 통신 인터페이스부(210)는 청소 결과 정보를 수신한다. 구체적으로, 통신 인터페이스부(210)는 로봇 청소기의 청소 경로를 포함하는 청소 결과 정보를 수신할 수 있다. 이때, 청소 경로는 한 번의 청소 과정 중에 로봇 청소기가 이동한 모든 경로일 수 있으며, 공간별로 구분된 경로일 수 있다. 또한, 구현시에는 청소 경로가 아니라 청소 경로에 따른 공간별 청소 영역 이미지를 청소 결과 정보로 수신할 수도 있다.
디스플레이부(220)는 단말 장치(200)에 지원하는 각종 정보를 디스플레이할 수 있다. 이러한 디스플레이부(220)는 LCD, CRT 등과 같은 모니터일 수 있으며, 후술할 조작 입력부(230)의 기능을 동시에 수행할 수 있는 터치 스크린으로 구현될 수도 있다.
디스플레이부(220)는 수신된 청소 스케줄 정보 및 청소 결과 정보를 표시한다. 구체적으로, 디스플레이부(220)는 사용자의 선택에 따라 로봇 청소기의 청소 스케줄 정보를 표시할 수 있다. 이때, 디스플레이부(220)는 로봇 청소기(100)에서 기생성된 지도 정보과 로봇 청소기의 예정 이동 경로에 대한 정보를 표시할 수 있다. 또한, 디스플레이부(220)는 청소 시작 시간, 청소 소요 시간 등의 정보도 표시할 수 있다.
그리고 디스플레이부(220)는 청소 결과 정보를 표시할 수 있다. 구체적으로, 디스플레이부(220)는 복수의 공간별 로봇 청소기의 청소 영역에 대응되는 이미지를 표시할 수 있다. 구체적으로, 디스플레이부(220)는 로봇 청소기의 청소 폭을 반영하여 복수의 공간별 청소 경로 각각에 대한 청소 영역 이미지를 생성하고, 생성된 공간별 청소 영역 이미지를 표시할 수 있다. 이때, 생성된 청소 영역 이미지는 청소 경로가 포함되어 있을 수 있으며, 포함되어 있지 않을 수 있다. 또한, 청소 영역 이미지는 기생성된 지도 정보와 합성된 형태일 수 있으며, 합성되지 않은 형태일 수도 있다.
그리고 디스플레이부(220)는 표시된 이미지 중 어느 하나를 선택받으면, 선택된 영역에 대응되는 청소 영역에 대한 이미지를 확대하여 표시할 수 있다.
또한, 디스플레이부(220)는 청소 결과 정보의 표시 시에 청소 소요 시간, 에러 발생 여부를 표시할 수 있으며, 물체를 흡입한 이력이 있거나, 미청소 영역이 있는 경우, 이에 대한 정보도 함께 표시할 수 있다. 이에 따라, 사용자는 로봇 청소기(100)의 청소 동작을 손쉽게 확인할 수 있으며, 로봇 청소기(100)가 흡입한 물체를 확인할 수 있으며, 청소를 수행하지 못한 영역도 손쉽게 확인할 수 있다.
조작 입력부(230)는 단말 장치(200)에서 지원하는 각종 기능을 사용자가 설정 또는 선택할 수 있는 다수의 기능키를 구비한다. 이러한 조작 입력부(230)는 마우스, 키보드 등과 같은 장치로 구현될 수 있으며, 상술한 디스플레이부(220)의 기능을 동시에 수행할 수 있는 터치 스크린으로 구현될 수도 있다.
조작 입력부(230)는 로봇 청소기의 청소 스케줄을 사용자로부터 입력받을 수 있다. 그리고 조작 입력부(230)는 로봇 청소기(100)의 구동 상태에 대한 제어 명령을 입력받을 수 있다. 예를 들어, 기설정된 청소 스케줄 시점이 아닌 경우에, 로봇 청소기(100)가 청소하도록 하는 명령을 입력받을 수 있다. 이때, 조작 입력부(230)는 청소 지도 상의 전 영역에 대한 청소 명령을 입력받거나, 특정 영역에 대한 청소 명령을 입력받을 수도 있다.
조작 입력부(230)는 로봇 청소기의 청소 이력의 표시 명령을 입력받을 수 있다. 그리고 조작 입력부(230)는 표시된 청소 이력 중 어느 하나를 선택하는 선택 명령을 입력받을 수 있다. 또한, 조작 입력부(230)는 표시된 공간별 청소 영역 중 어느 하나를 선택하는 명령을 입력받을 수 있다.
저장부(240)는 단말 장치(200)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 저장부(150)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 저장부(240)는 프로세서(250)에 의해 액세스되며, 프로세서(140)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 본 개시에서 저장부라는 용어는 저장부(240), 프로세서(250) 내 롬(미도시), 램(미도시) 또는 단말 장치(200)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함할 수 있다.
구체적으로는, 저장부(240)에는 사용자 인터페이스 창에 표시될 각종 화면을 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다. 그리고 저장부(240)는 단말 장치(200)의 구동시 필요한 각종 명령어의 집합인 프로그램을 저장할 수 있다. 여기서 프로그램은 특정의 서비스를 제공하기 위한 애플리케이션(또는, 응용 프로그램)뿐만 아니라 애플리케이션을 구동시키기 위한 운영 프로그램을 포함한다.
그리고 저장부(240)는 프로세서(250)에서 생성된 청소 스케줄을 저장할 수 있으며, 통신 인터페이스부(210)를 통하여 수신된 청소 결과 정보를 저장할 수 있다.
그리고 저장부(240)는 통신 인터페이스부(210)를 통하여 수신한 지도 정보를 저장하고, 지도 정보에 따라 생성된 공간 정보도 저장할 수 있다.
프로세서(250)는 단말 장치(200) 내의 각 구성에 대한 제어를 수행한다. 구체적으로, 프로세서(250)는 저장부(240)에 저장된 각종 프로그램을 이용하여 단말 장치(200)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(250)는 CPU, 램(RAM), 롬(ROM), 시스템 버스를 포함할 수 있다. 여기서, 롬은 시스템 부팅을 위한 명령어 세트가 저장되는 구성이고, CPU는 롬에 저장된 명령어에 따라 저장부(240)에 저장된 운영체제를 램에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU는 저장부(240)에 저장된 각종 애플리케이션을 램에 복사하고, 실행시켜 각종 동작을 수행할 수 있다. 이상에서는 프로세서(250)가 하나의 CPU만을 포함하는 것으로 설명하였지만, 구현시에는 복수의 CPU(또는 DSP, SoC 등)으로 구현될 수 있다.
그리고 프로세서(250)는 단말 장치(200)가 부팅되면, 로봇 청소기의 제어 또는 청소 스케줄 생성을 위한 애플리케이션이 구동되도록 하고, 해당 애플리케이션 구동에 따른 사용자 인터페이스 창이 표시되도록 디스플레이부(220)를 제어할 수 있다.
그리고 프로세서(250)는 사용자로부터 입력받은 제어 명령에 따라, 로봇 청소기의 청소 스케줄을 생성하고, 생성된 청소 스케줄에 따른 동작이 수행되도록 생성된 청소 스케줄이 로봇 청소기(100)에 전송되도록 통신 인터페이스부(210)를 제어할 수 있다.
그리고 프로세서(250)는 사용자로부터 청소 명령을 입력받으면, 청소 명령이 전송되도록 통신 인터페이스부(210)를 제어할 수 있다. 구체적으로, 사용자로부터 청소 명령이 입력되면, 프로세서(250)는 청소될 공간을 선택받기 위한 공간 정보가 표시되도록 디스플레이부(220)를 제어하고, 표시된 공간 중 특정 공간이 선택되면 선택된 특정 공간에 대한 청소 명령을 생성하여 로봇 청소기(100)에 전송할 수 있다.
그리고 프로세서(250)는 로봇 청소기(100)로부터 지도 정보를 수신하면, 수신된 지도 정보에 기초하여 공간 정보를 생성한다. 구체적으로, 프로세서(250)는 수신된 지도 정보를 기초로 로봇 청소기가 이동 가능한 전체 영역(즉, 가정집 크기)을 설정하고, 이동 경로를 기초로 전체 영역을 복수의 영역으로 구획할 수 있다. 이러한 동작은 기설정된 알고리즘을 통하여 자동으로 구획될 수 있으며, 사용자의 조작을 통하여 구획될 수도 있다.
또한, 프로세서(250)는 복수의 영역이 구획되면 각 영역의 이름을 설정하거나, 사용자로부터 복수의 영역에 대한 이름을 설정받을 수도 있다.
그리고 프로세서(250)는 로봇 청소기의 청소 결과가 표시되도록 디스플레이부(220)를 제어할 수 있다. 구체적으로, 프로세서(250)는 수신된 청소 결과 정보 내의 경로 정보와 공간 정보에 기초하여 복수의 공간별 로봇 청소기의 청소 영역에 대응되는 이미지를 생성하고, 생성된 공간별 청소 영역 이미지가 표시되도록 디스플레이부(220)를 제어할 수 있다.
그리고 표시된 청소 영역 이미지(또는 공간) 중 어느 하나가 선택되면, 프로세서(250)는 선택된 청소 영역 이미지의 확대 이미지가 표시되도록 디스플레이부(220)를 제어할 수 있다.
이상과 같이 본 실시 예에 따른 단말 장치(200)는 복수의 공간으로 구획된 공간 정보를 이용하여 공간별로 청소 명령을 입력할 수 있는바 사용자 편의성이 향상된다. 또한, 본 실시 예에 따른 단말 장치(200)는 공간별 청소 영역을 사용자에게 제공하는바, 사용자는 손쉽게 공간별 청소 상태를 확인할 수 있게 된다.
한편, 이상에서는 단말 장치(200)에서 공간 정보를 생성하고, 생성된 공간 정보를 로봇 청소기에 제공하는 것으로 설명하였지만, 구현시에는 로봇 청소기에서 자체적으로 공간 정보를 생성할 수 있다. 또한, 단말 장치(200)와 로봇 청소기(100)가 아닌 별도의 서버(미도시)에서 지도 정보를 이용하여 공간 정보를 생성하고, 생성된 공간 정보를 단말 장치(200) 또는 로봇 청소기(100)에 제공하는 형태로도 구현될 수 잇다.
도 4 내지 도 10은 도 3의 디스플레이부에서 표시될 수 있는 사용자 인터페이스 창의 다양한 예를 도시한 도면이다.
구체적으로, 도 4는 청소 어플리케이션이 최초 구동되면 표시되는 사용자 인터페이스 창의 일 예를 도시한 도면이다.
도 4를 참조하면, 사용자 인터페이스 창(400)은 컨트롤 영역(410) 및 공간 선택 영역(420)을 포함한다.
컨트롤 영역(410)은 로봇 청소기의 동작 제어를 위한 다양한 사용자 제어 명령을 입력받기 위한 메뉴를 표시하도록 하는 영역이다. 컨트롤 영역(410)이 선택되면 도 7과 같은 사용자 인터페이스 창이 표시될 수 있다.
공간 선택 영역(420)은 공간별 청소 명령을 입력받기 위한 메뉴를 표시하도록 하는 영역이다. 현재 도 4에서는 공간 선택 영역(420)이 선택되어 있는데, 아직 공간 정보가 생성되기 전이기 때문에 공간 정보의 생성이 필요함을 알리는 메시지가 공간 선택 영역(420) 하단에 표시된다. 만약, 공간 정보가 기생성되어 있다면, 공간 선택 영역(420)이 선택되면, 도 5와 같은 사용자 인터페이스 창이 표시될 수 있다.
사용자가 도 4와 같은 메시지 창에서 공간 정보의 생성을 요청하면, 단말 장치(200)는 로봇 청소기(100)로부터 수신한 지도 정보를 복수의 공간으로 구획하여 공간 정보를 생성할 수 있다. 한편, 로봇 청소기에서 생성한 지도 정보를 이용하여 공간 정보를 생성하는 것은 널리 알려진 기술인바, 본 개시에서는 이에 대한 자세한 설명은 생략한다.
도 5는 공간 정보가 기생성된 경우 표시되는 사용자 인터페이스 창의 일 예이다.
도 5를 참조하면, 사용자 인터페이스 창(500)은 복수의 공간으로 구획된 공간 정보(510)를 표시한다. 도시된 예에서는 5개의 공간으로 구획된 공간 정보가 도시되어 있지만, 구현시에 로봇 청소기가 존재하는 환경에 따라 하나의 공간만이 있을 수 있으며, 2 내지 4개 또는 6개 이상의 공간으로 구획된 공간 정보가 있을 수도 있다.
한편, 도시된 예에서는 각 공간이 숫자로 표시되어 있지만, 사용자는 설정을 통하여 각 공간을 자신이 원하는 이름(예를 들어, 거실, 안방, 부엌 등)으로 설정할 수 있다.
사용자는 표시된 공간 정보 상에서 청소를 수행할 공간을 선택할 수 있다. 예를 들어, 도시된 공간 중 1번 공간을 선택한 경우, 도 6과 같은 사용자 인터페이스 창이 표시될 수 있다.
도 6은 청소할 특정 공간이 선택된 경우 표시될 수 있는 사용자 인터페이스 창의 일 예이다.
도 6을 참조하면, 사용자 인터페이스 창(600)은 공간 정보 표시 영역(610), 청소 개시 명령 영역(615), 배터리 정보 표시 영역(620), 공간 변경 영역(630), 이름 수정 영역(630)을 포함한다.
공간 정보 표시 영역(610)은 복수의 공간으로 구획된 공간 정보를 표시하고, 앞선 과정에서 사용자가 선택한 영역을 함께 표시한다.
청소 개시 명령 영역(615)은 공간 정보 표시 영역(610)에 대한 청소 개시 명령을 입력받는 영역이다. 사용자가 청소 개시 명령 영역(615)을 선택하면, 단말 장치(200)는 '01' 공간에 대한 청소 개시 명령을 로봇 청소기(100)에 전송할 수 있다.
배터리 정보 표시 영역(620)은 로봇 청소기의 배터리 상태를 표시하는 영역이다. 도시된 예에서는 배터리 상태만을 표시하였지만, 구현시에는 배터리 상태뿐만 아니라 로봇 청소기의 다른 상태들도 함께 표시할 수도 있다. 예를 들어, 먼지통 내의 먼지량 정보, 에러 여부 정보 등이 표시될 수 있다.
공간 변경 영역(630)은 복수의 공간에 대한 구획을 변경하기 위한 사용자 명령을 입력받는 영역이다. 이와 같은 영역(630)이 선택되면 도 4와 같은 과정으로 돌아가서 공간 정보가 재생성될 수 있다.
이름 수정 영역(630)은 현재 구획된 각 공간에 대한 이름을 수정받기 위한 영역이다. 이러한 이름 수정 영역(630)이 선택되면 현재 구획된 각 공간에 대한 이름을 설정받기 위한 사용자 인터페이스 창이 표시될 수 있다.
도 7은 도 4의 컨트롤 영역(410)이 선택된 경우에 표시되는 사용자 인터페이스 창의 일 예이다.
도 7을 참조하면, 사용자 인터페이스 창(700)은 제어 UI 표시 영역(710), 배터리 상태 표시 영역(720), 출력 표시 영역(730), 스케줄 표시 영역(740), 청소 이력 표시 영역(750)이다.
제어 UI 표시 영역(710)은 로봇 청소기에 대한 복수의 제어 명령을 입력받기 위한 UI 표시 영역으로, 청소 일시 정지, 전진 명령, 좌측 회전 명령, 우측 회전 명령, 특정 영역 반복 청소 등의 명령을 입력받기 위한 UI가 표시된다.
배터리 상태 표시 영역(720)은 현재 로봇 청소기의 배터리 상태를 표시하는 영역이다. 구현시에는 배터리 상태뿐만 아니라 로봇 청소기의 다양한 상태(예를 들어, 에러 유무, 먼지통의 먼지양)에 대해서도 표시할 수 있다.
출력 표시 영역(730)은 로봇 청소기의 흡입 강도를 표시하는 영역이다.
스케줄 표시 영역(730)은 현재 로봇 청소기에 설정된 청소 스케줄을 표시하는 명령을 입력받기 위한 영역이다. 사용자는 해당 영역을 선택하여 로봇 청소기에 설정된 청소 스케줄을 확인하거나, 새로운 청소 스케줄을 추가 또는 변경할 수 있다.
청소 이력 표시 영역(740)은 기수행된 청소 이력을 표시하는 영역이다. 해당 영역이 선택되면 도 8과 같은 사용자 인터페이스 창이 표시될 수 있다.
도 8은 청소 이력을 표시하는 사용자 인터페이스 창의 일 예이다.
도 8을 참조하면, 사용자 인터페이스 창(800)은 복수의 청소 이력(810, 820, 830, 840)을 표시한다. 그리고 복수의 청소 이력 중 하나는 공간별 청소 영역을 이미지(821, 822, 823)로 표시한다. 사용자는 청소 이력(820)을 좌우로 이동하여 각 공간별 청소 영역을 확인할 수 있다. 한편, 도시된 예에서는 하나의 이력에 대해서만 청소 영역을 표시하였지만, 구현시에는 모든 이력에 대해서 공간별 청소 이력 이미지를 표시할 수도 있다. 다만, 모든 청소 이력에 대한 청소 영역 이미지를 표시하는 경우 화면에 표시되는 청소 이력 개수는 줄어드는바, 구현시에는 도시된 바와 같이 최근의 이력에 대해서만 청소 이력 이미지를 표시하고, 다른 이력들은 청소 결과만을 표시할 수 있다. 만약 이러한 경우라도 사용자가 해당 이력을 선택하면, 해당 청소 이력 시에 영역별 청소 영역 이미지를 표시할 수 있다.
그리고 사용자는 표시된 청소 영역 중 어느 하나를 선택할 수 있다. 예를 들어, 거실 청소 이력(821)을 선택한 경우, 도 9와 같은 사용자 인터페이스 창이 표시될 수 있다.
도 9는 복수의 공간 중 어느 하나가 선택된 경우 표시될 수 있는 사용자 인터페이스 창의 일 예이다.
도 9를 참조하면, 사용자 인터페이스 창(900)은 사용자가 선택한 공간에 대한 구체적인 로봇 청소기의 청소 영역을 표시한다. 이와 같이 본 실시 예에서는 복수의 공간별로 구획하여 청소 영역을 표시할 뿐만 아니라 사용자가 선택한 청소 영역에 대한 상세 청소 영역 이미지를 표시하는바, 사용자는 로봇 청소기의 청소 결과를 손쉽게 직관적으로 확인할 수 있게 된다.
한편, 도시된 청소 영역 이미지(910)에서 해칭된 영역은 청소 영역이고, 검은색 줄은 로봇 청소기의 이동 경로를 나타낸다.
한편, 도시된 예에서는 청소 영역과 이동 경로를 함께 표시하는 것으로 도시하고 설명하였지만, 구현시에는 도 10과 같이 이동 경로의 표시 없이 청소 영역만을 표시할 수도 있다.
도 10은 청소 이력 표시 영역이 선택된 경우, 표시 가능한 사용자 인터페이스 창의 다른 예이다.
도 10을 참조하면, 사용자 인터페이스 창(1000)은 복수의 청소 이력(1010, 1020, 1030, 1040)을 표시한다. 그리고 복수의 청소 이력 중 하나는 공간별 청소 영역을 이미지(1021, 1022, 1023)로 표시한다. 도 8과 비교하면, 공간별 청소 영역의 이미지(1021, 1022, 1023)에서 로봇 청소기의 이동 경로가 도 10에서는 표시되어 있지 않다. 구현시에 사용자는 설정 메뉴에서 도 8과 같이 표시할 것인지 또는 도 10과 같이 표시할 것인지를 선택할 수 있다.
도 11은 본 개시의 일 실시 예에 따른 로봇 청소기의 제어 방법을 설명하기 위한 흐름도이다.
도 11을 참조하면, 사용자로부터 청소 명령을 수신한다(S1110). 구체적으로, 외부의 단말 장치(200)로부터 청소 명령을 수신하거나, 로봇 청소기(100)에 구비된 조작 입력부(130)를 통하여 직접 청소 명령을 수신한다. 여기서 수신된 청소 명령은 청소 스케줄일 수 있다.
수신된 청소 명령에 따라 청소를 수행한다(S1120). 구체적으로, 로봇 청소기가 기설정된 경로에 따라 이동되도록 제어하면서 이동 중에 바닥 면의 먼지를 흡입하여 청소를 수행할 수 있다. 한편, 사용자로부터 수신한 청소 명령이 특정 공간에 대한 청소 명령이었으면, 청소 수행 전에 특정 공간으로 이동이 먼저 선행적으로 수행될 수 있다.
그리고 청소 과정 중에 로봇 청소기의 청소 경로를 저장한다.
그리고 기수신된 공간 정보에 기초하여 복수의 공간별 로봇 청소기의 청소 경로를 포함하는 청소 결과 정보를 생성하고, 생성된 청소 결과 정보를 단말 장치(200)로 전송할 수 있다(S1130).
이상과 같이 본 실시 예에 따른 로봇 청소기(100)의 제어 방법은 복수의 공간으로 구획된 공간 정보를 이용하여 청소를 수행할 수 있는바, 특정 공간에 대한 청소 작업을 수행할 수 있다. 또한, 본 실시 예에 따른 로봇 청소기(100)의 제어 방법은 공간별 청소 경로를 청소 결과 정보로 단말 장치(200)에 제공하는바, 사용자는 손쉽게 공간별 청소 상태를 확인할 수 있게 된다. 도 11과 같은 제어 방법은 도 2의 구성을 가지는 로봇 청소기 상에서 실행되거나, 그 밖의 다른 구성을 가지는 로봇 청소기 상에서도 실행될 수 있다.
또한, 상술한 바와 같은 제어 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램으로 구현될 수 있고, 상기 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 애플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
도 12는 본 개시의 일 실시 예에 따른 단말 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 12를 참조하면, 먼저 복수의 공간으로 구획된 공간 정보를 생성하여 저장한다(S1210). 구체적으로, 로봇 청소기(100)로부터 지도 정보를 수신하고, 수신된 지도 정보를 알고리즘을 통하여 복수의 공간으로 구획하여 구획 정보를 생성하거나 사용자로부터 복수의 공간으로 구획받아 복수의 공간으로 구획된 공간 정보를 생성할 수 있다.
그리고 로봇 청소기로부터 청소 경로를 포함하는 청소 결과 정보를 수신한다(S1220).
만약, 로봇 청소기로부터 수신된 청소 경로가 하나의 경로라면, 공간 정보에 기초하여 청소 결과 정보에 포함된 청소 경로를 복수의 공간으로 분리할 수 있다(S1230). 만약, 로봇 청소기로부터 수신된 청소 결과 정보에 공간별로 구분된 청소 경로가 포함되어 있는 경우, 이러한 동작은 생략될 수 있다.
그리고 복수의 공간별 상기 로봇 청소기의 청소 영역을 표시한다(S1240). 구체적으로, 공간별 청소 경로에 기초하여 복수의 공간별 로봇 청소기의 청소 영역 이미지를 생성할 수 있다. 그리고 생성된 공간별 청소 영역 이미지의 썸네일을 표시할 수 있다. 만약 사용자가 표시된 썸네일 중 어느 하나를 선택하면, 선택된 썸네일에 대응되는 청소 영역 이미지를 표시할 수 있다.
이상과 같이 본 실시 예에 따른 단말 장치의 제어 방법은 공간별 청소 영역을 사용자에게 제공하는바, 사용자는 손쉽게 공간별 청소 상태를 확인할 수 있게 된다. 도 12과 같은 단말 장치의 제어 방법은 도 3의 구성을 가지는 단말 장치 상에서 실행되거나, 그 밖의 다른 구성을 가지는 단말 장치 상에서도 실행될 수 있다.
또한, 상술한 바와 같은 제어 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램으로 구현될 수 있고, 상기 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 애플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
이상에서는 본 개시의 바람직한 실시예에 대해서 도시하고, 설명하였으나, 본 개시는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.

Claims (15)

  1. 로봇 청소기와 연결 가능한 단말 장치에 있어서,
    복수의 공간으로 구획된 공간 정보를 저장하는 저장부;
    상기 로봇 청소기로부터 청소 경로를 포함하는 청소 결과 정보를 수신하는 통신 인터페이스부;
    상기 청소 결과 정보를 표시하는 디스플레이부; 및
    상기 수신된 청소 결과 정보 및 상기 저장된 공간 정보에 기초하여 상기 복수의 공간별 상기 로봇 청소기의 청소 영역이 표시되도록 상기 디스플레이부를 제어하는 프로세서;를 포함하는 단말 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 복수의 공간 중 청소 작업이 수행된 공간에 대한 상기 로봇 청소기의 청소 영역이 표시되도록 상기 디스플레이부를 제어하는 단말 장치.
  3. 제1항에 있어서,
    상기 프로세서는,
    청소 작업이 수행된 공간의 지도 및 상기 지도 상의 청소 영역을 함께 표시하도록 상기 디스플레이부를 제어하는 단말 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    청소 작업이 수행된 공간의 청소 영역과 상기 청소 영역 상의 상기 로봇 청소기의 이동 경로를 함께 표시하도록 상기 디스플레이부를 제어하는 단말 장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 공간 정보에 기초하여 상기 청소 결과 정보에 포함된 청소 경로를 복수의 공간별로 분리하고, 분리된 청소 경로에 기초하여 복수의 공간별 상기 로봇 청소기의 청소 영역 이미지를 생성하는 단말 장치.
  6. 제1항에 있어서,
    상기 청소 결과 정보는 복수의 공간별 분리된 복수의 청소 경로를 포함하고,
    상기 프로세서는,
    상기 복수의 청소 경로에 기초하여 복수의 공간별 상기 로봇 청소기의 청소 영역 이미지를 생성하는 단말 장치.
  7. 제1항에 있어서,
    상기 통신 인터페이스부는,
    상기 로봇 청소기로부터 상기 로봇 청소기에서 생성된 지도 정보를 수신하고,
    상기 프로세서는,
    상기 수신된 지도 정보에 기초하여 복수의 공간으로 구획된 공간 정보를 생성하여 상기 저장부에 저장하는 단말 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 복수의 공간 중 적어도 하나의 공간을 사용자로부터 선택받으면, 상기 선택된 공간에 대한 청소 명령이 상기 로봇 청소기에 전송되도록 상기 통신 인터페이스부를 제어하는 단말 장치.
  9. 제1항에 있어서,
    상기 프로세서는,
    상기 표시된 공간별 청소 영역 중 어느 하나의 청소 영역이 선택되면, 상기 선택된 청소 영역이 확대되어 표시되도록 상기 디스플레이부를 제어하는 단말 장치.
  10. 로봇 청소기에 있어서,
    상기 로봇 청소기를 이동시키는 구동부;
    상기 로봇 청소기의 바닥면에 먼지를 흡입하는 흡입부;
    단말 장치로부터 복수의 공간으로 구획된 공간 정보를 수신하는 통신 인터페이스부; 및
    상기 로봇 청소기를 이동시켜 청소 작업을 수행하고, 상기 수신된 공간 정보에 기초하여 복수의 공간별 상기 로봇 청소기의 청소 경로를 포함하는 청소 결과 정보가 상기 단말 장치에 전송하도록 상기 통신 인터페이스부를 제어하는 프로세서;를 포함하는 로봇 청소기.
  11. 제10항에 있어서,
    상기 프로세서는,
    상기 복수의 공간 중 청소 작업이 수행된 공간 각각의 청소 경로만을 포함하는 청소 결과 정보를 상기 단말 장치에 전송하도록 상기 통신 인터페이스부를 제어하는 로봇 청소기.
  12. 제10항에 있어서,
    상기 프로세서는,
    상기 복수의 공간 중 특정 공간에 대한 청소 명령을 상기 단말 장치로부터 수신하면, 상기 수신된 공간 정보에 기초하여 상기 특정 공간으로 상기 로봇 청소기가 이동하여 청소 작업을 수행하도록 상기 로봇 청소기를 제어하는 로봇 청소기.
  13. 제10항에 있어서,
    상기 프로세서는,
    상기 로봇 청소기의 이동에 따른 지도 정보를 생성하여 상기 단말 장치에 전송되도록 상기 통신 인터페이스부를 제어하고,
    상기 공간 정보는,
    상기 생성된 지도 정보가 복수의 공간으로 구획되고, 상기 구획된 복수의 공간 각각의 위치 정보인 로봇 청소기.
  14. 제10항에 있어서,
    상기 통신 인터페이스부는,
    상기 단말 장치로부터 청소 스케줄 정보를 수신하고,
    상기 프로세서는,
    상기 수신된 청소 스케줄 정보에 따라 청소 작업을 수행하는 로봇 청소기.
  15. 로봇 청소기와 연결 가능한 단말 장치의 제어 방법에 있어서,
    복수의 공간으로 구획된 공간 정보를 기저장하는 단계;
    상기 로봇 청소기로부터 청소 경로를 포함하는 청소 결과 정보를 수신하는 단계; 및
    상기 수신된 청소 결과 정보 및 상기 저장된 공간 정보에 기초하여 상기 복수의 공간별 상기 로봇 청소기의 청소 영역을 표시하는 단계;를 포함하는 제어 방법.
PCT/KR2017/009030 2016-08-30 2017-08-18 로봇 청소기, 단말 장치 및 그 제어 방법 WO2018043966A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/327,181 US20210283773A1 (en) 2016-08-30 2017-08-18 Robot cleaner, terminal device and control method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160110734A KR20180024467A (ko) 2016-08-30 2016-08-30 로봇 청소기, 단말 장치 및 그 제어 방법
KR10-2016-0110734 2016-08-30

Publications (1)

Publication Number Publication Date
WO2018043966A1 true WO2018043966A1 (ko) 2018-03-08

Family

ID=61300908

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/009030 WO2018043966A1 (ko) 2016-08-30 2017-08-18 로봇 청소기, 단말 장치 및 그 제어 방법

Country Status (3)

Country Link
US (1) US20210283773A1 (ko)
KR (1) KR20180024467A (ko)
WO (1) WO2018043966A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113749564A (zh) * 2021-09-01 2021-12-07 深圳市云鼠科技开发有限公司 一种扫地机器人的地图数据绘制方法、模块、设备及介质

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110381788A (zh) * 2017-03-03 2019-10-25 创科(澳门离岸商业服务)有限公司 与用户控制的电子设备无线通信的吸尘器和真空清洁***
US10835096B2 (en) * 2018-08-30 2020-11-17 Irobot Corporation Map based training and interface for mobile robots
KR102306436B1 (ko) * 2019-07-11 2021-09-28 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN112493924B (zh) * 2019-08-26 2023-03-10 苏州宝时得电动工具有限公司 清洁机器人及其控制方法
KR20210045784A (ko) * 2019-10-17 2021-04-27 엘지전자 주식회사 청소기 시스템
CN110772169B (zh) * 2019-10-31 2021-07-13 北京小米移动软件有限公司 除螨方法及除螨仪
WO2021227777A1 (zh) * 2020-05-11 2021-11-18 追觅创新科技(苏州)有限公司 清洁设备的清洁路径获取方法、装置及存储介质
KR102421519B1 (ko) 2020-05-26 2022-07-15 엘지전자 주식회사 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법
JP2022182072A (ja) * 2021-05-27 2022-12-08 オムロン株式会社 ロボット制御システム、情報処理装置、情報処理方法およびプログラム
JP2023176470A (ja) * 2022-05-31 2023-12-13 オムロン株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130030958A (ko) * 2011-09-20 2013-03-28 엘지전자 주식회사 로봇 청소기
KR20140063119A (ko) * 2012-11-16 2014-05-27 삼성전자주식회사 로봇 청소기와 로봇 청소기를 이용한 환경 정보 제공 방법
KR101412590B1 (ko) * 2011-09-07 2014-06-26 엘지전자 주식회사 로봇 청소기의 원격 제어 시스템 및 방법
KR20150077231A (ko) * 2013-12-27 2015-07-07 엘지전자 주식회사 로봇 청소기, 로봇 청소기 시스템 및 그 제어방법
KR20150095121A (ko) * 2014-02-12 2015-08-20 엘지전자 주식회사 로봇 청소기 및 이의 제어방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101412590B1 (ko) * 2011-09-07 2014-06-26 엘지전자 주식회사 로봇 청소기의 원격 제어 시스템 및 방법
KR20130030958A (ko) * 2011-09-20 2013-03-28 엘지전자 주식회사 로봇 청소기
KR20140063119A (ko) * 2012-11-16 2014-05-27 삼성전자주식회사 로봇 청소기와 로봇 청소기를 이용한 환경 정보 제공 방법
KR20150077231A (ko) * 2013-12-27 2015-07-07 엘지전자 주식회사 로봇 청소기, 로봇 청소기 시스템 및 그 제어방법
KR20150095121A (ko) * 2014-02-12 2015-08-20 엘지전자 주식회사 로봇 청소기 및 이의 제어방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113749564A (zh) * 2021-09-01 2021-12-07 深圳市云鼠科技开发有限公司 一种扫地机器人的地图数据绘制方法、模块、设备及介质

Also Published As

Publication number Publication date
US20210283773A1 (en) 2021-09-16
KR20180024467A (ko) 2018-03-08

Similar Documents

Publication Publication Date Title
WO2018043966A1 (ko) 로봇 청소기, 단말 장치 및 그 제어 방법
AU2014297039B2 (en) Auto-cleaning system, cleaning robot and method of controlling the cleaning robot
WO2018128353A1 (en) Robot cleaner and method for controlling thereof
WO2021101047A1 (en) Mobile robot device and method for controlling mobile robot device
WO2019124913A1 (en) Robot cleaners and controlling method thereof
WO2017010601A1 (ko) 차량 제어 장치 및 그 방법
WO2015030488A1 (en) Multi display method, storage medium, and electronic device
WO2016052875A1 (en) Display apparatus and control method thereof
WO2018043957A1 (en) Robot cleaner
WO2021261716A1 (ko) 도킹 스테이션, 이동 로봇 및 도킹 스테이션과 이동 로봇을 제어하는 이동 로봇 관리 시스템
WO2015072623A1 (ko) 클리닝 디바이스 및 그 제어 방법
WO2018070751A1 (en) Electronic device having a plurality of displays and operating method thereof
WO2017204517A1 (ko) 청소 로봇 및 그 제어 방법
WO2020204355A1 (ko) 전자 장치 및 그 제어 방법
WO2020080803A1 (ko) 로봇 청소기 및 그의 제어 방법
WO2020017752A1 (ko) 드로잉을 통한 이동 로봇 제어 장치 및 그것의 동작 방법
WO2018124823A1 (en) Display apparatus and controlling method thereof
WO2022092571A1 (ko) 로봇 청소기 및 그의 주행 방법
WO2018117513A1 (ko) 공항용 로봇 및 그의 동작 방법
WO2019074243A1 (en) DISPLAY DEVICE, USER TERMINAL DEVICE, DISPLAY SYSTEM COMPRISING THE SAME, AND ASSOCIATED COMAND METHOD
WO2020153628A1 (ko) 로봇 및 그 제어 방법
EP3478143A1 (en) Robot cleaner
WO2017003152A1 (en) Apparatus and method for controlling object movement
WO2019135513A1 (en) Electronic device and controlling method thereof
WO2022186598A1 (ko) 로봇 청소기 및 이의 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17846891

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17846891

Country of ref document: EP

Kind code of ref document: A1