WO2017073955A1 - 청소 로봇 및 그 제어방법 - Google Patents

청소 로봇 및 그 제어방법 Download PDF

Info

Publication number
WO2017073955A1
WO2017073955A1 PCT/KR2016/011823 KR2016011823W WO2017073955A1 WO 2017073955 A1 WO2017073955 A1 WO 2017073955A1 KR 2016011823 W KR2016011823 W KR 2016011823W WO 2017073955 A1 WO2017073955 A1 WO 2017073955A1
Authority
WO
WIPO (PCT)
Prior art keywords
cleaning
cleaning robot
user
robot
module
Prior art date
Application number
PCT/KR2016/011823
Other languages
English (en)
French (fr)
Inventor
이동훈
박흠용
김민재
류민우
권영도
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to CN201680070436.5A priority Critical patent/CN108366707B/zh
Priority to AU2016346447A priority patent/AU2016346447B2/en
Priority to US15/771,350 priority patent/US11019972B2/en
Priority to EP16860138.3A priority patent/EP3342324B1/en
Publication of WO2017073955A1 publication Critical patent/WO2017073955A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L7/00Suction cleaners adapted for additional purposes; Tables with suction openings for cleaning purposes; Containers for cleaning articles by suction; Suction cleaners adapted to cleaning of brushes; Suction cleaners adapted to taking-up liquids
    • A47L7/0085Suction cleaners adapted for additional purposes; Tables with suction openings for cleaning purposes; Containers for cleaning articles by suction; Suction cleaners adapted to cleaning of brushes; Suction cleaners adapted to taking-up liquids adapted for special purposes not related to cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2894Details related to signal transmission in suction cleaners
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/02Floor surfacing or polishing machines
    • A47L11/10Floor surfacing or polishing machines motor-driven
    • A47L11/14Floor surfacing or polishing machines motor-driven with rotating tools
    • A47L11/18Floor surfacing or polishing machines motor-driven with rotating tools the tools being roll brushes
    • A47L11/185Floor surfacing or polishing machines motor-driven with rotating tools the tools being roll brushes with supply of cleaning agents
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/02Floor surfacing or polishing machines
    • A47L11/20Floor surfacing or polishing machines combined with vacuum cleaning devices
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/02Floor surfacing or polishing machines
    • A47L11/20Floor surfacing or polishing machines combined with vacuum cleaning devices
    • A47L11/201Floor surfacing or polishing machines combined with vacuum cleaning devices with supply of cleaning agents
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/02Floor surfacing or polishing machines
    • A47L11/20Floor surfacing or polishing machines combined with vacuum cleaning devices
    • A47L11/202Floor surfacing or polishing machines combined with vacuum cleaning devices having separate drive for the cleaning brushes
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4036Parts or details of the surface treating tools
    • A47L11/4044Vacuuming or pick-up tools; Squeegees
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • A47L9/281Parameters or conditions being sensed the amount or condition of incoming dirt or dust
    • A47L9/2815Parameters or conditions being sensed the amount or condition of incoming dirt or dust using optical detectors
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • A47L9/2826Parameters or conditions being sensed the condition of the floor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/04Gripping heads and other end effectors with provision for the remote detachment or exchange of the head or parts thereof
    • B25J15/0491Gripping heads and other end effectors with provision for the remote detachment or exchange of the head or parts thereof comprising end-effector racks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/02Docking stations; Docking operations
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/06Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45098Vacuum cleaning robot

Definitions

  • the present invention relates to a cleaning robot that provides human service interaction (HRI) technology and a method of manufacturing the same.
  • HRI human service interaction
  • the cleaning robot is a device that automatically cleans the cleaning space by driving foreign materials such as dust accumulated on the floor while driving the cleaning space without a user's operation. That is, the cleaning robot travels through the cleaning space and cleans the cleaning space.
  • a cleaning robot includes: a module in which at least one module supporting different functions is integrated; And a controller configured to control an operation of the modular to control at least one of a device in the cleaning robot and an IoT apparatus.
  • the modular includes a gripper module for controlling the robot arm to mount a cleaning head on the robot arm, the control unit controls the operation of the gripper module, by using a cleaning head mounted on the robot arm You can control the cleaning performance.
  • the modular may further include a communication module configured to support connection with at least one other cleaning robot through a communication network, and the control unit may include a support specification supported by the at least one other cleaning robot, a size and shape of a cleaning area.
  • the joint cleaning may be controlled by controlling an operation of the communication module based on at least one of the following.
  • the modular includes a recognition module for detecting a user existing in the room, the control unit, based on at least one of the detection result through the recognition module, and the detection result through the IoT device, performing the cleaning Can be controlled.
  • the modular includes a sensor module for acquiring indoor environment information
  • the controller is based on the indoor environment information acquired through the sensor module and the desired information about the indoor environment set by the user, the cleaning robot And controlling at least one of the IoT apparatuses to adjust the indoor environment.
  • the modular unit may include a communication module for supporting a connection with an external device through a communication network, and an image unit for acquiring image information.
  • the controller may receive the image unit when receiving a remote connection request through the communication module. By controlling, image information may be obtained.
  • the robot arm is a cleaning head is mounted; And a controller configured to determine a cleaning head corresponding to a cleaning mode among a plurality of cleaning heads, control mounting between the robot arm and the determined cleaning head, and control cleaning by using the mounted cleaning head. .
  • the robot arm may be provided with a water supply pipe for supplying water to the cleaning head, and a suction passage for sucking dust.
  • a docking portion for inducing coupling with the cleaning head, and an electromagnet for fixing the cleaning head may be provided.
  • a cleaning head storage box in which the plurality of cleaning heads are stored; It may further include.
  • the cleaning head storage box may be provided at a station of the cleaning robot or at a predetermined position.
  • the cleaning head storage box the plurality of cleaning head may be stored in a predetermined position.
  • the controller may identify the position of the cleaning head storage box using an infrared ray (IR) sensor mounted in the cleaning head storage box.
  • IR infrared ray
  • the communication module for performing a communication connection with at least one other cleaning robot;
  • a determination unit that determines a common cleaning method with the at least one other cleaning robot based on at least one of a support specification supported by the at least one other cleaning robot, a size of a cleaning area, and a shape;
  • a controller configured to control the cleaning robot and the at least one other cleaning robot based on the determined joint cleaning method.
  • the storage robot may include a storage unit for storing map data regarding the area where the cleaning robot is located.
  • the determination unit a group community cleaning method for cleaning the same area as the at least one other cleaning robot together, the area-specific community cleaning method for cleaning the divided at least one other cleaning robot and the cleaning area by zone, and the cluster It is possible to determine any one of the multi-pattern co-cleaning method in which the co-cleaning method and the zone-specific common cleaning method are mixed.
  • the controller may control at least one of the operation of the at least one other cleaning robot and the cleaning robot using at least one of environmental information and state information included in the cleaning situation information received from the at least one other cleaning robot. Can be controlled.
  • a cleaning robot includes: a communication unit configured to receive a cleaning method and a cleaning area from a cleaning robot that receives the transmitted support specification in response to transmitting the support specification of the cleaning robot to at least one other cleaning robot; And it may include a control unit for controlling the device in the cleaning robot based on the cleaning method and the cleaning area received from the cleaning robot.
  • the communication unit may transmit environmental information of the cleaning area and state information of the cleaning robot.
  • control unit a group common cleaning method for cleaning the same area as the at least one other cleaning robot together, a section for each common cleaning method for cleaning the divided at least one other cleaning robot and the cleaning area by zone, and the cluster Cleaning may be performed by controlling a device in the cleaning robot based on any one of a multi-pattern common cleaning method in which a common cleaning method and a zone-specific common cleaning method are mixed.
  • the sensing unit for detecting a user based on at least one of the at least one IoT apparatus and a sensor module in the room; And if it is determined that the detected distance to the user is closer than a preset level, the cleaning control unit may control cleaning based on the detected state of the user.
  • the cleaning controller may switch to the silent mode or the cleaning area based on the detected user's behavior.
  • the cleaning control unit detects the user's behavior detected by the at least one IoT apparatus or the sensor unit, the location of the user, and the voice recognition unit.
  • the cleaning operation may be controlled based on at least one of the user's voice and ambient noise received through the user.
  • the cleaning controller may adjust the level of the silent mode according to the amount of ambient noise received through the voice recognition unit.
  • the desired information setting unit for setting the desired information about the indoor environment;
  • a generator configured to acquire indoor environment information and generate an indoor environment map;
  • an indoor environment controller configured to compare the desired information about the indoor environment with the acquired indoor environment map, and adjust the indoor environment based on the comparison result.
  • control unit for controlling the overall operation of the cleaning robot further comprising, a vehicle body controlled by the control unit is equipped with a sensor module for obtaining the indoor environment information; may further include a.
  • the generation unit may acquire and combine indoor environment information from at least one of a sensor module mounted on a cleaning robot, a sensor module mounted on a vehicle, and an IoT apparatus, and map the combined indoor environment information to map information.
  • An indoor environment map may be generated.
  • the indoor environment controller may control at least one of the device inside the cleaning robot and the internet of things device to adjust the indoor environment to correspond to the desired information about the indoor environment.
  • An indoor environment map may be generated by obtaining indoor environment information by controlling the operation of at least one of a sensor module mounted on the vehicle and an IoT apparatus.
  • the indoor environment controller may request re-measurement if the difference between the indoor environment information obtained through the IoT apparatus and the indoor environment information obtained through the sensor module mounted on the cleaning robot exceeds a preset range. Can be.
  • the image unit for obtaining the image information in response to the user's remote connection request;
  • a communication unit for transmitting the obtained image information;
  • a controller for controlling the device in the cleaning robot.
  • the controller may control the device in the cleaning robot to stop the other task in operation and activate the image unit when the other task is being performed.
  • the image unit may acquire image information regarding the ROI of the user or obtain the image information according to the remote control of the user.
  • the image unit may acquire image information regarding a plurality of regions of interest according to a preset rank at a preset time.
  • the vehicle may be further controlled by the control unit.
  • the image unit may be mounted on at least one of one surface of the cleaning robot and one surface of a flying vehicle.
  • the controller may control a device in the cleaning robot to continuously perform the stopped operation when the remote connection of the user is terminated.
  • the controller may detect the position of the vehicle and display the position of the vehicle in map information based on the detection result.
  • the voice recognition module for recognizing and recording the voice, and the point where the recognized voice is generated; Communication unit for transmitting the recorded voice; And a controller for controlling a device in the cleaning robot to transmit a preset voice or to connect to a preset contact.
  • the voice recognition module may identify a point at which the recognized voice is generated by using a voice recognition unit arranged in an array form.
  • the controller may control the device in the cleaning robot to move to the identified point to transmit a preset voice, to capture image information regarding the identified point, or to connect a telephone through a home network. .
  • the recognition unit for recognizing the call signal of the user;
  • a voice recognition module which receives a voice command from the user and derives a recognition result regarding the received voice command; And if it is determined that the identified user has the authority to use the recognition result, the controller may control a device in the cleaning robot based on the recognition result.
  • the controller may include a security module that determines a user's right to use through at least one of the user's motion and the user's voice.
  • the controller may control a device in the cleaning robot and at least one IoT apparatus connected through a communication network to provide a service corresponding to the recognition result.
  • the voice recognition module for detecting the abnormal signs by receiving the user's voice;
  • a sensor module for obtaining biometric information of the user;
  • a controller configured to determine a degree of a user's state based on the acquired biometric information of the user, and to control a device in the cleaning robot according to a preset countermeasure based on the determined state of the user.
  • the voice recognition module may identify a point at which the voice of the received user is generated through the voice recognition unit.
  • the control unit may control a speaker according to the determined state of the user to transmit a preset voice to the user, or control the communication unit to connect to a preset contact.
  • the controller may control an operation of at least one IoT apparatus connected through a home network according to the determined state of the user.
  • the sensor module for obtaining the user's biometric information according to a predetermined period; And if it is determined that there is an abnormality by determining the degree of the user's state based on the acquired biometric information of the user, the device in the cleaning robot according to the preset countermeasures based on the determined degree of the user's state and the user's reaction. It may include a control unit for controlling.
  • a cleaning robot includes: an image unit which acquires image information about an object by following an object selected by a user; And a controller configured to perform a process corresponding to a situation generated according to the movement of the detected object from the acquired image information.
  • the imager may receive an object to be followed through an input unit or may select an object to be followed in conjunction with an external device through a communication unit, and may follow the selected object to obtain image information about the object. .
  • the controller may detect contamination generated in accordance with the movement of the detected object, and when the contamination is detected, the controller may perform cleaning by controlling a device in the cleaning robot.
  • the controller may control the communication unit to connect to a preset contact or transmit a message.
  • controller may control a speaker to transmit a warning message to the object.
  • the apparatus may further include a voice recognition module for recognizing the voice of the object.
  • the controller may recognize the voice of the object through the voice recognition module and perform an operation corresponding to the recognition result.
  • the controller may provide a route guidance to the destination based on the map information stored in the memory when it is determined that the route to the destination is requested as a result of the recognition through the voice recognition module.
  • a control method of a cleaning robot includes controlling the mounting between the determined cleaning heads on a robot arm; Controlling the cleaning performance using the mounted cleaning head; It may include.
  • controlling the mounting may include fixing the mounted cleaning head through a docking unit provided in the robot arm and an electromagnet provided in the robot arm; It may further include.
  • the controlling of the mounting may include identifying a storage box in which the determined cleaning head is stored in a cleaning head storage box in which the plurality of cleaning heads are stored, and controlling mounting between the cleaning head and the robot arm stored in the identified storage box. doing; It may include.
  • controlling the mounting may include identifying a position of the cleaning head storage box using an infrared sensor mounted to the cleaning head storage box; It may include.
  • a control method of a cleaning robot includes: performing communication connection with at least one other cleaning robot; Determine a method of co-cleaning with the at least one other cleaning robot based on at least one of a support specification supported by the at least one other cleaning robot, a size of a cleaning area, and a shape; Controlling the cleaning robot and the at least one other cleaning robot based on the determined common cleaning method; It may include.
  • the determining may include a group cavity cleaning method for cleaning the same area as the at least one other cleaning robot together, a section cleaning method for each area in which the at least one other cleaning robot and the cleaning area are divided and cleaned according to the area. It is possible to determine any one of a multi-pattern common cleaning method in which a group common cleaning method and a regional common cleaning method are mixed.
  • the controlling may include at least one of the operation of the at least one other cleaning robot and the cleaning robot using at least one of environmental information and state information included in the cleaning situation information received from the at least one other cleaning robot. To control; It may further include.
  • a method of controlling a cleaning robot includes: receiving a cleaning method and a cleaning area from a cleaning robot that receives the transmitted support specification in response to transmitting the support specification of the cleaning robot to at least one other cleaning robot; Controlling a device in the cleaning robot based on the cleaning method and the cleaning area received from the cleaning robot; It may include.
  • the receiving may correspond to receiving the cleaning method and the cleaning area, and transmit environment information of the cleaning area and state information of the cleaning robot.
  • the controlling may include: a group cavity cleaning method for cleaning the same area as the at least one other cleaning robot together, a section cleaning method for each area for cleaning at least one other cleaning robot and a cleaning area by area, and the Cleaning may be performed by controlling the devices in the cleaning robot based on any one of the multi-pattern cavities in which the group cavities and the sectional cavities are mixed.
  • a control method of a cleaning robot includes: detecting a user based on at least one of at least one IoT apparatus and a sensor module present in a room; If it is determined that the distance to the detected user is closer than a preset level, controlling the cleaning based on the detected state of the user; It may include.
  • the controlling may include switching to a silent mode or switching a cleaning area based on the detected user's behavior when it is determined that the distance to the detected user is closer than a preset level; It may further include.
  • the controlling may include determining a user's behavior detected by the at least one IoT apparatus or the sensor unit, a location of the user, and a voice recognition unit when it is determined that the detected distance to the user is closer than a preset level. Controlling the cleaning operation based on at least one of the user's voice and ambient noise received through the user; It may further include.
  • the controlling may include adjusting a level of the silent mode according to the amount of ambient noise received through the voice recognition unit; It may further include.
  • Control method of the cleaning robot setting the desired information about the indoor environment; Acquire indoor environment information to generate an indoor environment map; Comparing the desired information about the indoor environment with the acquired indoor environment map, and adjusting an indoor environment based on the comparison result; It may include.
  • the generating may be performed by combining indoor environmental information obtained from at least one of a sensor module mounted on a cleaning robot, a sensor module mounted on an aircraft, and an IoT apparatus, and mapping the combined indoor environmental information to map information. To generate an indoor environment map.
  • the adjusting may control at least one of the device in the cleaning robot and the IoT apparatus to adjust the indoor environment to correspond to the desired information about the indoor environment.
  • a method of controlling a cleaning robot includes: obtaining image information in response to a user's remote access request; Delivering the obtained image information; Controlling a device in the cleaning robot; It may include.
  • the controlling may include controlling the device in the cleaning robot to stop the other work being performed according to the remote access request and activating the image unit when the other work is being performed; It may further include.
  • the acquiring may include acquiring image information about the ROI of the user or acquiring the image information according to a remote control of the user.
  • the acquiring further includes: controlling the device in the cleaning robot to perform the stopped operation when the remote connection of the user is terminated; It may further include.
  • the control method of the cleaning robot according to one side, and delivers the recorded voice; Controlling a device in the cleaning robot to transmit a preset voice or to connect to a preset contact; It may include.
  • the identifying may identify a point where the recognized voice is generated by using a speech recognition unit arranged in an array form.
  • the controlling may include controlling a device in the cleaning robot to move to the identified point, to transmit a preset voice, to record image information regarding the identified point, or to connect a telephone through a home network. ; It may further include.
  • Control method of the cleaning robot recognizes the user's call signal; Receiving a voice command from the user and deriving a recognition result regarding the received voice command; If it is determined that the identified user is authorized to use the recognition result, controlling the device in the cleaning robot based on the recognition result; It may include.
  • the controlling may include determining a user's right to use through at least one of the user's motion and the user's voice; It may further include.
  • the controlling may include controlling a device in the cleaning robot and at least one IoT apparatus connected through a communication network to provide a service corresponding to the recognition result; It may further include.
  • Control method of the cleaning robot receives the user's voice to detect abnormal signs; Obtaining biometric information of the user; Determining a degree of a user's state based on the acquired biometric information of the user, and controlling a device in the cleaning robot according to a preset countermeasure based on the determined state of the user; It may include.
  • the detecting may include identifying a point at which the voice of the received user is generated through a voice recognition unit; It may further include.
  • the controlling may include controlling a speaker according to the determined state of the user to transmit a preset voice to the user, or controlling a communication unit to connect to a preset contact; It may include.
  • a control method of a cleaning robot includes: obtaining biometric information of a user according to a preset period; If it is determined that there is an abnormality by determining the degree of the user's state on the basis of the obtained biometric information of the user, based on the determined state of the user and whether the user's reaction or not, control the device in the cleaning robot according to a predetermined countermeasure doing; It may include.
  • a method of controlling a cleaning robot includes: obtaining image information about an object by following an object selected by a user; Performing a process corresponding to a situation generated according to the movement of the detected object from the acquired image information; It may include.
  • the acquiring may include receiving an object to be followed through an input unit or selecting an object to be followed in conjunction with an external device through a communication unit, and obtaining image information about the object by following the selected object. have.
  • the detecting may detect contamination generated in accordance with the movement of the detected object, and when the contamination is detected, the cleaning may be performed by controlling the device in the cleaning robot.
  • the performing may control the communication unit to connect to a preset contact or transmit a message.
  • Such a cleaning robot and its control method can provide various convenience services to the user as well as a cleaning service corresponding to a function of the cleaning robot.
  • FIG. 1 is a view showing a modular system structure of a cleaning robot according to an embodiment.
  • FIG. 2 is a view showing the inside / the exterior of the cleaning robot according to an embodiment.
  • FIG 3 is a view illustrating an exterior of a cleaning robot to which a robot arm is attached according to an embodiment.
  • 4 and 5 are control block diagrams of a cleaning robot for performing cleaning by mounting a cleaning head on a robot arm according to another embodiment.
  • FIG. 6 is a view illustrating various types of cleaning heads mounted on the robot arm according to an exemplary embodiment.
  • FIG. 7 is a view illustrating a cleaning head storage box in which the cleaning head is stored in each storage box according to an exemplary embodiment.
  • FIG. 8 is a view for explaining that the cleaning head is mounted on the robot arm according to an embodiment.
  • FIG. 9 is a cross-sectional view of a robot arm according to an embodiment.
  • FIG. 10 is a flowchart illustrating an operation of a cleaning robot equipped with a cleaning head corresponding to a cleaning mode, according to an exemplary embodiment.
  • FIG. 11 is a diagram illustrating a case where a cleaning storage box is provided in a charging station, according to an exemplary embodiment.
  • 12A and 12B illustrate a plurality of cleaning robots according to different embodiments.
  • FIG. 13A illustrates a control block diagram of a cleaning robot performing a collective cleaning according to an embodiment
  • FIG. 13B illustrates a control block diagram of a plurality of cleaning robots performing a collective cleaning according to an embodiment. to be.
  • FIG. 14 is a diagram illustrating a structure of a cavity cleaning area according to an exemplary embodiment.
  • 15 is a flowchart illustrating an operation of a cleaning robot for performing a collective cleaning according to an embodiment.
  • FIG. 16 is a diagram illustrating IoT devices directly connected through a home network or a communication network, according to another embodiment.
  • FIG. 17 is a block diagram illustrating a cleaning robot for controlling a cleaning mode by detecting a user's position according to an exemplary embodiment.
  • FIG. 18 is a diagram illustrating a room in which a cleaning robot and an IoT apparatus are installed according to an exemplary embodiment.
  • 19 is a flowchart illustrating an operation of a cleaning robot for controlling a cleaning mode by detecting a location of a user according to an exemplary embodiment.
  • 20 is a flowchart illustrating an operation of a cleaning robot that detects a user's position and controls a cleaning mode while performing cleaning according to an embodiment.
  • 21 is a diagram for describing a case of adjusting a level of a silent mode by sensing ambient noise according to an exemplary embodiment.
  • FIG. 22 is a diagram illustrating a case of changing a cleaning area by detecting a state of a user, according to an exemplary embodiment.
  • FIG. 23 is a block diagram illustrating a cleaning robot for adjusting an indoor environment based on an environment map according to an embodiment.
  • 24 is a diagram illustrating a vehicle to which a sensor module is attached according to an embodiment.
  • FIG. 25 is a diagram for describing a case of collecting environmental information through a cleaning robot, a flying vehicle, and an IoT apparatus, according to an exemplary embodiment.
  • FIG. 26 is a flowchart illustrating an operation of a cleaning robot that controls indoor environment by collecting indoor environment information according to an embodiment.
  • FIG. 27 is a diagram for describing a case of adjusting an indoor environment by detecting a state of a user, according to an exemplary embodiment
  • FIG. 28 is a block diagram illustrating a cleaning robot for obtaining and providing indoor image information, according to an exemplary embodiment.
  • 29 is a diagram for describing a case of acquiring image information according to a limited field of view according to an exemplary embodiment.
  • 34 is a diagram for describing a case of acquiring image information through an image unit implemented in a rod form according to an embodiment.
  • 35 is a diagram for describing a case of obtaining image information through a vehicle according to an embodiment.
  • 36 is a flowchart illustrating an operation of a cleaning robot for obtaining image information through a remote connection according to an exemplary embodiment.
  • FIG. 37 is a diagram for describing a case of acquiring image information of a desired region through an image unit implemented in a bar shape according to an embodiment.
  • FIG. 38 illustrates a control block diagram of a cleaning robot that senses a sound and performs a process corresponding thereto according to an embodiment.
  • 39 is a flowchart illustrating an operation of a cleaning robot that detects a sound and performs a process corresponding thereto according to an embodiment.
  • FIG. 40 is a diagram illustrating an operation of a cleaning robot in response to a sound detected at a front door according to an exemplary embodiment.
  • FIG. 41 is a block diagram illustrating a cleaning robot for performing a process corresponding to a voice recognition result, according to an exemplary embodiment.
  • FIG. 42 is a diagram illustrating a radiation pattern transmitted from an IoT apparatus according to an embodiment.
  • 43 is a flowchart illustrating an operation of a cleaning robot operating through security authentication according to an embodiment.
  • 44 is a diagram for describing a case of controlling a cleaning robot and an IoT apparatus by receiving a voice command of a user, according to an exemplary embodiment.
  • 45 illustrates a control block diagram of a cleaning robot that determines a state of a user based on biometric information of the user, according to an exemplary embodiment.
  • FIG. 46 illustrates a case in which a voice command of a user is input through a voice recognition unit arranged in an array according to an embodiment.
  • 47 is a flowchart illustrating an operation of a cleaning robot that operates according to a user's state determined based on the user's biometric information, according to an exemplary embodiment.
  • 48 is a flowchart illustrating an operation of a cleaning robot that determines a state of a user according to a set search time according to an embodiment.
  • 49 and 50 are diagrams for describing a countermeasure through a home network when a user is in an emergency situation according to another embodiment.
  • FIG. 51 is a block diagram illustrating a cleaning robot for providing a multimedia service according to an exemplary embodiment.
  • FIG. 52 is a diagram for describing a case of obtaining image information by following a user through a vehicle according to an embodiment.
  • 53 is a diagram for describing a case of detecting a possibility of occurrence of a risk by a user and processing a corresponding process according to an embodiment.
  • FIG. 54 is a view through a beam projector according to an embodiment It is a figure for explaining the case where a kind of image is displayed.
  • 55 is a diagram for describing a cleaning robot that provides a path to a specific area or a room, according to an exemplary embodiment.
  • 56 is a flowchart illustrating an operation of a cleaning robot that acquires image information by following an object according to an exemplary embodiment.
  • FIG. 57 is a flowchart illustrating an operation of a cleaning robot that provides a safety service in anticipation of a risk according to a movement of an object, according to an exemplary embodiment.
  • FIG. 1 is a diagram illustrating a modular system mounted with an IoT apparatus and a cleaning robot according to an exemplary embodiment.
  • the cleaning robot 1 refers to a device that automatically cleans the cleaning space by suctioning foreign substances such as dust accumulated on the floor while driving the cleaning space without a user's manipulation. That is, the cleaning robot 1 travels through the cleaning space and cleans the cleaning space.
  • the cleaning robot 1 may provide not only a cleaning service but also various services.
  • the cleaning robot 1 may not only provide a service for adjusting the indoor environment but also provide various services to a user existing in the indoor environment.
  • the cleaning robot 1 may be a human service robot capable of various effects on the user and the indoor environment in which the user is located.
  • the cleaning robot 1 can be extended to provide various services as well as cleaning services.
  • a modular system is applied to the cleaning robot 1 so that various modules can be integrated.
  • the modular means a device or system in which at least one module supporting different functions is integrated, or a device or system supporting a connection between at least one module supporting different functions.
  • the cleaning robot 1 is a modular system is applied, by embedding a variety of modules, it is possible to overcome the existing limited functions.
  • the cleaning robot 1 may basically include a middle level module (a), a battery module (b), a BMS module (c), and a moving module (d).
  • the middle level module (a) refers to a module for planning and managing the overall operation of the cleaning robot (1).
  • the middle level module (a) serves as a medium for interaction between the user and the hardware performing the direct operation of the cleaning robot (1).
  • the intermediate level module a operates the cleaning robot 1 based on an input unit mounted on the cleaning robot 1 or various control commands received from the IoT apparatus 2. Can be set or reserved.
  • the user may input various tasks to be performed by the cleaning robot 1 through various applications installed in the IoT apparatus 2. Then, the intermediate level module a may manage the operation of the cleaning robot 1 based on the input task. That is, the middle level module (a) serves to support the connection between the hardware of the user and the cleaning robot.
  • the battery module (b) means a module to drive the cleaning robot.
  • the battery module (b) mounted to the cleaning robot 1 may be implemented by various kinds of batteries known to those skilled in the art, there is no limitation.
  • the battery module (b) is built in the cleaning robot 1, and serves to supply power to the necessary components.
  • Battery module (b) is also referred to as a battery, hereinafter will be referred to as a battery for convenience.
  • BMS (Battery Management System) module (c) refers to the module that manages the overall battery of the cleaning robot (1).
  • the BMS module (c) not only performs charging / discharging of the battery but also performs an overall operation of managing battery consumption. As will be described later, if the remaining power of the battery is less than or equal to a predetermined level, the BMS module (c) may request to return to the charging station.
  • the moving module (d) refers to a module for managing the overall movement of the cleaning robot (1).
  • the moving module d may control the motor of the cleaning robot 1 to control an operation of the caster wheel or the like.
  • the moving module (d) may control the movement path of the cleaning robot 1 or the like based on the detection result detected by the obstacle sensor to be described later.
  • the cleaning robot 1 may be provided with a suction module (e).
  • the suction module e may control an operation of sucking dust.
  • the suction module e may be used to suck dust or the like during dry cleaning.
  • the suction module e may control the suction operation of the dust by controlling the suction motor, the impeller, or the like.
  • the cleaning robot 1 may be provided with a cyclone module f.
  • the cyclone module f performs an operation of sucking only dust by centrifugal force among the air and dust sucked by the cleaning robot 1 and transferring the dust to the dust container.
  • the dust accommodating module g isolates the dust sucked in the sealed space as the cleaning is performed in the dry cleaning mode.
  • the dust accommodating module g refers to a module that controls the operation of accommodating the dust sucked from the cleaning head into the dust container during dry cleaning.
  • connection cleaning tool (h) is various cleaning heads used for cleaning, and means detachable cleaning heads and the like.
  • general cleaning tool (i) generally means a cleaning head or the like already mounted on the cleaning robot.
  • the suction module (e), the cyclone module (f), the dust container module (g), the connection cleaning tool (h), and the general cleaning tool (i) described above may be used when performing the dry cleaning mode.
  • the suction robot is provided with a suction module in addition to the intermediate level module (a), the battery module (b), the BMS module (c), and the moving module (d) that are basically built in the cleaning robot. (e), the cyclone module f, and the dust accommodating module g may be mounted.
  • the cleaning robot is equipped with at least one of the connection cleaning tool h and the general cleaning tool i, so that dry cleaning can be performed.
  • the water supply module (j) refers to a module that controls the supply of water to the cleaning head when wet cleaning or steam cleaning is performed.
  • the wet cleaning tool k means various cleaning heads used for wet cleaning.
  • the steam cleaning tool 1 means various cleaning heads used for steam cleaning.
  • a wet cleaning tool k, m steam cleaning tool 1 may be built in.
  • Air cleaning module (m) means a module for controlling the cleanliness of the indoor air, as will be described later.
  • the humidification module n refers to a module that increases moisture in the air.
  • Dehumidification module (o) means a module that cools the air to lower the humidity.
  • the air cleaning module m, the humidification module n, and the dehumidification module o may provide a comfortable indoor environment to the user by adjusting the air cleanliness, humidity, and the like of the indoor environment.
  • Air vehicle module (p) refers to a module that controls the overall operation of the aircraft.
  • the cleaning robot 1 may be equipped with a vehicle such as a drone to acquire indoor environment information in three dimensions.
  • the sensor module q refers to a module for collecting indoor environment information.
  • the sensor module q may be implemented as various sensors capable of obtaining environmental information and a processor capable of controlling the overall operation of the aforementioned sensors.
  • the cleaning robot 1 controls not only the cleaning robot 1 itself but also the operation of the IoT apparatus 2 based on the environmental information obtained through the sensor module q, thereby controlling the indoor environment. Can be adjusted.
  • the actuator module r refers to a module that mechanically converts power to operate various machines. As will be described later, the actuator module r may be mounted inside a support for supporting a joint or an image part of the robot arm to operate the robot arm or the support.
  • the actuator module may also be referred to as an actuator.
  • the actuator module will be referred to as an actuator for convenience of description.
  • the display module s means an apparatus for displaying various kinds of information to the user.
  • the display module s includes all known devices capable of visually displaying various types of information such as a display panel and a beam projector, without limitation.
  • the display module s may also be referred to as a display, hereinafter, referred to as a display for convenience of description.
  • the recognition module t refers to a module capable of detecting a user's action.
  • the action of the user includes not only the voice of the user but also various motions such as a gesture.
  • the recognition module t may be implemented through a voice recognition module that detects a user's voice, a camera module that detects a user's motion, and the like.
  • the recognition module t may be implemented through various devices capable of detecting a user's action, and the like.
  • the gripper module u refers to a module for physically holding various objects.
  • the cleaning robot 1 may be provided with a robot arm.
  • the gripper module u may allow the cleaning head to be mounted to the robot arm via an electrical signal.
  • the aforementioned modules can be integrated into the modular as needed.
  • the modular may be implemented through a microcontrol unit (MCU), a processor, or the like, and may be integrated into a control unit that controls the overall operation of the cleaning robot 1 or may be separately embedded in the cleaning robot 1.
  • MCU microcontrol unit
  • the above-described modules may be integrated into or replace other components described below. Therefore, even if the terms and the components to be described later do not coincide with the same function, it corresponds to the included or corresponding configuration.
  • At least one of the above-described modules may be integrated in a system on chip (SOC).
  • SOC system on chip
  • the present invention is not limited to only one system on chip.
  • FIG. 2 is a view showing the appearance of the cleaning robot according to different embodiments.
  • the cleaning robot 1a includes a main body 10 forming an appearance, a cover 20 covering an upper portion of the main body 10, and a cleaning space present in the cleaning space.
  • the main body 10 forms the exterior of the cleaning robot 1a and supports various components installed therein.
  • Cleaning head mounting portion 30 is installed in the suction port 11 formed in the lower portion of the main body 10 to improve the suction efficiency of the dust to sweep or scatter dust on the floor.
  • the cleaning head mounting portion 30 is installed at the suction port 11 to a length corresponding to the suction port 11, and the drum-shaped brush unit 31 which rotates in a roller manner with respect to the floor surface to sweep or scatter dust on the floor. And a brush motor 32 for rotating the brush unit 31.
  • the unit mounted to the cleaning head mounting unit 30 is not limited to the brush unit 31.
  • various cleaning heads may be mounted in the cleaning head mounting unit 30 according to the cleaning mode.
  • a caster wheel 60 which rotation angle changes in accordance with the state of the bottom surface on which the cleaning robot 1a moves is provided.
  • the caster wheel 60 supports the cleaning robot 1a by being utilized in stabilization and fall prevention of the cleaning robot 1a, and is composed of a roller or caster-shaped wheel.
  • the cleaning head may be mounted at various positions.
  • a cleaning robot equipped with a cleaning head on the robot arm will be described.
  • FIG. 3 is a view showing the appearance of the cleaning robot is attached to the robot arm according to an embodiment
  • Figures 4 and 5 is a cleaning robot to perform the cleaning by mounting the cleaning head on the robot arm according to different embodiments
  • a control block diagram is shown.
  • 6 is a view illustrating various types of cleaning heads mounted on the robot arm according to an embodiment
  • FIG. 7 is a view illustrating a cleaning head storage box in which the cleaning heads are stored in each storage box according to an embodiment. to be. Descriptions should be given together to prevent duplication.
  • the robot arm 30 may be provided in the cleaning robot 1b.
  • the cleaning robot 1b may be equipped with a cleaning head on the robot arm 30 to perform cleaning.
  • the robot arm 3 is provided with a joint to move up / down and left / right.
  • Robot arm 30 may be implemented with a variety of known materials, there is no limitation.
  • a coupling terminal may be provided on an outer surface of the robot arm 30. The cleaning robot 1b may mount the cleaning head through the coupling terminal and perform cleaning through the attached cleaning head.
  • the cleaning robot 1b can perform cleaning more conveniently by selecting the necessary cleaning head according to the cleaning mode and mounting the selected cleaning head.
  • the configuration of the cleaning robot 1b on which the robot arm 3 is mounted will be described in more detail.
  • the cleaning robot 1b includes the robot arm 30, the water supply module 31, the dust storage module 33, the suction motor 35, the mounting module 36, and the controller 37. , Battery 50, cleaning head storage box 40, obstacle sensor 41, display 42, and input unit 43.
  • the water supply module 31, the dust storage module 33, the obstacle sensor 41, the mounting module 360, and the controller 37 may include a system on chip built in the cleaning robot 1. SOC) and can be operated by a processor. However, since there is not only one system on chip embedded in the cleaning robot 1b, but a plurality of system on chips may exist, the present invention is not limited to only one system on chip.
  • the water supply module 31 refers to a module that controls the supply of water to the cleaning head when wet cleaning is performed.
  • the water supply module 31 controls supply of water to the cleaning head through a water supply pipe embedded in the robot arm 30.
  • the dust storage module 33 refers to a module for controlling an operation of storing dust sucked from the cleaning head into a dust container during dry cleaning.
  • the dust storage module 33 transfers the dust sucked from the cleaning head to the dust container through the suction flow path provided therein in the robot arm 30. At this time, the dust storage module 33 sucks dust into the cleaning head using the suction motor 35.
  • the battery 50 supplies power to the cleaning robot 1b.
  • the battery 50 may be implemented in various forms such as external or internal, and there is no limitation.
  • the obstacle sensor 41 means a sensor for detecting the obstacle.
  • the obstacle sensor 41 may radiate an ultrasonic signal and detect an obstacle by receiving an ultrasonic signal reflected from the obstacle.
  • the obstacle sensor 41 may detect an obstacle through various known methods, but is not limited thereto.
  • the cleaning robot 1b may be provided with a display 42.
  • the display 42 may be located in a central area on the upper surface of the cleaning robot 1b, but may be provided in various locations.
  • the display 42 may be implemented as a liquid crystal display (LCD), a light emitting diode (LED), a plasma display panel (PDP), an organic light emitting diode (OLED), a cathode ray tube (CRT), or the like. May, but is not limited to.
  • the display 42 may be implemented through a device capable of visually displaying various types of information in addition to the above-described components, and there is no limitation.
  • the input unit 43 receives various control commands related to the operation of the cleaning robot 1b.
  • the input unit 43 may be provided on the upper surface of the cleaning robot 1b.
  • the display 42 may perform a function of the input unit 43.
  • the robot arm 30 may be provided in the cleaning robot 1b.
  • the robot arm 30 may be mounted on one surface of the cleaning robot 1b.
  • the robot arm 30 may be mounted on the side of the cleaning robot 1b, but is not limited thereto and may be mounted anywhere on the cleaning robot 1b. .
  • a motor may be provided inside the robot arm 30.
  • Each joint of the robot arm 30 moves through a motor.
  • the robot arm 30 is provided with two joints, as shown in Figure 3, can be freely manipulated up / down, left / right due to the motor for driving each joint.
  • the controller 37 may control the movement of the robot arm 30 by controlling the driving of the motor.
  • the robot arm 30 is provided with one or more passages, it can be connected to the cleaning head.
  • the suction arm u1 and the water supply pipe u2 may be provided in the robot arm 30 as shown in FIG. 9.
  • the water supply pipe u2 may be provided from the bucket containing the water to the end of the robot arm 30 on which the cleaning head is mounted.
  • the suction passage u1 may be provided from the dust container to the end of the robot arm 30 on which the cleaning head is mounted.
  • a docking unit u4 may be provided at an end of the robot arm 30 on which the cleaning head is mounted.
  • the docking portion u4 is docked with a groove provided in the cleaning head, as shown in FIG. 9.
  • an electrode u3 may be provided at the end of the docking portion u4. Accordingly, power and various control signals may be transmitted to the cleaning head through the docking unit u4.
  • the cleaning head and the robot arm 30 are coupled through the docking unit u4, but the cleaning head may be separated as the cleaning robot 1b moves as the cleaning head 1b moves.
  • the robot arm 30 may be provided with a coupling terminal u5 on the surface on which the cleaning head is mounted.
  • the coupling terminal u5 serves to fix the cleaning head and the robot arm 30 to prevent the cleaning head from being separated.
  • the coupling terminal (u5) may be implemented through an electromagnet, but is not limited to one embodiment, it may be implemented through a variety of materials that can secure the cleaning head and the robot arm (30).
  • a rubber packing is provided at the end of the coupling terminal u5 to prevent dust or water from being discharged to the outside.
  • the cleaning robot 1b may be provided with a cleaning head storage box 40.
  • the cleaning head storage box 40 may be mounted to the cleaning robot 1b or may be provided outside the cleaning robot 1b as shown in FIG. 8. Detailed description thereof will be described later.
  • the cleaning head storage box 40 includes a dry cleaning head h1 used for dry cleaning, a water rag cleaning head h2 used for wet cleaning, a sterilization cleaning head h3 used for sterilizing cleaning, A corner cleaning head h4 used for corner cleaning, a bedding cleaning head h5 used for bedding cleaning, and a window frame cleaning head h6 used for cleaning window frames may be stored.
  • the cleaning head storage box 40 is provided with a plurality of storage compartments. At this time, the cleaning head storage box 40 may be determined in advance cleaning heads stored in each storage box. For example, referring to FIG. 6, a dry cleaning head h1 is disposed in the first storage box s1 of the cleaning head storage box 40, and a water trap cleaning head h2 and a third storage box are installed in the second storage box s2. s3) the sterilization cleaning head (h3), the fourth storage box (s4) the corner cleaning head (h4), the fifth storage box (s5) the bedding cleaning head (h6), the sixth storage box (s6) the window frame cleaning head (h6) ) Can be stored separately.
  • the cleaning head storage box 40 may store cleaning heads designated in each storage box according to a preset order.
  • the control unit 37 is based on the information stored in the memory. By identifying the storage head of the cleaning head of the, it can be controlled so that the cleaning head required for cleaning is attached to the robot arm.
  • each cleaning head is different in shape and size, the shape or size of each storage box may be designed differently.
  • the cleaning head may be stored so that the surface coupled to the robot arm 30 faces the upper surface of the storage box. Accordingly, the control unit 37 can be easily manipulated so that the cleaning head is mounted on the robot arm 30 without the need to separately operate the cleaning head.
  • the controller 37 may control the overall operation of the cleaning robot 1b. Specifically, the control unit 37 may control the operation of all the components of the cleaning robot 1b, such as the robot arm 30, the display 42, as well as various modules built in the cleaning robot 1b.
  • the controller 37 may be implemented through a processing device that performs various operations and control processes, such as a processor built in the cleaning robot 1b, and may be implemented through various known processing devices. .
  • the controller 37 may generate a control signal for controlling the components of the cleaning robot 1b to control the operations of the above-described components. For example, as described above, the controller 37 may transmit power and a control signal through an electrode provided at the end of the docking unit u4 to control the operation of the cleaning head.
  • the control unit 37 includes a cleaning mode setting unit 38 and a mounting module 36.
  • the cleaning mode setting unit 38 may set a cleaning mode.
  • the cleaning mode means a mode related to a method in which the cleaning robot performs cleaning.
  • the cleaning mode includes a dry cleaning mode, a wet cleaning mode, a sterile cleaning mode.
  • the cleaning mode includes a hard floor cleaning mode for cleaning a general floor according to the type of floor, soft floor cleaning mode for cleaning the floor, such as carpet.
  • the cleaning mode includes a general cleaning mode for cleaning the open area according to the cleaning area, and a corner cleaning mode for cleaning the corner.
  • the cleaning head used for cleaning is not only different, but water supply, cleaning frequency, cleaning strength, and the like are set differently, and whether the suction motor 35 is operated and the suction motor 35 is rotated. The number is different.
  • the cleaning mode setting unit 38 sets the cleaning mode of the cleaning robot based on the information about the cleaning mode received from the user through the display 42, the input unit 43, the remote controller, or the user terminal. Can be.
  • the cleaning mode setting unit 38 may control various settings of the device in the cleaning robot 1b for driving in the cleaning mode and the cleaning mode corresponding to the received information about the cleaning mode.
  • the setting information for each cleaning mode is stored in the memory. Accordingly, the cleaning mode setting unit may set the operation of the components of the cleaning robot 1b according to the cleaning mode received from the user based on the setting information for each cleaning mode stored in the memory.
  • the controller 37 may control the mounting of the cleaning head corresponding to the cleaning mode among the plurality of cleaning heads stored in the cleaning head storage box. For example, in the case of cleaning the dry open area, the control unit 37 may control the dry cleaning head h1 to be mounted on the robot arm 30 in the cleaning storage box 40 using the mounting module 36. Can be.
  • the mounting module 36 may correspond to the gripper module u in FIG. 1. That is, the mounting module 36 may perform an operation for physically mounting the cleaning head to the robot arm 30.
  • the control unit 37 may control the necessary cleaning head to be mounted on the robot arm 30 according to each cleaning mode using the mounting module 36.
  • the controller 37 may perform cleaning using a cleaning head mounted on the robot arm 30.
  • the above-described cyclone module f or the like is integrated in the control unit 37 to perform dry cleaning.
  • the controller 37 may control the operation of the water supply module 31 to perform wet cleaning using a cleaning head mounted on the robot arm 30.
  • FIG. 10 is a flowchart illustrating an operation of a cleaning robot equipped with a cleaning head corresponding to a cleaning mode, according to an exemplary embodiment.
  • the cleaning robot may set a cleaning mode (900).
  • the cleaning robot may receive setting information regarding the cleaning mode from the user through an input device, a remote controller, or a user terminal provided in the display or the cleaning robot. Accordingly, the cleaning robot can set the cleaning mode based on the received setting information.
  • the cleaning robot may determine a cleaning method, a cleaning head, and the like corresponding to the set cleaning mode in step 901. Accordingly, the cleaning robot may determine whether a cleaning head suitable for the cleaning mode is currently mounted on the robot arm (902).
  • the cleaning robot may perform cleaning using the mounted cleaning head (903). However, if the cleaning head suitable for the cleaning mode is not installed, the cleaning robot may identify the cleaning head suitable for the cleaning mode among the cleaning heads stored in the cleaning head storage box and install the identified cleaning head on the robot arm (904). ).
  • Cleaning head storage box means a case for storing the cleaning head mounted on the cleaning robot.
  • the cleaning head storage box may be implemented in a divided form of a plurality of storage boxes. Each bin holds a cleaning head.
  • the storage box in which the cleaning head is stored may be set in advance. That is, in the memory of the cleaning robot, information about which cleaning head is stored in each storage box is stored. Accordingly, the cleaning robot can identify the cleaning head corresponding to the cleaning mode set from the cleaning head storage box described above.
  • the cleaning head storage box may be mounted on the cleaning robot.
  • the cleaning head storage box may be designed to be mounted on an upper surface of the cleaning robot. Accordingly, the cleaning robot can grasp the position of the cleaning head stored in the cleaning head storage box through the information stored in the memory as described above, and perform cleaning while replacing the cleaning head according to the cleaning mode. Therefore, the cleaning robot according to the disclosed embodiment can continuously perform various cleaning methods.
  • the cleaning head storage box may be mounted on another device.
  • the cleaning head storage box can be designed to be mounted to a charging station.
  • the cleaning head storage box 40 may be mounted on the main body of the charging station 51, but is not limited thereto.
  • the location information of the cleaning head storage box mounted on the station is stored in the memory of the cleaning robot. Accordingly, the cleaning robot can move to the filling station to mount the necessary cleaning head in the cleaning head storage box mounted on the filling station.
  • the cleaning head storage box may be provided at a preset position.
  • the user can place the cleaning head storage box in the desired location.
  • the user may input a position of the cleaning head storage box through the input unit of the cleaning robot.
  • the cleaning robot can identify the position of the cleaning head storage box through the 3D sensor and go to the cleaning head storage box based on this.
  • an infrared ray (IR) sensor may be provided in the cleaning head storage box. Accordingly, the cleaning robot can determine the position of the cleaning head storage box based on the guidance signal emitted through the infrared sensor.
  • the cleaning robot according to the disclosed embodiment can be more efficiently performed by easily replacing the cleaning head required by various cleaning modes using the robot arm.
  • the cleaning robot in order to perform the cleaning, the cleaning robot requires various settings such as a cleaning area to be cleaned and a cleaning method for the cleaning area in addition to the cleaning mode. Therefore, hereinafter, the cleaning robot performing cleaning according to the cleaning robot existing in the vicinity and the common cleaning method based on the above-described setting will be described.
  • FIG. 12A and 12B illustrate a plurality of cleaning robots according to different embodiments
  • FIG. 13A illustrates a control block diagram of a cleaning robot performing joint cleaning according to an embodiment
  • FIG. 14 is a diagram illustrating a control block diagram of a plurality of cleaning robots performing joint cleaning
  • FIG. 14 is a diagram illustrating a structure of a cleaning area according to one embodiment. In the following description, together with the description to avoid overlapping.
  • the cleaning robot 1c includes a display 42, an input unit 43, a communication unit 52, a SLAM module 53, a determination unit 54, and a control unit 55.
  • the communication unit 52, the SLAM module 53, the determination unit 54, and the control unit 55 may be integrated in a system-on-chip embedded in the cleaning robot 1c, and may be integrated into a processor. Can be operated by.
  • the present invention is not limited to only one system on chip.
  • SLAM Simultaneous Localization And Mapping, SLAM
  • the SLAM module 53 refers to a module for generating map information about the indoor environment.
  • the SLAM module 53 is composed of a sensor such as a microcontrol unit (MCU) that can perform arithmetic operation to generate a map information on the indoor environment by collecting the collected ambient information and the collected ambient information when driving. Can be. That is, the SLAM module 53 collects surrounding information when driving through a sensor attached to the cleaning robot 1c, and collects the generated information to generate map information about the indoor environment.
  • MCU microcontrol unit
  • the communication unit 52 may exchange various data with an external device through a wireless communication network or a wired communication network.
  • the wireless communication network means a communication network capable of transmitting and receiving a signal containing data wirelessly.
  • the communication unit 52 may transmit and receive a wireless signal between devices through a base station through a communication method such as 3G (3 Generation), 4G (4 Generation), and the like, and in addition, wireless LAN and Wi-Fi. ), Bluetooth, Zigbee, WFD (Wi-Fi Direct), UWB (Ultra wideband), Infrared Data Association (IrDA), BLE (Bluetooth Low Energy), NFC (Near Field Communication)
  • a wireless signal including data and a terminal within a predetermined distance may be transmitted and received.
  • wired communication network means a communication network that can send and receive signals containing data by wire.
  • wired communication networks include, but are not limited to, Peripheral Component Interconnect (PCI), PCI-express, Universe Serial Bus (USB), and the like.
  • PCI Peripheral Component Interconnect
  • USB Universe Serial Bus
  • the communication unit 52 may connect with at least one other cleaning robot existing around the cleaning robot through a communication network.
  • the communication unit 52 may perform connection with at least one other cleaning robot through direct communication or with at least one other cleaning robot through an external server.
  • the external server may be outdoors or indoors.
  • the external server may be a central server that manages a home network existing indoors, but is not limited thereto.
  • any one of the IoT devices present in the room may serve as a gateway server of a home network or may be separately provided. Detailed description thereof will be described later.
  • the at least one other cleaning robot present around the cleaning robot has a built-in communication unit regardless of the support specification or form, so that communication with an external device is sufficient, and is not limited to the same support specification or form.
  • the cleaning robots 1c, 1d, and 1e performing the common cleaning method may be cleaning robots having the same support specifications and shapes as each other, as shown in FIG. 12A, and as shown in FIG. 12B, It may be a cleaning robot with different support specifications and shapes, and it is sufficient if it is connected through a communication network. Accordingly, the shape and support specification of the cleaning robot described below are not limited to those shown in the drawings.
  • the communication unit 52 may transmit / receive wired / wireless signals including various data from at least one other cleaning robot connected thereto.
  • the communication unit 52 may transmit / receive identification information of each cleaning robot.
  • the identification information is information for identifying the cleaning robot, and may include not only the unique number and product number of the cleaning robot, but also an IP (Internet Protocol) address and a MAC address, but are not limited thereto. .
  • a universally unique identifier may be used as identification information.
  • the universal unique identifier may be converted according to a variable length character encoding scheme for Unicode such as UTF-8 and used as identification information.
  • the communication unit 52 may identify the cleaning robot using the identification information, and connect with the cleaning robot identified through the Bluetooth pairing.
  • the communication unit 52 may transmit / receive support specification information supported by each cleaning robot.
  • the support specification information means information about a cleaning mode supported by the cleaning robot.
  • the support specification information means information about the spec of each cleaning robot.
  • the cleaning robot 1c may identify the support specifications supported by the cleaning robots, determine a common cleaning method, and transmit control commands based on the cleaning specifications, thereby performing the joint cleaning with the surrounding cleaning robot. Can be. Detailed description thereof will be described later.
  • the communication unit 52 may transmit / receive map information stored in each cleaning robot.
  • the map information means a map of the area where the cleaning robot has performed the cleaning.
  • the SLAM module 53 may generate map information by collecting area information on which cleaning is performed through a 3D sensor or a camera.
  • the cleaning robot 1c according to the disclosed embodiment shares the map information stored in each cleaning robot through the communication unit 52 among the cleaning robots performing the common cleaning, thereby performing the common cleaning using the latest map. You can also update map information. Detailed description thereof will be described later.
  • the communication unit 52 may transmit / receive environmental information of each area with other cleaning robots during the common cleaning. Accordingly, the cleaning robot 1c according to the disclosed embodiment may perform more efficient cleaning by continuously correcting the cleaning method through environmental information.
  • the communication unit 52 may operate as a master or a slave in connection with a communication unit built in another cleaning robot.
  • the master means a role of instructing a result of the joint cleaning method by driving a connection between the plurality of cleaning robots performing the joint cleaning.
  • the slave means a role according to the common cleaning method set by the master.
  • the cleaning robot that leads the connection through the communication unit may be set as a master, and at least one other cleaning robot to be connected may be set as a slave.
  • the method of setting the master and the slave is not limited to the above-described embodiment, and the master and the slave may be set between the cleaning robots through various known methods.
  • a cleaning robot serving as a master will be referred to as a master cleaning robot
  • a cleaning robot serving as a slave will be referred to as a slave cleaning robot.
  • the determination unit 54 may determine various settings necessary for the cleaning robot to perform the common cleaning. For example, the determination unit 54 may determine a cleaning area, a cleaning method, a cleaning mode, and the like in which the cleaning robot is to be cleaned.
  • the determination unit 54 may determine the cleaning method and the cleaning mode based on the user's control command received through the display 42, the input unit 43, the user terminal, the remote control, and the like described above.
  • the memory also stores programs that assist the user in determining various settings related to cleaning. Accordingly, the determination unit 54 may determine various settings necessary to perform the cleaning by reflecting the various settings related to the cleaning determined by the user.
  • the determination unit 54 may determine a common cleaning method with at least one other cleaning robot.
  • the common cleaning method means a method in which a plurality of cleaning robots are jointly cleaned.
  • the common cleaning method includes a group common cleaning method for cleaning the same area by different methods, a community cleaning method for each area by dividing and cleaning the cleaning area, and a mixed common cleaning method for mixing and cleaning the aforementioned methods.
  • Support specifications may be different among a plurality of cleaning robots.
  • the first cleaning robot may support only the dry cleaning mode
  • the second cleaning robot may support only the wet cleaning mode
  • the cleaning robot may support only the sterilization cleaning mode.
  • the determination unit 54 may determine that the cleaning robot 1c, the first cleaning robot, and the second cleaning robot clean the same area together according to the group cavity cleaning method for the cleaning area.
  • the determination unit 54 in the area where the wet cleaning is completed
  • the cleaning method can be determined so that the cleaning robot performs sterilization cleaning. That is, the determination unit 54 may determine the joint cleaning method in consideration of the support specifications between the cleaning robots connected through the communication unit 52.
  • the support specification may be the same between the plurality of cleaning robots.
  • the cleaning robot, the first cleaning robot, and the second cleaning robot may all support dry, wet, sterilization, and cleaning modes.
  • the determination unit 54 may divide the cleaning area to be handled for each cleaning robot, and determine that each cleaning robot performs cleaning through dry, wet, and sterilization cleaning modes for each divided area.
  • the determination unit 54 may divide the cleaning area through various methods. For example, the determination unit 54 may divide the size of the cleaning area in proportion to the cleaning performance speed of the cleaning robot. As another example, when the cleaning target area is divided into a plurality of rooms, the determination unit 54 may determine to clean the cleaning robot for each room. At this time, the determination unit 54 may determine that the cleaning robot with a high cleaning performance speed assumes a larger room. Alternatively, the determination unit 54 may determine the cleaning area of each of the cleaning robots by calculating the efficiency through various methods, such as determining the cleaning area so that the moving line is short based on the position information between the cleaning robots.
  • the determination unit 54 may determine to clean a part of the cleaning area and to clean the other part for each cleaning robot. As another example, the determination unit 54 may determine that a plurality of cleaning robots jointly clean the entire cleaning area as described above, but there is no limitation.
  • the room may be divided into three regions R1, R2, and R3.
  • the cleaning robot 1c may perform cleaning by receiving a cleaning execution command for the three regions R1, R2, and R3 from the user through the above-described input unit, a remote controller, a user terminal, and the like.
  • the cleaning robot 1c may perform cleaning on the entire indoor areas R1, R2, and R3 at a time preset by the user.
  • the cleaning robot 1c may perform cleaning on three areas by itself, but may also perform a common cleaning between other cleaning robots present around the cleaning robot 1c.
  • a common cleaning not only can the cleaning efficiency be improved, but also when another cleaning robot needs to perform cleaning that is not supported by the cleaning robot, another cleaning robot can perform this instead.
  • the determination unit 54 divides the area to be cleaned according to the area-specific common cleaning method, decides to perform individual cleaning for each divided area, or co-cleans the entire area according to the group common cleaning method, or the mixed cavity There are no limitations, including the ability to decide on how to clean individual zones and community cleanups.
  • Information about the method of determining the common cleaning method and the order of the cleaning modes performed in the common cleaning method may be preset and stored in the memory.
  • the controller 55 may be implemented through a processing device that performs various operations and control processes, such as a processor built in the cleaning robot 1, and may be implemented through various known processing devices. ,
  • the controller 55 may control the overall operation of the cleaning robot 1.
  • the controller 140 may control the operation of all components of the cleaning robot 1 such as the display 42 as well as various modules built in the cleaning robot 1.
  • the controller 55 may generate a control signal for controlling the components of the cleaning robot 1 to control the operations of the above-described components.
  • the controller 55 controls the communication unit 52 to transmit the determination result regarding the common cleaning method to the at least one other cleaning robot through the control signal, so that the common cleaning is performed.
  • the controller 55 corrects various settings related to the cleaning operation based on the environmental information received through the communication unit 52, thereby allowing the cleaning to be performed more efficiently.
  • the environmental information is sensed through the sensor and means various information related to the environment of the cleaning area.
  • the environmental information includes, but is not limited to, the amount of floor dust in the cleaning area, the floor humidity in the cleaning area, and the degree of sterilization of the cleaning area.
  • the controller 55 transmits to another cleaning robot to perform dry cleaning once more for the specific area or It can be controlled to perform dry cleaning on a specific area once more.
  • control unit 55 has a built-in suction module (e), cyclone module (f), and the dust storage module (g) in Figure 1, it is possible to perform dry cleaning.
  • the controller 55 may include a water supply module j in FIG. 1 to perform wet cleaning or steam cleaning. That is, the controller 55 may integrate various modules for performing cleaning, and there is no limitation.
  • control units built in the cleaning robot according to another embodiment to be described later are the same, and there is no limitation.
  • the cleaning robot 1c may monitor the entire cleaning area by using the environmental information received from the slave cleaning robot, so that the cleaning may be efficiently performed by reflecting the entire situation.
  • the cleaning robot 1c decides among the individual cleaning, group community cleaning, and mixed cavity cleaning methods for each area so that the cleaning efficiency is increased among the plurality of cleaning robots, and the cleaning robots simultaneously perform cleaning. Can be controlled to run.
  • the controller 55 may receive situation information from another cleaning robot through the communication unit 52, and control the operation of the other cleaning robot based on the situation information.
  • the cleaning status information includes environmental information, cleaning status information, and the like of the cleaning target area, and the cleaning status information includes information regarding whether the cleaning is being completed or completed or an error has occurred.
  • the cleaning robot 1c may monitor the entire situation of the cleaning area through the situation information, and may control at least one of the cleaning robot and another cleaning robot based on the situation.
  • the controller 55 may store the date and the connection method of the cleaning robot in the memory. Accordingly, the controller 55 may easily connect with another cleaning robot by using the information stored in the memory. For example, when paired with another cleaning robot via a Bluetooth communication network, the controller 55 may store the connection information in a memory so that it can be automatically connected when the pairing is performed later.
  • controller 55 may control the communication unit 52 to update the map information stored in the memory or transfer the map information to another cleaning robot to share the latest map information.
  • the cleaning robot 1c may be provided with a memory 59.
  • the memory 59 may be provided with an algorithm or a program for controlling various settings required for the operation of the cleaning robot.
  • the map 59 may store map information as described above, and other cleaning robots and connection information may be stored.
  • the memory 59 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM ( Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic Disk It may be implemented through at least one type of storage medium among optical discs. However, the present invention is not limited thereto and may be implemented in any other form known in the art.
  • the cleaning robot may not only perform a role as a master but also as a slave.
  • 13B shows a control block diagram of the master cleaning robot and the slave cleaning robot.
  • each component is the same as the above-described components, but the slave cleaning robot (1d, 1e) can receive the common cleaning method determined by the master cleaning robot through the communication unit 58, and can perform cleaning based on this. have. In other words, the determination process regarding the common cleaning method is handled by the master cleaning robot.
  • the cleaning module 57a of the slave cleaning robot 1d the suction module e, the cyclone module f, the dust storage module g, and the like are integrated in FIG. have.
  • the sterilization module 57b of the slave cleaning robot 1e is integrated with the water supply module j in FIG. 1, and may perform at least one of wet cleaning and steam cleaning.
  • the slave cleaning robots 1d and 1e transmit the environmental information acquired through the sensor to the master cleaning robot 1c so that the master cleaning robot 1c can monitor the entire cleaning area even if the area to be cleaned is divided. Make sure
  • 15 is a flowchart illustrating an operation of a cleaning robot for performing a collective cleaning according to an embodiment.
  • the cleaning robot may set a cleaning mode (900).
  • the cleaning robot may receive setting information regarding the cleaning mode from the user through an input device, a remote controller, or a user terminal provided in the display or the cleaning robot. Accordingly, the cleaning robot can set the cleaning mode based on the received setting information.
  • the cleaning robot if the cleaning method is input from the user, or if another cleaning robot is detected in the vicinity, or if there is a connection history with another cleaning robot in the memory, the cleaning robot is in the cleaning mode according to the cleaning method. Can be set.
  • the cleaning robot may perform a connection with at least one other cleaning robot (1410). As described above, the cleaning robot may be connected to at least one other cleaning robot through direct communication or through a gateway server of a home network.
  • the sweeping robot can determine how to clean the cavity with other connected sweeping robots.
  • the cleaning robot may determine the common cleaning method by combining at least one of the size and shape of the cleaning area, and the support specifications of the cleaning robots as described above.
  • the cleaning robot may determine any one of the zone-specific cavity cleaning method, the group cavity cleaning method, and the mixed cavity cleaning method.
  • the cleaning robot can perform the joint cleaning based on the determined joint cleaning method.
  • the cleaning robot when the cleaning robot operates as a master, the cleaning robot may be controlled to transmit a control command to the slave cleaning robot to perform the common cleaning.
  • the cleaning robot receives the cleaning status information from the slave cleaning robot through the communication network, by continuously monitoring the cleaning status, it is possible to perform additional cleaning if there is an area that needs more cleaning.
  • the cleaning robot monitors an operation state of the slave cleaning robot, so that if there is an error occurring and the slave cleaning robot does not operate, the other cleaning robot can cover it.
  • the cleaning robot may terminate the connection with the other cleaning robot.
  • the cleaning robot may switch to the silent mode to adjust the noise generated as the cleaning is performed so as not to inconvenience the user.
  • the noise mode is unnecessarily switched to the cleaning performance, the user may be rather troubled.
  • FIG. 16 is a diagram illustrating IoT devices directly connected through a home network or a communication network according to different embodiments
  • FIG. 17 is a cleaning robot that senses a user's position and controls a cleaning mode according to an embodiment.
  • FIG. 18 is a diagram illustrating a control block diagram of FIG. 18, and FIG. 18 is a diagram illustrating a room in which a cleaning robot and an IoT apparatus are provided, according to an exemplary embodiment. In the following description, together with the description to avoid overlapping.
  • the cleaning robot 1g includes a suction motor 35, an input unit 43, a battery 50, a communication unit 52, a sensor module 61, a voice recognition unit 62, a speaker 63, and a control unit. 64, and a drive motor 100.
  • the communication unit 52, the sensor module 61, and the control unit 64 may be integrated in a system on chip (SOC) built in the cleaning robot 1g, but the cleaning robot 1g. Since there is not only one system-on-chip embedded in), but may be a plurality of system-on-chip, it is not limited to being integrated into only one system-on-chip.
  • the above-described components may be implemented through a processor such as an MCU.
  • the voice recognition unit 62 may be implemented through a microphone.
  • the voice recognition unit 62 may convert the received voice into an electrical signal.
  • the speech recognition unit 62 may derive the speech waveform or convert the speech waveform into text. Accordingly, the voice recognition unit 62 may receive noise generated from various sound sources in addition to the user's voice.
  • the sensor module 61 includes at least one sensor capable of sensing a user.
  • the sensor module may be implemented with a processor such as a sensor capable of sensing a user and an MCU controlling the operation of the above-described sensors.
  • the sensor detects a user, such as a stereo camera, an infrared sensor, a thermal sensor, a pyro electric infrared ray sensor, a 3D sensor, and the like, and detects a distance between the user and the sensor or between the user and the cleaning robot to which the sensor is attached.
  • the sensor module 61 may include at least one of the above-described sensors, not only to detect the location of the user, but also to detect the user's motion.
  • the information detected by the sensor will be referred to as sensor information.
  • the cleaning robot 1 has a built-in communication unit 52, it is possible to connect to the home network through the communication unit 52. Accordingly, the cleaning robot 1 may exchange various signals with various Internet of Thing (IoT) devices existing in the room.
  • IoT Internet of Thing
  • the IoT apparatus refers to various apparatuses existing in life, which are connected to a home network through a built-in communication unit and share a data.
  • the IoT apparatus includes not only home appliances such as telephones, microwave ovens, air conditioners, TVs, lights, door locks, but also all user terminals such as mobile phones, computers, and wearable devices.
  • the home network refers to a network that provides a path for exchanging data with all IoT devices indoors and provides a path for access to an external internet network.
  • the gateway server of the home network is a server that integrates and manages the home network, and any one of the IoT devices may perform the operation of the gateway server, or another server may exist separately to perform the operation of the gateway server.
  • the cleaning robot may control various operations by transmitting various control commands to other IoT apparatuses located in the room through the gateway server of the home network.
  • the cleaning robot may control the operation through direct communication with the IoT apparatus, and is not limited to controlling the operation through the gateway server of the home network.
  • the communication unit 52 may receive the sensing information such as the location and operation of the user detected by the IoT apparatus from the gateway server or the IoT apparatus of the home network.
  • the controller 64 may control the overall operation of the cleaning robot 1g. Specifically, the control unit 64 may control the operation of all the components in the cleaning robot 1 such as the communication unit 52 as well as the various modules built in the cleaning robot 1g. The controller 64 may generate a control signal for controlling the components of the cleaning robot 1g to control the operations of the above-described components.
  • the controller 64 includes a detector 65 and a cleaning controller 66 as shown in FIG. 17.
  • the cleaning controller 66 may control a cleaning method, a fuel mode, a performance ranking for each cleaning area, and the like, and may control the movement to a desired area by controlling the driving motor 100.
  • the cleaning controller 66 may include the moving module d of FIG. 1.
  • the cleaning controller 660 may control the driving of the cleaning robot 1g by controlling the driving motor 100, the caster wheel, and the like through the control signal.
  • the sensor 65 may detect a user based on at least one of at least one IoT apparatus present in the room and sensor information through the sensor module. For example, the sensing unit 65 receives sensor information acquired through the sensor of the IoT apparatus through the communication unit 52, or where the user is indoors using sensor information built in the cleaning robot 1g. It can detect whether it is located or in what state.
  • the sensing unit 65 may derive not only the distance between the user and the cleaning robot, but also what kind of state the user is using by using sensor information obtained through various sensors existing in the room.
  • the controller 64 may control the cleaning controller 66 using at least one of sensor information received through the communication unit 52 and sensor information detected through the sensor module. In other words, the controller 64 may control the cleaning operation based on at least one distance between the user sensed through the above-described components and the cleaning robot.
  • control unit 64 controls the cleaning control unit 66 through a control signal to switch to the silent mode.
  • control unit 64 may determine at least one of at least one of a distance between the user and the cleaning robot detected by the above-described components, a user's behavior, a user's location, and a result received through the voice recognition unit 62. It is possible to control the cleaning performance on a basis.
  • the controller 64 determines that the user is currently sleeping or resting. At the same time, the control is performed so as to switch to the silent mode and to perform cleaning on other areas other than the bedroom.
  • a user may be sitting on a sofa and reading a newspaper.
  • a user may be sensed by a sensor module embedded in an IoT apparatus such as an air conditioner or a sensor module embedded in a cleaning robot.
  • the voice recognition unit 62 of the IoT apparatus or the voice recognition unit 62 of the cleaning robot 1g may receive TV sound. Accordingly, the sensing unit 65 may control the cleaning operation by combining the results detected or input through the above-described components.
  • the control unit 64 when the distance between the user and the cleaning robot is closer than the preset level according to the sensor information, and the ambient noise exists as a result of the recognition through the voice recognition unit 62, the control unit 64 is in the silent mode through a control signal. You can switch to
  • the controller 64 may control the level of the silent mode in proportion to the magnitude of the ambient noise.
  • the controller 64 may control the level of the silent mode in proportion to the magnitude of the ambient noise.
  • the controller 64 may determine that the user is at rest. have. Accordingly, the controller 64 may control to clean only the area except the room where the user is located or the area where the user is located in the cleaning area. Alternatively, the control unit 64 may adjust the cleaning execution order so as to clean the room around the user's area or the room where the user is located later in the cleaning area.
  • 19 is a flowchart illustrating an operation of a cleaning robot for controlling a cleaning mode by detecting a location of a user according to an exemplary embodiment.
  • the cleaning robot may detect at least one of a location and a state of the user by using at least one of the IoT apparatus and the sensor module (1800).
  • the cleaning robot may detect a user's location and state through various sensors capable of detecting the user, such as a stereo camera, a 3D sensor, and a PIR sensor.
  • the cleaning robot may determine that the object with movement among the objects detected around by the 3D sensor corresponds to the user.
  • the cleaning robot may detect a user through image processing from image information acquired through a stereo camera.
  • the cleaning robot may detect the user based on infrared rays emitted from the user's body through the PIR sensor.
  • the cleaning robot may receive the location and status information of the user sensed by the IoT apparatus through the communication network.
  • the aforementioned sensor may be built in the IoT apparatus.
  • the cleaning robot may receive a location and state information detected by the IoT apparatus, and detect a location and a state of the user based on the location information. Accordingly, the distance between the user and the cleaning robot can be derived by comparing the current position of the cleaning robot with the location of the user.
  • the cleaning robot may control the cleaning operation based on the user's state (1810). For example, if it is determined that the distance between the cleaning robot and the user is closer than a preset level during the cleaning, the cleaning robot may switch to the silent mode, thereby preventing noise from occurring to the user. Accordingly, the cleaning robot according to the embodiment may increase the convenience of the user by performing the cleaning that does not affect the user's life.
  • the cleaning robot may not directly switch to the silent mode and may determine the user's state in more detail to control the cleaning. .
  • the cleaning robot may receive noise, voice, etc. emitted from the surrounding sound source through the voice recognition unit.
  • the cleaning robot decides to switch to the silent mode around the user, and adjusts the output of the suction motor and also adjusts the output of the driving motor to prevent noise from the user. Can be controlled.
  • the cleaning robot may adjust the level of the silent mode according to the loudness of the user. That is, the cleaning robot can control the operation of the built-in devices so that cleaning is performed within a range that does not cause inconvenience to the user due to the operation of the cleaning robot. As another example, the cleaning robot may adjust the level of the silent mode according to the amount of noise radiated from the surrounding sound source.
  • the cleaning robot may adjust the cleaning area itself based on the current position of the user. For example, if it is determined that the current location of the user is a desk or a bed, the cleaning robot may change the order of the cleaning areas by first cleaning the area where the user is located or an area outside the room.
  • FIG. 20 is a flowchart illustrating an operation of a cleaning robot that detects a user's position and controls a cleaning mode while performing cleaning according to an embodiment
  • FIG. 21 is a level of a silent mode by sensing ambient noise according to an embodiment
  • FIG. 22 is a diagram illustrating a case of adjusting the cleaning area
  • FIG. 22 is a view illustrating a case of changing a cleaning area by detecting a state of a user, according to an exemplary embodiment.
  • the cleaning robot can begin performing cleaning (1910). For example, when the cleaning robot receives an execution command from a user through an input unit or receives an execution command from an IoT apparatus through a communication unit, the cleaning robot may start cleaning. In addition, the cleaning robot can start cleaning at a time preset by the user, and there is no limitation.
  • the cleaning robot may perform cleaning (1910).
  • the cleaning robot can perform cleaning according to various cleaning modes, and can set the order of the cleaning area among the entire cleaning areas. For example, when the cleaning area is divided into a plurality of rooms, the cleaning robot may set the cleaning order for each room according to various methods, and then perform cleaning based on the cleaning robot. As another example, when the cleaning area corresponds to one room, the cleaning robot may set which direction to perform cleaning according to various methods, and then perform cleaning based on the cleaning robot.
  • the cleaning robot can complete the cleaning. Accordingly, the cleaning robot may move to the charging station or move to a predetermined area according to the remaining amount of battery.
  • the cleaning robot may detect a user when the cleaning robot performs cleaning on the cleaning target area (1930).
  • the cleaning robot may detect a user in conjunction with an IoT apparatus or through a built-in sensor module. Detailed description thereof will be omitted as it is the same as described above.
  • the cleaning robot may control a cleaning operation according to whether the user detects the cleaning robot. If the user is not detected, the cleaning robot may perform cleaning on the set cleaning mode and the cleaning target area without additionally controlling the operation.
  • the cleaning robot may control the cleaning method, the cleaning mode, and the cleaning target area so that the user has less influence (1940).
  • the cleaning robot may control a cleaning operation based on at least one of the distance between the user and the cleaning robot, the current location of the user, the sound input through the microphone, and the user's movement.
  • the cleaning robot may be switched to the silent mode, so that the user may not be affected by the noise.
  • the cleaning performance of the cleaning robot is lowered when switching to the silent mode. Accordingly, even if the distance between the user and the cleaning robot is closer than the preset distance, by determining whether the user's movement or ambient noise, the cleaning robot can adjust the level of the silent mode or adjust the cleaning order.
  • the preset distance may be set by the user or may be set in advance when designing the cleaning robot.
  • the cleaning robot may determine that the user is resting or going to bed and control to clean another area first.
  • the cleaning robot may control to clean other areas first. There is no limit as such.
  • the cleaning robot may set the level of the silent mode according to the amount of ambient noise input. For example, when the user is washing dishes, the cleaning robot may set the level of the silent mode according to the amount of noise generated by the washing dishes.
  • the cleaning robot may set the level of the silent mode according to the volume of the TV sound. Accordingly, the cleaning robot can increase the performance of cleaning while at the same time making the user's TV uncomfortable.
  • the cleaning robot may determine that the user is currently located in the bed through a sensor embedded in the bed. Accordingly, the cleaning robot may exclude the room in which the user is currently located from the cleaning target area, or allow the cleaning to be performed last among the cleaning areas.
  • the cleaning robot according to the disclosed embodiment provides a control of the indoor environment as well as switching to the silent mode according to the position and state of the user for the convenience of the user.
  • a cleaning robot for controlling the indoor environment based on the indoor environment map will be described.
  • FIG. 23 is a view showing a control block diagram of a cleaning robot for adjusting an indoor environment based on an environment map according to an embodiment
  • FIG. 24 is a view showing a vehicle equipped with a sensor module according to one embodiment
  • FIG. 25 is a diagram for describing a case of collecting environmental information through a cleaning robot, a flying vehicle, and an IoT apparatus, according to an exemplary embodiment.
  • the cleaning robot 1h includes a display 42, an input unit 43, a communication unit 52, a memory 59, a voice recognition unit 62, a speaker 63, and a sensor module 67. ), A vehicle 68, a vehicle charging station 69, and a controller 70.
  • the communication unit 52, the memory 59, the sensor module 67, and the control unit 70 may be integrated in a system on chip embedded in the cleaning robot, but may be integrated in one system on chip as described above. It is not limited to that.
  • the display 42, the input unit 43, the communication unit 52, the memory 59, the voice recognition unit 62, and the speaker 63 are the same as described above, they will be omitted.
  • the vehicle 68 refers to an object that can receive a control command from the cleaning robot 1h and fly to a target area.
  • the aircraft 68 includes a drone equipped with a sensor module.
  • the aircraft 68 may be equipped with a sensor module at a lower portion thereof to obtain environmental information of an area in which the sensor module 67 is located.
  • the sensor module 67 may be implemented as a substrate in which various sensors capable of obtaining environmental information and a processor such as an MCU are integrated. Detailed description of the sensor module will be described later.
  • the sensor module 67 may be mounted to the lower end of the vehicle 68 by a lift. Accordingly, the vehicle 68 may control the position of the sensor module 74 by adjusting the height of the lift as well as adjusting the flying height of the vehicle 68.
  • the cleaning robot 1h may be provided with a vehicle charging station 69.
  • the vehicle charging station 69 may be provided on the upper surface of the main body of the cleaning robot (1h).
  • the aircraft 68 may fly in the entire house and lack the battery to obtain environmental information.
  • the cleaning robot 1h is provided with a vehicle charging station 69 that charges a battery built in the vehicle, and can be charged.
  • the cleaning robot 1h can move with the aircraft 68 mounted.
  • the fixed body may be provided so that the flying body 68 falls off from the cleaning robot 1h while the cleaning robot 1h moves. That is, the vehicle 68 and the cleaning robot 1h may be fixed through the fixing body. More specifically, the control unit 70 may control the operation of the fixed body through a control signal to fix the vehicle to the main body of the cleaning robot 1h.
  • the control unit 70 has a built-in aircraft module (p) in Figure 1, it is possible to control the overall operation of the aircraft.
  • the controller 70 may control the overall operation of the cleaning robot 1h. Specifically, the control unit 70 may control the operation of all components to the cleaning robot 1h, such as the display 42, the aircraft 68, the fixed body, as well as various modules built in the cleaning robot 1b. . For example, the controller 70 may generate a control signal for controlling the components of the cleaning robot 1h to control the operations of the above-described components.
  • the controller 70 may be implemented through a processing device that performs various calculations and control processes, such as a processor built in the cleaning robot 1b, and may be implemented through various known processing devices. ,
  • control unit 70 includes a desired information setting unit 71, the generation unit 72, and the indoor environment control unit 73.
  • the desired information setting unit 71 may set desired information about the indoor environment.
  • the desired information about the indoor environment refers to information about the indoor environment desired by the user, and means the degree of hope of various environments such as indoor temperature, air cleanliness, and illuminance.
  • the desired information setting unit 71 may receive information related to the indoor environment from the input unit 43, the communication unit 52, etc. to the user and set the desired information. On the other hand, there is no restriction on how to receive information related to the indoor environment to the user.
  • the information about the indoor environment means environment setting information desired by the user.
  • the input unit 43 may receive a desired temperature from the user at 25 degrees, but may be input as a parameter such as 'very cool, cool, comfortable, warm, very warm'. Then, the desired information setting unit 71 may set a value corresponding to each parameter. That is, since the user does not need to specifically enter each environment parameter value, the user's convenience can be increased.
  • the desired information setting unit 71 may set the temperature corresponding to 'very cool' to 19 degrees, and may set the temperature corresponding to 'cool' to 23 degrees. At this time, the environment corresponding to each parameter may be set by the user or may be set in advance when designing the cleaning robot 1h.
  • the generation unit 72 may generate indoor environment map by obtaining indoor environment information.
  • the indoor map information obtained through the SLAM module or the communication network is stored in the memory 59 of the cleaning robot.
  • the generation unit 72 may generate the indoor environment map by mapping the indoor environment information obtained through various kinds of methods to the map information.
  • the indoor environment information may be obtained using at least one of at least one IoT apparatus, a sensor module 67 embedded in the cleaning robot, and a sensor module mounted on the aircraft.
  • the IoT apparatus may include various sensors capable of acquiring indoor environment information. Sensors include temperature sensors, humidity sensors, gas sensors, dust sensors, noise sensors, illuminance sensors, odor sensors, and radon level sensors.
  • the temperature sensor refers to a sensor that detects a temperature of an object or ambient air.
  • the temperature sensor can sense the temperature and convert it into an electrical signal.
  • the temperature sensor has a contact type for sensing the temperature based on the resistance value or the voltage generated by the temperature difference depending on the measuring method, and a non-contact type for emitting infrared energy radiated from the heat source. There is no limit to the temperature sensor.
  • the humidity sensor refers to a sensor that detects humidity by using physical and chemical phenomena of moisture in the air.
  • the humidity sensor includes a wet and dry bulb humidity, a hair humidity, a lithium chloride humidity sensor, and the like, according to a method of detecting humidity, and the humidity sensor integrated in the sensor module is not limited.
  • the gas sensor refers to a sensor that detects a specific chemical contained in a gas and detects a gas concentration based thereon. Specifically, the gas sensor refers to a sensor for detecting a specific chemical contained in the gas to measure the concentration, and converts the signal into an electrical signal in proportion to the concentration.
  • the gas sensor includes a method of using a change in solid physical properties due to adsorption or reaction of a gas, a method of using combustion heat, an method of using an electrochemical reaction, and a method of using physical characteristic values according to a detection method. There is no limit to the gas sensor.
  • the dust sensor refers to a sensor for detecting the amount of floating dust.
  • the dust sensor measures the amount of dust based on the pattern of scattered light scattered differently due to the size of the dust, and there are side scattered light and near-infrared scattered light, and there is no limit to the dust sensor integrated in the sensor module. .
  • the noise sensor refers to a sensor that detects a magnitude of noise by measuring a change in capacitance according to sound pressure. Electrostatic and piezoelectric types exist in the noise sensor according to a detection method, and there is no limitation in the noise sensor integrated in the sensor module.
  • the illuminance sensor refers to a sensor that senses the brightness of the light and converts it into an electrical signal, and measures the illuminance based on this.
  • the illuminance sensor may change the output current according to the intensity of light, and measure the illuminance based on this.
  • the odor sensor refers to a sensor that detects odor and quantifies the intensity of the odor and the degree of odor.
  • the odor sensor may generate a chemical reaction with the substance in the odor, and output the electric signal to the value.
  • a radon numerical sensor means a sensor which measures radon which is an inert gas element which emits radiation.
  • all sensors capable of acquiring indoor environmental information are included, without limitation.
  • the sensor module 67 may be configured as a processor such as a MCU for processing the output value output from the sensor and the sensor capable of acquiring the indoor environment information as described above.
  • the sensor module 67 may be mounted on the cleaning robot 1h, may be mounted on the flying body 68, or may be mounted on both the cleaning robot 1h and the flying body 68.
  • the generation unit 72 receives environmental information from an IoT apparatus such as an air conditioner, receives environmental information using a sensor module 67 mounted on a cleaning robot, or the aircraft 68 Indoor environment map can be generated by receiving environmental information from the sensor module installed in the). At this time, the generation unit 72 may combine the indoor environment information obtained from the aforementioned devices in order to generate a more accurate indoor environment map.
  • an IoT apparatus such as an air conditioner
  • receives environmental information using a sensor module 67 mounted on a cleaning robot or the aircraft 68 Indoor environment map can be generated by receiving environmental information from the sensor module installed in the).
  • the generation unit 72 may combine the indoor environment information obtained from the aforementioned devices in order to generate a more accurate indoor environment map.
  • the air conditioner measures the room temperature 26 degrees
  • the sensor module 67 may measure 25 degrees.
  • the generation unit 72 may select any one of the two information, if the error of the indoor environment information obtained from both devices is within a predetermined level. However, if the error of the indoor environment information exceeds a preset level, the generation unit 72 may request re-measurement of the indoor environment definition.
  • the preset level may be set for each environmental information, and may be determined by the user or may be determined when designing the cleaning robot 1h.
  • indoor environment information may be obtained from an IoT apparatus, a sensor module 67 embedded in a cleaning robot, and a sensor module 74 mounted on a vehicle 68.
  • the generation unit 72 may control the flight of the aircraft 68 to obtain the indoor environment information from the intermediate position between the IoT apparatus, the cleaning robot (1h) through the control unit 70.
  • the generation unit 72 may select the indoor environment information determined to have the highest accuracy among the three indoor environment information obtained from each device, and map it to the map information.
  • the relationship between the output value of the Internet of Things device, the output value of the sensor module 67 built in the cleaning robot (1h), the output value of the sensor module 74 mounted on the vehicle 68 is the 'Internet of Things Output value of the device ⁇ output value of the sensor module 74 mounted on the vehicle 68 ⁇ output value of the sensor module 67 built in the cleaning robot (1h).
  • the relationship between the output values is expressed as 'the output value of the sensor module 67 embedded in the cleaning robot 1h ⁇ the output value of the sensor module 74 mounted on the vehicle 68 ⁇ the output value of the IoT apparatus'. Can be.
  • the generation unit 72 may generate an indoor environment map by selecting an output value of the sensor module mounted on the vehicle 68 corresponding to the intermediate value and mapping it to map information.
  • the relationship between the output values is 'output value of the sensor module 74 mounted on the vehicle 68 ⁇ output value of the sensor module 67 built in the cleaning robot 1h ⁇ output value of the IoT apparatus'. It can be expressed as.
  • the generation unit 72 selects the output value of the sensor module 67 embedded in the cleaning robot 1h closest to the output value of the sensor module 74 embedded in the aircraft 68, and based on this, You can create an environment map. Meanwhile, the generation unit 72 may select a value that is determined to have the highest accuracy by performing the above-described process for each parameter such as temperature information and odor information constituting the environmental information.
  • the indoor environment controller 73 may perform the adjustment process of the indoor environment by comparing the indoor environment map obtained through the generation unit 72 with desired information about the indoor environment received from the user. At this time, the indoor environment control unit 73 controls not only the cleaning robot but also the indoor environment in cooperation with the IoT apparatus.
  • the indoor environment controller 73 transmits a control command to the air conditioner through a communication network to control the operation of the air conditioner, so that the user can have the desired room temperature.
  • the indoor environment control unit 73 transmits a control command to the indoor lamp to adjust the illuminance so that the indoor brightness desired by the user is desired.
  • the indoor environment control unit 73 controls the device in the cleaning robot 1h so that the indoor dust amount or the humidity is an environment desired by the user, and there is no limitation.
  • the indoor environment control unit 73 may use the humidification module n to adjust the indoor environment such that the humidity is desired by the user.
  • the indoor environment controller 73 may lower the humidity by using the dehumidification module o.
  • the indoor environment control unit 73 may control the operation of the dehumidifier located in the vicinity through the communication network, thereby lowering the humidity.
  • the modular robot is applied to the cleaning robot 1h, and various modules are integrated. There is no limitation, such as to lower the humidity through the dehumidification module (o) mounted to the cleaning robot (1h).
  • FIG. 26 is a flowchart illustrating an operation of a cleaning robot that collects indoor environment information and adjusts an indoor environment according to an embodiment
  • FIG. 27 is a diagram illustrating a case where a user's state is adjusted to sense an indoor environment according to an embodiment. A diagram for explaining.
  • the cleaning robot may collect indoor environmental information using a sensor capable of detecting the indoor environment (2500).
  • the type of sensor includes various sensors capable of sensing an indoor environment as described above, but there is no limitation.
  • the cleaning robot may collect environmental information by using or combining at least one of a sensor mounted on a main body, a sensor mounted on a vehicle, and a sensor mounted on an IoT apparatus.
  • the cleaning robot may generate an indoor environment map by mapping the collected environment information to the map information stored in the memory (2510). Accordingly, the cleaning robot can specifically grasp the current indoor environment state.
  • the cleaning robot may receive the desired information about the indoor environment from the user.
  • the cleaning robot may receive desired information about an indoor environment from an IoT apparatus such as an input unit, a remote controller, or a user terminal.
  • an IoT apparatus such as an input unit, a remote controller, or a user terminal.
  • the cleaning robot does not perform the calibration process of the indoor environment and switches to the standby state. It may be (2530).
  • the cleaning robot may perform a correction process so that the indoor environment is created to correspond to the desired information about the indoor environment.
  • the cleaning robot may not only control the devices in the cleaning robot, but also control the operation of the IoT apparatus through the home network as shown in FIG. 27 to perform a correction process.
  • the cleaning robot may perform a process of reducing dust or disinfecting the room through the cleaning mode.
  • the cleaning robot may perform a process such as lowering or raising an indoor temperature by interworking with an IoT apparatus through a home network as shown in FIG. 27.
  • the method of controlling the indoor environment by manipulating the cleaning robot and the Internet of Things device such as the robot may perform a process of reducing or increasing the illuminance of the room in conjunction with lighting in the room through the home network.
  • FIG. 28 is a block diagram illustrating a cleaning robot for acquiring and providing indoor image information, according to an exemplary embodiment.
  • FIG. 29 is a diagram for describing a case of acquiring image information according to a limited field of view according to an exemplary embodiment.
  • 30 to 33 are views illustrating an image unit implemented according to different embodiments.
  • 34 is a diagram illustrating a case of acquiring image information through an image unit implemented in a bar shape, and
  • FIG. 35 illustrates a case of acquiring image information through a vehicle according to an embodiment. It is a figure for following.
  • the cleaning robot 1i may include an input unit 43, a communication unit 52, a vehicle 68, a vehicle charging station 69, an image unit 74, and a controller 75.
  • the communication unit 62 and the control unit 75 may be integrated in a system on chip embedded in the cleaning robot 1i, and is not limited to being integrated in one system on chip as described above.
  • the imaging unit 74 obtains image information obtained by imaging a specific area.
  • the imaging unit 74 may be implemented through a camera module.
  • the imaging unit 74 may be mounted on one surface of the cleaning robot 1i or mounted on the vehicle 68. Meanwhile, the imaging unit 74 may be implemented in various forms and mounted on one surface of the cleaning robot 1i or mounted on the aircraft 68.
  • the imaging unit 74 is implemented in the form of a rod as shown in FIG. 30 and has four degrees of freedom.
  • the degrees of freedom in four directions mean degrees of freedom of height, rotation, tilt, and tilting.
  • the imaging unit 74 has four motors built therein so that the four directions can be adjusted.
  • a damper structure may be applied to the image part 74 to prevent vibration generated when the cleaning robot moves.
  • the imaging unit 74 may be implemented in the form that the triangular support is attached to the bar.
  • the image unit may be implemented in a form in which a triangular support is attached to a rod and a camera is mounted in the support. At this time, the imaging unit 74 may adjust the support through the actuator.
  • the imaging unit 74 may be implemented in a tensioning manner by pulling a wire.
  • the motor pulling the wire is disposed close to the main body of the cleaning robot, there is an advantage that the volume and size of the imaging unit 74 can be reduced.
  • the imaging unit 74 may control height, inclination, rotation, and tilting by rotating a pillar having two asymmetric inclinations.
  • the imaging unit 74 may be implemented in various forms to acquire image information by photographing various directions and heights, and is not limited thereto. That is, the imaging unit 74 may be implemented in various forms as described above, and may be mounted on at least one of one surface of the cleaning robot.
  • image information may be acquired through a wider field of view through the image unit 74 implemented in the form of a bar.
  • the imaging unit 74 may be mounted on the vehicle 68.
  • the imaging unit 74 may be mounted at the bottom of the vehicle 68 to fly the entire house and acquire image information.
  • the cleaning robot 1h is provided with a vehicle charging station 69 that charges a battery built in the vehicle, and can be charged.
  • the cleaning robot 1h can move with the aircraft 68 mounted.
  • the charging station 69 may charge the battery of the vehicle 68 through wired or wireless charging, without limitation.
  • the controller 75 may transmit the induction signal such as an infrared signal, an ultrasonic signal, or a beacon signal through the IR sensor to the aircraft 68 to control the vehicle 68 to be seated on the vehicle charging station 69.
  • the induction signal such as an infrared signal, an ultrasonic signal, or a beacon signal
  • the image unit 74 is connected to the control unit 75, the control unit 75 may receive the image information obtained through the image unit 74, and control the communication unit 52 to provide to the user. .
  • the communication unit 52 may be provided in the cleaning robot 1i.
  • the communication unit 52 is the same as described above, a detailed description thereof will be omitted.
  • the communication unit 52 may transmit and receive a signal including various data with the user terminal through a communication network.
  • the communication unit 52 receives a remote access request from the user terminal and performs a connection, thereby connecting the cleaning robot 1i to the user terminal.
  • the communication unit 52 may transmit and receive a signal including data with a vehicle through a wireless communication network.
  • the communication unit 52 may transmit a control command to the aircraft through the wireless communication network.
  • the communication unit 52 may receive image information from the image unit 74 mounted on the vehicle 68.
  • the controller 75 may control the overall operation of the cleaning robot 1i. Since the general description of the control unit 75 is the same as described above, it will be omitted.
  • the controller 75 may control the operation of the image unit 74 through the control signal, thereby controlling the acquisition of the image information.
  • the controller 75 controls the communication unit 52 through a control signal, thereby transmitting and receiving data to an external device, the aircraft 68 and the like.
  • the controller 75 may control a device in the cleaning robot 1i to stop at least one operation being performed in response to a user's request for remote access through a control signal.
  • the communication unit 52 may be connected to the user terminal through a communication network.
  • the control unit 75 stops an operation currently being performed through a control signal, and controls the device in the cleaning robot 1i to acquire image information according to a signal received from the user terminal.
  • the controller 75 may control the operation of the driving motor 100 of the cleaning robot 1i to move the cleaning robot 1i to a region selected by the user. Alternatively, the controller 75 may control the operation of the vehicle 68 to move the aircraft 68 to a region selected by the user.
  • the controller 75 may obtain image information regarding the area to be photographed according to the remote control of the user terminal linked through the communication unit 52.
  • the user terminal may be stored in conjunction with the cleaning robot (1i), an application for controlling the operation of the cleaning robot (1i).
  • the version of the application can be continuously updated. The update may be performed according to a request of a user, a request of an application distributor, or a predetermined period.
  • the user can input an operation command of the cleaning robot 1i using the interface displayed on the display of the user terminal.
  • the controller 75 may receive an operation command through the communication unit 52, and control the operation of the cleaning robot 1i in response thereto.
  • the controller 75 when the controller 75 is performing another task, the controller 75 may stop another task in order to perform photographing according to the remote control of the user.
  • the controller 75 may store performance information about another task in a memory and then perform the process again when the remote connection with the user terminal is completed.
  • the controller 75 may perform the shooting by controlling the cleaning robot 1i according to the remote control input by the user through the application.
  • the user may directly command a remote operation of the cleaning robot or set a region of interest through the user terminal.
  • the user may set a photographing plan through the application.
  • the cleaning robot may store map information obtained through a 3D sensor or a camera.
  • the user terminal may receive map information through the communication unit 52 and display the region of interest on the display. Then, the user may set a region of interest in the map information. In this case, the user may reserve the shooting of the ROI at a specific time period through the application. In addition, the user may set the region of interest by priority through the application.
  • the user terminal may display map information through a display.
  • the user terminal may set one or more zones selected by the user as the region of interest among the displayed map information, and transmit the information about this to the communication unit.
  • the user may also set the photographing height, the photographing angle, and the photographing time of the image unit.
  • the user may set the shooting order for the plurality of zones. That is, the user terminal may set the shooting plan in various ways through the application.
  • the controller 75 may acquire the image information by controlling the operation of the cleaning robot 1i by reflecting the photographing plan set by the user, and may transmit the obtained image information to the user terminal. Accordingly, the user may be provided with indoor image information even when the user is outside.
  • the controller 75 may support the telepresence function by transmitting the image information acquired through the communication unit 52 to the IoT apparatus in real time.
  • telepresence means a virtual video conferencing system between users. That is, the controller 75 may receive image information of another user from the IoT apparatus through the communication unit 52 and display it on the display 42.
  • the cleaning robot according to the embodiment may provide not only a real time meeting but also various services such as remote medical treatment through an image connection with a doctor.
  • FIG. 36 is a flowchart illustrating an operation of a cleaning robot for acquiring image information through a remote connection according to an embodiment.
  • FIG. 37 is a view illustrating image information of a desired area through an image unit implemented in a rod form according to an embodiment. It is a figure for demonstrating the case of acquiring.
  • the cleaning robot may receive a remote access request from the user (3500).
  • the user may transmit a remote access request to the cleaning robot through an IoT apparatus such as a user terminal.
  • the cleaning robot may directly perform a connection connection with the IoT apparatus or stop another operation according to whether the cleaning robot is performing another task (3510). For example, when performing another task such as a cleaning task, the cleaning robot may stop the task currently being performed and store the processing result of the task currently being performed and task information to be performed later (3520). Accordingly, after the remote connection of the user is terminated, the cleaning robot can resume the suspended work without a separate command.
  • the cleaning robot may perform a remote connection with the IoT apparatus through the communication network (3530). Accordingly, the cleaning robot may acquire and transmit image information regarding a desired area according to the remote control of the user. In addition to acquiring image information for indoor security, as shown in FIG. 37, the user may grasp the position to be checked through the image information to determine where the left object is located.
  • FIG. 38 illustrates a control block diagram of a cleaning robot that senses a sound and performs a process corresponding thereto according to an embodiment.
  • the cleaning robot 1j may be provided with a communication unit 52, a memory 59, a voice recognition module 76, an image unit 74, a control unit 77, and a driving motor 100.
  • a communication unit 52 may be provided with a communication unit 52, a memory 59, a voice recognition module 76, an image unit 74, a control unit 77, and a driving motor 100.
  • the communication unit 52, the memory 59, and the control unit 77 may be integrated in a system on chip embedded in the cleaning robot 1j, but may be integrated in one system on chip as described above. It is not limited to this.
  • the voice recognition module 76 may include a voice recognition unit 62 that recognizes a voice and identifies a point at which the recognized voice is generated, and a module controller 78 that controls the overall operation of the voice recognition module 76. Can be.
  • the voice recognition unit 62 may recognize a voice. As described above, the voice recognition unit may be implemented through a microphone to convert the received voice into an electrical signal. The speech recognition unit 62 may derive the speech waveform or convert the speech waveform into text.
  • the voice recognition unit 62 may identify a point where the voice is generated.
  • the voice recognition unit 62 may be arranged in an array form and implemented through a microphone. Accordingly, the microphones arranged in an array form may identify a direction in which the voice is input when the voice is input, and identify the point where the voice is generated.
  • the module controller 78 may control the overall operation of the voice recognition module 76.
  • the module controller 78 may derive a recognition result for the voice recognized by the voice recognizer 62.
  • the module controller 78 may derive the recognition result through the data stored in the memory, or may derive the recognition result through an external voice recognition server.
  • the module controller 78 may be connected to a voice recognition server located outside through the communication unit to transmit a voice waveform or text and receive a recognition result corresponding thereto.
  • the external voice recognition server is a server existing outside the cleaning robot, may be a gate server of the home network, or may be a server existing outside the house, there is no limitation.
  • the recognition result corresponding to the main voice may be stored in the memory 59. Accordingly, the module controller 78 may derive a recognition result regarding the voice using data stored in the memory 59 without having to be connected to an external voice recognition server through a communication network. Accordingly, the cleaning robot 1j according to the embodiment can prevent the overload of the communication network and can derive the recognition result more quickly.
  • the module controller 78 may store the voice input through the voice recognition unit 62 in the memory. Accordingly, the module controller 78 transmits the voice stored in the memory to the user terminal. Detailed description thereof will be described later.
  • a voice corresponding to each recognition result may be mapped and stored in the memory 59.
  • the module controller 78 may transmit a voice 'Who are you' through the speaker.
  • the voice may be a voice of a user or a voice of a pre-stored person. That is, the memory 59 maps and stores voices suitable for each situation, and the module controller 78 may transmit the voices suitable for the situation through the speaker. That is, the module controller 78 may transmit a preset voice in response to the recognition result regarding the voice.
  • the voice suitable for each situation may be preset in the design of the cleaning robot 1j and stored in the memory.
  • the controller 77 may control the overall operation of the cleaning robot 1j.
  • the controller 77 may control the operation of all the components of the cleaning robot 1j such as the speaker 63 as well as various modules built in the cleaning robot 1j.
  • the controller 77 may generate a control signal for controlling the components of the cleaning robot 1j to control the operations of the above-described components.
  • the controller 77 may control the speaker 63 to transmit a voice corresponding to the recognition result derived through the module controller 78.
  • the controller 77 may interwork with the communication unit 52 to transmit image information obtained through the image unit 74 to the user terminal.
  • the controller 77 may perform a telephone connection to a preset contact based on the recognition result derived through the module controller 78.
  • the preset contact includes a phone number or ID of a messenger application. That is, the controller 77 may connect a wired telephone to a preset telephone number, deliver a message through a messenger application, or connect an internet telephone.
  • the contact may be set through the input unit of the cleaning robot 1j or through an application installed in the user terminal.
  • FIG. 39 is a flowchart illustrating an operation of a cleaning robot that senses a sound and performs a process corresponding thereto according to an embodiment.
  • FIG. 40 is a view illustrating a cleaning robot that responds to a sound detected at a front door according to an embodiment. It is a figure for demonstrating operation
  • the cleaning robot may detect a sound through the voice recognition unit (3800).
  • the sound includes not only a voice uttered by the user, but also all sounds from various sound sources such as noise.
  • the cleaning robot may obtain the direction information of the sound through the speech recognition unit arranged in an array form. Accordingly, the cleaning robot can identify the direction information of the sound, that is, the point where the sound source is generated, and move to the vicinity of the aforementioned point.
  • the cleaning robot may detect a sound generated at the front door. Accordingly, the cleaning robot can record the sound generated by moving near the front door and transmit the recorded sound to the user terminal through the communication network.
  • the cleaning robot may record a sound generated at a point moved through the voice recognition module (3810). Accordingly, the cleaning robot can transfer the recorded data to the user terminal.
  • the remote correspondence service refers to a service that supports remote correspondence of a user through a remote connection with the user terminal. Support of the remote response service may be preset by the user or may be preset in the design of the cleaning robot.
  • the cleaning robot may perform a connection with the user terminal through the communication network (3830). Accordingly, when the connection with the user terminal is completed, the cleaning robot may be operated according to a control command received from the user terminal. Accordingly, even if the user is located outside through the user terminal, the user can cope with an emergency situation through a remote response.
  • the cleaning robot when not connected to the user terminal, the cleaning robot is connected through a built-in speaker or a communication network may transmit a predetermined voice through the speaker existing in the room (3850).
  • the sound to be transmitted may be preset according to the type of sound or the point where the sound is identified. In other words, the cleaning robot sends out a voice suitable for the situation, so that the cleaning robot can appropriately prepare for an emergency.
  • the cleaning robot transfers the corresponding result through the preset voice to the user terminal (3860), thereby helping the user to grasp the indoor condition.
  • the cleaning robot according to the embodiment not only detects the sound through the voice recognition module and performs the corresponding process, but also detects the user's voice to increase the user's convenience and provides a corresponding process. It may be.
  • FIG. 41 illustrates a control block diagram of a cleaning robot that performs a process corresponding to a voice recognition result
  • FIG. 42 illustrates a radiation pattern transmitted from an IoT apparatus, according to an exemplary embodiment. to be.
  • the cleaning robot 1k includes a battery 50, a communication unit 52, a memory 59, a speaker 63, an image unit 74, a voice recognition module 76, and an image unit 74. , A display 42, a controller 79, and a drive motor 100.
  • the voice recognition module 76 and the controller 79 may be integrated in a system on chip embedded in the cleaning robot 1k and may be operated by a processor. However, as described above, since only one system on chip embedded in the cleaning robot 1k is present and may be plural, the present invention is not limited to only one system on chip.
  • the controller 79 may control the overall operation of the cleaning robot 1k. Since the general description of the control unit 79 is the same as described above, it will be omitted.
  • the controller 79 may include a cleaning controller 66 and a recognizer 80.
  • the cleaning control unit 66 controls the overall operation related to cleaning, and the recognition unit 80 may receive a user's command and recognize the user's location.
  • the recognition unit 80 may receive various kinds of call signals and recognize the location of the user from the call signals.
  • the call signal means a signal that the user calls the cleaning robot 1k to transmit a command to the cleaning robot 1k.
  • the call signal includes a voice signal of a user, as well as a wireless signal transmitted from an IoT apparatus such as a user terminal.
  • the recognition unit 80 may recognize a user's call signal in cooperation with components in the cleaning robot 1k and determine a user's location. In one embodiment, the recognition unit 80 may recognize the user's voice through the voice recognition module 76. In this case, the voice used as the call signal may be preset and stored in the memory 59.
  • the recognition unit 80 may not only recognize a preset voice, but also identify a location of a sound source, that is, a user's location through the voice recognition unit 62 arranged in an array. Then, the control unit 79 may control the cleaning robot 1k to move near the point where the user is located by controlling the driving motor 100 through a control signal.
  • the recognition unit 80 may recognize a call signal by detecting a motion of the user through the image unit 74.
  • the motion used as the call signal may be preset and stored in the memory 59. Accordingly, when the recognition unit 80 recognizes the call signal, the control unit 79 may derive the position of the user from the image information. Then, the control unit 79 may control the cleaning robot 1k to move near the point where the user is located by controlling the driving motor 100 through a control signal.
  • a user may operate a IoT apparatus such as a user terminal to transmit a wireless signal.
  • the recognition unit 80 may determine the location of the user who is operating the IoT apparatus based on the wireless signal received through the communication unit 52.
  • the recognizer 80 may calculate a radiation pattern radiated from the antenna of the IoT apparatus. Radiated power is power emitted as the antenna radiates a signal, and the radiation pattern expresses the radiated power of the antenna of the IoT apparatus as a function of direction as a signal is exchanged between the IoT apparatus and the communication unit 52. .
  • the recognition unit 80 may determine the direction in which the IoT apparatus is located using the radiation pattern. For example, in FIG. 42, the cleaning robot 1k is positioned at the center of the radiation pattern, and the IoT apparatus which transmits the call signal in the direction where the signal strength is strongest in the radiation pattern is located. In this case, the strength of the signal means the strength of the received signal strength (RSI). Accordingly, when the recognition unit 80 recognizes the user's position from the call signal, the control unit 79 controls the driving motor 100 through the control signal so that the cleaning robot 1k moves near the point where the user is located. Can be controlled. On the other hand, in addition to the recognition unit 80 may determine the direction and the position in which the radio signal is transmitted through a variety of known methods, it is not limited to the above.
  • the controller 79 may receive a user voice through the voice recognition module 76 and provide a service corresponding to a recognition result regarding the received voice. For example, the controller 79 may receive a voice command related to the IoT apparatus, as well as a voice command related to cleaning, and provide a service corresponding thereto. That is, the controller 79 may not only operate the cleaning robot 1k according to the voice recognition result, but also operate the IoT apparatus by transmitting a control command to the IoT apparatus through the home network.
  • control unit 79 is provided with a security module 81, so that the use authority can be restricted for each service.
  • the security module 81 may perform security authentication of the user by combining at least one of voiceprint recognition and voice recognition.
  • the security module 81 may register at least one of a voice and a face for each user by using at least one of the imaging unit 74 and the voice recognition module 76, and set a use right for each user.
  • the use right is a right regarding a service that can be provided by the user, and can be set together when initially registering at least one of a voice and a face of the user, and can be changed later through a security authentication procedure.
  • the controller 79 may determine whether the user has a right to receive a service corresponding to the recognition result regarding the voice, and determine whether to provide the service based on the determination result. Accordingly, the controller 79 may provide a service corresponding to the voice recognition result if the user has a use right.
  • the security module 81 may register the use right of the user through a security authentication procedure.
  • the security authentication procedure may be performed by at least one of the user's voice and voiceprint recognition.
  • the controller 79 when the user requests a schedule check, the controller 79 performs real-time mirroring with a schedule management application installed on the user terminal through the communication unit 52 to grasp the schedule of the user, and transmits it through the speaker 63. can do.
  • the controller 79 may recognize the change through the voice recognition module 76 and transmit the change to the user terminal by reflecting the change made by the user, thereby updating the schedule management.
  • the controller 79 recognizes this and transmits information on the change to the wearable device through the communication unit 52, thereby setting up an alarm application installed in the wearable device. There is no limit, such as change.
  • FIG. 43 is a flowchart illustrating an operation of a cleaning robot operating through security authentication according to an embodiment
  • FIG. 44 illustrates a case in which a cleaning command and an IoT apparatus are controlled by receiving a user's voice command. A diagram for explaining.
  • the cleaning robot may recognize the call signal (4100).
  • the user may transmit various kinds of call signals to transmit a voice command to the cleaning robot, and the cleaning robot may recognize this.
  • the call signal includes a voice signal of a user, as well as a wireless signal of an IoT apparatus.
  • the cleaning robot may stop the operation in operation 4110 and store processing results related to the operation in order to resume the operation later.
  • the cleaning robot needs to approach the user and receive a voice command, so that the identification of the user's location is necessary.
  • the cleaning robot recognizes the user's voice by using the voice recognition unit arranged in an array form, thereby determining the location of the user.
  • the cleaning robot may determine the user's position by recognizing the user's motion through the image unit.
  • the cleaning robot can determine the location of the user through various known methods, such as the location of the user based on the strength of the signal emitted through the antenna of the IoT apparatus as described above.
  • the cleaning robot may rotate and move to a position where the voice of the user may be recognized (4120).
  • the cleaning robot may send a voice requesting to input a voice command through the speaker or display a pop-up message requesting the voice command on the display. Can be.
  • the cleaning robot may receive a voice command of the user through the voice recognition module (4130).
  • the cleaning robot may derive a voice recognition result corresponding to the voice command of the user by using the data stored in the memory or transmit the voice command to an external server, and receive the voice recognition result corresponding to the voice command of the user. .
  • the cleaning robot may perform security authentication to determine whether the user has a right to use a service corresponding to the voice recognition result (4140).
  • the cleaning robot may not only prevents an unspecified number of people from providing a personal service, but also prevents indiscriminate viewing of personal information.
  • the cleaning robot may protect privacy by performing security authentication whether the user has permission to view the personal schedule. .
  • the cleaning robot may provide a service to the user by performing an operation corresponding to the voice command (4180).
  • the cleaning robot may provide a service through an IoT apparatus connected through a home network as well as a service through the cleaning robot.
  • the cleaning robot may again perform the operation previously stopped (4190).
  • the cleaning robot may perform a registration procedure. Accordingly, when the usage right is registered, the cleaning robot may provide a service to the user by performing an operation corresponding to the voice command. On the other hand, if the usage right is not registered, the cleaning robot does not provide a service corresponding to the voice command, and may perform the operation previously stopped again (4170).
  • FIG. 45 illustrates a control block diagram of a cleaning robot that determines a user's state based on biometric information of a user
  • FIG. 46 illustrates a voice recognition unit arranged in an array according to an embodiment. A diagram for describing a case of receiving a voice command of a user.
  • the cleaning robot 1l includes a display 42, an input unit 43, a communication unit 52, an image unit 74, a voice recognition module 76, a speaker 63, a first memory 82, and a sensor module 84. ), A controller 85, a 3D sensor 86, and a drive motor 100.
  • the communication unit 52, the voice recognition module 76, the first memory 82, the sensor module 84, and the control unit 85 may be integrated in a system on chip embedded in the cleaning robot 1l. It may be operated by a processor. However, since there is not only one system on chip embedded in the cleaning robot 1l, but a plurality of system on chips may exist, the present invention is not limited to only one system on chip.
  • the voice recognition module 76 may include a voice recognition unit 62, a module controller 78, and a second memory 83.
  • the voice recognition unit 62 may be implemented through microphones arranged in an array form as described above. Accordingly, the voice recognition unit 62 may identify the point where the voice is generated.
  • a microphone m arranged in an array form may be mounted on one side of the cleaning robot 11. Accordingly, the microphones m arranged in an array form may identify a direction in which the voice is input when the voice is input, and identify a point where the voice is generated.
  • the module controller 78 may control the overall operation of the voice recognition module 76. Since the general description of the module controller 78 is the same as described above, it will be omitted.
  • the module controller 78 may detect abnormal signs by analyzing the voice of the user input through the voice recognition unit 62. For example, the module controller 78 may analyze the voice of the user to determine whether it is in an emergency, call for help, or scream.
  • the voice of the user is recorded in the second memory 83 of the module controller 78, or data regarding the voice pattern that changes when the user is in an emergency is generally stored. Accordingly, the module controller 78 may detect whether an abnormal symptom occurs to the user even without interworking with an external server.
  • the module controller 78 is not limited, such as to detect abnormal signs by deriving an analysis result about the voice through the voice recognition server.
  • control unit 85 controls the operation of the driving motor 100 to cause the cleaning robot to move to the point where the user is identified as located.
  • the operation of the control unit 85 will be described later.
  • the sensor module 84 may obtain the biometric information of the user.
  • the sensor module 84 may be configured of at least one sensor capable of acquiring various information related to the user's living body such as a heartbeat, body temperature, and movement of the user, and a processor such as an MCU that controls the operation of the aforementioned sensors. .
  • the sensor module 84 may obtain the biometric information of the user and transmit it to the control unit 85.
  • the communication unit 52 may exchange data with an external device through a communication network. Since a general description of the configuration of the communication unit 52 is the same as described above, it will be omitted.
  • the input unit 43 may receive various control commands related to the cleaning robot from the user.
  • the input unit 43 may be provided in a dial form on one surface of the cleaning robot.
  • the display 42 may serve as the input unit 43.
  • the first memory 82 may be provided in the cleaning robot 11.
  • the first memory 82 may be implemented as one memory together with the second memory 83, and the like.
  • the first memory 82 stores data for determining the degree of user's state according to the biometric information.
  • the first memory 82 may store biometric information of a user normally acquired through the sensor module 84.
  • average state information for each age or age group may be stored in the first memory 82.
  • the age information of the user input from the user through the input unit 43 may also be stored in the first memory 82.
  • the first memory 82 stores various data necessary for determining the degree of the user's state.
  • the first memory 82 stores a countermeasure according to a state degree.
  • the coping scheme means a coping scheme using at least one of an operation of the cleaning robot 11 and an operation of at least one IoT apparatus connected through a home network according to the degree of the user.
  • the controller 85 may control the overall operation of the cleaning robot 11.
  • the controller 140 may control operations of all components of the cleaning robot 1, such as the display 42 and the speaker 63, as well as various modules built in the cleaning robot 11.
  • the controller 85 may generate a control signal for controlling the components of the cleaning robot 11 and control the operations of the above-described components.
  • the controller 85 may determine the degree of the user's state by using the biometric information of the user. For example, the controller 85 compares the user's biometric information stored in the first memory 82 with the user's biometric information acquired through the sensor module 84 and determines the degree of the user's state according to the degree of change. can do. As another example, the controller 85 may determine the degree of the user's state in accordance with the degree of change compared to the user's biometric information obtained.
  • the first memory 82 may store state information for each age or age group.
  • the cleaning robot 1l may receive the user's age through the input unit 43. Accordingly, the controller 85 may determine the degree of the user's state by comparing the state information for each age with the state information acquired through the sensor module.
  • biometric history information input by the user may be stored in the first memory 82.
  • biometric information refers to information about the disease, uniqueness, medical history, etc. that each user has.
  • the user may input his or her bio history information through the input unit 42 or an application installed in the user terminal.
  • the controller 85 may control a device in the cleaning robot 11 based on the corresponding countermeasure according to the determined degree.
  • the control unit 85 may set a countermeasure step by step according to the degree of state, thereby providing a suitable countermeasure for the current user to avoid a crisis situation.
  • the controller 85 may control the speaker 63 to transmit a voice asking the user what the current state is. Accordingly, the control unit 85 selects one of the coping methods stored in the first memory 82 based on the recognition result of the user's voice input through the voice recognition unit 62 and according to the selected coping method. The operation of the cleaning robot 11 can be controlled.
  • the controller 85 may select a countermeasure according to the determination result regarding the degree of state, and control the operation of the cleaning robot 11 according to the selected countermeasure.
  • the control unit 85 is linked with the home network server through the communication unit 52, various objects existing in the room The operation of the Internet device can be controlled.
  • the control unit 85 turns on the air conditioner in association with the home network server, and transmits wind of a suitable temperature through the air conditioner.
  • the control unit 85 may control the on / off of the lighting in association with the home network server, and help by notifying the outside of the emergency situation through the siren. You can request
  • the controller 85 may attempt to connect to the phone through a preset contact, or may transmit an SMS message or an instant message.
  • the controller 85 may perform all of the above-described operations, and may freely cope with the corresponding measures stored in the first memory 82.
  • the countermeasures may be set in advance when designing the user or the cleaning robot 11.
  • the countermeasure may be updated through the communication unit 52.
  • the controller 85 may periodically acquire the biometric information of the user by controlling the sensor module 84 according to a preset period even when no abnormality is detected.
  • the predetermined period may be set when the cleaning robot 11 is designed or by the user.
  • the controller 85 may recognize the location of the user by using various devices capable of sensing the user, such as the imaging unit 74 or the 3D sensor 86, and control the driving motor to move near the point where the user is located. have. Accordingly, the controller 85 may determine the user's state from the biometric information obtained through the sensor module 84, and store the obtained biometric information and the obtained time information in the memory when the state is determined to be normal.
  • control unit 85 may map the time information at the time of acquisition to the obtained biometric information to generate log data and store it in the memory.
  • the log data is not only stored in the first memory 82, but may be stored in an external server.
  • 47 is a flowchart illustrating an operation of a cleaning robot that operates according to a user's state determined based on the user's biometric information, according to an exemplary embodiment.
  • the cleaning robot may detect an abnormal indication from a voice of a user (4600). For example, the cleaning robot compares a user's voice stored in a memory with a user's voice input through an array microphone, and detects an abnormal occurrence when a severe change in a voice waveform occurs. Or, on the average, information on the audio waveform when an abnormal symptom is generated is stored in a memory, and the cleaning robot can detect the occurrence of the abnormal symptom based on the above-described information stored in the memory.
  • the memory may store information about a sudden voice, a voice waveform when calling for help. That is, the memory may store information on the main features of the audio waveform when an abnormality is generated from the user. In addition, the memory may store information on various features that can be derived from the voice, and is not limited to the shape of the waveform.
  • the cleaning robot can grasp the direction information of the voice input through the microphone implemented in an array form. Accordingly, the cleaning robot can grasp the point where the user's voice is generated and move to the point detected using the driving motor and the wheel.
  • the cleaning robot may acquire the biometric information of the user through the sensor module (4610).
  • the biometric information includes various information for identifying a user's physical condition such as a user's heart rate, blood sugar, and body temperature.
  • the sensor module is composed of a controller such as a heartbeat sensor that can grasp a user's body state, various known sensors such as an infrared sensor, and a processor that can control the aforementioned sensor.
  • the cleaning robot may determine the degree of the user's state from the biometric information of the user acquired through the sensor module, and control the device in the cleaning robot based on a countermeasure based on the determination result (4620).
  • a countermeasure corresponding to a determination result regarding the degree of the user's state may be stored in the memory or the external server of the cleaning robot. If stored in the memory, the cleaning robot may search for a countermeasure corresponding to the determination result in the memory and perform an operation based on the search result. As another example, the cleaning robot may access an external server through a communication network, search for a countermeasure corresponding to the determination result, and perform an operation based on the search result.
  • some of the countermeasures corresponding to the determination result regarding the degree of the user's state may be stored in the memory and the other in the external server. Accordingly, the cleaning robot searches for the information stored in the memory, and there is no limitation such that the cleaning robot may access an external server if there is no countermeasure corresponding to the determination result.
  • FIGS. 49 and 50 illustrate that a user according to another embodiment is in an emergency situation. At this time, it is a diagram for explaining a coping method through a home network.
  • the cleaning robot may receive a search time of the user state from the user (4700).
  • the cleaning robot may receive a search time through an input unit or a display implemented as a touch screen type.
  • the cleaning robot may receive a search time from the user terminal through a communication network.
  • the search time may be set as a specific time such as 1:00, 2:30, or may be set as a specific period such as every 30 minutes or every 2 hours.
  • the cleaning robot may recognize the location of the user by using a device capable of sensing the user, such as a 3D sensor or an image unit, and move to the point where the user is located (4710). Accordingly, the cleaning robot may acquire the biometric information of the user through the sensor module and determine the degree of the user's state based on the obtained biometric information (4720).
  • a device capable of sensing the user such as a 3D sensor or an image unit
  • the cleaning robot may determine whether the user's state is abnormal based on the determination result (4730). If it is determined that the determination result is normal, the cleaning robot may store the acquired biometric information and time information when the biometric information is acquired (4740). At this time, the cleaning robot is not limited to being stored in the built-in memory or stored in an external server. The cleaning robot may store biometric information and time information as log data, but is not limited thereto.
  • the cleaning robot may sound a question about what the current state is through the speaker (4750). Accordingly, the cleaning robot may change a countermeasure depending on whether the user responds to the question, that is, whether the user responds (4780). If there is a reaction from the user, the cleaning robot determines that the situation is not serious. Accordingly, when it is determined that there is a disease, the cleaning robot may perform a telephone connection or a message delivery with the attending physician to the preset contact point (4790).
  • the cleaning robot may control the on / off of a light, operate a siren, or control an operation of an IoT apparatus existing in a room such as an air conditioner through a gateway server of a home network.
  • an IoT apparatus existing in a room such as an air conditioner through a gateway server of a home network.
  • the cleaning robot may recognize a user's voice through a voice recognition module and provide a service corresponding to the recognition result.
  • the cleaning robot may inform the user of the action to be taken based on the determination result according to the degree of the user's state. For example, if it is determined that the user's body temperature is higher than the preset level and there is an abnormality, and the room temperature is determined to be an appropriate level, the cleaning robot may determine that the user has a heat due to a cold or the like. Accordingly, the cleaning robot can send out a countermeasure such as 'need ice cold' through the speaker.
  • the cleaning robot can respond according to the degree of the user state (4800). If the user's condition is judged to be significantly different from the normal condition, the cleaning robot determines that the condition cannot be improved only by the operation of the cleaning robot itself and the plurality of IoT devices in the room, and may request help externally. have.
  • the cleaning robot may attempt to make a telephone call or transmit a message using an internal memory or an emergency contact network stored in an external server.
  • the cleaning robot may control the on / off of the light, turn on the siren, or transmit an emergency signal to the guard room to notify the outside of the emergency situation.
  • the cleaning robot may operate in accordance with a predetermined countermeasure, such as interlocking with the gate server of the home network and releasing the door lock of the front door to facilitate access from the outside.
  • a predetermined countermeasure such as interlocking with the gate server of the home network and releasing the door lock of the front door to facilitate access from the outside.
  • the various countermeasures described above may be preset and stored in the memory of the cleaning robot or an external server, and the cleaning robot may perform operations according to the countermeasures using them.
  • the memory of the cleaning robot or an external server may store the result of the emotional analysis according to the user's state and the corresponding measures. Accordingly, the cleaning robot may perform an operation of alleviating the symptoms of the user by using the result of analyzing the emotion of the user. For example, the cleaning robot may transmit at least one of the user's biometric information and the user's voice to an external server, and receive the analysis result and the response.
  • the cleaning robot may adjust the temperature, illumination, humidity, etc. of the room by interworking with the IoT apparatus through the gateway server of the home network.
  • the cleaning robot may operate according to various measures such as accessing a web server through a gateway server to support a streaming service of music suitable for the emotional state of the user, or conducting a dialogue with the user.
  • the cleaning robot may make a telephone connection with a preset contact, for example, a guardian, or transmit a message to the guardian.
  • the cleaning robot according to the embodiment may determine the user's state, not only provide a service based on the determination result, but may also provide a multimedia service.
  • FIG. 51 is a block diagram illustrating a cleaning robot for providing a multimedia service according to an exemplary embodiment.
  • FIG. 52 is a diagram for describing a case of obtaining image information by following a user through a vehicle according to an exemplary embodiment.
  • 53 is a diagram for describing a case of detecting a possibility of occurrence of a risk of a user and processing a corresponding process according to an embodiment.
  • FIG. 54 illustrates various embodiments of the projector through a beam projector.
  • FIG. 55 is a diagram illustrating a case of displaying a kind of image
  • FIG. 55 is a diagram for describing a cleaning robot that provides a path to a specific area or a room, according to an exemplary embodiment.
  • the cleaning robot 1m includes an input unit 43, a communication unit 52, an image unit 74, a SLAM module 53, a memory 59, a voice recognition module 76, a vehicle 68, and a vehicle charging station 69. ), A display 42, a speaker 63, and a controller 87.
  • at least one of the above-described components may be integrated in a system on chip embedded in the cleaning robot 1m, but there is not only one embedded system on chip, but a plurality of system on chips may be provided. It is not limited to the integration only.
  • the input unit 43 may receive not only various control commands related to the cleaning robot 1m from the user, but also various control commands regarding various IoT apparatuses linked to the cleaning robot 1m.
  • the input unit 43 may receive an object to obtain image information from the user.
  • the display 42 when the display 42 is implemented as a touch screen type, the display 42 may serve as the input unit 43.
  • the image information acquired through the image unit 74 the user may touch the object to be photographed or draw a boundary line.
  • the object may be selected by the user terminal connected through the communication unit 52 in addition to the input unit 43.
  • the communication unit 52 may exchange data with an IoT apparatus located indoors through a communication network or exchange data with an external user terminal.
  • an application for providing various services related to the cleaning robot 1m may be installed in the user terminal.
  • the user terminal may display image information acquired by the cleaning robot 1m through an application, and may provide a user interface (UI) for selecting an object to be followed by the user from the image information. have.
  • UI user interface
  • the user may select the object through the user interface, and the user terminal may transmit information about the selected object to the communication unit through the communication network.
  • the cleaning robot 1m may grasp information about the selected object.
  • the imaging unit 74 may acquire image information about the object. Since the general description of the image unit 74 is the same as described above, it will be omitted.
  • the imaging unit 74 may track an object included in the image information by using a tracking algorithm.
  • the tracking algorithm refers to a technique of tracking a specific object through image processing in image information.
  • the tracking algorithm can be implemented through various known techniques.
  • the imager 74 may be mounted on an aircraft or a rod so that the lens follows the movement of the object.
  • the imaging unit 74 may be mounted on a vehicle. Accordingly, the aircraft may follow the user u to obtain image information and transmit the image information to the cleaning robot. Then, the communication unit 52 may deliver the image information to the user terminal through the gateway server of the home network.
  • the cleaning robot (1m) may be provided with a voice recognition module 76.
  • a voice recognition module 76 Detailed description of the voice recognition module 76 is the same as described above, and thus will be omitted.
  • the voice recognition module 76 may receive a voice of the object selected by the user through the voice recognition unit 62. Accordingly, the voice recognition module 76 may derive a voice recognition result regarding the voice received through the memory or the voice recognition server as described above.
  • the controller 87 may control the overall operation of the cleaning robot 1m. Since the general description of the controller 87 is the same as described above, it will be omitted. For example, the controller 87 may control the motor embedded in the vehicle or the rod through the control signal so that the imager 74 may follow the movement of the object.
  • controller 87 may control the operation of the cleaning robot 1m to perform a process corresponding to a situation generated according to the movement of the object.
  • the controller 87 may control the operation of the cleaning robot 1m to perform a process corresponding to a situation generated according to the movement of the object.
  • the controller 87 may detect contamination generated according to the movement of the object from the image information, control the operation of the cleaning robot 1m, and perform appropriate cleaning.
  • the beverage that was in the cup may spill as the subject moves.
  • the controller 87 may perform cleaning on the contaminated area detected from the image information by using the wet cleaning head according to the wet cleaning mode.
  • dust existing in a bookcase or the like may be poured onto the floor according to the movement of the object.
  • the controller 87 may perform cleaning on the contaminated area detected from the image information using the dry cleaning head in the dry cleaning mode. That is, the cleaning robot 1m according to the embodiment may provide not only a multimedia function but also a cleaning function which is a function of the cleaning robot 1m itself.
  • the subject may move to the danger zone.
  • the controller 87 may control a device in the cleaning robot 1m to perform a warning action or a corresponding action to the infant.
  • the controller 87 may transmit a warning message to the infant u through the speaker 63.
  • the controller 87 may transmit a warning message through the communication unit 52 through a speaker installed in the IoT apparatus.
  • the control unit 87 may perform a telephone connection or transmit a message to a user terminal located outside through the communication unit 52. Accordingly, the user can take a quick action by grasping an emergency situation.
  • the controller 87 may perform an operation corresponding to a recognition result regarding the voice of the object being tracked in the image information. For example, if it is determined that the object desires to watch a specific program, the controller 87 may turn on the TV through a gateway server of the home network, and control to download the above-mentioned specific program by accessing a communication network.
  • the controller 87 is a device capable of displaying various information such as a display 43 of the cleaning robot 1m, a display of the IoT apparatus, or a beam projector of the cleaning robot 1m as shown in FIG. Through the above program can be displayed.
  • the controller 87 supports a sound source streaming service through the speaker 63 of the cleaning robot 1m or the speaker of the IoT apparatus, or the TTS (Text To Speech) built in the cleaning robot 1m or the IoT apparatus.
  • the function can support the book reading service. That is, the cleaning robot 1m according to the embodiment may not only support a cleaning function but may provide various multimedia services.
  • the object may be a visually impaired person, as shown in FIG. 55, requesting to inform the route to the toilet through voice.
  • the controller 87 may combine the map information determined by the SLAM module 53 and the position of the following object through the image unit 74 to provide a path to the toilet through the speaker 63.
  • the process according to each situation is implemented by a program or algorithm and stored in the memory 59 or the external server of the cleaning robot 1m.
  • 56 is a flowchart illustrating an operation of a cleaning robot that acquires image information by following an object according to an exemplary embodiment.
  • the cleaning robot may receive information about the object to be followed through the input unit or the communication network from the user (5500). For example, the cleaning robot may display image information through the display of the cleaning robot or through a display of a user terminal located outside connected through a communication network or an IoT apparatus. Accordingly, the user may select an object to be followed through various methods on the display. At this time, the cleaning robot may receive the history information from the user, such as the age or history of the selected object through the input unit or the communication network.
  • the cleaning robot may store it so that the user does not need to input specific information when selecting the object again.
  • an image of an object may be stored in the cleaning robot in advance, and the user may set a name, a name, etc. of the object, and may also set history information on the object.
  • the cleaning robot may display the object list through at least one of the aforementioned displays. Then, the user can easily select the object by selecting the object to be followed from the object list without selecting the object in the image information.
  • the cleaning robot may acquire image information including the object by following the selected object (5510).
  • the cleaning robot may adjust the left / right, up / down, and height of the image unit, for example, the camera, to follow the movement of the object.
  • the cleaning robot may transmit image information obtained by following an object to a user terminal through a communication network. Accordingly, the user may receive image information about the object even when located outside. In particular, when the subject is an infant, even if the user is located outside, the accident may be prevented by checking the infant.
  • the cleaning robot may acquire image information about the infant by controlling the vehicle equipped with the image unit to track the infant.
  • the cleaning robot may receive the image information from the vehicle, and transmit the image information to the user terminal. Accordingly, the user can check the image information through the user terminal, thereby preparing for any risks. It is also possible to relieve anxiety when the infant is left indoors alone.
  • the cleaning robot may detect the movement of the object from the image information and perform a coping operation with respect to a situation generated based on the movement (5520). For example, when it is determined that a problem may occur according to the movement of the object based on the history information of the object, the cleaning robot may operate according to a corresponding countermeasure.
  • the coping method may vary according to the history information of the object. For example, if the object is an infant of N years or younger, the cleaning robot determines that the object is moving to the kitchen using the indoor map information stored in the memory, and sends a warning voice through the speaker and connects to a preset contact. , A message transfer, and an external help request through the IoT apparatus.
  • N may be set to 13 years old or less, but is not limited thereto.
  • the cleaning robot may transmit the voice of the infant recorded through the image information and the voice recognition module to a user terminal such as a smartphone or a wearable device.
  • the cleaning robot is an Internet of Things device, there is no limitation, such as to control the on / off of the lamp to notify the danger to the outside.
  • the cleaning robot determines that the movement of the object is not normal from the image information.
  • An operation such as an external help request can be performed. That is, the cleaning robot may control a device in the cleaning robot according to various countermeasures based on at least one of the history information and the image information, and take appropriate measures on the object.
  • FIG. 57 is a flowchart illustrating an operation of a cleaning robot that provides a safety service in anticipation of a risk according to a movement of an object, according to an exemplary embodiment.
  • the cleaning robot may determine a possibility of occurrence of danger according to the movement of the object (5620). If it is determined that there is no possibility of danger, the cleaning robot may switch to the standby state capable of recognizing the voice of the object (5630). Accordingly, when the voice command is uttered from the object, the cleaning robot may provide a service corresponding to the recognition result thereof. For example, the cleaning robot can provide various multimedia services as described above.
  • the cleaning robot may determine that there is a possibility of danger if it cannot be seen in a normal state, such as a change in the movement of the subject is not constant.
  • the cleaning robot may determine that there is a possibility of danger when the infant approaches a dangerous area such as a kitchen or a window as described above.
  • the cleaning robot may take warning and countermeasure (5650).
  • the cleaning robot may perform various countermeasures such as sending a warning message through a speaker or performing a telephone connection or message transmission through a preset contact.
  • first and second terms including ordinal numbers such as “first” and “second” as used herein may be used to describe various components, but the components are not limited by the terms. It is used only to distinguish one component from another.
  • first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • the term “and / or” includes any combination of a plurality of related items or any of a plurality of related items.
  • terms such as “unit”, “ ⁇ group”, “ ⁇ block”, “ ⁇ member”, “ ⁇ module”, etc. which are used throughout the present specification, are at least one. It may mean a unit for processing a function or an operation of. For example, it may mean hardware such as software, FPGA, or ASIC.
  • the terms “ ⁇ part”, “ ⁇ group”, “ ⁇ block”, “ ⁇ absence”, “ ⁇ module” are not limited to software or hardware, and “ ⁇ part”, “ ⁇ group”, “ ⁇ Blocks ”,“ ⁇ members ”,“ ⁇ modules ”, etc. may be components stored in an accessible storage medium and performed by one or more processors.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

청소 로봇 및 그 제어방법이 개시된다. 일 실시예에 따른 청소 로봇은, 서로 다른 기능을 지원하는 적어도 하나의 모듈이 통합된 모듈러; 및 청소 로봇의 전반적인 동작을 제어하는 제어부를 포함할 수 있다.

Description

청소 로봇 및 그 제어방법
HRI(Human Service Interaction) 기술을 제공하는 청소 로봇 및 그 제조방법에 관한 것이다.
청소 로봇은 사용자의 조작 없이 청소 공간을 주행하면서 바닥에 쌓인 먼지 등의 이물질을 흡입함으로써 청소 공간을 자동으로 청소하는 장치이다. 즉, 청소 로봇은 청소 공간을 주행하며 청소 공간을 청소한다.
최근에는 청소 로봇 시장이 점점 확대됨에 따라, 청소 로봇이 더 이상 청소 공간을 청소하는 것에 한정되지 않고, 다양한 기술을 결합하는 연구가 진행 중이다.
상술한 과제를 해결하기 위하여, 다음과 같은 청소로봇, 및 그 제어방법이 제공된다.
일 측에 따른 청소 로봇은, 서로 다른 기능을 지원하는 적어도 하나의 모듈이 통합된 모듈러; 및 상기 모듈러의 동작을 제어하여, 상기 청소 로봇 내 기기 및 사물인터넷 기기 중 적어도 하나를 제어하는 제어부를 포함할 수 있다.
또한, 상기 모듈러는, 로봇 팔을 제어하여 상기 로봇 팔에 청소헤드를 장착하는 그리퍼 모듈을 포함하고, 상기 제어부는, 상기 그리퍼 모듈의 동작을 제어하여, 상기 로봇 팔에 장착된 청소헤드를 이용하여 청소 수행을 제어할 수 있다.
또한, 상기 모듈러는, 통신망을 통해 적어도 하나의 다른 청소 로봇과 연결을 지원하는 통신 모듈을 포함하고, 상기 제어부는, 상기 적어도 하나의 다른 청소 로봇이 지원하는 지원 사양, 청소 영역의 크기, 및 형태 중 적어도 하나를 기초로 상기 통신 모듈의 동작을 제어하여 공동 청소 수행을 제어할 수 있다.
또한, 상기 모듈러는, 실내에 존재하는 사용자를 감지하는 인식 모듈을 포함하고, 상기 제어부는, 상기 인식 모듈을 통한 감지결과, 및 사물인터넷 기기를 통한 감지결과 중 적어도 하나에 기초하여, 청소 수행을 제어할 수 있다.
또한, 상기 모듈러는, 실내 환경정보를 획득하는 센서 모듈을 포함하고, 상기 제어부는, 상기 센서 모듈을 통해 획득한 실내 환경정보와 사용자가 설정한 실내 환경에 관한 희망정보를 기초로, 상기 청소 로봇 및 사물인터넷 기기 중 적어도 하나를 제어하여 실내 환경을 조절할 수 있다.
또한, 상기 모듈러는, 통신망을 통해 외부 기기와의 연결을 지원하는 통신 모듈, 및 영상정보를 획득하는 영상부를 포함하고, 상기 제어부는, 상기 통신 모듈을 통해 원격접속 요청을 수신하면, 상기 영상부를 제어하여 영상정보를 획득할 수 있다.
일 측에 따른 청소 로봇은, 청소헤드가 장착되는 로봇 팔; 및 복수의 청소헤드 중에서 청소 모드에 대응하는 청소헤드를 결정하고, 상기 로봇 팔과 상기 결정한 청소헤드 간의 장착을 제어하고, 상기 장착된 청소헤드를 이용하여 청소 수행을 제어하는 제어부를 포함할 수 있다.
또한, 상기 로봇 팔의 내부에는, 상기 청소헤드로 물을 공급하는 물 공급 배관, 및 먼지를 흡입하는 흡입 유로가 마련될 수 있다.
또한, 상기 로봇 팔의 내부에는, 상기 청소헤드와의 결합을 유도하는 도킹부, 및 상기 청소헤드를 고정하는 전자석이 마련될 수 있다.
또한, 상기 복수의 청소헤드가 보관되는 청소헤드 보관함; 을 더 포함할 수 있다.
또한, 상기 청소헤드 보관함은, 상기 청소 로봇의 스테이션에 마련되거나 또는 미리 설정해놓은 위치에 마련될 수 있다.
또한, 상기 청소헤드 보관함에는, 상기 복수의 청소헤드가 미리 설정된 위치에 보관될 수 있다.
또한, 상기 제어부는, 상기 청소헤드 보관함에 장착된 적외선(Infrared Ray, IR) 센서를 이용하여 상기 청소헤드 보관함의 위치를 식별할 수 있다.
일 측에 따른 청소 로봇은, 적어도 하나의 다른 청소 로봇과의 통신 연결을 수행하는 통신 모듈; 상기 적어도 하나의 다른 청소 로봇이 지원하는 지원 사양, 청소 영역의 크기, 및 형태 중 적어도 하나를 기초로 상기 적어도 하나의 다른 청소 로봇과의 공동청소 방식을 결정하는 결정부; 및 상기 결정한 공동 청소 방식을 기초로 상기 청소 로봇 및 상기 적어도 하나의 다른 청소 로봇을 제어하는 제어부를 포함할 수 있다.
또한, 상기 청소 로봇이 위치한 영역에 관한 지도 데이터를 저장하는 저장부를 포함할 수 있다.
또한, 상기 결정부는, 상기 적어도 하나의 다른 청소 로봇과 동일한 영역을 함께 청소하는 군집 공동청소 방식, 상기 적어 하나의 다른 청소 로봇과 청소 영역을 구역 별로 나누어 청소하는 구역별 공동청소 방식, 및 상기 군집 공동청소 방식과 상기 구역별 공동청소 방식이 혼합된 다중패턴 공동청소 방식 중 어느 하나의 공동청소방식을 결정할 수 있다.
또한, 상기 제어부는, 상기 적어도 하나의 다른 청소 로봇으로부터 수신한 청소 상황정보에 포함된 환경정보 및 상태정보 중 적어도 하나를 이용하여 상기 적어도 하나의 다른 청소 로봇 및 상기 청소 로봇의 동작 중 적어도 하나를 제어할 수 있다.
일 측에 따른 청소 로봇은, 적어도 하나의 다른 청소 로봇에 청소 로봇의 지원 사양을 전송함에 대응하여, 상기 전송한 지원 사양을 수신한 청소 로봇으로부터 청소 방식 및 청소 영역을 수신하는 통신부; 및 상기 청소 로봇으로부터 수신한 청소 방식 및 청소 영역을 기초로 청소 로봇 내 기기를 제어하는 제어부를 포함할 수 있다.
또한, 상기 통신부는, 상기 청소 영역의 환경정보 및 상기 청소 로봇의 상태정보를 전달할 수 있다.
또한, 상기 제어부는, 상기 적어도 하나의 다른 청소 로봇과 동일한 영역을 함께 청소하는 군집 공동청소 방식, 상기 적어 하나의 다른 청소 로봇과 청소 영역을 구역 별로 나누어 청소하는 구역별 공동청소 방식, 및 상기 군집 공동청소 방식과 상기 구역별 공동청소 방식이 혼합된 다중패턴 공동청소 방식 중 어느 하나의 공동청소방식을 기초로 청소 로봇 내 기기를 제어하여 청소를 수행할 수 있다.
일 측에 따른 청소 로봇은, 실내에 존재하는 적어도 하나의 사물 인터넷 기기, 및 센서 모듈 중 적어도 하나를 기초로 사용자를 감지하는 감지부; 및 상기 감지한 사용자와의 거리가 미리 설정된 수준보다 가까운 것으로 판단되면, 상기 감지한 사용자의 상태에 기초하여 청소 수행을 제어하는 청소 제어부를 포함할 수 있다.
또한, 상기 청소 제어부는, 상기 감지한 사용자와의 거리가 미리 설정된 수준보다 가까운 것으로 판단되면, 상기 감지한 사용자의 행동에 기초하여 정음모드로 전환하거나, 청소 구역을 전환할 수 있다.
또한, 상기 청소 제어부는, 상기 감지한 사용자와의 거리가 미리 설정된 수준보다 가까운 것으로 판단되면, 상기 적어도 하나의 사물 인터넷 기기 또는 센서부를 통해 감지한 사용자의 행동, 상기 사용자의 위치, 및 음성 인식부를 통해 입력 받은 상기 사용자의 음성, 및 주변 소음 중 적어도 하나를 기초로 청소 수행을 제어할 수 있다.
또한, 상기 청소 제어부는, 상기 음성 인식부를 통해 입력 받은 주변 소음의 크기에 따라 정음모드의 레벨을 조절할 수 있다.
일 측에 따른 청소 로봇은, 실내 환경에 관한 희망정보를 설정하는 희망정보 설정부; 실내 환경정보를 획득하여 실내 환경지도를 생성하는 생성부; 및 상기 설정한 실내 환경에 관한 희망정보와 상기 획득한 실내 환경지도를 비교하고, 상기 비교 결과를 기초로 실내 환경을 조절하는 실내 환경 제어부를 포함할 수 있다.
또한, 상기 청소 로봇의 전반적인 동작을 제어하는 제어부;를 더 포함하고, 상기 제어부를 통해 제어 되며 실내 환경정보를 획득하는 센서 모듈이 장착된 비행체;를 더 포함할 수 있다.
또한, 상기 생성부는, 청소 로봇에 장착된 센서 모듈, 비행체에 장착된 센서 모듈, 및 사물 인터넷 기기 중 적어도 하나로부터 실내 환경정보를 획득하여 조합하고, 상기 조합한 실내 환경정보를 지도정보에 매핑하여 실내 환경지도를 생성할 수 있다.
또한, 상기 실내 환경 제어부는, 상기 청소 로봇 내 기기, 및 사물 인터넷 기기 중 적어도 하나를 제어하여, 상기 설정한 실내 환경에 관한 희망정보에 대응하도록 실내 환경을 조절할 수 있다.
또한, 상기 생성부는, 기 설정된 업데이트 주기에 따라 청소 로봇에 장착된 센서 모듈. 비행체에 장착된 센서 모듈, 및 사물 인터넷 기기 중 적어도 하나의 동작을 제어하여 실내 환경정보를 획득하여 실내 환경지도를 생성할 수 있다.
또한, 상기 실내 환경 제어부는, 상기 사물 인터넷 기기를 통해 획득한 실내 환경정보, 및 상기 청소 로봇에 장착된 센서 모듈을 통해 획득한 실내 환경정보 간의 차이가 미리 설정된 범위를 초과하면, 재측정을 요청할 수 있다.
일 측에 따른 청소 로봇은, 사용자의 원격접속 요청에 대응하여 영상정보를 획득하는 영상부; 상기 획득한 영상정보를 전달하는 통신부; 및 상기 청소 로봇 내 기기를 제어하는 제어부를 포함할 수 있다.
또한, 상기 제어부는, 다른 작업을 수행 중인 경우, 상기 원격접속 요청에 따라 상기 수행 중인 다른 작업을 중지하도록 상기 청소 로봇 내 기기를 제어하고, 상기 영상부를 활성화할 수 있다.
또한, 상기 영상부는, 상기 사용자의 관심지역에 관한 영상정보를 획득하거나 또는 상기 사용자의 원격 조종에 따라 상기 영상정보를 획득할 수 있다.
또한, 상기 영상부는, 미리 설정된 시간에 복수 개의 관심 지역에 관한 영상정보를 미리 설정된 순위에 따라 획득할 수 있다.
또한, 상기 제어부에 의해 제어되는 비행체;를 더 포함할 수 있다.
또한, 상기 영상부는, 상기 청소 로봇의 일 면, 및 비행체의 일 면 중 적어도 하나에 장착될 수 있다.
또한, 상기 제어부는, 상기 사용자의 원격접속이 종료되면, 상기 중지한 동작을 이어서 수행하도록 상기 청소 로봇 내 기기를 제어할 수 있다.
또한, 상기 제어부는, 상기 비행체의 위치를 감지하고, 감지 결과를 기초로 지도 정보에서 상기 비행체의 위치를 표시할 수 있다.
일 측에 따른 청소 로봇은, 음성을 인식하여 녹음하고, 상기 인식한 음성이 발생된 지점을 식별하는 음성인식 모듈; 상기 녹음한 음성을 전달하는 통신부; 및 상기 청소 로봇 내 기기를 제어하여 기 설정된 음성을 송출하거나 또는 미리 설정된 연락처로의 연결을 수행하는 제어부를 포함할 수 있다.
또한, 상기 음성인식 모듈은, 어레이 형태로 배열된 음성 인식부를 이용하여 상기 인식한 음성이 발생된 지점을 식별할 수 있다.
또한, 상기 제어부는, 상기 청소 로봇 내 기기를 제어하여 상기 식별한 지점으로 이동하여 기 설정된 음성을 송출하거나 또는 상기 식별한 지점에 관한 영상정보를 촬영하거나 또는 홈 네트워크 망을 통해 전화를 연결할 수 있다.
일 측에 따른 청소 로봇은, 사용자의 호출신호를 인식하는 인식부; 상기 사용자로부터 음성 명령을 입력 받고, 상기 입력 받은 음성 명령에 관한 인식 결과를 도출하는 음성인식 모듈; 및 상기 인식 결과에 대해 상기 식별한 사용자가 사용 권한이 있는 것으로 판단되면, 상기 인식 결과를 기초로 청소 로봇 내 기기를 제어하는 제어부를 포함할 수 있다.
또한, 상기 제어부는, 상기 사용자의 모션, 및 상기 사용자의 음성 중 적어도 하나를 통해 사용자의 사용 권한을 판단하는 보안 모듈;을 포함할 수 있다.
또한, 상기 제어부는, 상기 청소 로봇 내 기기, 및 통신망을 통해 연결된 적어도 하나의 사물 인터넷 기기를 제어하여 상기 인식 결과를 대응하는 서비스를 제공할 수 있다.
일 측에 따른 청소 로봇은, 사용자의 음성을 입력 받아 이상 징후를 감지하는 음성인식 모듈; 상기 사용자의 생체정보를 획득하는 센서 모듈; 및 상기 획득한 사용자의 생체정보를 기초로 사용자의 상태 정도를 판단하고, 상기 판단한 사용자의 상태 정도를 기초로 기 설정된 대처 방안에 따라 청소 로봇 내 기기를 제어하는 제어부를 포함할 수 있다.
또한, 상기 음성인식 모듈은, 음성 인식부를 통해 상기 입력 받은 사용자의 음성이 발생된 지점을 식별할 수 있다.
또한, 상기 제어부는, 상기 판단한 사용자의 상태 정도에 따라 스피커를 제어하여 사용자에게 미리 설정된 음성을 송출하거나, 통신부를 제어하여 미리 설정된 연락처로 연결을 수행할 수 있다.
또한, 상기 제어부는, 상기 판단한 사용자의 상태 정도에 따라 홈 네트워크를 통해 연결된 하나 이상의 사물 인터넷 기기의 동작을 제어할 수 있다.
일 측에 따른 청소 로봇은, 미리 설정된 주기에 따라 사용자의 생체정보를 획득하는 센서 모듈; 및 상기 획득한 사용자의 생체정보를 기초로 사용자의 상태 정도를 판단하여 이상이 있는 것으로 판단되면, 상기 판단한 사용자의 상태 정도 및 사용자의 반응 여부를 기초로 기 설정된 대처 방안에 따라 청소 로봇 내 기기를 제어하는 제어부를 포함할 수 있다.
일 측에 따른 청소 로봇은, 사용자에 의해 선택된 대상체를 추종하여 상기 대상체에 관한 영상정보를 획득하는 영상부; 및 상기 획득한 영상정보로부터 상기 감지된 대상체의 움직임에 따라 발생되는 상황에 대응하는 프로세스를 수행하는 제어부를 포함할 수 있다.
또한, 상기 영상부는, 입력부를 통해 추종하고자 하는 대상체를 선택 받거나 또는 통신부를 통해 외부 기기와 연동하여 추종하고자 하는 대상체를 선택 받고, 상기 선택된 대상체를 추종하여 상기 대상체에 관한 영상정보를 획득할 수 있다.
또한, 상기 제어부는, 상기 감지한 대상체의 움직임에 따라 주변에 발생되는 오염을 감지하고, 오염이 발생된 것으로 감지되면, 상기 청소 로봇 내 기기를 제어하여 청소를 수행할 수 있다.
또한, 상기 제어부는, 상기 대상체의 움직임, 및 지도정보 중 적어도 하나를 기초로 위험 발생이 예상되면, 상기 통신부를 제어하여 미리 설정된 연락처로 전화 연결하거나 또는 메시지를 전달할 수 있다.
또한, 상기 제어부는, 스피커를 제어하여 경고 메시지를 상기 대상체에게 전달할 수 있다.
또한, 상기 대상체의 음성을 인식하는 음성인식 모듈;을 더 포함할 수 있다.
또한, 상기 제어부는, 상기 음성인식 모듈을 통해 상기 대상체의 음성을 인식하여, 인식 결과에 대응하는 동작을 수행할 수 있다.
또한, 상기 제어부는, 상기 음성인식 모듈을 통한 인식 결과 목적지까지의 경로를 요청한 것으로 판단되면, 메모리에 저장된 지도정보를 기초로 상기 목적지까지의 경로 안내를 제공할 수 있다.
일 측에 따른 청소 로봇의 제어방법은, 로봇 팔에 상기 결정한 청소헤드 간의 장착을 제어하고; 상기 장착된 청소헤드를 이용하여 청소 수행을 제어하는; 것을 포함할 수 있다.
또한, 상기 장착을 제어하는 것은, 상기 로봇 팔에 마련된 도킹부, 및 상기 로봇 팔에 마련되는 전자석을 통해 상기 장착된 청소헤드를 고정시키는; 것을 더 포함할 수 있다.
또한, 상기 장착을 제어하는 것은, 상기 복수의 청소헤드가 보관되는 청소헤드 보관함에서 상기 결정한 청소헤드가 보관된 보관함을 식별하고, 상기 식별한 보관함에 보관 중인 청소헤드와 상기 로봇 팔 간의 장착을 제어하는; 것을 포함할 수 있다.
또한, 상기 장착을 제어하는 것은, 상기 청소헤드 보관함에 장착된 적외선센서를 이용하여 상기 청소헤드 보관함의 위치를 식별하는; 것을 포함할 수 있다.
일 측에 따른 청소 로봇의 제어방법은, 적어도 하나의 다른 청소 로봇과의 통신 연결을 수행하고; 상기 적어도 하나의 다른 청소 로봇이 지원하는 지원 사양, 청소 영역의 크기, 및 형태 중 적어도 하나를 기초로 상기 적어도 하나의 다른 청소 로봇과의 공동청소 방식을 결정하고; 상기 결정한 공동 청소 방식을 기초로 상기 청소 로봇 및 상기 적어도 하나의 다른 청소 로봇을 제어하는; 것을 포함할 수 있다.
또한, 상기 결정하는 것은, 상기 적어도 하나의 다른 청소 로봇과 동일한 영역을 함께 청소하는 군집 공동청소 방식, 상기 적어 하나의 다른 청소 로봇과 청소 영역을 구역 별로 나누어 청소하는 구역별 공동청소 방식, 및 상기 군집 공동청소 방식과 상기 구역별 공동청소 방식이 혼합된 다중패턴 공동청소 방식 중 어느 하나의 공동청소방식을 결정할 수 있다.
또한, 상기 제어하는 것은, 상기 적어도 하나의 다른 청소 로봇으로부터 수신한 청소 상황정보에 포함된 환경정보 및 상태정보 중 적어도 하나를 이용하여 상기 적어도 하나의 다른 청소 로봇 및 상기 청소 로봇의 동작 중 적어도 하나를 제어하는; 것을 더 포함할 수 있다.
일 측에 따른 청소 로봇의 제어방법은, 적어도 하나의 다른 청소 로봇에 청소 로봇의 지원 사양을 전송함에 대응하여, 상기 전송한 지원 사양을 수신한 청소 로봇으로부터 청소 방식 및 청소 영역을 수신하고; 상기 청소 로봇으로부터 수신한 청소 방식 및 청소 영역을 기초로 청소 로봇 내 기기를 제어하는; 것을 포함할 수 있다.
또한, 상기 수신하는 것은, 상기 청소 방식 및 청소 영역을 수신함에 대응하여, 상기 청소 영역의 환경정보 및 상기 청소 로봇의 상태정보를 전달할 수 있다.
또한, 상기 제어하는 것은, 상기 적어도 하나의 다른 청소 로봇과 동일한 영역을 함께 청소하는 군집 공동청소 방식, 상기 적어 하나의 다른 청소 로봇과 청소 영역을 구역 별로 나누어 청소하는 구역별 공동청소 방식, 및 상기 군집 공동청소 방식과 상기 구역별 공동청소 방식이 혼합된 다중패턴 공동청소 방식 중 어느 하나의 공동청소방식을 기초로 청소 로봇 내 기기를 제어하여 청소를 수행할 수 있다.
일 측에 따른 청소 로봇의 제어방법은, 실내에 존재하는 적어도 하나의 사물 인터넷 기기, 및 센서 모듈 중 적어도 하나를 기초로 사용자를 감지하고; 상기 감지한 사용자와의 거리가 미리 설정된 수준보다 가까운 것으로 판단되면, 상기 감지한 사용자의 상태에 기초하여 청소 수행을 제어하는; 것을 포함할 수 있다.
또한, 상기 제어하는 것은, 상기 감지한 사용자와의 거리가 미리 설정된 수준보다 가까운 것으로 판단되면, 상기 감지한 사용자의 행동에 기초하여 정음모드로 전환하거나, 청소 구역을 전환하는; 것을 더 포함할 수 있다.
또한, 상기 제어하는 것은, 상기 감지한 사용자와의 거리가 미리 설정된 수준보다 가까운 것으로 판단되면, 상기 적어도 하나의 사물 인터넷 기기 또는 센서부를 통해 감지한 사용자의 행동, 상기 사용자의 위치, 및 음성 인식부를 통해 입력 받은 상기 사용자의 음성, 및 주변 소음 중 적어도 하나를 기초로 청소 수행을 제어하는 것; 을 더 포함할 수 있다.
또한, 상기 제어하는 것은, 상기 음성 인식부를 통해 입력 받은 주변 소음의 크기에 따라 정음모드의 레벨을 조절하는; 것을 더 포함할 수 있다.
일 측에 따른 청소 로봇의 제어방법은, 실내 환경에 관한 희망정보를 설정하고; 실내 환경정보를 획득하여 실내 환경지도를 생성하고; 상기 설정한 실내 환경에 관한 희망정보와 상기 획득한 실내 환경지도를 비교하고, 상기 비교 결과를 기초로 실내 환경을 조절하는; 것을 포함할 수 있다.
또한, 상기 생성하는 것은, 청소 로봇에 장착된 센서 모듈, 비행체에 장착된 센서 모듈, 및 사물 인터넷 기기 중 적어도 하나로부터 획득한 실내 환경정보를 조합하고, 상기 조합한 실내 환경정보를 지도정보에 매핑하여 실내 환경지도를 생성할 수 있다.
또한, 상기 조절하는 것은, 상기 청소 로봇 내 기기, 및 사물 인터넷 기기 중 적어도 하나를 제어하여, 상기 설정한 실내 환경에 관한 희망정보에 대응하도록 실내 환경을 조절할 수 있다.
일 측에 따른 청소 로봇의 제어방법은, 사용자의 원격접속 요청에 대응하여 영상정보를 획득하고; 상기 획득한 영상정보를 전달하고; 상기 청소 로봇 내 기기를 제어하는; 것을 포함할 수 있다.
또한, 상기 제어하는 것은, 다른 작업을 수행 중인 경우, 상기 원격접속 요청에 따라 상기 수행 중인 다른 작업을 중지하도록 상기 청소 로봇 내 기기를 제어하고, 상기 영상부를 활성화하는; 것을 더 포함할 수 있다.
또한, 상기 획득하는 것은, 상기 사용자의 관심지역에 관한 영상정보를 획득하거나 또는 상기 사용자의 원격 조종에 따라 상기 영상정보를 획득할 수 있다.
또한, 상기 획득하는 것은, 상기 사용자의 원격접속이 종료되면, 상기 중지한 동작을 이어서 수행하도록 상기 청소 로봇 내 기기를 제어하는; 것을 더 포함할 수 있다.
일 측에 따른 청소 로봇의 제어방법은, 상기 녹음한 음성을 전달하고; 상기 청소 로봇 내 기기를 제어하여 기 설정된 음성을 송출하거나 또는 미리 설정된 연락처로의 연결을 수행하는; 것을 포함할 수 있다.
또한, 상기 식별하는 것은, 어레이 형태로 배열된 음성 인식부를 이용하여 상기 인식한 음성이 발생된 지점을 식별할 수 있다.
또한, 상기 제어하는 것은, 상기 청소 로봇 내 기기를 제어하여 상기 식별한 지점으로 이동하여 기 설정된 음성을 송출하거나 또는 상기 식별한 지점에 관한 영상정보를 촬영하거나 또는 홈 네트워크 망을 통해 전화를 연결하는; 것을 더 포함할 수 있다.
일 측에 따른 청소 로봇의 제어방법은, 사용자의 호출신호를 인식하고; 상기 사용자로부터 음성 명령을 입력 받고, 상기 입력 받은 음성 명령에 관한 인식 결과를 도출하고; 상기 인식 결과에 대해 상기 식별한 사용자가 사용 권한이 있는 것으로 판단되면, 상기 인식 결과를 기초로 청소 로봇 내 기기를 제어하는; 것을 포함할 수 있다.
또한, 상기 제어하는 것은, 상기 사용자의 모션, 및 상기 사용자의 음성 중 적어도 하나를 통해 사용자의 사용 권한을 판단하는; 것을 더 포함할 수 있다.
또한, 상기 제어하는 것은, 상기 청소 로봇 내 기기, 및 통신망을 통해 연결된 적어도 하나의 사물 인터넷 기기를 제어하여 상기 인식 결과를 대응하는 서비스를 제공하는; 것을 더 포함할 수 있다.
일 측에 따른 청소 로봇의 제어방법은, 사용자의 음성을 입력 받아 이상 징후를 감지하고; 상기 사용자의 생체정보를 획득하고; 상기 획득한 사용자의 생체정보를 기초로 사용자의 상태 정도를 판단하고, 상기 판단한 사용자의 상태 정도를 기초로 기 설정된 대처 방안에 따라 청소 로봇 내 기기를 제어하는; 것을 포함할 수 있다.
또한, 상기 감지하는 것은, 음성 인식부를 통해 상기 입력 받은 사용자의 음성이 발생된 지점을 식별하는; 것을 더 포함할 수 있다.
또한, 상기 제어하는 것은, 상기 판단한 사용자의 상태 정도에 따라 스피커를 제어하여 사용자에게 미리 설정된 음성을 송출하거나, 통신부를 제어하여 미리 설정된 연락처로 연결을 수행하는; 것을 포함할 수 있다.
일 측에 따른 청소 로봇의 제어방법은, 미리 설정된 주기에 따라 사용자의 생체정보를 획득하고; 상기 획득한 사용자의 생체정보를 기초로 사용자의 상태 정도를 판단하여 이상이 있는 것으로 판단되면, 상기 판단한 사용자의 상태 정도 및 사용자의 반응 여부를 기초로 기 설정된 대처 방안에 따라 청소 로봇 내 기기를 제어하는; 것을 포함할 수 있다.
일 측에 따른 청소 로봇의 제어방법은, 사용자에 의해 선택된 대상체를 추종하여 상기 대상체에 관한 영상정보를 획득하고; 상기 획득한 영상정보로부터 상기 감지된 대상체의 움직임에 따라 발생되는 상황에 대응하는 프로세스를 수행하는; 것을 포함할 수 있다.
또한, 상기 획득하는 것은, 입력부를 통해 추종하고자 하는 대상체를 선택 받거나 또는 통신부를 통해 외부 기기와 연동하여 추종하고자 하는 대상체를 선택 받고, 상기 선택된 대상체를 추종하여 상기 대상체에 관한 영상정보를 획득할 수 있다.
또한, 상기 수행하는 것은, 상기 감지한 대상체의 움직임에 따라 주변에 발생되는 오염을 감지하고, 오염이 발생된 것으로 감지되면, 상기 청소 로봇 내 기기를 제어하여 청소를 수행할 수 있다.
또한, 상기 수행하는 것은, 상기 대상체의 움직임, 및 지도정보 중 적어도 하나를 기초로 위험 발생이 예상되면, 상기 통신부를 제어하여 미리 설정된 연락처로 전화 연결하거나 또는 메시지를 전달할 수 있다.
이와 같은 청소 로봇 및 그 제어방법은, 사용자에게 청소 로봇의 본연의 기능에 해당하는 청소 서비스뿐만 아니라, 다양한 편의 서비스를 제공할 수 있다.
도 1은 일 실시예에 따른 청소 로봇의 모듈러 시스템 구조를 도시한 도면이다.
도 2는 일 실시예에 따른 청소 로봇의 내/외관을 도시한 도면이다.
도 3은 일 실시예에 따른 로봇 팔이 부착된 청소 로봇의 외관을 도시한 도면이다.
도 4 및 도 5는 서로 다른 실시예에 따른 로봇 팔에 청소헤드를 장착하여 청소를 수행하는 청소 로봇의 제어 블록도를 도시한 도면이다.
도 6은 일 실시예에 따른 로봇 팔에 장착되는 다양한 형태의 청소헤드를 도시한 도면이다.
도 7은 일 실시예에 따른 청소헤드가 각각의 보관함에 보관 중인 청소헤드 보관함을 도시한 도면이다.
도 8은 일 실시예에 따른 로봇 팔에 청소헤드가 장착되는 것을 설명하기 위한 도면이다.
도 9은 일 실시예에 따른 로봇 팔의 단면도를 도시한 도면이다.
도 10은 일 실시예에 따른 청소모드에 대응하는 청소헤드를 장착하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 11은 일 실시예에 따른 청소 보관함이 충전 스테이션에 마련된 경우를 설명하기 위한 도면이다.
도 12a 및 도 12b는 서로 다른 실시예에 따른 복수의 청소 로봇을 도시한 도면이다.
도 13a는 일 실시예에 따른 공동 청소를 수행하는 청소 로봇의 제어 블록도를 도시한 도면이고, 도 13b는 일 실시예에 따른 공동 청소를 수행하는 복수의 청소 로봇의 제어 블록도를 도시한 도면이다.
도 14는 일 실시예에 따른 공동 청소 영역의 구조도를 도시한 도면이다.
도 15는 일 실시예에 따른 공동 청소를 수행하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 16은 서로 다른 실시예에 따른 홈 네트워크 망을 통해 또는 통신망을 통해 직접 연결된 사물 인터넷 기기들을 도시한 도면이다
도 17은 일 실시예에 따른 사용자의 위치를 감지하여 청소모드를 제어하는 청소 로봇의 제어 블록도를 도시한 도면이다.
도 18은 일 실시예에 따른 청소 로봇, 사물 인터넷 기기가 마련된 실내를 도시한 도면이다.
도 19는 일 실시예에 따른 사용자의 위치를 감지하여 청소모드를 제어하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 20은 일 실시예에 따른 청소 수행 중에 사용자의 위치를 감지하여 청소모드를 제어하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 21은 일 실시예에 따른 주변 소음을 감지하여 정음모드의 레벨을 조절하는 경우를 설명하기 위한 도면이다.
도 22는 일 실시예에 따른 사용자의 상태를 감지하여 청소영역을 변경하는 경우를 설명하기 위한 도면이다.
도 23은 일 실시예에 따른 환경지도를 기초로 실내 환경을 조절하는 청소 로봇의 제어 블록도를 도시한 도면이다.
도 24는 일 실시예에 따른 센서 모듈이 부착된 비행체를 도시한 도면이다.
도 25는 일 실시예에 따른 청소 로봇, 비행체, 및 사물 인터넷 기기를 통해 환경정보를 수집하는 경우를 설명하기 위한 도면이다.
도 26은 일 실시예에 따른 실내 환경정보를 수집하여 실내 환경을 조절하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 27은 일 실시예에 따른 사용자의 상태를 감지하여 실내 환경을 조절하는 경우를 설명하기 위한 도면이다.
도 28은 일 실시예에 따른 실내 영상정보를 획득하여 제공하는 청소 로봇의 제어 블록도를 도시한 도면이다.
도 29는 일 실시예에 따른 제한된 시야에 따라 영상정보를 획득하는 경우를 설명하기 위한 도면이다.
도 30 내지 도 33은 서로 다른 실시예에 따라 구현된 영상부를 도시한 도면이다.
도 34는 일 실시예에 따른 막대 형태로 구현된 영상부를 통해 영상정보를 획득하는 경우를 설명하기 위한 도면이다.
도 35는 일 실시예에 따른 비행체를 통해 영상정보를 획득하는 경우를 설명하기 위한 도면이다.
도 36은 일 실시예에 따른 원격접속을 통해 영상정보를 획득하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 37은 일 실시예에 따른 막대 형태로 구현된 영상부를 통해 원하는 영역의 영상정보를 획득하는 경우를 설명하기 위한 도면이다.
도 38은 일 실시예에 따른 소리를 감지하여 이에 대응하는 프로세스를 수행하는 청소 로봇의 제어 블록도를 도시한 도면이다.
도 39는 일 실시예에 따른 소리를 감지하여 이에 대응하는 프로세스를 수행하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 40은 일 실시예에 따른 현관문에서 감지된 소리에 반응하는 청소 로봇의 동작을 설명하기 위한 도면이다.
도 41은 일 실시예에 따른 음성 인식 결과에 대응하는 프로세스를 수행하는 청소 로봇의 제어 블록도를 도시한 도면이다.
도 42는 일 실시예에 따른 사물 인터넷 기기로부터 송출되는 방사 패턴을 도시한 도면이다.
도 43은 일 실시예에 따른 보안 인증을 거쳐 동작하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 44는 일 실시예에 따른 사용자의 음성 명령을 수신하여 청소 로봇 및 사물 인터넷 기기를 제어하는 경우를 설명하기 위한 도면이다.
도 45는 일 실시예에 따른 사용자의 생체정보를 기초로 사용자의 상태를 판단하는 청소 로봇의 제어 블록도를 도시한 도면이다.
도 46은 일 실시예에 따른 어레이 형태로 배열된 음성 인식부를 통해 사용자의 음성 명령을 입력 받는 경우를 설명하기 위한 도면이다.
도 47은 일 실시예에 따른 사용자의 생체정보를 기초로 판단한 사용자의 상태에 따라 동작하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 48은 일 실시예에 따른 설정된 탐색 시간에 따라 사용자의 상태를 판단하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 49 및 도 50은 서로 다른 실시예에 따른 사용자가 위급한 상황에 처해있을 때, 홈 네트워크 망을 통한 대처 방안을 설명하기 위한 도면이다.
도 51은 일 실시예에 따른 멀티미디어 서비스를 제공하는 청소 로봇의 제어 블록도를 도시한 도면이다.
도 52는 일 실시예에 따른 비행체를 통해 사용자를 추종하여 영상정보를 획득하는 경우를 설명하기 위한 도면이다.
도 53은 일 실시예에 따른 사용자의 위험발생 가능성을 감지하여 이에 대응하는 프로세스를 처리하는 경우를 설명하기 위한 도면이다.
도 54는 일 실시예에 따른 빔 프로젝터를 통해 다양한 종류의 영상을 표시하는 경우를 설명하기 위한 도면이다.
도 55는 일 실시예에 따른 특정 지역 또는 방까지의 경로를 제공하는 청소 로봇을 설명하기 위한 도면이다.
도 56은 일 실시예에 따른 일 실시예에 따른 대상체를 추종하여 영상정보를 획득하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 57은 일 실시예에 따른 대상체의 움직임에 따른 위험 발생 여부를 예상하여, 안전 서비스를 제공하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 일 실시예에 따른 사물인터넷 기기와 청소 로봇의 장착된 모듈러 시스템을 도시한 도면이다.
청소 로봇(1)은 사용자의 조작 없이 청소 공간을 주행하면서 바닥에 쌓인 먼지 등의 이물질을 흡입함으로써 청소 공간을 자동으로 청소하는 장치를 의미한다. 즉, 청소 로봇(1)은 청소 공간을 주행하며 청소 공간을 청소한다.
실시예에 따른 청소 로봇(1)은 청소 서비스 제공할 뿐만 아니라, 다양한 서비스를 제공할 수 있다. 예를 들어, 청소 로봇(1)은 청소 서비스 외에도, 실내 환경을 조절할 수 있는 서비스를 제공할 뿐만 아니라, 실내 환경에 존재하는 사용자에게 다양한 서비스를 제공할 수 있다. 다시 말해서, 청소 로봇(1)은 사용자, 및 사용자가 위치한 실내 환경에 다양한 영향을 끼칠 수 있는 휴먼 서비스 로봇일 수 있다. 이를 위해, 청소 로봇(1)은 청소 서비스뿐만 아니라 다양한 서비스를 제공하도록 확장될 수 있다.
예를 들어, 청소 로봇(1)에는 모듈러 시스템이 적용되어, 다양한 모듈이 통합 내장될 수 있다. 여기서, 모듈러는 서로 다른 기능을 지원하는 적어도 하나의 모듈이 통합된 장치 또는 시스템을 의미하거나 또는 서로 다른 기능을 지원하는 적어도 하나의 모듈 간의 연결을 지원하는 장치 또는 시스템을 의미한다. 즉, 청소 로봇(1)은 모듈러 시스템이 적용되어, 다양한 모듈이 내장됨으로써, 기존의 제한된 기능을 극복할 수 있다.
도 1을 참조하면, 청소 로봇(1)에는 중간 레벨 모듈(a), 배터리 모듈(b), BMS 모듈(c), 무빙 모듈(d)이 기본적으로 내장될 수 있다. 여기서, 중간 레벨 모듈(a)은 청소 로봇(1)의 전반적인 동작을 계획 및 관리하는 모듈을 의미한다. 중간 레벨 모듈(a)은 청소 로봇(1)의 직접적인 동작을 수행하는 하드웨어와 사용자 간에 상호 작용의 매개체 역할을 수행한다.
예를 들어, 중간 레벨 모듈(a)은 후술할 바와 같이, 청소 로봇(1)에 장착된 입력부, 또는 사물인터넷 기기(2)로부터 입력 받은 각종 제어 명령 등을 기초로 청소 로봇(1)의 동작을 설정 또는 예약할 수 있다. 일 실시예로, 사용자는 사물인터넷 기기(2)에 설치된 각종 애플리케이션 등을 통해 청소 로봇(1)이 수행하여야 할 각종 업무를 입력할 수 있다. 그러면, 중간 레벨 모듈(a)은 입력 받은 업무에 기초하여 청소 로봇(1)의 동작을 관리할 수 있다. 즉, 중간 레벨 모듈(a)은 사용자와 청소 로봇의 하드웨어 상호 간에 연결을 지원하는 역할을 한다.
한편, 배터리 모듈(b)은 청소 로봇을 구동하게 하는 모듈을 의미한다. 여기서, 청소 로봇(1)에 장착되는 배터리 모듈(b)은 당업자에게 기 공지된 다양한 종류의 배터리로 구현될 수 있으며, 제한은 없다. 배터리 모듈(b)은 청소 로봇(1)에 내장되어, 필요한 구성 요소에 전력을 공급하는 역할을 한다. 배터리 모듈(b)은 배터리라 하기도 하며, 이하에서는 편의상 배터리라 하기로 한다.
한편, BMS(Battery Management System) 모듈(c)은 청소 로봇(1)의 배터리를 전반적으로 관리하는 모듈을 의미한다. 예를 들어, BMS 모듈(c)은 배터리의 충/방전을 수행하는 동작뿐만 아니라, 배터리 소모량 등을 관리하는 전반적인 동작을 수행한다. 후술할 바와 같이, BMS 모듈(c)은 배터리의 잔여 전력이 미리 설정된 수준 이하이면, 충전 스테이션으로의 복귀 등을 요청할 수 있다.
또한, 무빙(moving) 모듈(d)은 청소 로봇(1)의 전반적인 움직임을 관리하는 모듈을 의미한다. 예를 들어, 무빙 모듈(d)은 청소 로봇(1)의 모터를 제어하여, 캐스터 휠 등의 동작을 제어할 수 있다. 일 실시예로, 무빙 모듈(d)은 후술할 장애물 센서를 통해 감지한 감지결과를 기초로 청소 로봇(1)의 이동 경로 등을 제어할 수 있다.
또한, 청소 로봇(1)에는 흡입 모듈(e)이 마련될 수 있다. 여기서, 흡입 모듈(e)은 먼지를 흡입하는 동작을 제어할 수 있다. 흡입 모듈(e)은 건식 청소시 먼지 등을 흡입하는데 이용될 수 있다. 예를 들어, 흡입 모듈(e)은 흡입 모터, 임펠러 등을 제어하여 먼지의 흡입 동작을 제어할 수 있다.
또한, 청소 로봇(1)에는 싸이클론 모듈(f)이 마련될 수 있다. 싸이클론 모듈(f)은 청소 로봇(1)으로 흡입된 공기와 먼지 중에서 원심력에 의해 먼지만 흡입하여 먼지통으로 전달하는 동작을 수행한다.
먼지 수납 모듈(g)은 건식 청소모드에 따라 청소를 수행함에 따라 흡입되는 먼지를 밀폐된 공간 내에 격리시킨다. 예를 들어, 먼지 수납 모듈(g)은 건식 청소시, 청소헤드로부터 빨아들인 먼지를 먼지통에 수납하는 동작을 제어하는 모듈을 의미한다.
연결 청소 툴(h)은 청소를 위해 사용되는 각종 청소헤드로써, 탈부착이 가능한 청소헤드 등을 의미한다. 또한, 일반 청소 툴(i)은 일반적으로 청소 로봇에 기 장착된 청소헤드 등을 의미한다. 이상에서 설명한 흡입 모듈(e), 싸이클론 모듈(f), 먼지통 모듈(g), 연결 청소 툴(h), 일반 청소 툴(i)은 건식 청소모드를 수행할 때 이용될 수 있다.
즉, 모든 청소 로봇에 도 1에 도시된 구성 요소들을 포함하는 것은 아니고, 상황에 적합하게 필요한 모듈들을 선택적으로 부착하여, 필요한 서비스 만의 확장을 도모할 수도 있으며, 제한은 없다. 예를 들어, 건식 청소 서비스만을 제공하는 청소 로봇의 경우, 청소 로봇에는 기본적으로 내장되는 중간 레벨 모듈(a), 배터리 모듈(b), BMS 모듈(c), 무빙 모듈(d) 외에, 흡입 모듈(e), 싸이클론 모듈(f), 먼지 수납 모듈(g)이 장착될 수 있다. 또한, 청소 로봇에는 연결 청소 툴(h), 및 일반 청소 툴(i)중 적어도 하나가 장착되어, 건식 청소가 수행될 수 있다.
한편, 물 공급 모듈(j)은 습식 청소 또는 스팀 청소가 수행될 때, 청소헤드로 물을 공급하는 것을 제어하는 모듈을 의미한다. 또한, 습식 청소 툴(k)은 습식 청소를 할 때 이용하는 각종 청소헤드들을 의미한다. 또한, 스팀 청소 툴(l)은 스팀 청소를 할 때 이용하는 각종 청소헤드들을 의미한다.
습식 청소와 스팀 청소 서비스를 제공하는 청소 로봇의 경우, 청소 로봇에는 기본적으로 내장되는 중간 레벨 모듈(a), 배터리 모듈(b), BMS 모듈(c), 무빙 모듈(d) 외에, 물 공급 모듈(j), 습식 청소 툴(k),m 스팀 청소 툴(l)이 내장될 수 있다.
공기청정 모듈(m)은 후술할 바와 같이, 실내 공기의 청정도를 조절하는 모듈을 의미한다. 가습 모듈(n)은 공기 중에 습기를 증가시키는 모듈을 의미한다. 제습 모듈(o)은 공기를 냉각시켜 습도를 낮추는 모듈을 의미한다. 공기청정 모듈(m), 가습 모듈(n), 및 제습 모듈(o)은 실내 환경의 공기 청정도, 습기 등을 조절함으로써, 사용자에게 쾌적한 실내 환경을 제공할 수 있다.
비행체 모듈(p)은 비행체의 전반적인 동작을 제어하는 모듈을 의미한다. 후술할 바와 같이, 청소 로봇(1)에는 드론 등과 같은 비행체가 장착되어 실내 환경정보를 입체적으로 획득할 수 있다.
센서 모듈(q)은 실내 환경정보를 수집하는 모듈을 의미한다. 예를 들어, 센서 모듈(q)은 환경정보를 획득할 수 있는 다양한 센서 및 전술한 센서의 전반적인 동작을 제어할 수 있는 프로세서로 구현될 수 있다. 후술할 바와 같이, 청소 로봇(1)은 센서 모듈(q)을 통해 획득한 환경정보에 기초하여, 청소 로봇(1) 자체 동작뿐만 아니라, 사물인터넷 기기(2)의 동작을 제어함으로써, 실내 환경을 조절할 수 있다.
액츄에이터(actuator) 모듈(r)은 동력을 기계적으로 변환시켜, 각종 기계들을 동작시키는 모듈을 의미한다. 액츄에이터 모듈(r)은 후술할 바와 같이, 로봇 팔의 관절, 또는 영상부를 지지하는 지지대의 내부에 장착되어, 로봇 팔 또는 지지대를 동작시킬 수 있다. 액츄에이터 모듈은 액츄에이터라 하기도 하며, 이하에서는 설명의 편의상 액츄에이터라 하기로 한다.
디스플레이 모듈(s)은 사용자에게 각종 정보를 표시하는 장치를 의미한다. 예를 들어, 디스플레이 모듈(s)은 디스플레이 패널, 빔 프로젝터 등 각종 정보를 시각적으로 표시할 수 있는 기 공지된 장치를 전부 포함하며, 제한은 없다. 디스플레이 모듈(s)은 디스플레이라 하기도 하며, 이하에서는 설명의 편의상 디스플레이라 하기로 한다.
인식 모듈(t)은 사용자의 액션을 감지할 수 있는 모듈을 의미한다. 여기서, 사용자의 액션은 사용자의 음성뿐만 아니라, 제스처 등과 같은 다양한 모션 등을 포함한다. 예를 들어, 인식 모듈(t)은 사용자의 음성을 감지하는 음성인식 모듈, 사용자의 모션 등을 감지하는 카메라 모듈 등을 통해 구현될 수 있다. 이외에도, 인식 모듈(t)은 사용자의 액션을 감지할 수 있는 다양한 기기 등을 통해 구현될 수 있으며, 제한은 없다.
그리퍼(gripper) 모듈(u)은 각종 물체를 물리적으로 파지하기 위한 모듈을 의미한다. 예를 들어, 후술할 바와 같이 청소 로봇(1)에는 로봇 팔이 마련될 수 있다. 일 실시예로, 그리퍼 모듈(u)은 전기 신호를 통해 로봇 팔에 청소헤드가 장착되게끔 할 수 있다.
전술한 모듈들은 필요에 따라 모듈러에 통합될 수 있다. 또한, 모듈러는 MCU(Micro Control Unit, MCU), 프로세서 등을 통해 구현되어 청소 로봇(1)의 전반적인 동작을 제어하는 제어부에 통합되거나 또는 별도로 청소 로봇(1)에 내장될 수 있다. 또한, 전술한 모듈들은 이하에서 설명할 다른 구성요소에 통합되거나 다른 구성요소를 대체할 수 있다. 따라서, 후술할 구성요소와 용어가 일치하지 않더라도 동일한 기능을 지원하는 것이라면, 포함되거나 또는 대응되는 구성에 해당한다.
또한, 전술한 모듈들 중 적어도 하나는 시스템 온 칩(System On Chip, SOC)에 집적될 수 있다. 다만 청소 로봇(1)에 내장된 시스템 온 칩이 하나만 존재하는 것은 아니고, 복수 개일 수도 있으므로, 하나의 시스템 온 칩에만 집적되는 것으로 제한되진 않는다.
도 2은 서로 다른 실시예에 따른 청소 로봇의 외관을 도시한 도면이다.
도 2a 및 도 2b에서, 본 발명의 일 실시예에 의한 청소 로봇(1a)은 외관을 형성하는 본체(10)와, 본체(10)의 상부를 덮는 커버(20)와, 청소 공간에 존재하는 먼지를 쓸거나 비산시키는 청소헤드가 장착되는 청소헤드 장착부(30)와, 본체(10)를 구동시키기 위한 구동 전원을 공급하는 배터리(50)와, 본체(10)를 구동시키는 구동 모터(100)를 포함한다.
본체(10)는 청소 로봇(1a)의 외관을 형성하는 한편, 그 내부에 설치되는 각종 부품들을 지지한다. 청소헤드 장착부(30)는 먼지의 흡입 효율을 향상시키기 위해 본체(10)의 하부에 형성된 흡입구(11)에 설치되어 바닥의 먼지를 쓸거나 비산시킨다.
청소헤드 장착부(30)는 흡입구(11)에 대응하는 길이로 흡입구(11)에 설치되어 바닥 면의 먼지를 쓸거나 비산시키도록 바닥 면에 대해 롤러식으로 회전하는 드럼 형상의 브러시 유닛(31)과, 브러시 유닛(31)을 회전시키기 위한 브러시모터(32)를 포함한다.
한편, 청소헤드 장착부(30)에 장착되는 유닛은 브러시 유닛(31)으로 한정되지 않는다. 예를 들어, 청소모드에 따라 청소헤드 장착부(30)에는 다양한 청소헤드가 장착될 수 있다.
또한, 본체(10)의 전방에는 청소 로봇(1a)이 이동하는 바닥 면의 상태에 따라 회전하는 각도가 변화하는 캐스터 휠(60)이 설치된다. 캐스터 휠(60)은 청소 로봇(1a)의 자세 안정 및 추락 방지 등에 활용되어 청소 로봇(1a)을 지지하며, 롤러나 캐스터 형상의 휠로 구성된다.
한편, 이외에도 청소 로봇에는 청소헤드가 다양한 위치에 장착될 수 있다. 이하에서는 로봇 팔에 청소헤드가 장착되는 청소 로봇에 대해서 살펴보도록 한다.
도 3은 일 실시예에 따른 로봇 팔이 부착된 청소 로봇의 외관을 도시한 도면이고, 도 4 및 도 5는 서로 다른 실시예에 따른 로봇 팔에 청소헤드를 장착하여 청소를 수행하는 청소 로봇의 제어 블록도를 도시한 도면이다. 또한, 도 6은 일 실시예에 따른 로봇 팔에 장착되는 다양한 형태의 청소헤드를 도시한 도면이고, 도 7은 일 실시예에 따른 청소헤드가 각각의 보관함에 보관 중인 청소헤드 보관함을 도시한 도면이다. 설명이 중복되는 것을 방지하기 위해 함께 서술하도록 한다.
도 3을 참조하면, 청소 로봇(1b)에는 로봇 팔(30)이 마련될 수 있다. 청소 로봇(1b)은 로봇 팔(30)에 청소헤드가 장착되어 청소를 수행할 수 있다. 로봇 팔(3)은 도 3에 도시된 바와 같이, 상/하, 좌/우로 이동할 수 있게끔 관절이 마련된다. 로봇 팔(30)은 기 공지된 다양한 물질로 구현될 수 있으며, 제한은 없다. 또한, 로봇 팔(30)의 바깥 면에는 결합 단자가 마련될 수 있다. 청소 로봇(1b)은 결합 단자를 통해 청소헤드를 장착하고, 장착한 청소헤드를 통해 청소를 수행할 수 있다.
이때, 청소 로봇(1b)은 청소모드에 따라 필요한 청소헤드를 선택하고, 선택한 청소헤드를 장착함으로써, 보다 편리하게 청소를 수행할 수 있다. 이하에서는 로봇 팔(3)이 장착된 청소 로봇(1b)의 구성에 대해서 보다 구체적으로 살펴본다.
청소 로봇(1b)은 도 4에 도시된 바와 같이, 로봇 팔(30), 물 공급 모듈(31), 먼지 수납 모듈(33), 흡입 모터(35), 장착 모듈(36), 제어부(37), 배터리(50), 청소헤드 보관함(40), 장애물 센서(41), 디스플레이(42), 및 입력부(43)를 포함한다.
여기서, 물 공급 모듈(31), 먼지 수납 모듈(33), 장애물 센서(41), 장착 모듈(360), 및 제어부(37)는 청소 로봇(1)에 내장된 시스템 온 칩(System On Chip, SOC)에 집적될 수 있으며, 프로세서(processor)에 의해 동작될 수 있다. 다만, 청소 로봇(1b)에 내장된 시스템 온 칩이 하나만 존재하는 것은 아니고, 복수 개일 수도 있으므로, 하나의 시스템 온 칩에만 집적되는 것으로 제한되진 않는다.
물 공급 모듈(31)은 습식 청소가 수행될 때, 청소헤드로 물을 공급하는 것을 제어하는 모듈을 의미한다. 물 공급 모듈(31)은 로봇 팔(30)에 내장된 물 공급 배관을 통해 청소헤드로 물을 공급하는 것을 제어한다.
먼지 수납 모듈(33)은 건식 청소시, 청소헤드로부터 빨아들인 먼지를 먼지통에 수납하는 동작을 제어하는 모듈을 의미한다. 먼지 수납 모듈(33)은 로봇 팔(30)에 내부에 마련된 흡입 유로를 통해 청소헤드로부터 빨아들인 먼지를 먼지통으로 전달한다. 이때, 먼지 수납 모듈(33)은 흡입 모터(35)를 이용하여 청소헤드로 먼지를 빨아들인다.
배터리(50)는 청소 로봇(1b)에 전원을 공급한다. 배터리(50)는 외장형 또는 내장형 등 다양한 형태로 구현될 수 있으며, 제한은 없다.
한편, 장애물 센서(41)는 장애물을 감지하는 센서를 의미한다. 일 실시예로, 장애물 센서(41)는 초음파 신호를 방사하고, 장애물로부터 반사된 초음파 신호를 수신하여 장애물을 감지할 수 있다. 이외에도, 장애물 센서(41)는 기 공지된 다양한 방식을 통해 장애물을 감지할 수 있으며, 일 실시예로 한정되는 것은 아니다.
한편, 청소 로봇(1b)에는 디스플레이(42)가 마련될 수 있다. 예를 들어, 디스플레이(42)는 도 3에 도시된 바와 같이, 청소 로봇(1b)의 상면에서 중앙 영역에 위치할 수 있으나, 이외에도 다양한 위치에 마련될 수 있다.
일 실시예에 따르면, 디스플레이(42)는 LCD(Liquid Crystal Display), LED(Light Emitting Diode), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diode), CRT(Cathode Ray Tube) 등으로 구현될 수 있으나, 이에 한하지 않는다. 또한, 앞서 도 1에 관한 설명에서 서술한 바와 같이, 디스플레이(42)는 전술한 구성요소 외에도 시각적으로 각종 정보를 표시할 수 있는 장치를 통해 구현될 수 있으며, 제한은 없다.
입력부(43)는 청소 로봇(1b)의 동작과 관련된 각종 제어 명령을 입력 받는다. 입력부(43)는 청소 로봇(1b)의 상면에 마련될 수 있다. 또한, 디스플레이(42)가 터치 스크린 타입으로 구현되는 경우, 디스플레이(42)는 입력부(43)의 기능을 수행할 수 있다.
한편, 청소 로봇(1b)에는 전술한 바와 같이, 로봇 팔(30)이 마련될 수 있다. 로봇 팔(30)은 청소 로봇(1b)의 일 면에 장착될 수 있다. 도 3에 도시된 바와 같이, 로봇 팔(30)은 청소 로봇(1b)의 측면에 장착될 수 있으나, 도 3에 도시된 바로 한정되는 것은 아니고, 청소 로봇(1b)의 어디에든 장착될 수 있다.
전술한 바와 같이, 로봇 팔(30)의 내부에는 모터가 마련될 수 있다. 로봇 팔(30)의 각 관절은 모터를 통해 움직인다. 이때, 로봇 팔(30)은 도 3에 도시된 바와 같이 2개의 관절이 마련되고, 각 관절을 구동하는 모터로 인해 상/하, 좌/우로 자유롭게 조작 가능하다. 후술할 바와 같이, 제어부(37)는 모터의 구동을 제어하여 로봇 팔(30)의 움직임을 제어할 수 있다.
한편, 로봇 팔(30)의 내부에는 하나 이상의 통로가 마련되어 있어, 청소헤드와 연결될 수 있다. 예를 들어, 로봇 팔(30)의 내부에는 도 9에 도시된 바와 같이, 흡입 유로(u1)와 물 공급 배관(u2)이 마련될 수 있다. 물 공급 배관(u2)은 물이 담겨 있는 물통에서부터 청소헤드가 장착되는 로봇 팔(30)의 끝 단까지 마련될 수 있다. 또한, 흡입 유로(u1)는 먼지 통에서부터 청소헤드가 장착되는 로봇 팔(30)의 끝 단까지 마련될 수 있다.
또한, 청소헤드가 장착되는 로봇 팔(30)의 끝 단에는 도킹부(u4)가 마련될 수 있다. 도킹부(u4)는 도 9에 도시된 바와 같이, 청소헤드에 마련된 홈과 도킹된다. 이때, 도킹부(u4)의 끝 단에는 전극(u3)이 마련될 수 있다. 이에 따라, 도킹부(u4)를 통해 전원 및 각종 제어 신호가 청소헤드로 전달될 수 있다.
이때, 도킹부(u4)를 통해 청소헤드와 로봇 팔(30)이 결합되지만, 청소를 수행함에 따라 또는 청소 로봇(1b)이 움직임에 따라 청소헤드가 분리될 수 있다. 이에 따라, 로봇 팔(30)에는 청소헤드와 장착되는 면에 결합단자(u5)가 마련될 수 있다. 결합단자(u5)는 청소헤드가 분리되는 것을 방지하기 위해 청소헤드와 로봇 팔(30) 간에 고정시키는 역할을 한다.
일 실시예로, 결합단자(u5)는 전자석을 통해 구현될 수 있으나, 일 실시예에 한정되는 것은 아니고, 청소헤드와 로봇 팔(30)을 고정시킬 수 있는 다양한 물질을 통해 구현될 수 있다. 이외에도, 결합단자(u5)의 끝 단에는 고무 패킹이 마련되어 있어, 먼지 또는 물이 외부로 배출되는 것을 방지하는 역할을 한다.
또한, 청소 로봇(1b)에는 청소헤드 보관함(40)이 마련될 수 있다. 청소헤드 보관함(40)은 청소 로봇(1b)에 장착될 수도 있고, 도 8에 도시된 바와 같이 청소 로봇(1b)의 외부에 마련될 수도 있다. 이에 관한 구체적인 설명은 후술하도록 한다.
청소헤드 보관함(40)에는 다양한 청소헤드가 보관될 수 있다. 도 6을 참조하면, 청소헤드 보관함(40)에는 건식 청소시 이용되는 건식 청소헤드(h1), 습식 청소시 이용되는 물 걸래 청소헤드(h2), 살균 청소시 이용되는 살균 청소헤드(h3), 구석 청소시 이용되는 구석 청소헤드(h4), 침구 청소시 이용되는 침구 청소헤드(h5), 및 창틀 청소시 이용되는 창틀 청소헤드(h6)가 보관될 수 있다.
청소헤드 보관함(40)에는 복수 개의 보관함이 분할되어 마련된다. 이때, 청소헤드 보관함(40)에는 각각의 보관함에 보관되는 청소헤드가 미리 결정될 수 있다. 예를 들어, 도 6을 참조하면, 청소헤드 보관함(40)의 제1 보관함(s1)에는 건식 청소헤드(h1), 제2 보관함(s2)에는 물 걸래 청소헤드(h2), 제3 보관함(s3)에는 살균 청소헤드(h3), 제4 보관함(s4)에는 구석 청소헤드(h4), 제5 보관함(s5)에는 침구 청소헤드(h6), 제6 보관함(s6)에는 창틀 청소헤드(h6)가 각각 보관될 수 있다. 청소헤드 보관함(40)에는 미리 설정된 순번에 따라 각 보관함에 지정된 청소헤드가 보관될 수 있다.
즉, 각 보관함 별로 보관되는 청소헤드가 어떠한 것인지는 미리 지정되어 있으며, 청소 로봇((1b)의 메모리에는 이에 관한 정보가 저장되어 있다. 이에 따라, 제어부(37)는 메모리에 저장된 정보를 기초로 각각의 청소헤드가 어떠한 보관함에 있는지를 파악함으로써, 청소 시 필요한 청소헤드가 로봇 팔에 부착되도록 제어할 수 있다.
한편, 각각의 청소헤드는 형태 및 크기는 다르므로, 각 보관함의 형태 또는 크기는 다르게 설계될 수 있다. 또한, 청소헤드는 로봇 팔(30)과 결합되는 면이 보관함의 상면을 향하도록 보관될 수 있다. 이에 따라, 제어부(37)는 청소헤드를 별도로 조작할 필요 없이, 로봇 팔(30)에 청소헤드가 장착되도록 손쉽게 조작할 수 있다.
제어부(37)는 청소 로봇(1b)의 전반적인 동작을 제어할 수 있다. 구체적으로, 제어부(37)는 청소 로봇(1b) 내에 내장된 각종 모듈뿐만 아니라, 로봇 팔(30), 디스플레이(42) 등 청소 로봇(1b)에 모든 구성 요소의 동작을 제어할 수 있다.
제어부(37)는 청소 로봇(1b)에 내장된 프로세서(processor) 등과 같이 각종 연산, 제어 프로세스를 수행하는 처리 장치 등을 통해 구현될 수 있으며, 이외에도 기 공지된 다양한 처리 장치를 통해 구현될 수 있다.
제어부(37)는 청소 로봇(1b)의 구성 요소를 제어하기 위한 제어 신호를 생성하여 전술한 각 구성 요소의 동작을 제어할 수 있다. 예를 들어, 제어부(37)는 전술한 바와 같이, 도킹부(u4)의 끝 단에 마련된 전극을 통해 전원 및 제어 신호를 전달하여, 청소헤드의 동작을 제어할 수 있다.
제어부(37)는 청소모드 설정부(38), 및 장착 모듈(36)을 포함한다. 청소모드 설정부(38)는 청소모드를 설정할 수 있다. 여기서, 청소모드는 청소 로봇이 청소를 수행하는 방식에 관한 모드를 의미한다. 일 실시예로, 청소모드는 건식 청소모드, 습식 청소모드, 살균 청소모드를 포함한다. 또한, 청소모드는 바닥면의 종류에 따라 일반적인 바닥을 청소하는 하드 플로워 청소모드, 카펫 등과 같은 바닥면을 청소하는 소프트 플로워 청소모드를 포함한다
이외에도, 청소모드는 청소 지역에 따라 개방된 지역을 청소하는 일반 청소모드, 및 구석을 청소하는 구석 청소모드를 포함한다. 각 청소모드에 따라 청소 수행시 사용되는 청소헤드는 다를 뿐만 아니라, 물 공급 여부, 청소 횟수, 청소 강도 등이 다르게 설정되며, 흡입모터(35)의 동작여부 및 흡입모터(35)의 동작시 회전수가 달라진다.
일 실시예로, 청소모드 설정부(38)는 디스플레이(42), 입력부(43), 리모컨, 또는 사용자 단말 등을 통해 사용자로부터 입력 받은 청소모드에 관한 정보를 기초로 청소 로봇의 청소모드를 설정할 수 있다.
즉, 청소모드 설정부(38)는 입력 받은 청소모드에 관한 정보에 대응하는 청소모드 및 청소모드로 구동되기 위한 청소 로봇(1b) 내 기기의 각종 설정을 제어할 수 있다. 일 실시예로, 메모리에는 청소모드 별 설정정보가 저장된다. 이에 따라, 청소모드 설정부는 메모리에 저장된 청소모드 별 설정정보를 기초로 사용자로부터 입력 받은 청소모드에 따라 청소 로봇(1b) 내 구성요소들의 동작을 설정할 수 있다.
제어부(37)는 청소헤드 보관함에 보관 중인 복수의 청소헤드 중에서 청소모드에 대응되는 청소헤드의 장착을 제어할 수 있다. 예를 들어, 건식으로 개방된 영역을 청소하는 경우, 제어부(37)는 장착 모듈(36)을 이용하여 청소 보관함(40)에서 건식 청소헤드(h1)가 로봇 팔(30)에 장착되도록 제어할 수 있다.
한편, 장착 모듈(36)은 도 1에서의 그리퍼 모듈(u)과 대응될 수 있다. 즉, 장착 모듈(36)은 로봇 팔(30)에 청소헤드를 물리적으로 장착시키기 위한 동작을 수행할 수 있다.
예를 들어, 장착 모듈(36)에는 각 청소모드에 따라 로봇 팔(30)과 청소헤드 간의 장착 방법이 설정되어 프로그램 형태로 구현되어 저장된다. 이에 따라, 제어부(37)는 장착 모듈(36)을 이용하여 각 청소모드에 따라 필요한 청소헤드가 로봇 팔(30)에 장착되도록 제어할 수 있다.
제어부(37)는 로봇 팔(30)에 장착된 청소헤드를 이용하여 청소를 수행할 수 있다. 예를 들어, 제어부(37)에는 전술한 싸이클론 모듈(f) 등이 통합되어, 건식 청소를 수행할 수 있다. 또는, 제어부(37)는 물 공급 모듈(31)의 동작을 제어하여, 로봇 팔(30)에 장착된 청소헤드를 이용하여 습식 청소를 수행할 수 있는 등 제한은 없다.
이하에서는 실시예에 따른 로봇의 동작 흐름에 대해 살펴보도록 한다.
도 10은 일 실시예에 따른 청소모드에 대응하는 청소헤드를 장착하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
청소 로봇은 청소모드를 설정할 수 있다(900). 예를 들어, 청소 로봇은 디스플레이 또는 청소 로봇에 마련된 입력 장치, 리모컨, 또는 사용자 단말을 통해 사용자로부터 청소모드에 관한 설정정보를 입력 받을 수 있다. 이에 따라, 청소 로봇은 입력 받은 설정정보를 기초로 청소모드를 설정할 수 있다.
청소 로봇은 설정한 청소모드에 대응하는 청소방식, 청소헤드 등을 결정할 수 있다(901). 이에 따라, 청소 로봇은 청소모드에 적합한 청소헤드가 로봇 팔에 현재 장착되어 있는지 여부를 판단할 수 있다(902).
현재 로봇 팔에 장착되어 있는 것으로 판단되면, 청소 로봇은 장착되어 있는 청소헤드를 이용하여 청소를 수행할 수 있다(903). 다만, 청소모드에 적합한 청소헤드가 장착되어 있지 않으면, 청소 로봇은 청소헤드 보관함에 보관된 청소헤드 중에서 청소모드에 적합한 청소헤드를 식별하고, 식별한 청소헤드를 로봇 팔에 장착할 수 있다(904).
청소헤드 보관함은 청소 로봇에 장착되는 청소헤드를 보관하는 케이스를 의미한다. 예를 들어, 청소헤드 보관함은 복수 개의 보관함이 분할된 형태로 구현될 수 있다. 각각의 보관함에는 청소헤드가 보관된다. 여기서, 청소헤드가 보관되는 보관함은 미리 설정될 수 있다. 즉, 청소 로봇의 메모리에는 각 보관함에 보관 중인 청소헤드가 어떤 것인지에 관한 정보가 저장된다. 이에 따라, 청소 로봇은 전술한 청소헤드 보관함 중에서 설정된 청소모드에 대응하는 청소헤드를 식별할 수 있다.
한편, 청소헤드 보관함은 청소 로봇에 장착될 수 있다. 예를 들어, 청소헤드 보관함은 청소 로봇의 상면에 장착되도록 설계될 수 있다. 이에 따라, 청소 로봇은 전술한 바와 같이 메모리에 저장된 정보를 통해 청소헤드 보관함에 보관 중인 청소헤드의 위치를 파악할 수 있고, 청소모드에 따라 청소헤드를 교체해가면서 청소를 수행할 수 있다. 따라서, 개시된 실시예에 따른 청소 로봇은 다양한 청소 방식을 연속적으로 수행할 수 있다.
또는, 청소헤드 보관함은 다른 기기에 장착될 수도 있다. 예를 들어, 청소헤드 보관함은 충전 스테이션에 장착되도록 설계될 수 있다. 청소헤드 보관함(40)은 도 11에 도시된 바와 같이, 충전 스테이션(51)의 본체에 장착될 수 있으나, 이에 한정되는 것은 아니다. 청소 로봇의 메모리에는 스테이션에 장착된 청소헤드 보관함의 위치정보가 저장된다. 이에 따라, 청소 로봇은 충전 스테이션으로 이동하여, 충전 스테이션에 장착된 청소헤드 보관함에서 필요한 청소헤드를 장착할 수 있다.
또는, 청소헤드 보관함은 미리 설정된 위치에 마련될 수도 있다. 예를 들어, 사용자는 원하는 위치에 청소헤드 보관함을 놓을 수 있다. 그리고, 사용자는 청소 로봇의 입력부를 통해 청소헤드 보관함의 위치설정을 입력할 수 있다. 그러면, 청소 로봇은 3D 센서를 통해 청소헤드 보관함의 위치를 식별하고, 이를 기초로 청소헤드 보관함으로 갈 수 있다. 또 다른 예로, 청소헤드 보관함에는 적외선(Infrared Ray, IR) 센서가 마련될 수 있다. 이에 따라, 청소 로봇은 적외선 센서를 통해 방사되는 유도 신호를 기초로 청소헤드 보관함의 위치를 파악할 수 있다.
개시된 실시예에 따른 청소 로봇은 다양한 청소모드에 따라 필요한 청소헤드를 로봇 팔을 이용하여 손쉽게 교체함으로써, 보다 효율적으로 청소를 수행할 수 있다.
한편, 청소 로봇이 청소를 수행하기 위해서는 청소모드 외에도, 청소를 수행할 청소 영역, 청소 영역에 대한 청소방식 등 다양한 설정이 요구된다. 따라서, 이하에서는 전술한 설정 등을 기초로 주변에 존재하는 청소 로봇과 공동 청소방식에 따라 청소를 수행하는 청소 로봇에 관해 설명하도록 한다.
도 12a 및 도 12b는 서로 다른 실시예에 따른 복수의 청소 로봇을 도시한 도면이고, 도 13a는 일 실시예에 따른 공동 청소를 수행하는 청소 로봇의 제어 블록도를 도시한 도면이고, 도 13b는 일 실시예에 따른 공동 청소를 수행하는 복수의 청소 로봇의 제어 블록도를 도시한 도면이고, 도 14는 일 실시예에 따른 청소 영역의 구조도를 도시한 도면이다. 이하에서는 설명이 중복되는 것을 방지하기 위해 함께 설명하도록 한다.
도 13a에 도시된 바와 같이 청소 로봇(1c)은 디스플레이(42), 입력부(43), 통신부(52), SLAM 모듈(53), 결정부(54), 및 제어부(55)를 포함한다. 여기서, 통신부(52), SLAM 모듈(53), 결정부(54), 및 제어부(55) 중 적어도 하나는 청소 로봇(1c)에 내장된 시스템 온 칩에 집적될 수 있으며, 프로세서(processor)에 의해 동작될 수 있다. 다만, 청소 로봇(1c)에 내장된 시스템 온 칩이 하나만 존재하는 것은 아니고, 복수 개일 수도 있으므로, 하나의 시스템 온 칩에만 집적되는 것으로 제한되진 않는다.
입력부(42)와 디스플레이(43)는 도 4에 관한 설명에서 서술한 입력부, 및 디스플레이와 각각 동일하므로 구체적인 설명은 생략하도록 한다.
SLAM(Simultaneous Localization And Mapping, SLAM) 모듈(53)은 실내 환경에 관한 지도정보를 생성하는 모듈을 의미한다. 여기서, SLAM 모듈(53)은 주행 시 주변 정보를 수집하는 센서, 및 수집한 주변 정보를 모아 실내 환경에 관한 지도정보를 생성하는 연산을 수행할 수 있는 MCU(Micro Control Unit) 등과 같은 프로세서로 구성될 수 있다. 즉, SLAM 모듈(53)은 청소 로봇(1c)에 부착된 센서를 통해 주행 시 주변 정보를 수집하고, 이를 모아서 실내 환경에 관한 지도정보를 생성한다.
통신부(52)는 무선통신망 또는 유선통신망을 통해 외부 기기와 각종 데이터를 주고 받을 수 있다. 여기서, 무선통신망은 데이터가 포함된 신호를 무선으로 주고 받을 수 있는 통신망을 의미한다. 예를 들어, 통신부(52)는 3G(3Generation), 4G(4Generation) 등과 같은 통신방식을 통해 기지국을 거쳐 디바이스 간에 무선 신호를 송수신할 수 있으며, 이외에도 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee), WFD(Wi-Fi Direct), UWB(Ultra wideband), 적외선 통신(IrDA; Infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등과 같은 통신방식을 통해 소정 거리 이내의 단말과 데이터가 포함된 무선 신호를 송수신할 수 있다.
또한, 유선통신망은 데이터가 포함된 신호를 유선으로 주고 받을 수 있는 통신망을 의미한다. 예를 들어, 유선통신망은 PCI(Peripheral Component Interconnect), PCI-express, USB(Universe Serial Bus) 등을 포함하나, 이에 한정되는 것은 아니다.
통신부(52)는 통신망을 통해 청소 로봇 주변에 존재하는 적어도 하나의 다른 청소 로봇과 연결을 수행할 수 있다. 이때, 통신부(52)는 적어도 하나의 다른 청소 로봇과 직접 통신을 통해 연결을 수행하거나 또는 외부 서버를 통해 적어도 하나의 다른 청소 로봇과 연결을 수행할 수 있다. 여기서, 외부 서버는 실외에 존재하거나 또는 실내에 존재할 수 있다.
일 실시예로, 외부 서버는 실내에 존재하는 홈 네트워크를 관리하는 중앙 서버일 수 있으나, 이에 한정되는 것은 아니다. 여기서, 실내에 존재하는 사물 인터넷 기기 중 어느 하나가 홈 네트워크 망의 게이트웨이 서버의 역할을 하거나 또는 별도로 마련될 수도 있다. 이에 관한 구체적인 설명은 후술하도록 한다.
여기서, 청소 로봇 주변에 존재하는 적어도 하나의 다른 청소 로봇은 지원사양 또는 형태와 관계 없이 통신부가 내장되어 있어, 외부 장치와 통신이 가능하면 족하고, 동일한 지원사양 또는 형태로 한정되는 것은 아니다. 예를 들어, 공동청소 방식을 수행하는 청소 로봇(1c, 1d, 1e)은 도 12a에 도시된 바와 같이, 서로 동일한 지원사양 및 형태를 가진 청소 로봇일 수 있으며, 도 12b에 도시된 바와 같이, 서로 다른 지원사양 및 형태를 가진 청소 로봇일 수 있으며, 통신망을 통해 접속되면 족하다. 따라서, 이하에서 설명되는 청소 로봇의 형태 및 지원사양이 도면에 도시된 바로 한정되는 것은 아니다.
통신부(52)는 연결된 적어도 하나의 다른 청소 로봇으로부터 다양한 데이터가 포함된 유/무선 신호를 송수신할 수 있다. 예를 들어, 통신부(52)는 각각의 청소 로봇의 식별정보를 송/수신할 수 있다. 여기서, 식별정보는 청소 로봇을 식별할 수 있는 정보로써, 청소 로봇의 고유 번호, 제품 번호뿐만 아니라, IP(Internet Protocol) 주소, 맥(MAC) 주소 등을 포함할 수 있으며, 이에 한정되는 것은 아니다.
예를 들어, 블루투스 통신망을 통해 다른 청소 로봇과 페어링을 수행하는 경우, 범용 고유 식별자(Universally Unique Identifier, UUID)가 식별정보로 이용될 수 있다. 일 실시예에 따르면, 범용 고유 식별자는 UTF-8 등과 같이 유니코드를 위한 가변 길이 문자 인코딩 방식에 따라 변환되어, 식별정보로써 이용될 수 있다. 이에 따라, 통신부(52)는 식별정보를 이용하여 청소 로봇을 식별하고, 블루투스 페어링을 통해 식별한 청소 로봇과 연결할 수 있다.
또한, 통신부(52)는 각각의 청소 로봇이 지원하는 지원사양 정보를 송/수신할 수 있다. 여기서, 지원사양 정보는 청소 로봇이 지원하는 청소모드에 관한 정보를 의미한다. 다시 말해서 지원사양 정보는 각 청소 로봇의 스펙(spec)에 관한 정보를 의미한다.
예를 들어, 청소 로봇에 따라 전술한 바와 같은 다양한 청소모드 중에서 적어도 하나 이상의 청소모드 만을 지원할 수 있다. 따라서, 개시된 실시예에 따른 청소 로봇(1c)은 각 청소 로봇들이 지원하는 지원사양을 파악하여 공동청소 방식을 결정하고 이를 기초로 제어 명령을 전달함으로써, 주변 청소 로봇과 연동하여 공동청소를 수행할 수 있다. 이에 관한 구체적인 설명은 후술하도록 한다.
또한, 통신부(52)는 각각의 청소 로봇에 저장된 지도정보를 송/수신할 수 있다. 여기서, 지도정보는 청소 로봇이 청소를 수행한 지역의 지도를 의미한다.
예를 들어, SLAM 모듈(53)은 3D 센서, 카메라 등을 통해 청소가 수행되는 지역 정보를 수집하여 지도정보를 생성할 수 있다. 개시된 실시예에 따른 청소 로봇(1c)은 통신부(52)를 통해 각각의 청소 로봇에 저장된 지도정보를 공동청소를 수행하는 청소 로봇 간에 공유함으로써, 최신의 지도를 이용하여 공동청소를 수행할 뿐만 아니라, 지도정보를 업데이트할 수도 있다. 이에 관한 구체적인 설명은 후술하도록 한다.
또한, 통신부(52)는 후술할 바와 같이 공동청소 시 각 영역의 환경정보를 다른 청소 로봇과 송/수신할 수 있다. 이에 따라, 개시된 실시예에 따른 청소 로봇(1c)은 환경정보를 통해 청소방식을 지속적으로 보정함으로써, 보다 효율적인 청소를 수행할 수 있다.
한편, 통신부(52)는 다른 청소 로봇에 내장된 통신부와 연결함에 있어, 마스터(master) 또는 슬레이브(slave)로써 동작할 수 있다. 여기서, 마스터는 공동청소를 수행하는 복수의 청소 로봇 간의 연결을 주도하여 공동청소 방식에 관한 결과를 지시하는 역할을 의미한다. 또한, 슬레이브는 마스터가 설정한 공동청소 방식에 따르는 역할을 의미한다.
일 실시예에 따르면, 통신부를 통해 연결을 주도하는 청소 로봇이 마스터로 설정될 수 있으며, 이외에 연결되는 적어도 하나의 다른 청소 로봇은 슬레이브로 설정될 수 있다. 그러나, 마스터 및 슬레이브를 설정하는 방법이 전술한 일 실시예로 한정되는 것은 아니고, 기 공지된 다양한 방법을 통해 청소 로봇 간에는 마스터 및 슬레이브가 설정될 수 있다.
한편, 이하에서는 마스터의 역할을 수행하는 청소 로봇을 마스터 청소 로봇이라 하고, 슬레이브의 역할을 수행하는 청소 로봇을 슬레이브 청소 로봇이라 하기로 한다.
이하에서는 실시예에 따른 청소 로봇이 마스터로써 동작하고, 통신부를 통해 연결되는 다른 적어도 하나의 청소 로봇은 슬레이브로써 동작하는 경우에 대해서 설명하도록 한다. 실시예에 따른 청소 로봇이 슬레이브로써 동작하는 경우에 대해서는 후술하도록 한다.
결정부(54)는 청소 로봇이 공동청소를 수행하기 위해 필요한 각종 설정을 결정할 수 있다. 예를 들어, 결정부(54)는 청소 로봇의 청소를 수행할 청소 영역, 청소방식 및 청소모드 등을 결정할 수 있다.
일 실시예로, 결정부(54)는 전술한 디스플레이(42), 입력부(43), 사용자 단말, 리모컨 등을 통해 입력 받은 사용자의 제어명령에 기초하여 청소방식 및 청소모드 등을 결정할 수 있다. 또한, 메모리에는 사용자가 청소와 관련된 각종 설정을 결정하는 것을 지원하는 프로그램이 저장된다. 이에 따라, 결정부(54)는 사용자가 결정한 청소와 관련된 각종 설정을 반영하여 청소를 수행하기 위해 필요한 각종 설정을 결정할 수 있다.
한편, 결정부(54)는 적어도 하나의 다른 청소 로봇과의 공동청소 방식을 결정할 수 있다. 이때, 공동청소 방식은 복수의 청소 로봇이 공동으로 청소를 하는 방식을 의미한다. 공동청소 방식에는 동일한 영역을 다른 방법으로 청소하는 군집 공동청소 방식, 및 청소 영역을 분할하여 나누어 청소하는 구역별 공동청소 방식, 및 전술한 방식을 혼합해서 청소하는 혼합 공동청소 방식이 있다.
복수의 청소 로봇 간에는 지원사양이 다를 수 있다. 예를 들어, 제1 청소 로봇은 건식 청소모드만을 지원하고, 제2 청소 로봇은 습식 청소모드만을 지원하며, 청소 로봇은 살균 청소모드만을 지원할 수 있다. 이때, 결정부(54)는 청소 영역에 대해 군집 공동청소 방식에 따라 청소 로봇(1c), 제1 청소 로봇, 및 제2 청소 로봇이 동일한 영역에 대해 함께 청소하는 것으로 결정할 수 있다.
일 실시예로, 결정부(54)는 동일한 영역에 대해서 제1 청소 로봇이 건식 청소를 수행하면, 건식 청소가 완료된 영역에 대해 제2 청소 로봇이 습식 청소를 수행하고, 습식 청소가 완료된 영역에 대해 청소 로봇이 살균 청소를 수행하도록 청소방식을 결정할 수 있다. 즉, 결정부(54)는 통신부(52)를 통해 연결된 청소 로봇간의 지원사양을 고려하여 공동청소 방식을 결정할 수 있다.
또는, 복수의 청소 로봇 간에 지원사양이 동일할 수 있다. 예를 들어, 청소 로봇, 제1 청소 로봇, 제2 청소 로봇은 모두 건식, 습식, 살균, 및 청소모드를 지원할 수 있다. 결정부(54)는 청소 로봇 별로 담당할 청소 영역을 분할하고, 분할한 영역 별로 각 청소 로봇이 건식, 습식, 및 살균 청소모드를 통해 청소를 수행하도록 결정할 수 있다.
결정부(54)는 다양한 방법을 통해 청소 영역을 분할할 수 있다. 예를 들어, 결정부(54)는 청소 로봇의 청소수행 속도에 비례하여 청소 영역의 크기를 분할할 수 있다. 또 다른 예로, 결정부(54)는 청소 대상 영역이 복수의 방으로 분할되어 있는 경우, 각 방 별로 청소 로봇이 청소를 맡도록 결정할 수 있다. 이때, 결정부(54)는 청소수행 속도가 높은 청소 로봇이 더 크기가 큰 방을 맡도록 결정할 수도 있다. 또는, 결정부(54)는 청소 로봇 간의 위치정보를 기초로 동선이 짧도록 청소 영역을 결정할 수도 있는 등, 다양한 방법을 통해 효율성을 계산하여 청소 로봇 각각의 청소 영역을 결정할 수 있다.
또 다른 예로, 결정부(54)는 청소 영역 중에서 일부 영역은 공동 청소를 하고, 다른 일부 영역은 청소 로봇 별로 개별 청소를 하도록 결정할 수 있다. 또 다른 예로, 결정부(54)는 전술한 바와 같이 청소 영역 전체를 복수의 청소 로봇이 공동 청소하도록 결정할 수도 있으며, 제한은 없다.
도 14에 도시된 바와 같이, 실내는 3개의 영역(R1, R2, R3)로 분리될 수 있다. 이때, 청소 로봇(1c)은 전술한 입력부, 리모컨, 사용자 단말 등을 통해 사용자로부터 3개의 영역(R1, R2, R3)에 대한 청소 수행 명령을 입력 받아, 청소를 수행할 수 있다. 또는 청소 로봇(1c)은 사용자에 의해 미리 설정된 시간에 실내 전체 영역(R1, R2, R3)에 대한 청소를 수행할 수 있다.
이때, 청소 로봇(1c)은 자체적으로 3개의 영역에 대해 청소를 수행할 수도 있으나, 주변에 존재하는 다른 청소 로봇 간에 공동청소를 수행할 수도 있다. 공동청소를 수행하는 경우, 청소의 효율성을 높일 수 있을 뿐만 아니라, 청소 로봇이 지원하지 않는 청소를 수행해야 하는 경우, 다른 청소 로봇이 이를 대신 수행할 수 있다.
한편, 복수의 청소 로봇 중에서 일부 청소 로봇은 지원사양이 동일하나, 다른 일부 청소 로봇은 지원사양이 다를 수 있다. 이 경우에도 결정부(54)는 구역별 공동청소 방식에 따라 청소 대상 영역을 분할하고, 분할된 영역 별로 개별 청소를 하도록 결정하거나 또는 군집 공동청소 방식에 따라 전체 영역을 공동 청소하도록 하거나 또는 혼합 공동청소 방식에 따라 구역별 개별 청소 및 군집 공동청소를 함께 하도록 결정할 수 있는 등, 제한은 없다. 공동청소 방식을 결정하는 방법 및 공동청소 방식 시 수행하는 청소모드의 순서에 관한 정보는 미리 설정되어, 메모리에 저장될 수 있다.
제어부(55)는 청소 로봇(1)에 내장된 프로세서(processor) 등과 같이 각종 연산, 제어 프로세스를 수행하는 처리 장치 등을 통해 구현될 수 있으며, 이외에도 기 공지된 다양한 처리 장치를 통해 구현될 수 있다,
제어부(55)는 청소 로봇(1)의 전반적인 동작을 제어할 수 있다. 구체적으로, 제어부(140)는 청소 로봇(1) 내에 내장된 각종 모듈뿐만 아니라, 디스플레이(42) 등 청소 로봇(1)에 모든 구성 요소의 동작을 제어할 수 있다. 제어부(55)는 청소 로봇(1)의 구성 요소를 제어하기 위한 제어 신호를 생성하여 전술한 각 구성 요소의 동작을 제어할 수 있다.
예를 들어, 제어부(55)는 제어 신호를 통해 통신부(52)가 공동청소 방식에 관한 결정 결과를 적어도 하나의 다른 청소 로봇에 전달하는 것을 제어함으로써, 공동청소가 이루어지도록 한다.
일 실시예로, 제어부(55)는 통신부(52)를 통해 수신한 환경정보를 기초로 청소 수행과 관련된 각종 설정을 보정함으로써, 보다 효율적으로 청소가 수행되게끔 한다. 여기서, 환경정보는 센서를 통해 감지되며, 청소 영역의 환경과 관련된 각종 정보를 의미한다. 예를 들어, 환경정보는 청소 영역의 바닥 먼지량, 청소 영역의 바닥 습도, 청소 영역의 살균 정도 등을 포함하나, 이에 한정되는 것은 아니다.
일 실시예로, 다른 청소 로봇으로부터 수신한 환경정보에 기초하여 특정 영역에 먼지량이 많은 것으로 판단되면, 제어부(55)는 특정 영역에 대해 건식 청소를 한번 더 수행할 것을 다른 청소 로봇에 전달하거나 또는 자체적으로 특정 영역에 대한 건식 청소가 한번 더 수행되도록 제어할 수 있다.
이때, 제어부(55)에는 도 1에서 흡입 모듈(e), 싸이클론 모듈(f), 및 먼지 수납 모듈(g)이 내장되어, 건식 청소를 수행할 수 있다. 또한, 제어부(55)에는 도 1에서 물 공급 모듈(j)이 내장되어, 습식 청소 또는 스팀 청소를 수행할 수도 있다. 즉, 제어부(55)에는 청소를 수행하기 위한 각종 모듈이 집적될 수 있으며, 제한은 없다. 또한, 후술할 다른 실시예에 따른 청소 로봇에 내장된 제어부들 또한 마찬가지이며, 제한은 없다.
즉, 개시된 실시예에 따른 청소 로봇(1c)은 슬레이브 청소 로봇으로부터 전달 받은 환경정보를 이용하여 청소 영역 전체를 모니터링할 수 있어, 전체 상황을 반영함에 따라 청소가 효율적으로 이루어지도록 한다. 또한, 청소 영역이 분할되어 있는 경우, 청소 로봇(1c)은 복수의 청소 로봇 간에 청소 효율성이 높아지도록 구역별 개별 청소, 군집 공동청소, 혼합 공동청소 방식 중에서 결정하여 복수의 청소 로봇이 동시에 청소를 수행토록 제어할 수 있다.
다른 일 실시예로, 제어부(55)는 통신부(52)를 통해 다른 청소 로봇으로부터 상황정보를 수신하여, 이를 기초로 다른 청소 로봇의 동작을 제어할 수 있다. 여기서, 청소 상황정보는 청소 대상 영역의 환경정보, 청소 상태정보 등을 포함하며, 청소 상태정보는 청소 중인지 또는 완료되었는지 또는 오류가 발생되었는지 등에 관한 정보를 포함한다. 실시예에 따른 청소 로봇(1c)은 상황정보를 통해 청소 영역의 전체 상황을 모니터링할 수 있으며, 이를 기초로 청소 로봇, 및 다른 청소 로봇 중 적어도 하나를 제어할 수 있다.
또한, 제어부(55)는 다른 청소 로봇과의 접속일자 및 접속방법에 메모리에 저장해놓을 수 있다. 이에 따라, 제어부(55)는 메모리에 저장된 정보를 이용하여 보다 쉽게 다른 청소 로봇과의 접속을 수행할 수 있다. 예를 들어, 다른 청소 로봇과 블루투스 통신망을 통해 페어링된 경우, 제어부(55)는 접속 정보를 메모리에 저장하여, 이후 페어링시 자동으로 접속되게 끔 할 수 있다.
한편, 제어부(55)는 통신부(52)를 제어하여, 메모리에 저장된 지도 정보를 업데이트하거나 또는 다른 청소 로봇에 전달하여 최신의 지도정보를 공유할 수 있다.
한편, 전술한 바와 같이 청소 로봇(1c)에는 메모리(59)가 마련될 수 있다. 메모리(59)에는 청소 로봇의 동작시 요구되는 각종 설정을 제어하는 알고리즘 또는 프로그램이 마련될 수 있다. 또한, 메모리(59)에는 전술한 바와 같이 지도정보가 저장되며, 이외에도 다른 청소 로봇과 접속정보 등이 저장될 수 있다.
메모리(59)는 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 통해 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 당업계에 알려져 있는 임의의 다른 형태로 구현될 수도 있다.
한편, 전술한 바와 같이 청소 로봇이 마스터로써의 역할만을 수행하는 것은 아니고, 슬레이브로써의 역할을 수행할 수도 있다.
도 13b에는 마스터 청소 로봇 및 슬레이브 청소 로봇의 제어 블록도가 도시되어 있다. 여기서, 각 구성요소들은 전술한 구성요소와 동일하나, 슬레이브 청소 로봇(1d, 1e)은 통신부(58)를 통해 마스터 청소 로봇에 의해 결정된 공동청소 방식을 수신하고, 이를 기초로 청소를 수행할 수 있다. 즉, 공동청소 방식에 관한 결정 프로세스는 마스터 청소 로봇이 처리한다.
한편, 슬레이브 청소 로봇(1d)의 청소 모듈(57a)은 도 1에서 흡입 모듈(e), 싸이클론 모듈(f), 먼지 수납 모듈(g) 등이 통합된 것으로써, 건식 청소를 수행할 수 있다. 또한, 슬레이브 청소 로봇(1e)의 살균 모듈(57b)은 도 1에서 물 공급 모듈(j)등이 통합된 것으로써, 습식 청소 및 스팀 청소 중 적어도 하나를 수행할 수 있다.
슬레이브 청소 로봇(1d, 1e)은 센서를 통해 획득한 환경정보를 마스터 청소 로봇(1c)에 전달하여, 청소 대상 영역이 분할되어 있더라도 마스터 청소 로봇(1c)이 청소 대상 영역의 전체를 모니터링할 수 있도록 한다.
이하에서는 공동청소를 수행하는 청소 로봇의 동작 흐름에 대해 설명하도록 한다.
도 15는 일 실시예에 따른 공동 청소를 수행하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
청소 로봇은 청소모드를 설정할 수 있다(900). 예를 들어, 청소 로봇은 디스플레이 또는 청소 로봇에 마련된 입력 장치, 리모컨, 또는 사용자 단말을 통해 사용자로부터 청소모드에 관한 설정정보를 입력 받을 수 있다. 이에 따라, 청소 로봇은 입력 받은 설정정보를 기초로 청소모드를 설정할 수 있다.
일 실시예에 따르면, 사용자로부터 공동청소 방식을 입력 받거나 또는 주변에 다른 청소 로봇이 존재하는 것으로 감지되거나 또는 메모리에 다른 청소 로봇과의 접속 이력이 존재하면, 청소 로봇은 공동청소 방식에 따른 청소모드를 설정할 수 있다.
청소 로봇은 적어도 하나의 다른 청소 로봇과의 연결을 수행할 수 있다(1410). 전술한 바와 같이 청소 로봇은 직접 통신을 통해 또는 홈 네트워크 망의 게이트웨이 서버를 거쳐 적어도 하나의 다른 청소 로봇과의 연결을 수행할 수 있다.
청소 로봇은 연결된 다른 청소 로봇과의 공동청소 방식을 결정할 수 있다. 이때, 청소 로봇은 전술한 바와 같이 청소 영역의 크기, 및 형태, 및 청소 로봇들의 지원사양 중 적어도 하나를 조합하여 공동청소 방식을 결정할 수 있다. 예를 들어, 청소 로봇은 구역 별 공동청소 방식, 군집 공동청소 방식, 혼합 공동청소 방식 중 어느 하나를 결정할 수 있다.
이에 따라, 청소 로봇은 결정한 공동청소 방식에 기초하여 공동청소를 수행할 수 있다. 이때, 청소 로봇이 마스터로써 동작하는 경우, 슬레이브 청소 로봇에 제어 명령을 전달하여 공동청소가 수행되도록 제어할 수 있다. 한편, 청소 로봇은 통신망을 통해 슬레이브 청소 로봇으로부터 청소 상황정보를 전달 받아, 청소 상황을 지속적으로 모니터링 함으로써, 청소 수행이 보다 필요한 영역이 있으면 추가적인 청소가 수행되도록 할 수 있다. 또한, 청소 로봇은 슬레이브 청소 로봇의 동작 상태를 모니터링 함으로써, 에러가 발생하여 동작하지 않는 슬레이브 청소 로봇이 있으면, 다른 슬레이브 청소 로봇이 커버하게 할 수 있다. 청소가 완료되면(1430), 청소 로봇은 다른 청소 로봇과의 연결을 종료할 수 있다.
한편, 청소 로봇은 청소를 수행함에 있어, 사용자에게 불편함을 끼치기 않도록 청소를 수행함에 따라 발생되는 소음을 조절하기 위해 정음모드로 전환할 수 있다. 다만, 불필요하게 소음모드로 전환하면 청소 수행 능력이 떨어지게 되므로, 사용자가 오히려 곤란을 겪을 수 있다.
따라서, 이하에서는 청소모드에 따른 소음을 보다 정밀하게 조절하는 청소 로봇에 대해 살펴보도록 한다.
도 16은 서로 다른 실시예에 따른 홈 네트워크 망을 통해 또는 통신망을 통해 직접 연결된 사물 인터넷 기기들을 도시한 도면이고, 도 17은 일 실시예에 따른 사용자의 위치를 감지하여 청소모드를 제어하는 청소 로봇의 제어 블록도를 도시한 도면이고, 도 18은 일 실시예에 따른 청소 로봇, 사물 인터넷 기기가 마련된 실내를 도시한 도면이다. 이하에서는 설명이 중복되는 것을 회피하기 위해 함께 서술하도록 한다.
실시예에 따른 청소 로봇(1g)은 흡입 모터(35), 입력부(43), 배터리(50), 통신부(52), 센서 모듈(61), 음성 인식부(62), 스피커(63), 제어부(64), 및 구동 모터(100)를 포함한다. 여기서, 통신부(52), 센서 모듈(61), 및 제어부(64) 중 적어도 하나는 청소 로봇(1g)에 내장된 시스템 온 칩(System On Chip, SOC)에 집적될 수 있으나, 청소 로봇(1g)에 내장된 시스템 온 칩이 하나만 존재하는 것은 아니고, 복수 개일 수도 있으므로, 하나의 시스템 온 칩에만 집적되는 것으로 제한되진 않는다. 또한, 전술한 구성요소들은 MCU와 같은 프로세서(processor)를 통해 구현될 수 있다.
예를 들어, 음성 인식부(62)는 마이크로폰(microphone)을 통해 구현될 수 있다. 음성 인식부(62)는 입력 받은 음성을 전기적 신호로 변환할 수 있다. 음성 인식부(62)는 음성 파형을 도출하거나 또는 텍스트로 변환할 수 있다. 이에 따라, 음성 인식부(62)는 사용자의 음성 외에도 각종 음원으로부터 발생된 소음 등을 입력 받을 수 있다.
센서 모듈(61)은 사용자를 감지할 수 있는 적어도 하나의 센서가 내장된다. 예를 들어, 센서 모듈은 사용자를 감지할 수 있는 센서 및 전술한 센서들의 동작을 제어하는 MCU와 같은 프로세서로 구현될 수 있다.
여기서, 센서는 스테레오 카메라, 적외선 센서, 열 감지 센서, PIR(Pyro electric Infrared Ray) 센서, 3D 센서 등과 같이 사용자를 감지하고, 사용자와 센서 간의, 또는 사용자와 센서가 부착된 청소 로봇 간의 거리를 파악할 수 있는 센서를 의미한다. 센서 모듈(61)은 전술한 센서 중 적어도 하나가 포함되어, 사용자의 위치를 파악할 수 있을 뿐만 아니라, 사용자의 동작 또한 감지할 수 있다. 여기서, 센서를 통해 감지한 정보는 센서정보라 하기로 한다.
한편, 청소 로봇(1)에는 통신부(52)가 내장되어 있어, 통신부(52)를 통해 홈 네트워크에 접속할 수 있다. 이에 따라, 청소 로봇(1)은 실내에 존재하는 다양한 사물 인터넷(Internet of Thing, IoT) 기기와 각종 신호를 주고 받을 수 있다. 여기서, 사물 인터넷 기기는 생활 속에 존재하는 다양한 기기로써, 내장된 통신부를 통해 홈 네트워크와 접속하여, 데이터를 공유하는 기기를 의미한다.
예를 들어, 사물 인터넷 기기는 전화기, 전자레인지, 에어컨, TV, 조명, 도어 락 등 가전제품뿐만 아니라, 휴대전화, 컴퓨터와 웨어러블 디바이스 등과 같은 사용자 단말 전부를 포함한다.
여기서 홈 네트워크는 실내의 모든 사물 인터넷 기기와 데이터를 주고 받을 수 있는 통로를 제공함과 동시에 외부 인터넷 망과의 접속을 제공하는 통로를 제공하는 네트워크를 의미한다. 홈 네트워크의 게이트웨이 서버는 홈 네트워크를 통합 관리하는 서버로써, 사물 인터넷 기기 중 어느 하나가 게이트웨이 서버의 동작을 수행하거나 또는 별도로 존재하는 다른 서버가 게이트웨이 서버의 동작을 수행할 수 있다. 도 16a에 도시된 바와 같이, 청소 로봇은 홈 네트워크의 게이트웨이 서버를 통해 실내에 존재하는 다른 사물 인터넷 기기에 각종 제어 명령을 전달하여, 동작을 제어할 수 있다. 한편, 청소 로봇은 도 16b에 도시된 바와 같이, 사물 인터넷 기기와 직접 통신을 통해 동작을 제어할 수 있으며, 홈 네트워크의 게이트웨이 서버를 통해 동작을 제어하는 것만으로 한정되는 것은 아니다.
따라서, 통신부(52)는 홈 네트워크의 게이트웨이 서버 또는 사물 인터넷 기기로부터 사물 인터넷 기기가 감지한 사용자의 위치 및 동작 등과 같은 감지정보를 수신할 수 있다.
제어부(64)는 청소 로봇(1g)의 전반적인 동작을 제어할 수 있다. 구체적으로, 제어부(64)는 청소 로봇(1g) 내에 내장된 각종 모듈뿐만 아니라, 통신부(52) 등 청소 로봇(1)에 모든 구성 요소의 동작을 제어할 수 있다. 제어부(64)는 청소 로봇(1g)의 구성 요소를 제어하기 위한 제어 신호를 생성하여 전술한 각 구성 요소의 동작을 제어할 수 있다.
여기서, 제어부(64)에는 도 17에 도시된 바와 같이 감지부(65), 청소 제어부(66)가 포함된다. 청소 제어부(66)는 청소방식, 쳥소모드, 청소 영역별 수행 순위 등을 제어할 수 있으며, 구동 모터(100)를 제어하여 원하는 지역으로의 이동을 제어할 수 있다. 예를 들어, 청소 제어부(66)에는 도 1의 무빙 모듈(d)이 포함될 수 있다. 이에 따라, 청소 제어부(660)는 제어 신호를 통해 구동 모터(100), 캐스터 휠 등을 제어함으로써, 청소 로봇(1g)의 주행을 제어할 수 있다.
감지부(65)는 실내에 존재하는 적어도 하나의 사물 인터넷 기기, 및 센서 모듈을 통한 센서정보 중 적어도 하나를 기초로 사용자를 감지할 수 있다. 예를 들어, 감지부(65)는 사물 인터넷 기기의 센서를 통해 획득한 센서정보를 통신부(52)를 통해 전달 받거나, 또는 청소 로봇(1g)에 내장된 센서정보를 이용하여 실내에 사용자가 어디에 위치하고 있는지, 어떠한 상태인지 등을 감지할 수 있다.
도 18을 참조하면, 실내에는 청소 로봇뿐만 아니라, 에어컨과 같은 사물 인터넷 기기가 마련될 수 있다. 또한, 사용자가 앉아 있는 쇼파에도 센서가 내장될 수 있다. 이에 따라, 감지부(65)는 실내에 존재하는 다양한 센서를 통해 획득한 센서정보를 이용하여 사용자와 청소 로봇 간의 거리뿐만 아니라, 사용자가 어떠한 상태인지도 도출 가능하다.
제어부(64)는 통신부(52)를 통해 수신한 센서정보, 및 센서 모듈을 통해 감지한 센서정보 중 적어도 하나를 이용하여 청소 제어부(66)를 제어할 수 있다. 다시 말해서, 제어부(64)는 전술한 구성 요소들을 통해 감지한 사용자와 청소 로봇 간의 거리를 적어도 하나를 기초로 청소 수행을 제어할 수 있다.
예를 들어, 사용자와 청소 로봇 간의 거리가 미리 설정된 수준보다 가까워진 경우, 제어부(64)는 제어 신호를 통해 청소 제어부(66)를 제어하여, 정음 모드로 전환토록 한다.
또한, 제어부(64)는 전술한 구성 요소들을 통해 감지한 사용자와 청소 로봇 간의 거리, 사용자의 행동, 및 사용자의 위치, 및 음성 인식부(62)를 통해 입력 받은 결과 중 적어도 하나를 적어도 하나를 기초로 청소 수행을 제어할 수 있다.
예를 들어, 센서정보에 따라 사용자와 청소 로봇 간의 거리가 미리 설정된 수준보다 가까워지고, 현재 사용자의 위치가 침대 상에 있는 것으로 판단되면, 제어부(64)는 사용자가 현재 취침 중이거나 또는 휴식 중인 것으로 판단하고, 정음 모드로 전환함과 동시에, 침실 외의 다른 영역에 대해 먼저 청소를 수행토록 제어한다.
또 다른 예로, 도 18에 도시된 바와 같이, 사용자는 쇼파에 앉아 신문을 읽고 있는 중일 수 있다. 이때, 에어컨과 같은 사물 인터넷 기기에 내장된 센서 모듈 또는 청소 로봇에 내장된 센서 모듈에 의해 사용자가 감지될 수 있다.
또 다른 예로, 사용자가 쇼파에 앉아 TV를 시청 중인 경우, 사물 인터넷 기기에 내장된 음성 인식부 또는 청소 로봇(1g)의 음성 인식부(62)는 TV 소리를 입력 받을 수 있다. 이에 따라, 감지부(65)는 전술한 구성 요소들을 통해 감지 또는 입력 받은 결과를 조합하여 청소 수행을 제어할 수 있다.
일 실시예로, 센서정보에 따라 사용자와 청소 로봇 간의 거리가 미리 설정된 수준보다 가까워지고, 음성 인식부(62)를 통한 인식 결과 주변 소음이 존재하면, 제어부(64)는 제어 신호를 통해 정음 모드로 전환할 수 있다.
또 다른 일 실시예로, 제어부(64)는 주변 소음의 크기에 비례하여 정음 모드의 레벨을 제어할 수 있다. 정음 모드로 전환시켜, 청소 로봇에서 발생되는 소음이 작아질수록 청소 성능은 떨어지게 된다. 이때, 주변 소음의 클수록 청소 수행에 따라 사용자가 청소 로봇에서 발생되는 소음을 느끼기 어렵다. 이에 따라, 실시예에 따른 청소 로봇(1g)은 주변 소음의 크기에 따라 정음 모드의 레벨을 조절함으로써, 사용자에게 방해를 끼치지 않음과 동시에 청소 수행의 효율성을 높일 수 있다.
또 다른 예로, 센서정보에 따라 사용자와 청소 로봇 간의 거리가 미리 설정된 수준보다 가까워지고, 사용자의 움직임이 없고, 사용자의 음성 또는 주변 소음이 없으면, 제어부(64)는 사용자가 휴식 중인 것으로 판단할 수 있다. 이에 따라, 제어부(64)는 청소영역에서 사용자가 위치한 지역 주변 또는 사용자가 위치한 방을 제외한 영역만을 청소하도록 제어할 수 있다. 또는, 제어부(64)는 청소영역 중에서 사용자가 위치한 지역 주변 또는 사용자가 위치한 방을 나중에 청소하도록 청소 수행순서를 조절할 수도 있는 등, 제한은 없다.
이하에서는 사용자의 위치 및 상태를 기초로 청소 수행을 제어하는 청소 로봇의 동작 흐름에 대해서 살펴보도록 한다.
도 19는 일 실시예에 따른 사용자의 위치를 감지하여 청소모드를 제어하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
청소 로봇은 사물 인터넷 기기 또는 센서 모듈 중 적어도 하나를 이용하여 사용자의 위치 및 상태 중 적어도 하나를 감지할 수 있다(1800). 예를 들어, 청소 로봇은 스테레오 카메라, 3D 센서, PIR 센서 등 사용자를 감지할 수 있는 다양한 센서를 통해 사용자의 위치, 및 상태를 감지할 수 있다.
일 실시예로, 청소 로봇은 3D 센서를 통해 주변에 감지된 대상체 중에서 움직임이 있는 대상체를 사용자에 해당하는 것으로 판단할 수 있다. 또 다른 예로, 청소 로봇은 스테레오 카메라를 통해 획득한 영상정보로부터 영상처리를 통해 사용자를 감지할 수 있다. 또 다른 예로, 청소 로봇은 PIR 센서를 통해 사용자의 체내로부터 방사되는 적외선을 기초로 사용자를 감지할 수 있는 등, 제한은 없다.
또는, 청소 로봇은 통신망을 통해 사물 인터넷 기기가 감지한 사용자의 위치, 및 상태정보를 수신할 수 있다. 예를 들어, 사물 인터넷 기기에도 전술한 센서가 내장될 수 있다. 청소 로봇은 사물 인터넷 기기가 감지한 위치, 및 상태정보를 수신하고, 이를 기초로 사용자의 위치, 및 상태를 감지할 수 있다. 이에 따라, 청소 로봇의 현재 위치와 사용자의 위치를 비교하여 사용자와 청소 로봇간의 거리를 도출할 수 있다.
사용자와의 거리가 미리 설정된 수준보다 가까운 것으로 판단되면, 청소 로봇은 사용자의 상태에 기초하여 청소 수행을 제어할 수 있다(1810). 예를 들어, 청소 수행 중에 청소 로봇과 사용자 간의 거리가 미리 설정된 수준보다 가까운 것으로 판단되면, 청소 로봇은 정음 모드로 전환함으로써, 사용자에게 소음이 끼치는 것을 방지할 수 있다. 이에 따라, 실시예에 따른 청소 로봇은 사용자의 생활에 영향이 끼치지 않는 청소 수행을 함으로써, 사용자의 편의성을 증대시킬 수 있다.
또 다른 예로, 청소 수행 중에 청소 로봇과 사용자 간의 거리가 미리 설정된 수준보다 가까운 것으로 판단되면, 청소 로봇은 곧바로 정음 모드로 전환하지 않고, 사용자의 상태를 보다 구체적으로 판단하여 청소 수행을 제어할 수도 있다.
일 실시예로, 청소 로봇은 음성 인식부를 통해 주변 음원으로부터 방사되는 소음, 음성 등을 입력 받을 수 있다. 사용자의 음성을 입력 받은 경우, 청소 로봇은 사용자 주변에서 정음 모드로 전환해야 하는 것으로 판단하고, 흡입 모터의 출력을 조절함과 동시에 구동 모토의 출력 또한 조절하는 등, 사용자에게 소음이 끼치지 않도록 동작을 제어할 수 있다.
또는, 청소 로봇은 사용자의 음성의 크기에 따라 정음 모드의 레벨을 조절할 수 있다. 즉 청소 로봇은 사용자에게 청소 로봇의 동작으로 인해 불편을 끼치지 않는 범위 내에서 청소가 수행되도록 내장된 기기들의 동작을 제어할 수 있다. 또 다른 예로, 청소 로봇은 주변 음원으로부터 방사되는 소음의 크기에 따라 정음 모드의 레벨을 조절할 수 있다.
또한, 청소 로봇은 사용자의 현재 위치를 기초로 청소 영역 자체를 조정할 수도 있다. 예를 들어, 사용자의 현재 위치가 책상이거나 또는 침대에 있는 것으로 판단되면, 청소 로봇은 사용자가 위치한 지역 또는 방 외의 지역에 대한 청소를 먼저 수행하는 것으로 청소 영역의 순서를 변경할 수 있다.
이하에서는 청소 수행 중에 사용자를 감지하여 청소모드를 전환하거나 청소방식을 변경하는 청소 로봇의 동작 흐름에 대해서 보다 구체적으로 살펴보도록 한다.
도 20은 일 실시예에 따른 청소 수행 중에 사용자의 위치를 감지하여 청소모드를 제어하는 청소 로봇의 동작 흐름도를 도시한 도면이고, 도 21은 일 실시예에 따른 주변 소음을 감지하여 정음모드의 레벨을 조절하는 경우를 설명하기 위한 도면이고, 도 22는 일 실시예에 따른 사용자의 상태를 감지하여 청소영역을 변경하는 경우를 설명하기 위한 도면이다.
청소 로봇은 청소 수행을 시작할 수 있다(1910). 예를 들어, 청소 로봇은 입력부를 통해 사용자로부터 실행 명령을 입력 받거나, 통신부를 통해 사물 인터넷 기기로부터 실행 명령을 전달 받으면 청소 수행을 시작할 수 있다. 또한, 청소 로봇은 사용자가 미리 설정한 시간에 청소 수행을 시작할 수 있으며, 제한은 없다.
이에 따라, 청소 로봇은 청소를 수행할 수 있다(1910). 청소 로봇은 다양한 청소 모드에 따라 청소를 수행할 수 있으며, 전체 청소 영역 중에서 청소를 수행하는 영역의 순서를 설정할 수 있다. 예를 들어, 청소 영역이 복수 개의 방으로 분리된 경우, 청소 로봇은 다양한 방법에 따라 방 별로 청소 순서를 설정한 후, 이에 기초하여 청소를 수행할 수 있다. 또 다른 예로, 청소 영역이 한 개의 방에 해당하는 경우, 청소 로봇은 다양한 방법에 따라 어느 방향으로 청소를 수행해 나갈지 설정한 후, 이에 기초하여 청소를 수행할 수 있다.
청소 영역에 대한 청소를 전부 수행한 경우, 청소 로봇은 청소를 완료할 수 있다. 이에 따라, 청소 로봇은 배터리의 잔량에 따라 충전 스테이션으로 이동하거나 또는 기 지정된 영역으로 이동할 수 있다.
다만, 청소가 완료되기 전에(1920), 청소 로봇은 청소 대상 영역에 대해 청소를 수행할 때 사용자를 감지할 수 있다(1930). 예를 들어, 청소 로봇은 사물 인터넷 기기와 연동하여, 또는 내장된 센서 모듈을 통해 사용자를 감지할 수 있다. 이에 관한 구체적인 설명은 전술한 바와 동일하므로 생략하도록 한다.
청소 로봇은 사용자의 감지 여부에 따라 청소 수행 동작을 제어할 수 있다. 사용자가 감지되지 않으면, 청소 로봇은 추가적으로 동작을 제어하지 않고, 설정된 청소모드 및 청소 대상 영역에 대해 청소를 수행할 수 있다.
다만, 사용자가 감지된 경우, 청소 로봇은 청소방식, 청소모드, 및 청소 대상 영역을 제어하여 사용자에게 영향이 적게 미치도록 할 수 있다(1940).
이때, 청소 로봇은 사용자와 청소 로봇 간의 거리, 사용자의 현재 위치, 마이크로 폰을 통해 입력되는 소리, 및 사용자의 움직임 중 적어도 하나를 기초로 청소 수행 동작을 제어할 수 있다.
예를 들어, 사용자와 청소 로봇 간의 거리가 미리 설정된 수준보다 가까워지면, 청소 로봇은 정음 모드로 전환되어, 사용자가 소음에 영향 받지 않게끔 할 수 있다.
다만, 정음 모드로 전환하는 경우 청소 로봇의 청소 성능은 낮아지게 된다. 이에 따라, 사용자와 청소 로봇 간의 거리가 미리 설정된 거리보다 가까워지더라도, 사용자의 움직임 또는 주변 소음 여부 등을 판단하여, 청소 로봇은 정음 모드의 레벨을 조절하거나 또는 청소 순서를 조절할 수 있다. 여기서, 미리 설정된 거리는 사용자에 의해 설정되거나 또는 청소 로봇의 설계 시 미리 설정될 수 있다.
예를 들어, 사용자와 청소 로봇 간의 거리가 미리 설정된 수준보다 가까워지고, 사용자의 움직임이 감지되지 않으면, 청소 로봇은 사용자가 휴식 또는 취침 중인 것으로 판단하여 다른 구역을 먼저 청소하도록 제어할 수 있다.
또 다른 예로, 사용자와 청소 로봇 간의 거리가 미리 설정된 수준보다 가까워지고, 사용자의 움직임이 감지되지 않으며, 사용자의 현재 위치가 쇼파 또는 침대 등인 것으로 감지되면, 청소 로봇은 다른 구역을 먼저 청소하도록 제어할 수 있는 등, 제한은 없다.
또한, 사용자와 청소 로봇 간의 거리가 미리 설정된 수준보다 가까워지면, 청소 로봇은 입력되는 주변 소음의 크기에 따라 정음 모드의 레벨을 설정할 수 있다. 예를 들어, 사용자가 설거지 중인 경우, 청소 로봇은 설거지에 따라 발생되는 소음의 크기에 따라 정음 모드의 레벨을 설정할 수 있다.
또 다른 예로, 도 21을 참조하면, 음성 인식부를 통해 TV 소리가 감지되면, 청소 로봇은 TV 소리의 크기에 따라 정음 모드의 레벨을 설정할 수 있다. 이에 따라, 청소 로봇은 사용자의 TV 시청에 불편함이 없도록 함과 동시에, 청소 수행 성능을 높일 수 있다.
또 다른 예로, 도 22를 참조하면, 청소 로봇은 침대에 내장된 센서를 통해 사용자가 현재 침대에 위치함을 파악할 수 있다. 이에 따라, 청소 로봇은 사용자가 현재 위치한 방을 청소 대상 영역에서 제외하거나, 또는 청소 영역 중에서 가장 나중에 청소가 수행되게끔 할 수 있다.
한편, 개시된 실시예에 따른 청소 로봇은 사용자의 편의를 위해 사용자의 위치 및 상태에 따라 정음모드로의 전환뿐만 아니라, 실내 환경의 조절 또한 제공한다. 이하에서는 실내 환경지도를 기초로 실내 환경을 제어하는 청소 로봇에 대해서 설명하도록 한다.
도 23은 일 실시예에 따른 환경지도를 기초로 실내 환경을 조절하는 청소 로봇의 제어 블록도를 도시한 도면이고, 도 24는 일 실시예에 따른 센서 모듈이 부착된 비행체를 도시한 도면이고, 도 25는 일 실시예에 따른 청소 로봇, 비행체, 및 사물 인터넷 기기를 통해 환경정보를 수집하는 경우를 설명하기 위한 도면이다.
청소 로봇(1h)은 도 23에 도시된 바와 같이, 디스플레이(42), 입력부(43), 통신부(52), 메모리(59), 음성 인식부(62), 스피커(63), 센서 모듈(67), 비행체(68), 비행체 충전 스테이션(69), 및 제어부(70)를 포함한다. 여기서, 통신부(52), 메모리(59), 센서 모듈(67), 및 제어부(70)는 청소 로봇에 내장된 시스템 온 칩에 집적될 수 있으나, 전술한 바와 같이 하나의 시스템 온 칩에 집적되는 것으로 한정되는 것은 아니다.
디스플레이(42), 입력부(43), 통신부(52), 메모리(59), 음성 인식부(62), 스피커(63)에 관한 설명은 전술한 바와 동일하므로 생략하도록 한다.
비행체(68)는 청소 로봇(1h)으로부터 제어 명령을 전달 받아, 목표 지역에 비행을 할 수 있는 대상체를 의미한다. 예를 들어, 비행체 (68)는 센서 모듈이 장착된 드론을 포함한다. 비행체(68)는 도 24(a)에 도시된 바와 같이, 하부에 센서 모듈이 장착되어 센서 모듈(67)이 위치한 지역의 환경정보를 획득할 수 있다.
한편, 센서 모듈(67)은 환경정보를 획득할 수 있는 다양한 센서, 및 MCU와 같은 프로세서가 집적된 기판으로 구현될 수 있다. 센서 모듈에 관한 구체적인 설명은 후술하도록 한다. 또한, 센서 모듈(67)은 비행체(68)의 하단부에 리프트에 의해 장착될 수 있다. 이에 따라, 비행체(68)는 비행체(68)의 비행 높이를 조절할 뿐만 아니라, 리프트의 높이를 조절하여 센서 모듈(74)의 위치를 제어할 수 있다.
또한, 청소 로봇(1h)에는 비행체 충전스테이션(69)이 마련될 수 있다. 일 실시예로, 비행체 충전스테이션(69)은 청소 로봇(1h) 본체의 상면에 마련될 수 있다.
비행체(68)는 집안 전체를 비행하며 환경정보를 획득하기에는 배터리가 부족할 수 있다. 이를 보완하기 위해 청소 로봇(1h)에는 비행체에 내장된 배터리를 충전하는 비행체 충전 스테이션(69)이 마련되어 있어, 충전이 가능하다. 또한, 비행체(68)가 충전 중인 경우, 청소 로봇(1h)이 비행체(68)를 장착한 채 이동할 수 있다.
한편, 청소 로봇(1h)이 이동 중에 비행체(68)가 청소 로봇(1h)에서 떨어져 파손되지 않도록 고정체가 마련될 수 있다. 즉, 비행체(68)와 청소 로봇(1h) 간에는 고정체를 통해 고정될 수 있다. 보다 구체적으로, 제어부(70)는 제어 신호를 통해 고정체의 동작을 제어하여 비행체를 청소 로봇(1h)의 본체에 고정시킬 수 있다. 한편, 제어부(70)에는 도 1에서 비행체 모듈(p)이 내장되어 있어, 비행체의 전반적인 동작을 제어할 수 있다.
제어부(70)는 청소 로봇(1h)의 전반적인 동작을 제어할 수 있다. 구체적으로, 제어부(70)는 청소 로봇(1b) 내에 내장된 각종 모듈뿐만 아니라, 디스플레이(42), 비행체(68), 고정체 등 청소 로봇(1h)에 모든 구성 요소의 동작을 제어할 수 있다. 예를 들어, 제어부(70)는 청소 로봇(1h)의 구성 요소를 제어하기 위한 제어 신호를 생성하여 전술한 각 구성 요소의 동작을 제어할 수 있다.
제어부(70)는 청소 로봇(1b)에 내장된 프로세서(processor) 등과 같이 각종 연산, 제어 프로세스를 수행하는 처리 장치 등을 통해 구현될 수 있으며, 이외에도 기 공지된 다양한 처리 장치를 통해 구현될 수 있다,
한편, 제어부(70)는 희망정보 설정부(71), 생성부(72), 및 실내 환경 제어부(73)를 포함한다.
희망정보 설정부(71)는 실내 환경에 관한 희망정보를 설정할 수 있다. 실내 환경에 관한 희망정보는 사용자가 희망하는 실내 환경에 관한 정보를 의미하는 것으로써, 실내의 온도, 공기 청정도, 조도 등 다양한 환경의 희망 정도를 의미한다. 희망정보 설정부(71)는 입력부(43), 및 통신부(52) 등으로부터 실내 환경과 관련된 정보를 사용자에게 전달 받아, 희망정보를 설정할 수 있다. 한편, 이외에도, 사용자에게 실내 환경과 관련된 정보를 입력 받는 방법에는 제한이 없다.
여기서, 실내 환경에 관한 정보는 사용자가 희망하는 환경설정 정보를 의미한다. 예를 들어, 온도의 경우, 입력부(43)는 사용자로부터 희망 온도를 25도로 입력받을 수 있으나, '매우 시원, 시원, 쾌적, 따뜻, 매우 따뜻' 등의 파라미터로 입력 받을 수도 있다. 그러면, 희망정보 설정부(71)는 각 파라미터 별로 대응되는 값을 설정할 수 있다. 즉, 사용자가 각 환경 파라미터 값을 구체적으로 입력하지 않아도 되므로, 사용자의 편의를 증대시킬 수 있다.
일 실시예로, 희망정보 설정부(71)는 '매우 시원'에 대응하는 온도를 19도로 설정할 수 있으며, '시원'에 대응하는 온도를 23도로 설정할 수 있는 등 제한은 없다. 이때, 각 파라미터 별로 대응하는 환경은 사용자에 의해 설정되거나 또는 청소 로봇(1h)의 설계시 미리 설정될 수 있다.
한편, 생성부(72)는 실내 환경정보를 획득하여 실내 환경지도를 생성할 수 있다. 예를 들어, 청소 로봇의 메모리(59)에는 SLAM 모듈, 또는 통신망을 통해 획득한 실내 지도정보가 저장된다. 이때, 생성부(72)는 다양한 종류의 방법을 통해 획득한 실내 환경정보를 지도정보에 매핑함으로써, 실내 환경지도를 생성할 수 있다.
예를 들어, 실내 환경정보는 적어도 하나의 사물 인터넷 기기, 청소 로봇에 내장된 센서 모듈(67), 및 비행체에 장착된 센서 모듈 중 적어도 하나를 이용하여 획득될 수 있다.
일 실시예로, 사물 인터넷 기기에는 실내 환경정보를 획득할 수 있는 다양한 센서가 내장될 수 있다. 센서에는 온도 센서, 습도 센서, 가스 센서, 먼지 센서, 소음 센서, 조도 센서, 냄새감지 센서, 라돈수치 센서 등이 있다.
온도 센서는 대상체 또는 주변 공기의 온도를 감지하는 센서를 의미한다. 온도 센서는 온도를 감지하여 전기 신호로 변환할 수 있다. 온도 센서는 측정 방식에 따라 온도 차에 의해 변화되는 저항 값 또는 발생되는 전압을 기초로 온도를 감지하는 접촉식, 열원으로부터 방사되는 적외선 에너지를 방출하는 비 접촉식 방식이 존재하며, 센서 모듈에 집적되는 온도 센서에는 제한이 없다.
습도 센서는 공기 중에 존재하는 수분의 물리적, 화학적 현상 등을 이용하여 습도를 검출하는 센서를 의미한다. 예를 들어, 습도 센서는 습도를 검출하는 방식에 따라, 건습구 습도, 모발 습도, 염화 리튬 습도센서 등이 존재하며, 센서 모듈에 집적되는 습도 센서에는 제한이 없다.
가스 센서는 기체 중에 포함된 특정 화학물질을 감지하고, 이를 기초로 가스 농도를 검출하는 센서를 의미한다. 구체적으로, 가스 센서는 기체 중에 포함된 특정 화학물질을 감지하여 농도를 측정하고, 농도에 비례하여 전기적 신호로 변환하는 센서를 의미한다.
가스 센서에는 검출 방식에 따라 가스의 흡착이나 반응에 의한 고체 물성의 변화를 이용하는 방식, 연소열을 이용하는 방식, 전기화학 반응을 이용하는 방식, 물리적 특성값을 이용하는 방식 등이 존재하며, 센서 모듈에 집적되는 가스 센서에는 제한이 없다.
먼지 센서는 부유하는 먼지량을 검출하는 센서를 의미한다. 예를 들어, 먼지 센서는 먼지의 크기로 인해 다르게 산란되는 산란광의 패턴을 기초로 먼지량을 측정하며, 옆산란광 방식, 근적외 앞산란광 방식이 존재하며, 센서 모듈에 집적되는 먼지 센서에는 제한이 없다.
소음 센서는 음압에 따른 정전 용량의 변화를 측정하여 소음의 크기를 검출하는 센서를 의미한다. 소음 센서에는 검출 방식에 따라 정전형, 압전형이 존재하며, 센서 모듈에 집적되는 소음 센서에는 제한이 없다.
조도 센서는 빛의 밝기를 감지하여 전기적 신호로 변환하고, 이를 기초로 조도를 측정하는 센서를 의미한다. 예를 들어, 조도 센서는 광의 세기에 따라 출력되는 전류가 변화하고, 이를 기초로 조도를 측정할 수 있다.
냄새감지 센서는 냄새를 감지하여 냄새의 강도, 및 악취 정도를 수치화하는 센서를 의미한다. 여기서, 냄새감지 센서는 냄새 내의 물질과 화학적 반응을 발생시켜, 그 값을 전기적 신호를 출력할 수 있다. 또한, 라돈 수치 센서는 방사선을 방출하는 비활성 기체 원소인 라돈을 측정하는 센서를 의미한다. 이외에도, 실내 환경정보를 획득할 수 있는 센서는 전부 포함하며, 제한은 없다.
또한, 센서 모듈(67)에는 전술한 바와 같이 실내 환경정보를 획득할 수 있는 센서와 전술한 센서로부터 출력되는 출력 값을 처리하는 MCU와 같은 프로세서로 구성될 수 있다. 이때, 센서 모듈(67)은 청소 로봇(1h)에 장착될 수도 있으며, 비행체(68)에 장착될 수도 있으며, 청소 로봇(1h) 및 비행체(68) 모두에 장착될 수도 있다.
도 25에 도시된 바와 같이, 생성부(72)는 에어컨과 같은 사물 인터넷 기기로부터 환경정보를 전달 받거나, 청소 로봇에 장착된 센서 모듈(67)를 이용하여 환경정보를 전달 받거나, 또는 비행체(68)에 장착된 센서 모듈로부터 환경정보를 전달 받아 실내 환경지도를 생성할 수 있다. 이때, 생성부(72)는 보다 정확한 실내 환경지도를 생성하기 위해 전술한 기기들부터 획득한 실내 환경정보를 조합할 수 있다.
예를 들어, 사물 인터넷 기기 및 청소 로봇에 내장된 센서 모듈(67)로부터 전달받은 실내 환경정보에 차이가 있을 수 있다. 일 실시예로, 에어컨은 실내 온도를 26도로 측정하였으나, 센서 모듈(67)은 25도로 측정할 수 있다. 이때, 생성부(72)는 양 기기로부터 획득한 실내 환경정보의 오차가 미리 설정된 수준 이내이면, 2개의 정보 중 어느 하나를 선택할 수 있다. 다만, 실내 환경정보의 오차가 미리 설정된 수준을 초과하면, 생성부(72)는 실내 환경정의 재측정을 요청할 수 있다. 이때, 미리 설정된 수준은 각 환경정보마다 설정될 수 있고, 사용자에 의해 결정되거나 또는 청소 로봇(1h)의 설계 시 결정될 수 있다.
또 다른 예로, 사물 인터넷 기기, 청소 로봇에 내장된 센서 모듈(67), 및 비행체(68)에 장착된 센서 모듈(74)로부터 실내 환경정보가 획득될 수 있다. 이때, 생성부(72)는 제어부(70)를 통해 사물 인터넷 기기, 청소 로봇(1h) 간의 중간 위치에서 실내 환경정보를 획득하게끔 비행체(68)의 비행을 제어할 수 있다.
이때, 생성부(72)는 각각의 기기로부터 획득한 3개의 실내 환경정보 중에서 가장 정확도가 높은 것으로 판단되는 실내 환경정보를 선택하여, 지도정보에 매핑할 수 있다.
일 실시예로, 사물 인터넷 기기의 출력 값, 청소 로봇(1h)에 내장된 센서 모듈(67)의 출력 값, 비행체(68)에 장착된 센서 모듈(74)의 출력 값의 관계는 '사물 인터넷 기기의 출력 값≤비행체(68)에 장착된 센서 모듈(74)의 출력 값≤청소 로봇(1h)에 내장된 센서 모듈(67)의 출력 값'으로 표현될 수 있다. 또한, 출력 값의 관계는 '청소 로봇(1h)에 내장된 센서 모듈(67)의 출력 값≤비행체(68)에 장착된 센서 모듈(74)의 출력 값≤ 사물 인터넷 기기의 출력 값'으로 표현될 수 있다.
이때, 생성부(72)는 중간 값에 해당하는 비행체(68)에 장착된 센서 모듈의 출력 값을 선택하고, 이를 지도정보에 매핑하여 실내 환경지도를 생성할 수 있다.
또 다른 예로, 출력 값의 관계는 '비행체(68)에 장착된 센서 모듈(74)의 출력 값 ≤ 청소 로봇(1h)에 내장된 센서 모듈(67)의 출력 값 ≤ 사물 인터넷 기기의 출력 값'으로 표현될 수 있다.
이때, 생성부(72)는 비행체(68)에 내장된 센서 모듈(74)의 출력 값과 가장 가까운 청소 로봇(1h)에 내장된 센서 모듈(67)의 출력 값을 선택하고, 이를 기초로 실내 환경지도를 생성할 수 있다. 한편, 생성부(72)는 환경정보를 구성하는 온도정보, 냄새정보 등 각 파라미터 별로 전술한 바와 같은 프로세스를 수행하여 가장 정확도가 높다고 판단되는 값을 선택할 수 있다.
이에 따라, 실내 환경 제어부(73)는 생성부(72)를 통해 획득한 실내 환경지도와 사용자로부터 입력 받은 실내 환경에 관한 희망정보를 비교하여 실내 환경의 조절 프로세스를 수행할 수 있다. 이때, 실내 환경 제어부(73)는 청소 로봇뿐만 아니라, 사물 인터넷 기기와 연동하여 실내 환경을 조절하게끔 제어한다.
예를 들어, 실내 환경 제어부(73)는 통신망을 통해 에어컨에 제어 명령을 전달하여 에어컨의 동작을 제어함으로써, 사용자가 희망하는 실내 온도가 되도록 한다. 또 다른 예로, 실내 환경 제어부(73)는 실내 전등에 제어 명령을 전달하여 조도를 조절함으로써, 사용자가 희망하는 실내 밝기가 되도록 한다.
또는, 실내 환경 제어부(73)는 청소 로봇(1h) 내 기기를 제어하여 실내 먼지량, 또는 습도가 사용자가 희망하는 환경이 되도록 하며, 제한은 없다. 예를 들어, 도 1에서 공기청정 모듈(m), 가습 모듈(n), 및 제습 모듈(o) 중 적어도 하나가 청소 로봇(1h)에 내장될 수 있다. 이에 따라, 실내 환경 제어부(73)는 가습 모듈(n)을 이용하여 사용자가 희망하는 습도가 되도록, 실내 환경을 조절할 수 있는 등, 제한은 없다. 일 실시예로, 사용자가 설정한 희망 습도가 40%이며, 실제 습도가 70%인 경우, 실내 환경 제어부(73)는 제습 모듈(o)을 이용하여 습도를 낮출 수 있다.
즉, 실내 환경 제어부(73)는 통신망을 통해 주변에 위치하는 제습기의 동작을 제어하여, 습도를 낮출 수도 있으나, 전술한 바와 같이 청소 로봇(1h)에는 모듈러 시스템이 적용되어, 다양한 모듈이 통합 내장될 수 있어, 청소 로봇(1h)에 장착된 제습 모듈(o)을 통해 습도를 낮출 수도 있는 등 제한은 없다.
이하에서는 환경정보를 수집하여 실내 환경을 조절하는 청소 로봇의 동작 흐름도에 대해서 설명하도록 한다.
도 26은 일 실시예에 따른 실내 환경정보를 수집하여 실내 환경을 조절하는 청소 로봇의 동작 흐름도를 도시한 도면이고, 도 27은 일 실시예에 따른 사용자의 상태를 감지하여 실내 환경을 조절하는 경우를 설명하기 위한 도면이다.
청소 로봇은 실내 환경을 감지할 수 있는 센서를 이용하여 실내 환경정보를 수집할 수 있다(2500). 센서의 종류는 전술한 바와 같이 실내 환경을 감지할 수 있는 다양한 센서를 포함하며, 제한은 없다.
이때, 청소 로봇은 본체에 장착된 센서, 비행체에 장착된 센서, 및 사물 인터넷 기기에 장착된 센서 중 적어도 하나를 이용하거나 또는 이를 조합하여 환경정보를 수집할 수 있다.
청소 로봇은 메모리에 저장된 지도정보에 수집한 환경정보를 매핑함으로써, 실내 환경지도를 생성할 수 있다(2510). 이에 따라, 청소 로봇은 현재 실내 환경 상태를 구체적으로 파악 가능하다.
한편, 청소 로봇은 사용자로부터 실내 환경에 관한 희망정보를 입력 받을 수 있다. 예를 들어, 청소 로봇은 입력부, 리모컨, 사용자 단말과 같은 사물 인터넷 기기로부터 실내 환경에 관한 희망정보를 입력 받을 수 있다. 이때, 환경지도를 통해 파악한 결과 실내 환경에 관한 희망정보와 실제의 실내 환경이 동일하거나 또는 그 차이가 미리 설정된 수준 범위 내이면, 청소 로봇은 실내 환경의 보정 프로세스를 수행하지 않고, 대기 상태로 전환될 수 있다(2530).
다만, 실내 환경에 관한 희망정보와 실제의 실내 환경 간의 차이가 미리 설정된 수준 범위를 초과하면, 청소 로봇은 실내 환경에 관한 희망정보에 대응하도록 실내 환경이 조성되게끔 보정 프로세스를 수행할 수 있다.
이때, 청소 로봇은 청소 로봇 내 기기를 제어할 뿐만 아니라, 도 27에 도시된 바와 같이 홈 네트워크 망을 통해 사물 인터넷 기기의 동작을 제어하여, 보정 프로세스를 수행할 수 있다.
예를 들어, 청소 로봇은 청소모드를 통해 실내에 먼지를 줄이거나 또는 살균을 제거하는 프로세스를 수행할 수 있다. 또한, 청소 로봇은 도 27에 도시된 바와 같이 홈 네트워크 망을 통해 사물 인터넷 기기와 연동하여 실내 온도를 낮추거나 올리는 등의 프로세스를 수행할 수 있다. 또한, 청소 로봇은 홈 네트워크 망을 통해 실내에 조명과 연동하여 실내 조도를 줄이거나 높이는 프로세스를 수행할 수 있는 등, 청소 로봇 및 사물 인터넷 기기를 조작하여 실내 환경을 조절하는 방법에는 제한이 없다.
이하에서는 실내 보안 동작을 수행하는 청소 로봇에 대해 살펴보도록 한다.
도 28은 일 실시예에 따른 실내 영상정보를 획득하여 제공하는 청소 로봇의 제어 블록도를 도시한 도면이고, 도 29는 일 실시예에 따른 제한된 시야에 따라 영상정보를 획득하는 경우를 설명하기 위한 도면이고, 도 30 내지 도 33은 서로 다른 실시예에 따라 구현된 영상부를 도시한 도면이다. 또한, 도 34는 일 실시예에 따른 막대 형태로 구현된 영상부를 통해 영상정보를 획득하는 경우를 설명하기 위한 도면이고, 도 35는 일 실시예에 따른 비행체를 통해 영상정보를 획득하는 경우를 설명하기 위한 도면이다.
도 28을 참조하면, 청소 로봇(1i)은 입력부(43), 통신부(52), 비행체(68), 비행체 충전 스테이션(69), 영상부(74), 및 제어부(75)를 포함할 수 있다. 여기서, 통신부(62), 및 제어부(75)는 적어도 하나는 청소 로봇(1i)에 내장된 시스템 온 칩에 집적될 수 있으며, 전술한 바와 같이 하나의 시스템 온 칩에 집적되는 것으로 한정되지 않는다.
영상부(74)는 특정 영역을 영상화한 영상정보를 획득한다. 예를 들어, 영상부(74)는 카메라 모듈을 통해 구현될 수 있다. 영상부(74)는 청소 로봇(1i)의 일 면에 장착되거나 또는 비행체(68)에 장착될 수 있다. 한편, 영상부(74)는 다양한 형태로 구현되어 청소 로봇(1i)의 일 면에 장착되거나 또는 비행체(68)에 장착될 수 있다.
이때, 청소 로봇(1i)에 장착된 영상부(74)의 높이, 방향 등이 조절되지 않으면, 도 29a, 및 도 29b에 도시된 바와 같이 한정된 지역 및 시야에 관한 영상정보만을 획득할 수 있다. 따라서, 이하에서는 사용자가 원하는 영상정보를 획득하기 위해 구현되는 영상정보(74)의 형태에 대해서 설명하도록 한다.
예를 들어, 영상부(74)는 도 30에 도시된 바와 같이 막대 형태로 구현되어 4 방향의 자유도를 가진다. 여기서, 4 방향의 자유도는 높이, 회전, 기울기, 틸팅의 자유도를 의미한다. 영상부(74)에는 4개의 모터가 내장되어 있어 4 방향을 조절할 수 있다. 한편, 영상부(74)에는 청소 로봇이 이동할 때 발생되는 진동을 방지하기 위해 댐퍼 구조가 적용될 수 있다.
한편, 영상부(74)는 막대에 삼각 지지대가 부착되는 형태로 구현될 수도 있다. 도 31을 참조하면, 영상부는 막대에 삼각 지지대가 부착되고, 지지대 내에 카메라가 장착되는 형태로 구현될 수 있다. 이때, 영상부(74)는 액츄에이터를 통해 지지대를 조절할 수 있다.
또 다른 예로, 영상부(74)는 도 32에 도시된 바와 같이, 와이어를 잡아당기는 텐션 방식으로 구현될 수 있다. 이 경우, 와이어를 잡아당기는 모터가 청소 로봇의 본체에 가까이 배치되므로, 영상부(74)의 부피 및 크기를 줄일 수 있다는 장점이 있다. 또한, 영상부(74)의 무게 중심이 청소 로봇에 가까워짐에 따라 파손을 방지할 수 있다는 장점이 있다.
또 다른 예로, 영상부(74)는 도 33에 도시된 바와 같이, 2개의 비대칭 기울기를 가지는 기둥을 회전시켜 높이, 기울기, 회전, 틸팅의 제어가 가능하다. 이외에도, 영상부(74)는 여러 방향, 및 높이를 촬영하여 영상정보를 획득하도록 다양한 형태로 구현될 수 있으며, 도면에 도시된 바로 한정되는 것은 아니다. 즉, 영상부(74)는 전술한 바와 같이 다양한 형태로 구현되어, 청소 로봇의 일 면 중 적어도 하나에 장착될 수 있다.
도 34를 참조하면, 막대 형태로 구현된 영상부(74)를 통해 보다 넓은 시야로 영상정보를 획득할 수 있다. 다만, 영상부(74)가 청소 로봇(1i)에 장착되는 경우 구현 가능한 범위에 제한이 있을 수 밖에 없다. 따라서, 도 35에 도시된 바와 같이, 영상부(74)는 비행체(68)에 장착될 수 있다. 도 35를 참조하면, 영상부(74)는 비행체(68)에 하단에 장착되어, 집안 전체를 비행하며 영상정보를 획득할 수 있다.
한편, 비행체(68)가 집안 전체를 비행하며 영상정보를 획득하기에는 배터리가 부족할 수 있다. 이를 보완하기 위해 청소 로봇(1h)에는 비행체에 내장된 배터리를 충전하는 비행체 충전 스테이션(69)이 마련되어 있어, 충전이 가능하다. 또한, 비행체(68)가 충전 중인 경우, 청소 로봇(1h)이 비행체(68)를 장착한 채 이동할 수 있다. 한편, 충전 스테이션(69)은 유선 또는 무선 충전을 통해 비행체(68)의 배터리를 충전할 수 있으며, 제한은 없다.
이때, 제어부(75)는 비행체(68)에 IR 센서를 통한 적외선 신호, 초음파 신호, 비콘 신호 등의 유도 신호 전송하여 비행체(68)가 비행체 충전 스테이션(69)에 안착하도록 제어할 수 있다.
한편, 영상부(74)는 제어부(75)와 연결되어 있고, 제어부(75)는 영상부(74)를 통해 획득한 영상정보를 전달 받아, 통신부(52)를 제어하여 사용자에게 제공할 수 있다. 한편, 청소 로봇(1i)에는 통신부(52)가 마련될 수 있다. 여기서, 통신부(52)는 전술한 와 동일하므로, 구체적인 설명은 생략하도록 한다.
통신부(52)는 통신망을 통해 사용자 단말과 각종 데이터가 포함된 신호를 송수신할 수 있다. 예를 들어, 통신부(52)는 사용자 단말로부터 원격 접속 요청을 수신하여 접속을 수행함으로써, 청소 로봇(1i)과 사용자 단말 간에 연결되도록 한다.
또한, 통신부(52)는 무선 통신망을 통해 비행체와 데이터가 포함된 신호를 송수신할 수 있다. 예를 들어, 통신부(52)는 무선 통신망을 통해 비행체로 제어 명령을 전달할 수 있다. 또한, 통신부(52)는 비행체(68)에 장착된 영상부(74)로부터 영상정보를 전달받을 수 있다.
제어부(75)는 청소 로봇(1i)의 전반적인 동작을 제어할 수 있다. 제어부(75)에 관한 일반적인 설명은 전술한 바와 동일하므로 생략하도록 한다.
한편, 제어부(75)는 제어신호를 통해 영상부(74)의 동작을 제어함으로써, 영상정보의 획득을 제어할 수 있다. 또한, 제어부(75)는 제어신호를 통해 통신부(52)를 제어함으로써, 외부 기기, 비행체(68) 등과 데이터를 송수신할 수 있다.
또한, 제어부(75)는 제어신호를 통해 사용자의 원격접속 요청에 대응하여, 수행 중인 적어도 하나의 동작을 중지하도록 청소 로봇(1i) 내 기기를 제어할 수 있다. 예를 들어, 사용자 단말로부터 원격접속 요청을 수신하면, 통신부(52)는 사용자 단말과 통신망을 통해 연결될 수 있다. 제어부(75)는 제어 신호를 통해 현재 수행 중인 동작을 중지하고, 사용자 단말로부터 수신되는 신호에 따라 청소 로봇(1i) 내 기기를 제어하여 영상정보를 획득하는 동작을 수행하게 한다.
제어부(75)는 청소 로봇(1i)의 구동모터(100)의 동작을 제어하여 사용자가 선택한 지역으로 청소 로봇(1i)이 이동하도록 제어할 수 있다. 또는, 제어부(75)는 비행체(68)의 동작을 제어하여 사용자가 선택한 지역으로 비행체(68)가 이동하도록 제어할 수 있다.
즉, 제어부(75)는 통신부(52)를 통해 연동된 사용자 단말의 원격 조종에 따라 촬영하고자 하는 영역에 관한 영상정보를 획득할 수 있다. 이때, 사용자 단말에는 청소 로봇(1i)과 연동하여, 청소 로봇(1i)의 동작을 제어할 수 있는 어플리케이션이 저장될 수 있다. 여기서, 어플리케이션의 버전은 지속적으로 업데이트될 수 있다. 업데이트는 사용자의 요청 또는 어플리케이션 배포자의 요청, 또는 미리 설정된 주기에 따라 수행될 수 있다.
이에 따라, 사용자는 사용자 단말의 디스플레이를 통해 표시된 인터페이스를 이용하여 청소 로봇(1i)의 조작 명령을 입력할 수 있다. 제어부(75)는 통신부(52)를 통해 조작 명령을 수신하고, 이에 대응하여 청소 로봇(1i)의 동작을 제어할 수 있다.
이때, 제어부(75)는 다른 작업을 수행중인 경우, 사용자의 원격조종에 따라 촬영을 수행하기 위해 다른 작업을 중지할 수 있다. 제어부(75)는 다른 작업에 관한 수행 정보를 메모리에 저장해 놓은 다음, 사용자 단말과의 원격접속이 완료되면, 다시 이를 수행할 수 있다.
또한, 전술한 바와 같이, 제어부(75)는 사용자가 어플리케이션을 통해 입력한 원격조종에 따라 청소 로봇(1i)을 제어하여 촬영을 수행할 수 있다. 이때, 사용자는 사용자 단말을 통해 직접 청소 로봇의 원격조작을 명령하거나 또는 관심 지역을 설정할 수 있다.
예를 들어, 사용자는 어플리케이션을 통해 촬영 플랜(plan)을 설정할 수 있다. 청소 로봇에는 3D 센서 또는 카메라 등을 통해 획득한 지도정보가 저장될 수 있다. 사용자 단말은 통신부(52)를 통해 지도정보를 수신하여, 디스플레이 상에 관심 지역을 표시할 수 있다. 그러면, 사용자는 지도정보에서 관심지역을 설정할 수 있다. 이때, 사용자는 어플리케이션을 통해 관심지역에 관한 촬영을 특정 시간대에 예약할 수 있다. 또한, 사용자는 어플리케이션을 통해 관심지역을 우선 순위 별로 설정할 수도 있다.
예를 들어, 사용자 단말은 디스플레이를 통해 지도 정보를 표시할 수 있다. 사용자 단말은 표시된 지도 정보 중에서 사용자가 선택한 하나 이상의 구역을 관심지역으로 설정하여, 이에 관한 정보를 통신부로 전달할 수 있다. 이때, 사용자는 영상부의 촬영 높이, 촬영 각도, 및 촬영 시간도 설정이 가능하다. 또한, 복수의 구역을 선택한 경우, 사용자는 복수의 구역에 관한 촬영 순서를 설정할 수도 있다. 즉, 사용자 단말은 어플리케이션을 통해 다양한 방법으로 촬영 플랜을 설정하도록 한다.
제어부(75)는 사용자가 설정한 촬영 플랜을 반영하여, 청소 로봇(1i)의 동작을 제어하여 영상정보를 획득하고, 획득한 영상정보를 사용자 단말에 전달할 수 있다. 이에 따라, 사용자는 외부에 있더라도, 실내 영상정보를 제공받을 수 있다.
이외에도, 제어부(75)는 통신부(52)를 통해 획득한 영상정보를 실시간으로 사물 인터넷 기기에 전달하여 텔레프레즌스(telepresence) 기능을 지원할 수 있다. 여기서, 텔레프레즌스는 사용자 간에 가상 화상회의 시스템을 의미한다. 즉 제어부(75)는 통신부(52)를 통해 사물 인터넷 기기로부터 다른 사용자의 영상정보를 수신하여, 디스플레이(42)에 이를 표시할 수 있다. 이에 따라, 실시예에 따른 청소 로봇은 실시간 회의뿐만 아니라, 의사와의 화상 연결을 통한 원격 진료 등 다양한 서비스의 제공이 가능하다.
이하에서는 실내 영상정보를 획득하는 청소 로봇의 동작 흐름에 대해서 살펴보도록 한다.
도 36은 일 실시예에 따른 원격접속을 통해 영상정보를 획득하는 청소 로봇의 동작 흐름도를 도시한 도면이고, 도 37은 일 실시예에 따른 막대 형태로 구현된 영상부를 통해 원하는 영역의 영상정보를 획득하는 경우를 설명하기 위한 도면이다.
청소 로봇은 사용자로부터 원격 접속 요청을 수신할 수 있다(3500). 이때, 사용자는 사용자 단말 등과 같은 사물 인터넷 기기를 통해 원격 접속 요청을 청소 로봇에 전달할 수 있다.
이때, 청소 로봇이 다른 작업을 수행 중인지 여부에 따라 사물 인터넷 기기와의 접속 연결을 바로 수행하거나 또는 다른 작업을 중단 후 수행할 수 있다(3510). 예를 들어, 청소 작업과 같은 다른 작업을 수행 중인 경우, 청소 로봇은 현재 수행 중인 작업을 중단하고, 현재 수행 중인 작업의 처리 결과 및 추후 수행되어야 할 작업 정보를 저장할 수 있다(3520). 이에 따라, 사용자의 원격 접속이 종료된 후, 청소 로봇은 별도의 명령 없이도 중지한 작업을 재개할 수 있다.
현재 수행 중인 작업이 없거나, 또는 현재 수행 중인 작업을 중단하면, 청소 로봇은 통신망을 통해 사물 인터넷 기기와의 원격 접속을 수행할 수 있다(3530). 이에 따라, 청소 로봇은 사용자의 원격 조종에 따라 원하는 지역에 관한 영상정보를 획득하여, 이를 전달할 수 있다. 사용자는 실내 보안을 위해 영상정보를 획득할 뿐만 아니라, 도 37에 도시된 바와 같이, 영상정보를 통해 확인하고자 하는 위치를 파악하여, 두고 온 물건이 어디에 있는지 파악할 수 있다.
이하에서는 음성인식 모듈이 장착되어 실내 보안 동작을 수행하는 청소 로봇에 대해서 설명하도록 한다.
도 38은 일 실시예에 따른 소리를 감지하여 이에 대응하는 프로세스를 수행하는 청소 로봇의 제어 블록도를 도시한 도면이다.
청소 로봇(1j)에는 통신부(52), 메모리(59), 음성인식 모듈(76), 영상부(74), 제어부(77), 및 구동 모터(100)가 마련될 수 있다. 여기서, 통신부(52), 메모리(59), 및 제어부(77) 중 적어도 하나는 청소 로봇(1j)에 내장된 시스템 온 칩에 집적될 수 있으나, 전술한 바와 같이 하나의 시스템 온 칩에 집적되는 것으로 한정되지는 않는다.
음성인식 모듈(76)은 음성을 인식하고, 인식한 음성이 발생된 지점을 식별하는 음성 인식부(62), 및 음성인식 모듈(76)의 전반적인 동작을 제어하는 모듈 제어부(78)를 포함할 수 있다.
음성 인식부(62)는 음성을 인식할 수 있다. 전술한 바와 같이, 음성 인식부는 마이크로폰을 통해 구현되어, 입력 받은 음성을 전기적 신호로 변환할 수 있다. 음성 인식부(62)는 음성 파형을 도출하거나 또는 텍스트로 변환할 수 있다.
또한, 음성 인식부(62)는 음성이 발생된 지점을 식별할 수 있다. 예를 들어, 음성 인식부(62)는 어레이 형태로 배열되어 마이크로폰을 통해 구현될 수 있다. 이에 따라, 어레이 형태로 배열된 마이크로폰은 음성을 입력 받을 때 음성이 입력되는 방향을 파악할 수 있고, 이를 기초로 음성이 발생된 지점을 식별할 수 있다.
모듈 제어부(78)는 음성인식 모듈(76)의 전반적인 동작을 제어할 수 있다. 예를 들어, 모듈 제어부(78)는 음성 인식부(62)를 통해 인식한 음성에 대한 인식결과를 도출할 수 있다. 이때, 모듈 제어부(78)는 메모리에 저장된 데이터를 통해 인식 결과를 도출하거나, 외부에 위치한 음성인식 서버를 통해 인식 결과를 도출할 수 있다.
입력 받은 음성에 관한 인식 결과를 도출하기 위해서는 연산처리와 방대한 데이터가 요구된다. 따라서, 모듈 제어부(78)는 통신부를 통해 외부에 위치한 음성인식 서버와 연결되어 음성 파형 또는 텍스트를 전달하고, 이에 대응하는 인식결과를 수신할 수 있다.
여기서, 외부 음성인식 서버는 청소 로봇 외부에 존재하는 서버로써, 홈 네트워크의 게이트 서버일 수도 있고, 집 외부에 존재하는 서버일 수도 있으며, 제한은 없다.
한편, 메모리(59)에는 주요 음성에 대응하는 인식 결과가 저장될 수 있다. 이에 따라, 모듈 제어부(78)는 통신망을 통해 외부 음성인식 서버에 연결될 필요 없이, 메모리(59)에 저장된 데이터를 이용하여 음성에 관한 인식 결과를 도출할 수 있다. 이에 따라, 실시예에 따른 청소 로봇(1j)은 통신망의 과부하를 방지할 수 있으며, 보다 빠르게 인식결과를 도출할 수 있다.
또한, 모듈 제어부(78)는 음성 인식부(62)를 통해 입력 받은 음성을 메모리에 저장할 수 있다. 이에 따라, 모듈 제어부(78)는 메모리에 저장된 음성을 사용자 단말에 전달한다. 이에 관한 구체적인 설명은 후술하도록 한다.
한편, 메모리(59)에는 인식 결과 별로 대응하는 음성이 매핑되어 저장될 수 있다. 예를 들어, 인식 결과 초인종 소리인 것으로 판단되면, 모듈 제어부(78)는 스피커를 통해 '누구세요'라는 음성을 송출할 수 있다. 이때, 음성은 사용자의 목소리 또는 미리 저장된 사람의 목소리일 수 있다. 즉, 메모리(59)에는 상황 별로 적합한 음성이 매핑되어 저장되어 있어, 모듈 제어부(78)는 스피커를 통해 상황에 따라 적합한 음성을 송출할 수 있다. 즉, 모듈 제어부(78)는 음성에 관한 인식 결과에 대응하여 미리 설정된 음성을 송출할 수 있다. 여기서, 상황 별로 적합한 음성은 청소 로봇(1j)의 설계시 미리 설정되어 메모리에 저장될 수 있다.
제어부(77)는 청소 로봇(1j)의 전반적인 동작을 제어할 수 있다. 제어부(77)는 청소 로봇(1j) 내에 내장된 각종 모듈뿐만 아니라, 스피커(63) 등 청소 로봇(1j)에 모든 구성 요소의 동작을 제어할 수 있다. 제어부(77)는 청소 로봇(1j)의 구성 요소를 제어하기 위한 제어 신호를 생성하여 전술한 각 구성 요소의 동작을 제어할 수 있다.
예를 들어, 제어부(77)는 스피커(63)를 제어하여 모듈 제어부(78)를 통해 도출된 인식 결과에 대응되는 음성을 송출할 수 있다. 뿐만 아니라, 제어부(77)는 통신부(52)와 연동하여, 영상부(74)를 통해 획득한 영상정보를 사용자 단말에 전송할 수 있다.
또한, 제어부(77)는 모듈 제어부(78)를 통해 도출된 인식 결과에 기초하여 미리 설정된 연락처로 전화연결을 수행할 수 있다. 여기서, 미리 설정된 연락처는 전화번호 또는 메신저 어플리케이션의 아이디 등을 포함한다. 즉, 제어부(77)는 미리 설정된 전화번호로 유선 전화를 연결하거나 또는 메신저 어플리케이션을 통해 메시지를 전달하거나 인터넷 전화를 연결할 수 있다. 여기서, 연락처는 청소 로봇(1j)의 입력부를 통해 또는 사용자 단말에 설치된 어플리케이션 등을 통해 설정될 수 있다.
이하에서는 소리를 감지하여 이에 대응하는 프로세스를 수행하는 청소 로봇의 동작 흐름에 대해서 살펴보도록 한다.
도 39는 일 실시예에 따른 소리를 감지하여 이에 대응하는 프로세스를 수행하는 청소 로봇의 동작 흐름도를 도시한 도면이고, 도 40은 일 실시예에 따른 현관문에서 감지된 소리에 반응하는 청소 로봇의 동작을 설명하기 위한 도면이다.
청소 로봇은 음성 인식부를 통해 소리를 감지할 수 있다(3800). 여기서, 소리는 사용자로부터 발화되는 음성뿐만 아니라, 소음 등과 같이 다양한 음원으로부터 나오는 모든 소리를 포함한다.
이때, 청소 로봇은 어레이 형태로 배열된 음성 인식부를 통해 소리의 방향정보를 획득할 수 있다. 이에 따라, 청소 로봇은 소리의 방향정보, 즉 음원이 발생된 지점을 식별하여, 전술한 지점 근처로 이동할 수 있다.
예를 들어, 청소 로봇은 도 40에 도시된 바와 같이, 현관문에서 발생되는 소리를 감지할 수 있다. 이에 따라, 청소 로봇은 현관문 근처로 이동하여 발생되는 소리를 녹음하고, 통신망을 통해 녹음한 소리를 사용자 단말에 전달할 수 있다.
청소 로봇은 음성인식 모듈을 통해 이동한 지점에서 발생되는 소리를 녹음할 수 있다(3810). 이에 따라, 청소 로봇은 녹음한 데이터를 사용자 단말에 전달할 수 있다.
한편, 청소 로봇은 원격 대응 서비스를 지원할지 여부에 따라 대응 프로세스가 나뉠 수 있다(3820). 원격 대응 서비스는 사용자 단말과 원격 연결을 통해 사용자의 원격 대응을 지원하는 서비스를 의미한다. 원격 대응 서비스의 지원은 사용자에 의해 미리 설정되거나 또는 청소 로봇의 설계시 미리 설정될 수 있다.
일 실시예로, 청소 로봇이 통신망을 통해 사용자 단말과 연결을 수행할 수 있다(3830). 이에 따라, 사용자 단말과 연결이 완료되면, 청소 로봇은 사용자 단말로부터 수신되는 제어 명령에 따라 동작될 수 있다. 이에 따라, 사용자는 사용자 단말을 통해 외부에 위치하더라도, 원격 대응을 통해 위급 상황에 대처할 수 있다.
한편, 사용자 단말과 연결하지 않는 경우, 청소 로봇은 내장된 스피커 또는 통신망을 통해 연결되며 실내에 존재하는 스피커를 통해 미리 설정된 음성을 송출할 수 있다(3850). 여기서, 송출하는 음성은 소리의 종류 또는 소리가 식별된 지점에 따라 미리 설정될 수 있다. 즉, 청소 로봇은 상황에 적합한 음성을 송출함으로써, 만일의 사태에 적절하게 대비할 수 있다.
이에 따라, 청소 로봇은 미리 설정된 음성을 통한 대응 결과를 사용자 단말에 전달(3860)함으로써, 사용자가 실내 상태를 파악하도록 돕는다.
힌편, 실시예에 따른 청소 로봇은 음성인식 모듈을 통해 소리를 감지하여 이에 대응하는 프로세스를 수행하는 것만이 아니라, 사용자의 편의를 증대시키기 위해 사용자의 음성을 감지하여, 이에 대응하는 프로세스를 제공할 수도 있다.
이하에서는 사용자의 상태 정도를 감지하고, 감지 결과에 적합한 대처 동작을 수행하는 청소 로봇에 관해 살펴보도록 한다.
도 41은 일 실시예에 따른 음성 인식 결과에 대응하는 프로세스를 수행하는 청소 로봇의 제어 블록도를 도시한 도면이고, 도 42는 일 실시예에 따른 사물 인터넷 기기로부터 송출되는 방사 패턴을 도시한 도면이다.
도 41을 참조하면, 청소 로봇(1k)은 배터리(50), 통신부(52), 메모리(59), 스피커(63), 영상부(74), 음성인식 모듈(76), 영상부(74), 디스플레이(42), 제어부(79), 및 구동 모터(100)를 포함한다. 여기서, 통신부(52), 메모리(59). 음성인식 모듈(76), 및 제어부(79)는 청소 로봇(1k)에 내장된 시스템 온 칩에 집적될 수 있으며, 프로세서에 의해 동작될 수 있다. 다만, 전술한 바와 같이 청소 로봇(1k)에 내장된 시스템 온 칩이 하나만 존재하는 것은 아니고, 복수 개일 수도 있으므로, 하나의 시스템 온 칩에만 집적되는 것으로 제한되진 않는다.
제어부(79)는 청소 로봇(1k)의 전반적인 동작을 제어할 수 있다. 제어부(79)에 관한 일반적인 설명은 전술한 바와 동일하므로 생략하도록 한다.
한편, 제어부(79)는 청소 제어부(66), 및 인식부(80)를 포함할 수 있다. 청소 제어부(66)는 청소에 관한 전반적인 동작을 제어하며, 인식부(80)는 사용자의 명령을 전달 받고, 사용자의 위치를 인식할 수 있다.
인식부(80)는 다양한 종류의 호출 신호를 전달 받고, 호출 신호로부터 사용자의 위치를 인식할 수 있다. 여기서, 호출 신호는 사용자가 청소 로봇(1k)에 명령을 전달하기 위해 청소 로봇(1k)을 호출하는 신호를 의미한다. 예를 들어, 호출 신호는 사용자의 음성, 모션뿐만 아니라, 사용자 단말 등과 같은 사물 인터넷 기기로부터 전송되는 무선 신호를 포함한다.
인식부(80)는 청소 로봇(1k) 내 구성 요소들과 연동하여 사용자의 호출 신호를 인식하고, 사용자의 위치를 파악할 수 있다. 일 실시예로, 인식부(80)는 음성인식 모듈(76)을 통해 사용자의 음성을 인식할 수 있다. 이때, 메모리(59)에는 호출 신호로 이용되는 음성이 미리 설정되어 저장될 수 있다.
인식부(80)는 미리 설정된 음성을 인식할 뿐만 아니라, 어레이 형태로 배열된 음성 인식부(62)를 통해 음원의 위치, 즉 사용자의 위치를 식별할 수 있다. 그러면, 제어부(79)는 제어 신호를 통해 구동 모터(100)를 제어하여 사용자가 위치한 지점 근처로 청소 로봇(1k)이 이동하도록 제어할 수 있다.
또 다른 일 실시예로, 인식부(80)는 영상부(74)를 통해 사용자의 모션을 감지하여, 호출 신호를 인식할 수 있다. 이때, 메모리(59)에는 호출 신호로 이용되는 모션이 미리 설정되어 저장될 수 있다. 이에 따라, 인식부(80)가 호출 신호를 인식하면, 제어부(79)는 영상정보로부터 사용자의 위치를 도출할 수 있다. 그러면, 제어부(79)는 제어 신호를 통해 구동 모터(100)를 제어하여 사용자가 위치한 지점 근처로 청소 로봇(1k)이 이동하도록 제어할 수 있다.
또 다른 일 실시예로, 사용자는 사용자 단말과 같은 사물 인터넷 기기를 조작하여 무선 신호를 전송할 수 있다. 이때, 인식부(80)는 통신부(52)를 통해 수신한 무선 신호를 기초로 사물 인터넷 기기를 조작하고 있는 사용자의 위치를 파악할 수 있다.
예를 들어, 통신부(52)가 블루투스 통신망을 통해 사물 인터넷 기기로부터 무선 신호를 수신할 때, 인식부(80)는 사물 인터넷 기기의 안테나로부터 방사되는 방사 패턴을 계산할 수 있다. 방사 전력이란 안테나가 신호를 방사함에 따라 방출된 전력으로서, 여기서 방사 패턴은 사물 인터넷 기기와 통신부(52) 간에 신호를 주고 받음에 따라, 사물 인터넷 기기의 안테나의 방사 전력을 방향의 함수로서 표현한 것이다.
인식부(80)는 방사패턴을 이용하여 사물 인터넷 기기가 위치한 방향을 파악할 수 있다. 예를 들어, 도 42에서 방사 패턴의 중심은 청소 로봇(1k)이 위치하며, 방사 패턴에서 가장 신호의 세기가 강한 방향에 호출 신호를 전달한 사물 인터넷 기기가 위치하게 된다. 여기서, 신호의 세기는 수신 신호의 세기(Received Signal Strength Indication, RSSI)를 의미한다. 이에 따라, 인식부(80)가 호출 신호로부터 사용자의 위치를 인식하면, 제어부(79)는 제어 신호를 통해 구동 모터(100)를 제어하여 사용자가 위치한 지점 근처로 청소 로봇(1k)이 이동하도록 제어할 수 있다. 한편 이외에도 인식부(80)는 기 공지된 다양한 방법을 통해 무선 신호가 송출되는 방향, 및 위치를 파악할 수 있으며, 전술한 바로 한정되는 것은 아니다.
제어부(79)는 음성인식 모듈(76)을 통해 사용자의 음성을 수신하고, 수신한 음성에 관한 인식 결과에 대응하는 서비스를 제공할 수 있다. 예를 들어, 제어부(79)는 청소 수행과 관련된 음성 명령뿐만 아니라, 사물 인터넷 기기에 관한 음성 명령 등을 수신하여, 이에 대응하는 서비스를 제공할 수 있다. 즉, 제어부(79)는 음성 인식 결과에 따라 청소 로봇(1k)을 동작시킬 뿐만 아니라, 홈 네트워크 망을 통해 사물 인터넷 기기에 제어 명령을 전달하여 사물 인터넷 기기를 동작 시킬 수도 있다.
이때, 모든 사용자에게 모든 서비스의 사용을 승인하면 보안에 문제가 생길 수 있다. 이에 따라, 제어부(79)에는 보안 모듈(81)이 마련되어 있어, 각 서비스마다 사용 권한을 제한할 수 있다.
보안 모듈(81)은 성문 인식 및 음성 인식 중 적어도 하나를 조합하여 사용자의 보안 인증을 수행할 수 있다. 이때, 보안 모듈(81)은 영상부(74), 및 음성 인식 모듈(76) 중 적어도 하나를 이용하여 사용자 별로 음성 및 얼굴 중 적어도 하나를 등록하고, 사용자 별로 사용 권한을 설정할 수 있다. 사용 권한은 사용자가 제공 받을 수 있는 서비스에 관한 권한으로써, 초기에 사용자의 음성, 및 얼굴 중 적어도 하나에 등록할 때 함께 설정가능하며, 이후에도 보안 인증 절차를 통해 변경 가능하다.
제어부(79)는 음성에 관한 인식 결과에 대응하는 서비스를 제공 받을 권한이 사용자에게 있는지 판단하고, 판단 결과를 기초로 서비스의 제공 여부를 결정할 수 있다. 이에 따라, 제어부(79)는 사용자에게 사용 권한이 있으면, 음성 인식 결과에 대응하는 서비스를 제공할 수 있다.
한편, 사용자에게 사용 권한이 없으면, 보안 모듈(81)은 보안 인증 절차를 통해 사용자의 사용 권한을 등록할 수 있다. 이때, 보안 인증 절차는 사용자의 음성, 및 성문 인식 중 적어도 하나에 의해 수행될 수 있다.
예를 들어, 사용자가 일정 확인을 요청하면, 제어부(79)는 통신부(52)를 통해 사용자 단말에 설치된 일정 관리 애플리케이션과 실시간 미러링을 하여 사용자의 스케쥴을 파악하고, 스피커(63)를 통해 이를 송출할 수 있다. 또한, 사용자가 일정 관리 변경요청을 전달하면, 제어부(79)는 음성인식 모듈(76)을 통해 이를 인식하고, 사용자가 변경한 바를 반영하여 사용자 단말에 전달함으로써, 일정 관리를 업데이트할 수 있다.
또 다른 예로, 사용자가 알람 시간의 변경 요청을 전달하면, 제어부(79)는 이를 인식하고, 통신부(52)를 통해 웨어러블 디바이스에 변경 사항에 관한 정보를 전달함으로써, 웨어러블 디바이스에 설치된 알람 어플리케이션의 설정을 변경할 수 있는 등 제한이 없다.
이하에서는 보안 인증 절차를 수행하는 청소 로봇의 동작 흐름에 대해서 설명하도록 한다.
도 43은 일 실시예에 따른 보안 인증을 거쳐 동작하는 청소 로봇의 동작 흐름도를 도시한 도면이고, 도 44는 일 실시예에 따른 사용자의 음성 명령을 수신하여 청소 로봇 및 사물 인터넷 기기를 제어하는 경우를 설명하기 위한 도면이다.
청소 로봇은 호출 신호를 인식할 수 있다(4100). 사용자는 청소 로봇에 음성 명령을 전달하기 위해 다양한 종류의 호출 신호를 전달할 수 있고, 청소 로봇은 이를 인식할 수 있다.
예를 들어, 호출 신호는 사용자의 음성, 모션뿐만 아니라, 사물 인터넷 기기의 무선 신호를 포함한다. 이때, 호출 신호를 인식하면, 청소 로봇은 수행 중인 동작을 중지(4110)하고, 추후 다시 재개하기 위해 동작에 관한 처리 결과 등을 저장할 수 있다.
한편, 호출 신호를 인식하면, 청소 로봇은 사용자에게 다가가 음성 명령을 입력 받아야 하므로, 사용자 위치의 식별이 필요하다. 이때, 청소 로봇은 어레이 형태로 배열된 음성 인식부를 이용하여 사용자의 음성을 인식함으로써, 사용자의 위치를 파악할 수 있다. 또 다른 예로, 청소 로봇은 영상부를 통해 사용자의 모션을 인식하여 사용자의 위치를 파악할 수 있다. 또한, 청소 로봇은 전술한 바와 같이 사물 인터넷 기기의 안테나를 통해 방사되는 신호의 세기를 기초로 사용자의 위치를 파악할 수 있는 등, 기 공지된 다양한 방법을 통해 사용자의 위치를 파악할 수 있다.
이에 따라, 청소 로봇은 사용자의 음성을 인식할 수 있는 위치로 회전 및 이동할 수 있다(4120). 사용자의 음성을 인식할 수 있는 위치에 도달하면, 청소 로봇은 스피커를 통해 음성 명령을 입력할 것을 요청하는 내용의 음성을 송출하거나 또는 디스플레이를 통해 음성 명령을 입력할 것을 요청하는 팝업 메시지를 표시할 수 있다.
청소 로봇은 음성인식 모듈을 통해 사용자의 음성 명령을 입력 받을 수 있다(4130). 이때, 청소 로봇은 메모리에 저장된 데이터를 이용하여 사용자의 음성 명령에 대응하는 음성 인식 결과를 도출하거나 또는 외부 서버에 음성 명령을 전달하고, 사용자의 음성 명령에 대응하는 음성 인식 결과를 전달 받을 수 있다.
이때, 청소 로봇은 음성 인식 결과에 대응하는 서비스를 사용할 권한이 사용자에게 있는지 여부를 판단하기 위해 보안 인증을 수행할 수 있다(4140). 이때, 청소 로봇은 사용자 별로 서비스 사용 권한을 설정해놓음으로써, 불특정 다수인이 개인적인 서비스를 제공하는 것을 방지할 뿐만 아니라, 무분별하게 개인정보를 열람하는 것을 방지할 수 있다. 예를 들어, 사용자가 음성 명령을 통해 사용자 단말에 저장된 개인 일정 등의 제공을 원하는 경우, 청소 로봇은 사용자가 개인 일정의 열람에 관한 사용 권한이 있는지 보안 인증을 수행함으로써, 프라이버시를 보호할 수 있다.
사용자에게 사용권한이 있는 것으로 판단되면(4150), 청소 로봇은 음성 명령에 대응하는 동작을 수행하여 사용자에게 서비스를 제공할 수 있다(4180). 이때, 청소 로봇은 도 44에 도시된 바와 같이, 청소 로봇을 통한 서비스뿐만 아니라, 홈 네트워크 망을 통해 연결된 사물 인터넷 기기를 통한 서비스의 제공도 가능하다. 동작 수행이 완료되면, 청소 로봇은 이전에 중지하였던 동작을 다시 수행할 수 있다(4190).
한편, 사용자에게 사용권한이 없는 것으로 판단되면(4160), 청소 로봇은 등록 절차를 수행할 수 있다. 이에 따라, 사용권한이 등록되면, 청소 로봇은 음성 명령에 대응하는 동작을 수행하여 사용자에게 서비스를 제공할 수 있다. 한편, 사용권한이 등록되지 않으면, 청소 로봇은 음성 명령에 대응하는 서비스를 제공하지 않고, 이전에 중지하였던 동작을 다시 수행할 수 있다(4170).
이하에서는 사용자의 생체정보에 따라 사용자의 상태를 판단하고, 판단 결과에 대응하는 프로세스를 수행하는 청소 로봇에 대해 설명하도록 한다.
도 45는 일 실시예에 따른 사용자의 생체정보를 기초로 사용자의 상태를 판단하는 청소 로봇의 제어 블록도를 도시한 도면이고, 도 46은 일 실시예에 따른 어레이 형태로 배열된 음성 인식부를 통해 사용자의 음성 명령을 입력 받는 경우를 설명하기 위한 도면이다.
청소 로봇(1l)은 디스플레이(42), 입력부(43), 통신부(52), 영상부(74), 음성인식 모듈(76), 스피커(63), 제1 메모리(82), 센서 모듈(84), 제어부(85), 3D 센서(86), 및 구동 모터(100)를 포함한다. 여기서, 통신부(52), 음성인식 모듈(76), 제1 메모리(82), 센서 모듈(84), 및 제어부(85)는 청소 로봇(1l)에 내장된 시스템 온 칩에 집적될 수 있으며, 프로세서에 의해 동작될 수 있다. 다만, 청소 로봇(1l)에 내장된 시스템 온 칩이 하나만 존재하는 것은 아니고, 복수 개일 수도 있으므로, 하나의 시스템 온 칩에만 집적되는 것으로 제한되진 않는다.
한편, 음성인식 모듈(76)은 음성 인식부(62), 모듈 제어부(78), 및 제2 메모리(83)를 포함할 수 있다. 여기서, 음성 인식부(62)는 전술한 바와 같이 어레이 형태로 배열된 마이크로폰을 통해 구현될 수 있다. 이에 따라, 음성 인식부(62)는 음성이 발생된 지점을 식별할 수 있다. 구체적인 예로, 도 46을 참조하면, 청소 로봇(1l)의 일 측면에는 어레이 형태로 배열된 마이크로폰(m)이 장착될 수 있다. 이에 따라, 어레이 형태로 배열된 마이크로폰(m)은 음성을 입력 받을 때 음성이 입력되는 방향을 파악할 수 있고, 이를 기초로 음성이 발생된 지점을 식별할 수 있다.
여기서, 모듈 제어부(78)는 음성인식 모듈(76)의 전반적인 동작을 제어할 수 있다. 모듈 제어부(78)에 관한 일반적인 설명은 전술한 바와 동일하므로 생략하도록 한다.
한편, 모듈 제어부(78)는 음성 인식부(62)를 통해 입력 받은 사용자의 음성을 분석하여 이상 징후를 감지할 수 있다. 예를 들어, 모듈 제어부(78)는 사용자의 음성을 분석하여 위급 상황에 있는지, 도움을 청하는지, 비명소리인지 등을 판단할 수 있다. 여기서, 모듈 제어부(78)의 제2 메모리(83)에는 사용자의 음성이 녹음되어 있거나, 일반적으로 사용자가 위급 상황일 때 변화하는 음성 패턴에 관한 데이터가 저장된다. 이에 따라, 모듈 제어부(78)는 외부 서버와 연동하지 않아도, 사용자에게 이상 징후가 발생하였는지 여부를 감지할 수 있다. 이외에도, 모듈 제어부(78)는 음성인식 서버를 통해 음성에 관한 분석 결과를 도출하여 이상 징후를 감지할 수 있는 등 제한은 없다.
사용자에게 이상 징후가 감지되면, 제어부(85)는 구동 모터(100)의 동작을 제어하여 사용자가 위치한 것으로 식별된 지점으로 청소 로봇이 이동하게끔 한다. 제어부(85)에 관한 동작은 후술하도록 한다.
한편, 센서 모듈(84)은 사용자의 생체정보를 획득할 수 있다. 여기서, 센서 모듈(84)은 사용자의 심박, 체온, 움직임 등 사용자의 생체와 관련된 각종 정보를 획득할 수 있는 적어도 하나의 센서와 전술한 센서들의 동작을 제어하는 MCU와 같은 프로세서로 구성될 수 있다. 센서 모듈(84)은 사용자의 생체정보를 획득하여, 제어부(85)에 전달할 수 있다.
한편, 통신부(52)는 통신망을 통해 외부 기기와 데이터를 주고 받을 수 있다. 통신부(52)의 구성에 관한 일반적인 설명은 전술한 바와 동일하므로 생략하도록 한다.
입력부(43)는 사용자로부터 청소 로봇과 관련된 각종 제어명령을 입력 받을 수 있다. 여기서, 입력부(43)는 청소 로봇의 일 면에 다이얼 형태로 마련될 수 있다. 또는 디스플레이(42)가 터치 스크린 타입으로 구현된 경우, 디스플레이(42)가 입력부(43)의 역할을 수행할 수도 있다.
한편, 청소 로봇(1l)에는 제1 메모리(82)가 마련될 수 있다. 여기서, 제1 메모리(82)는 제2 메모리(83)와 함께 하나의 메모리로 구현될 수도 있는 등 제한은 없다.
제1 메모리(82)에는 생체정보에 따라 사용자의 상태 정도를 판단하기 위한 데이터가 저장된다. 예를 들어, 제1 메모리(82)에는 센서 모듈(84)을 통해 평상시 획득된 사용자의 생체정보가 저장될 수 있다. 또 다른 예로, 제1 메모리(82)에는 나이 별 또는 연령대 별 평균 상태정보가 저장될 수 있다. 이때, 제1 메모리(82)에는 전술한 입력부(43)를 통해 사용자로부터 입력 받은 사용자의 연령정보도 저장될 수 있다. 이외에도, 제1 메모리(82)에는 사용자의 상태 정도를 판단하기 위해 필요한 각종 데이터가 저장된다.
또한, 제1 메모리(82)에는 상태 정도에 따른 대처 방안이 저장된다. 여기서, 대처 방안은 사용자의 상태 정도에 따라 청소 로봇(1l)의 수행 동작, 및 홈 네트워크를 통해 연결된 적어도 하나의 사물 인터넷 기기의 동작 중 적어도 하나를 이용한 대처 방안을 의미한다.
제어부(85)는 청소 로봇(1l)의 전반적인 동작을 제어할 수 있다. 구체적으로, 제어부(140)는 청소 로봇(1l) 내에 내장된 각종 모듈뿐만 아니라, 디스플레이(42), 스피커(63) 등 청소 로봇(1)에 모든 구성 요소의 동작을 제어할 수 있다. 제어부(85)는 청소 로봇(1l)의 구성 요소를 제어하기 위한 제어 신호를 생성하여 전술한 각 구성 요소의 동작을 제어할 수 있다.
한편, 제어부(85)는 사용자의 생체정보를 이용하여 사용자의 상태 정도를 판단할 수 있다. 예를 들어, 제어부(85)는 제1 메모리(82)에 저장된 평상시 사용자의 생체정보와 센서 모듈(84)을 통해 획득한 사용자의 생체정보를 비교하고, 변화 정도에 따라 사용자의 상태 정도를 판단할 수 있다. 또 다른 예로, 제어부(85)는 획득한 사용자의 생체정보가 일반적인 사용자와 비교하여 변화 정도에 따라 사용자의 상태 정도를 단계적으로 판단할 수 있다.
제1 메모리(82)에는 전술한 바와 같이, 나이 별 또는, 연령대 별 상태정보가 저장될 수 있다. 또한, 청소 로봇(1l)은 입력부(43)를 통해 사용자의 나이를 입력 받을 수 있다. 이에 따라, 제어부(85)는 나이 별 상태정보와 센서 모듈을 통해 획득한 상태정보를 비교하여, 사용자의 상태 정도를 판단할 수 있다.
또한, 제1 메모리(82)에는 사용자가 입력한 생체 이력정보가 저장될 수 있다. 여기서, 생체정보는 사용자 개개인 마다 가지고 있는 지병, 특이사항, 병력 등에 관한 정보를 의미한다. 일 실시예로, 사용자는 입력부(42) 또는 사용자 단말에 설치된 어플리케이션을 통해 자신의 생체 이력정보를 입력할 수 있다.
제어부(85)는 판단한 상태 정도에 따라 대응되는 대처 방안을 기초로 청소 로봇(1l) 내 기기를 제어할 수 있다. 실시예에 따른 제어부(85)는 상태 정도에 따라 대처 방안을 단계적으로 설정함으로써, 현재 사용자에게 적합한 대처를 제공하여 위기 상황을 모면할 수 있다.
예를 들어, 상태 정도에 관한 판단 결과 사용자의 신체에 변화가 감지되면, 제어부(85)는 스피커(63)를 제어하여 사용자에게 현재 상태가 어떠한지를 물어보는 음성을 송출할 수 있다. 이에 따라, 제어부(85)는 음성 인식부(62)를 통해 입력되는 사용자의 음성에 관한 인식 결과를 기초로 제1 메모리(82)에 저장된 대처 방안 중에서 어느 하나를 선택하고, 선택한 대처 방안에 따라 청소 로봇(1l)의 동작을 제어할 수 있다.
또는, 제어부(85)는 상태 정도에 관한 판단 결과에 따라 대처 방안을 선택하고, 선택한 대처 방안에 따라 청소 로봇(1l)의 동작을 제어할 수 있다. 일 실시예로, 상태 정도에 관한 판단 결과 사용자의 상태가 미리 설정된 수준을 어느 정도 초과하는 지에 따라, 제어부(85)는 통신부(52)를 통해 홈 네트워크 서버와 연동하여, 실내에 존재하는 다양한 사물 인터넷 기기의 동작을 제어할 수 있다.
예를 들어, 사용자의 체온이 미리 설정된 제1 수준을 초과하면, 제어부(85)는 홈 네트워크 서버와 연동하여 에어컨을 켜고, 에어컨을 통해 적합한 온도의 바람을 송출하게 한다. 또 다른 예로, 사용자의 체온이 미리 설정된 제2 수준을 초과하면, 제어부(85)는 홈 네트워크 서버와 연동하여 조명의 온/오프를 제어할 수 있으며, 사이렌을 통해 위급상황임을 외부에 알림으로써 도움을 요청할 수 있다. 또 다른 예로, 사용자의 체온이 미리 설정된 제3 수준을 초과하면, 제어부(85)는 미리 설정된 연락처를 통해 전화 연결을 시도하거나, SMS 메시지, 또는 인스턴트 메시지를 전달할 수 있다.
또는, 사용자의 체온이 미리 설정된 제4 수준을 초과하면, 제어부(85)는 전술한 동작을 전부 수행할 수도 있는 등, 제1 메모리(82)에 저장된 대응방안에 따라 자유롭게 대처가 가능하다. 여기서, 대응방안은 사용자 또는 청소 로봇(1l)의 설계시 미리 설정될 수 있다. 또한, 대응방안은 통신부(52)를 통해 업데이트될 수 있다.
한편, 제어부(85)는 이상 징후가 감지되지 않아도, 미리 설정된 주기에 따라 센서 모듈(84)을 제어하여 사용자의 생체정보를 주기적으로 획득할 수 있다. 여기서, 미리 설정된 주기는 청소 로봇(1l)을 설계할 때 또는 사용자에 의해 설정될 수 있다.
제어부(85)는 영상부(74) 또는 3D 센서(86)와 같이 사용자를 감지할 수 있는 각종 장치를 이용하여 사용자의 위치를 인식하고, 사용자가 위치한 지점 근처로 이동하게끔 구동 모터를 제어할 수 있다. 이에 따라, 제어부(85)는 센서 모듈(84)을 통해 획득한 생체정보로부터 사용자의 상태를 판단하고, 상태가 정상인 것으로 판단되면 획득한 생체정보 및 획득한 시간정보를 메모리에 저장할 수 있다.
일 실시예로, 제어부(85)는 획득한 생체정보에 획득할 때의 시간정보를 매핑하여 로그 데이터(log data)로 생성하여 메모리에 저장할 수 있다. 한편, 로그 데이터는 제1 메모리(82)에만 저장되는 것은 아니고, 외부 서버에 저장될 수도 있는 등 제한은 없다.
이하에서는 사용자의 상태 정도에 따라 대처 방안이 설정된 청소 로봇의 동작 흐름에 대해서 간략하게 설명하도록 한다.
도 47은 일 실시예에 따른 사용자의 생체정보를 기초로 판단한 사용자의 상태에 따라 동작하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 47를 참조하면, 청소 로봇은 사용자의 음성으로부터 이상 징후를 감지할 수 있다(4600). 예를 들어, 청소 로봇은 메모리에 저장된 평상시 사용자의 음성과 어레이 형태로 구현된 마이크를 통해 입력되는 사용자의 음성을 비교하여, 음성 파형의 심한 변화가 생기는 경우 이상 징후의 발생을 감지할 수 있다. 또는, 평균적으로 이상 징후가 발생될 때의 음성 파형에 관한 정보를 메모리에 저장해놓고 있어, 청소 로봇은 메모리에 저장된 전술한 정보를 기초로 이상 징후의 발생을 감지할 수 있다.
일 실시예로, 메모리에는 갑작스러운 음성, 도움을 청할 때의 음성 파형에 관한 정보가 저장될 수 있다. 즉, 메모리에는 사용자로부터 이상 징후가 발생되었을 때의 음성 파형의 주요 특징에 관한 정보가 저장될 수 있다. 이외에도, 메모리에는 음성으로부터 도출할 수 있는 다양한 특징에 관한 정보가 저장될 수 있으며, 파형의 형태로만 제한되는 것은 아니다.
또한, 청소 로봇은 어레이 형태로 구현된 마이크로폰을 통해 입력되는 음성의 방향정보를 파악할 수 있다. 이에 따라, 청소 로봇은 사용자의 음성이 발생된 지점을 파악하고, 구동 모터 및 바퀴를 이용하여 파악한 지점으로 이동할 수 있다.
이에 따라, 청소 로봇은 센서 모듈을 통해 사용자의 생체정보를 획득할 수 있다(4610). 여기서 생체정보는 사용자의 심박, 혈당, 체온 등과 같이 사용자의 신체상태를 파악할 수 있는 다양한 정보를 포함한다. 센서 모듈은 사용자의 신체상태를 파악할 수 있는 심박 센서, 적외선 센서 등 기 공지된 다양한 센서, 및 전술한 센서를 제어할 수 있는 프로세서 등의 제어장치로 구성된다.
청소 로봇은 센서 모듈을 통해 획득한 사용자의 생체정보로부터 사용자의 상태 정도를 판단하고, 판단 결과에 따른 대처 방안을 기초로 청소 로봇 내 기기를 제어할 수 있다(4620). 청소 로봇의 메모리 또는 외부 서버에는 사용자의 상태 정도에 관한 판단 결과에 대응하는 대처 방안이 저장될 수 있다. 메모리에 저장되어 있으면, 청소 로봇은 메모리에서 판단 결과에 대응하는 대처 방안을 검색하고, 검색 결과를 기초로 동작을 수행할 수 있다. 또 다른 예로, 청소 로봇은 통신망을 통해 외부 서버에 접속하여, 판단 결과에 대응하는 대처 방안을 검색하고, 검색 결과를 기초로 동작을 수행할 수 있다.
또는, 사용자의 상태 정도에 관한 판단 결과에 대응하는 대처 방안 중 일부는 메모리에 다른 일부는 외부 서버에 저장될 수 있다. 이에 따라, 청소 로봇은 메모리에 저장된 정보를 검색하여, 판단 결과에 대응하는 대처 방안이 존재하지 않으면 외부 서버에 접속할 수도 있는 등 제한은 없다.
이하에서는 미리 설정된 주기에 따라 사용자의 상태를 확인하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
도 48은 일 실시예에 따른 설정된 탐색 시간에 따라 사용자의 상태를 판단하는 청소 로봇의 동작 흐름도를 도시한 도면이고, 도 49 및 도 50은 서로 다른 실시예에 따른 사용자가 위급한 상황에 처해있을 때, 홈 네트워크 망을 통한 대처 방안을 설명하기 위한 도면이다.
청소 로봇은 사용자로부터 사용자 상태의 탐색시간을 설정 받을 수 있다(4700). 예를 들어, 청소 로봇은 입력부, 또는 터치 스크린 타입으로 구현된 디스플레이를 통해 탐색시간을 입력 받을 수 있다. 또 다른 예로, 청소 로봇은 통신망을 통해 사용자 단말로부터 탐색시간을 입력 받을 수 있는 등, 탐색시간을 입력 받는 방법은 제한이 없다. 이때, 탐색시간은 1시, 2시 30분 등과 같이 특정시간대로 설정되거나 또는 30분 마다, 2시간 마다 등과 같이 특정 주기로 설정될 수 있다.
청소 로봇은 3D 센서, 영상부 등과 같이 사용자를 감지할 수 있는 장치를 이용하여 사용자의 위치를 인지하고, 사용자가 위치한 지점으로 이동할 수 있다(4710). 이에 따라, 청소 로봇은 센서 모듈을 통해 사용자의 생체정보를 획득하고, 획득한 생체정보를 기초로 사용자의 상태 정도를 판단할 수 있다(4720).
청소 로봇은 판단 결과에 기초하여 사용자의 상태에 이상이 있는지 여부를 결정할 수 있다(4730). 판단 결과 정상으로 판단되면, 청소 로봇은 획득한 생체정보와 생체정보를 획득할 때의 시간정보를 저장할 수 있다(4740). 이때, 청소 로봇은 내장된 메모리에 저장하거나 또는 외부 서버에 저장하는 등 제한이 없다. 한편, 청소 로봇은 생체정보와 시간정보를 로그 데이터로 저장할 수 있으나, 이에 한정되는 것은 아니다.
판단 결과 이상이 있는 것으로 판단되면, 청소 로봇은 스피커를 통해 현재 상태가 어떠한 지에 대한 질문을 음성으로 송출할 수 있다(4750). 이에 따라, 청소 로봇은 질문에 대한 사용자의 응답 여하에 따라, 즉 사용자의 반응 여부에 따라 대처 방안을 달리 할 수 있다(4780). 사용자의 반응이 있으면, 청소 로봇은 상황이 심각하지 않은 것으로 판단한다. 이에 따라, 청소 로봇은 사용자의 생체 이력정보를 파악한 결과 지병이 있는 것으로 판단되면, 미리 설정된 연락처로 주치의와의 전화연결 또는 메시지 전달을 수행할 수 있다(4790).
이외에도, 도 49를 참조하면, 청소 로봇은 홈 네트워크의 게이트웨이 서버를 통해 조명의 온/오프를 제어하거나, 사이렌을 동작시키거나, 또는 에어컨과 같은 실내에 존재하는 사물 인터넷 기기의 동작을 제어할 수 있는 등, 제한은 없다.
또 다른 예로, 청소 로봇은 음성인식 모듈을 통해 사용자의 음성을 인식하고, 인식 결과에 대응하는 서비스를 제공할 수도 있다. 일 실시예로, 사용자의 체온이 미리 설정된 수준을 초과하여 이상이 있는 것으로 판단되었으나, 사용자가 반응이 있는 경우, 청소 로봇은 홈 네트워크의 게이트웨이 서버를 통해 에어컨을 켤 수 있다.
또는, 청소 로봇은 사용자의 상태 정도에 따른 판단 결과를 기초로 사용자가 취하여야 하는 행동을 알릴 수 있다. 예를 들어, 사용자의 체온이 미리 설정된 수준을 초과하여 이상이 있는 것으로 판단되며, 실내 온도가 적정 수준인 것으로 판단되면, 청소 로봇은 사용자가 감기 등으로 인해 열이 나는 것으로 결정할 수 있다. 이에 따라, 청소 로봇은 스피커를 통해 '얼음 찜질이 필요합니다' 등의 대처방안을 송출할 수 있다.
한편, 사용자의 반응이 없는 경우, 청소 로봇은 사용자의 상태 정도에 따라 대응을 할 수 있다(4800). 사용자의 상태 정도가 평상시의 상태에 비해 차이가 심한 것으로 판단되면, 청소 로봇은 청소 로봇 자체 및 실내의 복수의 사물 인터넷 기기의 동작만으로 상태를 호전시킬 수 없는 것으로 판단하고, 외부로 도움을 요청할 수 있다.
예를 들어, 청소 로봇은 내장된 메모리 또는 외부 서버에 저장된 비상 연락망 등을 이용하여 전화연결을 시도하거나 또는 메시지를 전달할 수 있다. 또 다른 예로, 청소 로봇은 전등의 온/오프를 제어하거나, 사이렌을 키거나, 또는 경비실로 비상신호를 전달하여 위급 상황임을 외부에 알릴 수 있다.
또한, 청소 로봇은 외부에서의 접근이 용이하도록, 홈 네트워크의 게이트 서버와 연동하여, 현관문의 도어락을 해제할 수 있는 등, 기 설정된 대처방안에 따라 동작할 수 있다.
전술한 다양한 대처방안은 미리 설정되어 청소 로봇의 메모리 또는 외부 서버에 저장될 수 있고, 청소 로봇은 이를 이용하여 대처방안에 따라 동작을 수행할 수 있다.
또한, 청소 로봇의 메모리 또는 외부 서버에는 사용자의 상태에 따른 감정 분석결과 및 이에 따른 대처방안도 저장될 수 있다. 이에 따라, 청소 로봇은 사용자의 감정 분석결과를 이용하여 사용자의 증상을 완화시키는 동작을 수행할 수 있다. 예를 들어, 청소 로봇은 사용자의 생체정보 및 사용자의 음성 중 적어도 하나를 외부 서버에 전송하여, 이에 따른 분석 결과 및 대처방안을 전달받을 수 있다.
일 예로, 판단 결과 사용자의 감정상태가 격양되어 있는 것으로 판단되면, 청소 로봇은 홈 네트워크의 게이트웨이 서버를 통해 사물 인터넷 기기와 연동하여, 실내의 온도, 조도, 습도 등을 조절할 수 있다. 또한, 청소 로봇은 게이트웨이 서버를 통해 웹 서버에 접속하여 사용자의 감정 상태에 적합한 음악의 스트리밍 서비스를 지원하거나, 또는 사용자와의 대화를 진행할 수도 있는 등 다양한 대처방안에 따라 동작할 수 있다.
또 다른 예로, 사용자의 이력정보를 기초로 정신 질환이 있는 것으로 판단되면, 청소 로봇은 미리 설정된 연락처, 예를 들어 보호자와의 전화 연결을 하거나 또는 보호자에게 메시지를 전달할 수 있다.
한편, 실시예에 따른 청소 로봇은 사용자의 상태를 판단하여, 판단 결과에 기초한 서비스를 제공할 뿐만 아니라, 멀티미디어 서비스를 제공할 수도 있다.
이하에서는 청소 기능 외에 다양한 멀티미디어 기능을 지원하는 청소 로봇에 관해 살펴보도록 한다.
도 51은 일 실시예에 따른 멀티미디어 서비스를 제공하는 청소 로봇의 제어 블록도를 도시한 도면이고, 도 52는 일 실시예에 따른 비행체를 통해 사용자를 추종하여 영상정보를 획득하는 경우를 설명하기 위한 도면이고, 도 53은 일 실시예에 따른 사용자의 위험발생 가능성을 감지하여 이에 대응하는 프로세스를 처리하는 경우를 설명하기 위한 도면이다. 또한, 도 54는 일 실시예에 따른 빔 프로젝터를 통해 다양한 종류의 영상을 표시하는 경우를 설명하기 위한 도면이고, 도 55는 일 실시예에 따른 특정 지역 또는 방까지의 경로를 제공하는 청소 로봇을 설명하기 위한 도면이다.
청소 로봇(1m)은 입력부(43), 통신부(52), 영상부(74), SLAM 모듈(53), 메모리(59), 음성인식 모듈(76), 비행체(68), 비행체 충전스테이션(69), 디스플레이(42), 스피커(63), 및 제어부(87)를 포함할 수 있다. 여기서, 전술한 구성 요소들 중 적어도 하나는 청소 로봇(1m)에 내장된 시스템 온 칩에 집적될 수 있으나, 내장된 시스템 온 칩이 하나만 존재하는 것은 아니고, 복수 개일 수도 있으므로, 하나의 시스템 온 칩에만 집적되는 것으로 제한되진 않는다.
입력부(43)는 사용자로부터 청소 로봇(1m)과 관련된 각종 제어 명령뿐만 아니라, 청소 로봇(1m)과 연동되는 다양한 사물 인터넷 기기에 관한 각종 제어 명령을 입력 받을 수 있다. 예를 들어, 입력부(43)는 사용자로부터 영상정보를 획득하고자 하는 대상체를 입력 받을 수 있다.
일 실시예로, 디스플레이(42)가 터치 스크린 타입으로 구현되는 경우, 디스플레이(42)가 입력부(43)의 역할을 수행할 수 있다. 여기서, 영상부(74)를 통해 획득한 영상정보에서 사용자는 촬영하고자 하는 대상체를 터치 하거나 또는 경계선을 그릴 수 있다. 한편 후술할 바와 같이, 대상체는 입력부(43) 외에도 통신부(52)를 통해 접속한 사용자 단말에 의해 선택될 수도 있다.
통신부(52)에 관한 일반적인 설명은 전술한 바와 동일하므로, 통신부(52)의 구체적인 설명은 생략하도록 한다. 통신부(52)는 통신망을 통해 실내에 위치한 사물 인터넷 기기에 데이터를 주고 받거나 또는 외부에 위치한 사용자 단말에 데이터를 주고 받을 수 있다.
예를 들어, 전술한 바와 같이 사용자 단말에는 청소 로봇(1m)과 관련된 각종 서비스를 제공하는 어플리케이션이 설치될 수 있다. 이에 따라, 사용자 단말은 어플리케이션을 통해 청소 로봇(1m)이 획득한 영상정보를 표시할 수 있고, 영상정보에서 사용자가 추종하고자 하는 대상체를 선택할 수 있는 유저 인터페이스(User Interface, UI)를 제공할 수 있다. 이에 따라, 사용자는 유저 인터페이스를 통해 대상체를 선택할 수 있으며, 사용자 단말은 통신망을 통해 선택된 대상체에 관한 정보를 통신부로 전달할 수 있다. 그러면, 청소 로봇(1m)은 선택된 대상체에 관한 정보를 파악할 수 있다.
영상부(74)는 대상체에 관한 영상정보를 획득할 수 있다. 영상부(74)에 관한 일반적인 설명은 전술한 바와 동일하므로 생략하도록 한다.
영상부(74)는 추적 알고리즘을 이용하여 영상정보 내에 포함된 대상체를 추적할 수 있다. 여기서, 추적 알고리즘은 영상정보에서 영상처리를 통해 특정 대상체를 추적하는 기술을 의미한다. 추적 알고리즘은 기 공지된 다양한 기술을 통해 구현될 수 있다. 영상부(74)는 전술한 바와 같이, 비행체 또는 막대 등에 장착되어 렌즈가 대상체의 움직임을 추종하도록 구현될 수 있다.
예를 들어, 도 52를 참조하면, 영상부(74)는 비행체에 장착될 수 있다. 이에 따라, 비행체는 사용자(u)를 추종하여 영상정보를 획득하고, 이를 청소 로봇에 전달할 수 있다. 그러면, 통신부(52)는 홈 네트워크의 게이트웨이 서버를 통해 사용자 단말에 영상정보를 전달할 수 있다.
한편, 청소 로봇(1m)에는 음성인식 모듈(76)이 마련될 수 있다. 음성인식 모듈(76)에 관한 구체적인 설명은 전술한 바와 동일하므로 생략하도록 한다.
음성인식 모듈(76)은 음성 인식부(62)를 통해 사용자로부터 선택된 대상체의 음성을 입력 받을 수 있다. 이에 따라, 음성인식 모듈(76)은 전술한 바와 같이 메모리 또는 음성인식 서버를 통해 입력 받은 음성에 관한 음성인식 결과를 도출할 수 있다.
제어부(87)는 청소 로봇(1m)의 전반적인 동작을 제어할 수 있다. 제어부(87)에 관한 일반적인 설명은 전술한 바와 동일하므로 생략하도록 한다. 예를 들어, 제어부(87)는 제어신호를 통해 비행체 또는 막대에 내장된 모터를 제어하여 영상부(74)가 대상체의 움직임을 추종하도록 할 수 있다.
또한, 제어부(87)는 청소 로봇(1m)의 동작을 제어하여 대상체의 움직임에 따라 발생되는 상황에 대응하는 프로세스를 수행할 수 있다. 이하에서는 대상체의 일 예 중 하나로써, 대상체가 사람인 경우에 대해서 설명하도록 한다.
대상체가 움직임에 따라 집안이 오염될 수 있다. 제어부(87)는 영상정보로부터 대상체의 움직임에 따라 발생되는 오염을 감지하고, 청소 로봇(1m)의 동작을 제어하여 이에 적합한 청소를 수행할 수 있다.
예를 들어, 대상체가 움직임에 따라 컵 안에 있던 음료수가 쏟아질 수 있다. 그러면, 제어부(87)는 습식 청소모드에 따라 습식 청소헤드를 이용하여 영상정보로부터 감지된 오염된 영역에 대해 청소를 수행할 수 있다. 또 다른 예로, 대상체의 움직임에 따라 책장 등에 존재하던 먼지가 바닥으로 쏟아질 수 있다. 그러면, 제어부(87)는 건식 청소모드에 따라 건식 청소헤드를 이용하여 영상정보로부터 감지된 오염된 영역에 대해 청소를 수행할 수 있다. 즉, 실시예에 따른 청소 로봇(1m)은 멀티미디어 기능뿐만 아니라, 청소 로봇(1m) 자체의 본연의 기능인 청소 기능을 함께 제공할 수 있다.
또는, 대상체가 위험지역으로 움직일 수 있다. 예를 들어, 대상체가 유아에 해당하는 경우, 부엌, 창가 등이 위험지역으로 설정될 수 있다. 이에 따라, 제어부(87)는 청소 로봇(1m) 내 기기를 제어하여 유아에게 경고 조치를 수행하거나 또는 대응 조치를 수행할 수 있다.
일 실시예로, 도 52에 도시된 바와 같이, 유아가 창가로 접근하는 경우, 제어부(87)는 스피커(63)를 통해 유아(u)에게 경고 메시지를 송출할 수 있다. 또는, 제어부(87)는 통신부(52)를 통해 사물 인터넷 기기에 장착된 스피커 등을 통해 경고 메시지를 송출할 수도 있다. 또 다른 실시예로, 제어부(87)는 통신부(52)를 통해 외부에 위치한 사용자 단말로, 전화 연결을 수행하거나 또는 메시지를 전달할 수 있다. 이에 따라, 사용자는 긴급 상황을 파악함으로써 빠른 조치를 취할 수 있다.
또 다른 예로, 제어부(87)는 영상정보에서 추적중인 대상체의 음성에 관한 인식 결과에 대응하는 동작을 수행할 수 있다. 예를 들어, 인식 결과 대상체가 특정 프로그램의 시청을 원하는 것으로 판단되면, 제어부(87)는 홈 네트워크의 게이트웨이 서버를 통해 TV을 켜고, 통신망에 접속하여 전술한 특정 프로그램을 다운 받도록 제어할 수 있다. 이때, 제어부(87)는 청소 로봇(1m)의 디스플레이(43), 사물 인터넷 기기의 디스플레이, 또는 도 54에 도시된 바와 같이 청소 로봇(1m)의 빔 프로젝터 등 각종 정보를 표시할 수 있는 장치를 통해 전술한 프로그램을 표시할 수 있다.
이외에도, 제어부(87)는 청소 로봇(1m)의 스피커(63) 또는 사물 인터넷 기기의 스피커를 통해 음원 스트리밍 서비스를 지원하거나, 청소 로봇(1m) 또는 사물 인터넷 기기에 내장된 TTS(Text To Speech) 기능을 통해 책 읽어주기 서비스를 지원할 수 있다. 즉, 실시예에 따른 청소 로봇(1m)은 단순히 청소 기능만을 지원하는 것이 아니고, 다양한 멀티미디어 서비스를 제공할 수 있다.
또 다른 예로, 대상체는 시각 장애인으로써, 도 55에 도시된 바와 같이, 음성을 통해 화장실까지의 경로를 알려줄 것을 요청할 수 있다. 그러면, 제어부(87)는 SLAM 모듈(53)을 통해 파악한 지도정보와 영상부(74)를 통해 추종 중인 대상체의 위치를 조합하여, 스피커(63)를 통해 화장실까지의 경로를 제공할 수 있다. 여기서, 각 상황에 따른 프로세스는 프로그램 또는 알고리즘으로 구현되어 청소 로봇(1m)의 메모리(59) 또는 외부 서버에 저장된다.
이하에서는 실시예에 따른 청소 로봇의 동작 흐름에 대해서 살펴보도록 한다.
도 56은 일 실시예에 따른 일 실시예에 따른 대상체를 추종하여 영상정보를 획득하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
청소 로봇은 입력부 또는 통신망을 통해 추종하고자 하는 대상체에 관한 정보를 사용자로부터 전달 받을 수 있다(5500). 예를 들어, 청소 로봇은 청소 로봇의 디스플레이를 통해 또는 통신망을 통해 연결된 외부에 위치한 사용자 단말, 또는 사물 인터넷 기기의 디스플레이를 통해 영상정보를 표시할 수 있다. 이에 따라, 사용자는 디스플레이에서 다양한 방법을 통해 추종하고자 하는 대상체를 선택할 수 있다. 이때, 청소 로봇은 입력부 또는 통신망을 통해 선택된 대상체의 연령, 또는 병력 등과 같이 대상체에 이력정보를 사용자로부터 전달 받을 수 있다.
한편, 대상체를 추종하여 영상정보를 획득한 이력이 있으면, 청소 로봇은 이를 저장함으로써, 사용자가 다시 대상체를 선택할 때 구체적인 정보를 입력할 필요가 없도록 할 수 있다. 예를 들어, 청소 로봇에는 대상체에 관한 영상이 기 저장되어 있을 수 있으며, 사용자는 대상체에 관한 이름, 명칭 등을 설정할 수 있고, 대상체에 이력 정보를 함께 설정할 수 있다. 이에 따라, 청소 로봇은 전술한 디스플레이 중 적어도 하나를 통해 대상체 리스트를 표시할 수 있다. 그러면, 사용자는 영상정보 내에서 대상체를 선택할 필요 없이, 대상체 리스트 중에서 추종하고자 하는 대상체를 선택함으로써, 보다 간편하게 대상체를 선택할 수 있다.
청소 로봇은 선택된 대상체를 추종하여 대상체가 포함된 영상정보를 획득할 수 있다(5510). 청소 로봇은 대상체의 움직임을 추종하도록 영상부 예를 들어, 카메라의 좌/우, 상/하, 높이를 조절할 수 있다.
청소 로봇은 통신망을 통해 대상체를 추종하여 획득한 영상정보를 사용자 단말에 전달할 수 있다. 이에 따라, 사용자는 외부에 위치하더라도 대상체에 관한 영상정보를 전달 받을 수 있다. 특히, 대상체가 유아인 경우, 사용자가 외부에 위치하더라도 유아를 확인함으로써, 불상사를 미연에 방지할 수 있다.
예를 들어, 청소 로봇은 영상부가 장착된 비행체를 제어하여 유아를 추적함으로써, 유아에 관한 영상정보를 획득할 수 있다. 청소 로봇은 비행체로부터 영상정보를 전달 받아, 이를 사용자 단말에 전달할 수 있다. 이에 따라, 사용자는 사용자 단말을 통해 영상정보를 확인함으로써, 혹시 모를 위험에 대비할 수 있다. 또한, 유아를 실내에 혼자 남겨두었을 때의 불안감의 해소도 가능하다.
또한, 청소 로봇은 영상정보로부터 대상체의 움직임을 감지하고, 이를 기초로 발생되는 상황에 대한 대처 동작을 수행할 수 있다(5520). 예를 들어, 청소 로봇은 대상체의 이력 정보를 기초로 대상체의 움직임에 따라 문제가 발생할 가능성이 있는 것으로 판단되면, 이에 대응하는 대처 방안에 따라 동작할 수 있다.
일 예로, 대상체의 이력정보에 따라 대처 방안은 달라질 수 있다. 예를 들어, 대상체가 N세 이하의 유아인 경우, 청소 로봇은 메모리에 저장된 실내의 지도정보를 이용하여 대상체가 부엌으로 이동 중인 것으로 판단되면, 스피커를 통한 경고 음성 송출, 미리 설정된 연락처로 전화연결, 메시지 전달, 및 사물 인터넷 기기를 통한 외부 도움 요청 등의 동작을 수행할 수 있다. 여기서, N 은 13세 이하로 설정될 수 있으나, 이에 한정되는 것은 아니다.
예를 들어, 유아가 위험한 지역으로 이동하는 경우, 청소 로봇은 스피커를 통해 '위험합니다. 조심하세요' 등이 경고 음성을 송출할 수 있다. 또한, 청소 로봇은 영상정보 및 음성인식 모듈을 통해 녹음한 유아의 음성을 스마트폰, 웨어러블 디바이스 등의 사용자 단말에 전달할 수 있다. 또한, 청소 로봇은 사물 인터넷 기기로써, 전등의 온/오프를 제어하여 외부에 위험을 알릴 수도 있는 등, 제한은 없다.
또 다른 예로, 이력정보에 대상체가 질환이 있는 것으로 설정되어 있는 경우, 청소 로봇은 영상정보로부터 대상체의 움직임이 정상적이지 않은 것으로 판단되면, 미리 설정된 연락처로 전화연결, 메시지 전달, 및 사물 인터넷 기기를 통한 외부 도움 요청 등의 동작을 수행할 수 있다. 즉, 청소 로봇은 이력정보, 및 영상정보 중 적어도 하나를 기초로 다양한 대처 방안에 따라 청소 로봇 내 기기를 제어하여, 대상체에게 적합한 조치를 취할 수 있다.
도 57은 일 실시예에 따른 대상체의 움직임에 따른 위험 발생 여부를 예상하여, 안전 서비스를 제공하는 청소 로봇의 동작 흐름도를 도시한 도면이다.
단계 5600, 및 단계 5610에 관한 설명은 전술한 단계 5500, 및 단계 5510과 각각 동일하므로 이에 관한 구체적인 설명은 생략하도록 한다.
청소 로봇은 대상체의 움직임에 따른 위험발생 가능성을 판단할 수 있다(5620). 대상체의 움직임에 따른 판단 결과 위험발생 가능성이 없는 것으로 판단되면, 청소 로봇은 대상체의 음성을 인식할 수 있는 대기 상태로 전환될 수 있다(5630). 이에 따라, 대상체로부터 음성 명령이 발화되면, 청소 로봇은 이에 관한 인식 결과에 대응하는 서비스를 제공할 수 있다. 예를 들어, 청소 로봇은 전술한 바와 같은 다양한 멀티미디어 서비스 등의 제공이 가능하다.
한편, 예를 들어, 대상체가 성인인 경우, 청소 로봇은 대상체의 움직임의 변화가 일정하지 않는 등, 정상적인 상태로 볼 수 없는 경우에는 위험발생 가능성이 있는 것으로 판단할 수 있다. 또한, 대상체가 유아인 경우, 청소 로봇은 전술한 바와 같이 부엌, 창가 등 위험 지역으로 유아가 다가가는 경우에는 위험발생 가능성이 있는 것으로 판단할 수 있다.
이에 따라, 대상체의 움직임에 따라 위험발생 가능성이 있는 것으로 판단되면, 청소 로봇은 경고 및 대응 조치를 취할 수 있다(5650). 전술한 바와 같이 청소 로봇은 스피커를 통해 경고 메시지를 송출하거나, 기 설정된 연락처를 통해 전화연결 또는 메시지 전달을 수행하는 등 다양한 대응 조치를 수행할 수 있다.
본 명세서에 기재된 실시예와 도면에 도시된 구성은 개시된 발명의 바람직한 일 예에 불과할 뿐이며, 본 출원의 출원시점에 있어서 본 명세서의 실시예와 도면을 대체할 수 있는 다양한 변형 예들이 있을 수 있다.
또한, 본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는다.
또한, 본 명세서에서 사용한 “제1”, “제2” 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. “및/또는” 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
또한, 본 명세서 전체에서 사용되는 “~부(unit)”, “~기”, “~블록(block)”, “~부재(member)”, “~모듈(module)” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어를 의미할 수 있다. 그러나, “~부”, “~기”, “~블록”, “~부재”, “~모듈” 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, “~부”, “~기”, “~블록”, “~부재”, “~모듈” 등은 접근할 수 있는 저장 매체에 저장되고 하나 또는 그 이상의 프로세서에 의하여 수행되는 구성일 수 있다.

Claims (15)

  1. 서로 다른 기능을 지원하는 적어도 하나의 모듈이 통합된 모듈러; 및
    상기 모듈러의 동작을 제어하여, 상기 청소 로봇 내 기기 및 사물인터넷 기기 중 적어도 하나를 제어하는 제어부;
    를 포함하는 청소 로봇,
  2. 제1항에 있어서,
    상기 모듈러는,
    로봇 팔을 제어하여 상기 로봇 팔에 청소헤드를 장착하는 그리퍼 모듈을 포함하고,
    상기 제어부는, 상기 그리퍼 모듈의 동작을 제어하여, 상기 로봇 팔에 장착된 청소헤드를 이용하여 청소 수행을 제어하는 청소 로봇.
  3. 제1항에 있어서,
    상기 모듈러는,
    통신망을 통해 적어도 하나의 다른 청소 로봇과 연결을 지원하는 통신 모듈을 포함하고,
    상기 제어부는, 상기 적어도 하나의 다른 청소 로봇이 지원하는 지원 사양, 청소 영역의 크기, 및 형태 중 적어도 하나를 기초로 상기 통신 모듈의 동작을 제어하여 공동 청소 수행을 제어하는 청소 로봇.
  4. 제1항에 있어서,
    상기 모듈러는,
    실내에 존재하는 사용자를 감지하는 인식 모듈을 포함하고,
    상기 제어부는,
    상기 인식 모듈을 통한 감지결과, 및 사물인터넷 기기를 통한 감지결과 중 적어도 하나에 기초하여, 청소 수행을 제어하는 청소 로봇.
  5. 제1항에 있어서,
    상기 모듈러는,
    실내 환경정보를 획득하는 센서 모듈을 포함하고,
    상기 제어부는,
    상기 센서 모듈을 통해 획득한 실내 환경정보와 사용자가 설정한 실내 환경에 관한 희망정보를 기초로, 상기 청소 로봇 및 사물인터넷 기기 중 적어도 하나를 제어하여 실내 환경을 조절하는 청소 로봇.
  6. 제1항에 있어서,
    상기 모듈러는,
    통신망을 통해 외부 기기와의 연결을 지원하는 통신 모듈, 및 영상정보를 획득하는 영상부를 포함하고,
    상기 제어부는,
    상기 통신 모듈을 통해 원격접속 요청을 수신하면, 상기 영상부를 제어하여 영상정보를 획득하는 청소 로봇.
  7. 청소헤드가 장착되는 로봇 팔; 및
    복수의 청소헤드 중에서 청소 모드에 대응하는 청소헤드를 결정하고, 상기 로봇 팔과 상기 결정한 청소헤드 간의 장착을 제어하고, 상기 장착된 청소헤드를 이용하여 청소 수행을 제어하는 제어부;
    를 포함하는 청소 로봇.
  8. 제1항에 있어서,
    상기 로봇 팔의 내부에는,
    상기 청소헤드로 물을 공급하는 물 공급 배관, 및 먼지를 흡입하는 흡입 유로가 마련되는 청소 로봇.
  9. 제1항에 있어서,
    상기 로봇 팔의 내부에는,
    상기 청소헤드와의 결합을 유도하는 도킹부, 및 상기 청소헤드를 고정하는 전자석이 마련되는 청소 로봇.
  10. 제1항에 있어서,
    상기 복수의 청소헤드가 보관되는 청소헤드 보관함;
    을 더 포함하는 청소 로봇.
  11. 제10항에 있어서,
    상기 청소헤드 보관함은,
    상기 청소 로봇의 스테이션에 마련되거나 또는 미리 설정해놓은 위치에 마련되는 청소 로봇.
  12. 제10항에 있어서,
    상기 청소헤드 보관함에는,
    상기 복수의 청소헤드가 미리 설정된 위치에 보관되는 청소 로봇.
  13. 제10항에 있어서,
    상기 제어부는,
    상기 청소헤드 보관함에 장착된 적외선(Infrared Ray, IR) 센서를 이용하여 상기 청소헤드 보관함의 위치를 식별하는 청소 로봇.
  14. 적어도 하나의 다른 청소 로봇과의 통신 연결을 수행하는 통신 모듈;
    상기 적어도 하나의 다른 청소 로봇이 지원하는 지원 사양, 청소 영역의 크기, 및 형태 중 적어도 하나를 기초로 상기 적어도 하나의 다른 청소 로봇과의 공동청소 방식을 결정하는 결정부; 및
    상기 결정한 공동 청소 방식을 기초로 상기 청소 로봇 및 상기 적어도 하나의 다른 청소 로봇을 제어하는 제어부;
    를 포함하는 청소 로봇.
  15. 제14항에 있어서,
    상기 결정부는,
    상기 적어도 하나의 다른 청소 로봇과 동일한 영역을 함께 청소하는 군집 공동청소 방식, 상기 적어 하나의 다른 청소 로봇과 청소 영역을 구역 별로 나누어 청소하는 구역별 공동청소 방식, 및 상기 군집 공동청소 방식과 상기 구역별 공동청소 방식이 혼합된 다중패턴 공동청소 방식 중 어느 하나의 공동청소방식을 결정하는 청소 로봇.
PCT/KR2016/011823 2015-10-27 2016-10-20 청소 로봇 및 그 제어방법 WO2017073955A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201680070436.5A CN108366707B (zh) 2015-10-27 2016-10-20 清洁机器人及其控制方法
AU2016346447A AU2016346447B2 (en) 2015-10-27 2016-10-20 Cleaning robot and method for controlling same
US15/771,350 US11019972B2 (en) 2015-10-27 2016-10-20 Cleaning robot and method for controlling same
EP16860138.3A EP3342324B1 (en) 2015-10-27 2016-10-20 Cleaning robot with a controller for controlling a quiet mode

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150149359A KR102521493B1 (ko) 2015-10-27 2015-10-27 청소 로봇 및 그 제어방법
KR10-2015-0149359 2015-10-27

Publications (1)

Publication Number Publication Date
WO2017073955A1 true WO2017073955A1 (ko) 2017-05-04

Family

ID=58630898

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/011823 WO2017073955A1 (ko) 2015-10-27 2016-10-20 청소 로봇 및 그 제어방법

Country Status (6)

Country Link
US (1) US11019972B2 (ko)
EP (1) EP3342324B1 (ko)
KR (1) KR102521493B1 (ko)
CN (1) CN108366707B (ko)
AU (1) AU2016346447B2 (ko)
WO (1) WO2017073955A1 (ko)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108968805A (zh) * 2017-06-05 2018-12-11 碧洁家庭护理有限公司 自主地板清洁***
EP3415070A1 (de) * 2017-06-16 2018-12-19 Vorwerk & Co. Interholding GmbH System mit mindestens zwei bodenbearbeitungseinrichtungen
EP3416019A1 (de) * 2017-06-16 2018-12-19 Vorwerk & Co. Interholding GmbH System mit mindestens zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten
CN109079772A (zh) * 2017-06-14 2018-12-25 深圳乐动机器人有限公司 机器人及机器人***
CN110780779A (zh) * 2019-09-25 2020-02-11 北京爱接力科技发展有限公司 一种机器人服务方法、装置和机器人终端
US20200152073A1 (en) * 2018-11-08 2020-05-14 Hyundai Motor Company Service robot and method for operating thereof
WO2021068699A1 (zh) * 2019-10-08 2021-04-15 炬星科技(深圳)有限公司 机器人控制方法、电子设备及计算机可读存储介质
EP3690597A4 (en) * 2017-09-25 2021-06-09 Positec Power Tools (Suzhou) Co., Ltd POWER TOOL SYSTEM, CHARGER, POWER TOOL AND ASSOCIATED VOICE COMMAND PROCESS, AND AUTOMATIC WORK SYSTEM, CHARGING STATION, AUTOMATIC MOVING DEVICE AND ASSOCIATED VOICE COMMAND PROCESS
EP3727122A4 (en) * 2017-12-18 2021-08-11 LG Electronics Inc. ROBOT CLEANERS AND THEIR CONTROL PROCESS
US11308788B2 (en) 2019-02-06 2022-04-19 Ecolab Usa Inc. Hygiene management for reducing illnesses and infections caused by ineffective hygiene practices
EP3508938B1 (en) * 2018-01-05 2022-09-28 iRobot Corporation Mobile cleaning robot teaming and persistent mapping
US11656082B1 (en) * 2017-10-17 2023-05-23 AI Incorporated Method for constructing a map while performing work

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10866783B2 (en) * 2011-08-21 2020-12-15 Transenterix Europe S.A.R.L. Vocally activated surgical control system
US11561762B2 (en) * 2011-08-21 2023-01-24 Asensus Surgical Europe S.A.R.L. Vocally actuated surgical control system
US20170364073A1 (en) * 2016-06-21 2017-12-21 Keith Alan Guy Modular Robotic System
JP6680660B2 (ja) * 2016-10-18 2020-04-15 ファナック株式会社 ワイヤ放電加工機
KR101952414B1 (ko) * 2016-10-25 2019-02-26 엘지전자 주식회사 청소기 및 그 제어방법
DE102017207341A1 (de) * 2017-05-02 2018-11-08 Henkel Ag & Co. Kgaa Verfahren zur Steuerung von Reinigungsgeräten
KR102412847B1 (ko) * 2017-06-30 2022-06-24 엘지전자 주식회사 로봇 청소기 및 로봇 청소 시스템
KR102361315B1 (ko) * 2017-09-22 2022-02-09 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
KR102219801B1 (ko) * 2017-09-22 2021-02-23 엘지전자 주식회사 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR101992609B1 (ko) * 2017-10-17 2019-06-25 이현수 다기능 청소기
US10612929B2 (en) * 2017-10-17 2020-04-07 AI Incorporated Discovering and plotting the boundary of an enclosure
JP7093170B2 (ja) * 2017-10-20 2022-06-29 東芝ライフスタイル株式会社 衣類処理装置
EP3479667A1 (en) * 2017-11-02 2019-05-08 Melos GmbH Artificial turf maintenance robot
CN108344414A (zh) * 2017-12-29 2018-07-31 中兴通讯股份有限公司 一种地图构建、导航方法及装置、***
KR102489806B1 (ko) * 2018-01-03 2023-01-19 삼성전자주식회사 청소용 이동장치, 협업청소 시스템 및 그 제어방법
KR102385263B1 (ko) 2018-01-04 2022-04-12 삼성전자주식회사 이동형 홈 로봇 및 이동형 홈 로봇의 제어 방법
KR102015030B1 (ko) * 2018-01-09 2019-08-27 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
KR20190088824A (ko) * 2018-01-19 2019-07-29 삼성전자주식회사 로봇 청소기 및 그 제어 방법
US20190246858A1 (en) * 2018-02-13 2019-08-15 Nir Karasikov Cleaning robot with arm and tool receptacles
KR102077669B1 (ko) * 2018-03-06 2020-02-14 네이버랩스 주식회사 사용자의 터치 인터랙션과 연관된 센싱 데이터를 처리하는 방법 및 장치
KR102152731B1 (ko) * 2018-03-16 2020-09-07 엘지전자 주식회사 이동 로봇 및 그 제어방법
WO2019212240A1 (en) * 2018-05-04 2019-11-07 Lg Electronics Inc. A plurality of robot cleaner and a controlling method for the same
KR102100476B1 (ko) 2018-05-04 2020-05-26 엘지전자 주식회사 복수의 이동 로봇 및 그 제어방법
JP7281707B2 (ja) * 2018-07-06 2023-05-26 パナソニックIpマネジメント株式会社 移動ロボット、及び、制御方法
KR102612827B1 (ko) * 2018-07-23 2023-12-11 엘지전자 주식회사 인공지능 이동 로봇의 제어 방법
KR102612822B1 (ko) * 2018-07-23 2023-12-11 엘지전자 주식회사 인공지능 이동 로봇의 제어 방법
JP2021177265A (ja) * 2018-08-01 2021-11-11 ソニーグループ株式会社 移動体及び制御方法
JP6823018B2 (ja) * 2018-08-03 2021-01-27 ファナック株式会社 協調動作支援装置
WO2020028981A1 (en) * 2018-08-07 2020-02-13 Anram Holdings Remote cleaning quality management systems and related methods of use
US11303707B1 (en) * 2018-08-14 2022-04-12 Joelle Adler Internet of things sanitization system and method of operation through a blockchain network
DE102018120641A1 (de) * 2018-08-23 2020-02-27 Vorwerk & Co. Interholding Gmbh System, Saugrohr und Verfahren zum Entriegeln eines Anschlusses zwischen einem Staubsaugergrundkörper und einer Saugdüse oder zum Entriegeln eines Anschlusses zwischen einem Saugrohr und einer Saugdüse
US11259676B2 (en) * 2018-08-30 2022-03-01 Sensirion Ag Vacuum cleaner device
JP6961557B2 (ja) * 2018-09-18 2021-11-05 株式会社東芝 物品姿勢変更装置および物品姿勢変更方法
US20200100639A1 (en) * 2018-10-01 2020-04-02 International Business Machines Corporation Robotic vacuum cleaners
US20210339401A1 (en) * 2018-10-03 2021-11-04 Sony Group Corporation Mobile unit control device, mobile unit control method, and program
JP7225659B2 (ja) * 2018-10-11 2023-02-21 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
KR200491772Y1 (ko) * 2018-11-02 2020-06-02 이유석 인공지능 스피커 및/또는 적외선 송신 모듈이 장착 가능한 로봇 청소기
KR102168795B1 (ko) * 2018-11-16 2020-10-22 메타로보틱스 주식회사 가축전염병 예방을 위한 무인주행 소독 로봇시스템
USD938115S1 (en) 2018-11-30 2021-12-07 Irobot Corporation Autonomous floor cleaning robot
CN115429159A (zh) * 2018-12-05 2022-12-06 科沃斯机器人股份有限公司 机器人作业方法、机器人和存储介质
CN111319046B (zh) * 2018-12-13 2023-07-07 深圳小牛黑科技有限公司 一种机器人香薰及控制方法
KR102148010B1 (ko) * 2018-12-20 2020-08-26 동의대학교 산학협력단 클라우드 서버 기반의 무인이동체 IoT 서비스를 위한 장치 및 방법
KR102368856B1 (ko) * 2018-12-31 2022-03-02 주식회사 도구공간 오브젝트 탐지 방법 및 장치
KR102234641B1 (ko) * 2019-01-17 2021-03-31 엘지전자 주식회사 이동 로봇 및 복수의 이동 로봇의 제어방법
CN109700385A (zh) * 2019-01-28 2019-05-03 珠海格力电器股份有限公司 基于微波雷达的清扫设备的控制方法以及装置
KR102198439B1 (ko) * 2019-01-29 2021-01-05 성창경 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법
JP2020121375A (ja) * 2019-01-30 2020-08-13 株式会社Preferred Networks 制御装置、制御対象装置、制御方法及びプログラム
KR102267690B1 (ko) * 2019-02-20 2021-06-22 엘지전자 주식회사 복수의 자율주행 이동 로봇
KR20200115696A (ko) 2019-03-07 2020-10-08 삼성전자주식회사 전자 장치 및 그 제어 방법
DE102019203797B4 (de) * 2019-03-20 2021-01-21 Edag Engineering Gmbh Antriebsvorrichtung für ein Verkehrsmittelwechselsystem und Verkehrsmittelwechselsystem
KR102217540B1 (ko) * 2019-05-07 2021-02-19 엘지전자 주식회사 이동 로봇 및 복수의 이동 로봇의 제어방법
WO2020241933A1 (ko) 2019-05-30 2020-12-03 엘지전자 주식회사 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법
JP7221817B2 (ja) * 2019-07-01 2023-02-14 東芝ライフスタイル株式会社 自律型掃除機
KR102317723B1 (ko) * 2019-07-04 2021-10-25 엘지전자 주식회사 이동로봇 및 그의 제어방법
KR102306437B1 (ko) * 2019-07-05 2021-09-28 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN110464263A (zh) * 2019-08-21 2019-11-19 深圳乐动机器人有限公司 一种控制机器人清洁的方法及机器人
JP6947205B2 (ja) * 2019-08-26 2021-10-13 ダイキン工業株式会社 空気調和システム、および、空気調和システムを用いた情報提供方法
US11480431B1 (en) * 2019-08-27 2022-10-25 Alarm.Com Incorporated Lighting adaptive navigation
JP7191794B2 (ja) * 2019-09-04 2022-12-19 本田技研工業株式会社 自律除雪機
WO2021044953A1 (ja) * 2019-09-06 2021-03-11 ソニー株式会社 情報処理システム及び情報処理方法
CN210836195U (zh) * 2019-09-20 2020-06-23 宁波八益集团有限公司 档案库房机器人管理***
KR102330901B1 (ko) * 2019-09-27 2021-11-26 엘지전자 주식회사 이동로봇
KR102295824B1 (ko) 2019-12-06 2021-08-31 엘지전자 주식회사 잔디깎기 로봇의 지도 생성방법
CN112971611A (zh) * 2019-12-12 2021-06-18 苏州宝时得电动工具有限公司 用于收纳地面清理机器人的基站和地面清理机器人***
KR20210099470A (ko) * 2020-02-04 2021-08-12 엘지전자 주식회사 청소기
KR20210099787A (ko) * 2020-02-05 2021-08-13 삼성전자주식회사 안전 서비스를 제공하는 전자 장치 및 그 방법
US11561102B1 (en) 2020-04-17 2023-01-24 AI Incorporated Discovering and plotting the boundary of an enclosure
KR102421519B1 (ko) * 2020-05-26 2022-07-15 엘지전자 주식회사 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법
CN111672192B (zh) * 2020-05-28 2021-11-02 佛山市百斯特电器科技有限公司 洗涤设备的清洁提醒方法及装置
AU2021301912A1 (en) * 2020-07-01 2023-02-09 Lg Electronics Inc. Robot cleaner, robot cleaner system including same, and method for controlling robot cleaner system
KR20220003250A (ko) * 2020-07-01 2022-01-10 엘지전자 주식회사 로봇 청소기와 이를 구비하는 로봇 청소기 시스템
AU2021299590A1 (en) * 2020-07-01 2023-02-09 Lg Electronics Inc. Robot cleaner, system for controlling robot cleaner, and method for controlling robot cleaner
ES2893051A1 (es) * 2020-07-28 2022-02-07 Cecotec Res And Development Estacion de carga para robot aspirador
GB2604412A (en) * 2020-08-19 2022-09-07 Zhejiang Ubp New Energy Tech Co Ltd Cleaning system and cleaning robot
CN111973087B (zh) * 2020-08-19 2021-11-30 浙江明鹏新能源科技有限公司 清扫***及清洁机器人
GB2600734B (en) 2020-11-06 2022-12-07 Dyson Technology Ltd Robotic surface treating system
GB2600735B (en) 2020-11-06 2023-07-19 Dyson Technology Ltd Robotic surface treating system
GB2600733B (en) 2020-11-06 2023-04-19 Dyson Technology Ltd Robotic vacuum cleaning system
GB2600732B (en) 2020-11-06 2023-04-19 Dyson Technology Ltd Robotic vacuum cleaning system
GB2600731B (en) 2020-11-06 2023-04-19 Dyson Technology Ltd Robotic vacuum cleaning system
GB2600736B (en) 2020-11-06 2023-04-19 Dyson Technology Ltd Robotic surface treating system
GB2600739B (en) 2020-11-06 2022-12-07 Dyson Technology Ltd Robotic surface treating system
GB2600737B (en) 2020-11-06 2023-07-12 Dyson Technology Ltd Robotic surface treating system
GB2600729B (en) 2020-11-06 2023-07-12 Dyson Technology Ltd Robotic vacuum cleaning system
GB2600738B (en) 2020-11-06 2023-07-12 Dyson Technology Ltd Robotic surface treating system
GB2600730B (en) 2020-11-06 2023-04-19 Dyson Technology Ltd Robotic vacuum cleaning system
US20220142422A1 (en) * 2020-11-06 2022-05-12 Mark Jeffery Giarritta Automatic multi-attachment changing station
KR102478747B1 (ko) * 2020-11-20 2022-12-20 한국광기술원 드론 연동 방식 3차원 공간 청소 로봇 및 그 구동 방법
JP7452409B2 (ja) * 2020-12-25 2024-03-19 トヨタ自動車株式会社 タスクシステム、制御方法及び制御プログラム
DE102021102655A1 (de) * 2021-02-04 2022-08-04 Vorwerk & Co. Interholding Gesellschaft mit beschränkter Haftung System zum Reinigen einer Umgebung
CN113459123B (zh) * 2021-07-14 2022-11-18 浙江同济科技职业学院 一种便于移动控制的家居看护机器人
CN113633224A (zh) * 2021-08-06 2021-11-12 珠海一微半导体股份有限公司 可重构的清洁机器人***及控制方法
CN113757976B (zh) * 2021-09-14 2022-11-18 重庆海尔空调器有限公司 空调物联控制方法、控制***、电子设备和存储介质
CN114052566B (zh) * 2021-11-04 2023-09-26 青岛海尔空调器有限总公司 用于智能移动设备的控制方法及装置、***、移动设备
CN113995343B (zh) * 2021-11-15 2022-10-14 上海景吾智能科技有限公司 清洁类机器人电动夹爪结构
CN114296442B (zh) * 2021-11-15 2023-08-11 珠海格力电器股份有限公司 一种床被除螨机器人的控制方法
KR20230073598A (ko) 2021-11-19 2023-05-26 주식회사 아이테크 열풍 건조식 물기제거 청소기
WO2023110103A1 (en) * 2021-12-16 2023-06-22 Aktiebolaget Electrolux Robotic cleaning device with controllable arm
WO2023125698A1 (zh) * 2021-12-28 2023-07-06 美智纵横科技有限责任公司 清洁设备及其控制方法和控制装置
CN115486763A (zh) * 2022-08-26 2022-12-20 珠海格力电器股份有限公司 一种扫地机器人路线规划方法、装置、扫地机器人及***
KR20240052418A (ko) 2022-10-14 2024-04-23 엘지전자 주식회사 로봇

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070096272A (ko) * 2006-03-23 2007-10-02 김재윤 실내 환경개선 및 자동제어 로봇시스템
US20100256812A1 (en) * 2008-08-08 2010-10-07 Yuko Tsusaka Control device and control method for cleaner, cleaner, control program for cleaner, and integrated electronic circuit
KR101349671B1 (ko) * 2012-08-24 2014-01-16 전자부품연구원 작업 영역 판별을 이용한 건물 외벽에 대한 관리 작업 수행 장치 및 방법
KR20150026528A (ko) * 2013-09-03 2015-03-11 엘지전자 주식회사 로봇 청소기, 이동 단말기 및 그 동작방법
KR20150075639A (ko) * 2013-12-26 2015-07-06 주식회사 라스테크 협동로봇 제어시스템

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005211498A (ja) * 2004-01-30 2005-08-11 Funai Electric Co Ltd 自走式掃除機
KR100664053B1 (ko) * 2004-09-23 2007-01-03 엘지전자 주식회사 로봇청소기의 청소툴 자동 교환 시스템 및 방법
EP2027806A1 (en) * 2006-04-04 2009-02-25 Samsung Electronics Co., Ltd. Robot cleaner system having robot cleaner and docking station
KR20070101002A (ko) * 2006-04-10 2007-10-16 이바도 위성 방식의 청소로봇 시스템
CN202053254U (zh) * 2010-11-25 2011-11-30 上海领派机电科技有限公司 一种服务型机械手
CN202397386U (zh) 2011-08-26 2012-08-29 上海电机学院 智能吸盘式擦洗机
JP5968627B2 (ja) * 2012-01-17 2016-08-10 シャープ株式会社 掃除機、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2015535373A (ja) 2012-10-05 2015-12-10 アイロボット コーポレイション 移動ロボットを含むドッキングステーション姿勢を決定するためのロボット管理システムとこれを用いる方法
CN203074576U (zh) * 2012-12-19 2013-07-24 南昌航空大学 多功能清洁机器人
CN109965778B (zh) 2013-01-18 2022-08-16 艾罗伯特公司 包括移动机器人的环境管理***以及其使用方法
CN104460663A (zh) * 2013-09-23 2015-03-25 科沃斯机器人科技(苏州)有限公司 智能手机控制清扫机器人的方法
CN104714411A (zh) * 2013-12-13 2015-06-17 青岛海尔机器人有限公司 一种智能家居机器人
CN204685531U (zh) * 2015-04-09 2015-10-07 徐州德坤电气科技有限公司 智能自动清洁单元清洁机械手
KR101654012B1 (ko) * 2015-05-20 2016-09-09 주식회사 파인로보틱스 걸레 로봇 청소기
JP2016220174A (ja) * 2015-05-26 2016-12-22 株式会社東芝 家電制御方法及び家電制御装置
KR101706966B1 (ko) * 2015-07-17 2017-02-15 엘지전자 주식회사 로봇 청소기
EP3695766A4 (en) * 2017-10-13 2021-05-05 Chiba Institute of Technology SELF-PROPELLED VACUUM CLEANER

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070096272A (ko) * 2006-03-23 2007-10-02 김재윤 실내 환경개선 및 자동제어 로봇시스템
US20100256812A1 (en) * 2008-08-08 2010-10-07 Yuko Tsusaka Control device and control method for cleaner, cleaner, control program for cleaner, and integrated electronic circuit
KR101349671B1 (ko) * 2012-08-24 2014-01-16 전자부품연구원 작업 영역 판별을 이용한 건물 외벽에 대한 관리 작업 수행 장치 및 방법
KR20150026528A (ko) * 2013-09-03 2015-03-11 엘지전자 주식회사 로봇 청소기, 이동 단말기 및 그 동작방법
KR20150075639A (ko) * 2013-12-26 2015-07-06 주식회사 라스테크 협동로봇 제어시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3342324A4 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2018203588B2 (en) * 2017-06-05 2019-11-14 Bissell Inc. Autonomous floor cleaning system
CN108968805B (zh) * 2017-06-05 2021-01-05 碧洁家庭护理有限公司 自主地板清洁***
AU2019257434B2 (en) * 2017-06-05 2020-10-15 Bissell Homecare, Inc. Autonomous floor cleaning system
EP3653098A1 (en) * 2017-06-05 2020-05-20 Bissell Homecare, Inc. Autonomous floor cleaning system
US10602898B2 (en) 2017-06-05 2020-03-31 Bissell Homecare, Inc. Autonomous floor cleaning system
CN108968805A (zh) * 2017-06-05 2018-12-11 碧洁家庭护理有限公司 自主地板清洁***
EP3437537A1 (en) * 2017-06-05 2019-02-06 Bissell Homecare, Inc. Autonomous floor cleaning system
CN109079772A (zh) * 2017-06-14 2018-12-25 深圳乐动机器人有限公司 机器人及机器人***
CN109124458A (zh) * 2017-06-16 2019-01-04 德国福维克控股公司 具有至少两个自主行进的地面处理设备的***
CN109124488B (zh) * 2017-06-16 2022-04-12 德国福维克控股公司 具有至少两个地面处理装置的***和运行该***的方法
CN109124488A (zh) * 2017-06-16 2019-01-04 德国福维克控股公司 具有至少两个地面处理装置的***
DE102017113288A1 (de) * 2017-06-16 2018-12-20 Vorwerk & Co. Interholding Gmbh System mit mindestens zwei Bodenbearbeitungseinrichtungen
EP3416019A1 (de) * 2017-06-16 2018-12-19 Vorwerk & Co. Interholding GmbH System mit mindestens zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten
EP3415070A1 (de) * 2017-06-16 2018-12-19 Vorwerk & Co. Interholding GmbH System mit mindestens zwei bodenbearbeitungseinrichtungen
US11380320B2 (en) 2017-09-25 2022-07-05 Positec Power Tools (Suzhou) Co., Ltd. Electric tool system, charger, electric tool, and voice control method thereof, automatic working system, charging station, self-moving device, and voice control method thereof
EP3690597A4 (en) * 2017-09-25 2021-06-09 Positec Power Tools (Suzhou) Co., Ltd POWER TOOL SYSTEM, CHARGER, POWER TOOL AND ASSOCIATED VOICE COMMAND PROCESS, AND AUTOMATIC WORK SYSTEM, CHARGING STATION, AUTOMATIC MOVING DEVICE AND ASSOCIATED VOICE COMMAND PROCESS
US11656082B1 (en) * 2017-10-17 2023-05-23 AI Incorporated Method for constructing a map while performing work
EP3727122A4 (en) * 2017-12-18 2021-08-11 LG Electronics Inc. ROBOT CLEANERS AND THEIR CONTROL PROCESS
EP3508938B1 (en) * 2018-01-05 2022-09-28 iRobot Corporation Mobile cleaning robot teaming and persistent mapping
US11614746B2 (en) 2018-01-05 2023-03-28 Irobot Corporation Mobile cleaning robot teaming and persistent mapping
US11538350B2 (en) * 2018-11-08 2022-12-27 Hyundai Motor Company Service robot and method for operating thereof
US20200152073A1 (en) * 2018-11-08 2020-05-14 Hyundai Motor Company Service robot and method for operating thereof
US11308788B2 (en) 2019-02-06 2022-04-19 Ecolab Usa Inc. Hygiene management for reducing illnesses and infections caused by ineffective hygiene practices
US11430321B2 (en) 2019-02-06 2022-08-30 Ecolab Usa Inc. Reducing illnesses and infections caused by ineffective cleaning by tracking and controlling cleaning efficacy
US11804124B2 (en) 2019-02-06 2023-10-31 Ecolab Usa Inc. Reducing illnesses and infections caused by ineffective cleaning by tracking and controlling cleaning efficacy
CN110780779A (zh) * 2019-09-25 2020-02-11 北京爱接力科技发展有限公司 一种机器人服务方法、装置和机器人终端
WO2021068699A1 (zh) * 2019-10-08 2021-04-15 炬星科技(深圳)有限公司 机器人控制方法、电子设备及计算机可读存储介质

Also Published As

Publication number Publication date
KR20170048815A (ko) 2017-05-10
EP3342324C0 (en) 2024-01-17
US20180317725A1 (en) 2018-11-08
AU2016346447B2 (en) 2021-12-16
KR102521493B1 (ko) 2023-04-14
EP3342324B1 (en) 2024-01-17
EP3342324A4 (en) 2019-02-13
AU2016346447A1 (en) 2018-04-26
CN108366707A (zh) 2018-08-03
US11019972B2 (en) 2021-06-01
CN108366707B (zh) 2022-03-08
EP3342324A1 (en) 2018-07-04

Similar Documents

Publication Publication Date Title
WO2017073955A1 (ko) 청소 로봇 및 그 제어방법
WO2020222340A1 (ko) 인공지능 로봇과 그의 제어 방법
AU2019336870B2 (en) Plurality of autonomous mobile robots and controlling method for the same
WO2018101776A1 (en) Apparatus and method for controlling light
WO2016122143A1 (en) Method and apparatus for improving and monitoring sleep
WO2020218652A1 (ko) 공기 청정기
WO2017200353A1 (ko) 로봇 청소기
WO2015178562A1 (en) Method and apparatus for providing notification
WO2014175605A1 (en) Cleaning robot, home monitoring apparatus, and method for controlling the cleaning robot
EP3250110A1 (en) Method and apparatus for improving and monitoring sleep
WO2020050494A1 (en) A robot cleaner and a controlling method for the same
WO2016111556A1 (en) Method of wirelessly connecting devices, and device thereof
WO2017010760A1 (en) Hub apparatus and method for providing service thereof
WO2021261747A1 (ko) 슈즈 케어 장치 및 방법
WO2019151845A2 (ko) 에어컨
WO2016089083A1 (en) Attachment device and method for controlling electronic device thereof
WO2019050227A1 (ko) 공기조화기의 동작 방법
WO2021261745A1 (ko) 슈즈 케어 장치 및 방법
WO2018048098A1 (en) Portable camera and controlling method therefor
WO2020004895A1 (ko) 로봇
WO2022075758A1 (ko) 전자 장치 및 이의 제어 방법
WO2019004773A1 (ko) 이동 단말기 및 이를 포함하는 로봇 시스템
WO2023101228A1 (ko) 로봇 친화형 건물, 복수의 로봇들을 이용한 협업 방법 및 시스템
EP3320655A1 (en) Hub apparatus and method for providing service thereof
WO2021261749A1 (ko) 슈즈 케어 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16860138

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2016860138

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016346447

Country of ref document: AU

Date of ref document: 20161020

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15771350

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE