RU2620236C1 - Система автоматической уборки, робот-уборщик и способ управления роботом-уборщиком - Google Patents

Система автоматической уборки, робот-уборщик и способ управления роботом-уборщиком Download PDF

Info

Publication number
RU2620236C1
RU2620236C1 RU2016102803A RU2016102803A RU2620236C1 RU 2620236 C1 RU2620236 C1 RU 2620236C1 RU 2016102803 A RU2016102803 A RU 2016102803A RU 2016102803 A RU2016102803 A RU 2016102803A RU 2620236 C1 RU2620236 C1 RU 2620236C1
Authority
RU
Russia
Prior art keywords
user
image
robot cleaner
cleaning
area
Prior art date
Application number
RU2016102803A
Other languages
English (en)
Inventor
Санг Сик ЙООН
Воо Рам ЧУНГ
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Application granted granted Critical
Publication of RU2620236C1 publication Critical patent/RU2620236C1/ru

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2857User input or output elements for control, e.g. buttons, switches or displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39441Voice command, camera detects object, grasp, move
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45098Vacuum cleaning robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Abstract

Предложен робот-уборщик, который включает блок передвижения, блок уборки, блок захвата изображения, видимого от робота-уборщика, блок голосового ввода инструкций пользователя и средство управления. Средство управления получает инструкции движения пользователя через блок захвата изображения и определяет ограниченную зону, в которую вход робота-уборщика запрещен, и/или зону концентрированной уборки, которая должна быть тщательно убрана роботом-уборщиком, на основе инструкций движения пользователя или голосовых инструкций пользователя. Ограниченная зона и зона концентрированной уборки могут вводиться в робот-уборщик посредством голоса и движения пользователя. 3 н. и 23 з.п. ф-лы, 29 ил.

Description

Область техники, к которой относится изобретение
[1] Следующее описание относится к роботу-уборщику и, в частности, к роботу-уборщику, который определяет ограниченную зону и зону концентрированной уборки робота-уборщика путем обнаружения движения пользователя.
Уровень техники
[2] Робот-уборщик является устройством, которое передвигается по пространству, которое должно быть убрано, для автоматической уборки пространства, которое должно быть убрано, путем засасывания инородных тел, включающих в себя пыль, с пола без манипуляций пользователя. То есть робот-уборщик осуществляет уборку пространства, которое должно быть убрано, во время передвижения в пространстве, которое должно быть убрано.
[3] Для робота-уборщика согласно уровню техники лента препятствования входу прикрепляется к полу в отношении ограниченной зоны, в которую роботу-уборщику запрещен вход, такой как лестница или веранда. Однако установление ограниченной зоны робота-уборщика с использованием ленты препятствования входу, таким образом, порождает дискомфорт и неудобство прикрепления и повторного прикрепления ленты препятствования входу пользователем, когда пользователь хочет изменить ограниченную зону.
[4] Кроме того, в роботе-уборщике согласно уровню техники, когда существует зона, которая должна быть более тщательно убрана или быть убрана в первую очередь пользователем, существуют неудобства в том, что роботом-уборщиком необходимо вручную манипулировать, и он должен быть перемещен в зону, которая должна быть более тщательно убрана или быть убрана в первую очередь пользователем, и затем инструкции концентрированной уборки должны быть даны роботу-уборщику.
Раскрытие изобретения
Техническая проблема
[5] Аспектом настоящего раскрытия является обеспечение робота-уборщика, который имеет возможность определения ограниченной зоны и зоны концентрированной уборки робота-уборщика путем обнаружения голоса или движения пользователя или в котором ограниченная зона и зона концентрированной уборки могут быть легко установлены с использованием портативного мобильного терминала.
[6] Дополнительные аспекты раскрытия будут частично изложены в описании, которое следует далее, и частично будут очевидны из описания или могут быть поняты путем применения раскрытия на практике.
Решение проблемы
[7] В соответствии с одним аспектом настоящего раскрытия обеспечен робот-уборщик, который выполняет уборку во время передвижения в пространстве, которое должно быть убрано, причем робот-уборщик включает в себя: блок передвижения, который обеспечивает перемещение робота-уборщика; блок уборки, который обеспечивает уборку пространства, которое должно быть убрано; блок захвата изображения, который захватывает изображение, видимое от робота-уборщика; блок голосового ввода, в который вводятся голосовые инструкции пользователя; и средство управления, которое получает инструкции движения пользователя через блок захвата изображения, когда голосовые инструкции пользователя вводятся через блок голосового ввода, и определяет ограниченную зону и/или зону концентрированной уборки на основе инструкций движения пользователя.
[8] Блок голосового ввода может включать в себя по меньшей мере три микрофона, в которые вводятся голосовые инструкции пользователя.
[9] Средство управления может оценивать позицию пользователя на основе разницы во времени, в которое голосовые инструкции пользователя вводятся в по меньшей мере три микрофона.
[10] Средство управления может управлять блоком передвижения для вращения робота-уборщика так, чтобы блок захвата изображения был направлен в сторону позиции пользователя.
[11] Блок захвата изображения может включать в себя камеру, которая захватывает двухмерное изображение пользователя, и инфракрасный датчик, который получает информацию расстояния пользователя, захваченного камерой.
[12] Средство управления может обнаруживать движение пользователя на основе изображения пользователя, захваченного блоком захвата изображения, и информации расстояния пользователя, полученной блоком захвата изображения.
[13] Средство управления может обнаруживать руку и плечо пользователя с изображения пользователя и может определять координаты руки и плеча пользователя на основе информации расстояния пользователя.
[14] Средство управления может определять зону, инструкцию о которой дал пользователь, на основе координат руки и плеча пользователя и может определять зону, инструкцию о которой дал пользователь, в качестве ограниченной зоны и/или зоны концентрированной уборки.
[15] В соответствии с другим аспектом настоящего раскрытия обеспечен способ управления роботом-уборщиком, который выполняет уборку во время передвижения около пространства, которое должно быть убрано, причем способ включает в себя: когда голосовые инструкции вводятся от пользователя, получение изображения пользователя; получение движения пользователя на основе изображения; определение ограниченной зоны, в которую вход робота-уборщика запрещен, и/или зоны концентрированной уборки, которая должна быть тщательно убрана роботом-уборщиком, на основе голосовых инструкций пользователя и изображения пользователя.
[16] Получение изображения может включать в себя: определение позиции пользователя на основе разницы во времени, в которое голосовые инструкции пользователя вводятся в множество микрофонов; вращение робота-уборщика в направлении позиции пользователя; получение изображения пользователя; излучение инфракрасных лучей в направлении пользователя; и получение информации расстояния пользователя на основе инфракрасных лучей, отраженных от пользователя.
[17] Получение движения пользователя может включать в себя: обнаружение руки и плеча пользователя с изображения пользователя; и определение координат руки и плеча пользователя с использованием информации расстояния пользователя.
[18] Определение ограниченной зоны и/или зоны концентрированной уборки может включать в себя: определение зоны, инструкцию о которой дал пользователь, на основе координат руки и плеча пользователя; и определение зоны, инструкцию о которой дал пользователь, в качестве ограниченной зоны и/или зоны концентрированной уборки.
[19] Способ может дополнительно включать в себя: отображение изображения пространства, которое должно быть убрано; и прием ограниченной зоны и/или зоны концентрированной уборки от пользователя в отношении изображения пространства, которое должно быть убрано.
[20] Способ может дополнительно включать в себя определение координат зоны концентрированной уборки и/или ограниченной зоны в пространстве, которое должно быть убрано, на основе координат зоны концентрированной уборки и/или ограниченной зоны, введенных в отношении изображения пространства, которое должно быть убрано.
[21] Способ может дополнительно включать в себя отображение изображения ограниченной зоны и/или зоны концентрированной уборки поверх изображения пространства, которое должно быть убрано.
[22] В соответствии с еще одним аспектом настоящего раскрытия система автоматической уборки включает в себя: робот-уборщик, который выполняет уборку во время передвижения около пространства, которое должно быть убрано; и портативный мобильный терминал, который управляет роботом-уборщиком удаленным образом, причем, когда входные инструкции зоны концентрированной уборки и/или входные инструкции ограниченной зоны вводятся от пользователя, робот-уборщик захватывает изображение пространства, которое должно быть убрано, и передает изображение пространства, которое должно быть убрано, портативному мобильному терминалу, и когда изображение пространства, которое должно быть убрано, принимается, портативный мобильный терминал отображает изображение пространства, которое должно быть убрано, и принимает зону концентрированной уборки и/или ограниченную зону от пользователя.
[23] Робот-уборщик может включать в себя блок захвата изображения, который захватывает изображение пространства, которое должно быть убрано, и принимает инструкции движения пользователя, и блок голосового ввода, который принимает голосовые инструкции пользователя, и робот-уборщик может определять ограниченную зону и/или зону концентрированной уборки на основе голосовых инструкций, введенных через блок голосового ввода, и инструкций движения, введенных через блок захвата изображения.
[24] Когда голосовые инструкции вводятся через блок голосового ввода, робот-уборщик может вращаться в направлении пользователя и может принимать инструкции движения через блок захвата изображения.
[25] Портативный мобильный терминал может включать в себя сенсорную экранную панель, на которой изображение пространства, которое должно быть убрано, отображается и инструкции манипуляции принимаются от пользователя, и когда зона концентрированной уборки и/или ограниченная зона вводится посредством сенсорной экранной панели, зона концентрированной уборки и/или ограниченная зона может наложенным образом отображаться на изображении пространства, которое должно быть убрано, посредством сенсорной экранной панели.
[26] Портативный мобильный терминал может определять абсолютные координаты в пространстве, которое должно быть убрано, которые соответствуют зоне концентрированной уборки и/или ограниченной зоне.
[27] Портативный мобильный терминал может определять координаты зоны концентрированной уборки и/или ограниченная зона на изображении с сенсорной экранной панели, может определять относительные координаты зоны концентрированной уборки и/или ограниченной зоны, в которых робот-уборщик устанавливается в качестве начала координат, на основе координат на изображении, и может определять абсолютные координаты зоны концентрированной уборки и/или ограниченной зоны в пространстве, которое должно быть убрано, на основе относительных координат и позиции робота-уборщика.
[28] Согласно роботу-уборщику в соответствии с одним аспектом настоящего раскрытия, робот-уборщик может принимать ограниченную зону и зону концентрированной уборки посредством голоса и движения пользователя.
[29] Согласно роботу-уборщику в соответствии с другим аспектом настоящего раскрытия, робот-уборщик может принимать ограниченную зону и зону концентрированной уборки путем всего лишь простой манипуляции посредством портативного мобильного терминала пользователя.
Полезные эффекты изобретения
[30] Согласно одному аспекту одного или нескольких примерных вариантов осуществления, возможно обеспечение робота-уборщика, который имеет возможность определения ограниченной зоны и зоны концентрированной уборки робота-уборщика путем обнаружения голоса или движения пользователя или в котором ограниченная зона и зона концентрированной уборки могут быть легко установлены с использованием портативного мобильного терминала.
Краткое описание чертежей
[31] Эти и/или другие аспекты раскрытия станут очевидны и легче понимаемы из последующего описания вариантов осуществления, воспринимаемого в сочетании с сопроводительными чертежами, где:
[32] фиг.1 схематически изображает робот-уборщик и портативный мобильный терминал в соответствии с вариантом осуществления настоящего раскрытия;
[33] фиг.2A изображает структурную схему потока управления робота-уборщика, изображенного на фиг.1;
[34] фиг.2B изображает структурную схему, иллюстрирующую конфигурацию средства управления робота-уборщика с фиг.1;
[35] фиг.3 изображает вид в перспективе, иллюстрирующий внешнюю часть робота-уборщика с фиг.1;
[36] фиг.4 изображает вид снизу, иллюстрирующий нижнюю часть робота-уборщика с фиг.1;
[37] фиг.5 изображает структурную схему, иллюстрирующую поток управления портативного мобильного терминала, изображенного на фиг.1;
[38] фиг.6 изображает вид в перспективе, иллюстрирующий внешнюю часть портативного мобильного терминала с фиг.1;
[39] фиг.7 изображает случай, в котором робот-уборщик с фиг.1 принимает голосовые инструкции от пользователя;
[40] фиг.8A, 8B и 8C изображают случай, в котором робот-уборщик с фиг.1 определяет позицию пользователя через голосовые инструкции пользователя;
[41] фиг.9 изображает случай, в котором робот-уборщик с фиг.1 получает изображение и голос пользователя;
[42] фиг.10A и 10B и фиг.11A и 11B изображают случай, в котором робот-уборщик с фиг.1 определяет координаты зоны, инструкцию о которой дал пользователь, с изображения пользователя;
[43] фиг.12 изображает случай, в котором робот-уборщик с фиг.1 передает изображение пользователя и изображение пространства, которое должно быть убрано, и информацию, касающуюся зоны, инструкцию о которой дал пользователь, портативному мобильному терминалу;
[44] фиг.13 изображает случай, в котором робот-уборщик с фиг.1 и портативный мобильный терминал с фиг.1 отображают изображение пространства, которое должно быть убрано, и информацию, касающуюся зоны, инструкцию о которой дал пользователь;
[45] фиг.14 изображает случай, в котором информация, касающаяся зоны концентрированной уборки, вводится в портативный мобильный терминал с фиг.1;
[46] фиг.15 и 16 изображают случай, в котором информация, касающаяся ограниченной зоны, вводится в портативный мобильный терминал с фиг.1;
[47] фиг.17 изображает экран, на котором портативный мобильный терминал с фиг.1 отображает зону концентрированной уборки и ограниченную зону;
[48] фиг.18 изображает блок-схему, иллюстрирующую способ ввода и отображения зоны концентрированной уборки и ограниченной зоны с использованием робота-уборщика и портативного мобильного терминала с фиг.1 в соответствии с вариантом осуществления настоящего раскрытия;
[49] фиг.19 изображает случай, в котором робот-уборщик с фиг.1 принимает инструкции манипуляции от пользователя через портативный мобильный терминал;
[50] фиг.20 изображает экран, на котором информация, касающаяся зоны концентрированной уборки, вводится через портативный мобильный терминал с фиг.1;
[51] фиг.21 и 22 изображают экран, на котором информация, касающаяся ограниченной зоны, вводится через портативный мобильный терминал с фиг.1;
[52] фиг.23 изображает экран, на котором портативный мобильный терминал с фиг.1 отображает зону концентрированной уборки и ограниченную зону; и
[53] фиг.24 изображает блок-схему, иллюстрирующую способ введения и отображения зоны концентрированной уборки и ограниченной зоны с использованием робота-уборщика и портативного мобильного терминала с фиг.1 в соответствии с другим вариантом осуществления настоящего раскрытия.
Предпочтительный вариант осуществления изобретения
[54] Конфигурации, показанные в одном или нескольких вариантах осуществления и на чертежах настоящего раскрытия, являются лишь примерными вариантами осуществления раскрываемого раскрытия, и следует понимать, что существуют различные модифицированные примеры, которые могут заменить варианты осуществления и чертежи настоящего раскрытия во время подачи настоящей заявки.
[55] Теперь будет подробно сделана ссылка на один или несколько вариантов осуществления настоящего раскрытия, примеры которых иллюстрируются на сопроводительных чертежах, причем подобные ссылочные позиции относятся к подобным компонентам во всей работе.
[56] Фиг.1 схематически изображает робот-уборщик и портативный мобильный терминал в соответствии с вариантом осуществления настоящего раскрытия.
[57] Робот-уборщик 100, изображенный на фиг.1, является устройством, которое счищает пыль с пола во время передвижения в пространстве, которое должно быть убрано, без манипуляции пользователя. Кроме того, робот-уборщик 100 принимает инструкции манипуляции от пользователя U, такие как движение или голос пользователя, и выполняет уборку согласно инструкциям манипуляции пользователя.
[58] Подробно, робот-уборщик 100 захватывает изображение, включающее в себя пользователя U и пространство, которое должно быть убрано, с использованием блока захвата изображения, такого как камера или видеокамера, и анализирует движение пользователя, включенного в захваченное изображение, с целью обнаружения инструкций манипуляции, которые в качестве инструкций дал пользователь U. Изображение может включать в себя другие объекты, такие как диван S и стол T. Когда инструкции манипуляции пользователя U обнаруживаются, робот-уборщик 100 осуществляет уборку в пространстве, которое должно быть убрано, согласно обнаруженным инструкциям манипуляции. Кроме того, робот-уборщик 100 передает захваченное изображение и обнаруженные инструкции манипуляции портативному мобильному терминалу 200 пользователя U так, чтобы пользователь U мог проверять операцию робота-уборщика 100. Дополнительно, пользователь U может проверять операцию робота-уборщика 100 посредством портативного мобильного терминала 200 и может вводить инструкции манипуляции для робота-уборщика 100 посредством портативного мобильного терминала 200.
[59] Фиг.2A изображает структурную схему потока управления робота-уборщика, изображенного на фиг.1, фиг.2B изображает структурную схему, иллюстрирующую конфигурацию средства управления робота-уборщика с фиг.1, фиг.3 изображает вид в перспективе, иллюстрирующий внешнюю часть робота-уборщика с фиг.1, и фиг.4 изображает вид снизу, иллюстрирующий нижнюю часть робота-уборщика с фиг.1.
[60] Со ссылкой на фиг.2A-4, робот-уборщик 100 включает в себя блок 110 манипуляции, который принимает инструкции манипуляции для робота-уборщика 100 от пользователя U, блок 115 отображения, который отображает информацию, включающую в себя операционную информацию робота-уборщика 100, пользователю U, блок 120 восходящего захвата изображения, который захватывает изображение в восходящем направлении от робота-уборщика 100, блок 130 захвата изображения, который захватывает изображение, видимое от робота-уборщика 100, блок 140 голосового ввода, который принимает голосовые инструкции пользователя, блок 150 обнаружения препятствия, который обнаруживает препятствие в пространстве, которое должно быть убрано, блок 160 передвижения, который обеспечивает перемещение робота-уборщика 100, блок 170 уборки, который обеспечивает уборку пространства, которое должно быть убрано, блок 180 хранения робота, который хранит программы и данные для операции робота-уборщика 100, блок 185 связи робота, который осуществляет связь с портативным мобильным терминалом (см. 200 с фиг.1), и средство 190 управления роботом, которое управляет операцией робота-уборщика 100.
[61] Блок 110 манипуляции может включать в себя одну или несколько кнопок 111 манипуляции, через которые инструкции манипуляции для робота-уборщика 100 вводятся от пользователя U. Кнопки 111 манипуляции могут включать в себя кнопку выбора режима уборки для выбора режима уборки робота-уборщика 100, кнопку инструкции операции/остановки для инструктирования операции и остановки робота-уборщика 100, и кнопку инструкции возврата на зарядку для инструктирования возврата на загрузочную станцию (не показана). В качестве дополнения к кнопкам 111 манипуляции, другие типы пользовательского интерфейса, такие как простая кнопка, мембранный переключатель или сенсорный экран, могут быть задействованы.
[62] Блок 115 отображения включает в себя панель 116 отображения, на которой информация, включающая в себя операционную информацию робота-уборщика 100, отображается пользователю U. Операционная информация робота-уборщика 100, включающая в себя текущее время, состояние аккумулятора и режим уборки, может отображаться на панели 116 отображения. В качестве панели 116 отображения панель жидкокристаллического дисплея (LCD) или панель светоизлучающих диодов (LED) может быть задействована.
[63] Блок 120 восходящего захвата изображения может включать в себя двухмерную камеру 121, которая расположена на верхней поверхности 101 робота-уборщика 100 и захватывает изображение в восходящем направлении от робота-уборщика 100, т. е. изображение потолка пространства, которое должно быть убрано. Дополнительно, блок 120 восходящего захвата изображения может включать в себя графический процессор (не показан), который обрабатывает изображение, захваченное двухмерной камерой 121, при необходимости. Графический процессор (не показан) может выполнять простую обработку изображений, такую как изменение размера или разрешения изображения, захваченного двухмерной камерой 121.
[64] Блок 130 захвата изображения может включать в себя трехмерную камеру 131, которая расположена на передней части робота-уборщика 100 и захватывает трехмерное изображение, видимое от робота-уборщика 100. Трехмерное изображение включает в себя информацию, касающуюся расстояния от двухмерного изображения объекта, который должен быть захвачен, до объекта, который должен быть захвачен. В качестве трехмерной камеры 131 может быть задействован модуль стереокамеры или модуль датчика удаленности.
[65] Модуль стереокамеры включает в себя множество двухмерных камер и определяет информацию расстояния, касающуюся объекта, который должен быть захвачен, с использованием разницы между изображениями, захваченными множеством двухмерных камер. Кроме того, модуль стереокамеры выводит информацию, касающуюся расстояния между одним из изображений, захваченных множеством двухмерных камер, и объектом, который должен быть захвачен.
[66] Модуль датчика удаленности включает в себя двухмерную камеру, которая захватывает изображение объекта, который должен быть захвачен, и инфракрасный датчик, который излучает инфракрасные лучи в сторону объекта, который должен быть захвачен, и обнаруживает размер инфракрасных лучей, отраженных от объекта, который должен быть захвачен, тем самым измеряя расстояние до объекта, который должен быть захвачен, на двухмерном изображении. Кроме того, модуль датчика удаленности выводит изображение, захваченное двухмерной камерой, и информацию расстояния, полученную инфракрасным датчиком.
[67] Блок 130 захвата изображения может дополнительно включать в себя графический процессор, который обрабатывает трехмерное изображение, захваченное трехмерной камерой 131, при необходимости.
[68] Блок 140 голосового ввода включает в себя множество микрофонов 141, 143 и 145, которые получают голос пользователя и определяют направление пользователя U. Подробно, блок 140 голосового ввода включает в себя передний микрофон 141, расположенный на передней части верхней поверхности робота-уборщика 100, левый микрофон 143, расположенный на левой части верхней поверхности робота-уборщика 100, и правый микрофон 145, расположенный на правой части верхней поверхности робота-уборщика 100. Эти микрофоны 141, 143 и 145 преобразуют сигналы голоса пользователя в электрические сигналы и выводят электрические сигналы. В этом случае микрофоны 141, 143 и 145 могут определять направление пользователя U с использованием, например, разницы во времени, в которое сигналы голоса пользователя вводятся в три микрофона 141, 143 и 145, и амплитуд голосовых сигналов.
[69] Блок 150 обнаружения препятствия включает в себя множество инфракрасных датчиков 151, которые излучают инфракрасные лучи и измеряют размер инфракрасных лучей, отраженных от препятствия, тем самым определяя присутствие препятствия и расстояние от препятствия до объекта, который должен быть захвачен. Множество инфракрасных датчиков 151 может быть установлено на передней части, правой части и левой части робота-уборщика 100 на равных интервалах, тем самым определяя позицию препятствия. То есть когда инфракрасный датчик 151, помещенный на передней части робота-уборщика 100, обнаруживает препятствие, может быть определено, что препятствие присутствует на передней части робота-уборщика 100, и когда инфракрасный датчик 151, помещенный на правой части робота-уборщика 100, обнаруживает препятствие, может быть определено, что препятствие присутствует на правой части робота-уборщика 100.
[70] Блок 160 передвижения включает в себя множество колес 161 и 163 передвижения, которые перемещают робот-уборщик 100, и барабан 165, который способствует перемещению робота-уборщика 100.
[71] Множество колес 161 и 163 передвижения расположено в правой и левой граничных частях нижней поверхности робота-уборщика 100 так, чтобы робот-уборщик 100 мог перемещаться вперед или назад или мог вращаться. Например, когда множество колес 161 и 163 передвижения вращается вперед, робот-уборщик 100 перемещается вперед, а когда множество колес 161 и 163 передвижения вращается назад, робот-уборщик 100 перемещается назад. Кроме того, когда множество колес 161 и 163 передвижения вращается в различных направлениях, робот-уборщик 100 может вращаться влево или вправо на месте.
[72] Барабан 165 установлен в передней части нижней поверхности робота-уборщика 100 и вращается согласно направлению перемещения робота-уборщика 100. Кроме того, барабан 165 может обеспечивать возможность роботу-уборщику 100 оставаться в устойчивой позиции.
[73] Блок 170 уборки включает в себя главную щетку 171, которая рассеивает пыль в пространстве, которое должно быть убрано, множество боковых щеток 173a и 173b, которые направляют пыль в пространстве, которое должно быть убрано, в сторону главной щетки 171, и пылеуловительную камеру 175, которая всасывает и удерживает пыль, рассеянную главной щеткой 171.
[74] Главная щетка 171 расположена у отверстия 103 всасывания пыли, сформированного в нижней поверхности робота-уборщика 100. Кроме того, главная щетка 171 рассеивает пыль в пространстве, которое должно быть убрано, в отверстие 103 всасывания пыли во время вращения вокруг стержня вращения, параллельного роботу-уборщику 100.
[75] Множество боковых щеток 173a и 173b установлено в левой и правой граничных частях передней стороны нижней поверхности робота-уборщика 100. То есть боковые щетки 173a и 173b установлены приблизительно спереди от множества колес 161 и 163 перемещения. Боковые щетки 173a и 173b сметают пыль в зоне уборки, которая не может быть очищена главной щеткой 171, и направляют пыль в сторону главной щетки 171 во время вращения вокруг стержня вращения, перпендикулярного роботу-уборщику 100. Кроме того, боковые щетки 173a и 173b не только могут вращаться на месте, но также установлены так, чтобы выступать в сторону внешней части робота-уборщика 100 так, чтобы зона, которая должна быть убрана роботом-уборщиком 100, могла быть увеличена.
[76] Блок 180 хранения робота может включать в себя энергонезависимую память (не показана), такую как магнитный диск или твердотельный диск, в котором управляющая программа или управляющие данные для управления операцией робота-уборщика 100 сохранены постоянным образом, и энергозависимую память (не показана), такую как динамическая оперативная память (D-RAM) или статическая оперативная память (S-RAM), в которой временные данные, генерируемые, когда осуществляется управление операцией робота-уборщика 100, временно сохраняются.
[77] Блок 185 связи робота может включать в себя модуль беспроводной связи (не показан), который выполняет беспроводную связь с портативным мобильным терминалом (см. 200 с фиг.1) или станцией зарядки (не показана) с использованием способа беспроводной связи, такого как беспроводная достоверность (Wi-Fi), Bluetooth, Zigbee или связь ближнего поля (NFC).
[78] Средство 190 управления роботом включает в себя модуль 191 распознавания голоса, который обнаруживает инструкции манипуляции пользователя посредством голоса пользователя на основе сигналов голоса пользователя, полученных блоком 140 голосового ввода, модуль 193 распознавания движения, который обнаруживает инструкции манипуляции пользователя согласно движению пользователя на основе трехмерного изображения, захваченного блоком 130 захвата изображения, и главный модуль 195 управления, который управляет операцией робота-уборщика 100 согласно инструкциям манипуляции пользователя.
[79] Модуль 191 распознавания голоса обнаруживает инструкции манипуляции пользователя путем сравнения голосовых инструкций, сохраненных согласно различным инструкциям манипуляции, с голосовыми инструкциями, введенными блоком 140 голосового ввода. Здесь робот-уборщик 100 может ранее принять голосовые инструкции, соответствующие инструкциям манипуляции, от пользователя U и может сохранять голосовые инструкции с целью улучшения вероятности того, что модуль 191 распознавания голоса распознает голосовые инструкции пользователя.
[80] Модуль 193 распознавания движения обнаруживает позиции конкретных частей пользователя U, таких как рука и плечо пользователя U, с трехмерного изображения и определяет траекторию руки с использованием обнаруженных позиций руки и плеча. Модуль 193 распознавания движения обнаруживает инструкции манипуляции, подразумеваемые пользователем U, путем сравнения определенной траектории руки с инструкций движения, сохраненной согласно различным инструкциям манипуляции. Дополнительно, модуль 193 распознавания движения может обнаруживать позицию пространства, которое должно быть убрано, инструкцию о котором дала рука пользователя, с использованием обнаруженных позиций руки и плеча.
[81] Главный модуль 195 управления управляет операцией блока 160 передвижения и операционный блока 170 уборки на основе инструкций манипуляции пользователя, введенных через блок 110 манипуляции, блок 130 захвата изображения и блок 140 голосового ввода и выведенных от блока 120 восходящего захвата изображения и блока 150 обнаружения препятствия. Например, когда инструкции уборки вводятся через блок 110 манипуляции, средство 190 управления управляет блоком 160 передвижения так, чтобы робот-уборщик 100 мог передвигаться по предварительно определенному пути передвижения, и средство 190 управления управляет блоком 170 уборки так, чтобы робот-уборщик 100 мог удалять пыль на пути передвижения, по которому робот-уборщик 100 передвигается.
[82] Средство 190 управления может включать в себя микропроцессор, который выполняет арифметическую операцию над управляющей программой и данными, введенными согласно управляющей программе, сохраненной в блоке 180 хранения робота, и выводит результат арифметической операции. Кроме того, средство 190 управления может включать в себя общий процессор, который выполняет все операции, или множество процессоров, которые выполняют специализированную функцию, таких как графические процессоры или процессоры связи.
[83] Фиг.5 изображает структурную схему, иллюстрирующую поток управления портативного мобильного терминала, изображенного на фиг.1, и фиг.6 изображает вид в перспективе, иллюстрирующий внешнюю часть портативного мобильного терминала с фиг.1.
[84] Со ссылкой на фиг.5 и 6, портативный мобильный терминал 200 включает в себя пользовательский интерфейс 210, который принимает инструкции манипуляции от пользователя U и отображает экран, соответствующий инструкциям манипуляции пользователя, блок 230 хранения терминала, в котором программа и данные для управления портативным мобильным терминалом 200 хранятся, блок 240 связи терминала, который связывается с роботом-уборщиком (см. 100 с фиг.1), и средство 250 управления терминалом, которое управляет операцией портативного мобильного терминала 200.
[85] Пользовательский интерфейс 210 включает в себя сенсорную панель 211a, которая принимает инструкции манипуляции пользователя через движение прикосновения пользователя, панель 211b отображения, на которой информация, соответствующая инструкциям манипуляции, введенным на сенсорной панели 211a, отображается, кнопка 213 питания, которая принимает инструкции включения/выключения питания портативного мобильного терминала 200, и кнопка 215 стартового экрана, которая преобразует экран, отображаемый на панели 211b отображения, в главный экран. Здесь в качестве панели 211b отображения может быть задействована LCD-панель или LED-панель.
[86] Сенсорная панель 211a и панель 211b отображения сформированы неотъемлемым образом друг с другом и составляют сенсорную экранную панель (TSP) 211. В TSP 211 прозрачная сенсорная панель 211a может быть установлена на панели 211b отображения, экран, на котором отображаются инструкции манипуляции, которые могут быть выбраны пользователем U, может отображаться на панели 211b отображения, и координаты, к которым прикасается пользователь U, могут быть обнаружены посредством сенсорной панели 211a. Когда пользователь U прикасается к TSP 211 согласно экрану, отображаемому на панели 211b отображения, портативный мобильный терминал 200 может распознавать инструкции манипуляции, подразумеваемые пользователем U, путем сравнения координат, к которым прикоснулся пользователь U, с координатами, в которых инструкции манипуляции отображаются.
[87] Дополнительно, портативный мобильный терминал 200 может обнаруживать движение прикосновения пользователя посредством сенсорной панели 211a и может распознавать инструкции манипуляции, подразумеваемые пользователем, согласно обнаруженному движению прикосновения пользователя.
[88] Блок 230 хранения терминала может включать в себя энергонезависимую память (не показана), такую как магнитный диск или твердотельный диск, в которой управляющая программа или управляющие данные для управления операцией портативного мобильного терминала 200 сохранены постоянным образом, и энергозависимую память (не показана), такую как D-RAM или S-RAM, в которой временные данные, генерируемые, когда осуществляется управление операцией портативного мобильного терминала 200, временно сохраняются.
[89] Блок 240 связи терминала может включать в себя модуль беспроводной связи (не показан), который выполняет беспроводную связь с роботом-уборщиком (см. 100 с фиг.1) с использованием способа беспроводной связи, такого как Wi-Fi, Bluetooth, Zigbee или NFC.
[90] Средство 250 управления терминалом управляет TSP 211 так, чтобы экран, отображаемый на TSP 211, мог быть изменен согласно инструкциям манипуляции, введенным через TSP 211, и информации, введенной через блок 240 связи терминала. Например, когда изображение пространства, которое должно быть убрано, захваченное роботом-уборщиком 100, принимается от блока 240 связи терминала, и инструкции отображения изображения пространства, которое должно быть убрано, вводятся от пользователя U, средство 250 управления терминалом отображает принятое изображение пространства, которое должно быть убрано, на TSP 211.
[91] Конфигурации робота-уборщика 100 и портативного мобильного терминала 200, изображенные на фиг.1, были описаны выше. Далее способ установления зоны концентрированной уборки и ограниченной зоны с использованием робота-уборщика 100 и портативного мобильного терминала 200 с фиг.1 в соответствии с вариантом осуществления настоящего раскрытия будет описан.
[92] Фиг.7 изображает случай, в котором робот-уборщик с фиг.1 принимает голосовые инструкции от пользователя, и фиг.8A, 8B и 8C изображают случай, в котором робот-уборщик с фиг.1 определяет позицию пользователя посредством голосовых инструкций пользователя.
[93] Как иллюстрируется на фиг.7 и 8, когда пользователь U вводит инструкции вызова в робот-уборщик 100 посредством голоса, в то время как робот-уборщик 100 выполняет уборку в режиме автоматической уборки, робот-уборщик 100 принимает голосовые сигналы пользователя U через блок голосового ввода (см. 140 с фиг.2A), расположенный в роботе-уборщике 100, и обнаруживает инструкции вызова пользователя U на основе принятых голосовых сигналов. Кроме того, когда инструкции вызова обнаруживаются, робот-уборщик 100 вращается в направлении пользователя U.
[94] Подробно, робот-уборщик 100 может использовать голосовые сигналы, принятые по меньшей мере одним из трех микрофонов 141, 143 и 145, включенных в блок голосового ввода (см. 140 с фиг.2A), с целью приема голосовых сигналов пользователя U. Например, робот-уборщик 100 может использовать голосовые сигналы, принятые передним микрофоном 141 из переднего микрофона 141, левого микрофона 143 и правого микрофона 144, для распознавания голоса.
[95] Кроме того, когда голосовые сигналы пользователя U принимаются, робот-уборщик 100 может анализировать голосовые сигналы, введенные через модуль распознавания голоса (см. 191 с фиг.2B), и может обнаруживать инструкции вызова пользователя U согласно результату анализа. Например, робот-уборщик 100 сравнивает голосовые сигналы пользователя U, принятые блоком голосового ввода (см. 140 с фиг.2A), с голосовыми сигналами согласно множеству инструкций манипуляции, тем самым обнаруживая, что голосовые сигналы пользователя U являются инструкциями вызова.
[96] Кроме того, в результате анализа голосовых сигналов пользователя U, когда определяется, что голосовые сигналы пользователя U являются инструкциями вызова, робот-уборщик 100 определяет направление пользователя U на основе голосовых сигналов, введенных в три микрофона 141, 143 и 145, и вращается в направлении пользователя U. Подробно, робот-уборщик 100 сравнивает время входа голосовых сигналов, введенных в три микрофона 141, 143 и 145, и амплитуды голосовых сигналов, тем самым оценивая направление пользователя U.
[97] Например, когда голосовой сигнал первым принят передним микрофоном 141 и амплитуда голосового сигнала, введенного в передний микрофон 141, является наибольшей, робот-уборщик 100 может оценить, что пользователь U находится в зоне A1 или A2, изображенной на фиг.8B. Кроме того, когда голосовой сигнал принимается левым микрофоном 143 раньше, чем правый микрофон 145 принимает голосовой сигнал, и амплитуда голосового сигнала, введенного в левый микрофон 143 больше, чем амплитуда голосового сигнала, введенного в правый микрофон 145, робот-уборщик 100 может оценить, что пользователь U находится в зоне A2 с фиг.8B. Дополнительно, робот-уборщик 100 может оценить позицию пользователя U на основе разницы между временем, в которое голосовой сигнал вводится в левый микрофон 143, и временем, в которое голосовой сигнал вводится в правый микрофон 145, или разницы между амплитудой голосового сигнала, введенного в левый микрофон 143, и амплитудой голосового сигнала, введенного в правый микрофон 145.
[98] В качестве другого примера, когда голосовые сигналы пользователя U вводятся по порядку в левый микрофон 143, передний микрофон 141 и правый микрофон 145 и амплитуды голосовых сигналов имеют порядок левый микрофон 143, передний микрофон 14 и правый микрофон 145, робот-уборщик 100 может определять, что пользователь U находится в зоне B1, изображенной на фиг.8B.
[99] Когда направление пользователя U определяется, робот-уборщик 100 вращается в направлении пользователя U, как изображено на фиг.8C. В этом случае робот-уборщик 100 может вращаться в направлении, в котором угловое перемещение мало.
[100] Фиг.9 изображает случай, в котором робот-уборщик с фиг.1 получает изображение пользователя и голос пользователя.
[101] Когда инструкции вызова вводятся от пользователя U, робот-уборщик 100 вращается в направлении пользователя U, как изображено на фиг.9, и получает двухмерные изображения пользователя U и пространства, которое должно быть убрано, и информацию расстояния с использованием блока захвата изображения (см. 130 с фиг.2).
[102] Пользователь U может вводить инструкции обозначения зоны уборки в робот-уборщик 100 посредством движения или голоса. Например, пользователь U может сказать "Убери здесь", когда дает инструкцию в отношении зоны концентрированной уборки, которая должна быть тщательно убрана, или может сказать "Не убирай здесь", когда дает инструкцию в отношении ограниченной зоны, в которую вход робота-уборщика 100 запрещен. Таким образом, когда пользователь U вводит инструкции обозначения зоны уборки в робот-уборщик 100 посредством движения или голоса, робот-уборщик 100 определяет зону, инструкцию о которой дал пользователь U, посредством движения пользователя U и анализирует голос пользователя U, тем самым определяя инструкции манипуляции пользователя U.
[103] Определение инструкций манипуляции пользователя U может выполняться путем сравнения голосового сигнала, введенного через по меньшей мере один из множества микрофонов (см. 141, 143 и 145 с фиг.3), с голосовым сигналом согласно множеству инструкций манипуляции и путем обнаружения инструкций обозначения зоны уборки пользователя U. Например, робот-уборщик 100 может определять, дает ли пользователь U инструкцию о зоне концентрированной уборки или об ограниченной зоне.
[104] Когда инструкции обозначения зоны уборки определяются посредством голоса пользователя U, робот-уборщик 10 анализирует движение пользователя U и определяет зону, инструкцию о которой дал пользователь U, с использованием двухмерного изображения и информации расстояния, полученной блоком захвата изображения (см. 130 с фиг.2A).
[105] Фиг.10A и 10B и фиг.11A и 11B изображают случай, в котором робот-уборщик с фиг.1 определяет координаты зоны, инструкцию о которой дал пользователь, с изображения пользователя.
[106] Как изображено на фиг.10A, робот-уборщик 100 обнаруживает лицо F пользователя U с изображений пользователя U и пространства, которое должно быть убрано. Обнаружение лица F может выполняться с использованием способов, таких как способ, основанный на знаниях, где осуществляется попытка обнаружения компонентов, которые составляют лицо F человека, таких как симметричные глаза, нос и рот под глазами, алгоритм собственного лица, где осуществляется попытка обнаружения лица F путем приближения собственного вектора в отношении матрицы автокорреляции изображения лица F, алгоритм метода опорных векторов (SVM), где лицо F обнаруживается с использованием SVM, или алгоритм подхода усиления, где способ обнаружения, имеющий высокую частоту обнаружения, составляется путем линейной комбинации нескольких способов обнаружения, имеющих низкие частоты обнаружения. Однако настоящее раскрытие не ограничивается этим. Например, любой способ для обнаружения лица F пользователя U с изображений пользователя U может быть использован.
[107] Лицо F пользователя U обнаруживается так, чтобы робот-уборщик 100 мог определить точную позицию пользователя U, и изображение пользователя U может быть использовано в качестве критерия для обнаружения конкретных частей пользователя U, таких как рука и плечо. Дополнительно, расстояние между пользователем U и роботом-уборщиком 100 может быть определено из расстояния между лицом F пользователя U и роботом-уборщиком 100.
[108] Как изображено на фиг.10B, после обнаружения лица F пользователя U робот-уборщик 100 обнаруживает конкретные части пользователя U, такие как плечо RS и рука RH, с изображения пользователя U на основе позиции лица F пользователя U.
[109] Как изображено на фиг.11A, когда плечо RS и рука RH пользователя U обнаруживаются с трехмерного изображения пользователя U, робот-уборщик 100 может определять расстояние d1 между пользователем U и роботом-уборщиком 100, расстояние d2 между плечом RS пользователя U и роботом-уборщиком 100 и расстояние d3 между рукой RH пользователя U и роботом-уборщиком 100 с использованием информации расстояния, полученной блоком захвата изображения (см. 130 с фиг.2A). Кроме того, робот-уборщик 100 может определять направление пользователя U, направление плеча RS и направление руки RH с двухмерного изображения, захваченного блоком захвата изображения (см. 130 с фиг.2A).
[110] Кроме того, робот-уборщик 100 может определять трехмерные относительные координаты плеча RS и руки RH пользователя U на основе расстояния d1 между пользователем U и роботом-уборщиком 100 и направления пользователя U, расстояния d2 между плечом RS пользователя U и роботом-уборщиком 100 и направления плеча RS и робота-уборщика 100 и расстояния d3 между рукой RH пользователя U и роботом-уборщиком 100 и направления руки RH. Здесь трехмерные относительные координаты плеча RS и руки RH пользователя U определяют координаты в трехмерной относительной системе координат, в которой позиция робота-уборщика 100 устанавливается в качестве начала координат. Трехмерная относительная система координат определяет систему координат, в которой робот-уборщик 100 устанавливается в качестве начала координат, переднее направление робота-уборщика 100 от пола уборки устанавливается в качестве оси +y, правое направление робота-уборщика 100 от пола уборки устанавливается в качестве оси +x и верхнее направление робота-уборщика 100 от пола уборки устанавливается в качестве оси +z.
[111] Когда трехмерные координаты плеча RS и руки RH пользователя U определяются, робот-уборщик 100 определяет вектор направления SH в сторону руки RH пользователя U от плеча RS пользователя U и определяет двухмерные относительные координаты зоны, инструкцию о которой дал пользователь U, на основе вектора направления SH в сторону руки RH пользователя U от плеча RS пользователя U и трехмерные относительные координаты плеча RS или руки RH пользователя U. Иными словами, поскольку зона, инструкцию о которой дал пользователь U, находится на полу уборки, позиция, в которой вектор направления SH в сторону руки RH пользователя U от плеча RS пользователя U и пол пространства, которое должно быть убрано, пересекаются друг с другом, будет зоной, инструкцию о которой дал пользователь U, и может быть представлена в виде двухмерных относительных координат, имеющих только координату оси x и координату оси y.
[112] Кроме того, робот-уборщик 100 определяет координаты экрана, указывающие, какой позиции зоны, инструкцию о которой дал пользователь U, двухмерное изображение, захваченное блоком захвата изображения, соответствует (см. 130 с фиг.2A). Поскольку трехмерная камера (см. 131 с фиг.3) фиксирована на роботе-уборщике 100, двухмерные относительные координаты, указывающие позицию зоны, инструкцию о которой дал пользователь U, на полу уборки, и координаты экрана, указывающие позицию зоны, инструкцию о которой дал пользователь U, на двухмерном изображении находятся во взаимно-однозначном соответствии, как изображено на фиг.11B. То есть робот-уборщик 100 может определять координаты экрана на двухмерном изображении, когда двухмерные относительные координаты зоны, инструкцию о которой дал пользователь U, получаются.
[113] Кроме того, робот-уборщик 100 определяет абсолютные координаты зоны, инструкцию о которой дал пользователь U, с использованием относительных координат зоны, инструкцию о которой дал пользователь U, и информации позиции робота-уборщика 100, полученных блоком захвата изображения (см. 120 с фиг.2A). Здесь абсолютные координаты являются координатами на основе предварительно определенной точки критерия, такой как вход в пространство, которое должно быть убрано, или станция зарядки (не показана) внутри пространства, которое должно быть убрано, и отличны от относительных координат на основе робота-уборщика 100.
[114] Фиг.12 изображает случай, в котором робот-уборщик с фиг.1 передает изображение пользователя и изображение пространства, которое должно быть убрано, и информацию, касающуюся зоны, инструкцию о которой дал пользователь, к портативному мобильному терминалу, и фиг.13 изображает случай, в котором робот-уборщик с фиг.1 и портативный мобильный терминал с фиг.1 отображают изображение пространства уборки и информацию, касающуюся зоны, инструкцию о которой дал пользователь.
[115] Когда информация позиции зоны, инструкцию о которой дал пользователь U, внутри двухмерного изображения определяется, робот-уборщик 100 отображает двухмерное изображение на панели отображения (см. 116 с фиг.3) и наложенным образом отображает зону, инструкцию о которой дал пользователь U, и тип зоны, инструкцию о которой дал пользователь U, на двухмерном изображении (является ли зона, инструкцию о которой дал пользователь U, зоной концентрированной уборки или ограниченной зоной). Кроме того, робот-уборщик 100 передает двухмерное изображение, координаты экрана и абсолютные координаты зоны, инструкцию о которой дал пользователь U, тип зоны, инструкцию о которой дал пользователь U, и информацию позиции робота-уборщика 100 в пространстве, которое должно быть убрано, портативному мобильному терминалу 200 через блок связи (см. 185 с фиг.2A).
[116] Когда двухмерное изображение принимается, портативный мобильный терминал 200 отображает принятое двухмерное изображение на TSP 211 и наложенным образом отображает зону, инструкцию о которой дал пользователь U, на двухмерном изображении с использованием координат экрана зоны, инструкцию о которой дал пользователь U. Здесь наложенное отображение зоны, инструкцию о которой дал пользователь U, на двухмерном изображении с использованием робота-уборщика 100 и портативного мобильного терминала 200 может выполняться с использованием дополненной реальности. Дополненная реальность, вид виртуальной реальности, является графической методикой, в которой виртуальный объект или виртуальная информация синтезируется в действительной среде так, чтобы виртуальный объект или виртуальная информация отображались в качестве объекта в исходной среде.
[117] Как изображено на фиг.13, робот-уборщик 100 и портативный мобильный терминал 200 отображают экран 300 зоны уборки, на котором двухмерное изображение и зона, инструкцию о которой дал пользователь U, т. е. первая зона концентрированной уборки C1, отображаются. Здесь первая зона концентрированной уборки C1 может наложенным образом отображаться на двухмерном изображении на основе координат экрана зоны, инструкцию о которой дал пользователь U, и типа зоны, инструкцию о которой дал пользователь, U.
[118] Пользователь U может проверять позицию зоны концентрированной уборки C1, инструкцию о которой дал пользователь U, посредством экрана 300 зоны уборки, отображаемого на панели отображения (см. 116 с фиг.12) робота-уборщика 100 и TSP 211 портативного мобильного терминала 200.
[119] Дополнительно, пользователь U может дополнительно вводить зону концентрированной уборки или ограниченную зону через TSP (см. 211 с фиг.12) портативного мобильного терминала 200.
[120] Фиг.14 изображает случай, в котором информация, касающаяся зоны концентрированной уборки, вводится в портативный мобильный терминал с фиг.1, и фиг.15 и 16 изображают случай, в котором информация, касающаяся ограниченной зоны, вводится в портативный мобильный терминал с фиг.1.
[121] Как изображено на фиг.14, пользователь U может вводить входные инструкции зоны концентрированной уборки посредством движения или голоса, может прикасаться к позиции, которая должна быть дополнительно обозначена в качестве зоны концентрированной уборки на экране 300 зоны уборки, отображаемой на TSP (см. 211 с фиг.12) портативного мобильного терминала 200, или может прикасаться и перетаскивать зону, которая должна быть обозначена в качестве зоны концентрированной уборки, тем самым обозначая вторую зону концентрированной уборки.
[122] Когда пользователь U вводит вторую зону концентрированной уборки посредством TSP (см. 211 с фиг.12), портативный мобильный терминал 200 наложенным образом отображает вторую зону концентрированной уборки C2 на двухмерном изображении. То есть портативный мобильный терминал 200 отображает экран зоны уборки (не показан), на котором первая зона концентрированной уборки C1 и вторая зона концентрированной уборки C2 накладываются друг друга на двухмерном изображении пространства, которое должно быть убрано, посредством TSP (см. 211 с фиг.12).
[123] Когда пользователь U хочет ввести ограниченную зону, пользователь U может ввести входные инструкции ограниченной зоны, может прикоснуться к позиции, которая должна быть обозначена в качестве ограниченной зоны, на экране 320 зоны уборки, отображаемом на TSP (см. 211 с фиг.12) портативного мобильного терминала 200, как изображено на фиг.15 и 16, или может прикоснуться и перетащить зону, которая должна быть обозначена в качестве ограниченной зоны U1, тем самым обозначая первую ограниченную зону W1 и вторую ограниченную зону W2.
[124] Когда пользователь U вводит первую ограниченную зону W1 и вторую ограниченную зону W2 посредством TSP 211, портативный мобильный терминал 200 наложенным образом отображает первую ограниченную зону W1 и вторую ограниченную зону W2 на двухмерном изображении. То есть портативный мобильный терминал 200 отображает экран 330 зоны уборки, на котором первая зона концентрированной уборки C1, вторая зона концентрированной уборки C2, первая ограниченная зона W1 и вторая ограниченная зона W2 отображаются на двухмерном изображении пространства, которое должно быть убрано, с использованием дополненной реальности посредством TSP (см. 211 с фиг.12).
[125] Фиг.17 изображает экран, на котором портативный мобильный терминал с фиг.1 отображает зону концентрированной уборки и ограниченную зону.
[126] Портативный мобильный терминал 200 может отображать позиции зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2 на плане (карте) пространства, которое должно быть убрано.
[127] Подробно, когда пользователь U выполняет ввод зоны концентрированной уборки и ограниченной зоны, портативный мобильный терминал 200 определяет двухмерные относительные координаты второй зоны концентрированной уборки C2, первой ограниченной зоны W1 и второй ограниченной зоны W2 на основе координат экрана второй зоны концентрированной уборки C2, первой ограниченной зоны W1 и второй ограниченной зоны W2. После этого портативный мобильный терминал 100 определяет абсолютные координаты второй зоны концентрированной уборки C2, первой ограниченной зоны W1 и второй ограниченной зоны W2, т. е. позиции второй зоны концентрированной уборки C2, первой ограниченной зоны W1 и второй ограниченной зоны W2 внутри пространства, которое должно быть убрано, с использованием позиции робота-уборщика 100, когда робот-уборщик 100 захватывает двухмерное изображение и двухмерные относительные координаты второй зоны концентрированной уборки C2, первой ограниченной зоны W1 и второй ограниченной зоны W2. Кроме того, портативный мобильный терминал 200 передает абсолютные координаты второй зоны концентрированной уборки C2, первой ограниченной зоны W1 и второй ограниченной зоны W2 роботу-уборщику 100 так, чтобы робот-уборщик 100 мог обнаруживать зоны концентрированной уборки C1 и C2 и ограниченные зоны W1 и W2.
[128] Когда абсолютные координаты зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2 определяются, портативный мобильный терминал 200 может отображать карту пространства, которое должно быть убрано, и может отображать позиции зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2 на карте пространства, которое должно быть убрано.
[129] Фиг.18 изображает блок-схему, иллюстрирующую способ ввода и отображения зоны концентрированной уборки и ограниченной зоны с использованием робота-уборщика и портативного мобильного терминала в соответствии с вариантом осуществления настоящего раскрытия.
[130] Просто описывая способ ввода и отображения зоны концентрированной уборки и ограниченной зоны с использованием робота-уборщика (см. 100 с фиг.1) и портативного мобильного терминала (см. 200 с фиг.1) в соответствии с вариантом осуществления настоящего раскрытия со ссылками на фиг.18, определяется, вводятся ли инструкции манипуляции пользователя в робот-уборщик (см. 100 с фиг.1) посредством голоса, в то время как в пространстве, которое должно быть убрано, осуществляется уборка (операция 505).
[131] Когда инструкции манипуляции вводятся посредством голоса ("Да" на операции 505), робот-уборщик (см. 100 с фиг.1) обнаруживает инструкции манипуляции (операция 508). Подробно, в результате обнаружения инструкций манипуляции, когда инструкции манипуляции являются инструкциями вызова, робот-уборщик (см. 100 с фиг.1) определяет позицию пользователя и вращается в направлении позиции пользователя.
[132] Далее робот-уборщик (см. 100 с фиг.1) захватывает изображение пользователя (операция 510).
[133] Далее робот-уборщик (см. 100 с фиг.1) обнаруживает движение пользователя (операция 515). Подробно, робот-уборщик (см. 100 с фиг.1) обнаруживает пользовательские входные инструкции зоны концентрированной уборки или входные инструкции ограниченной зоны посредством изображения пользователя.
[134] Далее робот-уборщик (см. 100 с фиг.1) определяет позицию зоны концентрированной уборки или ограниченной зоны посредством движения пользователя (операция 520).
[135] Далее робот-уборщик (см. 100 с фиг.1) отображает зону концентрированной уборки или ограниченную зону (операция 525). Кроме того, робот-уборщик (см. 100 с фиг.1) может передавать информацию, касающуюся зоны концентрированной уборки или ограниченной зоны, портативному мобильному терминалу (см. 200 с фиг.1), и портативный мобильный терминал (см. 200 с фиг.1) может отображать зону концентрированной уборки или ограниченную зону.
[136] Далее портативный мобильный терминал (см. 200 с фиг.1) определяет, вводит ли пользователь дополнительно зону концентрированной уборки или ограниченную зону (операция 530).
[137] Когда пользователь дополнительно вводит зону концентрированной уборки или ограниченную зону ("Да" на операции 530), портативный мобильный терминал (см. 200 с фиг.1) определяет позицию зоны концентрированной уборки или ограниченной зоны (операция 535) и отображает зону концентрированной уборки или ограниченную зону (операция 540).
[138] Кроме того, портативный мобильный терминал (см. 200 с фиг.1) отображает зону концентрированной уборки или ограниченную зону на карте пространства, которое должно быть убрано, на которой пространство, которое должно быть убрано, отображается (операция 545).
[139] Когда определяется, что пользователь не вводит дополнительно зону концентрированной уборки или ограниченную зону ("Нет" на операции 530), портативный мобильный терминал (см. 200 с фиг.1) отображает зону концентрированной уборки или ограниченную зону, переданные роботом-уборщиком (см. 100 с фиг.1), на карте пространства, которое должно быть убрано, на которой пространство, которое должно быть убрано, отображается.
[140] Способ установления зоны концентрированной уборки и ограниченной зоны с использованием робота-уборщика и портативного мобильного терминала, изображенных на фиг.1, в соответствии с вариантом осуществления настоящего раскрытия был описан выше. Далее способ установления зоны концентрированной уборки и ограниченной зоны с использованием робота-уборщика и портативного мобильного терминала, изображенных на фиг.1, в соответствии с другим вариантом осуществления настоящего раскрытия будет описан.
[141] Фиг.19 изображает случай, в котором робот-уборщик с фиг.1 принимает инструкции манипуляции от пользователя посредством портативного мобильного терминала.
[142] Со ссылкой на фиг.19, робот-уборщик 100 принимает инструкции манипуляции пользователя посредством портативного мобильного терминала 200 в течение режима мануальной уборки.
[143] Подробно, робот-уборщик 100 передает изображение, захваченное блоком захвата изображения (см. 130 с фиг.2A), портативному мобильному терминалу 200, и пользователь U может манипулировать направлением передвижения робота-уборщика 100 с использованием клавиши 221b направления, расположенной на TSP 211 портативного мобильного терминала 200, во время просмотра изображения 221a робота-уборщика 100, отображаемого на TSP 211 портативного мобильного терминала 200.
[144] Пользователь U может вводить входные инструкции зоны концентрированной уборки или входные инструкции ограниченной зоны посредством зоны 221c ввода инструкции движения, расположенной на TSP 211 портативного мобильного терминала 200, в течение манипуляции передвижения робота-уборщика 100.
[145] Когда входные инструкции зоны концентрированной уборки или входные инструкции ограниченной зоны вводятся от пользователя, портативный мобильный терминал 200 отображает двухмерное изображение, захваченное роботом-уборщиком 100, когда входные инструкции зоны концентрированной уборки или входные инструкции ограниченной зоны вводятся, и информирует робот-уборщик 100, что входные инструкции зоны концентрированной уборки или входные инструкции ограниченной зоны введены. Робот-уборщик 100, который был информирован, что входные инструкции зоны концентрированной уборки или входные инструкции ограниченной зоны введены, передает информацию позиции робота-уборщика 100 внутри пространства, которое должно быть убрано, портативному мобильному терминалу 200.
[146] Фиг.20 изображает экран, на котором информация, касающаяся зоны концентрированной уборки, вводится через портативный мобильный терминал с фиг.1, и фиг.21 и 22 изображают экран, на котором информация, касающаяся ограниченной зоны, вводится через портативный мобильный терминал с фиг.1.
[147] Пользователь U может вводить входные инструкции зоны концентрированной уборки и может прикасаться к позиции, которая должна быть обозначена в качестве зоны концентрированной уборки, на экране 400 зоны уборки, отображаемом на TSP (см. 211 с фиг.19) портативного мобильного терминала 200, как изображено на фиг.20, или может прикасаться и перетаскивать зону, которая должна быть обозначена в качестве зоны концентрированной уборки, тем самым обозначая первую зону концентрированной уборки C1.
[148] Когда пользователь U вводит первую зону концентрированной уборки C1 посредством TSP 211, портативный мобильный терминал 200 отображает экран зоны уборки (не показан), на котором первая зона концентрированной уборки C1 отображается на двухмерном изображении с использованием дополненной реальности.
[149] Кроме того, когда пользователь U хочет дополнительно ввести вторую зону концентрированной уборки C2 дополнительно к первой зоне концентрированной уборки C1, пользователь U может прикоснуться к позиции, которая должна быть обозначена в качестве зоны концентрированной уборки, на TSP (см. 211 с фиг.19) портативного мобильного терминала 200 или может прикоснуться и перетащить зону, которая должна быть обозначена в качестве зоны концентрированной уборки, тем самым обозначая вторую зону концентрированной уборки C2. Портативный мобильный терминал 200 отображает экран 410 зоны уборки, на котором первая зона концентрированной уборки C1 и вторая зона концентрированной уборки C2 отображаются на двухмерном изображении, посредством TSP (см. 211 с фиг.19) с использованием дополненной реальности.
[150] Когда пользователь U хочет ввести ограниченную зону, пользователь U может вводить входные инструкции ограниченной зоны и может прикасаться к позиции, которая должна быть обозначена в качестве ограниченной зоны, на TSP (см. 211 с фиг.19) портативного мобильного терминала 200, как иллюстрируется на фиг.21 и 22, или может прикасаться и перетаскивать зону, которая должна быть обозначена в качестве зоны концентрированной уборки, тем самым обозначая первую ограниченную зону W1 и вторую ограниченную зону W2.
[151] Когда пользователь U вводит первую ограниченную зону W1 и вторую ограниченную зону W2 посредством TSP (см. 211 с фиг.19), портативный мобильный терминал 200 отображает экран 420 зоны уборки, на котором первая ограниченная зона W1 и вторая ограниченная зона W2 отображаются на двухмерном изображении с использованием дополненной реальности.
[152] Фиг.23 изображает экран, на котором портативный мобильный терминал с фиг.1 отображает зону концентрированной уборки и ограниченную зону.
[153] Портативный мобильный терминал 200 может отображать позиции зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2 на плане (карте) пространства, которое должно быть убрано, как изображено на фиг.23.
[154] Когда пользователь U выполняет ввод зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2, двухмерные относительные координаты зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2 определяются на основе координат экрана зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2. После этого портативный мобильный терминал 200 определяет абсолютные координаты зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2, т. е. позиции зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2 внутри пространства, которое должно быть убрано, с использованием позиции робота-уборщика 100, когда робот-уборщик 100 захватывает двухмерное изображение, и двухмерных относительных координат зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2. Кроме того, портативный мобильный терминал 200 передает абсолютные координаты зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2 роботу-уборщику 100 так, чтобы робот-уборщик 100 мог обнаруживать зоны концентрированной уборки C1 и C2 и ограниченные зоны W1 и W2.
[155] Когда абсолютные координаты зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2 определяются, портативный мобильный терминал 200 может отображать карту пространства, которое должно быть убрано, и может отображать позиции зон концентрированной уборки C1 и C2 и ограниченных зон W1 и W2 на карте пространства, которое должно быть убрано.
[156] Фиг.24 изображает блок-схему, иллюстрирующую способ ввода и отображения зоны концентрированной уборки и ограниченной зоны с использованием робота-уборщика и портативного мобильного терминала с фиг.1 в соответствии с другим вариантом осуществления настоящего раскрытия.
[157] Просто описывая способ ввода и отображения зоны концентрированной уборки и ограниченной зоны с использованием робота-уборщика (см. 100 с фиг.1) и портативного мобильного терминала (см. 200 с фиг.1) в соответствии с другим вариантом осуществления настоящего раскрытия со ссылками на фиг.18, определяется, вводятся ли пользовательские входные инструкции зоны уборки или ограниченные входные инструкции в робот-уборщик (см. 100 с фиг.1) посредством портативного мобильного терминала (см. 200 с фиг.1), в то время как осуществляется уборка пространства, которое должно быть убрано, в мануальном режиме (операция 605).
[158] Когда пользовательские входные инструкции зоны уборки или ограниченные входные инструкции вводятся посредством портативного мобильного терминала (см. 200 с фиг.1; "Да" на операции 605), робот-уборщик (см. 100 с фиг.1) захватывает изображение пространства, которое должно быть убрано (операция 610). Кроме того, робот-уборщик (см. 100 с фиг.1) передает захваченное изображение пространства, которое должно быть убрано, портативному мобильному терминалу (см. 200 с фиг.1).
[159] Далее портативный мобильный терминал (см. 200 с фиг.1) отображает изображение пространства, которое должно быть убрано, (операция 615).
[160] Далее портативный мобильный терминал (см. 200 с фиг.1) определяет, вводит ли пользователь зону концентрированной уборки или ограниченную зону (операция 620).
[161] Когда определяется, что пользователь вводит зону концентрированной уборки или ограниченную зону ("Да" на операции 620), портативный мобильный терминал (см. 200 с фиг.1) определяет позицию зоны концентрированной уборки или ограниченной зоны (операция 625) и отображает зону концентрированной уборки или ограниченную зону (операция 630).
[162] Кроме того, портативный мобильный терминал (см. 200 с фиг.1) отображает зону концентрированной уборки или ограниченную зону на карте пространства, которое должно быть убрано, на которой пространство, которое должно быть убрано, отображается (операция 635).
[163] Когда определяется, что пользователь не вводит зону концентрированной уборки или ограниченную зону ("Нет" на операции 620), портативный мобильный терминал (см. 200 с фиг.1) отображает карту пространства, которое должно быть убрано, на которой пространство, которое должно быть убрано, отображается (операция 635).
[164] Несмотря на то, что несколько вариантов осуществления настоящего раскрытия было показано и описано, специалистам в данной области техники будет понятно, что изменения могут быть сделаны в этих вариантах осуществления без выхода за пределы принципов и сущности раскрытия, объем которого определен в пунктах формулы и их эквивалентах.

Claims (51)

1. Робот-уборщик, который выполняет уборку во время передвижения в пространстве, которое должно быть убрано, причем робот-уборщик содержит:
блок передвижения, который обеспечивает перемещение робота-уборщика;
блок уборки, который обеспечивает уборку пространства, которое должно быть убрано;
блок захвата изображения, который захватывает изображение, видимое от робота-уборщика;
блок голосового ввода, в который вводятся голосовые инструкции пользователя; и
средство управления, которое получает инструкции движения пользователя через блок захвата изображения, когда голосовые инструкции пользователя вводятся через блок голосового ввода, и определяет ограниченную зону и/или зону концентрированной уборки на основе инструкций движения пользователя.
2. Робот-уборщик по п.1, в котором блок голосового ввода содержит по меньшей мере три микрофона, в которые вводятся голосовые инструкции пользователя.
3. Робот-уборщик по п.2, в котором средство управления оценивает позицию пользователя на основе разницы времени, в которое голосовые инструкции пользователя вводятся в по меньшей мере три микрофона.
4. Робот-уборщик по п.3, в котором средство управления управляет блоком передвижения для вращения робота-уборщика так, чтобы блок захвата изображения был направлен в сторону позиции пользователя.
5. Робот-уборщик по п.1, в котором блок захвата изображения содержит камеру, которая захватывает двухмерное изображение пользователя, и инфракрасный датчик, который получает информацию расстояния пользователя, захваченного камерой.
6. Робот-уборщик по п.5, в котором средство управления обнаруживает движение пользователя на основе изображения пользователя, захваченного блоком захвата изображения, и информации расстояния пользователя, полученной блоком захвата изображения.
7. Робот-уборщик по п.6, в котором средство управления обнаруживает руку и плечо пользователя с изображения пользователя и определяет координаты руки и плеча пользователя на основе информации расстояния пользователя.
8. Робот-уборщик по п.7, в котором средство управления определяет зону, инструкцию о которой дал пользователь, на основе координат руки и плеча пользователя и определяет зону, инструкцию о которой дал пользователь, в качестве ограниченной зоны и/или зоны концентрированной уборки.
9. Способ управления роботом-уборщиком, который выполняет уборку во время передвижения в пространстве, которое должно быть убрано, причем способ содержит этапы, на которых:
получают изображение пользователя, когда голосовые инструкции вводятся от пользователя;
получают движение пользователя на основе изображения и
определяют ограниченную зону, в которую вход робота-уборщика запрещен, и/или зону концентрированной уборки, которая должна быть тщательно убрана роботом-уборщиком, на основе голосовых инструкций пользователя и изображения пользователя.
10. Способ по п.9, в котором получение изображения содержит этапы, на которых:
определяют позицию пользователя на основе разницы во времени, в которое голосовые инструкции пользователя вводятся в множество микрофонов;
вращают робот-уборщик в направлении позиции пользователя;
излучают инфракрасные лучи в направлении пользователя и
получают информацию расстояния пользователя на основе инфракрасных лучей, отраженных от пользователя.
11. Способ по п.9, в котором получение движения пользователя содержит этапы, на которых:
обнаруживают руку и плечо пользователя с изображения пользователя и
определяют координаты руки и плеча пользователя на основе информации расстояния пользователя.
12. Способ по п.11, в котором определение ограниченной зоны и/или зоны концентрированной уборки содержит этапы, на которых:
определяют зону, инструкцию о которой дал пользователь, на основе координат руки и плеча пользователя и
определяют зону, инструкцию о которой дал пользователь, в качестве ограниченной зоны или зоны концентрированной уборки.
13. Способ по п.9, дополнительно содержащий этапы, на которых:
отображают изображение пространства, которое должно быть убрано; и
принимают ограниченную зону и/или зону концентрированной уборки от пользователя в отношении изображения пространства, которое должно быть убрано.
14. Способ по п.13, дополнительно содержащий этап, на котором определяют координаты зоны концентрированной уборки и/или ограниченной зоны в пространстве, которое должно быть убрано, на основе координат зоны концентрированной уборки и/или ограниченной зоны, введенных в отношении изображения пространства, которое должно быть убрано.
15. Способ по п.14, дополнительно содержащий этап, на котором отображают изображение ограниченной зоны и/или зоны концентрированной уборки поверх изображения пространства, которое должно быть убрано.
16. Система автоматической уборки, содержащая:
робот-уборщик, который выполняет уборку во время передвижения в пространстве, которое должно быть убрано; и
портативный мобильный терминал, который управляет роботом-уборщиком удаленным образом, причем, когда входные инструкции зоны концентрированной уборки и/или входные инструкции ограниченной зоны вводятся от пользователя, робот-уборщик захватывает изображение пространства, которое должно быть убрано, и передает изображение пространства, которое должно быть убрано, портативному мобильному терминалу, и
когда изображение пространства, которое должно быть убрано, принимается, портативный мобильный терминал отображает изображение пространства, которое должно быть убрано, и принимает зону концентрированной уборки и/или ограниченную зону от пользователя.
17. Система автоматической уборки по п.16, в которой робот-уборщик содержит блок захвата изображения, который захватывает изображение пространства, которое должно быть убрано, и принимает инструкции движения пользователя, и блок голосового ввода, который принимает голосовые инструкции пользователя, и робот-уборщик определяет ограниченную зону и/или зону концентрированной уборки на основе голосовых инструкций, введенных через блок голосового ввода, и инструкций движения, введенных через блок захвата изображения.
18. Система автоматической уборки по п.17, в которой, когда голосовые инструкции вводятся через блок голосового ввода, робот-уборщик вращается в направлении пользователя и принимает инструкции движения через блок захвата изображения.
19. Система автоматической уборки по п.16, в которой портативный мобильный терминал содержит сенсорную экранную панель, на которой изображение пространства, которое должно быть убрано, отображается, и инструкции манипуляции принимаются от пользователя, и когда зона концентрированной уборки и/или ограниченная зона вводится посредством сенсорной экранной панели, зона концентрированной уборки и/или ограниченная зона наложенным образом отображается на изображении пространства, которое должно быть убрано, посредством сенсорной экранной панели.
20. Система автоматической уборки по п.19, в которой портативный мобильный терминал определяет абсолютные координаты в пространстве, которое должно быть убрано, которые соответствуют зоне концентрированной уборки и/или ограниченной зоне.
21. Система автоматической уборки по п.20, в которой портативный мобильный терминал определяет координаты зоны концентрированной уборки и/или ограниченной зоны на изображении с сенсорной экранной панели, определяет относительные координаты зоны концентрированной уборки и/или ограниченной зоны, в которых робот-уборщик устанавливается в качестве начала координат, на основе координат на изображении, и определяет абсолютные координаты зоны концентрированной уборки и/или ограниченной зоны в пространстве, которое должно быть убрано, на основе относительных координат и позиции робота-уборщика.
22. Робот-уборщик по п.4, в котором средство управления управляет блоком передвижения для вращения в направлении, где угловое перемещение наименьшее.
23. Робот-уборщик по п.6, в котором средство управления обнаруживает первую и вторую части пользователя с изображения пользователя и определяет координаты первой и второй частей пользователя на основе информации расстояния пользователя.
24. Робот-уборщик по п.23, в котором средство управления определяет зону, инструкцию о которой дал пользователь, на основе координат первой и второй частей пользователя и определяет зону, инструкцию о которой дал пользователь, в качестве ограниченной зоны и/или зоны концентрированной уборки.
25. Способ по п.9, в котором получение движения пользователя содержит этапы, на которых:
обнаруживают первую и вторую части пользователя с изображения пользователя и
определяют координаты первой и второй частей пользователя на основе информации расстояния пользователя.
26. Способ по п.25, в котором определение ограниченной зоны и/или зоны концентрированной уборки содержит этапы, на которых:
определяют зону, инструкцию о которой дал пользователь, на основе координат первой и второй частей пользователя и
определяют зону, инструкцию о которой дал пользователь, в качестве ограниченной зоны и/или зоны концентрированной уборки.
RU2016102803A 2013-07-29 2014-07-29 Система автоматической уборки, робот-уборщик и способ управления роботом-уборщиком RU2620236C1 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020130089652A KR102094347B1 (ko) 2013-07-29 2013-07-29 자동 청소 시스템, 청소 로봇 및 그 제어 방법
KR10-2013-0089652 2013-07-29
PCT/KR2014/006937 WO2015016580A1 (en) 2013-07-29 2014-07-29 Auto-cleaning system, cleaning robot and method of controlling the cleaning robot

Publications (1)

Publication Number Publication Date
RU2620236C1 true RU2620236C1 (ru) 2017-05-23

Family

ID=52391143

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016102803A RU2620236C1 (ru) 2013-07-29 2014-07-29 Система автоматической уборки, робот-уборщик и способ управления роботом-уборщиком

Country Status (8)

Country Link
US (2) US9597804B2 (ru)
EP (1) EP3027101B1 (ru)
KR (1) KR102094347B1 (ru)
CN (1) CN105407774B (ru)
AU (1) AU2014297039B2 (ru)
CA (1) CA2918318C (ru)
RU (1) RU2620236C1 (ru)
WO (1) WO2015016580A1 (ru)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220075384A1 (en) * 2019-03-05 2022-03-10 Hitachi, Ltd. Moving Range Setting System and Moving Range Setting Method
RU2777408C1 (ru) * 2018-12-21 2022-08-03 Позитек Пауэр Тулз (Сюйчжоу) Ко., Лтд Роботизированная система чистки, базовая станция и способ ее управления
US11625039B2 (en) 2019-07-31 2023-04-11 Lg Electronics Inc. Moving robot and control method thereof

Families Citing this family (133)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6202544B2 (ja) 2012-08-27 2017-09-27 アクティエボラゲット エレクトロラックス ロボット位置決めシステム
CN105101855A (zh) 2013-04-15 2015-11-25 伊莱克斯公司 具有伸出的侧刷的机器人真空吸尘器
US10448794B2 (en) 2013-04-15 2019-10-22 Aktiebolaget Electrolux Robotic vacuum cleaner
KR102116596B1 (ko) 2013-12-19 2020-05-28 에이비 엘렉트로룩스 나선형 패턴으로 이동하는 사이드 브러시를 구비한 로봇 진공 청소기
KR102130190B1 (ko) 2013-12-19 2020-07-03 에이비 엘렉트로룩스 로봇 청소 장치
WO2015090402A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Robotic cleaning device with perimeter recording function
EP3082541B1 (en) 2013-12-19 2018-04-04 Aktiebolaget Electrolux Adaptive speed control of rotating side brush
EP3084539B1 (en) 2013-12-19 2019-02-20 Aktiebolaget Electrolux Prioritizing cleaning areas
KR102099495B1 (ko) 2013-12-19 2020-04-09 에이비 엘렉트로룩스 로봇 청소 장치가 장애물에 올라가는 것의 감지
KR102137857B1 (ko) 2013-12-19 2020-07-24 에이비 엘렉트로룩스 로봇 청소 장치 및 랜드마크 인식 방법
CN105848545B (zh) 2013-12-20 2019-02-19 伊莱克斯公司 灰尘容器
CN106415423B (zh) 2014-07-10 2021-01-01 伊莱克斯公司 用于检测机器人清洁装置的测量误差的方法
CN106659345B (zh) 2014-09-08 2019-09-03 伊莱克斯公司 机器人真空吸尘器
EP3190938A1 (en) 2014-09-08 2017-07-19 Aktiebolaget Electrolux Robotic vacuum cleaner
US9440351B2 (en) * 2014-10-30 2016-09-13 International Business Machines Corporation Controlling the operations of a robotic device
KR20160065574A (ko) * 2014-12-01 2016-06-09 엘지전자 주식회사 로봇 청소기 및 그의 제어방법
CN106998980B (zh) 2014-12-10 2021-12-17 伊莱克斯公司 使用激光传感器检测地板类型
US10874271B2 (en) 2014-12-12 2020-12-29 Aktiebolaget Electrolux Side brush and robotic cleaner
KR102339531B1 (ko) 2014-12-16 2021-12-16 에이비 엘렉트로룩스 로봇 청소 장치를 위한 경험-기반의 로드맵
US10678251B2 (en) 2014-12-16 2020-06-09 Aktiebolaget Electrolux Cleaning method for a robotic cleaning device
EP3282912B1 (en) 2015-04-17 2020-06-10 Aktiebolaget Electrolux Robotic cleaning device and a method of controlling the robotic cleaning device
CN106292387A (zh) * 2015-05-12 2017-01-04 上海移柯通信技术股份有限公司 看门狗***及其控制方法
CN105083543A (zh) * 2015-06-06 2015-11-25 昆山玖趣智能科技有限公司 一种ar增强现实3d视觉智能四翼飞行器
CN106293042B (zh) * 2015-06-26 2020-06-23 联想(北京)有限公司 一种信息处理方法及电子设备
KR20170002048A (ko) * 2015-06-29 2017-01-06 삼성전자주식회사 피사체 이동 제어 장치 및 방법
CN107920709A (zh) 2015-09-03 2018-04-17 伊莱克斯公司 机器人清洁设备***
CA2997381C (en) 2015-09-11 2019-11-12 Motorola Solutions, Inc. Method, system and apparatus for controlling a plurality of mobile-radio equipped robots in a talkgroup
JP7007078B2 (ja) * 2015-10-08 2022-01-24 東芝ライフスタイル株式会社 電気掃除機
DE102015120221A1 (de) * 2015-11-23 2017-05-24 Alfred Kärcher Gmbh & Co. Kg Bodenreinigungssystem und Verfahren zum Reinigen einer Bodenfläche
CN105476553B (zh) * 2015-11-25 2018-09-07 江苏美的清洁电器股份有限公司 智能吸尘器
KR101941060B1 (ko) 2016-01-20 2019-01-22 주식회사 유진로봇 이동 로봇과 통신을 수행하는 단말 장치의 신호 처리 방법 및 장치
US10175688B2 (en) * 2016-01-20 2019-01-08 Yujin Robot Co., Ltd. Apparatus and system for remotely controlling a moving robot and method thereof
CN105511477A (zh) * 2016-02-16 2016-04-20 江苏美的清洁电器股份有限公司 清扫机器人***和清扫机器人
CA2971038A1 (en) * 2016-02-16 2017-08-16 Jiangsu Midea Cleaning Appliances Co., Ltd. Cleaning robot system, cleaning robot and method for controlling cleaning robot
JP7035300B2 (ja) 2016-03-15 2022-03-15 アクチエボラゲット エレクトロルックス ロボット清掃デバイス、ロボット清掃デバイスにおける、断崖検出を遂行する方法、コンピュータプログラム、およびコンピュータプログラム製品
CN105867433A (zh) * 2016-03-31 2016-08-17 纳恩博(北京)科技有限公司 一种移动控制方法、移动电子设备及移动控制***
MX2018012245A (es) * 2016-04-08 2019-02-07 Tyco Fire Products Lp Sistema modular y expandible de supresion de incendios.
DE102016108513A1 (de) * 2016-05-09 2017-11-09 Vorwerk & Co. Interholding Gmbh System und ein Verfahren zur Reinigung eines Fußbodens mit einem Reinigungsroboter
CN105773626A (zh) * 2016-05-10 2016-07-20 广西升禾环保科技股份有限公司 具有道路实时检测功能的扫地机械人控制平台
WO2017194102A1 (en) 2016-05-11 2017-11-16 Aktiebolaget Electrolux Robotic cleaning device
CN106426159B (zh) * 2016-05-19 2019-04-30 西安天和海防智能科技有限公司 空化射流清洁船体机器人的控制***
WO2017218234A1 (en) 2016-06-15 2017-12-21 Irobot Corporation Systems and methods to control an autonomous mobile robot
US10377042B2 (en) 2016-06-17 2019-08-13 Intel Corporation Vision-based robot control system
CN107643820B (zh) * 2016-07-20 2020-11-06 郎焘 Vr被动型机器人及其实现方法
CN108431715B (zh) * 2016-07-21 2021-08-10 苏州宝时得电动工具有限公司 自动识别前方物体的自移动设备及其识别方法
US10706565B2 (en) * 2016-07-27 2020-07-07 Seikowave, Inc. Method and apparatus for motion tracking of an object and acquisition of three-dimensional data over large areas
CN106092091B (zh) * 2016-08-10 2019-07-02 京东方科技集团股份有限公司 电子机器设备
KR102544737B1 (ko) * 2016-08-30 2023-06-16 엘지전자 주식회사 로봇 청소기 및 로봇 청소기를 포함하는 시스템
KR102581196B1 (ko) * 2016-10-07 2023-09-21 엘지전자 주식회사 공항 로봇 및 공항 로봇의 동작 방법을 수행하는 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체
CN106325094A (zh) * 2016-10-30 2017-01-11 苏州市克拉思科文化传播有限公司 一种智能家居管理扫地机器人
KR102662949B1 (ko) * 2016-11-24 2024-05-02 엘지전자 주식회사 인공지능 이동 로봇 및 그 제어방법
CN106444786B (zh) * 2016-11-29 2019-07-02 北京小米移动软件有限公司 扫地机器人的控制方法及装置和电子设备
US10962647B2 (en) 2016-11-30 2021-03-30 Yujin Robot Co., Ltd. Lidar apparatus based on time of flight and moving object
DE102016124856A1 (de) * 2016-12-19 2018-06-21 Vorwerk & Co. Interholding Gmbh Verfahren zur Erstellung einer Umgebungskarte für ein Bearbeitungsgerät
KR102235270B1 (ko) 2017-01-18 2021-04-01 엘지전자 주식회사 이동 로봇 시스템 및 그 제어방법
WO2018145275A1 (zh) * 2017-02-08 2018-08-16 格兰比圣(深圳)科技有限公司 一种智能清洁方法及装置
USD844645S1 (en) * 2017-02-15 2019-04-02 AI Incorporated Robotic vacuum display screen with graphical user interface
EP3366101B1 (en) * 2017-02-24 2022-05-11 Samsung Electronics Co., Ltd. Portable electronic apparatus and method for controlling thereof
US11503972B2 (en) * 2017-03-03 2022-11-22 Techtronic Floor Care Technology Limited Vacuum cleaner and vacuum cleaning system in wireless communication with a user-controlled electronic device
JP6871602B2 (ja) * 2017-03-09 2021-05-12 学校法人千葉工業大学 自律走行型掃除機
JP6885160B2 (ja) * 2017-03-31 2021-06-09 カシオ計算機株式会社 移動装置、移動装置の制御方法及びプログラム
JP6526098B2 (ja) * 2017-04-26 2019-06-05 ファナック株式会社 ロボットを操作するための操作装置、ロボットシステム、および操作方法
EP3629869B1 (en) 2017-06-02 2023-08-16 Aktiebolaget Electrolux Method of detecting a difference in level of a surface in front of a robotic cleaning device
WO2019004773A1 (ko) * 2017-06-30 2019-01-03 엘지전자 주식회사 이동 단말기 및 이를 포함하는 로봇 시스템
KR102024092B1 (ko) * 2017-07-12 2019-09-23 엘지전자 주식회사 이동 로봇 시스템 및 그 제어방법
KR102021834B1 (ko) 2017-07-12 2019-09-17 엘지전자 주식회사 이동 로봇 시스템 및 그 제어방법
GB2565315B (en) * 2017-08-09 2022-05-04 Emotech Ltd Robots, methods, computer programs, computer-readable media, arrays of microphones and controllers
DE102017118383A1 (de) * 2017-08-11 2019-02-14 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Reinigungsgerätes
CN107638137A (zh) * 2017-09-14 2018-01-30 广东格兰仕集团有限公司 一种声音识别的机器人及其识别方法
US11579298B2 (en) 2017-09-20 2023-02-14 Yujin Robot Co., Ltd. Hybrid sensor and compact Lidar sensor
KR20200058400A (ko) 2017-09-26 2020-05-27 에이비 엘렉트로룩스 로봇 청소 장치의 이동 제어
CN109557908B (zh) * 2017-09-27 2022-06-14 九阳股份有限公司 一种基于投射虚拟墙的机器人导航方法和***
CN107730552A (zh) * 2017-09-27 2018-02-23 上海与德通讯技术有限公司 一种交互方法、装置、扫地机器人及介质
CN107745381B (zh) * 2017-09-29 2018-10-12 南京昱晟机器人科技有限公司 一种机器人及其识别路障的方法
CN109623809A (zh) * 2017-10-09 2019-04-16 东莞市冠毅计算机技术有限公司 一种机器人智能控制***
WO2019081030A1 (en) * 2017-10-26 2019-05-02 Aktiebolaget Electrolux USE OF INCREASED REALITY FOR EXCHANGING SPATIAL INFORMATION WITH A ROBOTIC CLEANING DEVICE
CN107877521A (zh) * 2017-11-06 2018-04-06 广西富迈科技有限公司 物品识别与处理方法、机器人终端及存储介质
US10638906B2 (en) * 2017-12-15 2020-05-05 Neato Robotics, Inc. Conversion of cleaning robot camera images to floorplan for user interaction
CN108209745B (zh) * 2017-12-18 2021-06-25 深圳市奇虎智能科技有限公司 清洁设备的控制方法、装置、计算机设备和存储介质
CN108113580A (zh) * 2017-12-20 2018-06-05 苏州燕云网络技术有限公司 扫地机自动清扫局部区域的方法及扫地机
KR102429764B1 (ko) 2018-02-01 2022-08-08 삼성전자주식회사 사용자의 제스처를 인식하는 전자 장치
CN110192810A (zh) * 2018-02-26 2019-09-03 广东理标信息科技有限公司 一种机器人智能控制***
CN108338748A (zh) * 2018-03-14 2018-07-31 郑州工程技术学院 一种基于视频监控的自动清洁方法、装置以及清洁机器人
JP7030007B2 (ja) * 2018-04-13 2022-03-04 東芝ライフスタイル株式会社 自律型電気掃除機
KR102528737B1 (ko) * 2018-04-27 2023-05-08 삼성전자주식회사 외부 전자 장치를 제어하는 전자 장치 및 방법
US11874399B2 (en) 2018-05-16 2024-01-16 Yujin Robot Co., Ltd. 3D scanning LIDAR sensor
CN108805928B (zh) * 2018-05-23 2023-04-18 平安科技(深圳)有限公司 控制无人设备直播的方法、装置、计算机设备及存储介质
CN108742332A (zh) * 2018-05-30 2018-11-06 上海与德通讯技术有限公司 一种清扫方法和机器人
CN108888187A (zh) * 2018-05-31 2018-11-27 四川斐讯信息技术有限公司 一种基于深度相机的扫地机器人
KR20190141303A (ko) * 2018-06-14 2019-12-24 엘지전자 주식회사 이동 로봇의 동작 방법
CN108888204B (zh) * 2018-06-29 2022-02-22 炬大科技有限公司 一种扫地机器人呼唤装置及呼唤方法
GB201811301D0 (en) * 2018-07-10 2018-08-29 Emotech Ltd Robotic system
WO2020014495A1 (en) * 2018-07-13 2020-01-16 Irobot Corporation Mobile robot cleaning system
US10867408B1 (en) * 2018-07-23 2020-12-15 Apple Inc. Estimation of spatial relationships between sensors of a multi-sensor device
CN109199240B (zh) * 2018-07-24 2023-10-20 深圳市云洁科技有限公司 一种基于手势控制的扫地机器人控制方法及***
WO2020027406A1 (ko) * 2018-08-01 2020-02-06 엘지전자 주식회사 인공지능 이동 로봇
KR102629036B1 (ko) * 2018-08-30 2024-01-25 삼성전자주식회사 로봇 및 그의 제어 방법
US11597086B2 (en) 2018-09-13 2023-03-07 The Charles Stark Draper Laboratory, Inc. Food-safe, washable interface for exchanging tools
WO2020060267A1 (en) * 2018-09-20 2020-03-26 Samsung Electronics Co., Ltd. Cleaning robot and method for performing task thereof
CN108829115B (zh) * 2018-10-09 2019-01-29 上海岚豹智能科技有限公司 一种机器人的运动控制方法及其计算设备
CN111103875B (zh) * 2018-10-26 2021-12-03 科沃斯机器人股份有限公司 避让的方法、设备及存储介质
KR20200050235A (ko) 2018-11-01 2020-05-11 삼성전자주식회사 전자 장치 및 그의 지능형 인터랙션 방법
CN109330494A (zh) * 2018-11-01 2019-02-15 珠海格力电器股份有限公司 基于动作识别的扫地机器人控制方法、***、扫地机器人
CN111352432B (zh) * 2018-12-20 2023-09-15 北京石头世纪科技股份有限公司 智能清洁设备及其控制方法和可读介质
WO2020140271A1 (zh) 2019-01-04 2020-07-09 珊口(上海)智能科技有限公司 移动机器人的控制方法、装置、移动机器人及存储介质
CN109828562B (zh) * 2019-01-17 2022-07-08 上海岚豹智能科技有限公司 机器人清扫模式调节方法及装置
CN111493745A (zh) * 2019-01-31 2020-08-07 北京奇虎科技有限公司 控制机器人工作的方法、电子设备及计算机可读存储介质
CN111568306A (zh) * 2019-02-19 2020-08-25 北京奇虎科技有限公司 基于清洁机器人的清洁方法、装置、电子设备及存储介质
CN111568307B (zh) * 2019-02-19 2023-02-17 北京奇虎科技有限公司 机器人执行清扫工作方法、设备及计算机可读存储介质
US20210331314A1 (en) * 2019-03-08 2021-10-28 Lg Electronics Inc. Artificial intelligence cleaner
CN110025262A (zh) * 2019-04-18 2019-07-19 珠海市一微半导体有限公司 一种多功能扫地机器人
KR20190086631A (ko) * 2019-07-02 2019-07-23 엘지전자 주식회사 사용자의 동작을 고려하여 청소하는 인공 지능 장치 및 그 방법
CN113710133B (zh) * 2019-09-27 2022-09-09 深圳阿科伯特机器人有限公司 智能终端、控制***及与移动机器人的交互方法
KR102330900B1 (ko) * 2019-09-27 2021-11-26 엘지전자 주식회사 이동로봇
CN110597081B (zh) * 2019-09-30 2022-10-25 青岛海尔科技有限公司 基于智能家居操作***的控制指令的发送方法及装置
DE102019128927A1 (de) * 2019-10-25 2021-04-29 Vorwerk & Co. Interholding Gmbh Verfahren zur Erstellung einer Umgebungskarte für ein sich selbsttätig fortbewegendes Bodenbearbeitungsgerät, sowie System aus zwei sich selbsttätig fortbewegenden Bodenbearbeitungsgeräten
KR20210080022A (ko) * 2019-12-20 2021-06-30 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN113116224B (zh) * 2020-01-15 2022-07-05 科沃斯机器人股份有限公司 机器人及其控制方法
CN113126632B (zh) * 2020-01-15 2022-08-16 科沃斯机器人股份有限公司 虚拟墙划定和作业方法、设备及存储介质
CN113679289B (zh) * 2020-05-18 2023-02-21 云米互联科技(广东)有限公司 扫地机控制方法、控制设备及计算机可读存储介质
CN111964154B (zh) * 2020-08-28 2021-09-21 邯郸美的制冷设备有限公司 空调器室内机、控制方法、运行控制装置及空调器
CN111984017A (zh) * 2020-08-31 2020-11-24 苏州三六零机器人科技有限公司 清扫设备控制方法、装置、***及计算机可读存储介质
CN114158980A (zh) * 2020-09-11 2022-03-11 科沃斯机器人股份有限公司 作业方法和作业模式配置方法、设备及存储介质
KR20220035767A (ko) * 2020-09-14 2022-03-22 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN114680740B (zh) * 2020-12-29 2023-08-08 美的集团股份有限公司 清扫控制方法、装置、智能设备、移动设备及服务器
CN114680739B (zh) * 2020-12-29 2023-08-04 美的集团股份有限公司 清扫控制方法、装置、智能设备、移动终端及服务器
CN112890692A (zh) * 2021-02-08 2021-06-04 美智纵横科技有限责任公司 设置清洁禁区的方法、装置、清洁设备及存储介质
US20220347862A1 (en) * 2021-05-03 2022-11-03 Samsung Electronics Co., Ltd. Method and system for controlling cleaning robot
CN113679298B (zh) * 2021-08-27 2022-05-10 美智纵横科技有限责任公司 机器人的控制方法、控制装置、机器人和可读存储介质
JP2023151723A (ja) * 2022-04-01 2023-10-16 オムロン株式会社 移動機構が移動する作業場所に対応する環境地図を管理するシステム、方法、およびプログラム
KR20230143800A (ko) 2022-04-06 2023-10-13 엘지전자 주식회사 이동 로봇 및 그의 제어 방법
KR20240059947A (ko) 2022-10-28 2024-05-08 주식회사 세미엘렉 머신러닝 기반 협동로봇의 센서 신호처리 시스템
CN115500740B (zh) * 2022-11-18 2023-04-18 科大讯飞股份有限公司 清洁机器人及清洁机器人控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040031580A (ko) * 2002-10-04 2004-04-13 후지쯔 가부시끼가이샤 로봇
US20050237388A1 (en) * 2004-04-16 2005-10-27 Funai Electric Co., Ltd. Self-propelled cleaner with surveillance camera
KR20060027727A (ko) * 2004-09-23 2006-03-28 엘지전자 주식회사 로봇 청소기의 원격제어 시스템
KR20120116278A (ko) * 2011-04-12 2012-10-22 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US20130056032A1 (en) * 2011-09-07 2013-03-07 Suuk Choe Robot cleaner, and system and method for remotely controlling the same

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0313611A (ja) * 1989-06-07 1991-01-22 Toshiba Corp 自動清掃装置
SE502834C2 (sv) 1994-03-29 1996-01-29 Electrolux Ab Förfarande och anordning för avkänning av hinder vid självgående anordning
KR20010106845A (ko) * 2000-05-23 2001-12-07 이정철 다기능 가정용 로봇 및 그의 제어방법
WO2002065403A1 (de) * 2001-02-15 2002-08-22 Leopold Kostal Gmbh & Co. Kg Schlüssellose zugangsberechtigungskontrolleinrichtung
JP3627058B2 (ja) 2002-03-01 2005-03-09 独立行政法人科学技術振興機構 ロボット視聴覚システム
KR100474340B1 (ko) * 2002-08-02 2005-03-10 엘지전자 주식회사 진공 청소기의 음성제어 장치 및 그 방법
AU2007289233A1 (en) * 2006-08-29 2008-03-06 Dsm Ip Assets B.V. Use of DPA(n-6) oils in infant formula
DE102009051508B4 (de) * 2009-10-30 2020-12-03 Continental Automotive Gmbh Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und -führung
US8520901B2 (en) 2010-06-11 2013-08-27 Namco Bandai Games Inc. Image generation system, image generation method, and information storage medium
DE102011050357A1 (de) * 2010-08-12 2012-02-16 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines selbsttätig verfahrbaren Gerätes
DE102011014734A1 (de) * 2011-03-22 2012-09-27 Carl Freudenberg Kg Automatisches Reinigungsgerät und Verfahren zum Betreiben eines automatischen Reinigungsgeräts
US9259842B2 (en) * 2011-06-10 2016-02-16 Microsoft Technology Licensing, Llc Interactive robot initialization
US8776916B2 (en) * 2011-07-01 2014-07-15 Baker Hughes Incorporated Drilling motors with elastically deformable lobes
RU2455676C2 (ru) 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US9037296B2 (en) * 2011-09-07 2015-05-19 Lg Electronics Inc. Robot cleaner, and system and method for remotely controlling the same
KR101910382B1 (ko) * 2011-12-08 2018-10-22 엘지전자 주식회사 자동 이동 장치 및 그 수동 조작 방법
KR101356165B1 (ko) * 2012-03-09 2014-01-24 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
JP6104519B2 (ja) * 2012-05-07 2017-03-29 シャープ株式会社 自走式電子機器
US8800154B2 (en) 2012-06-07 2014-08-12 Gerald Lee Schmidt Telescopic sight alignment tool
KR101954144B1 (ko) * 2012-06-08 2019-03-05 엘지전자 주식회사 로봇 청소기와, 이의 제어 방법, 및 이를 포함한 로봇 청소 시스템
CN102800126A (zh) * 2012-07-04 2012-11-28 浙江大学 基于多模态融合的实时人体三维姿态恢复的方法
US9675226B2 (en) * 2012-10-26 2017-06-13 Lg Electronics Inc. Robot cleaner system and control method of the same
US20150002734A1 (en) * 2013-07-01 2015-01-01 Motorola Mobility Llc Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040031580A (ko) * 2002-10-04 2004-04-13 후지쯔 가부시끼가이샤 로봇
US20050237388A1 (en) * 2004-04-16 2005-10-27 Funai Electric Co., Ltd. Self-propelled cleaner with surveillance camera
KR20060027727A (ko) * 2004-09-23 2006-03-28 엘지전자 주식회사 로봇 청소기의 원격제어 시스템
KR20120116278A (ko) * 2011-04-12 2012-10-22 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US20130056032A1 (en) * 2011-09-07 2013-03-07 Suuk Choe Robot cleaner, and system and method for remotely controlling the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2777408C1 (ru) * 2018-12-21 2022-08-03 Позитек Пауэр Тулз (Сюйчжоу) Ко., Лтд Роботизированная система чистки, базовая станция и способ ее управления
US20220075384A1 (en) * 2019-03-05 2022-03-10 Hitachi, Ltd. Moving Range Setting System and Moving Range Setting Method
RU2789696C1 (ru) * 2019-07-31 2023-02-07 ЭлДжи ЭЛЕКТРОНИКС ИНК. Подвижный робот и способ управления им
US11625039B2 (en) 2019-07-31 2023-04-11 Lg Electronics Inc. Moving robot and control method thereof

Also Published As

Publication number Publication date
AU2014297039B2 (en) 2016-07-14
US20150032260A1 (en) 2015-01-29
CN105407774A (zh) 2016-03-16
KR20150014237A (ko) 2015-02-06
EP3027101A1 (en) 2016-06-08
WO2015016580A1 (en) 2015-02-05
AU2014297039A1 (en) 2015-11-12
EP3027101A4 (en) 2017-04-19
CN105407774B (zh) 2018-09-18
US10265858B2 (en) 2019-04-23
CA2918318A1 (en) 2015-02-05
EP3027101B1 (en) 2019-09-04
CA2918318C (en) 2017-12-19
US9597804B2 (en) 2017-03-21
KR102094347B1 (ko) 2020-03-30
US20170144311A1 (en) 2017-05-25

Similar Documents

Publication Publication Date Title
RU2620236C1 (ru) Система автоматической уборки, робот-уборщик и способ управления роботом-уборщиком
CN109947109B (zh) 机器人工作区域地图构建方法、装置、机器人和介质
US10705535B2 (en) Systems and methods for performing simultaneous localization and mapping using machine vision systems
EP3585571B1 (en) Moving robot and control method thereof
EP3308911B1 (en) Mobile robot and method of controlling same
TWI687784B (zh) 移動式機器人及其控制方法
US10967512B2 (en) Moving robot and controlling method
EP2677386B1 (en) Robot cleaner and obstacle detection control method of the same
CN106537186B (zh) 用于使用机器视觉***执行同时定位和映射的***和方法
KR102183012B1 (ko) 모바일 기기, 청소로봇 및 그 제어방법
WO2019114219A1 (zh) 移动机器人及其控制方法和控制***
CN114521836A (zh) 一种自动清洁设备
US20190049979A1 (en) Method for the operation of an automatically moving cleaning appliance
CN111493751A (zh) 清洁机器人及其控制方法
KR20190093800A (ko) 이동 로봇 및 이동 로봇의 제어방법
CN106142104A (zh) 自移动机器人及其控制方法
CN111990930B (zh) 一种测距方法、装置、机器人和存储介质
CN109254580A (zh) 用于自动行走式的服务设备的运行方法
US20220257075A1 (en) Moving robot and method of controlling the same
CN114938927A (zh) 自动清洁设备、控制方法及存储介质
CN217365667U (zh) 自动清洁设备
CN115500740B (zh) 清洁机器人及清洁机器人控制方法