ES2894289T3 - Procedimiento para la operación de un vehículo que se desplaza automáticamente - Google Patents

Procedimiento para la operación de un vehículo que se desplaza automáticamente Download PDF

Info

Publication number
ES2894289T3
ES2894289T3 ES18164993T ES18164993T ES2894289T3 ES 2894289 T3 ES2894289 T3 ES 2894289T3 ES 18164993 T ES18164993 T ES 18164993T ES 18164993 T ES18164993 T ES 18164993T ES 2894289 T3 ES2894289 T3 ES 2894289T3
Authority
ES
Spain
Prior art keywords
vehicle
user
screen
information
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18164993T
Other languages
English (en)
Inventor
Lorenz Hillen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vorwerk and Co Interholding GmbH
Original Assignee
Vorwerk and Co Interholding GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vorwerk and Co Interholding GmbH filed Critical Vorwerk and Co Interholding GmbH
Application granted granted Critical
Publication of ES2894289T3 publication Critical patent/ES2894289T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4002Installations of electric equipment
    • A47L11/4008Arrangements of switches, indicators or the like
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/24Floor-sweeping machines, motor-driven
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4061Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2857User input or output elements for control, e.g. buttons, switches or displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

Procedimiento para la operación de un vehículo (1), en particular de un robot de limpieza, no tripulado que se desplaza automáticamente dentro de un entorno, detectando el vehículo (1) obstáculos y/o personas que se encuentran dentro del entorno, visualizándose a un usuario (2) informaciones (3) en una pantalla (4) del vehículo (1) orientada habitualmente horizontal en relación a un plano de representación durante una operación del vehículo (1), determinándose, en caso de detección de una presencia de un usuario (2), una posición espacial del usuario (2) con respecto al vehículo (1), caracterizado por que se hace variar una orientación de las informaciones (3) visualizadas en función de la posición espacial determinada del usuario (2), adaptándose preventivamente la representación de las informaciones (3) en la pantalla (4) sin que sea necesario que el usuario (2) se dirija hacia el vehículo (1) o mire al vehículo (1), reagrupándose uno con respecto a otro elementos (15) de manejo visualizados en la pantalla (4) en función de la posición espacial del usuario (2).

Description

DESCRIPCIÓN
Procedimiento para la operación de un vehículo que se desplaza automáticamente
La invención se refiere a un procedimiento para la operación de un vehículo, en particular un robot de limpieza, no tripulado que se desplaza automáticamente dentro de un entorno, detectando el vehículo obstáculos y/o personas que se encuentran dentro del entorno, visualizándose a un usuario informaciones en una pantalla del vehículo, orientada habitualmente horizontal en relación a un plano de representación durante una operación del vehículo, determinándose, en caso de detección de una presencia de un usuario, una posición espacial del usuario con respecto al vehículo.
Además, la invención se refiere a un vehículo, en particular un robot de limpieza, no tripulado que se desplaza automáticamente dentro de un entorno, con un dispositivo de captación de imágenes para la detección de obstáculos y/o personas que se encuentran dentro del entorno, presentando el vehículo una pantalla orientada habitualmente horizontal en relación a un plano de representación durante una operación del vehículo, para la visualización de informaciones, así como un dispositivo de cálculo, el cual está configurado para determinar, en caso de detección de una presencia de un usuario, una posición espacial del usuario con respecto al vehículo.
Estado de la técnica
Los vehículos que se desplazan automáticamente son conocidos en el estado de la técnica. P. ej., el documento DE 10 2012109 004 A1, muestra un vehículo configurado como robot de limpieza. Ahí se describe un robot de limpieza con una interfaz hombre-máquina, la cual puede presentar una pantalla configurada en una carcasa del robot de limpieza. En esta pantalla se pueden representar informaciones acerca de un proceso de tratamiento del robot de limpieza, entre otras, también informaciones que se refieren a un entorno de limpieza.
Además, entre otros, también es conocido, p. ej., a partir de los documentos DE 10 2008 014 912 A1 y DE 102011 000 250 A1, dotar a vehículos, como robots de limpieza, que se desplazan automáticamente con un dispositivo de detección, el cual puede detectar obstáculos que se encuentran dentro del entorno del robot de limpieza. Al recorrer una subsección del entorno, p. ej., una habitación de una vivienda, el dispositivo de detección mide distancias a objetos, las cuales sirven como base para la creación de un mapa del entorno. En función de una distancia medida a un obstáculo, el vehículo puede reaccionar mediante movimientos de maniobra y de evasión para no colisionar con los obstáculos.
En el estado de la técnica son conocidos además diferentes tipos de dispositivos de detección para robots de limpieza, p. ej., sensores ultrasónicos, sensores de contacto, sistemas de cámaras y similares.
Las informaciones que se refieren a la operación del vehículo, características del entorno o, también, posibilidades de selección para la operación del vehículo, en el estado de la técnica se representan con un dispositivo de representación fijo en la pantalla del vehículo. Normalmente, el dispositivo de representación es de modo que un usuario puede leer de forma óptima las informaciones, en particular informaciones de texto, cuando él se encuentra, en relación a una dirección de desplazamiento principal del vehículo, delante del vehículo.
El dispositivo de representación descrito es no obstante incómodo para el usuario del vehículo, cuando, p. ej., un manejo del vehículo debe tener lugar desde un lado del vehículo o desde detrás.
Aparte, a partir de los documentos US 2016/0283105 A1 y US 2014/0092139 A1, son conocidos aparatos móviles, denominados dispositivos inteligentes, cuya visualización de información en la pantalla cambia en función de una dirección de interacción del usuario con respecto al aparato. Por ejemplo, se propone que la orientación de contenidos de información visualizados cambie en función de una posición angular de una mano del usuario en caso de contacto de la pantalla, o bien, que se detecte el ángulo de visión del usuario sobre el aparato o bien sobre la pantalla y se evalúe para una orientación de la representación de informaciones en la pantalla.
Resumen de la invención
Es objeto de la invención, proporcionar un procedimiento para la operación de un vehículo que se desplaza automáticamente o bien un vehículo de este tipo que se desplaza automáticamente, en el cual la manejabilidad del vehículo está optimizada, en particular también en caso de un manejo desde diferentes lados del vehículo.
Para la solución del objeto mencionado anteriormente, en primer lugar, se propone que se haga variar una orientación de las informaciones visualizadas en función de la posición espacial determinada del usuario, adaptándose preventivamente la representación de las informaciones en la pantalla sin que sea necesario que el usuario se dirija hacia el vehículo o mire al vehículo, reagrupándose uno con respecto a otro los elementos de manejo visualizados en la pantalla en función de la posición espacial del usuario.
Mediante la invención, las informaciones y los elementos de manejo se pueden visualizar ahora para un usuario en la pantalla del vehículo, de modo que el usuario puede leer éstas siempre de forma cómoda desde su posición actual y orientación sin tener que moverse y/o girarse con respecto al vehículo o bien a la pantalla. Para ello, un dispositivo de detección del vehículo o, también, un dispositivo de detección dispuesto externo con respecto al vehículo, detecta una posición de un usuario con respecto al vehículo. Siempre que se determine que las informaciones y los elementos de manejo representados actualmente en la pantalla no se proporcionan en una dirección de representación de este tipo, la cual permite (en relación al plano de la pantalla) una lectura normal de arriba hacia abajo de las informaciones mediante el usuario, la dirección de representación se cambia, de modo que el usuario puede leer forma óptima las informaciones desde su posición espacial actual con una correspondiente dirección de visión sobre el vehículo y/o sobre la pantalla sin cambio de su posición o bien orientación. Para provocar un cambio de la dirección de representación o bien al menos una comprobación si una dirección de representación actual es adecuada, es suficiente como evento desencadenante cuando una persona se detiene en la cercanía del vehículo. En este caso, no es necesario que el usuario se dirija hacia el vehículo o incluso mire al vehículo. La representación de las informaciones en la pantalla ya se adapta preventivamente, en particular para el caso en que la persona presente quiere realizar próximamente un manejo del vehículo o bien quiere leer informaciones de la pantalla.
Se propone que se detecte la presencia del usuario por medio de un dispositivo de captación de imágenes. El dispositivo de captación de imágenes puede ser, de manera particularmente preferida, una cámara o al menos un chip de cámara, cuyos datos de imagen se analizan después si una persona se encuentra dentro de la región de captación. Con métodos habituales de un procesamiento de imágenes se puede decidir mediante características definidas si en el caso de un objeto se trata de una cosa o de una forma humana. Siempre que se determine que una persona está presente dentro de una región del entorno definida del vehículo, en un paso de procedimiento adicional se puede determinar entonces si una dirección de representación de las informaciones en la pantalla es adecuada para que el usuario pueda leer de forma óptima y de manera habitual, partiendo desde su posición espacial actual con respecto al vehículo, las informaciones representadas en la pantalla. Si este no fuera el caso, como se propone, se adapta la orientación de las informaciones visualizadas a la posición espacial determinada del usuario.
En particular, se propone que una dirección de visión del usuario se determine por medio de un procedimiento de reconocimiento facial. De acuerdo con esta configuración, no solo se determina una presencia o bien una posición de un usuario con respecto al vehículo, sino que concretamente también en qué dirección mira actualmente el usuario. En particular, se puede analizar si el usuario mira al vehículo. En el caso, en que el usuario no mire en dirección del vehículo, sino en una dirección espacial que se desvía del mismo, puede estar previsto no adaptar una dirección de representación en la pantalla del vehículo. Siempre que se determine que la dirección de visión del usuario se dirige en dirección del vehículo, en particular a la pantalla del vehículo y/o hacia el dispositivo de captación de imágenes, se provoca una adaptación de la orientación de las informaciones visualizadas. El procedimiento de reconocimiento facial puede incluir, en este caso, también, que se determine la persona del usuario, es decir, si en el caso del usuario se trata de un usuario registrado en el vehículo, el cual también está autorizado para el manejo del vehículo. Al igual que también mediante la determinación pura, representada anteriormente, de la posición espacial del usuario con respecto al vehículo, en el marco del reconocimiento facial también puede identificarse si el usuario actualmente se encuentra delante, al lado o detrás del vehículo o bien de su pantalla.
Además, se propone que se detecte una dirección de manejo, desde la cual el usuario maneja el vehículo. En esta configuración se determina desde qué dirección el usuario maneja, p. ej., una interfaz de entrada del vehículo, en particular una pantalla táctil. La detección de la dirección de manejo requiere que el usuario se aproxime a la interfaz de entrada y/o a la pantalla del vehículo con, p. ej., la mano, para realizar próximamente o en el momento de la detección un manejo del vehículo. La dirección de manejo puede detectarse alternativamente por medio de un dispositivo de captación de imágenes. También pueden utilizarse sensores de contacto, pantallas sensibles al tacto o similares.
En particular, se propone que se detecte una orientación de una mano del usuario que agarra el vehículo. Mediante la orientación de la mano del usuario se puede concluir la dirección de manejo, desde la cual el usuario quiere manejar o bien maneja el vehículo y, con ello, también, la posición espacial actual y orientación del usuario en el entorno. P. ej., el dispositivo de captación de imágenes del usuario capta una imagen de la mano que agarra el vehículo o al menos una mano del usuario que se encuentra en la cercanía del vehículo. A continuación, la imagen captada se evalúa con ayuda de un procesamiento de imágenes, en el sentido de en qué orientación está orientada la mano con respecto al vehículo.
En particular, se propone que se detecte la orientación de la mano por medio de un sensor capacitivo, en particular una pantalla capacitiva. Cuando la mano del usuario se mueve hacia un sensor capacitivo, cambia la capacidad y se puede concluir la presencia de la mano. El sensor capacitivo puede estar, de manera particularmente ventajosa, integrado en la pantalla del vehículo, concretamente, en forma de una pantalla táctil capacitiva. Por lo tanto, mediante la señal medida de la pantalla se puede identificar desde qué dirección de manejo maneja el usuario actualmente el vehículo. Aquellas subsecciones del sensor o bien de la pantalla, cuya capacidad está aumentada, apuntan, p. ej., en una dirección la cual se puede asumir como dirección de manejo. Alternativa y/o adicionalmente, la dirección de manejo o bien la orientación de la mano del usuario se puede detectar por medio de un dispositivo de captación de imágenes, p. ej., una cámara.
Además, se propone que se seleccione una de varias posibles direcciones de representación de la pantalla en función de la posición espacial determinada del usuario. P. ej., para la representación en la pantalla pueden estar definidas varias direcciones preferidas. En el caso de una pantalla rectangular, éstas pueden ser, p. ej., las direcciones de representación orientadas paralelas con respecto a los bordes laterales, concretamente, cuatro direcciones de representación rotadas en 90° una con respecto a otra. En el caso, en que estén definidas direcciones de representación discretas para la representación en la pantalla, se propone que tras la determinación de la dirección de visión o bien dirección de manejo del usuario se compruebe qué dirección de representación se encuentra más cercana a la dirección de visión o bien dirección de manejo actuales. Siempre que ninguna de las direcciones de representación predefinidas de la pantalla esté orientada paralela con respecto a una dirección de visión o bien dirección de manejo del usuario, preferiblemente, se selecciona aquella dirección de representación que presente la desviación angular más pequeña con respecto a la dirección de visión o bien dirección de manejo. Además, sin embargo, también puede estar previsto que las direcciones de representación se puedan seleccionar continuas, es decir, no se preestablezcan direcciones de representación discretas mediante, p. ej., la pantalla. Este es el caso, cuando la pantalla está configurada, p. ej., redonda, de modo que una representación de las informaciones se puede realizar en cualquier dirección posible sin que, p. ej., una región de esquina del campo de información se recorte del contorno exterior de la pantalla. Para evitar un recorte de las informaciones mediante el contorno de la pantalla, cuando las informaciones representadas se giran en la pantalla, también puede estar previsto que la superficie de representación de la pantalla disponible para la orientación se seleccione mayor que la superficie requerida para la visualización de las informaciones. En caso de tamaño de representación invariable de las informaciones, por lo tanto, también puede tener lugar una orientación del contenido de pantalla en todas las direcciones deseadas.
Se propone que varias subsecciones de las informaciones visualizadas en la pantalla y/o de los elementos de manejo visualizados en la pantalla se reagrupen uno con respecto a otro en función de la posición espacial del usuario. De acuerdo con esta forma de realización, en la pantalla se representa, por ejemplo, al menos un elemento de manejo, haciéndose variar una orientación y/o una posición del elemento de manejo en función de la posición espacial determinada del usuario con respecto a las informaciones visualizadas y/u otros elementos de manejo. En particular, el elemento de manejo se puede visualizar en un borde de la superficie de representación de la pantalla orientado hacia el usuario, particularmente preferido, entre el borde de la superficie de pantalla orientado hacia el usuario e informaciones visualizadas. En función de la posición espacial del usuario, por lo tanto, pueden reagruparse, al menos parcialmente, las informaciones y/o los elementos de manejo visualizados en la pantalla, de modo que su posición está cambiada en la superficie de representación y, de esta manera, ahora por ejemplo una subsección de las informaciones, la cual hasta ahora estaba dispuesta en dirección de visión del usuario por encima de otra subsección, está dispuesta junto a esta subsección. Los elementos de manejo están dispuestos en la pantalla, por ejemplo, tipo superficies táctiles, sobre las cuales el usuario puede pulsar para, por ejemplo, realizar una selección de menú, Los elementos de manejo pueden estar dispuestos, preferiblemente, en una región de borde de la superficie de representación de la pantalla, de manera particularmente preferida, según la dirección de visión del usuario delante de las informaciones representadas como texto, de modo que el usuario en caso de accionamiento de uno de los elementos de manejo no tape con su mano las otras informaciones visualizadas en la pantalla. Las informaciones pueden, por lo tanto, de manera preferida, estar organizadas en la pantalla de modo que los elementos de manejo siempre apuntan en dirección del usuario y, por lo tanto, se encuentran entre las informaciones visualizadas restantes, por ejemplo, partes integrantes de texto, y el usuario. Además, puede estar previsto que a la pantalla estén asociados separados, fuera de la superficie de representación, elementos de accionamiento tipo botones. Los elementos de manejo representados en la pantalla pueden, en este caso, incluir explicaciones y/o etiquetas para los elementos de accionamiento asociados, de modo que un usuario obtiene informaciones acerca de qué funciones se encuentran detrás de los elementos de accionamiento. Para que los elementos de manejo permanezcan, por ejemplo, siempre junto a los elementos de accionamiento asociados, también cuando cambia la orientación de la información en la pantalla, los elementos de manejo pueden representarse siempre en aquel borde de la superficie de representación, el cual es adyacente a los elementos de accionamiento.
De acuerdo con una realización particularmente preferida, para la realización del procedimiento se propone una ejecución temporalmente consecutiva de los siguientes pasos de procedimiento:
- captación del entorno del vehículo por medio de un dispositivo de captación de imágenes,
- identificación de la presencia de un usuario en el entorno del vehículo,
- determinación de una dirección de visión y/o de una dirección de manejo de una mano del usuario,
- asociación de la dirección de visión y/o de la dirección de manejo determinadas a una dirección de representación de la pantalla y
- representación de información con la orientación de la dirección de representación asociada.
Los pasos de procedimiento mencionados anteriormente puede pasarse repetidamente para la orientación óptima del contenido de pantalla. En primer lugar, se capta, p. ej., una imagen de cámara del entorno del vehículo, a continuación, se realiza un reconocimiento facial para la identificación de un rostro de un usuario y para la determinación de una dirección de visión del usuario, asociándose entonces a continuación una posible dirección de representación en la pantalla, la cual corresponde lo mejor posible a la dirección de visión determinada. Las informaciones visualizadas en la pantalla se giran a continuación conforme a la dirección de representación óptima, de modo que el usuario puede leer de forma óptima las informaciones desde su dirección de visión.
Junto al procedimiento descrito anteriormente, con la invención se propone además un vehículo, en particular un robot de limpieza, no tripulado que se desplaza automáticamente dentro de un entorno, presentando el vehículo un dispositivo de captación de imágenes para la detección de obstáculos y/o personas que se encuentran dentro del entorno, presentando el vehículo una pantalla orientada habitualmente horizontal en relación a un plano de representación durante una operación del vehículo para la visualización de informaciones, y presentando el vehículo un dispositivo de cálculo que está configurado para, en caso de detección de una presencia de un usuario, determinar una posición espacial del usuario con respecto al vehículo y hacer variar una dirección de representación de las informaciones visualizadas en la pantalla en función de la posición espacial determinada del usuario, concretamente adaptar ya preventivamente sin que sea necesario que el usuario se dirija hacia el vehículo o mire al vehículo, reagrupándose uno con respecto a otro elementos de manejo visualizados en la pantalla, en función de la posición espacial del usuario.
El vehículo, en particular un robot de limpieza así configurado, es adecuado, por lo tanto, para realizar un procedimiento explicado anteriormente y para orientar las informaciones representadas en la pantalla del vehículo, de modo que un usuario puede leer éstas de forma óptima desde su dirección de visión actual y/o puede manejar de forma óptima desde su posición de manejo actual.
Para la representación y orientación mejor posibles de las informaciones en la pantalla, en particular, se propone que la pantalla presente una superficie de representación, cuyas longitudes laterales sean al menos tan grandes como una diagonal lo más grande posible de las informaciones visualizadas en la pantalla, y/o que la pantalla presente una superficie de representación redonda con un diámetro el cual es al menos tan grande como una diagonal de las informaciones visualizadas en la pantalla. De acuerdo con esta configuración, la relación entre la superficie de representación completa de la pantalla y de la superficie parcial de pantalla ocupada por las informaciones representadas está dimensionada de modo que las informaciones representadas, también en caso de un giro en la pantalla, no sobresalen más allá del borde de la superficie de representación, de modo que las informaciones pueden visualizarse completamente, independientemente de la dirección de representación actual y, en particular, no se recortan regiones de esquina.
Breve descripción de los dibujos
A continuación, la invención se explica más en detalle mediante ejemplos de realización. Muestran:
la Fig. 1, un vehículo que se desplaza automáticamente de acuerdo con la invención,
la Fig. 2, una situación de manejo del vehículo mediante un usuario desde una primera dirección, la Fig. 3, una situación de manejo del vehículo mediante un usuario desde una segunda dirección, la Fig. 4, una representación esquemática del vehículo con diferentes posiciones espaciales de uno o más usuarios,
la Fig. 5, un esquema de una superficie de representación de una pantalla con informaciones visualizadas sobre ella de acuerdo con una primera forma de realización,
la Fig. 6, un esquema de una superficie de representación de una pantalla de acuerdo con una segunda forma de realización,
las Fig. 7a, 7b, 7c, una primera forma de realización de una pantalla con informaciones visualizadas en diferentes direcciones de representación,
las Fig. 8a, 8b, 8c, una segunda forma de realización de una pantalla con informaciones visualizadas en diferentes direcciones de representación.
Descripción de las formas de realización
La Figura 1 muestra un vehículo 1 que se desplaza automáticamente dentro de un entorno, el cual aquí está configurado como robot aspirador. El vehículo 1 presenta una carcasa 11, en cuya cara superior está configurada una pantalla 4 con una superficie 7 de representación. Además, el vehículo 1 dispone de ruedas 12 accionadas electromotrizmente (véanse las Figuras 2 a 4) para el desplazamiento dentro del entorno, así como uno o más elementos 10 de limpieza para la realización de una tarea de limpieza. El vehículo 1 dispone además de un dispositivo de medición por triangulación no representado más en detalle, el cual puede realizar mediciones de distancia dentro de un plano de detección a través de una gama angular de 360°, es decir alrededor del vehículo 1. El dispositivo de medición por triangulación presenta, p. ej., un láser para la emisión de un rayo de luz. El rayo de luz sale desde una abertura de la carcasa 11 del vehículo 1 y escanea el entorno del vehículo a través de la gama angular de 360°. Cuando el rayo de luz incide sobre un obstáculo, al menos una porción se reflecta y se detecta por un sensor del dispositivo de medición por triangulación. En función de una distancia entre el dispositivo de medición por triangulación y el obstáculo que reflecta el rayo de luz, la porción reflectada incide en otra posición del sensor. Mediante esta posición se puede determinar la distancia del obstáculo con respecto al vehículo 1. Junto al dispositivo de medición por triangulación, el vehículo 1 dispone además de un dispositivo de medición por odometría, tampoco representado, el cual está asociado a las ruedas 12 del vehículo 1 y puede medir un recorrido realizado, así como una dirección de desplazamiento. El vehículo 1 presenta una memoria interna, así como un dispositivo de cálculo, por medio del cual, a partir de los datos de medición, se puede crear un mapa del entorno del vehículo 1. Mediante este mapa del entorno, el vehículo 1 puede orientarse dentro del entorno y planificar una ruta de desplazamiento, p. ej., para una limpieza de suelo específica en una vivienda. Para la creación del mapa del entorno, los datos de medición captados por el dispositivo de medición por odometría se comparan con los datos del entorno del sistema de medición por triangulación. El mapa del entorno creado puede visualizarse a un usuario del vehículo 1 entonces como desee en la pantalla 4 del vehículo 1.
Adicionalmente, el vehículo 1 presenta un dispositivo 5 de captación de imágenes, concretamente una cámara, la cual está dispuesta giratoria de modo que una región de detección del dispositivo 5 de captación de imágenes se puede girar a través de una gama angular de 360° alrededor del vehículo 1. El dispositivo 5 de captación de imágenes está en conexión de comunicación con el dispositivo de cálculo del vehículo 1, de modo que los datos de imagen captados se pueden analizar por medio del dispositivo de cálculo.
La Figura 2 muestra un proceso de manejo de un usuario 2 en el vehículo 1. El vehículo 1 está aquí, p. ej., conectado con una estación 13 base para la carga de una batería. En la situación de habitación representada, el usuario 2 se encuentra, en relación a una dirección de desplazamiento principal del vehículo 1, delante del vehículo 1, concretamente donde se adelantan los elementos 10 de limpieza del vehículo 1. Los elementos 10 de limpieza son aquí, p. ej., un rodillo de limpieza accionado electromotrizmente, así como un cepillo lateral. El usuario 2 tiene la intención de realizar una selección de las informaciones 3 visualizadas en la pantalla 4. En el caso de estas informaciones 3 puede tratarse, p. ej., de diferentes etapas de potencia ajustables de una unidad de ventilador-motor del vehículo 1. Las informaciones 3 están representadas en una dirección rA de representación en una superficie 7 de representación de la pantalla 4. Esta dirección rA de representación corresponde esencialmente a una dirección n de visión actual del usuario 1 sobre el vehículo 1. La dirección r1 de visión del usuario 2 puede caer sobre diferentes superficies parciales del vehículo 1, p. ej., sobre la pantalla 4, sobre una parte de la carcasa 11 del vehículo 1 o en dirección del dispositivo 5 de captación de imágenes. En el ejemplo de realización mostrado se supone que el usuario 2 mira en dirección del dispositivo 5 de captación de imágenes, de modo que la dirección n de visión discurre a lo largo de una recta entre los ojos del usuario 2 y el dispositivo 5 de captación de imágenes. Al mismo tiempo, el usuario 2 lleva su mano 6 en dirección de la pantalla 4, con lo cual, mediante la posición y la orientación de su mano 6, se define una dirección r4 de manejo. La dirección r4 de manejo corresponde aquí a la orientación del dedo índice de la mano 6. Partiendo de la situación representada en la Figura 2, en la cual la dirección rA de representación de las informaciones 3 está orientada esencialmente paralela con respecto a la dirección r1 de visión y/o la dirección r4 de manejo, el usuario 2 puede manejar el vehículo 1 también desde una posición espacial y orientación diferentes. Esta situación está representada en la Figura 3.
La Figura 3 muestra el vehículo 1 y el usuario 2 en una disposición, en la cual el usuario, en relación a la dirección de desplazamiento principal del vehículo 1, se encuentra detrás del vehículo 1. Para que el usuario 1 ahora también pueda leer las informaciones 3 de forma óptima de la pantalla 4 desde esta posición espacial, en particular, sin tener que moverse con respecto al vehículo 1, partiendo de la situación representada en la Figura 2, se realizan los siguientes pasos de procedimiento.
En primer lugar, el usuario se dirige hacia el vehículo 1. En este caso, él mira al vehículo 1, aquí p. ej. al dispositivo 5 de captación de imágenes dispuesto centrado en el vehículo 1 y lleva su mano 6 en dirección de la pantalla 4, en la cual él quiere realizar una selección de las informaciones 3 visualizadas. La dirección r2 de visión y la dirección r5 de manejo están, en este caso, orientadas hacia el vehículo 1 desde una posición del usuario 2 detrás del vehículo 1. El dispositivo 5 de captación de imágenes capta durante la operación del vehículo 1 a intervalos temporales predefinidos imágenes del entorno del vehículo 1. El dispositivo 5 de captación de imágenes transmite los datos de imagen captados al dispositivo de cálculo del vehículo 1, donde estos se analizan, en particular, en cuanto a la identificación de la presencia de un usuario 2 dentro del entorno directo del vehículo 1. El procesamiento de imágenes tiene lugar aquí, p. ej., con utilización de un procedimiento de reconocimiento facial, el cual, por un lado, identifica como tal un rostro representado en la imagen y, por otro lado, puede asociar el rostro a un usuario 2 registrado del vehículo 1. Para ello, los datos de imagen se comparan con correspondientes datos de referencia almacenados. El procedimiento de reconocimiento facial analiza los datos, además, en el sentido de si el usuario 2 mira actualmente al vehículo 1 o, alternativamente, en otra dirección orientada lejos del vehículo 2. Aquí, el usuario 2 mira con la dirección r2 de visión al vehículo 1, lo que se interpreta como un deseo de manejo del usuario 2. La pantalla 4 configurada como pantalla táctil capacitiva detecta, además de ello, una aproximación de la mano 6 del usuario 2 a la pantalla 4, de lo cual también se concluye un deseo de manejo del usuario 2. Mediante los valores capacitivos de las subsecciones individuales de la pantalla 4, el dispositivo de cálculo del vehículo 1 identifica la dirección r5 de manejo, la cual aquí corresponde a la orientación del dedo índice de la mano 6 del usuario 2. La dirección r2 de visión y la dirección r5 de manejo se comparan vectorialmente a continuación y se agrupan a un vector, el cual corresponde una media de cálculo de la dirección r2 de visión y de la dirección r5 de manejo. A la dirección promediada a continuación se le asocia una dirección rB de representación de la pantalla 4, en la cual las informaciones 3 visualizadas en la pantalla se orientan con respecto a la carcasa 11 del vehículo 1. Partiendo de la situación representada en la Figura 2, las informaciones 3 se rotan en 180° de acuerdo con la situación en la Figura 3, de modo que el usuario 2 puede leer de manera habitual las informaciones 3, sin tener que moverse con respecto al vehículo 1.
La Figura 4 muestra esquemáticamente un vehículo 1 y diferentes direcciones n, r2, r3 de visión de uno o más usuarios 2 sobre el vehículo 1. Una primera dirección n de visión corresponde, en este caso, a la situación representada en la Figura 2, en la cual un usuario 2 mira desde el frente al vehículo 1. La dirección r2 de visión corresponde a una presencia del usuario 2 detrás del vehículo 1. Esta dirección r2 de visión corresponde esencialmente a la situación representada en la Figura 3. Además, se muestra una dirección r3 de visión, en la cual el usuario 2 mira desde un lado al vehículo 1. Junto a las direcciones n, r2, r3 de visión mostradas, son además posibles una gran pluralidad de direcciones r1, r2, r3 de visión distintas. Mediante una capacidad de rotar del dispositivo 5 de captación de imágenes o, mediante un dispositivo 5 de captación de imágenes, que está dotado con una óptica que amplía un ángulo de captación, p. ej., una óptica gran angular o una óptica de ojo de pez, se pueden detectar posiciones del usuario 2 alrededor del vehículo 1. La pantalla 4 presenta, por el contrario, cuatro direcciones rA, rB, re de representación predefinidas, en las cuales se pueden visualizar informaciones 3. Estas direcciones rA, rB, re de representación están orientada paralelas con respecto a los bordes laterales de la pantalla 4, de modo que la superficie 7 de representación de la pantalla 4 puede aprovecharse de forma óptima.
Las Figuras 5 y 6 muestran dos formas de realización alternativas de una pantalla 4 del vehículo 1, en las cuales las informaciones 3 se pueden visualizar en direcciones rA, rB, re de representación arbitrarias, seleccionables continuas.
La Figura 5 muestra una forma de realización de una pantalla 4 con una superficie 7 de representación redonda. La dirección 7 de representación está configurada para visualizar informaciones 3 en cada una de las subsecciones. La superficie 7 de representación presenta un diámetro d, el cual corresponde a una diagonal D de una subsección, en la cual se visualizan informaciones 3. La subsección que incluye las informaciones 3 está configurada cuadrada, discurriendo las esquinas del cuadrado en caso de un giro de las informaciones 3 en la pantalla 4 a lo largo de la línea circunferencial de la pantalla 4 circular. Las informaciones 3 están siempre visualizadas en la superficie 7 de representación, independientemente de una orientación actual de las informaciones 3 en la pantalla 4.
La Figura 6 muestra una pantalla 4 configurada cuadrada con una superficie 7 de representación, la cual puede utilizarse a través de toda su extensión longitudinal y transversal para la representación de informaciones 3. En la superficie 7 de representación, una región también cuadrada, está ocupada centrada mediante informaciones 3 representadas, el cual, en función de una posición espacial detectada de un usuario 2, se puede girar alrededor de un centro de la superficie 7 de representación. La superficie 7 de representación presenta longitudes 8 laterales, las cuales son igual de largas que una diagonal D de la superficie parcial de la pantalla 4 ocupada mediante las informaciones 3. La superficie parcial ocupada por las informaciones 3, presenta una longitud 9 lateral máxima. Dado que las informaciones 3 también ocupan una superficie cuadrada, todas las longitudes 9 laterales son igual de grandes. En caso de un cambio de la orientación de las informaciones 3 visualizadas, las esquinas del cuadrado se mueven sobre una trayectoria circular (representada a trazos). Esta trayectoria circular está inscrita en la superficie 7 de representación, de modo que las regiones de esquina más exteriores de las informaciones 3 representadas se encuentran siempre dentro de la superficie 7 de representación y, por lo tanto, no se recortan informaciones 3 en caso de un cambio de la orientación de las informaciones 3.
Las Figuras 7 y 8 muestran diferentes formas de realización de pantallas 4 con diferente disposición de las informaciones visualizadas sobre ellas.
Las Figuras 7a, 7b y 7c muestran, en cada caso, una pantalla 4, en la cual están representadas, por un lado, informaciones 3 en forma de texto y, por otro lado, elementos 15 de manejo. Los elementos 15 de manejo están representados en la pantalla 4 tipo superficies táctiles, sobre las cuales el usuario 2 puede pulsar para, p. ej., efectuar una selección de menú. Los elementos 15 de manejo están, en este caso, dispuestos en una región de borde de la superficie 7 de representación de la pantalla 4, concretamente, según la dirección rA, rB, rC de representación por debajo del texto representado, de modo que el usuario 2 en caso de accionamiento de uno de los elementos 15 de manejo no tape con su mano 6 las otras informaciones 3 visualizadas en la pantalla 4. Las Figuras 7a, 7b y 7c muestran diferentes direcciones rB, rC, rA de representación de las informaciones 3, las cuales corresponden a diferentes posiciones del usuario 2 con respecto al vehículo 1. La dirección rB de representación de las informaciones 3 representada en la Figura 7a corresponde a una situación, en la cual el usuario 2, en el plano de imagen representado, se encuentra en el borde lateral superior. La Figura 7b corresponde a una situación, en la cual el usuario 2 se encuentra a la derecha junto a la pantalla 4, y la Figura 7c muestra por último una situación, en la cual el usuario 2 mira al vehículo 1 desde una dirección desde el borde lateral inferior. Las informaciones 3 están en todos los casos representados ordenadas en la pantalla 4, de modo que los elementos 15 de manejo siempre apuntan en dirección del usuario y, por lo tanto, se encuentran entre las informaciones 3 visualizadas restantes, aquí partes integrantes de texto, y el usuario 2.
Las Figuras 8a, 8b y 8c muestran otra forma de realización de una pantalla 4, en la cual están asociados separados fuera de la superficie 7 de representación, elementos 14 de accionamiento en forma de botones. Los elementos 15 de manejo representados en la pantalla 4 forman, en este caso, explicaciones y/o etiquetas para los elementos 14 de accionamiento asociados, de modo que un usuario 2 obtiene informaciones acerca de qué funciones se encuentran detrás de los elementos 14 de accionamiento. Para que los elementos 15 de manejo permanezcan siempre junto a los elementos 14 de accionamiento asociados, también cuando cambia la orientación de las informaciones 3 en la pantalla 4, los elementos 15 de manejo están siempre dispuestos en el borde superior de la pantalla 4 del plano de imagen representado. No obstante, cambia la orientación de las etiquetas mostradas sobre los elementos 15 de manejo, de modo que ésta corresponde a la orientación de las otras informaciones 3, concretamente a las respectivas direcciones rB (Figura 8a), rC (Figura 8b) y rA (Figura 8c) de representación.
Lista de los símbolos de referencia
1 vehículo
2 usuario
3 información
4 pantalla
5 dispositivo de captación de imágenes
6 mano
7 superficie de representación
8 longitud lateral
9 longitud lateral
10 elemento de limpieza
11 carcasa
12 rueda
13 estación base
14 elemento de accionamiento
15 elemento de manejo
rA dirección de representación
rB dirección de representación
rC dirección de representación
r1 dirección de visión
r2 dirección de visión
r3 dirección de visión
r4 dirección de manejo
r5 dirección de manejo
d diámetro
D diagonal

Claims (11)

REIVINDICACIONES
1. Procedimiento para la operación de un vehículo (1), en particular de un robot de limpieza, no tripulado que se desplaza automáticamente dentro de un entorno, detectando el vehículo (1) obstáculos y/o personas que se encuentran dentro del entorno, visualizándose a un usuario (2) informaciones (3) en una pantalla (4) del vehículo (1) orientada habitualmente horizontal en relación a un plano de representación durante una operación del vehículo (1), determinándose, en caso de detección de una presencia de un usuario (2), una posición espacial del usuario (2) con respecto al vehículo (1), caracterizado por que se hace variar una orientación de las informaciones (3) visualizadas en función de la posición espacial determinada del usuario (2), adaptándose preventivamente la representación de las informaciones (3) en la pantalla (4) sin que sea necesario que el usuario (2) se dirija hacia el vehículo (1) o mire al vehículo (1), reagrupándose uno con respecto a otro elementos (15) de manejo visualizados en la pantalla (4) en función de la posición espacial del usuario (2).
2. Procedimiento según la reivindicación 1, caracterizado por que la presencia del usuario (2) se detecta por medio de un dispositivo (5) de captación de imágenes.
3. Procedimiento según la reivindicación 1 o 2, caracterizado por que una dirección (r1, r2, r3) de visión del usuario (2) se determina por medio de un procedimiento de reconocimiento facial.
4. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que se detecta una dirección (r4, r5) de manejo desde la cual el usuario (2) maneja el vehículo (1).
5. Procedimiento según la reivindicación 4, caracterizado por que se detecta una orientación de una mano (6) del usuario (2) que agarra el vehículo (1).
6. Procedimiento según la reivindicación 5, caracterizado por que la orientación de la mano (6) se detecta por medio de un sensor capacitivo, en particular una pantalla (4) capacitiva, y/o por medio de un dispositivo (5) de captación de imágenes.
7. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que se selecciona una de varias posibles direcciones (rA, rB, m) de representación de la pantalla (4) en función de la posición espacial determinada del usuario (2).
8. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que varias subsecciones de las informaciones (3) visualizadas en la pantalla (4) se reagrupan una con respecto a otra en función de la posición espacial del usuario (2).
9. Procedimiento según una de las reivindicaciones anteriores, caracterizado por los pasos de procedimiento consecutivos:
- captación del entorno del vehículo (1) por medio de un dispositivo (5) de captación de imágenes,
- identificación de la presencia de un usuario (2) en el entorno del vehículo (1),
- determinación de una dirección (n) de visión y/o de una dirección (r2) de manejo de una mano (6) del usuario (2), - asociación de la dirección (n) de visión y/o de la dirección (r2) de manejo determinadas a una dirección (rA, rB, m) de representación de la pantalla (4) y
- representación de informaciones con la orientación de la dirección (rA, rB, rn) de representación asociada.
10. Vehículo (1), en particular robot de limpieza, no tripulado que se desplaza automáticamente dentro de un entorno, con un dispositivo (5) de captación de imágenes para la detección de obstáculos y/o personas que se encuentran dentro del entorno, presentando el vehículo (1) una pantalla (4) orientada habitualmente horizontal en relación a un plano de representación durante una operación del vehículo (1), para la visualización de informaciones (3), así como un dispositivo de cálculo, el cual está configurado para, en caso de detección de una presencia de un usuario (2), determinar una posición espacial del usuario (2) con respecto al vehículo (1), caracterizado por que el dispositivo de cálculo está configurado para hacer variar una dirección (rA, rB, m) de representación de las informaciones (3) visualizadas en la pantalla (4) en función de la posición espacial determinada del usuario (2), concretamente, adaptar ya de forma preventiva, sin que sea necesario que el usuario (2) se dirija hacia el vehículo (1) o mire al vehículo (1), reagrupándose uno con respecto a otro elementos (15) de manejo visualizados en la pantalla (4) en función de la posición espacial del usuario (2).
11. Vehículo según la reivindicación 10, caracterizado por que la pantalla (4) presenta una superficie (7) de representación cuyas longitudes (8) laterales son al menos tan grandes como una diagonal (D) lo más grande posible de las informaciones (3) visualizadas en la pantalla (4), y/o que la pantalla (4) presenta una superficie (7) de representación redonda con un diámetro (d), que es al menos tan grande con una diagonal (D) de las informaciones (3) visualizadas en la pantalla (4).
ES18164993T 2017-04-18 2018-03-29 Procedimiento para la operación de un vehículo que se desplaza automáticamente Active ES2894289T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017108194.1A DE102017108194A1 (de) 2017-04-18 2017-04-18 Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs

Publications (1)

Publication Number Publication Date
ES2894289T3 true ES2894289T3 (es) 2022-02-14

Family

ID=61952532

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18164993T Active ES2894289T3 (es) 2017-04-18 2018-03-29 Procedimiento para la operación de un vehículo que se desplaza automáticamente

Country Status (7)

Country Link
US (1) US10895880B2 (es)
EP (1) EP3392738B1 (es)
JP (1) JP2018181338A (es)
CN (1) CN108720731B (es)
DE (1) DE102017108194A1 (es)
ES (1) ES2894289T3 (es)
TW (1) TW201841586A (es)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017108194A1 (de) * 2017-04-18 2018-10-18 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs
BR112021007260A2 (pt) * 2018-10-19 2021-08-10 Bissell Inc. aparelho para limpar superfície
USD938115S1 (en) * 2018-11-30 2021-12-07 Irobot Corporation Autonomous floor cleaning robot
CN112596602A (zh) * 2019-09-17 2021-04-02 奥迪股份公司 用于调整显示屏上的信息显示的装置及相应的方法和介质
DE102020128096A1 (de) 2020-10-26 2022-04-28 Vorwerk & Co. Interholding Gesellschaft mit beschränkter Haftung Mobiles Haushaltsgerät mit einem Display
CN114557649B (zh) * 2022-01-28 2023-04-14 北京顺造科技有限公司 清洁设备及清洁设备用户界面显示方法
US20240180382A1 (en) * 2022-12-01 2024-06-06 Nilfisk A/S On-board information display

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243076B1 (en) * 1998-09-01 2001-06-05 Synthetic Environments, Inc. System and method for controlling host system interface with point-of-interest data
SE516034C2 (sv) * 2000-03-28 2001-11-12 It Clean I Aastorp Ab Anordning och metod vid städning
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
CN100374062C (zh) * 2003-07-29 2008-03-12 乐金电子(天津)电器有限公司 真空吸尘器的安全装置
JP2005100084A (ja) * 2003-09-25 2005-04-14 Toshiba Corp 画像処理装置及び方法
CN100461212C (zh) * 2004-06-04 2009-02-11 松下电器产业株式会社 显示控制方法及装置以及便携设备
JP4528295B2 (ja) * 2006-12-18 2010-08-18 株式会社日立製作所 案内ロボット装置及び案内システム
US8152071B2 (en) * 2008-02-08 2012-04-10 Motion Computing, Inc. Multi-purpose portable computer with integrated devices
DE102008014912B4 (de) 2008-03-19 2023-01-19 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Bodenstaub-Aufsammelgerät
CN102046059A (zh) * 2008-08-08 2011-05-04 松下电器产业株式会社 吸尘器的控制装置及控制方法、吸尘器、吸尘器的控制程序以及集成电子电路
JP2010117260A (ja) * 2008-11-13 2010-05-27 Epson Toyocom Corp 姿勢検出装置の補正パラメーター作成方法、姿勢検出装置の補正パラメーター作成用装置及び姿勢検出装置
KR101741583B1 (ko) * 2009-11-16 2017-05-30 엘지전자 주식회사 로봇 청소기 및 그의 제어 방법
KR101641237B1 (ko) * 2009-11-20 2016-07-21 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
JP2011192030A (ja) * 2010-03-15 2011-09-29 Nippon Telegr & Teleph Corp <Ntt> 情報表示装置
JP2011240468A (ja) * 2010-05-21 2011-12-01 Toyota Motor Corp ロボットの接触種類判別システム
US8757490B2 (en) * 2010-06-11 2014-06-24 Josef Bigun Method and apparatus for encoding and reading optical machine-readable data codes
DE102011000250A1 (de) 2011-01-21 2012-07-26 Vorwerk & Co. Interholding Gmbh Verfahren zur Bestimmung der Position eines selbsttätig verfahrbaren Geräts
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US20130038437A1 (en) * 2011-08-08 2013-02-14 Panasonic Corporation System for task and notification handling in a connected car
US8726457B2 (en) * 2011-12-30 2014-05-20 Techtronic Floor Care Technology Limited Vacuum cleaner with display
DE102012109004A1 (de) * 2012-09-24 2014-03-27 RobArt GmbH Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
US9123142B2 (en) * 2012-10-02 2015-09-01 At&T Intellectual Property I, L.P. Adjusting content display orientation on a screen based on user orientation
KR101428877B1 (ko) * 2012-12-05 2014-08-14 엘지전자 주식회사 로봇 청소기
US9398287B2 (en) * 2013-02-28 2016-07-19 Google Technology Holdings LLC Context-based depth sensor control
US9766709B2 (en) * 2013-03-15 2017-09-19 Leap Motion, Inc. Dynamic user interactions for display control
US10146299B2 (en) * 2013-11-08 2018-12-04 Qualcomm Technologies, Inc. Face tracking for additional modalities in spatial interaction
US9659403B1 (en) * 2014-01-06 2017-05-23 Leap Motion, Inc. Initializing orientation in space for predictive information for free space gesture control and communication
US10209779B2 (en) * 2014-02-21 2019-02-19 Samsung Electronics Co., Ltd. Method for displaying content and electronic device therefor
KR102072387B1 (ko) * 2014-03-20 2020-02-03 삼성전자주식회사 로봇 청소기 및 로봇 청소기의 제어방법
US9971492B2 (en) * 2014-06-04 2018-05-15 Quantum Interface, Llc Dynamic environment for object and attribute display and interaction
JP6826804B2 (ja) * 2014-08-29 2021-02-10 東芝ライフスタイル株式会社 自律走行体
US10317992B2 (en) * 2014-09-25 2019-06-11 Microsoft Technology Licensing, Llc Eye gaze for spoken language understanding in multi-modal conversational interactions
JP2016087106A (ja) * 2014-11-05 2016-05-23 シャープ株式会社 掃除支援装置及び掃除機
US10817172B2 (en) * 2015-03-27 2020-10-27 Intel Corporation Technologies for graphical user interface manipulations using multi-finger touch interactions
JP6461322B2 (ja) * 2015-04-28 2019-01-30 シャープ株式会社 制御装置および表示装置
KR102427836B1 (ko) * 2015-06-26 2022-08-02 삼성전자주식회사 로봇 청소기, 정보 제공 시스템 및 정보 제공 방법
DE102017108194A1 (de) * 2017-04-18 2018-10-18 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs
WO2019182378A1 (en) * 2018-03-21 2019-09-26 Lg Electronics Inc. Artificial intelligence server

Also Published As

Publication number Publication date
EP3392738A1 (de) 2018-10-24
TW201841586A (zh) 2018-12-01
DE102017108194A1 (de) 2018-10-18
JP2018181338A (ja) 2018-11-15
CN108720731A (zh) 2018-11-02
CN108720731B (zh) 2022-01-25
US10895880B2 (en) 2021-01-19
US20180299902A1 (en) 2018-10-18
EP3392738B1 (de) 2021-08-18

Similar Documents

Publication Publication Date Title
ES2894289T3 (es) Procedimiento para la operación de un vehículo que se desplaza automáticamente
US10542859B2 (en) Cleaning robot and controlling method thereof
ES2613138T3 (es) Robot limpiador y método para controlar el mismo
ES2610755T3 (es) Sistema de posicionamiento de un robot
US11737635B2 (en) Moving robot and control method thereof
ES2870503T3 (es) Método para crear un mapa del entorno para un dispositivo de procesamiento desplazable automáticamente
US10265858B2 (en) Auto-cleaning system, cleaning robot and method of controlling the cleaning robot
KR102527645B1 (ko) 청소 로봇 및 그 제어 방법
KR102242713B1 (ko) 이동 로봇 및 그 제어방법, 및 단말기
ES2882808T3 (es) Dispositivo desplazable automáticamente, así como procedimiento para el funcionamiento de un dispositivo de este tipo
ES2883902T3 (es) Método para operar un instrumento de tratamiento de suelos que se desplaza automáticamente
ES2903531T3 (es) Procedimiento para el funcionamiento de un aparato de limpieza de desplazamiento automático
CN107773161B (zh) 机器人吸尘器
TW201832034A (zh) 移動式機器人及其控制方法
CN105310604A (zh) 机器人清洁***以及控制机器人清洁器的方法
JP2018106695A (ja) 自律走行する移動車の動作方法
ES2829200T3 (es) Método para operar un aparato de servicio que se mueve automáticamente
US20050212680A1 (en) Self-propelled cleaner
KR20130097623A (ko) 센서 어셈블리 및 이를 구비한 로봇청소기
JP2013012200A (ja) ロボット掃除機及びその制御方法
KR20200144382A (ko) 이동 로봇 및 그 제어방법
KR20210015126A (ko) 이동 로봇
KR102135369B1 (ko) 거리 검출 장치 및 그 방법
KR102620361B1 (ko) 로봇 청소기
WO2022137796A1 (ja) 走行用地図作成装置、自律走行型ロボット、自律走行型ロボットの走行制御システム、自律走行型ロボットの走行制御方法、及び、プログラム