ES2690139T3 - Método e interfaz de usuario - Google Patents

Método e interfaz de usuario Download PDF

Info

Publication number
ES2690139T3
ES2690139T3 ES14156674.5T ES14156674T ES2690139T3 ES 2690139 T3 ES2690139 T3 ES 2690139T3 ES 14156674 T ES14156674 T ES 14156674T ES 2690139 T3 ES2690139 T3 ES 2690139T3
Authority
ES
Spain
Prior art keywords
controlled
user interface
coordinates
remote control
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14156674.5T
Other languages
English (en)
Inventor
Kamal Kannan
Manikandan Ramaswami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Application granted granted Critical
Publication of ES2690139T3 publication Critical patent/ES2690139T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0227Cooperation and interconnection of the input arrangement with other functional units of a computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Selective Calling Equipment (AREA)
  • Telephonic Communication Services (AREA)
  • Details Of Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Un método para controlar un dispositivo a controlar (420), comprendiendo el método: capturar (115), mediante un dispositivo de captura de imágenes (320) de un dispositivo de control remoto (300, 410), una imagen del dispositivo a controlar (420), en donde el dispositivo a controlar (420) incluye una primera interfaz de usuario; visualizar (140, 240) una segunda interfaz de usuario asociada con el dispositivo a controlar (420) en una pantalla de visualización (310) del dispositivo de control remoto (300, 410), en donde la segunda interfaz de usuario es idéntica a la primera interfaz de usuario y se utiliza para controlar el dispositivo a controlar (420), caracterizado por que el método comprende, además: reconocer (135) el dispositivo a controlar (420) por una primera vez comparando la imagen con las varias imágenes almacenadas y, en respuesta a la misma, visualizar (140) la segunda interfaz de usuario; asociar (155) las primeras coordenadas con el dispositivo a controlar (420), las primeras coordenadas identificadas al reconocer el dispositivo a controlar (420) por primera vez; y después de que el dispositivo a controlar haya sido reconocido por primera vez, identificar (235) el dispositivo a controlar (420) basándose en la coincidencia de las coordenadas actualmente identificadas (220) del dispositivo a controlar (420) con las primeras coordenadas y, en respuesta a ello, mostrar (240) la segunda interfaz de usuario.

Description

5
10
15
20
25
30
35
40
45
DESCRIPCION
Método e interfaz de usuario Campo
La presente invención se refiere en general a una interfaz de usuario y a un método de utilización de una interfaz de usuario. Más particularmente, la presente invención se refiere a una interfaz de usuario para el control de dispositivos de automatización del hogar y un método de utilización de una interfaz de usuario para controlar los dispositivos de automatización del hogar.
Antecedentes
Los dispositivos de automatización del hogar son conocidos en la técnica. Por ejemplo, un dispositivo de automatización del hogar puede incluir un termostato, cerradura, interruptor, panel de seguridad y similares. Cada dispositivo de automatización del hogar puede incluir una interfaz de usuario.
Los dispositivos de control remoto y las aplicaciones para controlar los dispositivos de automatización del hogar también son conocidos en la técnica. Por ejemplo, un dispositivo o aplicación de control remoto puede incluir una interfaz de usuario, que se puede utilizar para controlar de forma remota un sistema de automatización del hogar.
El documento US 2009/285443 A1 describe el control remoto de un dispositivo con un dispositivo móvil que tiene una cámara para detectar elementos de control del usuario del dispositivo controlado. Los documentos US 2008/200205 A1 y US 2012/178431 A1 describen el control de un objeto que tiene una primera interfaz de usuario mediante un dispositivo de control remoto que tiene una pantalla de visualización mostrando una interfaz de usuario, en esencia, idéntica a una interfaz de usuario del objeto a controlar para controlar dicho objeto .
La interfaz de usuario de un dispositivo de control remoto es diferente de la interfaz de la interfaz de usuario de un dispositivo de automatización del hogar. Por lo tanto, un usuario participará en diferentes experiencias dependiendo de si el usuario accede al dispositivo de automatización del hogar directamente a través de la interfaz de usuario del dispositivo de automatización del hogar o a través de la interfaz de usuario del dispositivo de control remoto. Por ejemplo, la apariencia visual y las indicaciones y/o las indicaciones de audio y sonido de las interfaces de usuario pueden variar. Por consiguiente, una curva de aprendizaje se puede asociar con una interfaz de usuario de un dispositivo de control remoto.
En vista de lo anterior, existe una necesidad continua y permanente de una interfaz de usuario mejorada.
Resumen de la invención
La presente invención proporciona un método según se define en la reivindicación 1. El método puede incluir las características de una cualquiera o más de las reivindicaciones dependientes 2 a 4.
La presente invención también proporciona un sistema según se define en la reivindicación 5. El método puede incluir las características de una cualquiera o más de las reivindicaciones dependientes 6 a 8.
Breve descripción de los dibujos
La FIG. 1 es un diagrama de flujo de un método de control remoto de un objeto reconocido por primera vez de acuerdo con las formas de realización descritas;
La FIG. 2 es un diagrama de flujo de un método de control remoto de un objeto que ha sido previamente reconocido de acuerdo con las formas de realización descritas;
La FIG. 3 es un diagrama de bloques de un dispositivo de control remoto para llevar a cabo los métodos de la FIG. 1, FIG. 2 y otros de acuerdo con las formas de realización descritas; y
La FIG. 4 es una vista en perspectiva de un sistema para llevar a cabo los métodos de la FIG. 1, FIG. 2 y otros de acuerdo con las formas de realización descritas.
Descripción detallada
Aunque esta invención es susceptible de una forma de realización en muchas formas diferentes, se muestran en los dibujos y se describirán en la presente memoria en detalle formas de realización específicas de la misma con el entendimiento de que la presente descripción se debe considerar como una ejemplificación de los principios de la invención.
Las formas de realización descritas en la presente memoria incluyen una interfaz de usuario de un dispositivo o aplicación de control remoto que se puede utilizar para controlar varios dispositivos de automatización del hogar diferentes. En algunas formas de realización, la interfaz de usuario del dispositivo de control remoto puede ser, en esencia, idéntica a la interfaz de usuario del dispositivo de automatización del hogar que controla el dispositivo de
5
10
15
20
25
30
35
40
45
50
55
control remoto. Es decir, un usuario puede participar en una experiencia, en esencia, idéntica independientemente de si el usuario está accediendo a un dispositivo de automatización del hogar directamente a través de la interfaz de usuario del dispositivo de automatización del hogar o a través de una interfaz de usuario del dispositivo de control remoto. Debido a que la interfaz del usuario en la aplicación de control remoto "coincide" con la interfaz del usuario en el dispositivo de automatización del hogar, la experiencia de un usuario al utilizar la interfaz del usuario en el dispositivo de control remoto puede ser más intuitiva y se puede reducir cualquier curva de aprendizaje.
El dispositivo de control remoto descrito en la presente memoria puede incluir un teléfono celular, un teléfono inteligente, asistencia digital personal, o cualquier otro dispositivo de control remoto según sería conocido por los expertos en la técnica. Por ejemplo, en algunas formas de realización, una aplicación de software se puede descargar y/o cargar en el dispositivo de control remoto.
De acuerdo con las formas de realización descritas, la interfaz de usuario del dispositivo de control remoto puede cambiar dependiendo del dispositivo de automatización del hogar que el dispositivo de control remoto está controlando. Por ejemplo, cuando el dispositivo de control remoto está controlando un primer dispositivo de automatización del hogar, el dispositivo de control remoto puede mostrar una primera interfaz de usuario que es, en esencia, idéntica a una interfaz de usuario del primer dispositivo de automatización del hogar. Sin embargo, cuando el dispositivo de control remoto está controlando un segundo dispositivo de automatización del hogar, el dispositivo de control remoto puede mostrar una segunda interfaz de usuario que es, en esencia, idéntica a una interfaz de usuario del segundo dispositivo de automatización del hogar.
Algunas formas de realización del dispositivo de control remoto descrito en la presente memoria pueden incluir un mecanismo para identificar un dispositivo u objeto a controlar, por ejemplo, un sistema de automatización del hogar a controlar. Por ejemplo, el dispositivo de control remoto puede incluir una cámara u otro dispositivo de captura de imágenes para capturar una imagen del dispositivo u objeto. Cuando se captura una imagen, las formas de realización descritas en la presente memoria pueden comparar la imagen capturada con varias imágenes almacenadas, por ejemplo, en una biblioteca de entrenamiento. El dispositivo u objeto en la imagen capturada se puede reconocer cuando las formas de realización descritas en la presente memoria hacen coincidir la imagen capturada con una de las varias imágenes almacenadas.
Después de que se reconozca el dispositivo u objeto a controlar, las formas de realización descritas en la presente memoria pueden proporcionar y visualizar una interfaz de usuario en el dispositivo de control remoto para controlar el dispositivo u objeto. Las formas de realización descritas en la presente memoria también pueden asociar la interfaz de usuario mostrada con el dispositivo u objeto. En algunas formas de realización, la interfaz de usuario que se muestra en el dispositivo de control remoto puede ser, en esencia, idéntica a la propia interfaz de usuario del dispositivo u objeto. En algunas formas de realización, la representación tridimensional se puede emplear para visualizar la interfaz de usuario del dispositivo u objeto en el dispositivo de control remoto.
En algunas formas de realización, cuando se reconoce un dispositivo u objeto a controlar, las formas de realización descritas en la presente memoria pueden proporcionar una actualización de estado en vivo para el dispositivo u objeto y/o facilitar una capacidad del usuario para controlar de forma remota el dispositivo u objeto. En algunas formas de realización, los eventos o videos relacionados con el dispositivo y/o una lista de elementos, tales como un interruptor o cerradura, que están asociados con el dispositivo u objeto también pueden mostrarse al usuario.
En algunas formas de realización, cuando se reconoce un dispositivo u objeto a controlar, por ejemplo, cuando el dispositivo u objeto se reconoce por primera vez, las coordenadas se pueden identificar y asociar con el dispositivo u objeto. Por ejemplo, en algunas formas de realización, se pueden identificar las coordenadas del usuario, el dispositivo de control remoto y/o la cámara u otro dispositivo de captura de imágenes. En algunas formas de realización, se pueden identificar las coordenadas del dispositivo u objeto reconocido a controlar.
En algunas formas de realización, las coordenadas se pueden identificar en relación con las direcciones de la brújula. En algunas formas de realización, las coordenadas se pueden identificar como una ubicación dentro de una región, por ejemplo, una posición relativa con respecto a otros objetos en la región. En algunas formas de realización, las coordenadas se pueden identificar como coordenadas geográficas o como coordenadas de GPS.
El dispositivo de control remoto descrito en la presente memoria puede continuar utilizándose para controlar de forma remota un dispositivo u objeto después de que se hayan identificado las coordenadas del dispositivo u objeto. Por ejemplo, en algunas formas de realización, cuando la cámara o el dispositivo de captura de imágenes toma una panorámica de un objeto o dispositivo que ha sido reconocido previamente, la interfaz de usuario puede proporcionar y visualizar la interfaz de usuario asociada con el objeto o dispositivo a controlar. Es decir, las formas de realización descritas en la presente memoria pueden identificar las coordenadas actuales como las mismas coordenadas identificadas previamente, pueden identificar el objeto o dispositivo asociado con las coordenadas actuales, y pueden proporcionar y visualizar la interfaz de usuario asociada con el objeto o dispositivo identificado.
La FIG. 1 es un diagrama de flujo de un método 100 de control remoto de un objeto reconocido por primera vez de acuerdo con las formas de realización descritas. Según se ve en la FIG. 1, el método 100 puede incluir proporcionar un objeto a controlar que aún no se haya reconocido como en 105. Por ejemplo, el objeto a controlar puede tener
5
10
15
20
25
30
35
40
45
50
55
una primera interfaz de usuario. El método 100 también puede incluir proporcionar un dispositivo de control remoto como en 110. Por ejemplo, el dispositivo de control remoto puede incluir una pantalla de visualización y un dispositivo de captura de imágenes, tal como una cámara.
El método 100 puede incluir tomar una panorámica o enfocar el dispositivo de captura de imágenes del dispositivo de control remoto hacia o sobre el objeto a controlar como en 115. A continuación, el método 100 puede incluir capturar una imagen del objeto a controlar como en 120 y comparar la imagen capturada a varias imágenes almacenadas como en 125. Cuando el método 100 determina que una de las varias imágenes almacenadas se ha identificado como una coincidencia de la imagen capturada como en 130, el método 100 puede reconocer el objeto a controlar como en 135.
Después de que el objeto a controlar se haya reconocido como en 135, el método 100 puede incluir proporcionar y visualizar una segunda interfaz de usuario en la pantalla de visualización del dispositivo de control remoto como en 140. Por ejemplo, la segunda interfaz de usuario puede ser, en esencia, idéntica a la primera interfaz de usuario del objeto a controlar. El método también puede incluir la asociación de la segunda interfaz de usuario con el objeto a controlar como en 145.
Finalmente, el método 100 puede incluir identificar las coordenadas como en 150 y asociar las coordenadas identificadas con el objeto a controlar como en 155.
La FIG. 2 es un diagrama de flujo de un método 200 de control remoto de un objeto que se ha reconocido previamente de acuerdo con las formas de realización descritas. Según se ve en la FIG. 2, el método 200 puede incluir proporcionar un objeto a controlar que se haya reconocido previamente como en 205. Por ejemplo, el objeto a controlar puede tener una primera interfaz de usuario. El método 200 también puede incluir proporcionar un dispositivo de control remoto como en 210. Por ejemplo, el dispositivo de control remoto puede incluir una pantalla de visualización y un dispositivo de captura de imágenes, tal como una cámara.
El método 200 puede incluir tomar una panorámica o enfocar el dispositivo de captura de imagen del dispositivo de control remoto hacia o sobre el objeto a controlar como en 215. A continuación, el método 200 puede incluir identificar las coordenadas como en 220 y determinar que las coordenadas identificadas en la etapa 220 coinciden con una de las varias coordenadas previamente identificadas como en 225. Por ejemplo, el método 200 puede determinar que las coordenadas identificadas en la etapa 220 coinciden con las coordenadas identificadas en la etapa 150 del método 100.
A continuación, el método 200 puede incluir identificar un objeto a controlar que está asociado con las coordenadas identificadas en la etapa 220 como en 230. Por ejemplo, el método 200 puede identificar el objeto a controlar que estaba asociado con las coordenadas en la etapa 155 del método 100.
El método 200 también puede incluir identificar una primera interfaz de usuario que está asociada con el objeto a controlar identificado en la etapa 230 como en 235. Por ejemplo, el método 200 puede identificar la primera interfaz de usuario que se asoció con el objeto a controlar en la etapa 145 del método 100.
Finalmente, el método 200 puede incluir visualizar una segunda interfaz de usuario en la pantalla de visualización del dispositivo de control remoto como en 240. Por ejemplo, la segunda interfaz de usuario puede ser, en esencia, idéntica a la primera interfaz de usuario que se identificó en la etapa 235.
La FIG. 3 es un diagrama de bloques de un dispositivo de control remoto 300 para llevar a cabo los métodos de la FIG. 1, FIG. 2 y otros de acuerdo con las formas de realización descritas. Según se ve en la FIG. 3, el dispositivo 300 puede incluir una pantalla de visualización 310, un dispositivo de captura de imágenes 320, un dispositivo de determinación de coordenadas 330, un transceptor 340 cableado y/o inalámbrico, un dispositivo de memoria 350, circuitos de control 360, uno o más procesadores programables 370 y software de control ejecutable 380. El software de control ejecutable 380 se puede almacenar en un medio legible por ordenador transitorio o no transitorio, que incluye, pero no se limita a, memoria de la computadora, RAM, medio de almacenamiento óptico, medio de almacenamiento magnético, memoria flash y similares. En algunas formas de realización, el software de control ejecutable 380 puede ejecutar las etapas de los métodos 100 y 200 mostrados en la FIG. 1 y la FIG. 2, respectivamente, así como otros descritos en la presente memoria.
El dispositivo de captura de imágenes 320 puede tomar una panorámica o enfocar hacia o sobre un objeto a controlar y capturar una imagen del objeto a controlar. Por ejemplo, en algunas formas de realización, el dispositivo de captura de imágenes 320 puede incluir una cámara. En algunas formas de realización, la imagen capturada se puede almacenar en el dispositivo de memoria 350. En algunas formas de realización, la imagen capturada se puede enviar, a través del transceptor 340, a un sistema, servidor o dispositivo de memoria desplazado.
Cuando la imagen capturada se compara con varias imágenes almacenadas, las varias imágenes almacenadas se pueden recuperar desde el dispositivo 350 de memoria o, a través del transceptor 340, desde un sistema, servidor o dispositivo de memoria desplazado.
5
10
15
20
25
30
35
40
Se pueden visualizar varios interfaces de usuario en la pantalla de visualización 310. Por ejemplo, una interfaz de usuario que es, en esencia, idéntica a una interfaz de usuario de un objeto a controlar se puede visualizar en la pantalla de visualización 310. En algunas formas de realización, la pantalla de visualización 310 puede mostrar ventanas interactivas y de visualización. En algunas formas de realización, la pantalla 310 de visualización puede ser una interfaz gráfica de usuario multidimensional y puede incluir mecanismos de entrada y salida como entenderían los expertos en la técnica.
El dispositivo de determinación de coordenadas 330 puede identificar coordenadas de acuerdo con las formas de realización descritas en la presente memoria. Por ejemplo, en algunas formas de realización, el dispositivo de determinación de coordenadas 330 puede incluir una brújula y/o un receptor de GPS. En algunas formas de realización, las coordenadas identificadas se pueden almacenar en el dispositivo de memoria 350. En algunas formas de realización, las coordenadas identificadas se pueden enviar, a través del transceptor 340, a un sistema, servidor o dispositivo de memoria desplazado.
Cuando se identifica un objeto a controlar que está asociado con coordenadas identificadas, los datos de asociación y/o la identificación del objeto a controlar se pueden recuperar desde el dispositivo de memoria 350 o, a través del transceptor 340, desde un sistema, servidor o dispositivo de memoria desplazado. De manera similar, cuando se identifica la interfaz de usuario que está asociada con el objeto identificado a controlar, los datos de asociación y/o la identificación de la interfaz de usuario se pueden recuperar del dispositivo de memoria 350 o, a través del transceptor 340, de un sistema, servidor o dispositivo de memoria desplazado.
La FIG. 4 es una vista en perspectiva de un sistema 400 para llevar a cabo los métodos de la FIG. 1, FIG. 2 y otros de acuerdo con las formas de realización descritas. Según se ve en la FIG. 4, el sistema 400 puede incluir un dispositivo de control remoto 410 y un objeto a controlar 420. Por ejemplo, en algunas formas de realización, el objeto a controlar 420 puede incluir un dispositivo de automatización del hogar.
Una cámara u otro tipo de dispositivo de captura de imágenes asociado con el dispositivo de control remoto 410 puede capturar una imagen del objeto a controlar 420. A continuación, el dispositivo 410 y/o una aplicación de software que se ejecuta en el mismo puede reconocer el objeto 420, mostrar una interfaz de usuario 412 en la pantalla de visualización 414 del dispositivo 410 que es, en esencia, idéntica a una interfaz de usuario 422 del objeto 420, e identificar las coordenadas, por ejemplo, de los metadatos extraídos de la imagen capturada, de acuerdo con las formas de realización descritas en la presente memoria. Alternativamente, el dispositivo 410 y/o la aplicación de software que se ejecuta allí pueden identificar primero las coordenadas de acuerdo con las formas de realización descritas en la presente memoria y a continuación identificar el objeto 420 asociado con las coordenadas identificadas, identificar una interfaz de usuario 422 asociada con el objeto identificado 420 y visualizar al usuario la interfaz 412 en la pantalla de visualización 414 del dispositivo 410, donde la interfaz de usuario 412 visualizada es, en esencia, idéntica a la interfaz de usuario 422 identificada.
Aunque algunas formas de realización se han descrito en detalle anteriormente, son posibles otras modificaciones. Por ejemplo, los flujos lógicos descritos anteriormente no requieren el orden particular descrito, o el orden secuencial, para lograr resultados deseables. Se pueden proporcionar otras etapas, o se pueden eliminar etapas, de los flujos descritos y se pueden agregar otros componentes o eliminarlos de los sistemas descritos.
A partir de lo anterior, se observará que se pueden efectuar numerosas variaciones y modificaciones sin apartarse del alcance de la invención. Se debe entender que no se pretende o no se debe inferir ninguna limitación con respecto al sistema o método específico descrito en la presente memoria. Por supuesto, se pretende cubrir todas dichas modificaciones como estando dentro del alcance de la invención.

Claims (8)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    REIVINDICACIONES
    1. Un método para controlar un dispositivo a controlar (420), comprendiendo el método:
    capturar (115), mediante un dispositivo de captura de imágenes (320) de un dispositivo de control remoto (300, 410), una imagen del dispositivo a controlar (420), en donde el dispositivo a controlar (420) incluye una primera interfaz de usuario;
    visualizar (140, 240) una segunda interfaz de usuario asociada con el dispositivo a controlar (420) en una pantalla de visualización (310) del dispositivo de control remoto (300, 410), en donde la segunda interfaz de usuario es idéntica a la primera interfaz de usuario y se utiliza para controlar el dispositivo a controlar (420), caracterizado por que el método comprende, además:
    reconocer (135) el dispositivo a controlar (420) por una primera vez comparando la imagen con las varias imágenes almacenadas y, en respuesta a la misma, visualizar (140) la segunda interfaz de usuario;
    asociar (155) las primeras coordenadas con el dispositivo a controlar (420), las primeras coordenadas identificadas al reconocer el dispositivo a controlar (420) por primera vez; y después de que el dispositivo a controlar haya sido reconocido por primera vez, identificar (235) el dispositivo a controlar (420) basándose en la coincidencia de las coordenadas actualmente identificadas (220) del dispositivo a controlar (420) con las primeras coordenadas y, en respuesta a ello, mostrar (240) la segunda interfaz de usuario.
  2. 2. El método para controlar el dispositivo a controlar (420) de la reivindicación 1, en donde el dispositivo a controlar (420) incluye un dispositivo de automatización.
  3. 3. El método para controlar el dispositivo a controlar (420) de la reivindicación 1, en donde el dispositivo de control remoto (300, 410) incluye uno de un teléfono celular, un asistente digital personal y un teléfono inteligente.
  4. 4. El método para controlar el dispositivo a controlar (420) de la reivindicación 1, en donde las primeras coordenadas y las coordenadas identificadas actualmente incluyen direcciones de brújula, coordenadas geográficas o coordenadas de GPS.
  5. 5. Un sistema para controlar un dispositivo a controlar (420) que comprende:
    el dispositivo a controlar (420), en donde el dispositivo a controlar (420) incluye una primera interfaz de usuario; y
    un dispositivo de control remoto (300, 410), en donde el dispositivo de control remoto (300, 410) incluye una pantalla de visualización (310) y un dispositivo de captura de imágenes (320), en donde el dispositivo de captura de imágenes (320) se configura para capturar (115) una imagen del dispositivo a controlar (420), en donde el dispositivo de control remoto (300, 410) se configura para mostrar (140, 240) una segunda interfaz de usuario del dispositivo a controlar (420) en la pantalla de visualización ( 310) del dispositivo de control remoto (300, 410), en donde la segunda interfaz de usuario es idéntica a la primera interfaz de usuario y se utiliza para controlar el dispositivo a controlar (420); en donde el sistema se caracteriza por que :
    el dispositivo de control remoto (300, 410) se configura para reconocer (135) el dispositivo a controlar (420) por primera vez comparando la imagen con las varias imágenes almacenadas y, en respuesta a esto, se configura para mostrar (140) la segunda interfaz de usuario y asociar (155) las primeras coordenadas con el dispositivo a controlar (420), en donde las primeras coordenadas se identifican (150) al tiempo que el dispositivo de control remoto (300, 410) reconoce el dispositivo a controlar (420) por primera vez; y, después de que el dispositivo a controlar (420) se haya reconocido por primera vez, el dispositivo de control remoto (300, 410) se configura para identificar (235) el dispositivo a controlar (420) basándose en la coincidencia identificada actualmente (220 ) de las coordenadas del dispositivo a controlar (420) con las primeras coordenadas y, en respuesta a ello, para visualizar (240) la segunda interfaz de usuario.
  6. 6. El sistema para controlar el dispositivo a controlar (420) de la reivindicación 5 en donde el dispositivo a controlar (420) incluye un dispositivo de automatización.
  7. 7. El sistema para controlar el dispositivo a controlar (420) de la reivindicación 5, en donde el dispositivo de control remoto (300, 410) incluye uno de un teléfono celular, un asistente digital personal y un teléfono inteligente.
  8. 8. El sistema para controlar el dispositivo a controlar (420) de la reivindicación 5, en donde las primeras coordenadas y las coordenadas actualmente identificadas incluyen direcciones de brújula, coordenadas geográficas o coordenadas de GPS.
ES14156674.5T 2013-03-04 2014-02-25 Método e interfaz de usuario Active ES2690139T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/783,507 US20140250397A1 (en) 2013-03-04 2013-03-04 User interface and method
US201313783507 2013-03-04

Publications (1)

Publication Number Publication Date
ES2690139T3 true ES2690139T3 (es) 2018-11-19

Family

ID=50193241

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14156674.5T Active ES2690139T3 (es) 2013-03-04 2014-02-25 Método e interfaz de usuario

Country Status (6)

Country Link
US (1) US20140250397A1 (es)
EP (1) EP2775374B1 (es)
CN (1) CN104035656A (es)
CA (1) CA2843840A1 (es)
ES (1) ES2690139T3 (es)
IN (1) IN2014CH01031A (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107810368A (zh) 2015-05-04 2018-03-16 江森自控科技公司 具有包含成角度的电路板的外壳的用户控制装置
US10677484B2 (en) 2015-05-04 2020-06-09 Johnson Controls Technology Company User control device and multi-function home control system
US9898869B2 (en) 2015-09-09 2018-02-20 Microsoft Technology Licensing, Llc Tactile interaction in virtual environments
US10760809B2 (en) 2015-09-11 2020-09-01 Johnson Controls Technology Company Thermostat with mode settings for multiple zones
US10769735B2 (en) 2015-09-11 2020-09-08 Johnson Controls Technology Company Thermostat with user interface features
GB2542777A (en) * 2015-09-28 2017-04-05 Sony Corp A first apparatus for controlling a second apparatus
US10345781B2 (en) 2015-10-28 2019-07-09 Johnson Controls Technology Company Multi-function thermostat with health monitoring features
US10546472B2 (en) 2015-10-28 2020-01-28 Johnson Controls Technology Company Thermostat with direction handoff features
US10655881B2 (en) 2015-10-28 2020-05-19 Johnson Controls Technology Company Thermostat with halo light system and emergency directions
WO2018191688A2 (en) 2017-04-14 2018-10-18 Johnson Controls Techology Company Thermostat with exhaust fan control for air quality and humidity control
FI20185772A1 (fi) 2018-09-17 2020-03-18 Cargotec Finland Oy Etäohjaustyöasema
US11107390B2 (en) 2018-12-21 2021-08-31 Johnson Controls Technology Company Display device with halo
US11500463B2 (en) * 2020-12-30 2022-11-15 Imagine Technologies, Inc. Wearable electroencephalography sensor and device control methods using same

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7266777B2 (en) * 2004-09-08 2007-09-04 Universal Electronics Inc. Configurable controlling device having an associated editing program
US7830417B2 (en) * 2006-08-15 2010-11-09 Fuji Xerox Co., Ltd System and method for interacting with objects via a camera enhanced mobile device
US20090102617A1 (en) * 2007-10-22 2009-04-23 Douglas Thommes Method, system and computer program product for controlling a plurality of devices in an environment
US20090285443A1 (en) * 2008-05-15 2009-11-19 Sony Ericsson Mobile Communications Ab Remote Control Based on Image Recognition
CN101655689A (zh) * 2008-08-19 2010-02-24 马海英 具操作界面可远程控制的智能遥控器虚拟机装置
US20100138007A1 (en) * 2008-11-21 2010-06-03 Qwebl, Inc. Apparatus and method for integration and setup of home automation
CN101799975A (zh) * 2009-02-10 2010-08-11 Tcl集团股份有限公司 一种学习型遥控器及其按键模板创建方法
US20100229194A1 (en) * 2009-03-03 2010-09-09 Sony Corporation System and method for remote control based customization
CN101887637B (zh) * 2009-05-14 2013-06-19 Tcl集团股份有限公司 一种对设备进行遥控的方法及万能遥控器
CN102024317B (zh) * 2009-09-17 2012-09-19 Tcl集团股份有限公司 一种遥控器及其实现方法
EP2528351A4 (en) * 2010-01-18 2013-05-22 Nec Corp INFORMATION TERMINAL DEVICE, CONTROL METHOD USING THE METHOD AND PROGRAM
US8766783B1 (en) * 2010-11-05 2014-07-01 Google Inc. Methods and systems for remotely controlling electronics
CN102467815B (zh) * 2010-11-09 2016-05-04 夏普株式会社 多功能遥控器、遥控方法和能耗监控方法
JP5620287B2 (ja) * 2010-12-16 2014-11-05 株式会社オプティム ユーザインターフェースを変更する携帯端末、方法及びプログラム
US8655345B2 (en) * 2011-01-08 2014-02-18 Steven K. Gold Proximity-enabled remote control
CN102253805A (zh) * 2011-07-14 2011-11-23 徐响林 一种遥控装置及其实现方法
US9332019B2 (en) * 2013-01-30 2016-05-03 International Business Machines Corporation Establishment of a trust index to enable connections from unknown devices

Also Published As

Publication number Publication date
CA2843840A1 (en) 2014-09-04
CN104035656A (zh) 2014-09-10
EP2775374A3 (en) 2014-12-03
EP2775374B1 (en) 2018-08-08
EP2775374A2 (en) 2014-09-10
US20140250397A1 (en) 2014-09-04
IN2014CH01031A (es) 2015-05-08

Similar Documents

Publication Publication Date Title
ES2690139T3 (es) Método e interfaz de usuario
KR102332752B1 (ko) 지도 서비스를 제공하는 전자 장치 및 방법
KR102362117B1 (ko) 지도 정보를 제공하기 위한 전자 장치
US11417365B1 (en) Methods, systems and apparatuses for multi-directional still pictures and/or multi-directional motion pictures
US10068373B2 (en) Electronic device for providing map information
CN104350736B (zh) 附近位置信息的增强现实布置
US10171731B2 (en) Method and apparatus for image processing
US10157324B2 (en) Systems and methods of updating user identifiers in an image-sharing environment
US10911818B2 (en) Electronic device and method for controlling the same
US9607654B2 (en) Video editing
EP3232156A1 (en) Obstacle locating method, apparatus and system, computer program and recording medium
US10733799B2 (en) Augmented reality sensor
WO2017049794A1 (zh) 指令生成方法及装置
US20160050349A1 (en) Panoramic video
US11657085B1 (en) Optical devices and apparatuses for capturing, structuring, and using interlinked multi-directional still pictures and/or multi-directional motion pictures
JP6711137B2 (ja) 表示制御プログラム、表示制御方法および表示制御装置
RU2663709C2 (ru) Способ и устройство для обработки информации
RU2012119843A (ru) Способ отображения видеоданных на мобильном устройстве
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
WO2017197882A1 (zh) 一种视频播放方法及装置
WO2020042494A1 (zh) Vr场景截图方法、设备及存储介质
JP2014038592A5 (ja) 情報処理装置、情報処理方法、システム
JP2017028658A5 (es)
US20140111543A1 (en) Method for providing contents and a digital device for the same
US10855728B2 (en) Systems and methods for directly accessing video data streams and data between devices in a video surveillance system