ES2721823T5 - Método, sistema e interfaz de usuario para crear automáticamente una atmósfera, en particular una atmósfera de iluminación, basándose en una entrada de palabra clave - Google Patents

Método, sistema e interfaz de usuario para crear automáticamente una atmósfera, en particular una atmósfera de iluminación, basándose en una entrada de palabra clave Download PDF

Info

Publication number
ES2721823T5
ES2721823T5 ES08737929T ES08737929T ES2721823T5 ES 2721823 T5 ES2721823 T5 ES 2721823T5 ES 08737929 T ES08737929 T ES 08737929T ES 08737929 T ES08737929 T ES 08737929T ES 2721823 T5 ES2721823 T5 ES 2721823T5
Authority
ES
Spain
Prior art keywords
atmosphere
keyword
image
computer
processable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08737929T
Other languages
English (en)
Other versions
ES2721823T3 (es
Inventor
De Sluis Richard Van
Elmo Marcus Attila Diederiks
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Signify Holding BV
Original Assignee
Signify Holding BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=39586971&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2721823(T5) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Signify Holding BV filed Critical Signify Holding BV
Application granted granted Critical
Publication of ES2721823T3 publication Critical patent/ES2721823T3/es
Publication of ES2721823T5 publication Critical patent/ES2721823T5/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/12Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by detecting audible sound
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Description

DESCRIPCIÓN
Método, sistema e interfaz de usuario para crear automáticamente una atmósfera, en particular una atmósfera de iluminación, basándose en una entrada de palabra clave
La invención se refiere a la creación automática de una atmósfera, en particular de una atmósfera de iluminación, basándose en una entrada de palabra clave en la forma de una palabra clave escrita o hablada por un/a usuario/a de un sistema de creación de atmósferas.
Los sistemas de iluminación son cada vez más avanzados, flexibles e integrados, y permitirán nuevas formas de iluminación, incluyendo la iluminación en color y la dinámica, que permitirán crear una gran variedad de atmósferas con un único sistema de iluminación. Adicionalmente, además de la iluminación, los sistemas de creación de atmósferas también pueden incluir la generación de olores y la representación de contenido audiovisual atmosférico. Esto se aplica especialmente a los dominios profesionales tales como el dominio de venta minorista, pero los nuevos sistemas de iluminación o, en general, los sistemas de creación de atmósferas también irrumpirán en el dominio doméstico. Este cambio se ve reforzado en el caso de la iluminación con la llegada de la iluminación LED (o iluminación de estado sólido - SSL). Este nuevo tipo de luz facilita el uso de la luz de color. La luz de color se puede usar en particular para crear atmósferas agradables, por ejemplo en tiendas, pero también en casa.
Un problema de estos nuevos sistemas complejos de creación de atmósferas, en particular los sistemas de iluminación, es el control de la creación de la atmósfera, que se hará más complejo debido a las numerosas características de estos sistemas, por ejemplo el control del color o el ancho de haz de una luz ambiental creada con un sistema de iluminación moderno. Por lo tanto, las escenas de atmósfera de alta calidad están definidas por expertos/as tales como diseñadores/as de iluminación y “arquitectos/as escenográficos/as”. Además, los ajustes personalizados de la creación de atmósferas a menudo requieren la asistencia de dichos/as expertos/as. Sería deseable permitir que las personas no expertas controlen la creación de la atmósfera en un sistema moderno de creación de atmósferas, tal como un sistema de iluminación complejo. El documento US 7.031.920 B2 da a conocer un sistema y un método para el control de la iluminación basada en el color, mediante el control de voz o el reconocimiento de voz, así como la sintaxis para su uso con dicho sistema.
Los documentos US7031920, WO01/99475, y GB2354602 se refieren al control de sistemas de iluminación. El documento US-2005/0278224 se refiere al control de un dispositivo de emisión de perfume.
Un objeto de la invención es proporcionar una creación automática de una atmósfera, en particular de una atmósfera de iluminación, en un sistema de creación de atmósferas tal como un sistema de iluminación.
El objeto se logra por la una o más reivindicaciones independientes. Mediante la una o más reivindicaciones dependientes se muestran realizaciones adicionales.
Una idea básica de la invención es permitir que un/a usuario/a de un sistema de creación de atmósferas, tal como un sistema de iluminación, cree automáticamente una atmósfera específica mediante el simple uso de una palabra clave que introduzca en el sistema en la forma de una palabra clave escrita o hablada por un usuario del sistema de creación de atmósferas. La palabra clave, por ejemplo, “comer”, “leer”, “relajarse”, “soleado/a”, “genial”, “fiesta”, “Navidad”, “playa”, puede ser dicha en voz alta o escrita por el/la usuario/a y puede permitir al/la mismo/a buscar y explorar numerosas atmósferas de forma interactiva y lúdica, en realizaciones de la invención. Encontrar elementos de atmósfera relacionados con la palabra clave se puede hacer de diversas maneras, de acuerdo con realizaciones de la invención. Algunos ejemplos son la búsqueda en una base de conocimiento (predefinida) que mapee la palabra clave con respecto a ciertas propiedades de atmósfera, la búsqueda de imágenes y la búsqueda de propiedades de atmósfera en estas imágenes, o el uso de una tecnología web semántica que permita a un/a rastreador/a de la web encontrar relaciones entre una palabra clave en particular y colores específicos, por ejemplo, “verde bosque”, “azul marino”, “colorido”. La invención también permite a una persona no experta en diseño o creación de escenas de atmósfera controlar la creación de una atmósfera deseada, en un sistema de creación de atmósferas. Cabe señalar que la invención puede aplicarse a cualquier tipo de sistema de creación de atmósferas, que puede generar estímulos perceptibles sensoriales, tales como el color y la intensidad de una luz de atmósfera, una temperatura de atmósfera, diversos aromas, sonidos e imágenes.
En el presente documento se describe un sistema de acuerdo con la reivindicación 1.
Este sistema le permite a una persona no experta controlar la creación de una atmósfera específica simplemente usando una palabra clave, en lugar de tener que ajustar ciertos parámetros técnicos del sistema de creación de atmósferas, por ejemplo, la intensidad y el color de ciertas unidades de iluminación de un sistema de iluminación. Los medios de recepción de entrada de palabras clave comprenden un teclado y un micrófono para la entrada de una palabra clave por el usuario del sistema de creación de atmósferas, y un convertidor analógico a digital para generar la señal digital a partir de una señal de micrófono.
El intérprete de palabras clave se adapta para verificar y corregir la ortografía de una palabra clave introducida a través del teclado, y representada por la señal digital, y comprende un módulo de reconocimiento de voz automático para traducir una palabra clave hablada, recibida a través del micrófono y representada por la señal digital en la representación de palabras claves procesables por ordenador de la señal digital. Así, pueden corregirse los errores de escritura y ortografía del/la usuario/a y es posible un manejo sencillo mediante el uso de la entrada de voz, que se traduce automáticamente mediante reconocimiento de voz automático (ASR) en una representación de palabras claves procesables por ordenador.
El sistema comprende un medio de enriquecimiento de palabras clave, adaptados para generar una o más palabras clave alternativas relacionadas con la representación de palabras claves procesables por ordenador. Esto permite aumentar el número de palabras clave y, por lo tanto, la entrada al buscador de elementos de atmósfera. Por ejemplo, para la palabra clave “sol”, se pueden generar como palabras clave alternativas sinónimos relacionados con características como “caliente”, “brillante”, “día”, y sinónimos relacionados con actividades tales como “vacaciones”, “playa”. Esto permite no solo aumentar el número de palabras clave, sino también el tipo de palabra clave, lo que puede conllevar un mayor resultado en la búsqueda de elementos de atmósfera por parte del buscador de elementos de atmósfera. En una realización de la invención, los medios de enriquecimiento de palabras clave pueden adaptarse para generar palabras clave alternativas mediante el uso de una base de datos de sinónimos, un modelo de lenguaje o tecnología de mapeo mental, y/o un modelo específico de dominio que mapee entre sí términos relacionados con atmósferas.
El intérprete de palabras clave se adapta
- para recibir una señal de retroalimentación desde el buscador de elementos de atmósfera, que contenga información sobre los elementos de atmósfera encontrados,
- para determinar si se requiere un enriquecimiento de palabras clave en función de la señal de retroalimentación recibida,
- para enviar la representación de palabras claves procesables por ordenador a los medios de enriquecimiento de palabras clave, para el enriquecimiento de las palabras clave,
- para recibir la una o más palabras clave alternativas, relacionadas con la representación de palabras claves procesables por ordenador, desde los medios de enriquecimiento de palabras clave, y
- para enviar al buscador de elementos de atmósfera la una o más palabras clave alternativas recibidas, para encontrar elementos de atmósfera relacionados con la una o más palabras clave alternativas recibidas.
El buscador de elementos de atmósfera se puede adaptar de acuerdo con varias realizaciones, de la siguiente manera: en una primera realización, puede adaptarse el buscador de elementos de atmósfera para que busque en una base de conocimiento, utilizando la representación de palabras claves procesables por ordenador, en donde la base de conocimiento está adaptada para mapear palabras clave con respecto a ciertas propiedades de atmósfera. De acuerdo con una segunda realización, se puede adaptar el buscador de elementos de atmósfera para que haga uso de tecnología de web semántica, lo que permite que un rastreador de la web encuentre relaciones entre la representación de palabras claves procesables por ordenador y ciertas propiedades de atmósfera. En una tercera realización, puede adaptarse el buscador de elementos de atmósfera para que encuentre sonidos, música y sonidos atmosféricos relacionados con la representación de palabras claves procesables por ordenador, como ciertas propiedades de atmósfera.
En una cuarta realización, puede adaptarse el buscador de elementos de atmósfera para que busque imágenes, utilizando por ejemplo un motor de búsqueda de imágenes, usando la representación de palabras claves procesables por ordenador, y para que analice las imágenes encontradas para encontrar propiedades que puedan mapearse con respecto a ciertas propiedades de atmósfera. En una realización adicional, puede adaptarse el buscador de elementos de atmósfera para que analice las imágenes encontradas, en el sentido de que se extraen las características específicas de las imágenes y se mapea las mismas con respecto a ciertas propiedades de atmósfera. De acuerdo con una realización, puede adaptarse el buscador de elementos de atmósfera para que extraiga características específicas de las imágenes llevando a cabo los siguientes pasos:
- segmentar una imagen en primer plano y en segundo plano, mediante la detección de qué objetos de una imagen se encuentran al frente y qué parte de la imagen es parte del fondo,
- detectar dónde está el horizonte en el fondo de la imagen y dividir el fondo en un área superior e inferior, en función del horizonte detectado,
- determinar las características de color en cada área determinada en los pasos anteriores, y
- mapear las características de color determinadas de cada área con respecto a ciertas propiedades de atmósfera.
Se describe adicionalmente un dispositivo de control para crear automáticamente una atmósfera, en particular para la aplicación en un sistema según lo descrito anteriormente, que comprende
- medios receptores, adaptados para recibir datos de imágenes digitales,
- medios de extracción de características de imagen, adaptados para extraer características de datos de imagen digital recibidos desde los medios receptores, y
- medios de generación de señal de control de atmósfera, adaptados para generar señales para crear automáticamente la atmósfera dependiendo de las características extraídas.
Los medios de extracción de características de imagen están adaptados para llevar a cabo los siguientes pasos: - segmentar una imagen representada por datos de imagen digital recibidos, en primer plano y en segundo plano, mediante la detección de qué objetos de la imagen están delante y de qué parte de la imagen es parte del fondo, - detectar dónde está el horizonte en el fondo de la imagen y dividir el fondo en un área superior e inferior, dependiendo del horizonte detectado,
- determinar las características de color en cada área determinada en los pasos anteriores, y
- mapear las características de color determinadas de cada área con respecto a ciertas propiedades de atmósfera. Los medios receptores pueden comprender un dispositivo de escaneo en color. Con el dispositivo de escaneo en color pueden transformarse las imágenes en color en datos de imagen digital, para su procesamiento adicional por parte del dispositivo de control.
También se describe un dispositivo de visualización de imágenes, que comprende
- medios de captura de imágenes, adaptados para capturar una imagen que se representa mediante el dispositivo de visualización, al recibir una señal de captura de imágenes,
- medios receptores, adaptados para recibir la señal de captura de imágenes, y
- medios de transmisión, adaptados para enviar una imagen capturada como datos de imagen digital a un dispositivo de control descrito anteriormente.
El dispositivo de visualización de imágenes puede ser, por ejemplo, un televisor, tal como un televisor con pantalla LCD o de panel de plasma, o un marco de imágenes digitales. Este dispositivo de visualización de imágenes puede actuar como emisor, mientras que el dispositivo de control puede actuar como receptor para señales del dispositivo de visualización de imágenes. Así, es posible controlar fácilmente la creación automática de una atmósfera con un sistema de creación de atmósferas, simplemente iniciando una señal de captura de imagen cuando el dispositivo de visualización de imágenes muestre una imagen que un/a usuario/a quisiera usar como base para la creación automática de atmósferas.
El dispositivo de control puede estar integrado en el dispositivo de visualización de imágenes. Por ejemplo, una TV o un marco de imágenes digitales puede comprender circuitería electrónica que incorpore el dispositivo de control, tal como un microcontrolador que comprenda un programa informático que implemente la funcionalidad del dispositivo de control.
El dispositivo de visualización de imágenes puede comprender un botón, adaptado para generar la señal de captura de imágenes al presionar el mismo. Por ejemplo, el botón puede implementarse en un televisor como un botón de control de ambiente. Al presionar el botón de control de ambiente en el televisor, un/a usuario/a puede capturar una imagen representada en ese momento al presionar el botón, y usar esta imagen para la creación automática de una atmósfera.
El dispositivo de visualización de imágenes puede comprender una interfaz para comunicarse con un sistema como el descrito anteriormente. La interfaz puede ser, por ejemplo, una interfaz de comunicación por cable o inalámbrica, tal como una interfaz LAN (Red de área local), USB (Universal Serial Bus), IEEE1394 o WLAN (LAN inalámbrica), para conectarse con una correspondiente interfaz del sistema.
Se describe adicionalmente un control remoto para un dispositivo de visualización de imágenes según lo descrito anteriormente, en donde el dispositivo de control remoto comprende un botón adaptado para generar y enviar la señal de captura de imágenes al presionar el mismo. Por ejemplo, el dispositivo de control remoto puede ser un control remoto estándar para un televisor o un marco de imágenes digitales, que comprenda como características adicionales el botón y circuitería para generar y enviar la señal de captura de imágenes. El control remoto puede transmitir la señal de captura de imágenes generada al televisor o marco de imágenes digitales, a través de una conexión de comunicación infrarroja o una transmisión de radiofrecuencia inalámbrica.
En el presente documento se describe además un método de acuerdo con la reivindicación 11.
Se proporciona un programa informático, en donde el programa informático puede habilitarse para llevar a cabo el método descrito en el presente documento cuando se ejecuta mediante un ordenador.
Puede proporcionarse un soporte de grabación, tal como un CD-ROM, DVD, tarjeta de memoria, disquete o medio de almacenamiento similar para almacenar un programa informático según lo descrito anteriormente.
Estos y otros aspectos de la invención serán evidentes y se aclararán con referencia a la una o más realizaciones que se describen a continuación.
La Fig. 1 muestra una realización de un sistema para crear automáticamente una atmósfera con un sistema de creación de atmósferas;
La Fig. 2 muestra un diagrama de flujo de un proceso de enriquecimiento de palabras clave, llevado a cabo por el intérprete de palabras clave del sistema de la Fig. 1;
La Fig. 3 muestra un diagrama de flujo de un proceso para extraer características específicas de una imagen llevada a cabo por los medios de extracción del buscador de elementos de atmósfera de la Fig. 1; y
Las Figs. 4A a 4C muestran el procesamiento de una imagen en un sistema descrito en el presente documento. En la siguiente descripción, el término atmósfera significa cualquier combinación de estímulos perceptibles sensoriales, tales como el color y la intensidad de una luz ambiental, una temperatura ambiental, diversos aromas, sonidos e imágenes. En la siguiente descripción, los elementos (funcionales) similares o idénticos en los dibujos se pueden denotar con los mismos números de referencia.
La Fig. 1 muestra un sistema, que permite a un/a usuario/a utilizar una palabra clave para crear una atmósfera específica, tal como una atmósfera de iluminación, que coincida con la palabra clave. Dicho sistema permitirá a un/a usuario/a simplemente usar una palabra clave para cambiar la atmósfera en un lugar en particular. Por ejemplo, un/a usuario/a puede mencionar:
- una actividad específica del/la usuario/a tal como “leer”, “comer”, “ver televisión”, “relajarse”;
- una estación o suceso en particular tal como “Navidad”, “fiesta”, ...;
- un contexto social con niños, tal como familia, fiesta;
- una ubicación geográfica o un paisaje, tal como Siberia, Toscana, Sahara, playa, bosque, puesta de sol.
El sistema también permite buscar atmósferas, es decir, permite a un/a usuario/a encontrar y explorar numerosas atmósferas de forma interactiva y divertida. En una implementación del sistema, comprende unos medios 12 de recepción de entrada de palabras clave, un intérprete 14 de palabras clave, un buscador 18 de elementos de atmósfera, un controlador 22 de medios de creación de atmósferas, unos medios 26 de enriquecimiento de palabras clave, y unos medios receptores 32 para datos 34 de imagen digital.
Los medios 12 de recepción de entrada de palabras clave, que comprenden un micrófono con un convertidor de digital a analógico y un teclado, se proporcionan para recibir una palabra clave hablada o escrita, y están adaptados para crear una señal digital 13 que represente la palabra clave recibida.
Un modelo de lenguaje o tecnología de mapeo mental, o un modelo específico de dominio que mapee entre sí términos relacionados con una atmósfera. Por ejemplo, la palabra “nieve” puede generar palabras relacionadas tales como blanco/a, invierno, hielo, etc. Los medios 26 de enriquecimiento de palabras clave se implementan preferentemente como un programa informático ejecutado por ordenador, y pueden tener acceso a internet 52 a través de una conexión 54 a internet. En el presente documento, el término “Internet” significa preferentemente la red mundial de internet (WWW), pero también puede ser cualquier otro tipo de red informática, tal como una intranet. El buscador 18 de elementos de atmósfera utiliza la una o más palabras claves textuales, es decir, la una o más palabras claves 16 procesables por ordenador que recibe del intérprete 14 de palabras clave, para encontrar elementos 20 de atmósfera que coincidan con la una o más palabras claves. Estos elementos 20 pueden ser propiedades de la atmósfera deseada, por ejemplo, de una atmósfera de iluminación deseada (tales como el color, brillo, dinámica, prominencia, etc.) o partes de contenido que puedan descargarse para ser renderizadas por el sistema de creación de atmósferas (tales como imágenes digitales, música o sonidos). El buscador 18 de elementos de atmósfera se implementa preferentemente como un programa informático ejecutado por un ordenador, y puede tener acceso a internet 52 a través de una conexión 54 a internet.
La búsqueda de los elementos de atmósfera se puede hacer de varias maneras:
- Pueden usarse la una o más palabras clave para buscar una base de conocimiento (predefinida), por ejemplo, accesible a través de internet 52, que pueda mapear palabras clave con respecto a ciertas propiedades de atmósfera.
- Pueden usarse la una o más palabras clave para buscar imágenes (p. ej. haciendo uso de un motor de búsqueda de imágenes, por ejemplo, accesible en Internet 52), y analizar las imágenes para encontrar propiedades (comunes) en la imagen, tales como el color y el brillo de segmentos de imagen prominentes, mapeándose las propiedades de imagen con respecto a la configuración del sistema de iluminación, de tal manera que se cree una atmósfera que coincida con el estilo y el “ambiente” de la una o más imágenes.
- También es posible usar tecnología web semántica, que permita a un rastreador de la web encontrar relaciones entre una palabra clave en particular y colores particulares, a través de internet 52. Por ejemplo, puede encontrar que el término “bosque” se encuentra a menudo en documentos web que también contienen el nombre del color “verde”, o en documentos web que contienen imágenes cuyo color prominente es el verde.
- Pueden usarse la una o más palabras clave para encontrar sonidos o los denominados “paisajes sonoros” (sonidos atmosféricos) en bases de datos locales o en la web.
El buscador 18 de elementos de atmósfera comprende medios 36 de extracción de características de imagen, que están adaptados para extraer las características de los datos 34 de imagen digital recibidos. La funcionalidad de los medios 36 se describirá más adelante con más detalle. Adicionalmente, el buscador 18 de elementos de atmósfera también puede tener acceso a internet 52 a través de la conexión 54 a internet, y puede recibir datos 34 de imagen digital a través de internet 52 o desde los medios receptores 32 adaptados para recibir datos 34 de imagen digital. El controlador 22 de medios de creación de atmósferas se proporciona para controlar el sistema 10 de creación de atmósferas, y está adaptado para crear generar una señal 24 de control para el sistema 10 de creación de atmósferas. La señal 24 de control ajusta la configuración del sistema 10 de creación de atmósferas en función de los elementos 20 de atmósfera encontrados por el buscador 18 de elementos de atmósfera, y transmitidos al controlador 22 de medios de creación de atmósferas. El sistema 10 de creación de atmósferas puede ser una integración de varios subsistemas tales como, por ejemplo, un sistema de iluminación, un sistema de generación de olores, un sistema electrónico de renderizado de pantallas y un sistema de audio. Este sistema de creación de atmósferas se puede aplicar en varios dominios para satisfacer la necesidad de crear una atmósfera sencilla, tal como la sala de estar, el dormitorio, el baño, tiendas de alta gama, habitaciones de hotel, etc.
Los aparatos y métodos descritos en el presente documento también se refieren a un mecanismo de interacción para controlar un sistema de creación de atmósferas, tal como un sistema de iluminación. Más específicamente, se da a conocer una solución para que los/las usuarios/as seleccionen una imagen para controlar un sistema de creación de atmósferas, como se describirá a continuación. Puede analizarse automáticamente una imagen seleccionada, de modo que los medios extractores 36 de características de imagen del buscador 18 de elementos de atmósfera puedan extraer características específicas. Estas características se mapean entonces sobre la dimensión de atmósferas de los sistemas de creación de atmósferas, por ejemplo sobre dimensiones de las luces en un sistema de iluminación, para que este sistema de iluminación pueda realizar la atmósfera adecuada. Las personas a menudo asocian fotos o imágenes con ciertos ambientes. Así, los aparatos y métodos descritos ofrecen al/la usuario/a la posibilidad de utilizar fotos para establecer un ambiente. El/la usuario/a puede seleccionar una imagen 100 (Fig. 4A) de un conjunto de fotos almacenadas, pero el/la usuario/a también puede insertar una nueva imagen, por ejemplo desde una cámara digital.
Los medios 36 de extracción de características de imagen reciben datos 34 de imagen digital de la foto seleccionada 100, y analizan la misma de manera específica, de modo que pueda utilizarse la imagen como base para realizar una atmósfera determinada, por ejemplo, un ambiente de luz específico. En ambientes luminosos, es importante saber qué colores usar en la iluminación de fondo general y, más específicamente, a menudo se crea una especie de horizonte: la parte superior de una habitación se ilumina de manera diferente a la parte inferior de una habitación. Adicionalmente, se añade iluminación enfática para crear más profundidad en el ambiente. Por lo tanto, se determinan en la imagen seleccionada 100 las áreas 102 y 104 de primer plano y de fondo, respectivamente, que se analizan para encontrar características a mapear con respecto al sistema de iluminación, consúltense las Figs. 4B y 4C. Esto se hace con un proceso automático, cuyo diagrama de flujo se muestra en la Fig. 3, que se lleva a cabo mediante los medios 36 de extracción de características de imagen. El proceso comprende los siguientes pasos esenciales:
Paso S20: Segmentación de Primer plano/Fondo
El sistema detecta qué objetos 102 están delante y qué parte de la imagen forma parte del fondo 104. Esta tecnología puede usar, por ejemplo, el tamaño y la nitidez de las áreas de la imagen 100. Este paso da como resultado la definición del área que está en primer plano 102 (o enfocada), y del área de la imagen que está en el fondo 104. También puede ser que no se detecte primer plano alguno.
Pasos 22 y 24: Detección de horizonte y división del fondo.
El sistema determina dónde está el horizonte 106 en el fondo 104. Posteriormente, se divide el fondo 104 en un área superior 108 y un área inferior 110. También podría ocurrir que no se detecte horizonte alguno. En ese caso, el fondo permanece como una sola área.
Paso 26: Análisis de color
Se analiza por separado cada área 102, 108, 110 que se ha determinado en los dos pasos anteriores. Se determina en las áreas el matiz, brillo y saturación. Esto puede basarse en valores medios o en valores dominantes.
Paso 28: Mapeo
Se mapean las características determinadas de las áreas 102, 108, 110 en las luces del sistema de iluminación. La parte superior 108 del fondo de la imagen se mapea con respecto a la iluminación general que ilumina la parte superior de la habitación. Con este fin, podrían usarse limpiadores de pared o luces de bovedilla. Se traducen los colores de esta área de la imagen utilizando matrices de conversión de color a los colores de las lámparas utilizadas. La parte inferior 110 del fondo de la imagen se mapea con respecto a la iluminación general que ilumina la parte inferior de la habitación. Si no se detecta ningún horizonte, toda la iluminación general tendrá el mismo color y brillo. Finalmente, se mapea el primer plano 102 de la imagen 100 con respecto a la iluminación enfática en la habitación. Con este fin, pueden utilizarse focos u objetos de luz. También pueden traducirse los colores del área 108, 110 de primer plano en la imagen 100, usando matrices de conversión de color, a los colores de las lámparas usadas como iluminación enfática.
Los datos 34 de imagen digital pueden generarse y recibirse desde el sistema de varias formas. En particular, puede seleccionarse la imagen 100 para su análisis a través de una interfaz de usuario, tal como un dispositivo de pantalla pequeña, como un marco de imágenes digitales, o un dispositivo de pantalla grande, como un televisor 38. La interfaz de usuario también podría ser algo tan sencillo como una conexión USB o de vídeo para una cámara digital. Con una conexión USB, el/la usuario/a puede seleccionar una imagen de la cámara en la interfaz de usuario, que se utilice para seleccionar todas las imágenes para crear los ambientes (de manera parecida a cuando se accede a la cámara desde un PC a través de una conexión USB). El/la usuario/a también podría agregar imágenes de la cámara al conjunto de imágenes almacenadas. Alternativamente, el/la usuario/a también puede seleccionar una imagen en la propia cámara (de manera similar a cuando se visualizan imágenes de una cámara en un televisor, con una conexión de vídeo compuesto). Estos datos 34 de imagen digital pueden enviarse a través de una conexión de vídeo directamente a los medios receptores 32 de los datos 34 de imagen digital del sistema. Otra realización alternativa podría ser implementar los medios receptores 32 como un escáner en color, p. ej. integrado en una pared, o un escáner de superficie plana, para que los/las usuarios/as puedan usar imágenes o fotos impresas como entrada.
Con el fin de obtener una mayor comodidad para el/la usuario/a, se puede proporcionar un mecanismo de interacción fácil para controlar un sistema de creación de atmósferas en el sistema descrito. Más específicamente, se puede usar un dispositivo de visualización de imágenes, tal como una pantalla de TV o un marco de fotos digitales, o cualquier otra pantalla de visualización de imágenes para controlar con una sola acción un sistema de creación de atmósferas, tal como un sistema de iluminación. El dispositivo de visualización de imágenes incluye un botón de “ambiente” para controlar de forma inmediata la creación de una atmósfera o ambiente, respectivamente. Al presionar este botón, se utiliza la imagen, representada en ese momento en el dispositivo de visualización de imágenes, para renderizar una atmósfera o ambiente, respectivamente, utilizando el sistema de iluminación en una habitación. Tal elemento de control de interfaz de usuario permite al/la usuario/a ajustar fácilmente, por ejemplo, el ambiente de iluminación de un sistema de luz.
En la Fig. 1, el televisor 38 se proporciona como el dispositivo de visualización de imágenes. El televisor 38 incluye un botón 48 de “ambiente”. Además, el control remoto 50 del televisor 38 incluye un botón 48 de “ambiente”. Al presionar el botón 48 en el televisor 38, la imagen presentada en ese momento en la pantalla del televisor 38 es transmitida por los medios 46 de transmisión, como datos 34 de imagen digital, a los medios receptores 32 de datos de imagen digital. Los medios receptores 32 envían los datos de imagen digital recibidos desde el televisor 38 a los medios 36 de extracción de características de imagen, para su procesamiento adicional como se ha descrito anteriormente con respecto a las Figs. 3 y 4A a 4C. Al presionar el botón 48 en el control remoto 50, se transmite una señal 42 de captura de imagen a los medios receptores 44, por ejemplo los medios receptores infrarrojos del televisor, para que reciban señales de control desde el control remoto 50. Los medios receptores 44 inician una captura de la imagen representada en ese momento en la pantalla del televisor 38, e instruyen a los medios emisores 46 para que transmitan los datos 34 de imagen digital de la imagen capturada.
Cabe observar que el análisis de la imagen capturada, como se ha descrito con respecto a la Fig. 3, también puede llevarse a cabo localmente en el televisor 38. Por lo tanto, el televisor 38 puede comprender, por ejemplo, los medios 36 de extracción de características de imagen del buscador 18 de elementos de atmósfera, puede estar adaptado para llevar a cabo un proceso de extracción de características de imagen como se muestra en la Fig. 3. De manera secundaria, cualquier tipo de dispositivo de imágenes digitales puede comprender la funcionalidad de extraer las características de una imagen representada y capturada, tal como un marco de fotos digitales, un cámara de fotos digitales o un ordenador personal que represente imágenes y ejecute un programa que lleve a cabo la función de extracción de características de imagen. Además, estos dispositivos de visualización de imágenes pueden comprender los medios emisores 46, ya sea para transmitir datos digitales 34 de imagen o bien los resultados de una extracción de características de imagen.
El enlace entre el dispositivo de visualización de imágenes y el sistema de creación de atmósferas podría ser una conexión fija, en el sentido de que la imagen seleccionada influiría en todo el sistema de iluminación (por ejemplo, una habitación). Por otro lado, el enlace entre el dispositivo de visualización de imágenes y el sistema de creación de atmósferas podría ser más flexible, en el sentido de que la imagen seleccionada solo influiría en el entorno directo del dispositivo de visualización de imágenes, por ejemplo, el ambiente del televisor 38. La conexión de datos real entre el dispositivo de visualización de imágenes podría ser tanto cableada como inalámbrica.
Al menos parte de la funcionalidad de la invención, tal como la funcionalidad del intérprete 14 de palabras clave, los medios 26 de enriquecimiento de palabras clave, el buscador 18 de elementos de atmósfera, los medios 36 de extracción de características de imagen y el controlador 22 de medios de creación de atmósferas, puede llevarse a cabo mediante hardware o software. En el caso de una implementación en software, puede utilizarse una configuración de microprocesadores o microcontroladores estándares, únicos o múltiples. La invención podría implementarse mediante algoritmos únicos o múltiples.
Cabe señalar que la palabra “comprender” no excluye otros elementos o pasos, y que la palabra “un” o “uno/a” no excluye una pluralidad. Adicionalmente, no debe interpretarse ningún signo de referencia en las reivindicaciones como limitante del alcance de la invención.

Claims (13)

REIVINDICACIONES
1. Un sistema para crear automáticamente una atmósfera con un sistema (10) de creación de atmósferas, basado en una entrada de palabra clave en la forma de una palabra clave escrita o hablada por un usuario del sistema (10) de creación de atmósferas, en donde una atmósfera está definida por al menos uno de entre luz, temperatura, aroma, sonido e imágenes, comprendiendo el sistema:
- medios (12) de recepción de entrada de palabras clave, adaptados para transformar la entrada de palabra clave recibida en una señal digital (13) que represente la entrada de palabra clave recibida, en donde los medios (12) de recepción de entrada de palabras clave comprenden un teclado y un micrófono para la introducción de la entrada de palabra clave y un convertidor de analógico a digital para generar la señal digital (13) desde una señal de micrófono, - un intérprete (14) de palabras clave, adaptado para traducir la señal digital (13) a una representación (16) de palabras clave procesables por ordenador, en donde el intérprete (14) de palabras clave se adapta para comprobar y corregir la ortografía de la entrada de palabra clave introducida mediante el teclado y representada por la señal digital (13) y comprende un módulo de reconocimiento de voz automático para traducir una palabra clave hablada recibida mediante el micrófono y representada por la señal digital (13) en la representación (16) de palabras clave procesables por ordenador de la señal digital (13),
- un buscador (18) de elementos de atmósfera adaptado para encontrar elementos (20) de atmósfera relacionados con la representación (16) de palabras clave procesables por ordenador, mediante el procesamiento automático de la representación (16) de palabras clave procesables por ordenador, y
- un controlador (22) de medios de creación de atmósferas, adaptado para generar una señal (24) de control para el sistema (10) de creación de atmósferas, que ajuste la configuración del sistema (10) de creación de atmósferas en función de los elementos (20) de atmósfera encontrados, y
- medios (26) de enriquecimiento de palabras clave, adaptados para generar una o más palabras clave alternativas relacionadas con la representación (16) de palabras clave procesables por ordenador, y en donde el intérprete (14) de palabras clave está adaptado adicionalmente para:
- recibir una señal (28) de retroalimentación desde el buscador (18) de elementos de atmósfera, que contenga información sobre los elementos (20, S10) de atmósfera encontrados,
- determinar si se requiere un enriquecimiento de palabras clave en función de la señal (28, S12) de retroalimentación recibida,
- enviar la representación (16) de palabras clave procesables por ordenador a los medios (26) de enriquecimiento de palabras clave, para el enriquecimiento (S14) de palabras clave,
- recibir una o más palabras clave alternativas, relacionadas con la representación (16) de palabras clave procesables por ordenador, desde los medios (26, S16) de enriquecimiento de palabras clave, y
- enviar la una o más palabras clave alternativas recibidas al buscador (18) de elementos de atmósfera, para encontrar elementos (20) de atmósfera relacionados con una o más palabras clave alternativas recibidas, (S18).
2. El sistema de la reivindicación 1, en donde, en particular, los medios (26) de enriquecimiento de palabras clave están adaptados para generar palabras clave alternativas haciendo uso de una base de datos de sinónimos, un modelo de lenguaje o tecnología de mapeo mental, y/o un modelo específico de dominio que mapee entre sí términos relacionados con la atmósfera.
3. El sistema de cualquiera de las reivindicaciones 1 a 2, en donde el buscador (18) de elementos de atmósfera está adaptado para buscar a través de una base de conocimientos, utilizando la representación (16) de palabras clave procesables por ordenador, en donde la base de conocimientos está adaptada para mapear palabras clave con respecto a ciertas propiedades de atmósfera.
4. El sistema de cualquiera de las reivindicaciones 1 a 3, en donde el buscador (18) de elementos de atmósfera está adaptado para llevar a cabo uno o más de los siguientes actos:
usar tecnología web semántica que permita a un rastreador de la web encontrar relaciones entre la representación (16) de palabras clave procesables por ordenador y ciertas propiedades de atmósfera;
encontrar sonidos, música y sonidos atmosféricos relacionados con la representación (16) de palabras clave procesables por ordenador como ciertas propiedades de atmósfera;
buscar imágenes utilizando la representación (16) de palabras clave procesables por ordenador y analizar las imágenes encontradas, con el fin de encontrar propiedades que puedan mapearse con respecto a ciertas propiedades de atmósfera;
analizar las imágenes encontradas, en el sentido de que se extraen características específicas de las imágenes y se mapean con respecto a ciertas propiedades de atmósfera.
5. El sistema de la reivindicación 4, en donde el buscador (18) de elementos de atmósfera está adaptado para extraer características específicas de las imágenes llevando a cabo los siguientes pasos:
- segmentar una imagen (100) en primer plano (102) y en el fondo (104) mediante la detección de qué objetos de una imagen están al frente y qué parte de la imagen forma parte del fondo, (S20),
- detectar dónde está el horizonte (106) en el fondo de la imagen (100, S22) y dividir el fondo en un área superior y un área inferior (108, 110), dependiendo del horizonte detectado, (S24),
- determinar las características de color en cada área determinada en los pasos anteriores (S26), y
- mapear las características de color determinadas de cada área con respecto a ciertas propiedades de atmósfera, (S28).
6. Un dispositivo de control para crear automáticamente una atmósfera, y que está adaptado particularmente para su aplicación en un sistema de cualquiera de las reivindicaciones precedentes, y que comprende
- medios receptores (32), adaptados para recibir datos (34) de imagen digital,
- medios (36) de extracción de características de imagen, adaptados para extraer características de los datos (34) de imagen digital recibidos desde los medios receptores (32), y
- medios (18, 20) de generación de señales de control de atmósfera, adaptados para generar señales (24) para crear automáticamente la atmósfera en función de las características extraídas.
7. El dispositivo de control de la reivindicación 6, en donde los medios (36) de extracción de características de imagen están adaptados para llevar a cabo los siguientes pasos:
- segmentar una imagen (100) en primer plano (102) y en el fondo (104), mediante la detección de qué objetos de una imagen están delante y qué parte de la imagen forma parte del fondo, (S20),
- detectar dónde está el horizonte (106) en el fondo de la imagen (100, S22) y dividir el fondo en un área superior e inferior (108, 110), en función del horizonte detectado, (S24),
- determinar las características de color en cada área determinada en los pasos anteriores (S26), y
- mapear las características de color determinadas de cada área con respecto a determinadas propiedades de atmósfera, (S28).
8. Un dispositivo (38) de visualización de imágenes que está especialmente adaptado para su aplicación en un sistema de cualquiera de las reivindicaciones 1 a 5, y que comprende
- medios (40) de captura de imágenes, adaptados para capturar una imagen, que se representa mediante el dispositivo de visualización, al recibir una señal (42) de captura de imágenes,
- medios receptores (44), adaptados para recibir la señal de captura de imágenes, y
- medios emisores (46), adaptados para enviar una imagen capturada como datos (34) de imagen digital a un dispositivo de control de cualquiera de las reivindicaciones 6 o 7.
9. El dispositivo de visualización de imágenes de la reivindicación 8, en donde el dispositivo de control de las reivindicaciones 6 o 7 está integrado en el dispositivo de visualización de imágenes, y/o
el dispositivo de visualización de imágenes comprende un botón (48), adaptado para generar la señal (42) de captura de imágenes al presionar el botón (48), y/o
el dispositivo de visualización de imágenes comprende una interfaz para comunicarse con un sistema de cualquiera de las reivindicaciones 1 a 5.
10. Un control remoto (50) para un dispositivo de visualización de imágenes de cualquiera de las reivindicaciones 8 a 9, que comprende un botón (48) adaptado para generar y enviar la señal (42) de captura de imágenes al presionar el mismo.
11. Un método para crear automáticamente una atmósfera con un sistema (10) de creación de atmósferas, basado en una entrada de palabra clave en la forma de una palabra clave escrita o hablada por un usuario del sistema (10) de creación de atmósferas, en donde las etapas del método permiten definir una atmósfera mediante al menos uno de entre luz, temperatura, aroma, sonido e imágenes, comprendiendo el método:
- transformar la entrada de palabra clave recibida en una señal digital (13) que represente la entrada de palabra clave recibida,
-traducir la señal digital (13) a una representación (16) de palabras clave procesables por ordenador,
- encontrar elementos (20) de atmósfera relacionados con la representación (16) de palabras clave procesables por ordenador, mediante el procesamiento automático de la representación (16) de palabras clave procesables por ordenador,
- generar una señal (24) de control para el sistema (10) de creación de atmósferas que ajuste la configuración del sistema (10) de creación de atmósferas, en función de los elementos (20) de atmósfera encontrados; y
- generar una o más palabras clave alternativas, relacionadas con la representación (16) de palabras clave procesables por ordenador, comprendiendo la generación las etapas de:
- recibir una señal (28) de retroalimentación desde el buscador (18) de elementos de atmósfera, que contiene información sobre los elementos (20, S10) de ambiente encontrados,
- determinar si se requiere un enriquecimiento de palabras clave, en función de la señal (28, S12) de retroalimentación recibida,
- enviar la representación (16) de palabras clave procesables a los medios (26) de enriquecimiento de palabras clave, para el enriquecimiento de palabras clave, (S14),
- recibir una o más palabras clave alternativas relacionadas con la representación (16) de palabras clave procesables por ordenador de la clave, desde los medios (26, S16) de enriquecimiento de palabras clave, y - enviar la una o más palabras clave alternativas recibidas al buscador (18) de elementos de atmósfera, para encontrar elementos (20) de atmósfera relacionados con la una o más palabras clave alternativas recibidas, (S18).
12. Un programa informático habilitado para llevar a cabo el método de la reivindicación 11, cuando se ejecuta el mismo en un ordenador.
13. Un soporte de grabación, que almacena un programa informático de acuerdo con la reivindicación 12.
ES08737929T 2007-04-24 2008-04-21 Método, sistema e interfaz de usuario para crear automáticamente una atmósfera, en particular una atmósfera de iluminación, basándose en una entrada de palabra clave Active ES2721823T5 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP07106849 2007-04-24
PCT/IB2008/051521 WO2008129505A1 (en) 2007-04-24 2008-04-21 Method, system and user interface for automatically creating an atmosphere, particularly a lighting atmosphere, based on a keyword input

Publications (2)

Publication Number Publication Date
ES2721823T3 ES2721823T3 (es) 2019-08-05
ES2721823T5 true ES2721823T5 (es) 2022-03-25

Family

ID=39586971

Family Applications (1)

Application Number Title Priority Date Filing Date
ES08737929T Active ES2721823T5 (es) 2007-04-24 2008-04-21 Método, sistema e interfaz de usuario para crear automáticamente una atmósfera, en particular una atmósfera de iluminación, basándose en una entrada de palabra clave

Country Status (8)

Country Link
US (1) US8374880B2 (es)
EP (1) EP2143305B2 (es)
JP (1) JP5628023B2 (es)
CN (1) CN101669406B (es)
ES (1) ES2721823T5 (es)
RU (1) RU2479018C2 (es)
TW (1) TW200850057A (es)
WO (1) WO2008129505A1 (es)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101866630B (zh) * 2010-04-13 2012-10-31 深圳创维-Rgb电子有限公司 一种彩色光输出控制方法及液晶电视
US9880531B2 (en) 2011-10-07 2018-01-30 Koninklijke Philips N.V. Adaptive control of ambience settings
CN203057588U (zh) * 2012-02-13 2013-07-10 皇家飞利浦电子股份有限公司 光源的远程控制
ES2640926T5 (es) * 2012-10-24 2021-07-26 Signify Holding Bv Asistencia a un usuario para seleccionar un diseño de dispositivo de iluminación
RU2644411C2 (ru) * 2013-02-07 2018-02-12 Филипс Лайтинг Холдинг Б.В. Осветительная система, имеющая контроллер, которая содействует выбранной световой сцене, и способ для управления такой системой
US10492274B2 (en) 2013-05-16 2019-11-26 Signify Holding B.V. Camera-based calibration of an ambience lighting system
US20170303370A1 (en) * 2014-10-02 2017-10-19 Philips Lighting Holding B.V. Lighting system and method for generating lighting scenes
CN106406504B (zh) * 2015-07-27 2019-05-07 常州市武进区半导体照明应用技术研究院 人机交互界面的氛围渲染***与方法
JP6434197B1 (ja) * 2015-11-16 2018-12-05 フィリップス ライティング ホールディング ビー ヴィ 光源を制御するためのコントローラ及びその方法
WO2017162469A1 (en) 2016-03-22 2017-09-28 Philips Lighting Holding B.V. Enriching audio with lighting
EP3504939B1 (en) 2016-08-26 2020-03-04 Signify Holding B.V. Controller for controlling a lighting device
EP3530079B1 (en) * 2016-10-18 2020-06-03 Signify Holding B.V. Illumination control.
JP6725900B2 (ja) * 2016-11-25 2020-07-22 シグニファイ ホールディング ビー ヴィSignify Holding B.V. 照明制御
JP6937478B2 (ja) 2017-04-27 2021-09-22 パナソニックIpマネジメント株式会社 照明システム
CN109429415B (zh) * 2017-08-29 2020-09-15 美智光电科技有限公司 照明控制方法、装置及***
RU180965U1 (ru) * 2018-03-07 2018-07-02 Николай Григорьевич Пинаев Выключатель света с голосовым управлением
US10902538B2 (en) 2018-08-21 2021-01-26 GM Global Technology Operations LLC Efficient ride request
RU192148U1 (ru) * 2019-07-15 2019-09-05 Общество С Ограниченной Ответственностью "Бизнес Бюро" (Ооо "Бизнес Бюро") Устройство для аудиовизуальной навигации слепоглухих людей
GB2604733B (en) * 2019-09-11 2024-07-17 Ovad Custom Stages Llc Automatic adjustable mannequin

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9411561D0 (en) * 1994-06-07 1994-08-03 Richmond Holographic Res Stereoscopic display
US5680511A (en) * 1995-06-07 1997-10-21 Dragon Systems, Inc. Systems and methods for word recognition
WO1999053728A1 (fr) * 1998-04-13 1999-10-21 Matsushita Electric Industrial Co., Ltd. Procede de regulation d'un eclairage et dispositif d'eclairage
US6434524B1 (en) * 1998-09-09 2002-08-13 One Voice Technologies, Inc. Object interactive user interface using speech recognition and natural language processing
AUPP839199A0 (en) * 1999-02-01 1999-02-25 Traffic Pro Pty Ltd Object recognition & tracking system
GB2354602A (en) * 1999-09-07 2001-03-28 Peter Stefan Jones Digital controlling system for electronic lighting devices
JP4495814B2 (ja) * 1999-12-28 2010-07-07 アビックス株式会社 調光式led照明器具
US6721705B2 (en) * 2000-02-04 2004-04-13 Webley Systems, Inc. Robust voice browser system and voice activated device controller
ATE539593T1 (de) * 2000-06-21 2012-01-15 Philips Solid State Lighting Verfahren und vorrichtung zum steuern eines beleuchtungssystems in abhängigkeit einer audioeingabe
WO2002011497A1 (en) * 2000-07-27 2002-02-07 Color Kinetics Incorporated Lighting control using speech recognition
US6445053B1 (en) 2000-07-28 2002-09-03 Abbott Laboratories Micro-machined absolute pressure sensor
US7099860B1 (en) 2000-10-30 2006-08-29 Microsoft Corporation Image retrieval systems and methods with semantic and feature based relevance feedback
US7219364B2 (en) 2000-11-22 2007-05-15 International Business Machines Corporation System and method for selectable semantic codec pairs for very low data-rate video transmission
WO2002099780A2 (en) * 2001-06-06 2002-12-12 Color Kinetics Incorporated System and methods of generating control signals
JP2005528733A (ja) * 2001-12-19 2005-09-22 カラー・キネティックス・インコーポレーテッド 制御された発光の方法および装置
US20040015983A1 (en) 2002-04-22 2004-01-22 Thomas Lemmons Method and apparatus for a data receiver and controller for the facilitation of an enhanced television viewing environment
CN100588296C (zh) 2002-05-13 2010-02-03 约翰逊父子公司 用于产生光和香味的组合表示的装置和方法
US20060062424A1 (en) * 2002-07-04 2006-03-23 Diederiks Elmo M A Method of and system for controlling an ambient light and lighting unit
TW577520U (en) * 2002-10-25 2004-02-21 A-Sheng Yang The voice control light
JP2004221908A (ja) 2003-01-14 2004-08-05 Sanyo Electric Co Ltd 表示制御方法とこの方法を利用可能な撮影画像出力システム、表示制御装置、液晶プロジェクタ、およびデジタルカメラ
FR2852173B1 (fr) 2003-03-06 2005-05-27 France Telecom Systeme de creation d'ambiance et d'environnement de personnes a l'aide d'equipements electroniques multisensoriels
CN1906951A (zh) 2004-01-05 2007-01-31 皇家飞利浦电子股份有限公司 由子采样视频内容和通过非再生色彩空间映射得出的环境光
JP2005250797A (ja) * 2004-03-03 2005-09-15 Ricoh Co Ltd 画像売買システム
JP4498005B2 (ja) 2004-05-12 2010-07-07 キヤノン株式会社 香り情報処理装置および香り情報処理システム
JP2006058996A (ja) 2004-08-18 2006-03-02 Matsushita Electric Ind Co Ltd 飲食環境制御システム
KR20060026228A (ko) 2004-09-20 2006-03-23 삼성테크윈 주식회사 터치 스크린 디스플레이 패널을 리모콘으로 사용하는디지털 카메라 및 그 구동 방법
JP2008522201A (ja) 2004-10-25 2008-06-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 照明制御画像フレームシステム及び方法
US7724910B2 (en) * 2005-04-13 2010-05-25 Hitachi, Ltd. Atmosphere control device
AU2005211628A1 (en) 2005-09-21 2007-04-05 Canon Kabushiki Kaisha Processing digital image

Also Published As

Publication number Publication date
TW200850057A (en) 2008-12-16
JP5628023B2 (ja) 2014-11-19
JP2010525538A (ja) 2010-07-22
CN101669406A (zh) 2010-03-10
RU2009143360A (ru) 2011-05-27
CN101669406B (zh) 2014-06-04
US20110022396A1 (en) 2011-01-27
ES2721823T3 (es) 2019-08-05
EP2143305A1 (en) 2010-01-13
WO2008129505A1 (en) 2008-10-30
RU2479018C2 (ru) 2013-04-10
EP2143305B1 (en) 2019-03-06
US8374880B2 (en) 2013-02-12
EP2143305B8 (en) 2019-04-10
EP2143305B2 (en) 2021-12-22

Similar Documents

Publication Publication Date Title
ES2721823T5 (es) Método, sistema e interfaz de usuario para crear automáticamente una atmósfera, en particular una atmósfera de iluminación, basándose en una entrada de palabra clave
JP5341755B2 (ja) 環境パラメータセットの決定
US7248230B2 (en) Ornament apparatus, system and method
Hamilton-Fletcher et al. " I Always Wanted to See the Night Sky" Blind User Preferences for Sensory Substitution Devices
KR20160144400A (ko) 주변 조건들에 기초하여 출력 디스플레이를 발생시키는 시스템 및 방법
WO2015175532A1 (en) Automatic theme and color matching of images on an ambient screen to the surrounding environment
CN115830171B (zh) 基于人工智能绘画的图像生成方法、显示设备及存储介质
CN109005627A (zh) 一种灯光控制方法、装置、终端及存储介质
US20190124387A1 (en) System and method for display adjustments based on content characteristics
CN105988369B (zh) 一种内容驱动的智能家居控制方法
CN109348592B (zh) 一种照明情境构建方法及***、计算机设备和存储介质
KR102184885B1 (ko) 프로젝터 제어 시스템
KR20190027438A (ko) 스피커 스탠드
US20220151046A1 (en) Enhancing a user's recognition of a light scene
Warner Orange is the warmest color: mood and chromatic temperature in Robert Altman’s McCabe & Mrs. Miller
Garganourakis Shakespeare Republic:# AllTheWebsAStage (The Lockdown Chronicles)
JP2022185896A (ja) 情報処理システム、環境設定システム、データ提供方法、プログラム
Eckersall et al. From Extreme Light to Total Darkness: The Dramaturgy of Organised Light
Stephenson Review of Shakespeare’s Macbeth (directed by Robert Hastie for Shakespeare’s Globe) at the Sam Wanamaker Playhouse, London, 10 January and 12 January (Matinée) 2019
KR20150044167A (ko) 영상 표시 기기 및 그의 동작 방법
KR20230107042A (ko) 전자 장치 및 그 동작 방법
O'Neill Mourning Becomes Electra, and: The Pillowman
Nereson EXODUS, RESONANCE, AND INNOVATION IN KAZIMIERZ BRAUN'S PRODUCTION OF THE CHERRY ORCHARD
Hogan Rabindranath Tagore, Implied Painter: On the Narratology of Visual Art
JPH04177421A (ja) マルチメディア情報伝達方法