MX2008012473A - Reproduccion adaptada de contenido de video basada en cuadros adicionales de contenido. - Google Patents

Reproduccion adaptada de contenido de video basada en cuadros adicionales de contenido.

Info

Publication number
MX2008012473A
MX2008012473A MX2008012473A MX2008012473A MX2008012473A MX 2008012473 A MX2008012473 A MX 2008012473A MX 2008012473 A MX2008012473 A MX 2008012473A MX 2008012473 A MX2008012473 A MX 2008012473A MX 2008012473 A MX2008012473 A MX 2008012473A
Authority
MX
Mexico
Prior art keywords
elements
content
reproduction
content signal
main
Prior art date
Application number
MX2008012473A
Other languages
English (en)
Inventor
Bart Gerard Bernard Barenbrug
Leo Jan Velthoven
Mark Jozef Mertens
Michiel Adriaanszoon Klompenhouwer
Frederik Jan De Bruijn
Original Assignee
Koninkl Philips Electronics Nv
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninkl Philips Electronics Nv filed Critical Koninkl Philips Electronics Nv
Publication of MX2008012473A publication Critical patent/MX2008012473A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • H04N21/45455Input to filtering algorithms, e.g. filtering a region of the image applied to a region of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

Se describe un dispositivo (500) y método para reproducir contenido que incluye analizar porciones temporales previas y/o subsecuentes de una señal de contenido para determinar elementos que están posicionalmente relacionados con elementos de una porción en curso de la señal de contenido. La porción en curso de la señal de contenido es reproducida en un dispositivo de reproducción principal (530), tal como una televisión, mientras que los elementos están relacionados posicionalmente con elementos de una porción en curso de la señal de contenido son reproducidos concurrentemente en un dispositivo de reproducción secundario (540). En una modalidad, los elementos que son reproducidas en el dispositivo de reproducción secundario (540) pueden ser reproducidos en una resolución inferior y/o en una velocidad de cuadro más lenta que la porción en curso reproducida de la señal de contenido. En una modalidad, por lo menos una de las porciones previas y subsecuentes de una señal de contenido puede ser analizada en una resolución inferior que la señal de contenido.

Description

REPRODUCCION ADAPTADA DE CONTENIDO DE VIDEO BASADA EN CUADROS ADICIONALES DE CONTENIDO CAMPO DE LA INVENCION El presente sistema se relaciona con unidades de despliegue de video que tienen efectos de iluminación ambiental en donde las características de iluminación ambiental son adaptadas con base en una pluralidad de cuadros de imagen. ANTECEDENTES DE LA INVENCION Es conocido que los sistemas ajustan la presentación de contenido mediante el cambio de una relación de aspecto de contenido desde una relación de aspecto del contenido proporcionado a una relación de aspecto de un dispositivo de presentación. La relación de aspecto generalmente se refiere al marco de la imagen tal como una relación de ancho y altura de imágenes reproducidas. Por ejemplo, una relación de aspecto de 16:9 ha sido adoptada ampliamente como una forma de despliegue estándar para grupos de televisión de alto rendimiento, aun la mayoría de las transmisiones televisivas son transmitidas en una relación de aspecto de 4:3. Al mismo tiempo, grandes cantidades de material de imágenes con otras relaciones de aspecto (por ejemplo, 16:9, 14:9, etc.) son proporcionadas mientras que este material es finalmente desplegado sobre dispositivos de despliegue con una relación de aspecto de 4:3.
No. Ref . : 195701 Debido a esta falta de correspondencia, típicamente es proporcionada alguna forma de conversión de relación de aspecto . En un sistema para proporcionar una conversión 4:3 a 16:9, son agregadas barras negras en los lados del contenido desplegado proporcionado lo que se denomina una presentación de "pantalla ancha". Este método suministra un resultado no real de 16:9, aun típicamente se suministra para eliminar distorsiones de imagen introducidas mediante otros métodos. En un sistema alterno, imágenes (por ejemplo, cuadros de imágenes de movimiento) pueden ser magnificadas al extender el contenido horizontal y verticalmente , aun este sistema resulta en que se pierda información en las partes superior e inferior del contenido. En aun otra modalidad, el contenido puede ser extendido en solamente la dirección horizontal, incluso este sistema resulta en que los objetos desplegados en el contenido sean distorsionados resultando en un cambio en la forma de los objetos (por ejemplo, objetos circulares llegan a parecer ovalados) . De manera similar, el contenido desplegado puede ser extendido horizontalmente con un factor de acercamiento no uniforme de manera que los objetos sobre el lado de la imagen desplegada estén más extendidos que los objetos en el centro de la imagen desplegada. Este sistema proporciona objetos posicionados en el centro que son desplegados con poca o sin distorsión, aun cuando estos objetos se desplacen desde una porción de la pantalla (por ejemplo, centro de la pantalla) hacia otra porción de la pantalla (por ejemplo, el borde de la pantalla), el objeto será sometido a diferentes factores de acercamiento conforme cruza la pantalla lo cual puede ser bastante molesto. Este problema es exacerbado por contenido que se origina como contenido 16:9, tal como contenido de imagen de movimiento, que es editado para una presentación de televisión. Frecuentemente, este contenido es suministrado utilizando una técnica "pan-&-scan" (de pantalla panorámica a pantalla completa) en donde el contenido de imagen de movimiento es escaneado desde un lado del contenido de imagen de movimiento hacia otro lado del contenido de imagen de movimiento para crear el contenido de relación de aspecto 4 : 3 que posteriormente es transmitido. En esta presentación de pantalla panorámica a pantalla completa, los objetos están en un movimiento constante desde un lado de la pantalla hacia otro . La Publicación de Patente Norteamericana No. 2003/0035482 por Klompenhouwer ("patente Klompenhouwer" ) , la cual se incorpora aquí como referencia como si fuera establecida por completo aquí, describe un sistema para extender una imagen dada al utilizar pixeles a partir de una imagen previa o subsecuente. Por ejemplo, para una imagen en movimiento proporcionada que tiene un movimiento global que se desplaza hacia la derecha, imágenes previas pueden ser utilizadas para rellenar píxeles hacia la izquierda de la imagen dada sin distorsionar los objetos representados en la imagen dada. De manera similar, para contenido almacenado o contenido que está disponible algún tiempo previo a ser desplegado y un movimiento global que se desplaza hacia la derecha, las imágenes subsecuentes pueden ser utilizadas para rellenar pixeles a la derecha de la imagen dada. Mientras que este sistema proporciona una representación más natural de contenido que las soluciones previas, esto no mejora la presentación de contenido más allá del dispositivo de despliegue. Koninkli j ke Philips Electronics N.V. (Philips) y otras compañías han descrito medios para cambiar la iluminación ambiental o periférica para mejorar el contenido de video para aplicaciones domésticas o comerciales típicas. La iluminación ambiental agregada a una pantalla de video o televisión ha mostrado que reduce la fatiga del observador y mejora el realismo de profundidad de la experiencia. Actualmente, Philips tiene una línea de televisores, que incluye televisores de pantalla plana con iluminación ambiental, en donde un cuadro alrededor de la televisión incluye fuentes de luz ambiental que proyectan luz ambiental sobre una pared trasera que soporta o que esta cerca de la televisión. Además, las fuentes de luz separadas del televisor también pueden ser utilizadas para producir luz ambiental que se extiende más allá de la pantalla de televisor.
La Solicitud de Patente PCT WO 2004/006570 incorporada aquí como referencia como si fuera establecida completamente, describe un sistema y dispositivo para controlar efectos de luz ambiental con base en características de color de contenido desplegado, tal como tono, saturación, brillo, colores, velocidad y cambios de escena, caracteres reconocidos, fondo detectado, etc. En operación, el sistema analiza el contenido recibido y puede utilizar la distribución del contenido, tal como color promedio, sobre la pantalla completa o utiliza las porciones del contenido desplegado que están posicionadas cerca del borde de la pantalla para controlar elementos de iluminación ambiental. La característica de luz ambiental generalmente utiliza el contenido de video de la misma pantalla para generar efectos de luz ambiental sobre una base por cuadro junto con un promedio temporal para suavizar transiciones temporales de los elementos de iluminación ambiental. En otros sistemas, una secuencia de comandos de iluminación puede ser utilizada para generar los efectos de iluminación ambiental en coordinación con imágenes representadas en curso. Mientras que este sistema expande eficazmente el tamaño de imagen percibida, de hecho, los sistemas de iluminación ambiental previos típicamente simplemente expanden los objetos y escenas proporcionadas en un cuadro dado de contenido.
SUMARIO DE LA INVENCION Es un objeto del presente sistema superar las desventajas del arte previo y realizar una mejora en el efecto de iluminación ambiental para facilitar una experiencia de observación más profunda. El presente sistema proporciona un dispositivo y método para reproducir contenido. El dispositivo y método incluyen analizar porciones temporales previas y/o subsecuentes de una señal de contenido para determinar elementos que están relacionados en posición con elementos de una porción en curso de la señal de contenido. La porción en curso de la señal de contenido es reproducida en un dispositivo de reproducción principal, tal como una televisión, en tanto los elementos que están relacionados en posición con elementos de la porción en curso de la señal de contenido son reproducidos de manera simultánea en un dispositivo de reproducción secundario. En una modalidad, los elementos que son reproducidos en el dispositivo de reproducción secundario pueden ser reproducidos en una resolución inferior que la de la porción en curso reproducida de la señal de contenido. En una modalidad, por lo menos una de las porciones temporales previas y subsecuentes de la señal de contenido puede ser analizada en una resolución inferior que la señal de contenido. Los elementos que son reproducidos en el dispositivo de reproducción secundario pueden ser reproducidos en una resolución variable, en donde la variación es determina con base en una posición del elemento reproducido en relación con la señal de contenido reproducido en el dispositivo de reproducción principal. En otra modalidad, los elementos que son reproducidos en el dispositivo de reproducción secundario pueden ser reproducidos en una resolución que es determinada con base en una posición del elemento reproducido en relación con la señal de contenido reproducido en el dispositivo de reproducción principal. Los elementos que son reproducidos en el dispositivo de reproducción secundario pueden ser reproducidos en una resolución que es determinada con base en una posición temporal del elemento reproducido en relación con la señal de contenido reproducido en el dispositivo de reproducción principal. Los elementos reproducidos en los dispositivos de reproducción secundarios pueden ser reproducidos utilizando datos auxiliares, tal como datos de Experiencia Ambiental (AMBX) e Información de Mejora Suplementaria (SEI, por sus siglas en inglés), relacionada con los elementos determinados. Los datos auxiliares pueden estar asociados con la señal de contenido, tal como una transmisión junto con la señal de contenido o almacenados junto con la señal de contenido. De esta manera, los requerimientos de procesamiento en el sitio del dispositivo de reproducción principal pueden ser reducidos y/o puede ser proporcionada información más precisa relacionada con los elementos reproducidos. Los datos auxiliares también pueden proporcionar información para ayudar a determinar un posicionamiento de características y/o objetos en las pantallas secundarias. En una modalidad, el dispositivo de reproducción secundario puede ser un dispositivo de reproducción de iluminación ambiental y los elementos pueden ser reproducidos como elementos de iluminación ambiental. En la misma o en una modalidad alterna, el dispositivo de reproducción secundario puede ser uno o más dispositivos de reproducción periférica (por ejemplo, pantallas) y los elementos pueden ser reproducidos como elementos de imagen periféricos. De acuerdo a como se utiliza aquí, un dispositivo/pantalla de reproducción periférica tiene la intención de describir un dispositivo/pantalla de reproducción que está en la vecindad del dispositivo de reproducción principal. Los elementos determinados pueden ser determinados con base en una posición del dispositivo de reproducción secundario con respecto al dispositivo de reproducción principal. El dispositivo de reproducción secundario puede incluir una pluralidad de pantallas secundarias. Los elementos determinados pueden ser determinados con base en una posición de cada uno de los dispositivos de reproducción secundarios con respecto al dispositivo de reproducción principal. Los elementos determinados pueden ser determinados con base en datos auxiliares, tal como datos de Experiencia Ambiental (AMBX) e Información de Mejora Suplementaria (SEI), asociada con el contenido . El dispositivo de reproducción secundaria puede incluir dos o más dispositivos de reproducción secundarios con uno de los dispositivos de reproducción secundarios posicionado a un lado (por ejemplo, arriba, abajo, lado izquierdo, lado derecho) del dispositivo de reproducción principal y el otro de los dispositivos de reproducción secundaria posicionado al otro lado del dispositivo de reprodücción principal. En una modalidad, cada una de las porciones temporales previas y subsecuentes de la señal de contenido puede ser analizada para determinar los elementos, por ejemplo, para dispositivos de reproducción secundarios que están posicionados a la izquierda y derecha del dispositivo de reproducción principal. En una modalidad, los elementos reproducidos en el dispositivo de reproducción secundario pueden ser reproducidos en una velocidad de cuadro más lenta que la señal de contenido producida en el dispositivo de reproducción principal. BREVE DESCRIPCION DE LAS FIGURAS La siguiente son descripciones de modalidades ilustrativas que cuando se toman junto con las siguientes Figuras mostrarán las características y ventajas observadas anteriormente, así como otras adicionales. En la siguiente descripción, para propósitos de explicación más que de limitación, serán establecidos detalles específicos tal como la arquitectura, interfaces, técnicas particulares, etc., para ilustrar. Sin embargo, será evidente para las personas experimentadas en la técnica que otras modalidades que surgen de estos detalles específicos aun se entiende que se encuentran dentro del alcance de las reivindicaciones anexas. Más aun, para propósitos de claridad, se omitirán descripciones de dispositivos, circuitos, y métodos suficientemente conocidos para no obscurecer la descripción del presente sistema. Se deberá comprender expresamente que las Figuras están incluidas para propósitos de ilustración y no representan el alcance del presente sistema. En las Figuras anexas, números de referencia iguales en diferentes Figuras pueden designar elementos similares. La Figura 1 muestra una modalidad del presente sistema configurado para mejorar una experiencia de observación de una pantalla de conformidad con una modalidad del presente sistema ; la Figura 2 muestra una vista frontal de un sistema de conformidad con una modalidad del presente sistema; la Figura 3 muestra una vista superior que ilustra detalles de un sistema de iluminación ambiental que utiliza una fuente de iluminación ambiental de conformidad con una modalidad del presente sistema; la Figura 4 muestra un sistema de iluminación periférica inmersiva ilustrativa de conformidad con una modalidad del presente sistema; y la Figura 5 muestra un sistema de conformidad con una modalidad del presente sistema. DESCRIPCION DETALLADA DE LA INVENCION La Figura 1 muestra una modalidad 100 del presente sistema configurado para mejorar una experiencia de observación de una pantalla 110 mediante la creación de patrones de luz 120A, 120B, al exterior de un área de observación normal, tal como un área de despliegue de relación de aspecto 4:3. En esta modalidad, el contenido de esta argumentación no se deriva simplemente del contenido de video en curso mostrado en la pantalla o partes de la misma, por ejemplo como puede ser aplicado en características de iluminación ambiental del arte previo al calcular una extensión del cuadro de video en curso a un área exterior de la imagen de video en curso. En la modalidad mostrada, una reproducción en curso de contenido de video (por ejemplo, un cuadro desplegado de contenido de video) reproducida en una imagen de relación de aspecto de 4:3 es extendida mediante imágenes extendidas (por ejemplo, uno o más de los patrones de luz 120A, 120B) derivada de cuadros previos y/o subsecuentes (previo o subsecuente a un cuadro en curso) de contenido de video. Los cuadros previos y/o subsecuentes de contenido de video pueden incluir uno o más cuadros de video previos y/o subsecuentes. En una modalidad, solamente una porción (por ejemplo, tal como una característica, objeto, y/o elemento generalmente) de un cuadro de video previo y/o subsecuente puede ser analizada. Por ejemplo, una característica de fondo de un cuadro previo puede ser analizada sin examinar el cuadro previo completo. En una modalidad, dos o más porciones de cuadro pueden ser analizadas. Por ejemplo, dos porciones de cuadro previo consecutivas, o una porción previa y una porción de cuadro en curso pueden ser utilizadas de conformidad con el presente sistema. En otra modalidad cuando dos porciones de cuadro (por ejemplo, que incluye por lo menos una de una porción de cuadro previo o subsecuente) son analizadas para determinar un patrón de luz (por ejemplo, patrón de luz 120A) , las porciones de cuadro no necesitan ser temporalmente consecutivas aunque, en una modalidad, las porciones de cuadro pueden ser temporalmente consecutivas. Una o más de las áreas de extensión 130A, 130B pueden ser proporcionadas por una característica de iluminación ambiental de conformidad con el presente sistema, tal como acondicionado para reproducir (por ejemplo, proyectar) una o más imágenes de iluminación ambiental sobre una pared que está posicionada detrás de la pantalla 110 desde la perspectiva de un observador de la pantalla 110. Naturalmente, uno o más patrones de iluminación 120A, 120B pueden ser suministrados por uno o más dispositivos de reproducción fijos a la pantalla 110 y/o por uno o más dispositivos de reproducción (por ejemplo, un proyector), u otros dispositivos que están separados de la pantalla 110 y que tienen la capacidad de reproducir (desplegar y/o proyectar) uno o más de los patrones de luz 120A, 120B. En una modalidad, uno o más de los patrones de luz 120A, 120B pueden ser suministrados por uno o más dispositivos de despliegue. Por ejemplo, el patrón de luz 120A puede ser suministrado por dos o más dispositivos de despliegue que operan como elementos de iluminación ambiental. De manera similar, el patrón de luz 120B puede ser suministrado por dos o más dispositivos de despliegue que operan como elementos de iluminación. En una modalidad de conformidad con el presente sistema, uno o más de los patrones de luz 120A, 120B son suministrados en una resolución que es inferior que los cuadros presentados en la pantalla 110. Por ejemplo, una o más de las áreas de extensión 130A, 130B pueden ser suministradas por pixeles 20x40 de resolución por área de extensión. Naturalmente en otras modalidades, una resolución mayor o menor puede ser proporcionada con una apreciación de que una resolución superior típicamente requiere mayor procesamiento para discernir los patrones de luz que se requieren para proporcionar un patrón de luz de resolución inferior. Por ejemplo, de conformidad con el presente sistema, vectores de movimiento global y/o local de cuadros y/u objetos representados en cuadros (por ejemplo, cuadros precedentes y/o que prosiguen) pueden ser determinados para utilizarse de conformidad con el presente sistema y/o pueden ser determinados como un producto secundario de otras porciones del sistema, tal como pueden ser utilizados durante un procesamiento de imágenes de Grupo Expertos de Imágenes en Movimiento (MPEG, por sus siglas en inglés) . Para una imagen de video que tiene un vector de movimiento global (por ejemplo del fondo/prioridad de pixeles) de la imagen suministrada en la pantalla 110 (por ejemplo, gol 140) o un vector de movimiento local de un objeto que está en movimiento hacia la derecha conforme los cuadros de video proporcionados en la pantalla 110 están en progreso temporalmente, el patrón de luz 120A puede ser discernido de uno o más cuadros de contenido de video que preceden al cuadro en curso mostrado en la pantalla 110. La dimensión de los vectores de movimiento del cuadro (global) y/u objeto (local) y el ancho del patrón de luz 120A suministrado en el área de extensión 130A pueden ser utilizada en la determinación de cómo muchos cuadros previos son examinados para determinar el patrón de luz 120A como puede observarse fácilmente. En una modalidad de conformidad con el presente sistema, para vectores de movimiento grandes, menos cuadros previos pueden ser utilizados (por ejemplo, uno o más cuadros previos) para discernir el patrón de luz 120A, aunque en otra modalidad, el mismo número de cuadros previos puede ser examinado sin importar la dimensión de los vectores de movimiento. Por ejemplo, en una modalidad, cuando los vectores de movimiento son más grandes, mayor resolución puede ser suministrada en el área de extensión 130A. De manera similar, en una imagen de video que tiene un vector de movimiento global de la imagen suministrada en la pantalla 110 o un vector de movimiento local de un objeto, tal como un jugador representado 150, que se está movimiento hacia la derecha conforme se reproducen temporalmente los cuadros de video suministrados en la pantalla 110, el patrón de luz 120B puede ser discernido a partir de uno o más cuadros de contenido de video posteriores al cuadro mostrado en curso sobre la pantalla 110. Este procesamiento se facilita cuando los cuadros del contenido de video están disponibles algún tiempo antes de que sean presentadas en la pantalla 110, tal como cuando el contenido es almacenado localmente y/o es mantenido por algún tiempo previo a la presentación en la pantalla 110. El tamaño de los vectores de movimiento del cuadro (global) y/o objeto (local) y el ancho de la resolución suministrada en el área de extensión 130B pueden ser utilizados en determinar cómo muchos cuadros posteriores son examinados para determinar el patrón de luz 120B como puede apreciarse fácilmente. En una modalidad de conformidad con el presente sistema, para vectores de movimiento más grandes, se pueden utilizar menos cuadros posteriores (por ejemplo, uno o más cuadros posteriores) para discernir el patrón de luz 120B, aunque en otra modalidad, el mismo número de cuadros posteriores puede ser examinado sin importar la dimensión de los vectores de movimiento. Por ejemplo, en una modalidad, cuando los vectores de movimiento son más grandes, mayor resolución puede ser proporcionada en el área de extensión 130B. Naturalmente los vectores de movimiento globales y/o locales deberán se desplazados hacia la izquierda, uno o más cuadros precedentes pueden ser utilizados para discernir el patrón de luz 120B representados en el área de extensión 130B. De manera similar, para los vectores de movimiento local y/o global que se desplazan hacia la izquierda, uno o más cuadros posteriores pueden ser utilizados para discernir el patrón de luz 120A representado en el área de extensión 130A. En este tipo de modalidad, la resolución suministrada en una o más áreas de extensión 130, 130B puede ser determinada dinámicamente con base en la dimensión de los vectores de movimiento determinados. Como puede ser fácilmente apreciado, la precisión de las imágenes mostradas en las áreas de extensión 130A, 130B puede disminuir conforme los cuadros utilizados para derivar los patrones de luz 120A, 120B llegan a estar más remotas temporalmente del cuadro de los datos desplegados en la pantalla 110. Además, la precisión de las porciones de imagen mostradas en las áreas de extensión 130A, 130B, puede disminuir conforme las porciones de imagen de los cuadros utilizados para derivar los patrones de luz 120A, 120B llegan a estar más remotas físicamente de las porciones de imagen en curso mostradas en el cuadro de datos desplegados en la pantalla 110. En otras palabras, además los patrones de luz 120A, 120B son extendidos, con ello extender la "imagen completa" constituida por el cuadro en curso que está siendo desplegado en la pantalla 110 junto con los patrones de luz 120A, 120B que están siendo desplegados en las áreas de extensión 130A, 130B, la precisión de las áreas remotas de las áreas de extensión 130A, 130B puede ser reducida. Por consiguiente, los términos remoto físicamente y posicionalmente tienen previsto incluir objetos que son posicionados además del cuadro en curso que se está desplegando en la pantalla 110 en términos de la imagen completa y/o los patrones de luz 120A, 120B que son producidos además del dispositivo de despliegue 110 puesto que uno o ambos con una proximidad dentro de la imagen completa y proximidad a la pantalla 110 puede ser utilizada para determinar el contenido reproducido dentro de las áreas de extensión 130A, 130B. Para compensar esta incidencia en algunos casos, la resolución de las áreas remotas físicamente y/o temporalmente de las áreas de extensión 130A, 130B puede disminuir conforme las áreas de extensión 130A, 130B llegan a estar más remotas físicamente y/o temporalmente de las imágenes reproducidas en la pantalla 110. En una modalidad de conformidad con el presente sistema, técnicas de movimiento natural, tal como las aplicadas en la patente Klompenhouwer pueden ser utilizadas para predecir temporalmente qué es visible al exterior del cuadro de video reproducido en la pantalla 110. El Movimiento Natural rastrea la trayectoria de objetos en la escena y puede por lo tanto extrapolar el movimiento de objetos al exterior del cuadro cuando se han desplazado fuera de la pantalla (por ejemplo, más allá de la pantalla 110) . De esta manera, se puede realizar una determinación del contenido proporcionado a las áreas de extensión 130A, 130B utilizando cálculos que ya son proporcionados para permitir el suavizado de imagen de movimiento natural. Ya que en una modalidad, las imágenes proporcionadas en las áreas de extensión pueden ser de baja resolución y por ello estar un tanto borrosas, una resolución inferior puede ser proporcionada en las áreas remotas (de acuerdo a lo discutido anteriormente) para balancear una cantidad de detalle proporcionado con un deseo por ocultar artefactos de extrapolación potenciales. En una modalidad, puede ser suficiente ejecutar un rastreo de imagen/objeto en baja resolución, con ello rastrear versiones borrosas de objetos grandes, o las llamadas manchas (blob en inglés) objetos. El rastreo de manchas objeto puede ser ejecutado con una baja complejidad computacional, puesto que esto puede ser ejecutado en versiones reducidas del contenido de video. Por ejemplo, un auto rojo en el contenido de video desplegado en la pantalla 110 puede (cuando se desplaza fuera de la pantalla) continua con una mancha roja en el área (s) de extensión. Por lo que en las pantallas auxiliares no necesitan ser una versión de baja resolución exacta de una proyección de los alrededores en curso de las imágenes para la pantalla principal, pero puede ser tan simple como una forma de mancha que se asemeja a una forma generalmente del objeto (por ejemplo, en forma elíptica), para un objeto y un perfil de color estructurado globalmente para el fondo (en el ejemplo del campo de fútbol soccer, éste sería una mitad inferior de césped oblicua, y un tono mate, quizá un área grisácea texturizada estadísticamente para la mitad superior de la audiencia, sobre la cual un gradiente de color de baja resolución podría ser superpuesto si tal está realmente presente de manera aproximada en el fondo de audiencia digitalizado) . Obsérvese que para una pantalla periférica de acuerdo a lo discutido con mayor detalle adelante, (perspectiva) se permite una deformación, puesto que la visión no es aguda y solamente puede ser requerida la sensación de inmersión. Por consiguiente, una determinación de una deformación de perspectiva puede ser aplicada para los patrones de luz (por ejemplo, características, objetos, fondo, etc.), referidos generalmente como elementos, en las áreas de extensión y/o las imágenes proporcionadas en las pantallas periféricas como puede apreciarse fácilmente. En una modalidad, elementos de fondo pueden estar presentes sin deformación de perspectiva mientras que los elementos de primer plano (por ejemplo, auto, jugador, etc.) son deformados después de la determinación de los elementos para proporcionar perspectiva (por ejemplo, extensión de los elementos a lo largo de un ángulo que se origina con la pantalla 110 y que emana hacia fuera de la misma. En una modalidad en donde el acercamiento de movimiento natural es combinado con la baja resolución de los patrones de luz 120A, 120B, alguien puede observar que un objeto que se ha desplazado fuera de la pantalla, ha estado/estará presente en cuadros de video pasados/futuros, de esa manera mostrar tal objeto fuera de pantalla es similar a mostrar contenido de imagen pasado/futuro, o en una modalidad, por lo menos una aproximación/modelo simplificada de tal contenido/elemento ( s) . De esa manera es posible una implementación de muy bajo costo en donde un modelo de movimiento global estima el movimiento global (y con ello implementa el rastreo), lo cual determina hasta dónde en las imágenes pasadas (o futuras) se deberán tomar, en las cuales basar las imágenes proporcionadas en la imagen (s) de extensión 130A, 130B. La determinación de la imagen de extensión es en este caso equivalente a retrasar (o avanzar) imágenes de extensión (colores en caso de muy baja resolución) puesto que puede ser calculadas por sistemas de iluminación ambiental previos, en donde la cantidad de retraso/avance puede ser determinada por el rastreo hecho por el estimador de movimiento global. Debido al almacenamiento de las imágenes de extensión en lugar del video original, se requiere poco almacenaje, y la característica puede ser implementada sin incrementar substancialmente el costo de sistemas previos. De conformidad con una modalidad del presente sistema, puede ser conveniente realizar una distinción entre objetos, escenas de primer plano (por ejemplo, objeto en primer plano 252) y fondo (por ejemplo el objeto de fondo 254), o en general, características (por ejemplo, con un algoritmo de detección de primer plano/fondo) , tal como en base en movimiento y oclusión, aunque otros sistemas pueden ser fácilmente aplicados), para rastrearlos de manera separada, y por ejemplo calcular las extensiones con base únicamente en una de las características de fondo o primer plano. En aun otra modalidad, una presencia de información tridimensional (3D) (por ejemplo, en una forma de mapas de profundidad que son transmitidos como capas extras, de conformidad con el estándar MPEG-C parte 3) puede ser de ayuda para identificar características y cuyas características son de primer plano o de fondo, así estas características pueden ser más fácilmente rastreadas y posicionadas apropiadamente en el área(s) de extensión. De conformidad con una modalidad, el procesamiento para el área(s) de extensión puede ser ejecutado por el equipo físico de pantalla principal, en donde los patrón (es) de luz de extensión resultante son comunicados hacia cualquier área(s) de despliegue secundaria (por ejemplo, superficies de pantalla, pantallas, etc.) que son utilizados para desplegar los patrón (es) de extensión. En otra modalidad, uno o más procesadores para las áreas de extensión pueden ser suministrados al mismo flujo de datos de video como la pantalla principal, en donde cada uno del uno o más procesadores ejecutan el análisis (o la parte que requiere) y con ello, determina su propia porción para reproducir. En una modalidad, una partición particular del sistema puede tener el rastreo y parte de predicción separado de la pantalla (s) completa (por ejemplo, en el lado de creación de contenido) , mediante lo cual los patrón (es) de luz de extensión (por ejemplo, parametri zados para permitir diferentes dimensiones y formas de la visualización de extensión) son transmitidos junto con el contenido de video, por ejemplo en la forma de información de Experiencia Ambiental (AMBX) (por ejemplo, secuencias de comandos, motores de programas computacionales , arquitectura, etc.) y/o en la forma de Información de Mejora Suplemental (SEI) dentro del estándar Codificación de Video Avanzada (AVC, por sus siglas en inglés ) . Varios Sistemas y/o métodos pueden ser utilizados para proyectar /proporcionar las área(s) de imagen de extensión hacia el ambiente de la pantalla principal. Mientras que se describen modalidades particulares aquí, como puede ser apreciado fácilmente por una persona experimentada en la técnica, otras modalidades pueden surgir las cuales pueden ajustarse dentro del alcance del presente sistema. En una o más modalidades de conformidad con el presente sistema, porciones del sistema de reproducción ambiental pueden ser integradas en la pantalla principal (por ejemplo, un bisel de la pantalla principal) con el uso de equipo de iluminación ambiental del arte previo, o extender el equipo del arte previo hacia una mayor resolución con el uso de, por ejemplo, microproyectores. En una modalidad, al desplegar un extensión apropiada de la imagen suministrada en curso en el área de despliegue principal (por ejemplo, en lugar de un color el cual se asemeja al color en curso en el lados de la imagen), solamente el procesamiento descrito previamente necesita ser agregado a un televisor de iluminación ambiental del arte previo para implementar el presente sistema. Se deberá observar que el presente sistema y las soluciones de iluminación ambiental del arte previo rastrean objetos un tanto de manera diferenciada y por ello, proporcionan contenido diferente en las áreas de iluminación ambiental. En el caso en donde un objeto rojo es desplegado en el frente de un fondo verde, cuando el objeto rojo se desplaza fuera de la pantalla en un televisor de iluminación ambiental del arte previo, la iluminación ambiental se tornará verde tan pronto como el objeto rojo esté fuera de la pantalla. En una modalidad de conformidad con el presente sistema, un efecto de iluminación ambiental correspondiente (por ejemplo, producido en una de las áreas de extensión 130A, 130B) puede permanecer rojo por un tiempo posterior con ello mostrar el objeto rojo que se está desplazando más allá del borde de pantalla principal, dependiendo de, por ejemplo, el último movimiento conocido de los objetos, el movimiento global estimado para los cuadros después de que se ha desplazado fuera de la pantalla, y/o la velocidad conforme es obtenida a partir de un estimador de movimiento basado en objeto, de acuerdo como por ejemplo proporcionada en "Segmentación de Movimiento Recursivo en Tiempo Real de Datos de Video en un Dispositivo Programable" , por R.B. Witterbrood y G. de Haan, publicado en IEEE Transactions on Consumer Electronics, Agosto de 2001, pp . 559-567, incorporado aquí como referencia hacia el mismo como si estableciera en su totalidad. De conformidad con el presente sistema, el tiempo en que una imagen/color se muestra fuera de pantalla (por ejemplo, pantalla 110), puede depender de la velocidad en que los objetos se están desplazando (por ejemplo, una dimensión del vector de movimiento relacionado, gran velocidad = corta duración) , en tanto de conformidad con una modalidad del presente sistema, estos colores (por ejemplo, atribuibles al auto rojo) puede atenuarse a un color predeterminado (por ejemplo, color de fondo) después de poco tiempo incluso para bajas velocidades (por ejemplo, velocidades en donde el movimiento del objeto puede aun no haber desplazado el objeto fuera de las área (s) de extensión) . Como puede apreciarse fácilmente, en algunas modalidades, la atenuación de un sistema presente puede ser bastante lenta para objetos de movimiento rápido los cuales dejan el área de extensión bastante rápido. Los sistemas de iluminación ambiental del arte previo pueden ya estar constituidos con múltiples fuentes de luz (por ejemplo, para incrementar la salida de luz, y producir colores diferentes en diferentes lados) . Mediante el control de cada fuente de luz de manera individual, y, por ejemplo, agregando una lente y/o un (difusor) sistema, una imagen de baja resolución puede ser proyectada en el ambiente alrededor de la pantalla principal (por ejemplo, izquierda, derecha, arriba y/o debajo de la pantalla 110) . En modalidades adicionales, un techo y/o piso alrededor de la pantalla principal también puede ser iluminado por elementos de iluminación ambiental presentes en la pantalla y/o se proporciona por elementos de iluminación ambiental que están remotos de la pantalla principal, tal como se puede proporcionar por una torre de iluminación ambiental exclusiva o un dispositivo/bocina de iluminación ambiental combinado. En una modalidad, los microproyectores de iluminación ambiental también pueden tomar la forma de perimetrales separados (por ejemplo, plataformas microproyectores independientes que pueden ser colocadas de acuerdo al deseo del usuario) . Como puede ser apreciado fácilmente, otros sistemas de suministro de iluminación ambiental pueden ser utilizados de conformidad con el presente sistema. La Figura 2 es una vista frontal de un sistema 200 de conformidad con una modalidad del presente sistema. En una modalidad, una pantalla 210, tal como una pantalla de cristal liquido (LCD, por sus siglas en inglés) basada en un dispositivo de despliegue, puede ser utilizada para proporcionar un sistema de iluminación ambiental de baja resolución. En una modalidad mostrada en la Figura 2, uno o más de los paneles de iluminación ambiental 260A, 260B pueden ser agregados a la pantalla 210. Los paneles de iluminación ambiental 260A, 260B pueden ser acondicionados como artículos adicionales (por ejemplo, proporcionados en la planta de manufactura, o conectado después de la compra por un usuario doméstico, por ejemplo mediante un bus y protocolo. En una modalidad, los paneles de iluminación ambiental 260A, 260B pueden incluir una fuente de iluminación ambiental 250, tal como microproyectores , diodos de emisión de luz (LEDs, por sus siglas en inglés) individuales o agrupados, etc. En una modalidad, un efecto estructurado de iluminación ambiental puede ser proporcionado mediante las salidas controladas de un arreglo MxN de LEDs (por ejemplo, RGB triples) detrás de un sistema de lentes/difusores 240, proporcionado para crear una imagen de baja resolución. En esta modalidad, la salida de la fuente de luz ambiental 250 puede ser configurable . Por ejemplo, la fuente de luz ambiental 250 puede ser posicionada/reposicionada para seleccionar el área irradiada por la fuente de luz ambiental, tal como puede ser proporcionada por una pared posicionada detrás/alrededor de la pantalla 210, o pantallas de reflexión posicionadas . En una modalidad, las lentes 240 también pueden ser ajustadas, manualmente y/o automáticamente para una proyección en pared en función de un ángulo formado entre la pantalla 210 y el ángulo de pared. Por ejemplo, en una modalidad, un microproyector puede ser acoplado de manera operable a la pantalla para que pueda rotar alrededor de la vertical. En una modalidad ajustada automáticamente, los paneles de luz ambiental 260A, 260B pueden incorporar una cámara y/u otro sistema para determinar el ángulo formado entre la pantalla 210 y la superficie sobre la cual se suministra el efecto de iluminación ambiental, y con ello, ajusfar automáticamente el ángulo de la fuente de luz ambiental 250 para proporcionar área(s) de extensión 230A, 230B. De conformidad con una modalidad del presente sistema, porciones del fondo del contenido de video pueden ser segmentadas en manchas de regiones homogéneas, tal como manchas objeto 270 (por ejemplo, los árboles en el fondo azul relativamente uniforme) . Muchos algoritmos de segmentación apropiados pueden ser utilizados, tal como los basados en color y/o textura. En una modalidad, el modelo de segmentación puede ser guiado con una información de descripción de escena superior, tal como metadatos y/u otros datos auxiliares. En una modalidad adicional, este patrón de fondo aproximado puede ser repetido (por ejemplo, como un patrón de textura de resolución periódica o estadística) en cualquier lado de la pantalla 210 y/o ser repetido a través de diferentes porciones de un efecto de iluminación ambiental dado acondicionado en cualquiera o en ambas área(s) de extensión 230A, 230B. De esta manera, característica y/o información de objeto puede ser discernida, por ejemplo, para solamente una porción de las área(s) de extensión, y, por ejemplo, la información de fondo discernida puede ser repetida en intervalos regulares y/o irregulares de las área(s) de extensión 230A, 230B. De conformidad con una modalidad, los mensajes SEI pueden incluir datos para guiar la segmentación mediante la identificación de objetos de fondo y primer plano los cuales pueden ser utilizados para proporcionar la guía de segmentación para obtener las manchas derechas. En otra modalidad, la segmentación puede ser realizada automáticamente, ya que la imagen circundante puede ser una imagen de una resolución relativamente baja. En otra modalidad que utiliza microproyectores , puede ser proporcionada una producción de imágenes de iluminación ambiental de más alta capacidad. Los microproyectores pueden se alargados a lo largo de una parte substancial de los paneles de iluminación ambiental 260A, 260B para facilitar una extensión de la imagen ( es ) /contenido reproducido. La Figura 3 muestra una vista en planta que ilustra detalles de un sistema de iluminación ambiental 300 que utiliza una fuente de iluminación ambiental 350 de conformidad con una modalidad del presente sistema. Ilustrativamente, la fuente de iluminación ambiental 350 puede incluir uno o más arreglo (s) de LED de una o más de dos dimensiones (2D, M x N) o puede incluir uno o más microproyector ( es ) . De acuerdo a lo mostrado desde un punto de observación 302 posicionado al frente de una pantalla 310, un bisel 312 se proporciona substancialmente ocultando porciones del sistema 300 desde una posición de ventaja del observador, es decir desde el punto de observación 302. Una lente (sistema) 340, tal como una lente difusora (micro) , puede ser proporcionada para dirigir un efecto de iluminación ambiental difuso, mostrado como conos de luz ambiental radiante 342, producido por la fuente de iluminación ambiental 350. En una modalidad de conformidad con el presente sistema, los conos de luz radiada pueden ser producidos, por ejemplo, por columna de pixel de la fuente iluminación ambiental. El efecto de iluminación ambiental producido mediante la combinación de la fuente de iluminación ambiental 350 y la lente 340 es reflejado fuera de una pared 380 en la modalidad ilustrativa. Naturalmente, en otra modalidad, la fuente de iluminación ambiental 350 puede ser suministrada separada de la pantalla 310, tal como mediante un dispositivo de proyección o dispositivo de microproyección separado que es acoplado de manera operativa a la pantalla 310 o por lo menos a una fuente del contenido desplegado sobre al pantalla 310. La Figura 4 muestra un sistema de iluminación periférica inmersiva ilustrativo 400 de conformidad con una modalidad del presente sistema. En la modalidad mostrada, dispositivos de reproducción secundarios separados, mostrados de manera ilustrativa como pantallas periféricas 412A, 412B, 412C, 412D, pueden ser utilizados para proporcionar una pluralidad de imágenes de extensión más allá de un dispositivo de reproducción principal, mostrado de manera ilustrativa como una pantalla 410. En una modalidad, cada una de las pantallas periféricas separadas 412A, 412B, 412C, 412D pueden ser iluminadas por sistemas de iluminación ambiental separados, tal como microproyectores separados, para proporcionar una experiencia de observación inmersiva para un usuario. En una modalidad alterna, una o más de las pantallas periféricas 412A, 412B, 412C, 412D pueden proporcionar imágenes independientes de sistemas de proyección. Las pantallas periféricas separadas 412A, 412B, 412C, 412D pueden ser posicionadas alrededor de una perspectiva de observador 480, tal como proporcionadas por una bicicleta de ejercicios como en una solución de salud. En otra modalidad, el usuario puede ser provisto con un ambiente de reproducción de video juegos inmersivo. Como puede ser fácilmente apreciado, mientras que los dispositivos de reproducción secundarios son mostrados de manera ilustrativa estando separados y divididos entre los lados izquierdo y derecho del dispositivo de reproducción principal, esto se muestra simplemente para una ilustración del presente sistema. Como se puede apreciar fácilmente, los dispositivos de reproducción secundarios no requieren estar situados simétricamente a la izquierda y derecha del dispositivo de reproducción principal. De hecho, los dispositivos de reproducción secundaria pueden ser posicionados y extendidos en una manera deseable por el usuario. En otra modalidad, uno o más de los dispositivos de reproducción secundarios pueden estar posicionados sobre y/o debajo del dispositivo de reproducción principal. En el mismo u otra modalidad, más dispositivos de reproducción secundarios pueden ser posicionados a un lado del dispositivo de reproducción principal que en el otro lado del dispositivo de reproducción principal. Si se desea, los dispositivos de reproducción secundarios pueden ser colocados a un lado (arriba, abajo, izquierda, derecha) del dispositivo de reproducción principal para la exclusión de otro lado del dispositivo de reproducción principal. Más o menos dispositivos de reproducción secundarios también pueden ser utilizados de conformidad con el presente sistema. En la modalidad mostrada, el usuario es suministrado con contenido (por ejemplo, video) sobre la pantalla principal (por ejemplo, panel de pantalla de plasma (PDP, por sus siglas en inglés) ) y puede ser suministrado contenido auxiliar, derivado, etc., para las pantallas periféricas 412A, 412B, 412C, 412D. En esta modalidad, ya que las pantallas periféricas 412A, 412B, 412C, 412D serán observadas principalmente en la visión periférica del usuario, las pantallas periféricas 412A, 412B, 412C, 412D pueden ser de resolución relativamente baja aunque pantallas de resolución más alta también pueden ser suministradas, aun el contenido reproducido se relacionará (por ejemplo, posicionalmente, temporalmente, etc.) con el contenido suministrado en la pantalla principal. En un cuarto más pequeño, las pantallas periféricas 412A, 412B, 412C, 412D pueden ser fijadas a las paredes que rodean la perspectiva del observador. En cualquier caso, las pantallas periféricas 412A, 412B, 412C, 412D deberán posicionarse de manera que puedan operarse (por ejemplo, posicionado suficientemente cerca a la perspectiva del observador 480) para proporcionar una vista periférica al usuario. En una modalidad alterna, las pantallas periféricas 412A, 412B, 412C, 412D pueden ser fijadas al techo de un cuarto en el cual se acondiciona el sistema de iluminación periférica inmersiva 400. En una modalidad, una placa de techo 490 puede ser acondicionada para facilitar el posicionamiento de las pantallas periféricas 412A, 412B, 412C, 412D. Los paneles pueden ser posicionados permanentemente o pueden ser configurados para permitir un posicionamiento fuera de la vía de tráfico a través del cuarto cuando las pantallas periféricas 412A, 412B, 412C, 412D no están en uso. De conformidad con una modalidad, las pantallas periféricas 412A, 412B, 412C, 412D pueden ser acopladas en la posición deseada alrededor de la perspectiva del observador 480 (por ejemplo, alrededor de una silla o un simulador de entrenamiento), por ejemplo, a través del uso de un gancho y sistema acoplamiento por sujeción (por ejemplo, Velero™), permitiendo un fácil acoplamiento y/o desacoplamiento y colocación. En una modalidad, las pantallas periféricas 412A, 412B, 412C, 412D pueden ser acondicionadas con un mecanismo de enrollado, tal como mecanismos de enrollado 414C, 414D ilustrativamente mostrados en las pantallas periféricas 412C, 412D. Naturalmente, el mecanismo de enrollado puede ser ocultado en el techo si se desea. En esta modalidad, los mecanismos de enrollado permiten que las pantallas periféricas 412A, 412B, 412C, 412D se enrolladas fácilmente, dejando libre la vía, cuando no se necesitan, o sean desenrolladas cuando se desea usar las pantallas periféricas 412C, 412D. En una modalidad alterna, las pantallas periféricas pueden ser fijadas al techo con un mecanismo articulado, tal como los mecanismos articulados 416A, 416B fijados ilustrativamente a las pantallas periféricas 412A, 412B. En esta modalidad, los mecanismos articulados 416A, 416B permiten que las pantallas periféricas 412A, 412B sean rotadas hacia arriba en dirección del techo cuando no están en uso o ser rotadas hacia abajo cuando se desea usar las pantallas periféricas 412A, 412B. Naturalmente, pueden ser aplicados apropiadamente otros sistemas para posicionar las pantallas periféricas 412A, 412B, 412C, 412D y pueden incluso estar automatizados cuando se desea usar el sistema de iluminación periférica inmersiva 400. De conformidad con esta modalidad, el sistema de iluminación periférica inmersiva 400 puede analizar el contenido proporcionado en la pantalla 410 (por ejemplo, basado en cuadros previos y subsecuentes de contenido) y generar regiones o manchas que substancialmente coinciden con características y objetos proporcionados en los cuadros previos y/o subsecuentes de contenido. En una modalidad de conformidad con el presente sistema, el sistema de iluminación periférica inmersiva 400 puede también, o en lugar de otros cuadros de contenido, analizar contenido en curso para determinar características y manchas apropiadas. Por ejemplo, un objeto auto de primer plano 450 puede ser segmentado (por ejemplo, con el uso de un mapa de profundidad 3D, otros datos extras, y/o automáticamente del contenido mismo) y puede continuar su trayectoria como una mancha borrosa junto con una o más de las pantallas periféricas. Adicionalmente , características de fondo (por ejemplo, la carretera) y objetos (por ejemplo, los árboles) pueden ser representados de manera similar sobre una o más de las pantallas periféricas 412A, 412B, 412C, 412D. Por ejemplo, en una variación simple de un algoritmo para generar la información de imagen periférica, árboles que pasan por/sobre pueden ser emulados por una simple modulación de luz espaciotemporal de baja frecuencia, correlacionando la información de árbol (por ejemplo, periodicidad) en las imágenes de pantalla principal. (Sistemas similares pueden ser aplicados para elementos ambientales). En una modalidad, detalles (por ejemplo, resolución) de las características y/o objetos proporcionados como las características y/u objetos continúan adicionalmente en la visión periférica del usuario, pueden disminuir para reducir los requerimientos de análisis para la determinación de las características y/u objetos, y/o reducir artefactos imagen indeseables. Por ejemplo, conforme el objeto auto 450 transita desde la pantalla periférica 412C hacia la pantalla periférica 412D, el objeto auto 450 puede cambiar (por ejemplo, por etapas o gradualmente) desde un objeto auto a una mancha auto o la resolución de la imagen del objeto auto simplemente puede ser reducida. Reducciones similares en los detalles proporcionados por cada una de las pantallas periféricas 412A, 412B, 412C, 412D pueden ser reducidas como características y/u objetos desplazados más en la vista periférica del observador (por ejemplo, desde la derecha hacia la izquierda para las pantallas periféricas 412A, 412B y de izquierda a derecha para las pantallas periféricas 412C, 412D) . En una modalidad, las pantallas periféricas 412B, 412C pueden ser habilitadas para proporcionar una resolución mayor que las pantallas periféricas 412A, 412D. De esta manera, pantallas potencialmente más baratas pueden ser utilizadas para las pantallas periféricas 412A, 412D que las usadas para las pantallas periféricas 412B, 412C lo que permite una reducción en el costo del sistema de iluminación periférica inmersiva 400. De conformidad con una modalidad, el sistema de iluminación periférica inmersiva 400 (y/o un sistema de iluminación ambiental con elementos de iluminación ambiental) puede ser suministrado con detalles de las pantallas periféricas 412A, 412B, 412C, 412D para permitir una determinación apropiada de las características y/u objetos que son representados en las pantallas periféricas 412A, 412B, 412C, 412D. Por ejemplo, en una modalidad, una dimensión de las pantallas periféricas 412A, 412B, 412C, 412D comparada con la pantalla 410 puede ser proporcionada para determinar las características y/u objetos que son representados/reproducidos en las pantallas periféricas 412A, 412B, 412C, 412D (por ejemplo, para continuar la trayectoria del auto 450) . Otros parámetros también pueden ser proporcionados para permitir una determinación de características y/u objetos apropiados, posicionamiento y/o resolución del mismo. De conformidad con una modalidad, las capacidades de despliegue de las pantallas periféricas tal como resolución de pantalla, máxima rapidez de actualización, forma de acoplamiento de comunicación (por ejemplo, con cable, inalámbrica, óptica, etc.) también puede ser comunicada manualmente y/o automáticamente para el presente sistema para permitir la operación. Por ejemplo, para una pantalla periférica que tiene una máxima rapidez de actualización que es menor que la rapidez de actualización de la pantalla principal, la rapidez de actualización de las características y/u objetos proporcionados en la pantalla periférica puede ser adaptada apropiadamente para proporcionar una rapidez de actualización más lenta. Por ejemplo, los cuadros proporcionados en la pantalla periférica pueden ser solamente actualizados una vez cada dos o más cuadros de lo que son actualizados en la pantalla principal. Una adaptación similar puede ser proporcionada para un efecto de iluminación ambiental. Esto puede tener el beneficio agregado de reducir los requerimientos computacionales para proporcionar el efecto ambiental y/o periférico. En una modalidad, en un caso en donde datos auxiliares son proporcionados (por ejemplo, AMBX, SEI, de AVC, etc.), los datos auxiliares pueden ser utilizados para determinar las características y/u objetos que son proporcionados para el dispositivo ( s ) de reproducción secundario. En esta modalidad, los datos auxiliares pueden reducir las demandas de procesamiento en un sitio de la pantalla principal y/o pueden ser utilizados para proporcionar un determinación precisa de las características y/u objetos que son proporcionados al dispositivo ( s ) de reproducción secundario. Además, los datos auxiliares pueden facilitar un posicionamiento óptimo de características, objetos (por ejemplo, detalles y/o manchas) en las pantallas periféricas 412A, 412B, 412C, 412D, que pueden ser dependientes de la configuración. Por ejemplo, en una configuración en donde tres pantallas periféricas son proporcionadas en cualquier lado, extendidas en ángulos X, un objeto, tal como un dragón puede lucir tenebroso si éste es mostrado en la mitad de la pantalla periférica, por ejemplo en un ángulo determinado particular (por ejemplo, en un ángulo Y) , o impresionante "arriba" del usuario proyectado en el techo. Para el mismo contenido, en una configuración con dos pantallas periféricas, una modalidad del presente sistema puede derivar, por ejemplo, la utilización de los datos auxiliares, esa mejor representación para el dragón se encuentra en el segundo panel, por ejemplo en una ángulo Z. Un ejemplo de cómo la señal auxiliar puede especificar con parámetros la posición de un objeto, es el siguiente: Una fórmula puede ser por ejemplo: la mitad de la extensión que puede exhibirse de lado izquierdo, o una fórmula más complicada, especificando un porcentaje al exterior de la pantalla principal (por ejemplo, dependiendo del tamaño y r e s o 1 uc i ón / a s pe c t o de la pantalla principal, pero también sobre lo qué puede ser desplegado en los paneles laterales (y/o por un sistema de iluminación ambiental) ; y/o una o más fórmulas de corrección para diferentes configuraciones de pantalla secundaria, por ejemplo, si tres paneles laterales están presentes y/o el ángulo circundante alrededor del usuario es mayor que, por ejemplo, 70 ó 110 grados, entonces los elementos determinados para ser aproximadamente la mitad , pueden, por ejemplo, ser sobre escritos a dos tercios (por ejemplo, colocar en la mitad de panel lateral ) . En una modalidad en donde el sistema de pantalla local conoce su geometría (por ejemplo, ubicación, posición de panel) , debido a que el usuario la ha medido e introducido de manera aproximada después de una configuración en casa, a través del uso de una interfaz de usuario apropiada proporcionada en una modalidad del presente sistema, de 2m de alto y 50 cm de área de pantalla ancha, 50 cms hacia el lado más extremo de la pantalla principal (o los sistemas se configuran automáticamente, tal como los paneles transmiten información de tamaño y ubicación para el sistema mediante medios de ubicación incluidos) . En otra modalidad, el sistema puede incluir un sistema de visión para identificar información de tamaño y/o posición de los paneles. El sistema entonces puede aplicar un mapeo para desplegar el objeto a medida que se acerca a lo que es indicado en un perfil (por ejemplo, proporcionado por artistas de contenido en el aspecto de creación para un máximo impacto) . Por ejemplo, el sistema puede calcular que el posicionamiento a la mitad corresponde a una posición de píxel (1250, 999) en la primera pantalla periférica izquierda para el objeto auto en un tiempo dado t. Naturalmente, de conformidad con una modalidad, el sistema puede ignorar o corregir un perfil sugerido/proporcionado y aplicar un perfil local y/o un perfil proporcionado por el usuario. Adicionalmente , aunque en una versión simplificada, un sistema de conformidad con una modalidad puede usar este posicionamiento solamente en un objeto que extraible obviamente (por ejemplo, un objeto/elemento grande que pasa por objeto/elemento de primer plano) , por supuesto los datos guia de cualquier complejidad y/o múltiples complejidades, pueden estar asociados con el contenido (por ejemplo, incluidos en una señal de transmisión), partiendo de una caja burda la cual es proyectada hacia la periferia junto con algunos datos de fondo, para una descripción muy precisa sobre cómo el objeto deberá aparecer dado que es en una manera particular extraible de todas las imágenes recibidas, y/o incluyendo datos de corrección auxiliares (por ejemplo, para una flama la cual expele el dragón cuando se desplaza a través de las pantallas periféricas, incluso en un caso en donde estos datos extras nunca estuvieron en el grupo de imágenes) . Por consiguiente, los datos auxiliares pueden aun ser datos suplementarios que pueden determinarse a partir del contenido (por ejemplo, cuadros de imágenes) y proporcionar datos adicionales para agregar elementos y/o suplementos a los elementos para agregar valor adicional a los sistemas que están habilitados para reproducir los datos adicionales. En una modalidad de conformidad con el presente sistema, los datos auxiliares pueden también incluir datos de video o datos para corregir /mej orar datos de video conocidos anticipadamente. Por ejemplo, de conformidad con una modalidad del presente sistema, los árboles del fondo pueden resumirse simplemente como transiciones de luminoso a oscuro (por ejemplo, verde) , con ello simplificar el procesamiento requerido para simular un patrón ondulado sombreado de conducción bajo los árboles. Tal simulación puede ser ejecutada mediante regiones de rastreo de la imagen (por ejemplo, con base en los datos estadísticos de segmento) . Una o más de las pantallas periféricas pueden ser fabricadas con textil fotónico, tal como fabricadas con textil fotónico LumaliveTM, disponible de Koninklijke Philips Elelctronics N. V. El textil fotónico está configurado para emitir imágenes, tal como imágenes de baja resolución, y por consiguiente puede funcionar como una o más de las pantallas periféricas. En una modalidad, el textil fotónico puede funcionar como una o más de las pantallas periféricas y también puede funcionar para otros propósitos. Por ejemplo, una cortina posicionada en el cuarto que es fabricada con textil fotónico puede enlazarse y sincronizarse mediante un acoplamiento, tal como una conexión de red (por ejemplo, cableada, o inalámbrica, óptica, etc.) con la pantalla principal (por ejemplo, la pantalla 410) cuando el sistema de conformidad con una modalidad puede operarse. Cuando el sistema no está en operación, el textil fotónico puede estar inactivo, o puede ser autónomo o ser controlado para desplegar otras imágenes. Naturalmente, como se puede apreciar fácilmente, cualquiera de una o más de las pantallas del presente sistema puede operar de manera similar si o no las pantallas son fabricadas con textil fotónico. En una modalidad, una o más de las pantallas (por ejemplo, pantalla de iluminación ambiental, pantalla periférica, etc.) pueden ser fabricadas con una pantalla de tinta-electrónica (e-ink, por su denominación en inglés) u otra pantalla reflectiva. Tal pantalla, por ejemplo utilizada como una pantalla periférica, puede tomar la forma de papel tapiz e-ink. El papel tapiz e-ink puede desplegar imágenes de conformidad con el presente sistema cuando el sistema está en operación y puede desplegar otras imágenes, tal como un modelo de papel tapiz, cuando el sistema no está en operación. En una modalidad, un fotograma e-ink y/o cuadro ( s ) más grande puede operar como una o más pantallas ambientales y/o periféricas. Los cuadros pueden mostrar pinturas y/o imágenes cuando no están siendo controlados por la pantalla principal para operar como una pantalla periférica. De conformidad con una modalidad del presente sistema, las imágenes de extensión pueden ser proporcionadas en una resolución más baja, una rapidez de actualización más baja, etc., que el dispositivo de despliegue principal de acuerdo a lo determinado por las capacidades de despliegue de la pantalla. Otras fuentes de imágenes en red, tal como foto-cuadros, etc., pueden ser utilizadas como pantallas periféricas y/o fuentes de iluminación ambiental. Las fuentes de imágenes en red pueden ser agregadas al sistema automáticamente a través una auto identificación y/o un sistema de cuest ionamiento automatizado para identificar la disponibilidad y capacidades de las fuentes en red, asi como un posicionamiento relativo de las fuentes de imágenes en red. De esta manera, imágenes y/o fuentes de iluminación ambiental adicionales pueden ser agregadas y retiradas del sistema sin requerir un procedimiento de configuración engorroso. En una modalidad alterna, un procedimiento de configuración inicial puede ser ejecutado en el cual las características de despliegue, posición, etc., se especifican. La pantalla principal puede entonces enlazarse automáticamente a la pantalla (s) secundaria (por ejemplo, pantallas periféricas, pantallas de iluminación ambiental, etc.) para proporcionar los efectos de iluminación ambiental y/o periféricos cuando se deseen. En una modalidad, la introducción de un dispositivo de despliegue y/o dispositivo con una pantalla y/o capacidad de iluminación dentro de un área del sistema puede iniciar la producción de una interfaz de usuario en la pantalla principal y/o el dispositivo para habilitar el registro del dispositivo como parte del presente sistema de reproducción de imágenes periférico y/o iluminación ambiental. En una modalidad, una combinación de efectos de iluminación periférica y ambiental puede ser proporcionada en donde una porción de los efectos son proporcionados como efectos de iluminación ambiental y una porción de los efectos son proporcionados como efectos periféricos. En una variación adicional, pantallas secundarias también pueden tener la capacidad de producir un efecto de iluminación ambiental de conformidad con el presente sistema. Naturalmente, otras combinaciones pueden ser aplicadas fácilmente de conformidad con el presente sistema. En una modalidad de conformidad con el presente sistema, durante la extensión del contenido hacia dispositivos periféricos y/o ambientales, pueden aparecer artefactos, debido a, por ejemplo, hasta cierto punto por la precisión de un modelo de movimiento global/local cuando es aplicado, eso puede degradar la resolución, calidad y/o posición de objetos representados por los dispositivos periféricos y/o ambientales. Por lo tanto puede ser deseable que la totalidad de "datos de extensión" (por ejemplo, datos utilizados para controlar los dispositivos periféricos y/o de iluminación ambiental) determinados para los dispositivos periféricos y/o ambientales tienen una persistencia temporal limitada, con ello asistir hasta cierto grado en la precisión de los datos. En una modalidad, un escenario alternativo puede ser implementado al utilizar por lo menos parte de los datos de extensión asi como "datos de iluminación ambiental típicos", tal como datos derivados de un cuadro de contenido representado en curso, para controlar los dispositivos secundarios. Por ejemplo, en una modalidad, datos de extensión determinados a partir de los cuadros que están temporalmente cerca del cuadro en curso, son predominantemente utilizados para determinar lo que es reproducido por los dispositivos periféricos y/o ambientales sobre los datos de iluminación ambiental típicos. Sin embargo, como una porción particular de los datos de extensión llegan a estar más remotos temporalmente (épocas) de los datos (características, objetos, fondo, primer plano, etc.,) representados actualmente en la pantalla principal, los datos de iluminación ambiental típicos pueden gradualmente ser utilizados para reemplazar los datos de extensión antiguos, mediante por ejemplo, un sistema de filtrado recursivo. En caso de que no estén disponibles datos de iluminación ambiental típicos, un color y/o iluminación preestablecido también puede ser utilizado. Este reemplazo de lo que es reproducido por los dispositivos secundarios puede ser realizado característica por característica y objeto por objeto. Por ejemplo, porciones de los datos de extensión, aun proporcionados por un solo dispositivo de extensión, puede ser "más actualizadas" que otras porciones de los datos de extensión. Por consiguiente, en una modalidad de conformidad con el presente sistema, este proceso de substitución puede ser ejecutado por característica por característica y objeto por objeto. Adicionalmente , en caso de un cambio de escena detectado en donde porciones de representación de porciones posteriores de contenido que ya no son apropiadas debido al cambio de escena, el sistema de iluminación periférica y/o sistema de iluminación ambiental puede determinar el contenido para el dispositivo de reproducción secundario que utiliza contenido en curso representado en la pantalla principal y/o color (por ejemplo, intensidad, tono, saturación, etc.) y/o iluminación preestablecidos. La Figura 5 muestra un sistema 500 de conformidad con una modalidad del presente sistema. El sistema tiene un procesador 510 acoplado de manera operativa a una memoria 520, un dispositivo de reproducción principal 530, uno o más dispositivo ( s ) de reproducción secundarios 540, y un dispositivo de entrada/salida (I/O) 570. El término dispositivo de reproducción de acuerdo a como se utiliza aquí tiene previsto relacionar a cualquier dispositivo que puede reproducir contenido de conformidad con el presente sistema. Por consiguiente, un dispositivo de reproducción principal puede ser un dispositivo reproductor de video, tal como un dispositivo de televisión y un dispositivo de reproducción secundario puede ser un dispositivo, tal como un dispositivo de iluminación ambiental y/o un dispositivo de reproducción periférico. La memoria 520 puede ser cualquier tipo de dispositivo para almacenar datos de aplicación asi como otros datos, tal como datos de cuadro de contenido. Los datos de aplicación y otros datos, tal como datos de característica y objeto, son recibidos por el procesador 510 para configurar el procesador 510 para ejecutar actos de operación de conformidad con el presente sistema. Los actos de operación incluyen controlar por lo menos una de la pantalla 530 para desplegar contenido y controlar el dispositivo de reproducción secundario de conformidad con el presente sistema. La salida/entrada 570 puede incluir un tablero, ratón, u otros dispositivos, incluyendo pantallas sensibles al toque, la cual puede ser independiente o ser parte de un sistema, tal como parte de una computadora personal, asistente personal digital, y dispositivo de despliegue tal como una televisión, para una comunicación con el procesador 510 mediante cualquier tipo de conexión, tal como una conexión con cable o inalámbrica. Claramente el procesador 510, memoria 520, dispositivo de reproducción principal 530, dispositivo de reproducción secundario 540, y/o dispositivo I/O 570 puede totalmente o parcialmente ser una porción de una plataforma de televisión, tal como una televisión basada en dispositivo de reproducción de contenido. Los métodos del presente sistema son particularmente apropiados para llevarse a cabo por un programa de comandos computacionales , tal programa de comandos computacionales preferiblemente contiene módulos que corresponden a los pasos o actos individuales de los métodos. Tal programa computacional puede por supuesto ser incorporado en un medio legible por computadora, tal como un microprograma integrado, un dispositivo o memoria periférica, tal como la memoria 520 u otra memoria acoplada al procesador 510. El medio legible por computadora y/o memoria 520 puede ser cualquier medio de grabación (por ejemplo, RAM, ROM, memoria extraible, CD-ROM, discos duros, DVD, discos flexibles o tarjetas de memoria) o puede ser un medio de transmisión (por ejemplo, una red que comprende fibra óptica, la red mundial, cables, y/o un canal inalámbrico, por ejemplo que usan acceso múltiple por división de tiempo, acceso múltiple por división de código, u otro canal de radio frecuencia) . Cualquier medio conocido o desarrollado que pueda almacenar y/o proporcionar información apropiada para utilizarse con un sistema computacional pude ser utilizado con el medio y/o memoria legible por computadora 520. Memorias adicionales también pueden ser utilizadas. El medio legible por computadora, la memoria 520, y/o cualquier otra memoria puede ser de largo plazo, de corta duración, o una combinación de memorias de largo plazo y corta duración. Estas memorias pueden configurar un procesador 510 para implementar los métodos, actos de operación, y las funciones aquí descritas. Las memorias pueden ser distribuidas o locales y el procesador 510, en donde procesadores adicionales pueden ser acondicionados, también puede ser distribuido, como por ejemplo con base en el dispositivo de reproducción principal, y/o uno o más de los dispositivos de reproducción secundarios, o puede ser individual. Las memorias pueden ser implementadas como memoria eléctrica, magnética u óptica, o cualquier combinación de estas u otros tipos de dispositivos de almacenamiento. Más aun, el término "memoria" deberá interpretarse con un sentido amplio para comprender cualquier información con la capacidad de leer desde, o escrita a una dirección en el espacio que puede darse una dirección, accedida por un procesador. Con esta definición, la información en una red aun se encuentra en la memoria 520, por ejemplo, debido a que el procesador 510 puede recuperar la información desde una red para operar de conformidad con el presente sistema. El procesador 510 y memoria 520 pueden ser de cualquier tipo de procesador /controlador , microcontrolador y/o memoria. El procesador 510 tiene la capacidad de proporcionar señales de control y/o ejecutar operaciones en respuesta a señales de entrda desde el dispositivo I/O 570 y ejecutar instrucciones almacenadas en la memoria 520. El procesador 510 puede ser un circuito (s) integrado de aplicación especifica o de uso general. Además, el procesador 510 puede ser un procesador especializado para ejecutarse de conformidad con el presente sistema o puede ser un procesador de propósitos generales en donde solamente una de muchas funciones opera para ejecutarse de conformidad con el presente sistema. El procesador 510 puede operar utilizando una porción de programa, múltiples segmentos de programa, o puede ser un dispositivo de equipo físico que utiliza un circuito integrado especializado o de múltiples propósitos. Por supuesto, se debe apreciar que cualquiera de las modalidades anteriores o procesos pueden combinarse con una o más de otras modalidades o procesos de conformidad con el presente sistema. Por ejemplo, aun cuando ciertos sistemas, algoritmos, técnicas son aquí descritos con respecto a cualquiera de un sistema de iluminación de luz o un sistema de imagen periférica, como puede apreciarse, muchos de estos pueden ser aplicados en cualquier sistema y/o en un sistema combinado . Finalmente, la discusión anterior tiene la intención de ser simplemente una ilustración del presente sistema y no se deberá interpretar como una limitante de las reivindicaciones anexas para cualquier modalidad particular o grupo de modalidades. Así, mientras que el presente sistema ha sido descrito con detalle particular con referencia a modalidades ejemplares específicas del mismo, también se deberá apreciar que numerosas modificaciones y modalidades alternas pueden ser concebidas por las personas experimentadas en la técnica sin separarse del espíritu y alcance más amplio y previsto del presente sistema de acuerdo a lo establecido en las reivindicaciones anexas. Por ejemplo, mientras que en la discusión ilustrativa, los elementos de iluminación ambiental y dispositivos de reproducción periférica son ilustrados como dispositivos que están separados físicamente del dispositivo de despliegue principal, esto no tiene previsto sea una limitante, a menos que se especifique lo contrario. Por ejemplo, en una modalidad, el dispositivo de reproducción principal (por ejemplo, pantalla principal) y el dispositivo de reproducción secundario representan porciones de un dispositivo de reproducción individual. En esta modalidad, el dispositivo de reproducción puede ser un dispositivo de reproducción grande, tal como modelado como una porción de una pantalla con base en pared. En esta modalidad, diferentes porciones del dispositivo de reproducción pueden operar como dispositivos de reproducción principal y secundario. Modificaciones adicionales están previstas que se encuentren dentro del alcance del presente sistema. Por consiguiente, la especificación y las Figuras deben ser consideradas en una manera ilustrativa y no tienen la intención de limitar el alcance de las reivindicaciones anexas. En la interpretación de las reivindicaciones anexas, se deberá comprender que: a) la palabra "comprende" no excluye la presencia de otros elementos o actos diferentes a los listados en una reivindicación dada; b) La palabra "un" o "uno" que precede a un elemento no excluye la presencia de una pluralidad de tales elementos; c) cualquiera de los signos de referencia en las reivindicaciones no limitan su alcance; d) varios "medios" pueden ser representados por el mismo elemento o hardware o estructura o función implementada de software ; e) cualquiera de los elementos descritos pueden estar comprendidos de porciones de equipo físico (por ejemplo, incluyendo circuitos electrónicos discretos e integrados), porciones de programa computacional (por ejemplo, programación computacional ) , y cualquier combinación de los mismos; f) porciones de equipo físico pueden estar comprendidas de una o ambas de las porciones análoga y digital; g) cualquiera de los dispositivos o porciones descritas de los mismos pueden ser combinados juntos o separados en porciones adicionales a menos que específicamente se establezca de otra forma; y h) la secuencia no específica de actos o pasos está considerada para ser requerida a menos que se indique específicamente. Se hace constar que con relación a esta fecha, el mejor método conocido por el solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (66)

  1. REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones : 1. Un método para reproducir contenido de imagen, el método está caracterizado porque comprende los actos de: analizar por lo menos una de las porciones previas y subsecuentes de una señal de contenido para determinar elementos secundarios que están relacionados como elementos principales de una porción en curso de la señal de contenido; reproducir la porción en curso de la señal de contenido sobre un dispositivo de reproducción principal; reproducir los elementos secundarios que están relacionados con los elementos principales de la porción en curso de la señal de contenido sobre un dispositivo de reproducción secundario concurrente con la reproducción de la porción en curso de la señal de contenido.
  2. 2. El método de conformidad con la reivindicación 1, caracterizado porque el acto de reproducir los elementos secundarios comprende un acto de reproducir los elementos secundarios en una resolución más baja que la porción reproducida en curso de la señal de contenido.
  3. 3. El método de conformidad con la reivindicación 1, caracterizado porque el acto de analizar la por lo menos una de las porciones previas y subsecuentes de la señal de contenido se ejecuta en una resolución más baja que la señal de contenido.
  4. 4. El método de conformidad con la reivindicación 1, caracterizado porque el acto de reproducir los elementos secundarios comprende un acto de reproducir los elementos secundarios en una resolución variable, en donde la variación se determina con base en por lo menos una de una posición espacial y temporal de los elementos secundarios reproducidos en relación con la señal de contenido reproducido en el dispositivo de reproducción principal.
  5. 5. El método de conformidad con la reivindicación 1, caracterizado porque el acto de reproducir los elementos secundarios comprende un acto de reproducir los elementos secundarios en una resolución que se determina con base en una posición de los elementos secundarios reproducidos en relación con la señal de contenido reproducido en el dispositivo de reproducción principal.
  6. 6. El método de conformidad con la reivindicación 5, caracterizado porque el acto de reproducir los elementos secundarios comprende un acto de reproducir los elementos secundarios en una resolución que se determina con base en una posición temporal de los elementos secundarios reproducidos en relación con la señal de contenido reproducido en el dispositivo de reproducción principal.
  7. 7. El método de conformidad con la reivindicación 1, caracterizado porque el acto de analizar comprende actos de producir datos auxiliares relacionados con los elementos secundarios determinados y asociar los datos auxiliares con la señal de contenido, en donde el acto de reproducir los elementos secundarios se ejecuta con el uso de los datos auxiliares .
  8. 8. El método de conformidad con la reivindicación 7, caracterizado porque los datos auxiliares son descritos en un marco de un estándar de datos auxiliares para producir imágenes en la señal de contenido.
  9. 9. El método de conformidad con la reivindicación 8, caracterizado porque los datos están comprendidos por uno de datos de Experiencia Ambiental (AMBX) e Información de Mejoramiento Suplementaria (SEI) .
  10. 10. El método de conformidad con la reivindicación 1, caracterizado porque el acto de reproducir los elementos secundarios comprende el acto de reproducir los elementos secundarios como elementos de iluminación ambiental.
  11. 11. El método de conformidad con la reivindicación 1, caracterizado porque el acto de reproducir los elementos secundarios comprende un acto de reproducir los elementos secundarios como elementos de imagen periféricos.
  12. 12. El método de conformidad con la reivindicación 1, caracterizado porque el acto de analizar comprende un acto de determinar los elementos secundarios con base en una posición del dispositivo de reproducción secundario con respecto al dispositivo de reproducción principal.
  13. 13. El método de conformidad con la reivindicación 1, caracterizado porque el acto de analizar comprende un acto de determinar los elementos secundarios con base en una posición de cada uno de una pluralidad de dispositivos de reproducción secundarios con respecto al dispositivo de reproducción principal .
  14. 14. El método de conformidad con la reivindicación 1, caracterizado porque el acto de analizar comprende un acto de determinar los elementos secundarios con base en datos auxiliares asociados con el contenido de imagen.
  15. 15. El método de conformidad con la reivindicación 14, caracterizado porque los datos auxiliares están comprendidos por uno de los datos de Experiencia Ambiental (AMBX) e Información de Mejoramiento Suplementaria (SEI) .
  16. 16. El método de conformidad con la reivindicación 14, caracterizado porque el acto de analizar comprende un acto de determinar los elementos secundarios con base en una posición de cada uno de una pluralidad de dispositivos de reproducción secundaria con respecto al dispositivo de reproducción principal .
  17. 17. El método de conformidad con la reivindicación 1, caracterizado porque el acto de reproducir los elementos secundarios comprende un acto de reproducir los elementos secundarios para uno de una pluralidad de dispositivos de reproducción secundarios posicionados a un lado del dispositivo de reproducción principal y otro de la pluralidad de dispositivos de reproducción secundarios posicionados a otro lado del dispositivo de reproducción principal .
  18. 18. El método de conformidad con la reivindicación 17, caracterizado porque el acto de analizar comprende un acto de analizar cada una de las porciones temporales previas y subsecuentes de la señal de contenido para determinar los elementos secundarios.
  19. 19. El método de conformidad con la reivindicación 1, caracterizado porque el acto de reproducir los elementos secundarios comprende un acto de reproducir los elementos secundarios a una velocidad de cuadro más lenta que la señal de contenido reproducido.
  20. 20. El método de conformidad con la reivindicación 1, caracterizado porque los elementos secundarios están relacionados por medio de por lo menos una de relaciones de movimiento y geométricas con la porción en curso de la señal de contenido.
  21. 21. El método de conformidad con la reivindicación 20, caracterizado porque por lo menos una sub-región que aparece en un cierto instante en el dispositivo de reproducción principal es rastreada por medio de un análisis de movimiento para determinar por lo menos un elemento reproducido en el dispositivo de reproducción secundario.
  22. 22. El método de conformidad con la reivindicación 21, caracterizado porque el análisis de movimiento es ejecutado con base en una continuación de movimiento en el contenido de imagen conforme es reproducido por el dispositivo de reproducción principal.
  23. 23. El método de conformidad con la reivindicación 21, caracterizado porque el análisis de movimiento es una proyección de movimiento identificado de la porción en curso de la señal de contenido hacia un posicionamiento geométrico del dispositivo de reproducción secundario.
  24. 24. El método de conformidad con la reivindicación 1, caracterizado porque el posicionamiento geométrico incluye por lo menos una posición de los dispositivos de reproducción secundarios con relación a los dispositivos de reproducción principales y un proporción de una dimensión del contenido reproducido en los dispositivos de reproducción principal y secundario .
  25. 25. Una aplicación incorporada en un medio legible por computadora configurada para reproducir contenido de imagen, caracterizada porque comprende: una porción de programa configurada para analizar por lo menos una de las porciones temporales previas y subsecuentes de una señal de contenido para determinar elementos que son por lo menos uno de espacialmente o temporalmente relacionados con una porción en curso de la señal de contenido; una porción de programa configurada para reproducir la porción en curso de la señal de contenido sobre un dispositivo de reproducción principal; y una porción de programa configurada para reproducir los elementos que están relacionados con la porción en curso de la señal de contenido sobre un dispositivo de reproducción secundario concurrente con la reproducción de la porción en curso de la señal de contenido.
  26. 26. La aplicación de conformidad con la reivindicación 25, caracterizada porque la porción de programa configurada para reproducir los elementos está configurada para reproducir los elementos en una resolución más baja que la porción reproducida en curso de la señal de contenido.
  27. 27. La aplicación de conformidad con la reivindicación 25, caracterizada porque la porción de programa configurada para analizar el por lo menos una de las porciones temporales previas y subsecuentes de la señal de contenido está configurada para analizar la por lo menos una de las porciones temporales previas y subsecuentes en un resolución más baja que la señal de contenido.
  28. 28. La aplicación de conformidad con la reivindicación 25, caracterizada porque la porción de programa configurada para reproducir el elemento está configurada para reproducir los elementos en una resolución variable, en donde la variación es determinada con base en una posición de los elementos reproducidos en relación con la señal de contenido reproducido en el dispositivo de reproducción principal.
  29. 29. La aplicación de conformidad con la reivindicación 25, caracterizada porque la porción de programa configurada para reproducir los elementos está configurada para reproducir los elementos en una resolución que es determinada con base en una posición de los elementos reproducidos en relación con la señal de contenido reproducido en el dispositivo de reproducción principal.
  30. 30. La aplicación de conformidad con la reivindicación 29, caracterizada porque la porción de programa configurada para reproducir los elementos está configurada para reproducir los elementos en una resolución que se determina con base en una posición temporal de los elementos reproducidos en relación con la señal de contenido reproducido en dispositivo de reproducción principal.
  31. 31. La aplicación de conformidad con la reivindicación 25, caracterizada porque la porción de programa configurada para analizar está configurada para producir datos auxiliares relacionados con los elementos determinados y asociar los datos auxiliares con la señal de contenido, en donde la porción de programa configurada para reproducir los elementos está configurada para utilizar los datos auxiliares.
  32. 32. La aplicación de conformidad con la reivindicación 31, caracterizada porque los datos auxiliares están compuestos por uno de datos de Experiencia Ambiental (AMBX) e Información de Mejoramiento Suplementaria (SEI) .
  33. 33. La aplicación de conformidad con la reivindicación 25, caracterizada porque la porción de programa configurada para reproducir los elementos está configurada para reproducir los elementos como elementos de iluminación ambiental.
  34. 34. La aplicación de conformidad con la reivindicación 25, caracterizada porque la porción de programa configurada para reproducir los elementos está configurada para reproducir los elemento con elementos de imagen periféricos.
  35. 35. La aplicación de conformidad con la reivindicación 25, caracterizada porque la porción de programa configurada para reproducir los elementos está configurada para reproducir los elementos con base en una posición del dispositivo de reproducción secundario con respecto al dispositivo de reproducción principal.
  36. 36. La aplicación de conformidad con la reivindicación 25, caracterizada porque la porción de programa configurada para reproducir los elementos está configurada para reproducir los elementos con base en una posición de cada uno de una pluralidad de dispositivos de reproducción secundarios con respecto al dispositivo de reproducción principal.
  37. 37. La aplicación de conformidad con la reivindicación 25, caracterizada porque la porción de programa configurada para reproducir los elementos está configurada para reproducir los elementos con base en datos auxiliares asociados con el contenido.
  38. 38. La aplicación de conformidad con la reivindicación 37, caracterizada porque la porción de programa configurada para reproducir los elementos está configurada para reproducir los elementos con base en datos auxiliares que son uno de datos de Experiencia Ambiental (AMBX) e Información de Mejoramiento Suplementaria (SEI) .
  39. 39. La aplicación de conformidad con la reivindicación 37, caracterizada porque la porción de programa configurada para reproducir los elementos está configurada para reproducir los elementos con base en una posición de cada uno de una pluralidad de dispositivos de reproducción secundarios.
  40. 40. La aplicación de conformidad con la reivindicación 25, caracterizada porque la porción de programa configurada para reproducir los elementos está configurada para reproducir los elementos por uno de una pluralidad de dispositivos de reproducción secundarios posicionados a un lado del dispositivo de reproducción principal y otro de la pluralidad de dispositivos de reproducción secundarios posicionados a otro lado del dispositivo de reproducción principal.
  41. 41. La aplicación de conformidad con la reivindicación 40, caracterizada porque la porción de programa configurada para analizar está configurada para analizar cada una de las porciones temporales previas y subsecuentes de la señal de contenido para determinar los elementos.
  42. 42. La aplicación de conformidad con la reivindicación 25, caracterizada porque la porción de programa configurada para reproducir los elementos está configurada para reproducir los elementos en una velocidad de cuadro más lenta que la señal de contenido reproducido.
  43. 43. Un procesador para reproducir contenido de imagen en cada uno de un dispositivo de reproducción secundario y principal, caracterizado porque comprende un acoplamiento configurado para un acoplamiento operable con cada uno de los dispositivos de reproducción principal y secundario, en donde el procesador está configurado para: analizar por lo menos una de las porciones temporales previas y subsecuentes de una señal de contenido para determinar elementos que están posicionalmente relacionados con una porción en curso de la señal de contenido; proporcionar la porción en curso de la señal de contenido para reproducir en el dispositivo de reproducción principal; y proporcionar los elementos que están posicionalmente relacionados con la porción en curso de la señal de contenido para su reproducción en el dispositivo de reproducción secundario concurrente con la reproducción de la porción en curso de la señal de contenido.
  44. 44. El procesador de conformidad con la reivindicación 43, caracterizado porque está configurado para proporcionar los elementos por lo menos en una resolución más baja y una velocidad de cuadro más lenta que la porción en curso proporcionada de la señal de contenido.
  45. 45. El procesador de conformidad con la reivindicación 43, caracterizado porque está configurado para analizar la por lo menos una de las porciones temporales previas y subsecuentes en una resolución más baja que la señal de contenido .
  46. 46. El procesador de conformidad con la reivindicación 43, caracterizado porque está configurado para proporcionar los elementos en una resolución variable, en donde la variación se determina con base en una posición de los elementos proporcionados en relación con la señal de contenido proporcionada para su reproducción en el dispositivo de reproducción principal.
  47. 47. El procesador de conformidad con la reivindicación 43, caracterizado porque está configurado para proporcionar los elementos en una resolución que se determina con base en una posición de los elementos reproducidos en relación con la señal de contenido proporcionada para su reproducción en el dispositivo de reproducción principal.
  48. 48. El procesador de conformidad con la reivindicación 47, caracterizado porque está configurado para proporcionar los elementos en una resolución que se determina con base en una posición temporal de los elementos proporcionados en relación con la señal de contenido proporcionada para reproducirse en el dispositivo de reproducción principal.
  49. 49. El procesador de conformidad con la reivindicación 43, caracterizado porque está configurado para proporcionar los elementos que utilizan datos auxiliares asociados con la señal de contenido y relacionados con los elementos determinados.
  50. 50. El procesador de conformidad con la reivindicación 49, caracterizado porque los datos auxiliares están comprendidos por uno de datos de Experiencia Ambiental (AMBX) e Información de Mejoramiento Suplementaria (SEI).
  51. 51. El procesador de conformidad con la reivindicación 43, caracterizado porque está configurado para proporcionar los elementos como al menos uno de los elementos de iluminación ambiental y elementos de imagen periféricos.
  52. 52. El procesador de conformidad con la reivindicación 51, caracterizado porque comprende el dispositivo de reproducción secundario, en donde el procesador está configurado para proporcionar los elementos como elementos de iluminación ambiental, en donde el dispositivo de reproducción secundario comprende por lo menos uno de un arreglo de diodo emisor de luz y un pico-proyector.
  53. 53. El procesador de conformidad con la reivindicación 43, caracterizado porque está configurado para proporcionar los elementos con base en una posición del dispositivo de reproducción secundario con respecto al dispositivo de reproducción principal.
  54. 54. El procesador de conformidad con la reivindicación 43, caracterizado porque comprende el dispositivo de reproducción secundario, en donde el dispositivo de reproducción secundario comprende una pluralidad de dispositivos de reproducción secundarios, y en donde el procesador está configurado para proporcionar los elementos con base en una posición de cada uno de la pluralidad de dispositivos de reproducción secundarios con respecto al dispositivo de reproducción principal.
  55. 55. El procesador de conformidad con la reivindicación 43, caracterizado porque está configurado para proporcionar los elementos con base en datos auxiliares que son uno de datos de Experiencia Ambiental (AMBX) e Información de Mejoramiento Suplementaria (SEI) asociados con el contenido.
  56. 56. El procesador de conformidad con la reivindicación 55, caracterizado porque comprende el dispositivo de reproducción secundario, en donde el dispositivo de reproducción secundario comprende una pluralidad de dispositivos de reproducción secundarios, y en donde el procesador está configurado para proporcionar los elementos con base en una posición de los dispositivos de reproducción secundarios con respecto al dispositivo de reproducción principal.
  57. 57. El procesador de conformidad con la reivindicación 43, caracterizado porque comprende una pluralidad de dispositivos de reproducción secundarios, en donde el procesador está configurado para reproducir los elementos para uno de la pluralidad de dispositivos de reproducción secundarios posicionados a un lado del dispositivo de reproducción principal y otro de la pluralidad de dispositivos de reproducción secundarios posicionado a otro lado del dispositivo de reproducción principal.
  58. 58. El procesador de conformidad con la reivindicación 43, caracterizado porque está configurado para determinar los elementos con base en por lo menos uno de una posición espacial y temporal de los elementos proporcionados en relación con la señal de contenido proporcionada para reproducirse en el dispositivo de reproducción principal.
  59. 59. Una señal de imagen auxiliar incorporada en un flujo de datos de transmisión para permitir una reproducción de una imagen secundaria relacionada con una imagen principal, caracterizada porque la señal de imagen auxiliar está arreglada para describir un elemento apropiado para una continuación desde una pantalla principal hacia un dispositivo de reproducción secundario, en donde la señal de imagen auxiliar incluye un perfil de posicionamiento, lo que permite posicionar en un pluralidad de instantes de tiempo al elemento en el dispositivo de reproducción secundario.
  60. 60. La señal de imagen auxiliar de conformidad con la reivindicación 59, caracterizada porque identifica los elementos como uno de un objeto de fondo y primer plano.
  61. 61. La señal de imagen auxiliar de conformidad con la reivindicación 60, caracterizada porque el perfil de posicionamiento incluye una función de posición paramétrica para un pixel de borde del elemento.
  62. 62. La señal de imagen auxiliar de conformidad con la reivindicación 61, caracterizada porque la función de posición paramétrica incluye una descripción de cuadro de delimitación para el elemento.
  63. 63. La señal de imagen auxiliar de conformidad con la reivindicación 60, caracterizada porque incluye un perfil de modificación que identifica por lo menos uno de un cambio de color y brillo para el elemento conforme el elemento transita alejándose de la pantalla principal sobre el dispositivo de reproducción secundario.
  64. 64. La señal de imagen auxiliar de conformidad con la reivindicación 63, caracterizada porque el perfil de modificación incluye por lo menos uno de los elementos de características de color y de textura arregladas para permitir una segmentación precisa del elemento.
  65. 65. La señal de imagen auxiliar de conformidad con la reivindicación 64, caracterizada porque el perfil de modificación incluye datos de trasformación, arreglados para permitir por lo menos una de una transformación de perspectiva espacio temporal, un transformación de nitidez, y una modificación de detalle del elemento conforme el elemento continúa alejándose de la pantalla principal sobre el dispositivo de reproducción secundario.
  66. 66. Un método para generar datos auxiliares para desplegar elementos sobre una pantalla secundaria en una vecindad de una pantalla principal, el método está caracterizado porque comprende: analizar un grupo de imágenes; extraer regiones de estas imágenes determinar información de posición sucesiva para estas regiones para instantes de tiempo sucesivos para reproducirse en un espacio de imagen al exterior de un espacio de reproducción de imagen principal; codificar la información de posición sucesiva en datos auxiliares asociados con el grupo de imágenes.
MX2008012473A 2006-03-31 2007-03-29 Reproduccion adaptada de contenido de video basada en cuadros adicionales de contenido. MX2008012473A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US78847606P 2006-03-31 2006-03-31
PCT/IB2007/051126 WO2007113754A1 (en) 2006-03-31 2007-03-29 Adaptive rendering of video content based on additional frames of content

Publications (1)

Publication Number Publication Date
MX2008012473A true MX2008012473A (es) 2008-10-10

Family

ID=38426552

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2008012473A MX2008012473A (es) 2006-03-31 2007-03-29 Reproduccion adaptada de contenido de video basada en cuadros adicionales de contenido.

Country Status (10)

Country Link
US (1) US8599313B2 (es)
EP (1) EP2005732A1 (es)
JP (1) JP5107338B2 (es)
KR (1) KR101465459B1 (es)
CN (1) CN101438579B (es)
BR (1) BRPI0709260A2 (es)
MX (1) MX2008012473A (es)
RU (1) RU2454023C2 (es)
TW (1) TW200746818A (es)
WO (1) WO2007113754A1 (es)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010516069A (ja) * 2006-12-21 2010-05-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 光放射を表示するシステム、方法、コンピュータ読み取り可能な媒体、及びユーザ・インタフェース
CN101587586B (zh) * 2008-05-20 2013-07-24 株式会社理光 一种图像处理装置及图像处理方法
JP4813517B2 (ja) * 2008-05-29 2011-11-09 オリンパス株式会社 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
DE102008026517A1 (de) * 2008-06-03 2009-12-10 Zumtobel Lighting Gmbh Beleuchtungs- und Anzeigevorrichtung
TWI395512B (zh) * 2008-08-08 2013-05-01 Remote controller for light emitting diode module
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
EP2371125A1 (en) * 2008-11-28 2011-10-05 Koninklijke Philips Electronics N.V. A display system, control unit, method, and computer program product for providing ambient light with 3d sensation
JP2011086437A (ja) * 2009-10-14 2011-04-28 Nintendo Co Ltd 画像表示システム、照明システム、情報処理装置、および制御プログラム
JP5622372B2 (ja) * 2009-09-10 2014-11-12 任天堂株式会社 画像表示システムおよび照明装置
JP5694369B2 (ja) * 2009-12-17 2015-04-01 コーニンクレッカ フィリップス エヌ ヴェ 映画館環境照明システム
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US9754629B2 (en) 2010-03-03 2017-09-05 Koninklijke Philips N.V. Methods and apparatuses for processing or defining luminance/color regimes
JP5899120B2 (ja) 2010-03-03 2016-04-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. カラーレジームを定義する装置及び方法
US8982151B2 (en) * 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
TWI533286B (zh) * 2010-09-06 2016-05-11 元太科技工業股份有限公司 平面顯示裝置
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US20120223885A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Immersive display experience
KR20120134412A (ko) * 2011-06-02 2012-12-12 삼성전자주식회사 디스플레이 장치, 디스플레이 시스템 및 그 영상 표시 방법
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
EP3528239B1 (en) * 2012-02-08 2024-01-24 Samsung Electronics Co., Ltd. Display apparatus
US8804321B2 (en) 2012-05-25 2014-08-12 Steelcase, Inc. Work and videoconference assembly
KR101305249B1 (ko) * 2012-07-12 2013-09-06 씨제이씨지브이 주식회사 다면 상영 시스템
EP2731055A1 (en) 2012-10-04 2014-05-14 Thomson Licensing Method and apparatus for ambient lighting color determination
US9930082B2 (en) 2012-11-20 2018-03-27 Nvidia Corporation Method and system for network driven automatic adaptive rendering impedance
US10616086B2 (en) * 2012-12-27 2020-04-07 Navidia Corporation Network adaptive latency reduction through frame rate control
KR101724312B1 (ko) * 2013-02-21 2017-04-07 돌비 레버러토리즈 라이쎈싱 코오포레이션 오버레이 그래픽스를 합성하기 위한 어피어런스 매핑을 위한 시스템들 및 방법들
US10055866B2 (en) 2013-02-21 2018-08-21 Dolby Laboratories Licensing Corporation Systems and methods for appearance mapping for compositing overlay graphics
TWM459428U (zh) * 2013-03-04 2013-08-11 Gunitech Corp 環境控制裝置及影/音播放裝置
US9819604B2 (en) 2013-07-31 2017-11-14 Nvidia Corporation Real time network adaptive low latency transport stream muxing of audio/video streams for miracast
US10078481B2 (en) 2014-01-29 2018-09-18 Intel Corporation Secondary display mechanism
JP5965434B2 (ja) * 2014-06-17 2016-08-03 任天堂株式会社 画像表示システム、照明システム、情報処理装置、および制御プログラム
US9389703B1 (en) * 2014-06-23 2016-07-12 Amazon Technologies, Inc. Virtual screen bezel
US9373054B2 (en) 2014-09-02 2016-06-21 Kodak Alaris Inc. Method for selecting frames from video sequences based on incremental improvement
DE102014016643A1 (de) 2014-11-11 2016-05-12 Novomatic Ag Anzeigevorrichtung und Verfahren zum Betreiben einer solchen Anzeigevorrichtung
KR102281162B1 (ko) 2014-11-20 2021-07-23 삼성전자주식회사 영상 처리 장치 및 방법
US9544419B2 (en) 2014-12-24 2017-01-10 Intel Corporation Methods and systems for configuring a mobile device based on an orientation-based usage context
US9826277B2 (en) * 2015-01-23 2017-11-21 TCL Research America Inc. Method and system for collaborative and scalable information presentation
US10089532B2 (en) 2015-02-23 2018-10-02 Kodak Alaris Inc. Method for output creation based on video content characteristics
CN107430841B (zh) 2015-03-31 2021-03-09 索尼公司 信息处理设备、信息处理方法、程序以及图像显示***
CN107637082B (zh) * 2015-06-12 2021-03-12 索尼公司 信息处理装置以及信息处理方法
EP3139369A1 (en) * 2015-09-02 2017-03-08 TP Vision Holding B.V. Printed circuit board for controlling projectors and electronic device
CN105657494B (zh) * 2015-12-31 2018-12-25 北京小鸟看看科技有限公司 一种虚拟影院及其实现方法
WO2017182365A1 (en) * 2016-04-22 2017-10-26 Philips Lighting Holding B.V. Controlling a lighting system
US11222611B2 (en) 2016-06-14 2022-01-11 Razer (Asia-Pacific) Pte. Ltd. Image processing devices, methods for controlling an image processing device, and computer-readable media
KR102267397B1 (ko) * 2016-10-25 2021-06-21 삼성전자주식회사 전자 장치 및 이의 제어 방법
JP2018105659A (ja) * 2016-12-23 2018-07-05 国立研究開発法人理化学研究所 識別装置、識別システム、学習装置、学習方法、識別プログラム、学習プログラム、記録媒体、及び集積回路
US10080051B1 (en) * 2017-10-25 2018-09-18 TCL Research America Inc. Method and system for immersive information presentation
CN115460463A (zh) 2018-01-04 2022-12-09 三星电子株式会社 视频播放装置及其控制方法
KR102594652B1 (ko) 2018-12-07 2023-10-27 삼성전자 주식회사 전자 장치의 시각 효과 제공 방법 및 이를 사용하는 전자 장치
WO2020122920A1 (en) * 2018-12-13 2020-06-18 Hewlett-Packard Development Company, L.P. Customizable onscreen display reference points
KR102478027B1 (ko) * 2019-09-26 2022-12-15 구글 엘엘씨 레인지 익스텐더 장치
CN110730338A (zh) * 2019-10-23 2020-01-24 国网黑龙江省电力有限公司信息通信公司 一种电视背景墙投影装置
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
FR3111724B1 (fr) * 2020-06-18 2022-11-04 Cgr Cinemas Méthodes pour la production d’effets d’immersion visuelle pour un contenu audiovisuel

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999053728A1 (fr) * 1998-04-13 1999-10-21 Matsushita Electric Industrial Co., Ltd. Procede de regulation d'un eclairage et dispositif d'eclairage
JP4176233B2 (ja) * 1998-04-13 2008-11-05 松下電器産業株式会社 照明制御方法及び照明装置
JP2001118689A (ja) * 1999-10-15 2001-04-27 Matsushita Electric Ind Co Ltd 照明制御方法
US6872553B2 (en) * 1999-10-20 2005-03-29 Degussa Ag Nucleotide sequences which code for the pck gene
JP4399087B2 (ja) * 2000-05-31 2010-01-13 パナソニック株式会社 照明システム、映像表示デバイスおよび照明制御方法
WO2003017649A1 (en) 2001-08-20 2003-02-27 Koninklijke Philips Electronics N.V. Image size extension
US6940558B2 (en) * 2001-12-06 2005-09-06 Koninklijke Philips Electronics N.V. Streaming content associated with a portion of a TV screen to a companion device
GB0211898D0 (en) * 2002-05-23 2002-07-03 Koninkl Philips Electronics Nv Controlling ambient light
ATE410888T1 (de) * 2002-07-04 2008-10-15 Koninkl Philips Electronics Nv Verfahren und vorrichtung zur steuerung von umgebungslicht und lichteinheit
US20060062424A1 (en) * 2002-07-04 2006-03-23 Diederiks Elmo M A Method of and system for controlling an ambient light and lighting unit
US20060109283A1 (en) * 2003-02-04 2006-05-25 Shipman Samuel E Temporal-context-based video browsing interface for PVR-enabled television systems
JP2005020512A (ja) * 2003-06-27 2005-01-20 Pioneer Electronic Corp 映像信号処理装置
JP2005057410A (ja) * 2003-08-01 2005-03-03 Alpine Electronics Inc 映像出力装置および方法
US20050036067A1 (en) * 2003-08-05 2005-02-17 Ryal Kim Annon Variable perspective view of video images
US20070258015A1 (en) * 2004-06-30 2007-11-08 Koninklijke Philips Electronics, N.V. Passive diffuser frame system for ambient lighting using a video display unit as light source
JP4727342B2 (ja) 2004-09-15 2011-07-20 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラム及びプログラム格納媒体
JP4587871B2 (ja) * 2005-05-11 2010-11-24 シャープ株式会社 コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体

Also Published As

Publication number Publication date
TW200746818A (en) 2007-12-16
CN101438579A (zh) 2009-05-20
RU2454023C2 (ru) 2012-06-20
WO2007113754A1 (en) 2007-10-11
CN101438579B (zh) 2012-05-30
BRPI0709260A2 (pt) 2011-06-28
US20100201878A1 (en) 2010-08-12
KR20080111515A (ko) 2008-12-23
RU2008143242A (ru) 2010-05-10
JP2009542039A (ja) 2009-11-26
KR101465459B1 (ko) 2014-12-10
US8599313B2 (en) 2013-12-03
JP5107338B2 (ja) 2012-12-26
EP2005732A1 (en) 2008-12-24

Similar Documents

Publication Publication Date Title
MX2008012473A (es) Reproduccion adaptada de contenido de video basada en cuadros adicionales de contenido.
CN110650368B (zh) 视频处理方法、装置和电子设备
US8130330B2 (en) Immersive surround visual fields
US20070126864A1 (en) Synthesizing three-dimensional surround visual field
US7057625B2 (en) Program and apparatus for displaying graphical objects
US11514654B1 (en) Calibrating focus/defocus operations of a virtual display based on camera settings
US8179400B2 (en) Motion adaptive ambient lighting
US10859852B2 (en) Real-time video processing for pyramid holographic projections
US20070126932A1 (en) Systems and methods for utilizing idle display area
US20160266543A1 (en) Three-dimensional image source for enhanced pepper's ghost illusion
US8979281B2 (en) System and method for imagination park tree projections
JP3956561B2 (ja) 画像データ表示システム及び画像データ生成方法
US11490034B1 (en) Increasing resolution and luminance of a display
Fradet et al. [poster] mr TV mozaik: A new mixed reality interactive TV experience
KR20130067649A (ko) 실감 효과 검출 장치 및 방법
JPH10177660A (ja) 画像生成方法、画像生成装置、及び、仮想現実体験装置
KR20220125873A (ko) Ar 프로젝션 맵핑 시스템
Alleaume et al. Matthieu Fradet Caroline Baillard Anthony Laurent Tao Luo Philippe Robert
CN117765210A (zh) 在xr虚实合成中实现led区域外画面补偿的方法、装置
Dingeldey et al. Interactive 3D Stereoscopic Dome with Automatic Calibration.

Legal Events

Date Code Title Description
FG Grant or registration