MX2012004580A - Dispositivo de transmision de datos de imagen 3d, metodo de transmision de datos de imagen 3d, dispositivo de recepcion de datos de imagen 3d, y metodo de recepcion de datos de imagen 3d. - Google Patents

Dispositivo de transmision de datos de imagen 3d, metodo de transmision de datos de imagen 3d, dispositivo de recepcion de datos de imagen 3d, y metodo de recepcion de datos de imagen 3d.

Info

Publication number
MX2012004580A
MX2012004580A MX2012004580A MX2012004580A MX2012004580A MX 2012004580 A MX2012004580 A MX 2012004580A MX 2012004580 A MX2012004580 A MX 2012004580A MX 2012004580 A MX2012004580 A MX 2012004580A MX 2012004580 A MX2012004580 A MX 2012004580A
Authority
MX
Mexico
Prior art keywords
data
information
left eye
image data
right eye
Prior art date
Application number
MX2012004580A
Other languages
English (en)
Inventor
Iku Tsukagoshi
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of MX2012004580A publication Critical patent/MX2012004580A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/025Systems for the transmission of digital non-picture data, e.g. of text during the active part of a television frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/025Systems for the transmission of digital non-picture data, e.g. of text during the active part of a television frame
    • H04N7/03Subscription systems therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/025Systems for the transmission of digital non-picture data, e.g. of text during the active part of a television frame
    • H04N7/035Circuits for the digital non-picture data signal, e.g. for slicing of the data signal, for regeneration of the data-clock signal, for error detection or correction of the data signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

[Problema] Hacer más fácil el procesamiento en un lado del receptor. [Solución] una unidad (123) de procesamiento de subtítulos convierten los datos de los subtítulos para usarse con imágenes 2D a datos de subtítulos para usarse con imágenes 3D que soportan un formato de transmisión para datos de imagen 3D. Esto hace más fácil el procesamiento en un lado de receptor, puesto que dicho lado del receptor puede entonces generar fácilmente lo siguiente en base a los datos del subtítulo para usarse con imágenes 3D: datos de despliegue de subtítulos del ojo izquierdo para la super-imposición sobre los datos de imagen del ojo izquierdo en los datos de imagen 3D; y los datos de despliegue de los subtítulos del ojo derecho para super-imposición sobre los datos de imagen del ojo derecho en dichos datos de imagen 3D. Además de los datos de imagen 3D y los datos de subtítulos para usarse con las imágenes 3D, la información de control de despliegue que incluye la información de desplazamiento y la información de partición de región que establece las regiones de despliegue para los subtítulos del ojo izquierdo y del ojo derecho que se transmiten. El paralaje aplicado a parte o todo de los subtítulos se puede cambiar dinámicamente de acuerdo con los cambios en el contenido de imagen. La información de desplazamiento se genera con precisión de subpixeles.

Description

DISPOSITIVO DE TRANSMISIÓN DE DATOS DE IMAGEN 3D, MÉTODO DE TRANSMISIÓN DE DATOS DE IMAGEN 3D, DISPOSITIVO DE RECEPCIÓN DE DATOS DE IMAGEN 3D, Y MÉTODO DE RECEPCIÓN DE DATOS DE IMAGEN 3D CAMPO TÉCNICO La presente invención se refiere a un dispositivo de transmisión de datos de imagen estereoscópica, un método para transmitir datos de imagen estereoscópica, un dispositivo de recepción de datos de imagen estereoscópica, y un método para recibir de datos de imagen estereoscópica, y más particularmente, a un dispositivo de transmisión de datos de imagen estereoscópica para transmitir datos de información de superposición tales como encabezamientos junto con los datos de imagen estereoscópica.
ARTE ANTECEDENTE Por ejemplo, el Documento de Patente 1 propone un formato de transmisión de datos de imagen estereoscópica que utiliza ondas de difusión de televisión. En este formato de transmisión, se transmiten datos de imagen estereoscópica que tienen datos de imagen del ojo izquierdo y datos de imagen del ojo derecho, y se despliega una imagen estereoscópica utilizando disparidad binocular.
La Figura 50 ilustra una relación entre las posiciones de despliegue de las imágenes izquierda y derecha de un objeto en una pantalla y una posición de reproducción de una imagen estereoscópica del mismo en el caso del despliegue de la imagen estereoscópica utilizando disparidad binocular. Por ejemplo, como se ilustra en la pantalla, para un objeto A desplegado tal que la imagen izquierda La se desvia a la derecha, y la imagen derecha Ra se desvia a la izquierda, las lineas de visión izquierda y derecha intersecan por sobre la superficie de la pantalla. Por consiguiente, una posición de reproducción de la imagen estereoscópica del mismo se posiciona por sobre la superficie de la pantalla. DPa denota un vector de disparidad horizontal para un objeto A.
Por ejemplo, para un objeto B del cual la imagen izquierda Lb y la imagen derecha Rb se despliegan en la misma posición en una pantalla como se ilustra en el dibujo, las lineas de visión izquierda y derecha intersecan en la superficie de la pantalla. Por consiguiente, una posición de reproducción de la imagen estereoscópica del mismo es en la superficie de la pantalla. Por ejemplo, para un objeto C desplegado en una pantalla tal que la imagen izquierda Le se desvia a la izquierda, y la imagen derecha Re se desvia a la derecha como se ilustra en el dibujo, las lineas de visión izquierda y derecha intersecan en el lado interior con respecto a la superficie de la pantalla. Por consiguiente, una posición de reproducción de la imagen estereoscópica del mismo se localiza en un lado interior con respecto a la superficie de la pantalla. DPc denota un vector de disparidad horizontal para un objeto C.
En el arte relacionado, son conocidos un formato lado a lado, un formato superior e inferior, y similares como un formato de transmisión de datos de imagen estereoscópica. Por ejemplo, cuando el lado del receptor es una caja de conexión, se contempla que los datos de imagen estereoscópica recibidos se transmiten a un dispositivo de monitor tal como un receptor de televisión a través de una interfaz digital tal como una interfaz de multimedios de alta definición (HDMI) sin convertir el formato de transmisión. Por ejemplo, el Documento No Patente 1 describe en detalle una especificación de la HDMI .
En el arte relacionado, es conocido un método de transmisión de datos de información de superposición tales como los encabezamientos junto con datos de imagen 2D desde el lado del transmisor. En este caso, en el lado del receptor, los datos de despliegue para desplegar la información de superposición se generan mediante el procesamiento de los datos de la información de superposición, y una imagen 2D donde se superpone la información de superposición se obtiene mediante la superposición de los datos de despliegue con los datos de imagen 2D.
LISTA DE CITACIÓN DOCUMENTO DE PATENTE Documento de Patente 1: Solicitud de Patente Japonesa Abierta al Público No. 2005-6114.
DOCUMENTO QUE NO ES DE PATENTE Documento No Patente 1: Especificación de la Interfaz de ultimedios de Alta Definición Versión 1.4, 5 de Junio de 2009 BREVE DESCRIPCIÓN DE LA INVENCIÓN PROBLEMAS A SER SOLUCIONADOS POR LA INVENCIÓN Se contempla que los datos de la información de superposición tal como los encabezamientos también se transmiten cuando se transmiten los datos de imagen estereoscópica como se describe anteriormente. Cuando los datos de la información de superposición son para una imagen 2D, por ejemplo, es necesario que la caja de conexión anteriormente descrita realice un proceso de generación de datos de despliegue superpuestos con los datos de imagen estereoscópica de acuerdo con un formato de transmisión de los datos de imagen estereoscópica a partir de los datos de la información de superposición para una imagen 2D. Por esta razón, es necesario que la caja de conexión que recibe los datos de imagen estereoscópica tenga una función de procesamiento de alto nivel. Esto incrementa los costos de la caja de conexión.
La invención se ha hecho para facilitar un procesamiento en el lado del receptor cuando los datos de la información de superposición tal como los encabezamientos se transmiten junto con los datos de imagen estereoscópica.
SOLUCIONES A LOS PROBLEMAS De acuerdo con un aspecto de la invención, se proporciona un dispositivo de transmisión de datos de imagen estereoscópica que incluye: una unidad de salida de datos de imagen que proporciona como salida datos de imagen estereoscópica de un formato de transmisión predeterminado que tiene datos de imagen del ojo izquierdo y datos de imagen del ojo derecho; una unidad de salida de datos de información de superposición que proporciona como salida datos de información de superposición superpuesta sobre una imagen para los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho; una unidad de procesamiento de datos de información de superposición que convierte los datos de la información de superposición proporcionada como salida a partir de la unidad de salida de datos de información de superposición en la forma de datos de información de superposición de transmisión que tienen datos de información de superposición del ojo izquierdo correspondiente a los datos de imagen del ojo izquierdo incluidos en los datos de imagen estereoscópica del formato de transmisión predeterminado y datos de información de superposición del ojo derecho correspondiente a los datos de imagen del ojo derecho incluidos en los datos de imagen estereoscópica del formato de transmisión predeterminado; una unidad de generación de información de control de despliegue que genera información de área de un área de control del ojo izquierdo que incluye una parte de o toda el área en la imagen del ojo izquierdo donde se superpone la información de superposición del ojo izquierdo con base en los datos de información de superposición de transmisión proporcionados como salida a partir de la unidad de procesamiento de datos de información de superposición y un área de control del ojo derecho que incluye una parte de o toda el área en la imagen del ojo derecho donde se superpone la información de superposición del ojo derecho con base en los datos de información de superposición de transmisión proporcionados como salida a partir de la unidad de procesamiento de datos de información de superposición, e información de control de despliegue que incluye información de desplazamiento del área de control del ojo izquierdo y del área de control del ojo derecho; y una unidad de transmisión de datos que transmite un flujo de datos multiplexados que tiene un primer flujo de datos que incluye los datos de imagen estereoscópica proporcionados como salida a partir de la unidad de salida de datos de imagen y un segundo flujo de -datos que incluye los datos de información de superposición de transmisión proporcionados como salida a partir de la unidad de procesamiento de datos de información de superposición y la información de control de despliegue generada por la unidad de generación de información de control de despliegue.
En la invención, la unidad de salida de datos de imagen proporciona como salida los datos de imagen estereoscópica de un formato de transmisión predeterminado que tiene datos de imagen del ojo izquierdo y datos de imagen del ojo derecho. Por ejemplo, el formato de transmisión de datos de imagen estereoscópica incluye un formato lado a lado, un formato superior e inferior, y similares.
La unidad de salida de datos de información de superposición proporciona como salida los datos de la información de superposición superpuesta con una imagen con base en los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho. Aquí, la información de superposición incluye información tal como encabezamientos, gráficos, y textos superpuestos con la imagen. La unidad de procesamiento de datos de información de superposición convierte los datos de la información de superposición en la forma de datos de información de superposición de transmisión que tienen datos de la información de superposición del ojo izquierdo y datos de la información de superposición del ojo derecho.
Aquí, los datos de la información de superposición del ojo izquierdo son los datos correspondientes a los datos de imagen del ojo izquierdo incluidos en los datos de imagen estereoscópica de un formato de transmisión predeterminado anteriormente descrito, y son los datos para generar datos de despliegue de la información de superposición del ojo izquierdo superpuesta con los datos de imagen del ojo izquierdo de los datos de imagen estereoscópica en el lado del receptor. Adicionalmente, los datos de la información de superposición del ojo derecho son los datos correspondientes a los datos de imagen del ojo derecho incluidos en los datos de imagen estereoscópica de un formato de transmisión predeterminado anteriormente descrito, y son los datos para generar datos de despliegue de la información de superposición del ojo derecho superpuesta con los datos de imagen del ojo derecho de los datos de imagen estereoscópica en el lado del receptor .
Los datos de la información de superposición son, por ejemplo, datos de subtítulos (datos de subtítulos de DVB) . La unidad de procesamiento de datos de información de superposición genera datos de la información de superposición del ojo izquierdo y datos de la información de superposición del ojo derecho como sigue. Por ejemplo, si el formato de transmisión de los datos de imagen estereoscópica es el formato lado a lado, la unidad de procesamiento de datos de información de superposición genera datos de la información de superposición del ojo izquierdo y datos de la información de superposición del ojo derecho como datos de objetos diferentes en la misma región. Por ejemplo, si el formato de transmisión de los datos de imagen estereoscópica es el formato superior e inferior, la unidad de procesamiento de datos de información de superposición genera datos de la información de superposición del ojo izquierdo y datos de la información de superposición del ojo derecho como datos de un objeto de diferentes regiones.
La unidad de generación de información de control de despliegue genera información de control de despliegue . La información de control de despliegue incluye información de área del área de control del ojo izquierdo y del área de control del ojo derecho e información de desplazamiento. Aquí, el área de control del ojo izquierdo es un área que incluye una parte de o toda el área en la imagen del ojo izquierdo donde se superpone la información de superposición del ojo izquierdo con base en los datos de información de superposición de transmisión anteriormente descritos. De modo semejante, el área de control del ojo derecho es un área que incluye una parte de o toda el área en la imagen del ojo derecho donde se superpone la información de superposición del ojo derecho con base en los datos de información de superposición de transmisión anteriormente descritos. El área de control del ojo izquierdo y el área de control del ojo derecho se establecen, por ejemplo, en respuesta a la manipulación del usuario o automáticamente.
Por ejemplo, la información de desplazamiento es la información de desplazamiento para asignar disparidad a las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho. La información de desplazamiento se genera, por ejemplo, con base en la información de disparidad entre la imagen del ojo izquierdo basada en los datos de imagen del ojo izquierdo y la imagen del ojo derecho basada en los datos de imagen del ojo derecho. Por ejemplo, la información de desplazamiento es la información de desplazamiento para mover en proporciones iguales las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho. Por ejemplo, la información de desplazamiento es la información de desplazamiento para asignar disparidad a las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho y mover en proporciones iguales las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho.
La unidad de transmisión de datos transmite un flujo de datos multiplexados que incluye primer y segundo flujos de datos. El primer flujo de datos incluye datos de imagen estereoscópica de un formato de transmisión predeterminado proporcionados como salida a partir de la unidad de salida de datos de imagen. El segundo flujo de datos incluye datos de información de superposición de transmisión proporcionados como salida a partir de la unidad de procesamiento de datos de información de superposición e información de control de despliegue generada por la unidad de generación de información de control de despliegue.
De esta manera, en la invención, los datos de información de superposición de transmisión que tienen datos de la información de superposición del ojo izquierdo y datos de la información de superposición del ojo derecho conforme al formato de transmisión se transmiten junto con los datos de imagen estereoscópica. Por esta razón, en el lado del receptor, es posible generar fácilmente datos de despliegue de la información de superposición del ojo izquierdo superpuesta con los datos de imagen del ojo izquierdo de los datos de imagen estereoscópica y datos de despliegue de la información de superposición del ojo derecho superpuesta con los datos de imagen del ojo derecho de los datos de imagen estereoscópica con base en los datos de información de superposición de transmisión, de modo que es posible facilitar el procesamiento .
En la invención, además de los datos de imagen estereoscópica y los datos de información de superposición de transmisión, se transmiten la información de control de despliegue que incluye la información de área del área de control del ojo izquierdo y del área de control del ojo derecho y la información de desplazamiento. En el lado del receptor, es posible realizar el ajuste de desplazamiento con base en la información de desplazamiento para los datos de despliegue de la información de superposición del ojo izquierdo y la información de superposición del ojo derecho tal que se desplacen la posición de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la posición de despliegue de la información de superposición del ojo derecho en el área de control del ojo derecho.
Por esta razón, si la información de desplazamiento es la información de desplazamiento para asignar disparidad a las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho, en el lado del receptor, para el despliegue de la información de superposición tal como los subtítulos (encabezamientos), es posible mantener la conformidad óptima de la percepción de profundidad entre cada objeto en una imagen para una parte de o toda la información de superposición. Si la información de desplazamiento es la información de desplazamiento para mover en proporciones iguales las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho, en el lado del receptor, para el despliegue de la información de superposición tal como los subtítulos (encabezamientos) , es posible mover la posición de despliegue para una parte de o toda la información de superposición .
En la invención, por ejemplo, la información de desplazamiento incluida en la información de control de despliegue generada por la unidad de generación de información de control de despliegue puede ser información de desplazamiento secuencialmente actualizada en cada cuadro de un número predeterminado de periodos de cuadros para desplegar la información de superposición. En este caso, en el lado del receptor, es posible desplazar las posiciones de despliegue de la información de superposición del. ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho utilizando la información de desplazamiento secuencialmente actualizada en cada cuadro de 'un número predeterminado de periodos de cuadros para desplegar la información de superposición. Por esta razón, es posible cambiar dinámicamente la disparidad asignada a una parte de o toda la información de superposición en sincronización con el cambio del contenido de la imagen. Adicionalmente, es posible obtener un efecto de despliegue para cambiar dinámicamente la posición de despliegue de una parte de o toda la información de superposición.
En la invención, por ejemplo, la información de desplazamiento incluida en la información de control de despliegue generada por la unidad de generación de información de control de despliegue puede incluir la información de desplazamiento del primer cuadro de un número predeterminado de periodos de cuadros y la información de corrimiento para la información de desplazamiento de cuadros previos con posterioridad al segundo cuadro y los cuadros subsiguientes. En este caso, es posible suprimir una cantidad de datos de la información de desplazamiento.
En la invención, por ejemplo, la unidad de generación de información de control - de despliegue puede generar secuencialmente información de control de despliegue en cada cuadro de un número predeterminado de periodos de cuadros para desplegar la información de superposición. En este caso, en el lado del receptor, es posible desplazar las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho utilizando la información de control de despliegue (información de desplazamiento) secuencialmente actualizada en cada cuadro de un número predeterminado de periodos de cuadros para desplegar la información de superposición. Por esta razón, es posible cambiar dinámicamente la disparidad asignada a una parte de o toda la información de superposición en sincronización con el cambio del contenido de la imagen. Adicionalmente, es posible obtener un efecto de despliegue para cambiar dinámicamente la posición de despliegue de una parte de o toda la información de superposición .
En la invención, por ejemplo, la información de desplazamiento generada por la unidad de generación de información de control de despliegue puede tener un nivel de precisión de sub-pixeles. En este caso, en el lado del receptor, si las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho se desplazan utilizando la información de desplazamiento secuencialmente actualizada en cada cuadro de un número predeterminado de periodos de cuadros para desplegar la información de superposición, es posible realizar suavemente la operación de desplazamiento y mejorar la calidad de la imagen.
En la invención, por ejemplo, la información de control de despliegue generada por la unidad de generación de información de control de despliegue puede incluir información de comando para controlar el encendido/apagado del despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho. En este caso, en el lado del receptor, con base en la información de comando, es posible encender o apagar el despliegue de la información de superposición utilizando la información de área y la información de desplazamiento incluidas en la información de control de despliegue junto con la información de comando con base en la información de comando .
En la invención, por ejemplo, la unidad de transmisión de datos puede insertar información de identificación para identificar que el segundo flujo de datos incluye datos de información de superposición de transmisión conforme a un formato de transmisión de los datos de imagen estereoscópica dentro del flujo de datos multiplexados . En este caso, en el lado del receptor, utilizando la información de identificación, es posible identificar si o no el segundo flujo de datos incluye los datos de información de superposición de transmisión (datos de información de superposición para una imagen estereoscópica) conforme al formato de transmisión de los datos de imagen estereoscópica.
De acuerdo con otro aspecto de la invención, se proporciona un dispositivo de recepción de datos de imagen estereoscópica que incluye: una unidad de recepción de datos que recibe un flujo de datos multiplexados que tiene un primer flujo de datos y un segundo flujo de datos, el primer flujo de datos que incluye datos de imagen estereoscópica de un formato de transmisión predeterminado que tiene datos de imagen del ojo izquierdo y datos de imagen del ojo derecho, y el segundo flujo de datos que incluye datos de información de superposición de transmisión que tienen datos de la información de superposición del ojo izquierdo correspondiente a los datos de imagen del ojo izquierdo incluidos en los datos de imagen estereoscópica del formato de transmisión predeterminado y datos de la información de superposición del ojo derecho correspondiente a los datos de imagen del ojo derecho, información de área de un área de control del ojo izquierdo que incluye una parte de o toda el área en una imagen del ojo izquierdo donde se superpone la información de superposición del ojo izquierdo con base en los datos de información de superposición de transmisión y un área de control del ojo derecho que incluye una parte de o toda el área en una imagen del ojo derecho donde se superpone la información de superposición del ojo derecho con base en los datos de información de superposición de transmisión, e información de control de despliegue que tiene información de desplazamiento del área de control del ojo izquierdo y del área de control del ojo derecho; una unidad de obtención de datos de imagen que obtiene los datos de imagen estereoscópica a partir del primer flujo de datos que tiene el flujo de datos multiplexados recibido por la unidad de recepción de datos; una unidad de obtención de datos de información de superposición que obtiene los datos de información de superposición de transmisión a partir del segundo flujo de datos del flujo de datos multiplexados recibido por la unidad de recepción de datos; una unidad de obtención de información de control de despliegue que obtiene la información de control de despliegue a partir del segundo flujo de datos del flujo de datos multiplexados recibido por la unidad de recepción de datos; una unidad de generación de datos de despliegue que genera datos de despliegue para desplegar de manera superpuesta la información de superposición del ojo izquierdo y la información de superposición del ojo derecho en la imagen del ojo izquierdo y la imagen del ojo derecho con base en los datos de información de superposición de transmisión obtenidos por la unidad de obtención de datos de información de superposición; una unidad de ajuste de desplazamiento que recibe los datos de despliegue generados por la unidad de generación de datos de despliegue y proporciona como salida mediante desplazamiento y ajuste las posiciones de los datos de despliegue del área de control del ojo izquierdo y del área de control del ojo derecho indicadas por la información de área de la información de control de despliegue obtenida por la unidad de obtención de información de control de despliegue con base en la información de desplazamiento de la información de control de despliegue obtenida por la unidad de obtención de información de control de despliegue; y una unidad de combinación de datos que superpone los datos de despliegue sometidos al desplazamiento y ajuste y proporcionados como salida a partir de la unidad de ajuste de desplazamiento con los datos de imagen estereoscópica obtenidos por la unidad de obtención de datos de imagen para obtener datos de imagen estereoscópica de salida.
En la invención, la unidad de recepción de datos recibe el flujo de datos multiplexados que tiene primer y segundo flujos de datos. El primer flujo de datos incluye datos de imagen estereoscópica de un formato de transmisión predeterminado que tiene los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho.
El segundo flujo de datos incluye datos de información de superposición de transmisión (datos de información de superposición para una imagen estereoscópica) que tienen datos de la información de superposición del ojo izquierdo y datos de la información de superposición del ojo derecho e información de control de despliegue. Los datos de la información de superposición del ojo izquierdo son los datos correspondientes a los datos de imagen del ojo izquierdo incluidos en los datos de imagen estereoscópica de un formato de transmisión predeterminado anteriormente descrito, y son los datos para generar datos de despliegue de la información de superposición del ojo izquierdo superpuesta con los datos de imagen del ojo izquierdo de los datos de imagen estereoscópica. Adicionalmente, los datos de la información de superposición del ojo derecho son los datos correspondientes a los datos de imagen del ojo derecho incluidos en los datos de imagen estereoscópica de un formato de transmisión predeterminado anteriormente descrito, y son los datos para generar datos de despliegue de la información de superposición del ojo derecho superpuesta con los datos de imagen del ojo derecho de los datos de imagen estereoscópica.
El segundo flujo de datos incluye información de control de despliegue que tiene información de área del área de control del ojo izquierdo y del área de control del ojo derecho e información de desplazamiento. El área de control del ojo izquierdo es un área que incluye una parte de o toda el área en la imagen del ojo izquierdo donde se superpone la información de superposición del ojo izquierdo con base en los datos de información de superposición de transmisión. De modo semejante, el área de control del ojo derecho es un área que incluye una parte de o toda el área en la imagen del ojo derecho donde se superpone la información de superposición del ojo derecho con base en los datos de información de superposición de transmisión anteriormente descritos.
Por ejemplo, la información de desplazamiento es la información de desplazamiento para asignar disparidad a las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho. Por ejemplo, la información de desplazamiento es la información de desplazamiento para mover en proporciones iguales las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho. Por ejemplo, la información de desplazamiento es la información de desplazamiento para asignar disparidad a las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho y mover en proporciones iguales las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho.
La unidad de obtención de datos de imagen obtiene los datos de imagen estereoscópica de un formato de transmisión predeterminado a partir del primer flujo de datos del flujo de datos multiplexados recibido por la unidad de recepción de datos. Adicionalmente, la unidad de obtención de datos de información de superposición obtiene los datos de información de superposición de transmisión a partir del segundo flujo de datos del flujo de datos multiplexados recibido por la unidad de recepción de datos. Además, la unidad de obtención de información de control de despliegue obtiene la información de control de despliegue a partir del segundo flujo de datos del flujo de datos multiplexados recibido por la unidad de recepción de datos .
La unidad de generación de datos de despliegue genera datos de despliegue para desplegar de manera superpuesta la información de superposición en la imagen del ojo izquierdo y la imagen del ojo derecho con base en los datos de información de superposición de transmisión obtenidos por la unidad de obtención de datos de información de superposición. Los datos de despliegue generados por la unidad de generación de datos de despliegue se ingresan a la unidad de ajuste de desplazamiento. Adicionalmente, la unidad de ajuste de desplazamiento ajusta en desplazamiento y proporciona como salida la posición de los datos de despliegue del área de control del ojo izquierdo y del área de control del ojo derecho indicadas por la información de área de la información de control de despliegue obtenida por la unidad de obtención de información de control de despliegue con base en la información de desplazamiento de la información de control de despliegue obtenida por la unidad de obtención de información de control de despliegue.
La unidad de combinación de datos obtiene entonces los datos de imagen estereoscópica de salida superponiendo los datos de despliegue sometidos al ajuste de desplazamiento y proporcionados como salida a partir de la unidad de ajuste de desplazamiento con los datos de imagen estereoscópica obtenidos por la unidad de obtención de datos de imagen. Los datos de imagen estereoscópica de salida se transmiten a un dispositivo externo, por ejemplo, a través de una unidad de interfaz digital tal como la HDMI.
De esta manera, en la invención, los datos de información de superposición de transmisión que tienen los datos de la información de superposición del ojo izquierdo y los datos de la información de superposición del ojo derecho conforme al formato de transmisión se reciben junto con los datos de imagen estereoscópica. Por esta razón, en la unidad de generación de datos de despliegue, es posible generar fácilmente datos de despliegue de la información de superposición del ojo izquierdo superpuesta con los datos de imagen del ojo izquierdo de los datos de imagen estereoscópica y datos de despliegue de la información de superposición del ojo derecho superpuesta con los datos de imagen del ojo derecho de los datos de imagen estereoscópica con base en los datos de información de superposición de transmisión, y es posible facilitar el procesamiento.
En la invención, la información de control de despliegue que incluye la información de área del área de control del ojo izquierdo y del área de control del ojo derecho y la información de desplazamiento se recibe además de los datos de imagen estereoscópica y los datos de información de superposición de transmisión. Por esta razón, es posible realizar el ajuste de desplazamiento con base en la información de desplazamiento para los datos de despliegue de la información de superposición del ojo izquierdo y la información de superposición del ojo derecho tal que se desplacen la posición de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la posición de despliegue de la información de superposición del ojo derecho en el área de control del ojo derecho .
Por consiguiente, si la información de desplazamiento es la información de desplazamiento para asignar disparidad a las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho, para el despliegue de la información de superposición tal como los subtítulos (encabezamientos), es posible mantener la conformidad óptima de la percepción de profundidad entre cada objeto en una imagen para una parte de o toda la información de superposición. Adicionalmente, si la información de desplazamiento es la información de desplazamiento para mover en proporciones iguales las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho, para el despliegue de la información de superposición tal como los subtítulos (encabezamientos) , es posible mover la posición de despliegue para una parte de o toda la información de superposición.
En la invención, el receptor dé datos de imagen estereoscópica puede adicionalmente incluir una unidad de obtención de información de identificación que obtiene la información de identificación a partir del flujo de datos multiplexados recibido por la unidad de recepción de datos; y una unidad de identificación de datos de información de superposición que identifica que el segundo flujo de datos incluye los datos de información de superposición de transmisión conforme a un formato de transmisión de los datos de imagen estereoscópica con base en la información de identificación obtenida por la unidad de obtención de información de identificación, en que el flujo de datos multiplexados recibido por la unidad de recepción de datos incluye información de identificación para identificar que el segundo flujo de datos incluye los datos de información de superposición de transmisión conforme a un formato de transmisión de los datos de imagen estereoscópica. En este caso, utilizando la información de identificación, es posible identificar si o no el segundo flujo de datos incluye los datos de información de superposición de transmisión (los datos de información de superposición para una imagen estereoscópica) conforme a un formato de transmisión de los datos de imagen estereoscópica.
EFECTO DE LA INVENCIÓN En la invención, los datos de información de superposición de transmisión que tienen los datos de la información de superposición del ojo izquierdo y los datos de la información de superposición del ojo derecho conforme a un formato de transmisión de los mismos, se transmiten desde el lado del transmisor hacia el lado del receptor junto con los datos de imagen estereoscópica. Por esta razón, en el lado del receptor, es posible generar fácilmente los datos de despliegue de la información de superposición del ojo izquierdo superpuesta con los datos de imagen del ojo izquierdo de los datos de imagen estereoscópica y los datos de despliegue de la información de superposición del ojo derecho superpuesta con los datos de imagen del ojo derecho de los datos de imagen estereoscópica con base en los datos de información de superposición de transmisión, y es posible facilitar el procesamiento. Por consiguiente, en el lado del receptor, es posible realizar fácilmente un proceso de transmitir los datos de imagen estereoscópica recibidos a un dispositivo de monitor tal como un receptor de televisión a través de una interfaz digital tal como la HD I sin convertir el formato de transmisión.
En la invención, además de los datos de imagen estereoscópica y los datos de información de superposición de transmisión, la información de control de despliegue que incluye la información de área del área de control del ojo izquierdo y del área de control del ojo derecho y la información de desplazamiento se transmite desde el lado del transmisor hacia el lado del receptor. Por esta razón, en el lado del receptor, es posible realizar el ajuste de desplazamiento con base en la información de desplazamiento para los datos de despliegue de la información de superposición del ojo izquierdo y la información de superposición del ojo derecho tal que se desplacen la posición de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la posición de despliegue de la información de superposición del ojo derecho en el área de control del ojo derecho.
Por consiguiente, si la información de desplazamiento es la información de desplazamiento para asignar disparidad a las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho, en el lado del receptor, para el despliegue de la información de superposición tal como los subtítulos (encabezamientos) , es posible mantener la conformidad óptima de la percepción de profundidad entre cada objeto en una imagen para una parte de o toda la información de superposición. Adicionalmente, si la información de desplazamiento es la información de desplazamiento para mover en proporciones iguales las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho, en el lado del receptor, para el despliegue de la información de superposición tal como los subtítulos (encabezamientos) , es posible mover la posición de despliegue para una parte de o toda la información de superposición.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La Figura 1 es un diagrama de bloques que ilustra una configuración ejemplar de un sistema de transceptor de imagen de acuerdo con una modalidad de la invención.
La Figura 2 es un diagrama de bloques que ilustra una configuración ejemplar de una unidad de generación de datos de transmisión en una estación de difusión de señales.
La Figura 3 es un diagrama que ilustra los datos de imagen que tienen un formato de pixeles de 1920 x 1080p.
La Figura 4 es un diagrama que ilustra un formato "superior e inferior", un formato "lado a lado", y un formato de "cuadro secuencial", respectivamente, como un formato de transmisión de datos de imagen estereoscópica (datos de imagen 3D) .
La Figura 5 es un diagrama que ilustra un ejemplo para detectar un vector de disparidad de la imagen del ojo derecho contra la imagen del ojo izquierdo.
La Figura 6 es un diagrama que ilustra un proceso de obtención de un vector de disparidad utilizando una técnica de apareamiento de bloques.
La Figura 7 es un diagrama que ilustra un proceso de reducción de tamaño realizado por la unidad de creación de información de disparidad de la unidad de generación de datos de transmisión.
La Figura 8 es un diagrama que ilustra que la información de desplazamiento tiene un nivel de precisión de sub-pixeles, es decir, la información de desplazamiento i-ncluye una porción de número entero y una porción de número decimal.
La Figura 9 es un diagrama que ilustra una configuración ejemplar de un flujo de transporte (datos de flujo de bitios) que incluye un flujo elemental de video, un flujo elemental de subtítulos, y un flujo elemental de audio.
La Figura 10 es un diagrama que ilustra una estructura del página_composición_segmento (PCS) de los datos de subtítulos .
La Figura 11 es un diagrama que ilustra una relación de apareamiento entre cada valor de "segmento_tipo" y los tipos de segmentos.
La Figura 12 es un diagrama que ilustra la información "Componente_tipo = 0 x 15, 0 x 25" que representa un formato de subtítulos 3D que está recién definido.
La Figura 13 es un diagrama que ilustra una configuración ejemplar de los datos de subtítulos (incluyendo la información de control de despliegue) creados y transmitidos por la unidad de procesamiento de subtítulos.
La Figura 14 es un diagrama que ilustra el control de encendido/apagado del despliegue utilizando la información de comando incluida en el segmento RPCS.
La Figura 15 es un diagrama que ilustra el control de encendido/apagado del despliegue utilizando la información de comando incluida en el segmento RPCS.
La Figura 16 es un diagrama que ilustra un estado del despliegue donde no se proporciona el control de encendido/apagado del despliegue utilizando la información de comando incluida en el segmento RPCS, que describe una configuración ejemplar (casos A a E) de los datos de subtítulos (incluyendo un grupo de información de disparidad) .
La Figura 17 es un diagrama que ilustra conceptualmente cómo crear datos de subtítulos de imagen estereoscópica en un caso donde un formato de transmisión de los datos de imagen estereoscópica es el formato lado a lado.
La Figura 18 es un diagrama que ilustra ejemplos de una región, un objeto, y una partición de la región utilizando datos de subtítulos de imagen estereoscópica.
La Figura 19 es un diagrama que ilustra un ejemplo (Ejemplo 1) para crear cada segmento de los datos de subtítulos de imagen estereoscópica cuando el formato de transmisión de los datos de imagen estereoscópica es el formato lado a lado.
La Figura 20 es un diagrama que ilustra un ejemplo (Ejemplo 2) para crear cada segmento de los datos de subtítulos de imagen estereoscópica cuando el formato de transmisión de los datos de imagen estereoscópica es el formato lado a lado.
La Figura 21 es un diagrama que ilustra conceptualmente cómo crear datos de subtítulos de imagen estereoscópica cuando el formato de transmisión de los datos de imagen estereoscópica es el formato superior e inferior.
La Figura 22 es un diagrama que ilustra ejemplos de la región, el objeto, y la partición de la región utilizando los datos de subtítulos de imagen estereoscópica.
La Figura 23 es un diagrama que ilustra un ejemplo (Ejemplo 1) para crear cada segmento de los datos de subtítulos de imagen estereoscópica cuando el formato de transmisión de los datos de imagen estereoscópica es el formato superior e inferior.
La Figura 24 es un diagrama que ilustra un ejemplo (Ejemplo 2) para crear cada segmento de los datos de subtítulos de imagen estereoscópica cuando el formato de transmisión de los datos de imagen estereoscópica es el formato superior e inferior.
La Figura 25 es un diagrama que ilustra un ejemplo de la sintaxis del segmento de composición de la partición de la región (RPCS) .
La Figura 26 es un diagrama que ilustra un primer ejemplo de la sintaxis de "Región_Partición_datos útiles ()" incluido en el RPCS.
La Figura 27 es un diagrama que ilustra un segundo ejemplo de la sintaxis de "Región_Partición_datos útiles () " incluido en el RPCS.
La Figura 28 es un diagrama (1/3) que ilustra un tercer ejemplo de la sintaxis de "Región_Partición_datos útiles () " incluido en el RPCS.
La Figura 29 es un diagrama (2/3) que ilustra un tercer ejemplo de la sintaxis de "Región_Partición_datos útiles ()" incluido en el RPCS.
La Figura 30 es un diagrama (3/3) que ilustra un tercer ejemplo de la sintaxis de "Región_Partición_datos útiles ()" incluido en el RPCS.
La Figura 31 es un diagrama (1/2) gue ilustra la semántica principal de los datos del RPCS.
La Figura 32 es un diagrama (2/2) gue ilustra la semántica principal de los datos del RPCS.
La Figura 33 es un diagrama gue ilustra un ejemplo en el cual la disparidad asignada a las posiciones de despliegue del subtitulo del ojo izguierdo en la RP del ojo izquierdo y el subtitulo del ojo derecho en la RP del ojo derecho se actualiza en una base de cuadros en el lado del receptor cuando el formato de transmisión de los datos de imagen estéreoscópica es el formato lado a lado.
La Figura 34 es un diagrama que ilustra un ejemplo en el cual la disparidad asignada a las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y el subtitulo del ojo derecho de la RP del ojo derecho se actualiza en una base de cuadros en el lado del receptor cuando el formato de transmisión de los datos de imagen estereoscópica es el formato lado a lado.
La Figura 35 es un diagrama que ilustra un ejemplo en el cual la disparidad asignada a las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y el subtitulo del ojo derecho en la RP del ojo derecho se actualiza en una base de cuadros en el lado del receptor cuando el formato de transmisión de los datos de imagen estereoscópica es el formato superior e inferior.
La Figura 36 es un diagrama que ilustra un ejemplo en el cual la disparidad asignada a las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y el subtitulo del ojo derecho de la RP del ojo derecho se actualiza en una base de cuadros en el lado del receptor cuando el formato de transmisión de los datos de imagen estereoscópica es el formato superior e inferior.
La Figura 37 es un diagrama que ilustra esquemáticamente los flujos de los datos de imagen estereoscópica (formato lado a lado) y los datos de subtítulos desde la estación de difusión de señales a través de la caja de conexión hacia el receptor de televisión.
La Figura 38 es un diagrama que ilustra esquemáticamente los flujos de los datos de imagen estereoscópica (formato superior e inferior) y los datos de subtítulos desde la estación de difusión de señales a través de la caja de conexión hacia el receptor de televisión.
La Figura 39 es un diagrama que ilustra un ejemplo de despliegue de los encabezamientos sobre una imagen y la percepción de · profundidad de un fondo, una vista cercana, un objeto, y encabezamientos.
La Figura 40 es un diagrama que ilustra un ejemplo de despliegue de los encabezamientos sobre una imagen y el LGI del encabezamiento del ojo izquierdo y el RGI del encabezamiento del ojo derecho para desplegar los encabezamientos .
La Figura 41 es un diagrama de bloques que ilustra una configuración ejemplar de la caja de conexión del sistema de transceptor de imagen.
La Figura 42 es un diagrama de bloques que ilustra una configuración ejemplar de la unidad de procesamiento del flujo de bitios de la caja de conexión.
La Figura 43 es un diagrama que ilustra esquemáticamente un ejemplo de procesamiento de interpolación en la caja de conexión cuando el desplazamiento se realiza por un 1/2 pixel en una dirección horizontal.
La Figura 44 es un diagrama de bloques que ilustra una configuración ejemplar del receptor de televisión del sistema de transceptor de imagen.
La Figura 45 es un diagrama de bloques que ilustra otro ejemplo de configuración del sistema de transceptor de imagen.
La Figura 46 es un diagrama (1/3) que ilustra otro tercer ejemplo de la sintaxis de "Región_Partición_datos útiles ()" incluido en el RPCS.
La Figura 47 es un diagrama (2/3) que ilustra otro tercer ejemplo de la sintaxis de "Región_Partición_datos útiles ()" incluido en el RPCS.
La Figura 48 es un diagrama (3/3) que ilustra otro tercer ejemplo de la sintaxis de "Región_Partición_datos útiles ()" incluido en el RPCS.
La Figura 49 es un diagrama que ilustra la semántica principal de los datos del RPCS .
La Figura 50 es un diagrama que ilustra una relación entre las posiciones de despliegue de las imágenes izquierda y derecha de un objeto en una pantalla y una posición de reproducción de una imagen estereoscópica del mismo en el despliegue de la imagen estereoscópica utilizando disparidad binocular .
MODO PARA LLEVAR A CABO LA INVENCIÓN A partir de ahora se describirán las modalidades de la invención (desde ahora, referidas como una "modalidad") . La descripción se hará en la siguiente secuencia. 1. Modalidades 2. Modificaciones <1. Modalidades> [Configuración Ejemplar del Sistema de Transceptor de Imagen] La Figura 1 ilustra una configuración ejemplar del sistema 10 de transceptor de imagen de acuerdo con una modalidad de la invención. El sistema 10 de transceptor de imagen incluye una estación 100 de difusión de señales, una caja 200 de conexión (STB) , y un receptor 300 de televisión (TV) .
La caja 200 de conexión y el receptor 300 de televisión se conectan utilizando una interfaz digital tal como la interfaz de multimedios de alta definición (HDMI) . La caja 200 de conexión y el receptor 300 de televisión se conectan utilizando un cable 400 HDMI. La caja 200 de conexión se provee con una terminal 202 HDMI. El receptor 300 de televisión se provee con una terminal 302 HDMI. Un extremo del cable 400 HDMI se conecta a la terminal 202 HDMI de la caja 200 de conexión, y el otro extremo del cable 400 HDMI se conecta a la terminal 302 HDMI del receptor 300 de televisión. [Descripción de Estación de Difusión de Señales] La estación 100 de difusión de señales transmite datos de flujo de bitios BSD a través de ondas aéreas. La estación 100 de difusión de señales tiene una unidad 110 de generación de datos de transmisión que genera datos de flujo de bitios BSD. Estos datos de flujo de bitios BSD incluyen datos de imagen estereoscópica, datos de audio, datos de información de superposición, y similares. Los datos de imagen estereoscópica tienen un formato de transmisión predeterminado e incluyen datos de imagen del ojo izquierdo y datos de imagen del ojo derecho para desplegar una imagen estereoscópica. La información de superposición incluye, en general, encabezamientos, información de gráficos, información de texto, y similares. En esta modalidad, la información de superposición incluye subtítulos (encabezamientos) .
[Configuración Ejemplar de la Unidad de Generación de Datos de Transmisión] La Figura 2 ilustra una configuración ejemplar de la unidad 110 de generación de datos de transmisión en la estación 100 de difusión de señales. La unidad 110 de generación de datos de transmisión incluye cámaras 111L y 111R, una unidad 112 de alineación de cuadros de video, una unidad 113 de detección del vector de disparidad, un micrófono 114, una unidad 115 de extracción de datos, y conmutadores 116 a 118. Adicionalmente, la unidad 110 de generación de datos de transmisión incluye un codificador 119 de video, un codificador 120 de audio, una unidad 121 de generación de subtítulos, una unidad 122 de creación de información de disparidad, una unidad 123 de procesamiento de subtítulos, un codificador 125 de subtítulos, y un multiplexor 125.
La cámara 111L captura una imagen del ojo izquierdo para obtener los datos de imagen del ojo izquierdo para desplegar una imagen estereoscópica. La cámara 111R captura una imagen del ojo derecho para obtener los datos de imagen del ojo derecho para desplegar una imagen estereoscópica. La unidad 112 de alineación de cuadros de video procesa los datos de imagen del ojo izquierdo obtenidos por la cámara 111L y los datos de imagen del ojo derecho obtenidos por la cámara 111R en la forma de datos de imagen estereoscópica (datos de imagen 3D) de acuerdo con un formato de transmisión. La unidad 112 de alineación de cuadros de video sirve como una unidad de salida de datos de imagen.
Ahora se hará la descripción para un formato de transmisión de datos de subtítulos. Aquí, aunque la descripción se hará para los siguientes primer a tercer formatos de transmisión, se pueden utilizar otros formatos de transmisión. Adicionalmente, como se ilustra en la Figura 3, la descripción se hará ejemplarmente para un caso donde cada uno de los datos de imagen del ojo izquierdo (L) y los datos de imagen del ojo derecho (R) tiene un formato de pixeles de una resolución predeterminada tal como 1920 x 1080p.
El primer formato de transmisión es un formato superior e inferior, en que los datos de cada línea para los datos de imagen del ojo izquierdo se transmiten en una mitad frontal de una dirección vertical, y los datos de cada línea para los datos de imagen del ojo izquierdo se transmiten en una mitad trasera de una dirección vertical como se ilustra en la Figura 4 (a) . En este caso, el número de líneas para los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho se reduce a 1/2 de modo que una resolución vertical se disminuye a la mitad en comparación con la señal original.
El segundo formato de transmisión es un formato lado a lado, en que los datos de pixeles para los datos de imagen del ojo izquierdo se transmiten en una mitad frontal de una dirección horizontal, y los datos de pixeles para los datos de imagen del ojo derecho se transmiten en una mitad trasera de una dirección horizontal como se ilustra en la Figura 4 (b) . En este caso, el tamaño de los datos de pixeles de una dirección horizontal para cada uno de los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho se reduce a 1/2 de modo que una resolución horizontal se disminuye a la mitad en comparación con la señal original.
El tercer formato de transmisión es un formato de cuadro secuencial, en que los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho se conmutan secuencialmente y se transmiten en una base de cuadros como se ilustra en la Figura 4(c). Este formato de cuadro secuencial a menudo se refiere como un formato de "cuadro completo" o un formato "retrocorapatible" .
La unidad 113 de detección del vector de disparidad detecta un vector de disparidad, por ejemplo, para cada pixel de una imagen con base en los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho. Un ejemplo para detectar el vector de disparidad se describirá ahora. Aquí, se describirá un ejemplo para detectar el vector de disparidad de la imagen del ojo derecho contra la imagen del ojo izquierdo. Como se ilustra en la Figura 5, la imagen del ojo izquierdo se utiliza como una imagen de detección, y la imagen del ojo derecho se utiliza como una imagen de referencia. En este ejemplo, se detectará un vector de disparidad en las posiciones (xi, yi) y (xj, yj ) .
Un caso donde el vector de disparidad se detecta en la posición (xi, yi) se describirá ejemplarmente. En este caso, el pixel en la posición (xi, yi) se localiza en el lado izquierdo superior de la imagen del ojo izquierdo. Por ejemplo, se establece un bloque Bi de pixeles (bloque de detección de disparidad) de 4 x 4, 8 x 8, o 16 x 16 pixeles. Adicionalmente, en la imagen del ojo derecho, se busca un bloque de pixeles que empate el bloque Bi de pixeles.
En este caso, se establece un rango de búsqueda -centrado en la posición (xi, yi)- en la imagen del ojo derecho. Cada pixel dentro de ese rango de búsqueda se establece como un pixel de destacamiento secuencial, y se establece secuencialmente un bloque de comparación de, por ejemplo, 4 x 4, 8 8, o 16 x 16 pixeles similar a aquel del bloque Bi de pixeles anteriormente descrito.
Una suma total del valor absoluto de las diferencias para cada pixel correspondiente se obtiene entre el bloque Bi de pixeles y el bloque de comparación que se establece secuencialmente. Aquí, como se ilustra en la Figura 6, si el valor de pixel del bloque Bi de pixeles se establece como L(x, y) , y el valor de pixel del bloque de comparación se establece como R(x, y), una suma total del valor absoluto de las diferencias entre el bloque Bi de pixeles y cualquier bloque de comparación se representa como ?|L(x, y) - R(x, y) I .
Cuando el rango de búsqueda establecido en la imagen del ojo derecho incluye n pixeles, se obtienen finalmente n sumas totales SI a Sn, y la suma total mínima Smín se selecciona entre las n sumas totales SI a Sn. Adicionalmente, una posición (xi' , yi' ) del pixel izquierdo superior se obtiene a partir del bloque de comparación donde se obtiene la suma total Smin. Como resultado, el vector de disparidad en la posición (xi, yi) se detecta como (xi' - xi, yi' - yi) . Aunque no se proporciona una descripción detallada, incluso para el vector de disparidad en la posición (xj, yj ) , un pixel en la posición (xj, yj ) se establece en el lado izquierdo superior de la imagen del ojo izquierdo. Por ejemplo, se establece un bloque Bj de pixeles de 4 x 4 , 8 8, o 16 x 16 pixeles, y se hace la detección a través de un procedimiento de procesamiento similar.
Regresando a la Figura 2, el micrófono 114 detecta el sonido correspondiente a las imágenes capturadas por las cámaras 111L y 111R para obtener los datos de audio.
El medio 115a de registro de datos se instala de manera separable en la unidad 115 de extracción de datos. El medio 115a de registro de datos incluye un medio de registro en forma de disco, una memoria semiconductora, y similares. El medio 115a de registro de datos almacena los datos de imagen estereoscópica que incluyen los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho mediante el apareamiento con los datos de audio, los datos en la información de superposición, y los vectores de disparidad. La unidad 115 de extracción de datos extrae los datos de imagen estereoscópica, los datos de audio, y el vector de disparidad a partir del medio 115a de registro de datos y los proporciona como salida. La unidad 115 de extracción de datos sirve como una unidad de salida de datos de imagen.
Aquí, los datos de imagen estereoscópica registrados en el medio 115a de registro de datos corresponden a los datos de imagen estereoscópica obtenidos por la unidad 112 de alineación de cuadros de video. Adicionalmente, los datos de audio registrados en el medio 115a de registro de datos corresponden a los datos de audio obtenidos por el micrófono 114. Adicionalmente, el vector de disparidad registrado en el medio 115a de registro de datos corresponde a un vector de disparidad detectado por la unidad 113 de detección del vector de disparidad.
El conmutador 116 extrae selectivamente los datos de imagen estereoscópica obtenidos por la unidad 112 de alineación de cuadros de video y los datos de imagen estereoscópica proporcionados como salida a partir de la unidad 115 de extracción de datos. En este caso, el conmutador 116 se conecta al lado a en un modo en vivo y extrae los datos de imagen estereoscópica obtenidos por la unidad 112 de alineación de cuadros de video. En un modo de reproducción, el conmutador 116 se conecta al lado b y extrae los datos de imagen estereoscópica proporcionados como salida a partir de la unidad 115 de extracción de datos.
El conmutador 117 extrae selectivamente el vector de disparidad detectado por la unidad 113 de detección del vector de disparidad o el vector de disparidad proporcionado como salida a partir de la unidad 115 de extracción de datos. En este caso, el conmutador 117 se conecta al lado a y extrae el vector de disparidad detectado por la unidad 113 de detección del vector de disparidad en un modo en vivo. En un modo de reproducción, el conmutador 117 se conecta al lado b y extrae el vector de disparidad proporcionado como salida a partir de la unidad 115 de extracción de datos.
El conmutador 118 extrae selectivamente los datos de audio obtenidos por el micrófono 114 o los datos de audio proporcionados como salida a partir de la unidad 115 de extracción de datos. En este caso, el conmutador 118 se conecta al lado a y extrae los datos de audio obtenidos por el micrófono 114 en un modo en vivo. En un modo de reproducción, el conmutador 118 se conecta al lado b y extrae los datos de audio proporcionados como salida a partir de la unidad 115 de extracción de datos.
El codificador 119 de video codifica los datos de imagen estereoscópica extraídos por el conmutador 116 con base en MPEG4-AVC, MPEG2, VC-1, y similares para crear flujos de datos de video (flujos elementales de video) . El codificador 120 de audio codifica los datos de audio extraídos por el conmutador 118 con base en AC3, AAC, y similares para crear flujos de datos de audio (flujos elementales de audio) .
La unidad 121 de generación de subtítulos genera datos de subtítulos que son los datos de encabezamiento para la difusión de señales de video digital (DVB) . Los datos de subtítulos son los datos de subtítulos para imágenes 2D. La unidad 121 de generación de subtítulos sirve como una unidad de salida de datos de información de superposición.
La unidad 122 de creación de información de disparidad realiza un proceso de reducción de tamaño para el vector de disparidad (vector de disparidad horizontal) de cada pixel extraído por el conmutador 117 para crear la información de disparidad (vector de disparidad horizontal) a ser aplicada a los subtítulos. La unidad 122 de creación de información de disparidad sirve como una unidad de salida de información de disparidad. Adicionalmente, la información de disparidad aplicada a los subtítulos se puede agregar en una base de páginas, en una base de regiones, o en una base de objetos. Adicionalmente, no es necesario crear la información de disparidad utilizando la unidad 122 de creación de información de disparidad, y se puede suministrar por separado a partir de una unidad externa.
La Figura 7 ilustra un proceso de reducción de tamaño ejemplar realizado por la unidad 122 de creación de información de disparidad. Inicialmente, la unidad 122 de creación de información de disparidad obtiene el vector de disparidad de cada bloque utilizando el vector de disparidad de cada pixel como se ilustra en la Figura 7(a). Como se describe anteriormente, el bloque corresponde a una capa superior de un pixel localizado en la capa más inferior y se configura dividiendo un área de la imagen (fotograma) en un tamaño predeterminado en las direcciones horizontal y vertical. Adicionalmente, los vectores de disparidad de cada bloque se obtienen, por ejemplo, seleccionando el mayor vector de disparidad de entre los vectores de disparidad de los pixeles globales que existen en ese bloque.
Posteriormente, la unidad 122 de creación de información de disparidad obtiene los vectores de disparidad de cada grupo de bloques utilizando los vectores de disparidad de cada bloque como se ilustra en la Figura 7 (b) . El grupo de bloques corresponde a una capa superior del bloque y se obtiene agrupando colectivamente una pluralidad de bloques adyacentes. En el ejemplo de la Figura 7 (b) , cada grupo incluye cuatro bloques vinculados por el cuadro de linea punteada. Adicionalmente, los vectores de disparidad de cada grupo se obtienen, por ejemplo, seleccionando el mayor vector de disparidad de entre los vectores de disparidad globales en ese grupo .
Posteriormente, la unidad 122 de creación de información de disparidad obtiene ' los vectores de disparidad de cada partición utilizando los vectores de disparidad de cada grupo como se ilustra en la Figura 7 (c) . La partición corresponde a una capa superior de un grupo y se obtiene agrupando colectivamente una pluralidad de grupos adyacentes. En el ejemplo de la Figura 7(c), cada partición incluye dos grupos vinculados por el cuadro de linea punteada. Adicionalmente, los vectores de disparidad de cada partición se obtienen, por ejemplo, seleccionando el mayor vector de disparidad de entre los vectores de disparidad de los grupos globales dentro de esa partición.
Posteriormente, la unidad 122 de creación de información de disparidad obtiene un vector de disparidad del fotograma completo (la imagen completa) localizado en una capa más superior utilizando los vectores de disparidad de cada partición como se ilustra en la Figura 7 (d) . En el ejemplo de la Figura (d) , el fotograma completo incluye cuatro particiones vinculadas por el cuadro de linea punteada. Adicionalmente, el vector de disparidad del fotograma completo se obtiene, por ejemplo, seleccionando el mayor vector de disparidad de entre los vectores de disparidad de las particiones globales incluidas en el fotograma completo.
De esta manera, la unidad 122 de creación de información de disparidad puede obtener los vectores de disparidad de cada área para cada capa de bloques, grupos, particiones, y el fotograma completo realizando un proceso de reducción de tamaño para los vectores de disparidad de cada pixel localizado en la capa más inferior. Adicionalmente, en el ejemplo del proceso de reducción de tamaño de la Figura 7, finalmente se obtienen los vectores de disparidad de cuatro capas que incluyen una capa de bloques, una capa de grupos, una capa de particiones, y el fotograma completo además de una capa de pixeles. Sin embargo, el número de capas, un método de división de las áreas de cada capa, y el número de áreas no se limitan a los descritos.
Regresando a la Figura 2, la unidad 123 de procesamiento de subtítulos convierte los datos de subtítulos generados en la unidad 121 de generación de subtítulos en la forma de datos de subtítulos de imagen estereoscópica (imagen 3D) conforme a un formato de transmisión de los datos de imagen estereoscópica extraídos por el conmutador 116. La unidad 123 de procesamiento de subtítulos sirve como una unidad de procesamiento de datos de información de superposición, y los datos de subtítulos para los datos de imagen estereoscópica después de la conversión constituyen los datos de información de superposición de transmisión.
Los datos de subtítulos de imagen estereoscópica incluyen los datos de subtítulos del ojo izquierdo y los datos de subtítulos del ojo derecho. Aquí, los datos de subtítulos del ojo izquierdo son los datos correspondientes a los datos de imagen del ojo izquierdo incluidos en los datos de imagen estereoscópica anteriormente descritos, y son los datos para generar datos de despliegue del subtitulo del ojo izquierdo que se superpone con los datos de imagen del ojo izquierdo incluidos en los datos de imagen estereoscópica en el lado del receptor. Adicionalmente, los datos de subtítulos del ojo derecho son los datos correspondientes a los datos de imagen del ojo derecho incluidos en los datos de imagen estereoscópica anteriormente descritos, y son los datos para generar datos de despliegue del subtítulo del ojo derecho que se superpone con los datos de imagen del ojo derecho incluidos en los datos de imagen estereoscópica en el lado del receptor.
La unidad 123 de procesamiento de subtítulos incluye una unidad 124 de generación de información de control de despliegue. La unidad 124 de generación de información de control de despliegue genera información de control de despliegue que incluye la información de área de la partición de la región y la información de desplazamiento. La partición de la región incluye una partición de la región del ojo izquierdo (RP del ojo izquierdo) y una partición de la región del ojo derecho (RP del ojo derecho) . La partición de la región del ojo izquierdo sirve como un área de control del ojo izquierdo y la partición de la región del ojo derecho sirve como un área de control del ojo derecho. A partir de ahora, la partición de la región del ojo izquierdo se refiere como una RP del ojo izquierdo, y la partición de la región del ojo derecho se refiere como una RP del ojo derecho.
Aquí, la RP del ojo izquierdo se establece en un área que incluye una parte de o toda el área en la imagen del ojo izquierdo donde se superpone el subtitulo del ojo izquierdo (información de superposición del ojo izquierdo) utilizando los datos de información de superposición de transmisión anteriormente descritos. De modo semejante, la RP del ojo derecho se establece en un área que incluye una parte de o toda el área en la imagen del ojo derecho donde se superpone el subtitulo del ojo derecho (información de superposición del ojo izquierdo) utilizando los datos de información de superposición de transmisión anteriormente descritos. Las áreas de la RP del ojo izquierdo y de la RP del ojo derecho se establecen, por ejemplo, con base en la manipulación del usuario o automáticamente, para cada datos de subtítulos generados por la unidad 121 de generación de subtítulos. En este caso, las áreas de la RP del ojo izquierdo y de la RP del ojo derecho se establecen tal que el subtítulo del ojo izquierdo en la RP del ojo izquierdo empate el subtítulo del ojo derecho en la RP del ojo derecho.
La información de desplazamiento incluye la información de desplazamiento para asignar disparidad a las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho. La unidad 124 de generación de información de control de despliegue genera la información de desplazamiento, por ejemplo, con base en la información de disparidad a ser aplicada al subtitulo antes mencionado, creada por la unidad 122 de creación de información de disparidad como se describe anteriormente .
Aquí, la información de desplazamiento "Disparidadl" de la RP del ojo izquierdo y la información de desplazamiento "Disparidadl" de la RP del ojo* derecho se determinan tal que sus valores absolutos sean iguales entre si, y una diferencia entre las mismas corresponda a la información de disparidad. Por ejemplo, cuando el formato de transmisión de los datos de imagen estereoscópica es el formato lado a lado, un valor correspondiente a la información de disparidad es "Disparidad/2". Por ejemplo, cuando el formato de transmisión de los datos de imagen estereoscópica es el formato superior e inferior, el valor correspondiente a la información de disparidad se establece a "Disparidad".
Adicionalmente, la información de desplazamiento incluye, por ejemplo, la información de desplazamiento para mover en proporciones iguales las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho. La unidad 124 de generación de información de control de despliegue genera la información de desplazamiento, por ejemplo, con base en la manipulación del usuario o automáticamente.
La unidad 124 de generación de información de control de despliegue puede generar información de desplazamiento secuencialmente actualizada en cada cuadro para un número predeterminado de periodos de cuadros para el cual se despliega un subtitulo como la información de desplazamiento antes mencionada. A partir de ahora, por el propósito de brevedad, la información de desplazamiento en cada cuadro para un número predeterminado de periodos de cuadros se referirá como un "grupo de información de desplazamiento". En la presente modalidad, la información de desplazamiento de cada cuadro incluida en el grupo de información de desplazamiento incluye la información de corrimiento para la información de desplazamiento del cuadro previo de modo que se suprime una cantidad de datos.
En la presente modalidad, la unidad 124 de generación de información de control de despliegue genera la información de desplazamiento antes mencionada a fin de tener un nivel de precisión de sub-pixeles. En este caso, la información de desplazamiento incluye una porción de número entero y una porción de número decimal como se ilustra en la Figura 8(a). Adicionalmente , los sub-pixeles se obtienen subdividiendo los pixeles (pixel entero) de una imagen digital.
Si la información de desplazamiento tiene un nivel de precisión de sub-pixeles, es posible realizar el ajuste de desplazamiento de las posiciones de despliegue del subtitulo del ojo izguierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho en el lado del receptor con un nivel de precisión de sub-pixeles. La Figura 8(b) ilustra esquemáticamente un ejemplo del ajuste de desplazamiento con un nivel de precisión de sub-pixeles, en el cual una posición de despliegue de un subtitulo en la partición de la región se ajusta en desplazamiento desde una posición de linea sólida hasta una posición de linea punteada.
Adicionalmente, los datos de subtítulos incluyen segmentos tales como un segmento de definición de despliegue (DDS) , un segmento de composición de página (PCS), un segmento de composición de región (RCS) , y un segmento de datos de objeto (ODS) . El DDS define un tamaño del despliegue HDTV. El PCS define una posición de una región en una página. El RCS define un tamaño de una región, un modo de codificación de un objeto, y una posición inicial de un objeto. El ODS incluye datos de pixeles codificados.
En la presente modalidad, un segmento de composición de la partición de la región (RPCS) está recién definido. Adicionalmente, la información de control de despliegue generada por la unidad 124 de generación de información de control de despliegue se inserta en el segmento RPCS como se describe anteriormente. El procesamiento de la unidad 123 de procesamiento de subtítulos se describirá en detalle debajo.
El codificador 125 de subtítulos genera un flujo de datos de subtítulos (flujo elemental de subtítulos) que incluye la información de control de despliegue y los datos de subtítulos de imagen estereoscópica proporcionados como salida a partir de la unidad 123 de procesamiento de subtítulos. El multiplexor 126 multiplexa cada flujo de datos del codificador 119 de video, el codificador 120 de audio, y el codificador 125 de subtítulos para obtener un flujo de datos multiplexados como datos de flujo de bitios BSD (flujo de transporte) .
En la presente modalidad, el multiplexor 126 inserta, dentro del flujo de datos de subtítulos, información de identificación para identificar que se incluyen los datos de subtítulos de imagen estereoscópica. Específicamente, "Flujo_contenido (?0?03' = DVBsubtitulos) & Componente_tipo (para objetivo 3D)" se describe en el Componente_Descriptor insertado en una tabla de información de evento (EIT) . "Componente_tipo (para objetivo 3D) " está recién definido para describir los datos de subtítulos de imagen estereoscópica.
La operación de la unidad 110 de generación de datos de transmisión de la Figura 2 se describirá en resumen. La cámara 111L captura la imagen del ojo izquierdo. Los datos de imagen del ojo izquierdo para desplegar una imagen estereoscópica obtenidos por la cámara 111L se suministran a la unidad 112 de alineación de cuadros de video. Adicionalmente, la cámara 111R captura la imagen del ojo derecho. Los datos de imagen del ojo derecho para desplegar una imagen estereoscópica obtenidos por la cámara 111R se suministran a la unidad 112 de alineación de cuadros de video. En la unidad 112 de alineación de cuadros de video, los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho se procesan en un estado conforme al formato de transmisión para obtener los datos de imagen estereoscópica (refiérase a las Figuras 4 (a) a (c) ) .
Los datos de imagen estereoscópica obtenidos por la unidad 112 de alineación de cuadros de video se suministran a una terminal estacionaria en el lado a del conmutador 116. Adicionalmente, los datos de imagen estereoscópica obtenidos por la unidad 115 de extracción de datos se suministran a una terminal estacionaria en el lado b del conmutador 116. En un modo en vivo, el conmutador 116 se conecta al lado a, y los datos de imagen estereoscópica obtenidos por la unidad 112 de alineación de cuadros de video se extraen a partir del conmutador 116. En un modo de reproducción, el conmutador 116 se conecta al lado b, y los datos de imagen estereoscópica proporcionados como salida a partir de la unidad 115 de extracción de datos se extraen a partir del conmutador 116.
Los datos de imagen estereoscópica extraídos a partir del conmutador 116 se suministran al codificador 119 de video. En el codificador 119 de video, se realiza la codificación tal como MPEG4-AVC, MPEG2, VC-1, y similares para los datos de imagen estereoscópica para generar un flujo de datos de video que incluye los datos de video codificados. El flujo de datos de video se suministra al multiplexor 126.
Los datos de audio obtenidos por el micrófono 114 se suministran a una terminal estacionaria en el lado a del conmutador 118. Adicionalmente, los datos de audio obtenidos por la unidad 115 de extracción de datos se suministran a una terminal estacionaria en el lado b del conmutador 118. En un modo en vivo, el conmutador 118 se conecta al lado a, y los datos de audio obtenidos por el micrófono 114 se extraen a partir del conmutador 118. En un modo de reproducción, el conmutador 118 se conecta al lado b, y los datos de audio proporcionados como salida a partir de la unidad 115 de extracción de datos se extraen a partir del conmutador 118.
Los datos de audio extraídos por el conmutador 118 se suministran al codificador 120 de audio. En el codificador 120 de audio, se realiza la codificación tal como AAC de Audio MPEG-2 o AAC MPEG-4 para los datos de audio para generar un flujo de datos de audio que incluye los datos de audio codificados. El flujo de datos de audio se suministra al multiplexor 126.
Los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho obtenidos por las cámaras 111L y 111R, respectivamente, se suministran a la unidad 113 de detección del vector de disparidad a través de la unidad 112 de alineación de cuadros de video. En la unidad 113 de detección del vector de disparidad, los vectores de disparidad de cada pixel se detectan con base en los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho. El vector de disparidad se suministra a una terminal estacionaria en el lado a del conmutador 117. Adicionalmente, el vector de disparidad de cada pixel proporcionado como salida a partir de la unidad 115 de extracción de datos se suministra a una terminal estacionaria en el lado b del conmutador 117.
En un modo en vivo, el conmutador 117 se conecta al lado a, y los vectores de disparidad de cada pixel obtenidos por la unidad 113 de detección del vector de disparidad se extraen a partir del conmutador 117. En un modo de reproducción, el conmutador 117 se conecta al lado b, y los vectores de disparidad de cada pixel proporcionados como salida a partir de la unidad 115 de extracción de datos se extraen a partir del conmutador 117.
En la unidad 121 de generación de subtítulos, se generan los datos de subtítulos (para una imagen 2D) como los datos de encabezamiento de la DVB. Los datos de subtítulos se suministran a la unidad 122 de creación de información de disparidad y a la unidad 123 de procesamiento de subtítulos.
Los vectores de disparidad de cada pixel extraídos a partir del conmutador 117 se suministran a la unidad 122 de creación de información de disparidad. En la unidad 122 de creación de información de disparidad, se realiza un proceso de reducción de tamaño para el vector de disparidad de cada pixel para crear la información de disparidad (vector de disparidad horizontal = Disparidad) a ser aplicada al subtitulo. Esta información de disparidad se suministra a la unidad 123 de procesamiento de subtítulos.
En la unidad 123 de procesamiento de subtítulos, los datos de subtítulos de imagen 2D generados por la unidad 121 de generación de subtítulos se convierten en los datos de subtítulos de imagen estereoscópica conforme al formato de transmisión de los datos de imagen estereoscópica extraídos por el conmutador 116 anteriormente descrito. Estos datos de subtítulos de imagen estereoscópica incluyen datos de subtítulos del ojo izquierdo y datos de subtítulos del ojo derecho .
La unidad 124 de generación de información de control de despliegue de la unidad 123 de procesamiento de subtítulos genera información de control de despliegue que incluye la información de desplazamiento y la información de área de la partición de la región. La partición de la región incluye la partición de la región del ojo izquierdo (RP del ojo izquierdo) y la partición de la región del ojo derecho (RP del ojo derecho) como se describe anteriormente. Por esta razón, como la información de área, se generan la información de área de la RP del ojo izquierdo y la información de área de la RP del ojo derecho. De modo semejante, como la información de desplazamiento, se generan la información de desplazamiento de la RP del ojo izquierdo y la información de desplazamiento de la RP del ojo derecho.
Como se describe anteriormente, la RP del ojo izquierdo se establece, por ejemplo, con base en la manipulación del usuario o automáticamente, en un área que incluye una parte de o toda el área, en la imagen del ojo izquierdo donde se superpone el subtítulo del ojo izquierdo utilizando datos de subtítulos de imagen estereoscópica (datos de información de superposición de transmisión) . De modo semejante, la RP del ojo derecho se establece, con base en la manipulación del usuario o automáticamente, en un área que incluye una parte de o toda el área en la imagen del ojo derecho donde se superpone el subtítulo del ojo derecho utilizando los datos de subtítulos de imagen estereoscópica (datos de información de superposición de transmisión) .
Por ejemplo, la información de desplazamiento incluye la información de desplazamiento para asignar disparidad a las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho. La unidad 124 de generación de información de control de despliegue genera la información de desplazamiento, por ejemplo, con base en la información de disparidad a ser aplicada al subtítulo, creada por la unidad 122 de creación de información de disparidad. Por ejemplo, la información de desplazamiento incluye la información de desplazamiento para mover en proporciones iguales las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho de la RP del ojo derecho. La unidad 124 de generación de información de control de despliegue genera la información de desplazamiento, por ejemplo, con base en la manipulación del usuario o automáticamente. Los datos de subtítulos de imagen estereoscópica y la información de control de despliegue obtenidos por la unidad 123 de procesamiento de subtítulos se suministran al codificador 125 de subtítulos. El codificador 125 de subtítulos genera el flujo de datos de subtítulos que incluye la información de control de despliegue y los datos de subtítulos de imagen estereoscópica. Este flujo de datos de subtítulos incluye el RPCS recién definido que incluye la información de control de despliegue junto con los segmentos tales como DDS, PCS, RCS, u ODS donde se insertan los datos de subtítulos de imagen estereoscópica .
Cada flujo de datos del codificador 119 de video, el codificador 120 de audio, y el codificador 125 de subtítulos se suministra al multiplexor 126 como se describe anteriormente. Adicionalmente, en el multiplexor 126, cada flujo de datos es paquetizado y multiplexado para obtener el flujo de datos multiplexados como datos de flujo de bitios BSD (flujo de transporte) .
La Figura 9 ilustra una configuración ejemplar del flujo de transporte (datos de flujo de bitios) . En el flujo de transporte, se incluye un paquete PES obtenido mediante paquetización de cada flujo elemental. El presente ejemplo de configuración incluye un paquete PES "PES de Video" del flujo elemental de video, un paquete PES "PES de Audio" del flujo elemental de audio, y un paquete PES "PES de Subtítulos" del flujo elemental de subtítulos.
En la presente modalidad, el flujo elemental de subtítulos (flujo de datos de subtítulos) incluye los datos de subtítulos de imagen estereoscópica y la información de control de despliegue. Este flujo incluye segmentos convencionales tales como un segmento de definición de despliegue (DDS), un segmento de composición de página (PCS), un segmento de composición de región (RCS) , y un segmento de datos de objeto (ODS) ya conocidos en el arte.
La Figura 10 ilustra la sintaxis de página_composición_segmento (PCS) . El tipo de segmento del PCS es "0x10" como se ilustra en la Figura 11. "región_horizontal_dirección" y "región_vertical_dirección" representan las posiciones iniciales de la región. Adicionalmente, la sintaxis no se proporciona como dibujo para otros segmentos tales como DDS, RCS, y ODS. Por ejemplo, como se ilustra en la Figura 11, el tipo de segmento de DDS es "0x14". Por ejemplo, como se ilustra en la Figura 11, el tipo de segmento de RCS es "0x11". Por ejemplo, como se ilustra en la Figura 11, el tipo de segmento de ODS es "0x13".
Estos datos de subtítulos incluyen un segmento de composición de la partición de la región (RPCS) . El RPCS incluye información de la partición de la región (información de área e información de desplazamiento) . Por ejemplo, como se ilustra en la Figura 11, el tipo de segmento del RPCS es "0x49". La sintaxis del segmento RPCS se describirá en detalle debajo.
Regresando a la Figura 9, el flujo de transporte incluye una tabla de asignación de programa (PMT) como información específica del programa (PSI). La PSI es la información que representa a cuál programa pertenece cada flujo elemental incluido en el flujo de transporte. Adicionalmente, el flujo de transporte incluye una tabla de información de evento (EIT) como información reparada (SI) administrada en una base de eventos. Los metadatos en una base de programas se describen en la EIT.
En la PMT, hay un descriptor de programa para describir la información referente al programa completo. Adicionalmente, en la PMT, hay un lazo elemental que tiene información referente a cada flujo elemental. En este ejemplo de configuración, hay un lazo elemental de video, un lazo elemental de audio, y un lazo elemental de subtítulo. En cada lazo elemental, la información tal como un identificador de paquetes (PID) se dispone para cada flujo, y, aunque no se ilustra en los dibujos, también se dispone un descriptor para describir la información referente al flujo elemental.
Un descriptor de componente (Componente_Descriptor ) se inserta en la EIT. En la presente modalidad, "Fluj o_contenido ('0x03' = subtítulos DVB) & Componente_tipo (para objetivo 3D) " se describe en el descriptor de componente. Como resultado, es posible identificar que los datos de subtítulos de imagen estereoscópica se incluyen en el flujo de datos de subtítulos. En la presente modalidad, si el "fluj o_contenido" del "componente_descriptor" que representa el contenido de entrega describe los subtítulos como se ilustra en la Figura 12, la información (Componente_tipo = 0x15, 0x25) que representa un formato del subtítulo 3D está recién definida. [Procesamiento en la Unidad de Procesamiento de Subtítulos] El procesamiento de la unidad 123 de procesamiento de subtítulos de la unidad 110 de generación de datos de transmisión ilustrada en la Figura 2 se describirá en detalle. La unidad 123 de procesamiento de subtítulos convierte los datos de subtítulos de imagen 2D en datos de subtítulos de imagen estereoscópica como se describe anteriormente. Adicionalmente, la unidad 123 de procesamiento de subtítulos genera información de control de despliegue (que incluye información de área de la RP del ojo izquierdo y de la RP del ojo derecho e información de desplazamiento) en la unidad 124 de generación de información de control de despliegue como se describe anteriormente.
Por ejemplo, el "Caso A" y el "Caso B" serán considerados para la sintaxis de los datos de subtítulos (incluyendo la información de control de despliegue) creados por la unidad 123 de procesamiento de subtítulos y transmitidos como se ilustra en la Figura 13. En la sintaxis del "Caso A", un conjunto de segmentos asociados con el despliegue de subtítulos de DDS, PCS, RCS, ODS, RPCS, y EDS se crean antes de que se inicie un número predeterminado de periodos de cuadros para desplegar los subtítulos, y se agrega información de tiempo (PTS) de modo que se transmitan colectivamente. A partir de ahora, un número predeterminado de periodos de cuadros para desplegar los subtítulos se referirá como un "periodo de despliegue de subtítulos".
En la sintaxis del "Caso A", las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho se pueden controlar dinámicamente insertando información de desplazamiento (grupo de información de desplazamiento) secuencialmente actualizada en cada cuadro del periodo de despliegue de subtítulos dentro del segmento RPCS. Como resultado, en el lado del receptor, es posible cambiar dinámicamente la disparidad asignada a una parte de o todos los subtítulos en sincronización con el cambio del contenido de la imagen o cambiar dinámicamente las posiciones de despliegue de una parte de o todos los subtítulos.
En la sintaxis del "Caso A", para insertar la información de desplazamiento (grupo de información de desplazamiento) secuencialmente actualizada en cada cuadro del periodo de despliegue de subtítulos dentro del segmento RPCS, es necesario proporcionar el grupo de información de desplazamiento en un bloque antes del periodo de despliegue de subtítulos. Por esta razón, en la sintaxis del "Caso A", un método para controlar dinámicamente las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho insertando el grupo de información de desplazamiento dentro del segmento RPCS, se puede aplicar en un modo de reproducció .
En la sintaxis del "Caso B", un conjunto de segmentos asociados con el despliegue de subtítulos de DDS, PCS, RCS, ODS, y RPCS se crean antes de que se inicie un número predeterminado de periodos de cuadros (periodo de despliegue de subtítulos) para desplegar los subtítulos, y se agrega la información de tiempo (PTS) de modo que se transmitan colectivamente. Posteriormente, el segmento RPCS en el cual se actualiza secuencialmente la información de desplazamiento del mismo, se crea en cada cuadro del periodo de despliegue de subtítulos, y se agrega la información de tiempo (PTS) de modo que se transmitan. Adicionalmente, el segmento EDS se crea junto con el segmento RPCS en el último cuadro, y se agrega la información de tiempo (PTS) de modo que se transmitan.
En la sintaxis del "Caso B", debido a que el segmento RPCS en el cual se actualiza secuencialmente la información de desplazamiento se transmite en cada cuadro del periodo de despliegue de subtítulos, es posible controlar dinámicamente las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho. Como resultado, en el lado del receptor, es posible cambiar dinámicamente la disparidad asignada a una parte de o todo el subtitulo en sincronización con el cambio del contenido de la imagen o cambiar dinámicamente las posiciones de despliegue de una parte de o todo el subtítulo.
En la sintaxis del "Caso B", a diferencia de la sintaxis del "Caso A" anteriormente descrito, no es necesario proporcionar el grupo de información de desplazamiento en un bloque antes del periodo de despliegue de subtítulos. Por esta razón, en la sintaxis del "Caso B", un método para controlar dinámicamente la posición de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho transmitiendo secuencialmente el segmento RPCS en el cual se actualiza secuencialmente la información de desplazamiento, se puede aplicar apropiadamente en un modo en vivo.
En la sintaxis del "Caso B", es necesario proporcionar el control de encendido/apagado del despliegue en el lado del receptor como se describe debajo en el método para controlar dinámicamente las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho. Es decir, el control de encendido/apagado del despliegue es el control para encender (validar) el despliegue con base en la información de desplazamiento en el segmento RPCS para cualquier cuadro y apagar (invalidar) el despliegue con base en la información de desplazamiento en el segmento RPCS para el cuadro previo.
Para el control de encendido/apagado del despliegue en el lado del receptor, aunque se describe en detalle debajo, el segmento RPCS incluye información de comando para controlar el encendido/apagado del despliegue. Un ejemplo del control de encendido/apagado del despliegue en el lado del receptor se describirá con referencia a las Figuras 14 y 15.
La Figura 14 ilustra un ejemplo del segmento RPCS secuencialmente transmitido al lado del receptor. En este ejemplo, los RPCSs correspondientes a cada uno de los cuadros TO, TI, y T2 se transmiten secuencialmente. La Figura 15 ilustra un ejemplo en el cual las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho se desplazan utilizando los RPCSs correspondientes a cada uno de los cuadros TO, TI, y T2.
Como se ilustra en la Figura 14, el RPCS del cuadro TO incluye información de desplazamiento ( Desplazamiento_0 ) para obtener una posición PRO de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo e información de comando (Despliegue_ENCENDIDO) para encender (validar) el despliegue de la posición PRO de despliegue. Adicionalmente, el RPCS del cuadro TO incluye información de desplazamiento ( Desplazamiento_l ) para obtener la posición PRl de despliegue del subtitulo del ojo derecho en la RP del ojo derecho e información de comando ( Despliegue_ENCENDIDO) para encender (validar) el despliegue de la posición PRl de despliegue.
Por esta razón, en el cuadro TO, como se indica por el cuadro de linea sólida de la Figura 15(a), el subtitulo del ojo izquierdo en la RP del ojo izquierdo se despliega sobre (se superpone con) la posición PRO de despliegue en la imagen del ojo izquierdo. Adicionalmente, en el cuadro TO, como se indica por el cuadro de linea sólida de la Figura 15(a), el subtitulo del ojo derecho en la RP del ojo derecho se despliega sobre (se superpone con) la posición PP1 de despliegue en la imagen del ojo derecho.
Como se ilustra en la Figura 14, el RPCS del cuadro TI incluye información de comando ( Despliegue_APAGAR) para apagar (invalidar) el despliegue de las posiciones PRO y PRl de despliegue. Adicionalmente, el RPCS del cuadro TI incluye información de desplazamiento ( Desplazamiento_2 ) para obtener la posición PR2 de despliegue de los subtítulos en la RP del ojo izquierdo e información de comando (Despliegue_ENCENDIDO) para encender (validar) el despliegue de la posición PR2 de despliegue. Adicionalmente, el RPCS del cuadro TI incluye información de desplazamiento (Desplazamiento_3) para obtener la posición PR3 de despliegue de los subtítulos en la RP del ojo derecho e información de comando (Despliegue_ENCENDIDO) para encender (validar) el despliegue de la posición PR3 de despliegue .
Por esta razón, en el cuadro TI, como se indica por el cuadro de línea punteada de la Figura 15(b), el despliegue de la posición PRO de despliegue en la imagen del ojo izquierdo se apaga (invalida), y el despliegue de la posición PR1 de despliegue en la imagen del ojo derecho se apaga (invalida) . En el cuadro TI, como se indica por el cuadro de línea sólida de la Figura 15(b), el subtítulo del ojo izquierdo en la RP del ojo izquierdo se despliega sobre (se superpone con) la posición PR2 de despliegue en la imagen del ojo izquierdo. En el cuadro TI, como se indica por el cuadro de línea sólida de la Figura 15(b), el subtítulo del ojo derecho en la RP del ojo derecho se despliega sobre (se superpone con) la posición PP3 de despliegue en la imagen del ojo derecho.
Como se ilustra en la Figura 14, el RPCS del cuadro T2 incluye información de comando ( Despliegue_APAGAR) para apagar (invalidar) el despliegue de las posiciones PR2 y PR3 de despliegue. Adicionalmente, el RPCS del cuadro T2 incluye información de desplazamiento ( Desplazamiento_ ) para obtener la posición PR4 de despliegue de los subtítulos en la RP del ojo izquierdo e información de comando (Despliegue_ENCENDIDO) para encender (validar) el despliegue de la posición PR4 de despliegue. Adicionalmente, el RPCS del cuadro T2 incluye información de desplazamiento ( Desplazamiento_5 ) para obtener la posición PR5 de despliegue de los subtítulos en la RP del ojo derecho e información de comando ( Despliegue_ENCENDIDO) para encender (validar) el despliegue de la posición PR5 de despliegue .
Por esta razón, en el cuadro T2, como se indica por el cuadro de línea punteada de la Figura 15(c), el despliegue de la posición PR2 de despliegue en la imagen del ojo izquierdo se apaga (invalida) , y el despliegue de la posición PR3 de despliegue en la imagen del ojo derecho se apaga (invalida) . En el cuadro T2, como se indica por el cuadro de línea sólida de la Figura 15(c), el subtítulo del ojo izquierdo en la RP del ojo izquierdo se despliega sobre (se superpone con) la posición PR4 de despliegue en la imagen del ojo izquierdo. Adicionalmente, en el cuadro T2, como se indica por el cuadro de línea sólida de la Figura 15(c), el subtítulo del ojo derecho en la RP del ojo derecho se despliega sobre (se superpone con) la posición PP5 de despliegue en la imagen del ojo derecho.
La Figura 16 ilustra un ejemplo de despliegue del subtítulo del ojo izquierdo y del subtítulo del ojo derecho en el lado del receptor, por ejemplo, cuando la información de comando para controlar el encendido/apagado del despliegue no se incluye en el segmento RPCS. En este caso, el subtítulo en la RP del ojo izquierdo se despliega de manera superpuesta sobre (se superpone con) las posiciones PRO, PR2, y PR4 de despliegue. Adicionalmente, el subtítulo en la RP del ojo derecho se despliega de manera superpuesta sobre (se superpone con) las posiciones PR1, PR3, y PR5 de despliegue. De esta manera, el cambio dinámico de las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho no se realiza apropiadamente.
La Figura 17 ilustra conceptualmente un método de creación de datos de subtítulos de imagen estereoscópica cuando el formato de transmisión de los datos de imagen estereoscópica es el formato lado a lado. La Figura 17(a) ilustra una región para los datos de subtítulos de imagen 2D. En este ejemplo, tres objetos se incluyen en la región.
Inicialmente, la unidad 123 de procesamiento de subtítulos convierte un tamaño de la región para los datos de subtítulos de imagen 2D anteriormente descritos en un tamaño apropiado para el formato lado a lado como se ilustra en la Figura 17 (b) para generar datos de mapa de bitios de ese tamaño .
Posteriormente, la unidad 123 de procesamiento de subtítulos designa los datos de mapa de bitios después de la conversión de tamaño como un elemento de la región en los datos de subtítulos de imagen estereoscópica como se ilustra en la Figura 17(c). Es decir, los datos de mapa de bitios después de la conversión de tamaño se designan como un objeto correspondiente al subtítulo del ojo izquierdo en la región y un objeto correspondiente al subtítulo del ojo derecho en la región.
La unidad 123 de procesamiento de subtítulos convierte los datos de subtítulos de imagen 2D en la forma de datos de subtítulos de imagen estereoscópica como se describe anteriormente y crea segmentos tales como DDS, PCS, RCS, y ODS correspondientes a los datos de subtítulos de imagen estereoscópica .
Posteriormente, la unidad 123 de procesamiento de subtítulos establece la RP del ojo izquierdo y la RP del ojo derecho en la región de los datos de subtítulos de imagen estereoscópica con base en la manipulación del usuario o automáticamente como se ilustra en la Figura 17 (c) . La RP del ojo izquierdo se establece como un área que incluye una parte de o toda el área del objeto correspondiente al subtítulo del ojo izquierdo. La RP del ojo derecho se establece como un área que incluye una parte de o toda el área del objeto correspondiente al subtitulo del ojo derecho. La Figura 17(c) ilustra un caso donde la RP del ojo izquierdo y la RP derecha se establecen como un área que incluye una parte del área del obj eto .
La unidad 123 de procesamiento de subtítulos crea el segmento RPCS que incluye la información de desplazamiento y la información de área de la RP del ojo izquierdo y de la RP del ojo derecho establecida como se describe anteriormente. Por ejemplo, la unidad 123 de procesamiento de subtítulos crea el RPCS que incluye comúnmente la información de desplazamiento y la información de área de la RP del ojo izquierdo y de la RP del ojo derecho o crea el segmento RPCS que incluye individualmente la información de desplazamiento y la información de área de la RP del ojo izquierdo y de la RP del ojo derecho.
La Figura 18 ilustra un ejemplo de la región y el objeto para los datos de subtítulos de imagen estereoscópica creados como se describe anteriormente. Aquí, la posición inicial de la región se establece a "Región_dirección" . Adicionalmente, para el objeto en el lado de la imagen del ojo izquierdo (vista izquierda) , la posición inicial se establece a "Objeto_Posiciónl", y "Objeto_id = 1". Adicionalmente, para el objeto en el lado de la imagen del ojo derecho (vista derecha) , la posición inicial se establece a "Objeto_Posición2", y "Objeto_id = 1".
La Figura 18 ilustra un ejemplo de la RP del ojo izquierdo y la RP del ojo derecho establecidas como se describe anteriormente. Para la RP del ojo izquierdo, la posición inicial se establece a "Partición de la Región_Posiciónl" , y "Partición de la Región_id = SAO". Para la RP del ojo derecho, la posición inicial se establece a "Partición de la región_posición2" , y "Partición de la Región_id = SAI" La Figura 19 ilustra un ejemplo (Ejemplo 1) para crear cada segmento de los datos de subtítulos de imagen estereoscópica cuando el formato de transmisión de los datos de imagen estereoscópica es el formato lado a lado. En este ejemplo, la posición inicial (región_dirección) de la región (Región_id = OA) se designa en el segmento de composición de página (PCS) . Adicionalmente, en el segmento de composición de región (RCS) del "Región_id = 0", el ODS del "Objeto_id = 1" es referido. Adicionalmente, la posición inicial "obj eto_posiciónl" del objeto en el lado de la imagen del ojo izquierdo y la posición inicial "objeto_posición2" del objeto en el lado de la imagen del ojo derecho se designan en el RCS.
En este ejemplo, los segmentos de composición de la partición de la región (RPCS) de la RP del ojo izquierdo y de la RP del ojo derecho se crean por separado. La posición inicial (Partición de la Región_Posiciónl ) de la RP del ojo izquierdo se designa en el RPCS de la RP del ojo izquierdo del "Partición de la Región_id = SAO". Adicionalmente, el RPCS de la RP del ojo izquierdo incluye información de desplazamiento ( Desplazamientol ) de la RP del ojo izquierdo e información de comando (Comandol) para el encendido/apagado del despliegue. Adicionalmente, la posición inicial (Partición de la región_Posición2 ) de la RP del ojo derecho se designa en el RPCS de la RP del ojo derecho del "Partición de la Región_id = SAI". Adicionalmente, el RPCS de la RP del ojo derecho incluye información de desplazamiento (Desplazamiento2) de la RP del ojo derecho e información de comando (Comando2) para el encendido/apagado del despliegue.
La Figura 20 ilustra otro ejemplo (Ejemplo 2) para crear cada segmento de los datos de subtítulos de imagen estereoscópica cuando el formato de transmisión de los datos de imagen estereoscópica es el formato lado a lado. En este ejemplo,- de modo similar al ejemplo de la Figura 19 (Ejemplo 1), se crean segmentos tales como PCS, RCS, y ODS. En este ejemplo, los RPCSs de la RP del ojo izquierdo y de la RP del ojo derecho se crean comúnmente. Es decir, el RPCS común incluye diversos tipos de información de la RP del ojo izquierdo y de la RP del ojo derecho.
La Figura 21 ilustra conceptualmente un método de creación de los datos de subtítulos de imagen estereoscópica cuando el formato de transmisión de los datos de imagen estereoscópica es el formato superior e inferior. La Figura 21(a) ilustra una región para los datos de subtítulos de imagen 2D. En este ejemplo, la región incluye tres objetos.
Inicialmente, la unidad 123 de procesamiento de subtítulos convierte un tamaño de la región para los datos de subtítulos de imagen 2D anteriormente descritos en un tamaño apropiado para el formato superior e inferior como se ilustra en la Figura 21(b) para generar datos de mapa de bitios de ese tamaño .
Posteriormente, la unidad 123 de procesamiento de subtítulos designa los datos de mapa de bitios después de la conversión de tamaño como un elemento de la región de los datos de subtítulos de imagen estereoscópica como se ilustra en la Figura 21(c). Es decir, los datos de mapa de bitios después de la conversión de tamaño se designan como un objeto de la región en el lado de la imagen del ojo izquierdo (vista izquierda) y un objeto de la región en el lado de la imagen del ojo derecho (vista derecha) .
La unidad 123 de procesamiento de subtítulos convierte los datos de subtítulos de imagen 2D en la forma de datos de subtítulos de imagen estereoscópica como se describe anteriormente y crea segmentos tales como PCS, RCS, y ODS correspondientes a los datos de subtítulos de imagen estereoscópica .
Posteriormente, la unidad 123 de procesamiento de subtítulos establece la RP del ojo izquierdo y la RP del ojo derecho en el área de la región en los datos de subtítulos de imagen estereoscópica con base en la manipulación del usuario o automáticamente como se ilustra en la Figura 21(c) . La RP del ojo izquierdo se establece como un área que incluye una parte de o toda el área del objeto en la región en el lado de la imagen del ojo izquierdo. La RP del ojo derecho se establece como un área que incluye una parte de o toda el área del objeto en la región en el lado de la imagen del ojo izquierdo. La Figura 21(c) ilustra un caso donde la RP del ojo izquierdo y la RP derecha se establecen como el área que incluye una parte del área del objeto.
La unidad 123 de procesamiento de subtítulos crea el segmento RPCS que incluye la información de desplazamiento y la información de área de la RP del ojo izquierdo y de la RP del ojo derecho establecida como se describe anteriormente. Por ejemplo, la unidad 123 de procesamiento de subtítulos crea el RPCS que incluye comúnmente la información de desplazamiento y la información de área de la RP del ojo izquierdo y de la RP del ojo derecho o crea el segmento RPCS que incluye individualmente la información de desplazamiento y la información de área de la RP del ojo izquierdo y de la RP del ojo derecho.
La Figura 22 ilustra un ejemplo del objeto y la región para los datos de subtítulos de imagen estereoscópica creados como se describe anteriormente. Aquí, la posición inicial de la región en el lado de la imagen del ojo izquierdo (vista izquierda) se establece a "Región_direcciónl" , y la posición inicial de la región en el lado de la imagen del ojo derecho (vista derecha) se establece a "Región_dirección2" . Adicionalmente, para el objeto en el lado de la imagen del ojo izquierdo, la posición inicial se establece a "Objeto_Posiciónl", y "Objeto_id = 1". Adicionalmente, para el objeto en el lado de la imagen del ojo derecho, la posición inicial se establece a "0bjeto_Posición2", y "Objeto_id = 1".
La Figura 22 ilustra un ejemplo de la RP del ojo izquierdo y de la RP del ojo derecho establecidas como se describe anteriormente. Para la RP del ojo izquierdo, la posición inicial se establece a "Partición de la Región_Posiciónl", y "Partición de la Región_id = SAO". Para la RP del ojo derecho, la posición inicial se establece a "Partición de la Región_posición2", y "Partición de la Región_id = SAI".
La Figura 23 ilustra un ejemplo (Ejemplo 1) para crear cada segmento de los datos de subtítulos de imagen estereoscópica cuando el formato de transmisión de los datos de imagen estereoscópica es el formato superior e inferior. En este ejemplo, la posición inicial ( región_direcciónl ) de la región (Región_id = 0A) en el lado de la imagen del ojo izquierdo (vista izquierda) se designa en el segmento de composición de página (PCS). Adicionalmente, en este ejemplo, la posición inicial ( región_dirección2 ) de la región (Región_id = OA) en el lado de la imagen del ojo derecho (vista derecha) se designa en el segmento de composición de página (PCS) . En el segmento de composición de región (RCS) de "Región_id = AO", el ODS de "Objeto_id = 1" es referido, y se designa la posición inicial "obj eto_posiciónl" de ese objeto. Adicionalmente, en el RCS de "Región_id = Al", el ODS de "Objeto_id = 1" es referido, y se designa la posición inicial "objeto_posición2" de ese objeto.
En este ejemplo, los segmentos de composición de la partición de la región (RPCS) de la RP del ojo izquierdo y la RP del ojo derecho se crean por separado. En el RPCS de la RP del ojo izquierdo de "Partición de la Región_id = SAO", se designa la posición inicial (Partición de la Región_Posiciónl) de la RP del ojo izquierdo. Adicionalmente, el RPCS de la RP del ojo izquierdo incluye información de desplazamiento (Desplazamientol) de la RP del ojo izquierdo e información de comando (Comandol) de encendido/apagado del despliegue. Adicionalmente, en el RPCS de la RP del ojo derecho de "Partición de la Región_id = SAI", se designa la posición inicial (Partición de la Región_Posición2 ) de la RP del ojo derecho. Adicionalmente, el RPCS de la RP del ojo derecho incluye información de desplazamiento (Desplazamiento2) de la RP del ojo derecho e información de comando (Comando2) de encendido/apagado del despliegue.
La Figura 24 ilustra otro ejemplo (Ejemplo 2) para crear cada segmento de los datos de subtítulos de imagen estereoscópica cuando el formato de transmisión de los datos de imagen estereoscópica es el formato superior e inferior. En este ejemplo, de modo similar al ejemplo (Ejemplo 1) ilustrado en la Figura 23, se crean segmentos tales como PCS, RCS, y ODS. En este ejemplo, los RPCSs de la RP del ojo izquierdo y de la RP del ojo derecho se crean comúnmente. Es decir, el RPCS común incluye diversos tipos de información de la RP del ojo izquierdo y de la RP del ojo derecho.
Las Figuras 25 a 30 ilustran la sintaxis ejemplar del segmento de composición de la partición de la región (RPCS) . Las Figuras 31 y 32 ilustran la semántica principal de los datos del RPCS. Esta sintaxis incluye diversos tipos de información tal como "Sincr_byte", "segmento_tipo", "página_id", "segmento_longitud", y "Región_Partición_datos útiles ()". El "segmento_tipo" son datos de 8 bitios que representan un tipo de segmento y se establece a "0x49" indicando el RPCS aquí. El "segmento_longitud" son datos de 8 bitios que representan una longitud (tamaño) del segmento. Estos datos representan una longitud (número de bitios) de los "Región_Partición_datos útiles ()" después.
"Región_Partición_datos útiles ()" es una parte que incluye información sustancial del RPCS.
La Figura 26 ilustra un primer ejemplo de la sintaxis de "Región_Partición_datos útiles ()". En el primer ejemplo de la sintaxis, se puede transmitir la información de área de la RP del ojo izquierdo y de la RP del ojo derecho, la información de disparidad asignada a las posiciones de despliegue de la RP del ojo izquierdo y de la RP del ojo derecho, y la información de comando para controlar el encendido/apagado del despliegue. Estos "Región_Partición_datos útiles ()" pueden tener una longitud indicada por el "segmento_tipo" como se describe anteriormente y cualquier número de piezas de información de la partición de la región. Esto se aplica de modo semejante al segundo y tercer ejemplos de la sintaxis descritos debajo. "región_id" es la información de 8 bitios que representa un identificador de la región. "región_partición_id" es la información de 8 bitios que representa un identificador de la partición de la región. "región_partición_inicial_posición_horizontal" es la información de 16 bitios que representa una posición del extremo izquierdo de la partición de la región que es un área rectangular. "región_partición_inicial_posición_vertical" es la información de 16 bitios que representa una posición del extremo superior de la partición de la región que es un área rectangular . "región_partición_horizontal_tamaño" es la información de 16 bitios que representa un tamaño horizontal (número de pixeles) de la partición de la- región que es un área rectangular. "región_partición_vertical_tamaño" es la información de 16 bitios que representa un tamaño vertical (número de pixeles) de la partición de la región que es un área rectangular. Tal información de posición e información de tamaño sirven como la información de área de la partición de la región. "región_partición_despliegue_deshabilitar" es la información de indicación de 1 bitio (información de comando) para controlar el encendido/apagado del despliegue (superposición) de la partición de la región correspondiente. "región_partición_despliegue_deshabilitar = 1" representa el apagado (invalidar) del despliegue, y "región_partición_despliegue_deshabilitar = 0" representa el encendido (validar) del despliegue. "disparidad_entero" es la información de 9 bitios que representa una porción de precisión de pixel entero (porción de número entero) de entre la información de disparidad para el desplazamiento de la partición de la región correspondiente en una dirección horizontal. Esta información de 9 bitios es un valor entero señalado, "disparidad_fraccional" es la información de 4 bitios que representa una porción de precisión de sub-pixeles (porción de número decimal) de entre la información de disparidad para el desplazamiento de la partición de la región correspondiente en una dirección horizontal. Debido a esta información de 4 bitios, la información de disparidad se puede representar con un nivel de precisión de sub-pixeles hasta 1/16. Aquí, la información de disparidad sirve como la información de desplazamiento para asignar disparidad a las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho de la RP del ojo derecho como se describe anteriormente.
La Figura 27 ilustra un segundo ejemplo de la sintaxis de "Región_Partición_datos útiles ()". En el segundo ejemplo de la sintaxis, la información de actualización de la posición de despliegue (x, y) se puede transmitir junto con la información de área de la RP del ojo izquierdo y de la RP del ojo derecho, la información sobre la disparidad asignada a las posiciones de despliegue de la RP del ojo izquierdo y de la RP del ojo derecho, y la información de comando para controlar el encendido/apagado del despliegue. "corrimiento_posición_x" es la información de corrimiento de 8 bitios que representa la información de actualización en una dirección horizontal de las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho desde la etapa previa. "corrimiento_posición_y" es la información de corrimiento de 8 bitios que representa la información de actualización en una dirección vertical de las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho desde la etapa previa. Aquí, esta información de movimiento (información de corrimiento) sirve como la información de desplazamiento para mover en proporciones iguales las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho como se describe anteriormente.
Aunque no se proporcionará la descripción detallada, el segundo ejemplo de la sintaxis es similar al primer ejemplo de la sintaxis de la Figura 26 en otro contenido.
Las Figuras 28 a 30 ilustran un tercer ejemplo de la sintaxis de los "Región_Partición_datos útiles ()". En el tercer ejemplo de la sintaxis, se puede transmitir la información de área de la RP del ojo izquierdo y de la RP del ojo derecho, la información sobre la disparidad asignada a las posiciones de despliegue de la RP del ojo izquierdo y la RP del ojo derecho, y la información de comando para controlar el encendido/apagado del despliegue. Adicionalmente, en el tercer ejemplo de la sintaxis, se puede transmitir la información de actualización de la posición de despliegue (x, y) , la información de disparidad, y la información de actualización de las posiciones de despliegue de cada cuadro. "temporal_extensión_tipo" es la información de 2 bitios que representa si o no se incluye la información de disparidad y la información de actualización de la posición de despliegue para cada cuadro. "temporal_extensión_tipo = 00" representa que se incluye la información de actualización del eje x (dirección horizontal de la posición de despliegue) . "temporal_extensión_tipo = 01" representa que se incluye la información de actualización del eje y (dirección vertical de la posición de despliegue) . "temporal_extensión_tipo = 10" representa que se incluye la información de actualización del eje z (información de disparidad) . "cuadro_conteo" representa el número de cuadros en que la información de disparidad y similares se actualizan durante un periodo de cuadros para desplegar el subtitulo. "corrimiento_secuencia" es la información de 2 bitios como la información de corrimiento para la información de disparidad y similares del cuadro previo. "corrimiento_secuencia = 01" representa que el valor de corrimiento se establece a "corrimiento_secuencia = 10" representa que el valor de corrimiento se establece a "-1". Adicionalmente, "corrimiento_secuencia = 11" representa que el valor de corrimiento no se cambia del cuadro previo. Esta "corrimiento_secuencia" sirve como el grupo de información de desplazamiento anteriormente descrito. "corrimiento_precisión" es la información de 3 bitios que representa que el valor de corrimiento indicado por la "corrimiento_secuencia" anteriormente descrita tiene la precisión de "1", es decir, el número de pixeles se establece a "1". Si "corrimiento_precisión = 000", "1" del valor de corrimiento representa 1/16 pixeles. Adicionalmente, si "corrimiento_precisión = 001", "1" del valor de corrimiento representa 1/8 pixeles. Adicionalmente, si "corrimiento_precisión = 010", "1" del valor de corrimiento representa 1/4 pixeles.
Si "corrimiento_precisión = 011", "1" del valor de corrimiento representa 1/2 pixeles. Si "corrimiento_precisión = 100", "1" del valor de corrimiento representa un solo pixel. Si "corrimiento_precisión = 101", "1" del valor de corrimiento representa 2 pixeles. Si "corrimiento_precisión = 110", "1" del valor de corrimiento representa tres pixeles.
Aunque no se proporcionan las descripciones detalladas, el tercer ejemplo de la sintaxis es similar al primer ejemplo de la sintaxis de la Figura 26 y al segundo ejemplo de la sintaxis de la Figura 27 en otro contenido.
La Figura 33 ilustra un ejemplo para actualizar la disparidad asignada a las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho en una base de cuadros en el lado del receptor cuando el formato de transmisión de los datos de imagen estereoscópica es el formato lado a lado. En este ejemplo, la actualización se realiza con base en el grupo de información de desplazamiento del eje x insertado en el RPCS, es decir, el grupo de información de disparidad.
Las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho de la RP del ojo derecho en el cuadro TO inicial se establecen como sigue. Adicionalmente, se asume que la posición inicial de la RP del ojo izquierdo se establece a "RP_horizontal_posiciónl", y la posición inicial de la RP del ojo derecho se establece a "RP_horizontal_posición2" . Adicionalmente, se asume que la información de disparidad del cuadro TO incluida en el PPCS se establece a "Disparidadl (TO ) " y "Disparidad2 (TO ) " . La posición inicial "RP_horizontal_posiciónl (TO ) " para desplegar el subtitulo del ojo izquierdo en la RP del ojo izquierdo se establece a "RP_horizontal_posiciónl + Disparidadl (TO )" . Adicionalmente, la posición inicial "RP_horizontal_posición2 (TO ) " para desplegar el subtitulo del ojo derecho en la RP del ojo derecho se establece a "RP_horizontal_posición2 + Disparidad2 (TO) ".
Las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho del cuadro TI que es un siguiente cuadro se actualizan como sigue. El valor de corrimiento del cuadro TI se establece a "corrimiento_secuencial (TI ) " y "corrimiento_secuencia2 (TI ) " . La posición inicial "RP_horizontal_posiciónl (TI ) " para desplegar el subtítulo del ojo izquierdo en la RP del ojo izquierdo se establece a "RP_horizontal_posiciónl (TO ) + corrimiento_secuencial (TI) " . Adicionalmente, la posición inicial "RP_horizontal_posición2 (TI ) " para desplegar el subtítulo del ojo derecho en la RP del ojo derecho se establece a "RP_horizontal_posición2 (TO ) + corrimiento_secuencia2 (TI) ".
Las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho del cuadro T2 como un siguiente cuadro se actualizan como sigue. El valor de corrimiento del cuadro T2 se establece a "corrimiento_secuencial (T2) " y "corrimiento_secuencia2 (T2) ". La posición inicial "RP_horizontal_posiciónl (T2) " para desplegar el subtítulo del ojo izquierdo en la RP del ojo izquierdo se establece a "RP_horizontal_posiciónl (TI ) + corrimiento_secuencial (T2) " . La posición inicial "RP_horizontal_posición2 (T2 ) " para desplegar el subtítulo del ojo derecho en la RP del ojo derecho se establece a "RP_horizontal_posición2 (TI ) + corrimiento_secuencia2 ( T2 ) " .
A partir de ahora, de modo semejante, en el lado del receptor, las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho en cada cuadro se actualizan secuencialmente con base en el grupo de información de disparidad de la RP del ojo izquierdo y de la RP del ojo derecho insertado en el RPCS.
La Figura 34 ilustra un ejemplo para actualizar la disparidad asignada a las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho en una base de cuadros en el lado del receptor cuando el formato de transmisión de los datos de imagen estereoscópica es el formato lado a lado. En este ejemplo, la actualización se realiza con base en la información de disparidad incluida en el RPCS transmitido en respuesta a cada cuadro.
Las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho para el cuadro T0 inicial se establecen como sigue. Además, la posición inicial de la RP del ojo izquierdo se establece a "RP_horizontal_posiciónl", y la posición inicial de la RP del ojo derecho se establece a "RP_horizontal_posición2" . Adicionalmente, la información de disparidad del PPCS del cuadro T0 se establece a "Disparidadl (TO) " y "Disparidad2 (TO ) " . La posición inicial "RP_horizontal_posiciónl (TO ) " para desplegar el subtitulo del ojo izquierdo en la RP del ojo izquierdo se establece a "RP_horizontal_posiciónl + Disparidadl (TO )" . Adicionalmente, la posición inicial "RP_horizontal_posición2 (TO ) " para desplegar el subtítulo del ojo derecho en la RP del ojo derecho se establece a "RP_horizontal_posición2 + Disparidad2 (T0) ".
Las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho del cuadro TI como un siguiente cuadro se actualizan como sigue. Adicionalmente, la información de disparidad del PPCS del cuadro TI se establece a "Disparidadl (TI) " y "Disparidad2 (TI ) " . La posición inicial "RP_horizontal_posiciónl (TI ) " para desplegar el subtitulo del ojo izquierdo en la RP del ojo izquierdo se establece a "RP_horizontal_posiciónl + Disparidadl (TI ) " . Adicionalmente, la posición inicial "RP_horizontal_posición2 (TI ) " para desplegar el subtitulo del ojo derecho en la RP del ojo derecho se establece a "RP_horizontal_posición2 + Disparidad2 (TI) ".
A partir de ahora, de modo semejante, en el lado del receptor, las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho de cada cuadro se actualizan secuencialmente con base en la información de disparidad de la RP del ojo izquierdo y de la RP del ojo derecho incluida en el RPCS de cada cuadro.
La Figura 35 ilustra un ejemplo para actualizar la disparidad asignada a las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho en una base de cuadros en el lado del receptor cuando el formato de transmisión de los datos de imagen estereoscópica es el formato superior e inferior. En este ejemplo, la actualización se realiza con base en el grupo de información de desplazamiento del eje x insertado en el RPCS, es decir, el grupo de información de disparidad. Adicionalmente, el método de actualización es similar a aquel de un caso donde el formato de transmisión de los datos de imagen estereoscópica anteriormente descritos es el formato lado a lado (refiérase a la Figura 33), y no se repetirá una descripción detallada del mismo .
La Figura 36 ilustra un ejemplo para actualizar la disparidad asignada a las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho en una base de cuadros en el lado del receptor cuando el formato de transmisión de los datos de imagen estereoscópica es un formato superior e inferior. En este ejemplo, la actualización se realiza con base en la información de disparidad incluida en el RPCS transmitido en respuesta a cada cuadro. Adicionalmente, el método de actualización es similar a aquel de un caso donde el formato de transmisión de los datos de imagen estereoscópica es el formato lado a lado (refiérase a la Figura 34), y no se repetirá una descripción detallada del mismo .
La Figura 37 ilustra esquemáticamente un flujo de los datos de imagen estereoscópica y de los datos de subtítulos desde la estación 100 de difusión de señales a través de la caja 200 de conexión hacia el receptor 300 de televisión. En este caso, la estación 100 de difusión de señales genera datos de subtítulos de imagen estereoscópica (incluyendo también información de control de despliegue) conforme al formato lado a lado. Adicionalmente, los datos de imagen estereoscópica se incluyen en el flujo de datos de video para la transmisión, y los datos de subtítulos de imagen estereoscópica se incluyen en flujo de datos de subtítulos para la transmisión.
La caja 200 de conexión genera datos de despliegue para desplegar el subtítulo del ojo izquierdo y el subtítulo del ojo derecho con base en los datos de subtítulos, y estos datos de despliegue se superponen con los datos de imagen estereoscópica. En este caso, las posiciones de despliegue (superposición) del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho se ajustan en desplazamiento con base en la información de desplazamiento (información de disparidad e información de movimiento de las posiciones de despliegue) incluida en la información de control de despliegue.
Los datos de imagen estereoscópica donde se superponen los datos de despliegue del subtítulo se transmiten al receptor 300 de televisión por medio de una interfaz digital HD I. En este caso, el formato de transmisión de los datos de imagen estereoscópica desde la caja 200 de conexión hacia el receptor 300 de televisión es el formato lado a lado.
En el receptor 300 de televisión, el proceso de decodificación se realiza para los datos de imagen estereoscópica transmitidos desde la caja 200 de conexión. Adicionalmente, se generan los datos de la imagen del ojo izquierdo y de la imagen del ojo derecho donde se superponen los subtítulos, y una imagen de disparidad binocular (que incluye la imagen del ojo izquierdo y la imagen del ojo derecho) para causar que un usuario reconozca la imagen estereoscópica se despliega en un panel de despliegue tal como un LCD. Como se ilustra en la Figura 37, se puede considerar una trayectoria que viaja directamente hacia el receptor 300 de televisión desde la estación 100 de difusión de señales. En este caso, el receptor 300 de televisión incluye la misma unidad de función de procesamiento que la caja 200 de conexión.
La Figura 38 ilustra esquemáticamente un flujo de los datos de imagen estereoscópica y los datos de subtítulos desde la estación 100 de difusión de señales a través de la caja 200 de conexión hacia el receptor 300 de televisión. En este caso, la estación 100 de difusión de señales genera datos de subtítulos de imagen estereoscópica (incluyendo información de control de despliegue) conforme al formato superior e inferior. Adicionalmente, los datos de imagen estereoscópica se incluyen en el flujo de datos de video para la transmisión, y los datos de subtítulos de imagen estereoscópica se incluyen en el flujo de datos de subtítulos para la transmisión.
En la caja 200 de conexión, los datos de despliegue para desplegar el subtítulo del ojo izquierdo y el subtítulo del ojo derecho se generan con base en los datos de subtítulos, y los datos de despliegue se superponen con los datos de imagen estereoscópica. En este caso, las posiciones de despliegue (superposición) del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho se ajustan en desplazamiento con base en la información de desplazamiento (información de disparidad e información de movimiento de las posiciones de despliegue) incluida en la información de control de despliegue. Adicionalmente, los datos de imagen estereoscópica donde se superponen los datos de despliegue del subtítulo se transmiten al receptor 300 de televisión por medio de una interfaz digital HDMI . En este caso, el formato de transmisión de los datos de imagen estereoscópica desde la caja 200 de conexión hacia el receptor 300 de televisión es el formato superior e inferior .
En el receptor 300 de televisión, se realiza un proceso de decodificación para los datos de imagen estereoscópica transmitidos desde la caja 200 de conexión. Adicionalmente, se generan los datos de la imagen del ojo izquierdo y de la imagen del ojo derecho donde se superpone el subtitulo, y una imagen de despliegue binocular (que incluye la imagen del ojo izquierdo y la imagen del ojo derecho) para causar que un usuario reconozca la imagen estereoscópica se despliega en un panel de despliegue tal como un LCD. Incluso en este caso, como se ilustra en la Figura 38, de manera similar al "Caso E (formato lado a lado)" anteriormente descrito, se puede considerar una trayectoria que viaja directamente desde la estación 100 de difusión de señales hacia el receptor 300 de televisión. En este caso, el receptor 300 de televisión incluye la misma unidad de función de procesamiento que la caja 200 de conexión.
En la unidad 110 de generación de datos de transmisión ilustrada en la Figura 2, los datos de flujo de bitios BSD proporcionados como salida a partir del multiplexor 122 incluyen un flujo de datos multiplexados que tiene un flujo de datos de video y un flujo de datos de subtítulos. El flujo de datos de video incluye datos de imagen estereoscópica. Adicionalmente, el flujo de datos de subtítulos incluye datos de subtítulos de imagen estereoscópica (imagen 3D) conforme al formato de transmisión de los datos de imagen estereoscópica.
Los datos de subtítulos de imagen estereoscópica incluyen datos del subtítulo del ojo izquierdo y datos del subtítulo del ojo derecho. Por esta razón, en el lado del receptor, es posible generar fácilmente datos de despliegue del subtitulo del ojo izquierdo superpuestos con los datos de imagen del ojo izquierdo incluidos en los datos de imagen estereoscópica y datos de despliegue del subtitulo del ojo derecho superpuestos con los datos de imagen del ojo derecho incluidos en los datos de imagen estereoscópica con base en estos datos de subtítulos. Como resultado, es posible facilitar el procesamiento .
En la unidad 110 de generación de datos de transmisión ilustrada en la Figura 2, los datos de flujo de bitios BSD proporcionados como salida a partir del multiplexor 122 incluyen información de control de despliegue además de los datos de imagen estereoscópica y los datos de subtítulos de imagen estereoscópica. Esta información de control de despliegue incluye información de área de la RP del ojo izquierdo y de la RP del ojo derecho e información de desplazamiento de las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho. Por esta razón, en el lado del receptor, es posible realizar el ajuste de desplazamiento con base en la información de desplazamiento de los datos de despliegue del subtítulo del ojo izquierdo y del subtítulo del ojo derecho tal que se desplacen las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho .
Por esta razón, si la información de desplazamiento es la información de desplazamiento (información de disparidad) para asignar disparidad a las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho, se puede obtener el siguiente efecto. Es decir, en el lado del receptor, es posible mantener la conformidad óptima de la percepción de profundidad entre objetos en la imagen para una parte de o todo el subtitulo (encabezamiento) . Adicionalmente, si la información de desplazamiento es la información de desplazamiento (información de movimiento de la posición de despliegue) para mover en proporciones iguales las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho, se puede obtener el siguiente efecto. Es decir, en el lado del receptor, es posible mover las posiciones de despliegue para una parte de o todo el subtitulo (encabezamiento) .
En la unidad 110 de generación de datos de transmisión de la Figura 2, la unidad 123 de procesamiento de subtítulos puede generar y transmitir secuencialmente los segmentos RPCS correspondientes a cada cuadro del periodo de despliegue de subtítulos. Por esta razón, en el lado del receptor, es posible desplazar las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho utilizando la información de control de despliegue (información de desplazamiento) secuencialmente actualizada en cada cuadro del periodo de despliegue de subtítulos. Por esta razón, es posible cambiar dinámicamente la disparidad asignada a una parte de o todo el subtítulo (encabezamiento) en sincronización del cambio del contenido de la imágenes. Adicionalmente, es posible obtener un efecto de despliegue para cambiar dinámicamente las posiciones de despliegue de una parte de o todo el subtítulo (encabezamiento) .
En la unidad 110 de generación de datos de transmisión ilustrada en la Figura 2, la información de desplazamiento (tal como la información de disparidad) incluida en el segmento RPCS creado por la unidad 123 de procesamiento de subtítulos tiene un nivel de precisión de sub-pixeles. Por esta razón, en el lado del receptor, es posible realizar suavemente una operación de desplazamiento y de esta forma mejorar la calidad de la imagen si las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho se ajustan en desplazamiento utilizando la información de desplazamiento secuencialmente actualizada para cada cuadro del periodo de despliegue de subtítulos.
[Descripción de la Caja de Conexión] Regresando a la Figura 1, la caja 200 de conexión recibe los datos de flujo de bitios BSD (flujo de transporte) transmitidos desde la estación 100 de difusión de señales a través de ondas aéreas. Los datos de flujo de bitios BSD incluyen datos de imagen estereoscópica y datos de audio incluyendo los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho. Adicionalmente, los datos de flujo de bitios BSD incluyen datos de subtítulos de imagen estereoscópica (incluyendo información de control de despliegue) para desplegar el subtítulo (encabezamiento) .
La caja 200 de conexión tiene una unidad 201 de procesamiento del flujo de bitios. La unidad 201 de procesamiento del flujo de bitios extrae los datos de imagen estereoscópica, los datos de audio, y los datos de subtítulos a partir de los datos de flujo de bitios BSD. Adicionalmente, la unidad 201 de procesamiento del flujo de bitios genera datos de imagen estereoscópica donde se superpone el subtítulo utilizando los datos de imagen estereoscópica, los datos de subtítulos, y similares.
En este caso, se asume que la disparidad se asigna entre el subtítulo del ojo izquierdo superpuesto con la imagen del ojo izquierdo y el subtítulo del ojo derecho superpuesto con la imagen del ojo derecho. Por ejemplo, como se describe anteriormente, los datos de subtítulos de imagen estereoscópica transmitidos desde la estación 100 de difusión de señales incluyen información de desplazamiento como la información de disparidad, y la disparidad se asigna entre el subtítulo del ojo izquierdo y el subtítulo del ojo derecho con base en la información de desplazamiento. De esta manera, debido a que la disparidad se asigna entre el subtítulo del ojo izquierdo y el subtítulo del ojo derecho, a un usuario se le permite reconocer el subtítulo (encabezamiento) por sobre la imagen.
La Figura 39(a) ilustra un ejemplo para desplegar el subtítulo (encabezamiento) sobre una imagen. En este ejemplo, el encabezamiento se superpone sobre una imagen que incluye un fondo, un objeto de una vista cercana, y similares. La Figura 39(b) ilustra la percepción de profundidad de un fondo, un objeto de una vista cercana, y un encabezamiento, en que el encabezamiento se reconoce en el extremo más frontal.
La Figura 40(a) ilustra un ejemplo para desplegar el subtítulo (encabezamiento) sobre una imagen similar a aquel de la Figura 39(a) . La Figura 40(b) ilustra un LGI del encabezamiento del ojo izquierdo superpuesto con la imagen del ojo izquierdo y un RGI del encabezamiento del ojo derecho superpuesto con la imagen del ojo derecho. La Figura 40(c) ilustra que la disparidad está dada entre el LGI del encabezamiento del ojo izquierdo y el RGI del encabezamiento del ojo derecho para provocar que el encabezamiento sea reconocido en el extremo más frontal.
[Ejemplo de Configuración de la Caja de Conexión] Se describirá un ejemplo de configuración de la caja 200 de conexión. La Figura 41 ilustra un ejemplo de configuración de la caja 200 de conexión. La caja 200 de conexión incluye una unidad 201 de procesamiento del flujo de bitios, una terminal 202 HDMI, una terminal 203 de antena, un sintonizador 204 digital, un circuito 205 de procesamiento de señales de video, una unidad 206 de transmisión HDMI, y un circuito 207 de procesamiento de señales de audio. Adicionalmente, la caja 200 de conexión adicionalmente incluye una CPU 211, una ROM 212 flash, una DRAM 213, una barra colectora 214 interna, una unidad 215 de recepción de control remoto, y una unidad 216 de transmisión de control remoto.
La terminal 203 de antena es una terminal para recibir una señal de difusión de señales de televisión recibida por una antena de recepción (no ilustrada) . El sintonizador 204 digital procesa la señal de difusión de señales de televisión ingresada a la terminal 203 de antena y proporciona como salida datos de flujo de bitios BSD (flujo de transporte) predeterminados, correspondientes a un canal seleccionado por un usuario.
La unidad 201 de procesamiento del flujo de bitios extrae los datos de imagen estereoscópica, los datos de audio, los datos de subtítulos de imagen estereoscópica (incluyendo la información de control de despliegue) , y similares a partir de los datos de flujo de bitios BSD como se describe anteriormente. La unidad 201 de procesamiento del flujo de bitios combina los datos de despliegue del subtítulo del ojo izquierdo y del subtítulo del ojo derecho con los datos de imagen estereoscópica y obtiene los datos de imagen estereoscópica de despliegue donde se superpone el subtítulo. Adicionalmente, la unidad 201 de procesamiento del flujo de bitios proporciona como salida los datos de audio.
En este caso, la unidad 201 de procesamiento del flujo de bitios ajusta en desplazamiento las posiciones de despliegue (posiciones de superposición) del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho con base en la información de control de despliegue. Como se describe anteriormente, la información de control de despliegue incluye información de área de la RP del ojo izquierdo y de la RP del ojo derecho e información de desplazamiento (información de disparidad e información de movimiento de las posiciones de despliegue) de las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho. Una configuración de la unidad 201 de procesamiento del flujo de bitios se describirá en detalle debajo.
El circuito 205 de procesamiento de señales de video realiza un procesamiento de ajuste de la calidad de la imagen y similares, según sea necesario, para los datos de imagen estereoscópica de despliegue obtenidos por la unidad 201 de procesamiento del flujo de bitios y suministra los datos de imagen estereoscópica de despliegue sometidos al procesamiento hacia la unidad 206 de transmisión HDMI. El circuito 207 de procesamiento de señales de audio realiza un procesamiento de ajuste de la calidad del audio, según sea necesario, para los datos de audio proporcionados como salida a partir de la unidad 201 de procesamiento del flujo de bitios y suministra los datos de audio sometidos al procesamiento hacia la unidad 206 de transmisión HD I.
La unidad 206 de transmisión HDMI transmite, por ejemplo, los datos de imagen no comprimidos y los datos de audio desde la terminal 202 HDMI a través de la comunicación conforme a la HDMI. En este caso, para transmitir datos a través del canal TMDS de la HDMI, los datos de imagen y los datos de audio se empaquetan y proporcionan como salida a partir de la unidad 206 de transmisión HDMI hacia la terminal 202 HDMI.
Por ejemplo, cuando el formato de transmisión de los datos de imagen estereoscópica desde la estación 100 de difusión de señales es el formato lado a lado, el formato de transmisión TMDS se establece al formato lado a lado (refiérase a la Figura 37) . Por ejemplo, cuando el formato de transmisión de los datos de imagen estereoscópica desde la estación 100 de difusión de señales es el formato superior e inferior, el formato de transmisión TMDS se establece al formato superior e inferior (refiérase a la Figura 38) .
La CPU 211 controla las operaciones de cada unidad de la caja 200 de conexión. La ROM 212 flash almacena datos y software de control. La DRAM 213 sirve como un área de trabajo de la CPU 211. La CPU 211 despliega el software o los datos leídos a partir de la ROM 212 flash en la DRAM 213 y opera el software para controlar cada unidad de la caja 200 de conexión .
La unidad 215 de recepción de control remoto recibe una señal de control remoto (código de control remoto) transmitida desde la unidad 216 de transmisión de control remoto y la suministra a la CPU 211. La CPU 211 controla cada unidad de la caja 200 de conexión con base en el código de control remoto. La CPU 211, la ROM 212 flash, y la DRAM 213 se conectan a la barra colectora 214 interna.
La operación de la caja 200 de conexión se describirá en resumen. La señal de difusión de señales de televisión ingresada a la terminal 203 de antena se suministra al sintonizador 204 digital. El sintonizador 204 digital procesa la señal de difusión de señales de televisión y proporciona como salida datos de flujo de bitios BSD (flujo de transporte) predeterminados de acuerdo con el canal seleccionado por un usuario .
Los datos de flujo de bitios BSD proporcionados como salida a partir del sintonizador 204 digital se suministran a la unidad 201 de procesamiento del flujo de bitios. La unidad 201 de procesamiento del flujo de bitios extrae los datos de imagen estereoscópica, los datos de audio, los datos de subtítulos de imagen estereoscópica (incluyendo la información de control de despliegue) , y similares a partir de los datos de flujo de bitios BSD. La unidad 201 de procesamiento del flujo de bitios combina los datos de despliegue (datos de mapa de bitios) del subtítulo del ojo izquierdo y del subtítulo del ojo derecho con los datos de imagen estereoscópica para obtener los datos de imagen estereoscópica de despliegue donde se superpone el subtítulo.
En este caso, la unidad 201 de procesamiento del flujo de video ajusta en desplazamiento las posiciones de despliegue (superposición) del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho con base en la información de control de despliegue. A través del ajuste de desplazamiento, en el despliegue del subtítulo (encabezamiento) , es posible mantener la conformidad óptima de la percepción de profundidad entre cada objeto en una imagen para una parte de o todo el subtítulo. Adicionalmente, a través del ajuste de desplazamiento, en el despliegue del subtítulo (encabezamiento) , es posible mover la posición de despliegue para una parte de o todo el subtitulo.
Los datos de imagen estereoscópica de despliegue obtenidos por la unidad 201 de procesamiento del flujo de bitios se suministran al circuito 205 de procesamiento de señales de video. El circuito 205 de procesamiento de señales de video realiza el procesamiento de ajuste de la calidad de la imagen y similares, según sea necesario, para los datos de imagen estereoscópica de despliegue. Los datos de imagen estereoscópica de despliegue sometidos al procesamiento y proporcionados como salida a partir del circuito 205 de procesamiento de señales de video se suministran a la unidad 206 de transmisión HDMI .
Los datos de audio obtenidos por la unidad 201 de procesamiento del flujo de bitios se suministran al circuito 207 de procesamiento de señales de audio. El circuito 207 de procesamiento de señales de audio realiza un procesamiento de ajuste de la calidad del audio y similares, según sea necesario, para los datos de audio. Los datos de audio sometidos al procesamiento y proporcionados como salida a partir del circuito 207 de procesamiento de señales de audio se suministran a la unidad 206 de transmisión H DM I . Adicionalmente, los datos de imagen estereoscópica y los datos de audio suministrados a la unidad 206 de transmisión HDM I se proporcionan como salida al cable 400 HDMI desde la terminal 202 HDMI utilizando el canal TMDS de la HDMI .
[Ejemplo de Configuración de la Unidad de Procesamiento del Flujo de Bitios] La Figura 42 ilustra un ejemplo de configuración de la unidad 201 de procesamiento del flujo de bitios. La unidad 201 de procesamiento del flujo de bitios tiene una configuración correspondiente a la unidad 110 de generación de datos de transmisión de la Figura 2 anteriormente descrita. La unidad 201 de procesamiento del flujo de bitios incluye un desmultiplexor 221, un decodificador 222 de video, un decodificador 223 de subtítulos, una unidad 224 de generación de subtítulos de imagen estereoscópica, una unidad 225 de ajuste de desplazamiento, una unidad 226 de superposición de video, y el codificador 227 de audio.
El desmultiplexor 221 extrae los paquetes de video, los paquetes de audio, y los paquetes de subtítulos a partir de los datos de flujo de bitios BSD y los transmite a cada decodificador . El desmultiplexor 221 extrae la información tal como la PMT y la EIT insertadas en los datos de flujo de bitios BSD y la transmite a la CPU 211. Como se describe anteriormente, el componente/descriptor de la EIT describe "Flujo_contenido ( '0x03' = subtítulos DVB) & Componente_tipo (para objetivo 3D)". Como resultado, es posible identificar que los datos de subtítulos de imagen estereoscópica se incluyen en el flujo de datos de subtítulos. Por consiguiente, la CPU 211 puede identificar que los datos de subtítulos de imagen estereoscópica se incluyen en el flujo de datos de subtítulos con base en esta descripción.
El decodificador 222 de video realiza un procesamiento opuesto a aquel del codificador 119 de video de la unidad 110 de generación de datos de transmisión anteriormente descrito. Es decir, el decodificador 222 de video reconstruye el flujo de datos de video a partir de los paquetes de video extraídos por el desmultiplexor 221 y realiza la decodificación para obtener los datos de imagen estereoscópica que incluyen los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho. El formato de transmisión de los datos de imagen estereoscópica se establece a, por ejemplo, un formato lado a lado, un formato superior e inferior, y similares.
El decodificador 223 de subtítulos realiza un procesamiento opuesto a aquel del codificador 125 de subtítulos de la unidad 110 de generación de datos de transmisión descrito debajo. Es decir, el decodificador 212 de subtítulos reconstruye el flujo de datos de subtítulos a partir de los paquetes de subtítulos extraídos por el desmultiplexor 221 y realiza un proceso de decodificación para obtener los datos de subtítulos de imagen estereoscópica (incluyendo la información de control de despliegue) . La unidad 224 de generación de subtítulos de imagen estereoscópica genera datos de despliegue (datos de mapa de bitios) del subtítulo del ojo izquierdo y del subtítulo del ojo derecho superpuestos con los datos de imagen estereoscópica con base en los datos de subtítulos de imagen estereoscópica (excluyendo la información de control de despliegue) . La unidad 224 de generación de subtítulos de imagen estereoscópica sirve como una unidad de generación de datos de despliegue.
La unidad 225 de ajuste de desplazamiento recibe los datos de despliegue generados por la unidad 224 de generación de subtítulos de imagen estereoscópica, ajusta en desplazamiento las posiciones de despliegue (posiciones de superposición) del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho con base en la información de control de despliegue, y proporciona como salida los resultados. Como se describe anteriormente, la información de desplazamiento de la posición de despliegue incluida en la información de control de despliegue tiene un nivel de precisión de sub-pixeles (refiérase a la Figura 8) . Por esta razón, la unidad 225 de ajuste de desplazamiento realiza el ajuste de desplazamiento en el nivel de precisión de sub-pixeles utilizando un proceso de interpolación. La Figura 43 ilustra esquemáticamente un ejemplo del proceso de interpolación cuando el desplazamiento se hace por un 1/2 pixel en una dirección horizontal. En la Figura 43(a), los círculos llenos indican los datos recibidos. En la Figura 43 (b) , los circuios en blanco indican un estado que los datos recibidos simplemente se desplazan por 1/2 de un pixel en una dirección horizontal. Sin embargo, los datos indicados por los circuios en blanco no tienen datos en las posiciones de pixeles . A este respecto, la unidad 225 de ajuste de desplazamiento realiza un proceso de interpolación para los datos indicados por los circuios en blanco para generar datos de las posiciones de pixeles indicadas por los circuios sombreados en la Figura 43(b) y los establece como los datos sometidos al ajuste de desplazamiento.
La unidad 226 de superposición de video obtiene los datos de imagen estereoscópica de despliegue Vsalida. En este caso, la unidad 226 de superposición de video superpone los datos de despliegue (datos de mapa de bitios) del subtitulo del ojo izquierdo y del subtitulo del ojo derecho ajustados en desplazamiento por la unidad 225 de ajuste de desplazamiento con los datos de imagen estereoscópica obtenidos por el decodificador 222 de video. Adicionalmente, la unidad 226 de superposición de video proporciona como salida los datos de imagen estereoscópica de despliegue Vsalida hacia una unidad externa de la unidad 201 de procesamiento del flujo de bitios.
El decodificador 227 de audio realiza un procesamiento opuesto a aquel del codificador 120 de audio de la unidad 110 de generación de datos de transmisión anteriormente descrito. Es decir, el decodificador 227 de audio reconstruye el flujo elemental de audio a partir del paquete de audio extraído por el desmultiplexor 221 y realiza un proceso de decodificación para obtener los datos de audio Asalida. Adicionalmente, el decodificador 227 de audio proporciona como salida los datos de audio Asalida hacia una unidad externa de la unidad 201 de procesamiento del flujo de bitios.
La operación de la unidad 201 de procesamiento del flujo de bitios de la Figura 42 se describirá en resumen. Los datos de flujo de bitios BSD proporcionados como salida a partir del sintonizador 204 digital (refiérase a la Figura 41) se suministran al desmultiplexor 221. El desmultiplexor 221 extrae los paquetes de video, los paquetes de audio, y los paquetes de subtítulos a partir de los datos de flujo de bitios BSD y los suministra a cada decodificador .
El decodificador 222 de video reconstruye el flujo de datos de video a partir de los paquetes de video extraídos por el desmultiplexor 221 y realiza un proceso de decodificación para obtener los datos de imagen estereoscópica que incluyen los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho. Estos datos de imagen estereoscópica se suministran a la unidad 226 de superposición de video.
El decodificador 223 de subtítulos reconstruye el flujo de datos de subtítulos a partir de los paquetes de subtítulos extraídos por el desmultiplexor 221 y realiza un proceso de decodificación para obtener los datos de subtítulos de imagen estereoscópica (incluyendo la información de control de despliegue) . Estos datos de subtítulos se suministran a la unidad 224 de generación de subtítulos de imagen estereoscópica .
La unidad 224 de generación de subtítulos de imagen estereoscópica genera los datos de despliegue (datos de mapa de bitios) del subtítulo del ojo izquierdo y del subtítulo del ojo derecho superpuestos con los datos de imagen estereoscópica con base en los datos de subtítulos de imagen estereoscópica (excluyendo la información de control de despliegue) . Estos datos de despliegue se suministran a la unidad 225 de ajuste de desplazamiento. Adicionalmente, la unidad 225 de ajuste de desplazamiento se suministra con la información de control de despliegue del decodificador 223 de subtítulos. La unidad 225 de ajuste de desplazamiento ajusta el desplazamiento de las posiciones de despliegue (posiciones de superposición) del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho con base en la información de control de despliegue.
Los datos de despliegue ajustados en desplazamiento por la unidad 225 de ajuste de desplazamiento (datos de despliegue del subtítulo del ojo izquierdo y del subtítulo del ojo derecho superpuestos con los datos de imagen estereoscópica) se suministran a la unidad 226 de superposición de video. La unidad 226 de superposición de video superpone los datos de despliegue ajustados en desplazamiento por la unidad 225 de ajuste de desplazamiento con los datos de imagen estereoscópica obtenidos por el decodificador 222 de video para obtener los datos de imagen estereoscópica de despliegue Vsalida. Los datos de imagen estereoscópica de despliegue Vsalida se proporcionan como salida a una unidad externa de la unidad 201 de procesamiento del flujo de bitios.
El decodificador 227 de audio reconstruye el flujo elemental de audio a partir de los paquetes de audio extraídos por el desmultiplexor 221 y realiza un proceso de decodificación para obtener los datos de audio Asalida correspondientes a los datos de imagen estereoscópica de despliegue Vsalida anteriormente descritos. Los datos de audio Asalida se proporcionan como salida a una unidad externa de la unidad 201 de procesamiento del flujo de bitios.
En la caja 200 de conexión ilustrada en la Figura 42, los datos de flujo de bitios BSD proporcionados como salida a partir del sintonizador 204 digital son un flujo de datos multiplexados que tiene el flujo de datos de video y el flujo de datos de subtítulos. El flujo de datos de video incluye los datos de imagen estereoscópica. Adicionalmente, el flujo de datos de subtítulos incluye datos de subtítulos de imagen estereoscópica (imagen 3D) conforme al formato de transmisión de los datos de imagen estereoscópica.
Los datos de subtítulos de imagen estereoscópica incluyen los datos de subtítulos del ojo izquierdo y los datos de subtítulos del ojo derecho. Por esta razón, en la unidad 224 de generación de subtítulos de imagen estereoscópica de la unidad 201 de procesamiento del flujo de bitios, es posible generar fácilmente los datos de despliegue del subtítulo del ojo izquierdo superpuestos con los datos de imagen del ojo izquierdo de los datos de imagen estereoscópica. Adicionalmente, en la unidad 224 de generación de subtítulos de imagen estereoscópica de la unidad 201 de procesamiento del flujo de bitios, es posible generar fácilmente los datos de despliegue del subtítulo del ojo derecho superpuestos con los datos de imagen del ojo derecho de los datos de imagen estereoscópica. Como resultado, es posible facilitar el procesamiento .
En la caja 200 de conexión ilustrada en la Figura 42, los datos de flujo de bitios BSD proporcionados como salida a partir del sintonizador 204 digital incluyen la información de control de despliegue además de los datos de imagen estereoscópica y los datos de subtítulos de imagen estereoscópica. La información de control de despliegue incluye la información de área de la RP del ojo izquierdo y de la RP del ojo derecho y la información de desplazamiento de las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho. Por esta razón, en la unidad 225 de ajuste de desplazamiento, es posible realizar el ajuste de desplazamiento de los datos de despliegue del subtitulo del ojo izquierdo y del subtitulo del ojo derecho con base en la información de desplazamiento tal que se puedan desplazar las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho.
Por consiguiente, si la información de desplazamiento es la información de desplazamiento (información de disparidad) para asignar disparidad a las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho, se puede obtener el siguiente efecto. Es decir, en el despliegue del subtitulo (encabezamiento) , es posible mantener la conformidad óptima de la percepción de profundidad entre cada objeto en una imagen para una parte de o todo el subtitulo. Adicionalmente, si la información de desplazamiento es la información de desplazamiento (información de movimiento de la posición de despliegue) para mover en proporciones iguales las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho, se puede obtener el siguiente efecto. Es decir, en el despliegue del subtitulo (encabezamiento) , es posible mover la posición de despliegue para una parte de o todo el subtitulo.
[Descripción del Receptor de Televisión] Regresando a la Figura 1, el receptor 300 de televisión recibe los datos de imagen estereoscópica transmitidos desde la caja 200 de conexión a través del cable 400 HDMI . El receptor 300 de televisión tiene una unidad 301 de procesamiento de señales 3D. La unidad 301 de procesamiento de señales 3D realiza un procesamiento (decodificación) conforme al formato de transmisión para los datos de imagen estereoscópica para generar los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho.
[Ejemplo de Configuración del Receptor de Televisión] Se describirá un ejemplo de configuración del receptor 300 de televisión. La Figura 44 ilustra un ejemplo de configuración del receptor 300 de televisión. El receptor 300 de televisión incluye la unidad 301 de procesamiento de señales 3D, una terminal 302 HDMI, una unidad 303 de recepción HDMI, una terminal 304 de antena, un sintonizador 305 digital, y una unidad 306 de procesamiento del flujo de bitios.
El receptor 300 de televisión incluye un circuito 307 de procesamiento de gráficos de video, un circuito 308 de operación del panel, un panel 309 de despliegue, un circuito 310 de procesamiento de señales de audio, un circuito 311 de amplificación de audio, y un altavoz 312. Adicionalmente, el receptor 300 de televisión incluye una CPU 321, una ROM 322 flash, una DRAM 323, una barra colectora 324 interna, una unidad 325 de recepción de control remoto, y una unidad 326 de transmisión de control remoto.
La terminal 304 de antena es una terminal donde se ingresa una señal de difusión de señales de televisión recibida por la antena de recepción (no ilustrada) . El sintonizador 305 digital procesa la señal de difusión de señales de televisión ingresada a la terminal 304 de antena y proporciona como salida datos de flujo de bitios BSD (flujo de transporte) predeterminados, correspondientes al canal seleccionado por un usuario.
La unidad 306 de procesamiento del flujo de bitios tiene la misma configuración que aquella de la unidad 201 de procesamiento del flujo de bitios de la caja 200 de conexión ilustrada en la Figura 41. La unidad 306 de procesamiento del flujo de bitios extrae los datos de imagen estereoscópica, los datos de audio, los datos de subtítulos de imagen estereoscópica (incluyendo la información de control de despliegue), y similares a partir de los datos de flujo de bitios BSD.
La unidad 306 de procesamiento del flujo de bitios combina los datos de despliegue del subtítulo del ojo izquierdo y del subtítulo del ojo derecho con los datos de imagen estereoscópica para generar los datos de imagen estereoscópica de despliegue donde se superpone el subtítulo y proporciona como salida el resultado. Adicionalmente, la unidad 306 de procesamiento del flujo de bitios proporciona como salida los datos de audio. En este caso, la unidad 306 de procesamiento del flujo de bitios ajusta en desplazamiento las posiciones de despliegue (superposición) del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho con base en la información de control de despliegue. Adicionalmente, la unidad 306 de procesamiento del flujo de bitios proporciona como salida los datos de audio.
La unidad 303 de recepción HDMI recibe los datos de audio y los datos de imagen no comprimidos suministrados a la terminal 302 HDMI a través del cable 400 HDMI utilizando la comunicación conforme a la HDMI. La unidad 303 de recepción HDMI tiene una versión de, por ejemplo, HDMI 1.4a, y tiene un estado en que se pueden manipular los datos de imagen estereoscópica.
La unidad 301 de procesamiento de señales 3D realiza la decodificación para los datos de imagen estereoscópica recibidos por la unidad 303 de recepción HDMI u obtenidos por la unidad 306 de procesamiento del flujo de bitios para generar los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho. En este caso, la unidad 301 de procesamiento de señales 3D realiza la decodificación conforme al formato de transmisión (refiérase a la Figura 4) para los datos de imagen estereoscópica obtenidos por la unidad 306 de procesamiento del flujo de bitios. Adicionalmente, la unidad 301 de procesamiento de señales 3D realiza la decodificación conforme al formato de datos de transmisión TMDS para los datos de imagen estereoscópica recibidos por la unidad 303 de recepción HDMI.
El circuito 307 de procesamiento de gráficos de video genera datos de imagen para desplegar la imagen estereoscópica con base en los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho generados por la unidad 301 de procesamiento de señales 3D. Adicionalmente, el circuito 307 de procesamiento de gráficos de video realiza un procesamiento de ajuste de la calidad de la imagen, según sea necesario, para los datos de imagen. Adicionalmente, el circuito 307 de procesamiento de gráficos de video combina los datos de la información de superposición tal como un menú y una tabla de programas, según sea necesario, para los datos de imagen. El circuito 308 de operación del panel opera el panel 309 de despliegue con base en los datos de imagen proporcionados como salida a partir del circuito 307 de procesamiento de gráficos de video. El panel 309 de despliegue incluye, por ejemplo, un despliegue de cristal líquido (LCD) , un panel de despliegue de plasma (PDP), y similares.
El circuito 310 de procesamiento de señales de audio realiza procesos necesarios tales como la conversión D/A para los datos de audio recibidos por la unidad 303 de recepción HDMI u obtenidos por la unidad 306 de procesamiento del flujo de bitios. El circuito 311 de amplificación de audio amplifica la señal de audio proporcionada como salida a partir 'del circuito 310 de procesamiento de señales de audio y suministra la señal amplificada al altavoz 312.
La CPU 321 controla las operaciones de cada unidad del receptor 300 de televisión. La ROM 322 flash almacena datos y software de control. La DRAM 323 sirve como un área de trabajo de la CPU 321. La CPU 321 despliega software o datos leídos a partir de la ROM 322 flash en la DRAM 323 y activa el software para controlar cada unidad del receptor 300 de televisión.
La unidad 325 de recepción de control remoto recibe una señal de control remoto (código de control remoto) transmitida desde la unidad 326 de transmisión de control remoto y la suministra a la CPU 321. La CPU 321 controla cada unidad del receptor 300 de televisión con base en el código de control remoto. La CPU 321, la ROM 322 flash, y la DRAM 323 se conectan a la barra colectora 324 interna.
Las operaciones del receptor 300 de televisión ilustradas en la Figura 44 se describirán en resumen. La unidad 303 de recepción HDMI recibe los datos de imagen estereoscópica y los datos de audio transmitidos desde la caja 200 de conexión conectada a la terminal 302 HDMI a través del cable 400 HDMI. Los datos de imagen estereoscópica recibidos por la unidad 303 de recepción HDMI se suministran a la unidad 301 de procesamiento de señales 3D. Adicionalmente, los datos de audio recibidos por la unidad 303 de recepción HDMI se suministran al circuito 310 de procesamiento de señales de audio .
La señal de difusión de señales de televisión ingresada a la terminal 304 de antena se suministra al sintonizador 305 digital. El sintonizador 305 digital procesa la señal de difusión de señales de televisión y proporciona como salida los datos de flujo de bitios BSD (flujo de transporte) predeterminados, correspondientes al canal seleccionado por un usuario.
Los datos de flujo de bitios BSD proporcionados como salida a partir del sintonizador 305 digital se suministran a la unidad 306 de procesamiento del flujo de bitios. La unidad 306 de procesamiento del flujo de bitios extrae los datos de imagen estereoscópica, los datos de audio, los datos de subtítulos de imagen estereoscópica (incluyendo la información de control de despliegue) , y similares a partir de los datos de flujo de bitios BSD. La unidad 306 de procesamiento del flujo de bitios combina los datos de despliegue del subtítulo del ojo izquierdo y del subtítulo del ojo derecho para los datos de imagen estereoscópica para crear datos de imagen estereoscópica de despliegue donde se superpone el subtítulo. En este caso, las posiciones de despliegue (posiciones de superposición) del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho se ajustan en desplazamiento con base en la información de control de despliegue.
Los datos estereoscópicos de despliegue generados por la unidad 306 de procesamiento del flujo de bitios se suministran a la unidad 301 de procesamiento de señales 3D. Adicionalmente, los datos de audio obtenidos por la unidad 306 de procesamiento del flujo de bitios se suministran al circuito 310 de procesamiento de señales de audio.
La unidad 301 de procesamiento de señales 3D realiza la decodificación para los datos de imagen estereoscópica recibidos por la unidad 303 de recepción HDMI u obtenidos por la unidad 306 de procesamiento del flujo de bitios para generar los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho. Los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho se suministran al circuito 307 de procesamiento de gráficos de video. El circuito 307 de procesamiento de gráficos de video genera datos de imagen para desplegar la imagen estereoscópica con base en los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho y también realiza el proceso de ajuste de la calidad de la imagen y el proceso de combinación de los datos de información de superposición según sea necesario.
Los datos de imagen obtenidos por el circuito 307 de procesamiento de gráficos de video se suministran al circuito 308 de operación del panel. Por esta razón, la imagen estereoscópica se despliega por el panel 309 de despliegue. Por ejemplo, la imagen del ojo izquierdo basada en los datos de imagen del ojo izquierdo y la imagen del ojo derecho basada en los datos de imagen del ojo derecho se despliegan alternadamente en el panel 309 de despliegue en una manera de división del tiempo. Si un televidente usa lentes obturadores que alternadamente abren un obturador del ojo izquierdo y un obturador del ojo derecho en sincronización con el despliegue del panel 309 de despliegue, sólo la imagen del ojo izquierdo se observa por el ojo izquierdo, y sólo la imagen del ojo derecho se observa por el ojo derecho de modo que un televidente puede reconocer la imagen estereoscópica.
Los datos de audio obtenidos por la unidad 306 de procesamiento del flujo de bitios se suministran al circuito 310 de procesamiento de señales de audio. El circuito 310 de procesamiento de señales de audio realiza los procesos necesarios tales como la conversión D/A para los datos de audio recibidos por la unidad 303 de recepción HDMI u obtenidos por la unidad 306 de procesamiento del flujo de bitios. Los datos de audio se amplifican por el circuito 311 de amplificación de audio y se suministran al altavoz 312. Por esta razón, el audio correspondiente a la imagen de despliegue del panel 309 de despliegue se proporciona como salida a partir del altavoz 312.
Como se describe anteriormente, el sistema 10 de transceptor de imagen de la Figura 1 transmite el flujo de datos multiplexados que tiene el flujo de datos de video y el flujo de datos de subtítulos hacia la caja 200 de conexión desde la estación 100 de difusión de señales (unidad 201 de generación de datos de transmisión) . El flujo de datos de video incluye los datos de imagen estereoscópica. Adicionalmente, el flujo de datos de subtítulos incluye los datos de subtítulos de imagen estereoscópica (imagen 3D) conforme al formato de transmisión de los datos de imagen estereoscópica.
Los datos de subtítulos de imagen estereoscópica incluyen los datos de subtítulos del ojo izquierdo y los datos de subtítulos del ojo derecho. Por esta razón, en la caja 200 de conexión, es posible generar fácilmente datos de despliegue del subtítulo del ojo izquierdo superpuestos con los datos de imagen del ojo izquierdo de los datos de imagen estereoscópica. En la caja 200 de conexión, es posible generar fácilmente datos de despliegue del subtítulo del ojo derecho superpuestos con los datos de imagen del ojo derecho de los datos de imagen estereoscópica. Como resultado, es posible facilitar el procesamiento de la unidad 201 de procesamiento de datos de bitios.
En el sistema 10 de transceptor de imagen de la Figura 1, los datos de flujo de bitios BSD proporcionados como salida a partir de la unidad 110 de generación de datos de transmisión de la estación 100 de difusión de señales incluyen la información de control de despliegue además de los datos de imagen estereoscópica y los datos de subtítulos de imagen estereoscópica. La información de control de despliegue incluye la información de área de la RP del ojo izquierdo y de la RP del ojo derecho y la información de desplazamiento de las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho. Por esta razón, en la caja 200 de conexión, es posible realizar el ajuste de desplazamiento de los datos de despliegue del subtítulo del ojo izquierdo y del subtítulo del ojo derecho con base en la información de desplazamiento tal que se desplacen las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho .
Por consiguiente, si la información de desplazamiento es la información de desplazamiento (información de disparidad) para asignar disparidad a las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho, se puede obtener el siguiente efecto. Es decir, en la caja 200 de conexión, para el despliegue del subtítulo (encabezamiento) , es posible mantener la conformidad óptima de la percepción de profundidad entre cada objeto en una imagen para una parte de o todo el subtitulo (encabezamiento) . Adicionalmente, si la información de desplazamiento es la información de desplazamiento (información de movimiento de la posición de despliegue) para mover en proporciones iguales las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho, se puede obtener el siguiente efecto. Es decir, en la caja 200 de conexión, para el despliegue del subtitulo (encabezamiento) , es posible mover la posición de despliegue para una parte de o todo el subtitulo.
El sistema 10 de transceptor de imagen de la Figura 1 puede transmitir secuencialmente el segmento RPCS correspondiente a cada cuadro del periodo de despliegue de subtítulos desde la unidad 110 de generación de datos de transmisión de la estación 100 de difusión de señales. Por esta razón, en la caja 200 de conexión, es posible desplazar las posiciones de despliegue del subtítulo del ojo izquierdo en la RP del ojo izquierdo y del subtítulo del ojo derecho en la RP del ojo derecho utilizando la información de control de despliegue (información de desplazamiento) secuencialmente actualizada en cada cuadro del periodo de despliegue de subtítulos. Por consiguiente, es posible cambiar dinámicamente la disparidad asignada a una parte de o todo el subtítulo (encabezamiento) en sincronización con el cambio del contenido de la imagen. Adicionalmente, es posible obtener un efecto de despliegue para cambiar dinámicamente la posición de despliegue para una parte de o todo el subtitulo (encabezamiento) .
En el sistema 10 de transceptor de imagen de la Figura 1, la información de desplazamiento (información de disparidad o similar) incluida en el segmento RPCS creado por la unidad 110 de generación de datos de transmisión de la estación 100 de difusión de señales tiene un nivel de precisión de sub-pixeles. Por esta razón, en la caja 200 de conexión, si las posiciones de despliegue del subtitulo del ojo izquierdo en la RP del ojo izquierdo y del subtitulo del ojo derecho en la RP del ojo derecho secuencialmente actualizadas en cada cuadro del periodo de despliegue de subtítulos se ajustan en desplazamiento con base en la información de desplazamiento, es posible realizar suavemente la operación de desplazamiento. Como resultado, es posible mejorar la calidad de la imagen. <2. Ejemplo de Modificación > En las modalidades anteriormente descritas, el tercer ejemplo de la sintaxis de "Región_Partición_datos útiles ()" ilustrado en las Figuras 28 a 30 se computa en un lazo separado en el RPCS de modo que se pueden insertar "corrimiento_secuencia" del eje x, el eje y, y el eje z. Sin embargo, es posible que se considere insertar la "corrimiento_secuencia" del eje x, el eje y, y el eje z utilizando el mismo lazo.
Las Figuras 46 a 48 ilustran otro ejemplo de la tercera sintaxis de "Región_Partición_datos útiles ()". La Figura 49 ilustra una parte de la semántica de los datos en el tercer ejemplo de la sintaxis. "temporal_extensión_indicación" es la información de indicación de 1 bitio que representa si o no se incluyen la información de disparidad y la información de actualización para cada cuadro de la posición de despliegue. "temporal_extensión_indicación = 1" representa que se incluye la información, y "temporal_extensión_indicación = 0" representa que no se incluye la información. "temporal_extensión_tipo" es la información de 3 bitios que representa si o no se incluyen la información de disparidad y la información de actualización para cada cuadro de la posición de despliegue. "temporal_extensión_tipo = 001" representa que se incluye la información de actualización del eje x (dirección horizontal de la posición de despliegue). "temporal_extensión_tipo = 010" representa que se incluye la información de actualización del eje y (dirección vertical de la posición de despliegue) . "temporal_extensión_tipo = 100" representa que se incluye la información de actualización del eje z (información de disparidad) .
En las modalidades anteriormente descritas, el sistema 10 de transceptor de imagen incluye una estación 100 de difusión de señales, una caja 200 de conexión, y un receptor 300 de televisión. Sin embargo, como se ilustra en la Figura 44, el receptor 300 de televisión incluye una unidad 306 de procesamiento del flujo de bitios para funcionar de modo semejante como la unidad 201 de procesamiento del flujo de bitios en la caja 200 de conexión. Por consiguiente, como se ilustra en la Figura 45, se puede considerar el sistema 10A de transceptor de imagen que incluye una estación 100 de difusión de señales y un receptor 300 de televisión.
En las modalidades anteriormente descritas, se ha descrito un ejemplo en el cual el flujo de datos (datos de flujo de bitios) que incluye los datos de imagen estereoscópica se difunde desde la estación 100 de difusión de señales. Sin embargo, la presente invención se puede aplicar de modo semejante a un sistema que tiene una configuración en que el flujo de datos se transmite hacia la terminal de recepción utilizando una red tal como la Internet.
En las modalidades anteriormente descritas, la caja 200 de conexión y el receptor 300 de televisión se conectan por medio de la interfaz digital HDMI. Sin embargo, la presente invención se puede aplicar de modo semejante a un caso donde se conectan a una interfaz digital (incluyendo una interfaz alámbrica o inalámbrica) que tiene una interfaz digital similar como la interfaz digital HDMI.
En las modalidades anteriormente descritas, el subtitulo (encabezamiento) se trata como la información de superposición. Sin embargo, la presente invención se puede aplicar de modo semejante a un caso donde se maneja la información de superposición tal como la información de gráficos y la información de texto.
En las modalidades anteriormente descritas, el segmento RPCS está recién definido, y la información de control de despliegue se suministra desde la estación 100 de difusión de señales hacia la caja 200 de conexión utilizando este segmento. Sin embargo, un método de suministro de la información de control de despliegue hacia la caja 200 de conexión no se limita al mismo, y, por ejemplo, la caja 200 de conexión puede obtener la información de control de despliegue a partir de la Internet según sea necesario.
APLICABILIDAD INDUSTRIAL La presente invención se puede aplicar a un sistema de imagen estereoscópica capaz de desplegar información de superposición tal como el subtitulo (encabezamiento) en una imagen .
LISTA DE SIGNOS DE REFERENCIA 10, 10A Sistema de transceptor de imagen 100 Estación de difusión de señales 110 Unidad de generación de datos de transmisión 111L, 111R Cámara 112 Unidad de alineación de cuadros de video 113 Unidad de detección del vector de disparidad 114 Micrófono 115 Unidad de salida de datos 115a Medio de registro de datos 116 a 118 Conmutador 119 Codificador de video 120 Codificador de audio 121 Codificador de subtítulos 122 Unidad de creación de información de disparidad 123 Unidad de procesamiento de subtítulos 124 Unidad de generación de información de control de despliegue 125 Codificador de subtítulos 126 Multiplexor 200 Caja de conexión (STB) 201 Unidad de procesamiento del flujo de bitios 202 Terminal HDMI 203 Terminal de antena 204 Sintonizador digital 205 Circuito de procesamiento de señales de video 206 Unidad de transmisión HDMI 207 Circuito de procesamiento de señales de audio 211 CPU 215 Unidad de recepción de control remoto 216 Unidad de transmisión de control remoto 221 Desmultiplexor 222 Decodificador de video 223 Decodificador de subtítulos 224 Unidad de generación de subtítulos de imagen estereoscópica 225 Unidad de ajuste de desplazamiento 226 Unidad de superposición de video 227 Decodificador de audio 300 Receptor de televisión (TV) 301 unidad de procesamiento de señales 3D 302 Terminal HDMI 303 Unidad de recepción HDMI 304 Terminal de antena 305 Sintonizador digital 306 Unidad de procesamiento del flujo de bitios 307 Circuito de procesamiento de gráficos de video 308 Circuito de operación del panel 309 Panel de despliegue 310 Circuito de procesamiento de señales de audio 311 Circuito de amplificación de audio 312 altavoz 321 CPU 325 Unidad de recepción de control remoto 326 Unidad de transmisión de control remoto 400 Cable HDMI

Claims (15)

REIVINDICACIONES
1. Un dispositivo de transmisión de datos de imagen estereoscópica, caracterizado en que comprende: una unidad de salida de datos de imagen que proporciona como salida los datos de imagen estereoscópica de un formato de transmisión predeterminado que tiene datos de imagen del ojo izquierdo y datos de imagen del ojo derecho; una unidad de salida de datos de información de superposición que proporciona como salida los datos de la información de superposición superpuesta sobre una imagen para los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho; una unidad de procesamiento de datos de información de superposición que convierte los datos de la información de superposición proporcionada como salida a partir de la unidad de salida de datos de información de superposición en la forma de datos de información de superposición de transmisión que tienen datos de información de superposición del ojo izquierdo correspondiente a los datos de imagen del ojo izquierdo incluidos en los datos de imagen estereoscópica del formato de transmisión predeterminado y datos de información de superposición del ojo derecho correspondiente a los datos de imagen del ojo derecho incluidos en los datos de imagen estereoscópica del formato de transmisión predeterminado; una unidad de generación de información de control de despliegue que genera información de área de un área de control del ojo izquierdo que incluye una parte de o toda el área en la imagen del ojo izquierdo donde se superpone la información de superposición del ojo izquierdo con base en los datos de información de superposición de transmisión proporcionados como salida a partir de la unidad de procesamiento de datos de información de superposición y un área de control del ojo derecho que incluye una parte de o toda el área en la imagen del ojo derecho donde se superpone la información de superposición del ojo derecho con base en los datos de información de superposición de transmisión proporcionados como salida a partir de la unidad de procesamiento de datos de información de superposición, e información de control de despliegue que incluye información de desplazamiento del área de control del ojo izquierdo y del área de control del ojo derecho; y una unidad de transmisión de datos que transmite un flujo de datos multiplexados que tiene un primer flujo de datos que incluye los datos de imagen estereoscópica proporcionados como salida a partir de la unidad de salida de datos de imagen y un segundo flujo de datos que incluye los datos de información de superposición de transmisión proporcionados como salida a partir de la unidad de procesamiento de datos de información de superposición y la información de control de despliegue generada por la unidad de generación de información de control de despliegue.
2. El dispositivo de transmisión de datos de imagen estereoscópica de acuerdo con la reivindicación 1, caracterizado en que la información de desplazamiento del área de control del ojo izquierdo y del área de control del ojo derecho incluida en la información de control de despliegue es la información de desplazamiento para asignar disparidad a las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho.
3. El dispositivo de transmisión de datos de imagen estereoscópica de acuerdo con la reivindicación 2 , caracterizado en que adicionalmente comprende una unidad de salida de información de disparidad que proporciona como salida información de disparidad entre la imagen del ojo izquierdo basada en los datos de imagen del ojo izquierdo y la imagen del ojo derecho basada en los datos de imagen del ojo derecho, en donde la unidad de generación de información de control de despliegue genera información de desplazamiento para asignar disparidad a las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho con base en la información de disparidad proporcionada como salida a partir de la unidad de salida de información de disparidad.
4. El dispositivo de transmisión de datos de imagen estereoscópica de acuerdo con la reivindicación 1, caracterizado en que la información de desplazamiento del área de control del ojo izquierdo y del área de control del ojo derecho incluida en la información de control de despliegue es la información de desplazamiento para mover en proporciones iguales las posiciones de despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho.
5. El dispositivo de transmisión de datos de imagen estereoscópica de acuerdo con la reivindicación 1, caracterizado en que la información de desplazamiento incluida en la información de control de despliegue generada por la unidad de generación de información de control de despliegue es la información de desplazamiento secuencialmente actualizada en cada cuadro de un número predeterminado de periodos de cuadros para desplegar la información de superposición .
6. El dispositivo de transmisión de datos de imagen estereoscópica de acuerdo con la reivindicación 5, caracterizado en que la información de desplazamiento incluida en la información de control de despliegue generada por la unidad de generación de información de control de despliegue incluye información de desplazamiento de un primer cuadro de un número predeterminado de periodos de cuadros e información de corrimiento para la información de desplazamiento de cuadros previos con posterioridad a un segundo cuadro.
7. El dispositivo de transmisión de datos de imagen estereoscópica de acuerdo con la reivindicación 1, caracterizado en que la unidad de generación de información de control de despliegue genera secuencialmente la información de control de despliegue en cada cuadro de un número predeterminado de periodos de cuadros para desplegar la información de superposición.
8. El dispositivo de transmisión de datos de imagen estereoscópica de acuerdo con la reivindicación 1, caracterizado en que la información de desplazamiento generada por la unidad de generación de información de control de despliegue tiene un nivel de precisión de sub-pixeles.
9. El dispositivo de transmisión de datos de imagen estereoscópica de acuerdo con la reivindicación 1, caracterizado en que la información de control de despliegue generada por la unidad de generación de información de control de despliegue incluye información de comando para controlar el encendido/apagado del despliegue de la información de superposición del ojo izquierdo en el área de control del ojo izquierdo y la información de superposición del ojo derecho en el área de control del ojo derecho.
10. El dispositivo de transmisión de datos de imagen estereoscópica de acuerdo con la reivindicación 1, caracterizado en que la unidad de transmisión de datos inserta, en el flujo de datos multiplexados , información de identificación para identificar que los datos de información de superposición de transmisión conforme a un formato de transmisión de los datos de imagen estereoscópica se incluyen en el segundo flujo de datos.
11. Un método de transmisión de datos de imagen estereoscópica, caracterizado en que comprende: una etapa de salida de datos de imagen para proporcionar como salida datos de imagen estereoscópica que tienen datos de imagen del ojo izquierdo y datos de imagen del ojo derecho de un formato de transmisión predeterminado; una etapa de proporcionar como salida datos de información de superposición para proporcionar como salida datos de la información de superposición superpuesta con una imagen para los datos de imagen del ojo izquierdo y los datos de imagen del ojo derecho; una etapa de procesamiento de datos de información de superposición para convertir los datos de la información de superposición proporcionada como salida en la etapa de proporcionar como salida datos de información de superposición en la forma de datos de información de superposición de transmisión que tienen datos de la información de superposición del ojo izquierdo correspondiente a los datos de imagen del ojo izquierdo incluidos en los datos de imagen estereoscópica del formato de transmisión predeterminado y datos de la información de superposición del ojo derecho correspondiente a los datos de imagen del ojo derecho incluidos en los datos de imagen estereoscópica del formato de transmisión predeterminado; una etapa de generación de información de control de despliegue para generar información de área de un área de control del ojo izquierdo que incluye una parte de o toda el área en una imagen del ojo izquierdo donde se superpone la información de superposición del ojo izquierdo con base en los datos de información de superposición de transmisión proporcionados como salida en la etapa de procesamiento de datos de información de superposición y un área de control del ojo derecho que incluye una parte de o toda el área en la imagen del ojo derecho donde se superpone la información de superposición del ojo derecho con base en los datos de información de superposición de transmisión proporcionados como salida en la etapa de procesamiento de datos de información de superposición e información de control de despliegue que incluye la información de desplazamiento del área de control del ojo izquierdo y del área de control del ojo derecho; y una etapa de transmisión de datos para transmitir un flujo de datos multiplexados que tiene un primer flujo de datos que incluye los datos de imagen estereoscópica proporcionados como salida en la etapa de proporcionar como salida datos de imagen y un segundo flujo de datos que incluye los datos de información de superposición de transmisión proporcionados como salida en la etapa de procesamiento de datos de información de superposición y la información de control de despliegue generada en la etapa de generación de información de control de despliegue.
12. Un dispositivo de recepción de datos de imagen estereoscópica caracterizado en que comprende: una unidad de recepción de datos que recibe un flujo de datos multiplexados que tiene un primer flujo de datos y un segundo flujo de datos, el primer flujo de datos que incluye datos de imagen estereoscópica de un formato de transmisión predeterminado que tiene datos de imagen del ojo izquierdo y datos de imagen del ojo derecho, y el segundo flujo de datos que incluye datos de información de superposición de transmisión que tienen datos de la información de superposición del ojo izquierdo correspondiente a los datos de imagen del ojo izquierdo incluidos en los datos de imagen estereoscópica del formato de transmisión predeterminado y datos de la información de superposición del ojo derecho correspondiente a los datos de imagen del ojo derecho, información de área de un área de control del ojo izquierdo que incluye una parte de o toda el área en una imagen del ojo izquierdo donde se superpone la información de superposición del ojo izquierdo con base en los datos de información de superposición de transmisión y un área de control del ojo derecho que incluye una parte de o toda el área en una imagen del ojo derecho donde se superpone la información de superposición del ojo derecho con base en los datos de información de superposición de transmisión, e información de control de despliegue que tiene información de desplazamiento del área de control del ojo izquierdo y del área de control del ojo derecho; una unidad de obtención de datos de imagen que obtiene los datos de imagen estereoscópica a partir del primer flujo de datos que tiene el flujo de datos multiplexados recibido por la unidad de recepción de datos; una unidad de obtención de datos de información de superposición que obtiene los datos de información de superposición de transmisión a partir del segundo flujo de datos del flujo de datos multiplexados recibido por la unidad de recepción de datos; una unidad de obtención de información de control de despliegue que obtiene la información de control de despliegue a partir del segundo flujo de datos del flujo de datos multiplexados recibido por la unidad de recepción de datos; una unidad de generación de datos de despliegue que genera datos de despliegue para desplegar de manera superpuesta la información de superposición del ojo izquierdo y la información de superposición del ojo derecho en la imagen del ojo izquierdo y la imagen del ojo derecho con base en los datos de información de superposición de transmisión obtenidos por la unidad de obtención de datos de información de superposición; una unidad de ajuste de desplazamiento que recibe los datos de despliegue generados por la unidad de generación de datos de despliegue, ajusta en desplazamiento las posiciones de los datos de despliegue del área de control del ojo izquierdo y del área de control del ojo derecho indicadas por la información de área de la información de control de despliegue obtenida por la unidad de obtención de información de control de despliegue con base en la información de desplazamiento de la información de control de despliegue obtenida por la unidad de obtención de información de control de despliegue, y proporciona como salida los resultados; y una unidad de combinación de datos que superpone los datos de despliegue sometidos al desplazamiento y ajuste y proporcionados como salida a partir de la unidad de ajuste de desplazamiento con los datos de imagen estereoscópica obtenidos por la unidad de obtención de datos de imagen para obtener los datos de imagen estereoscópica de salida.
13. El dispositivo de recepción de datos de imagen estereoscópica de acuerdo con la reivindicación 12, caracterizado en que adicionalmente comprende una unidad de interfaz digital que transmite los datos de imagen estereoscópica de salida obtenidos por la unidad de combinación de datos hacia un dispositivo externo.
14. El dispositivo de recepción de datos de imagen estereoscópica de acuerdo con la reivindicación 12, caracterizado en que adicionalmente comprende: una unidad de obtención de información de identificación que obtiene la información de identificación a partir del flujo de datos multiplexados recibido por la unidad de recepción de datos; y una unidad de identificación de datos de información de superposición que identifica que el segundo flujo de datos incluye los datos de información de superposición de transmisión conforme a un formato de transmisión de los datos de imagen estereoscópica con base en la información de identificación obtenida por la unidad de obtención de información de identificación, en donde el flujo de datos multiplexados recibido por la unidad de recepción de datos incluye información de identificación para identificar que el segundo flujo de datos incluye los datos de información de superposición de transmisión conforme a un formato de transmisión de los datos de imagen estereoscópica.
15. Un método de recepción de datos de imagen estereoscópica, caracterizado en que comprende: una etapa de recepción de datos para recibir un flujo de datos multiplexados que tiene primer y segundo flujos de datos, el primer flujo de datos que incluye datos de imagen estereoscópica de un formato de transmisión predeterminado que tiene datos de imagen del ojo izquierdo y datos de imagen del ojo derecho, y el segundo flujo de datos que incluye datos de información de superposición de transmisión que tienen datos de la información de superposición del ojo izquierdo correspondiente a los datos de imagen del ojo izquierdo incluidos en los datos de imagen estereoscópica del formato de transmisión predeterminado y datos de la información de superposición del ojo derecho correspondiente a los datos de imagen del ojo derecho, información de área de un área de control del ojo izquierdo que incluye una parte de o toda el área en una imagen del ojo izquierdo donde se superpone la información de superposición del ojo izquierdo con base en los datos de información de superposición de transmisión y un área de control del ojo derecho que incluye una parte de o toda el área en una imagen del ojo derecho donde se superpone la información de superposición del ojo derecho con basé en los datos de información de superposición de transmisión, e información de control de despliegue que tiene- la información de desplazamiento del área de control del ojo izquierdo y del área de control del ojo derecho; una etapa de obtención de datos de imagen para obtener los datos de imagen estereoscópica a partir del primer flujo de datos del flujo de datos multiplexados recibido en la etapa de recepción de datos; una etapa de obtención de datos de información de superposición para obtener los datos de información de superposición de transmisión a partir del segundo flujo de datos del flujo de datos multiplexados recibido en la etapa de recepción de datos; una etapa de obtención de información de control de despliegue para obtener la información de control de despliegue a partir del segundo flujo de datos del flujo de datos multiplexados recibido en la etapa de recepción de datos; una etapa de generación de datos de despliegue para generar datos de despliegue para desplegar de manera superpuesta la información de superposición del ojo izquierdo y la información de superposición del ojo derecho en una imagen del ojo izquierdo y una imagen del ojo derecho, respectivamente, con base en los datos de información de superposición de transmisión obtenidos en la etapa de obtención de datos de información de superposición; una etapa de ajuste de desplazamiento para recibir los datos de despliegue generados en la etapa de generación de datos de despliegue, ajustar en desplazamiento las posiciones de los datos de despliegue del área de control del ojo izquierdo y del área de control del ojo derecho indicadas por la información de área de la información de control de despliegue obtenida en la etapa de obtención de información de control de despliegue con base en la información de desplazamiento de la información de control de despliegue obtenida en la etapa de obtención de información de control de despliegue, y proporcionar como salida los resultados; y una etapa de combinación de datos para superponer los datos de despliegue obtenidos mediante el ajuste de desplazamiento en el etapa de ajuste de desplazamiento con los datos de imagen estereoscópica obtenidos en la etapa de obtención de datos de imagen para obtener los datos de imagen estereoscópica de salida.
MX2012004580A 2010-08-23 2011-08-11 Dispositivo de transmision de datos de imagen 3d, metodo de transmision de datos de imagen 3d, dispositivo de recepcion de datos de imagen 3d, y metodo de recepcion de datos de imagen 3d. MX2012004580A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010186638A JP2012044625A (ja) 2010-08-23 2010-08-23 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
PCT/JP2011/068403 WO2012026342A1 (ja) 2010-08-23 2011-08-11 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法

Publications (1)

Publication Number Publication Date
MX2012004580A true MX2012004580A (es) 2012-06-28

Family

ID=45723346

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2012004580A MX2012004580A (es) 2010-08-23 2011-08-11 Dispositivo de transmision de datos de imagen 3d, metodo de transmision de datos de imagen 3d, dispositivo de recepcion de datos de imagen 3d, y metodo de recepcion de datos de imagen 3d.

Country Status (12)

Country Link
US (1) US20120200565A1 (es)
EP (1) EP2479999A1 (es)
JP (1) JP2012044625A (es)
KR (1) KR20130098130A (es)
CN (1) CN102771130A (es)
AU (1) AU2011294440A1 (es)
BR (1) BR112012009477A2 (es)
CA (1) CA2778308A1 (es)
MX (1) MX2012004580A (es)
RU (1) RU2012116154A (es)
TW (1) TW201230772A (es)
WO (1) WO2012026342A1 (es)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8937646B1 (en) * 2011-10-05 2015-01-20 Amazon Technologies, Inc. Stereo imaging using disparate imaging devices
KR20150102027A (ko) * 2012-12-26 2015-09-04 톰슨 라이센싱 콘텐츠 프리젠테이션을 위한 방법 및 장치
US10924785B2 (en) 2016-09-14 2021-02-16 Sony Corporation Transmission device, transmission method, reception device, and reception method
CN114764824A (zh) * 2020-12-30 2022-07-19 安霸国际有限合伙企业 使用导引节点的视差图构建
CN114268779B (zh) * 2021-12-08 2023-09-08 北京字跳网络技术有限公司 图像数据处理方法、装置、设备及计算机可读存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP3819873B2 (ja) * 2003-05-28 2006-09-13 三洋電機株式会社 立体映像表示装置及びプログラム
JP4190357B2 (ja) 2003-06-12 2008-12-03 シャープ株式会社 放送データ送信装置、放送データ送信方法および放送データ受信装置
JP4693900B2 (ja) * 2006-04-07 2011-06-01 シャープ株式会社 画像処理装置
US9769462B2 (en) * 2007-03-16 2017-09-19 Thomson Licensing System and method for combining text with three dimensional content
JP2009134068A (ja) * 2007-11-30 2009-06-18 Seiko Epson Corp 表示装置、電子機器、及び画像処理方法
KR101539935B1 (ko) * 2008-06-24 2015-07-28 삼성전자주식회사 3차원 비디오 영상 처리 방법 및 장치
US8422766B2 (en) * 2008-06-24 2013-04-16 Thomson Licensing System and method for depth extraction of images with motion compensation
JP5407968B2 (ja) * 2009-06-29 2014-02-05 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置
JP2011029849A (ja) * 2009-07-23 2011-02-10 Sony Corp 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造
US9307224B2 (en) * 2009-11-23 2016-04-05 Samsung Electronics Co., Ltd. GUI providing method, and display apparatus and 3D image providing system using the same

Also Published As

Publication number Publication date
CN102771130A (zh) 2012-11-07
US20120200565A1 (en) 2012-08-09
JP2012044625A (ja) 2012-03-01
AU2011294440A1 (en) 2012-06-07
KR20130098130A (ko) 2013-09-04
TW201230772A (en) 2012-07-16
RU2012116154A (ru) 2013-10-27
BR112012009477A2 (pt) 2016-05-03
EP2479999A1 (en) 2012-07-25
CA2778308A1 (en) 2012-03-01
WO2012026342A1 (ja) 2012-03-01

Similar Documents

Publication Publication Date Title
US8963995B2 (en) Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method
AU2011309301B2 (en) 3D-image data transmitting device, 3D-image data transmitting method, 3D-image data receiving device and 3D-image data receiving method
WO2013031549A1 (ja) 送信装置、送信方法および受信装置
US20120257019A1 (en) Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method
JP5682149B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013005571A1 (ja) 送信装置、送信方法および受信装置
US20120262454A1 (en) Stereoscopic image data transmission device, stereoscopic image data transmission method, stereoscopic image data reception device, and stereoscopic image data reception method
MX2012004580A (es) Dispositivo de transmision de datos de imagen 3d, metodo de transmision de datos de imagen 3d, dispositivo de recepcion de datos de imagen 3d, y metodo de recepcion de datos de imagen 3d.
JP2013051660A (ja) 送信装置、送信方法および受信装置
WO2013011834A1 (ja) 送信装置、送信方法および受信装置
WO2013018489A1 (ja) 送信装置、送信方法および受信装置

Legal Events

Date Code Title Description
FG Grant or registration