ES2905052T3 - Sistemas de codificación - Google Patents

Sistemas de codificación Download PDF

Info

Publication number
ES2905052T3
ES2905052T3 ES20162659T ES20162659T ES2905052T3 ES 2905052 T3 ES2905052 T3 ES 2905052T3 ES 20162659 T ES20162659 T ES 20162659T ES 20162659 T ES20162659 T ES 20162659T ES 2905052 T3 ES2905052 T3 ES 2905052T3
Authority
ES
Spain
Prior art keywords
sps
layer
nal unit
information
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20162659T
Other languages
English (en)
Inventor
Lihua Zhu
Jiancong Luo
Peng Yin
Jiheng Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby International AB
Original Assignee
Dolby International AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/824,006 external-priority patent/US20090003431A1/en
Application filed by Dolby International AB filed Critical Dolby International AB
Application granted granted Critical
Publication of ES2905052T3 publication Critical patent/ES2905052T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440227Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64784Data processing by the network
    • H04N21/64792Controlling the complexity of the content stream, e.g. by dropping packets

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Un codificador (1100) que comprende: una unidad de generación (1110) configurada para generar información en un primer conjunto de parámetros contenido en una primera unidad de capa de abstracción de red, siendo el primer conjunto de parámetros una estructura de sintaxis que contiene elementos de sintaxis que se aplican a cero o más secuencias de video codificadas enteras, y la información describe un parámetro para utilizarse para descodificar al menos una primera capa de múltiples capas de secuencias de videos y una segunda unidad de NAL que tiene un código tipo de unidad de NAL específico, la segunda unidad NAL corresponde a una segunda capa de dichas múltiples capas, y la segunda unidad de NAL incluye información suplementaria, la información suplementaria procedente de una segunda unidad de NAL indica (i) un identificador del primer conjunto de parámetros para indicar que la segunda unidad de NAL se utiliza para suplementar la primera unidad de NAL, (ii) un parámetro de información de capacidad de uso de video ("VUI") tiene información dependiente de capa para utilizarse para descodificar dicha segunda capa de dichas múltiples capas; y una unidad de codificación (1120) configurada para codificar dicha segunda capa de dichas múltiples capas en función de la información generada para la primera unidad de NAL, y la información suplementaria generada para la segunda unidad de NAL, en el cual el parámetro para utilizarse para descodificar la codificación de al menos dicha primera capa, se requiere con el fin de descodificar dicha segunda capa de dichas múltiples capas.

Description

DESCRIPCIÓN
Sistemas de codificación
Referencia cruzada a solicitudes relacionadas
Esta solicitud es una solicitud divisional europea de la solicitud de patente EP 17166196.0 (referencia: A16061EP09), para la cual se presentó el formulario OEP 1001 el 12 de abril 2017.
Campo técnico
Al menos una implementación se refiere a la codificación y a la descodificación de datos de vídeo de una manera regulable en escala.
Antecedentes
La codificación de datos de vídeo de acuerdo con varias capas puede ser de utilidad cuando los terminales para los que están destinados los datos tienen diferentes capacidades y, por tanto, no descodifican una corriente de datos completa sino tan solo parte de una corriente de datos completa. Cuando los datos de vídeo se codifican de acuerdo con varias capas de una manera regulable en escala, el terminal de recepción puede extraer de la corriente de bits recibida una porción de los datos de acuerdo con el perfil del terminal. Una corriente de datos completa puede también transmitir información de encabezamiento para cada capa a la que se da soporte, a fin de facilitar la descodificación de cada una de las capas existentes en un terminal.
La sintaxis de alto nivel MVC se identifica en los siguientes documentos:
• Purvin Pandit et al., “Sintaxis de alto nivel MVC para acceso aleatorio”, 77. Reunión MPEG; 17 de julio de 2006-21 de julio de 2006 (MPEG o ISO/IEC JTC1/SC29/WG11);
• Purvin Pandit et al., “Sintaxis de alto nivel MVC”, 22. Reunión MPEG; 13 de enero de 2007-20 de enero de 2007 (Equipo de video de junta de ISO/IEC/SC29/WG11 e ITU-T SG. 16).
También se hace referencia a Zhu L. H. et al., “SPS suplementario para SVC o MVC «retiradas»” 82. Reunión MPEG, 21 de octubre de 2007-26 de octubre de 2007 (equipo de video conjunto de ISO/IEC/SC29/WG11 e ITU-T SG.16), que se ha publicado en el intervalo de prioridad.
Sumario
La presente invención proporciona un codificador que tiene las características de la reivindicación 1 independiente. De acuerdo con un ejemplo general que es útil para comprender la invención, se accede a la información desde una unidad de capa de abstracción de red (“NAL” - “network abstraction layer”) de conjunto de parámetros en secuencia (“SPS” - “sequence parameter set”). La información describe un parámetro para uso en la descodificación de una codificación de primera capa de una secuencia de imágenes. Se accede también a la información procedente de una unidad de NAL de SPS suplementaria que tiene una estructura diferente de la de la unidad de NAL de SPS. La información procedente de la unidad de NAL de SPS describe un parámetro para uso a la hora de descodificar una codificación de segunda capa de la secuencia de imágenes. Se genera una descodificación de la secuencia de imágenes basándose en la codificación de primera capa, en la codificación de segunda capa, en la información a la que se accede desde la unidad de NAL de SPS y en la información a la que se accede desde la unidad de NAL de SPS suplementaria.
De acuerdo con otro ejemplo general que es útil para comprender la invención, se utiliza una estructura sintáctica que hace posible descodificar una secuencia de imágenes en múltiples capas. La estructura sintáctica incluye sintaxis para una unidad de NAL de SPS que incluye información que describe un parámetro destinado a utilizarse para descodificar una codificación de primera capa de una secuencia de imágenes. La estructura sintáctica también incluye la sintaxis para una unidad de NAL de SPS suplementaria que tiene una estructura diferente de la de la unidad de NAL de SPS. La unidad de NAL de SPS suplementaria incluye información que describe un parámetro destinado a ser utilizado a la hora de descodificar una codificación de segunda capa de secuencia de imágenes. Puede generarse una descodificación de la secuencia de imágenes basándose en la codificación de primera capa, en la codificación de segunda capa, en la información procedente de la unidad de NAL de SPS y en la información procedente de la unidad de NAL de SPS suplementaria.
De acuerdo con otro ejemplo general que es útil para comprender la invención, se formatea una señal para que incluya información procedente de una unidad de NAL de SPS. La información describe un parámetro destinado a utilizarse en la descodificación de una codificación de primera capa de una secuencia de imágenes. La señal se formatea adicionalmente para que incluya información procedente de una unidad de NAL de SPS suplementaria que tiene una estructura diferente de la de la unidad de NAL de SPS. La información procedente de la unidad de NAL de SPS suplementaria describe un parámetro destinado a utilizarse en la descodificación de una codificación de segunda capa de la secuencia de imágenes.
De acuerdo con otro ejemplo general que es útil para comprender la invención, se genera una unidad de NAL de SPS que incluye información que describe un parámetro destinado a utilizarse para descodificar una codificación de primera capa de una secuencia de imágenes. Se genera una unidad de NAL de SPS suplementaria que tiene una estructura diferente a la de la unidad de NAL de SPS. La unidad de NAL de SPS incluye información que describe un parámetro destinado a utilizarse para descodificar una codificación de segunda capa de la secuencia de imágenes. Se ha proporcionado un conjunto de datos que incluye la codificación de primera capa de la secuencia de imágenes, la codificación de segunda capa de la secuencia de imágenes, la unidad de NAL de SPS y la unidad de NAL de SPS suplementaria.
De acuerdo con otro ejemplo general que es útil para comprender la invención, se utiliza una estructura sintáctica que hace posible la codificación de una secuencia de imágenes en múltiples capas. La estructura sintáctica incluye la sintaxis para una unidad de NAL de SPS. La unidad de NAL de SPS incluye información que describe un parámetro destinado a utilizarse en la descodificación de una codificación de primera capa de una secuencia de imágenes. La estructura sintáctica incluye la sintaxis para una unidad de NAL de SPS suplementaria. La unidad de NAL de SPS suplementaria tiene una estructura diferente de la de la unidad de NAL de SPS. LA unidad de NAL de SPS suplementaria incluye información que describe un parámetro destinado a utilizarse en la descodificación de una codificación de segunda capa de la secuencia de imágenes. Puede proporcionarse un conjunto de datos que incluye la codificación de primera capa de la secuencia de imágenes, la codificación de segunda capa de la secuencia de imágenes, la unidad de NAL de SPS y la unidad de NAL de SPS suplementaria.
De acuerdo con otro ejemplo general que es útil para comprender la invención, se accede a la primera información dependiente de capa en un primer conjunto de parámetros de normativa. La primera información dependiente de capa a la que se accede está destinada a utilizarse para descodificar una codificación de primera capa de una secuencia de imágenes. Se accede a la segunda información dependiente de capa en un segundo conjunto de parámetros de normativa. El segundo conjunto de parámetros de normativa tiene una estructura diferente de la del primer conjunto de parámetros de normativa. La segunda información dependiente de capa a la que se accede está destinada a utilizarse para descodificar una codificación de segunda capa de la secuencia de imágenes. La secuencia de imágenes se descodifica basándose en una o más de la primera información dependiente de capa a la que se accede y la segunda información dependiente de capa a la que se accede.
De acuerdo con otro ejemplo general que es útil para comprender la invención, se genera un primer conjunto de parámetros de normativa que incluye primera información dependiente de capa. La primera información dependiente capa está destinada a utilizarse para descodificar una codificación de primera capa de una secuencia de imágenes. Se genera un segundo conjunto de parámetros de normativa que tiene una estructura diferente de la del primer conjunto de parámetros de normativa. El segundo conjunto de parámetros de normativa incluye segunda información dependiente capa para uso a la hora de descodificar una codificación de segunda capa de la secuencia de imágenes. Se proporciona un conjunto de datos que incluye el primer conjunto de parámetros de normativa y el segundo conjunto de parámetros de normativa.
Los detalles de una o más implementaciones se exponen en los dibujos que se acompañan y en la descripción que se da más adelante. Aun si se describen de una única manera particular, ha de quedar claro que pueden configurarse o materializarse implementaciones de diversas maneras. Por ejemplo, una implementación puede llevarse a efecto como un método, o bien materializarse como un aparato, tal como, por ejemplo, un aparato configurado para llevar a cabo un conjunto de operaciones o un aparato que almacena instrucciones para llevar a cabo un conjunto de operaciones, o materializarse en una señal. Otros aspectos y características se pondrán de manifiesto de forma evidente por la siguiente descripción detallada, considerada en combinación con los dibujos que se acompañan y las reivindicaciones.
Breve descripción de los dibujos
La Figura 1 es un diagrama de bloques para una implementación de un codificador.
La Figura 1a es un diagrama de bloques para otra implementación de un codificador.
La Figura 2 es un diagrama de bloques para una implementación de un descodificador.
La Figura 2a es un diagrama de bloques para otra implementación de un codificador.
La Figura 3 es una estructura de una implementación de una unidad de Capa de Abstracción de Red (“NAL” -“Network Abstraction Layer”) de Conjunto de Parámetros en Secuencia (“SPS” - “Sequence Parameter Set”) de capa individual.
La Figura 4 es una vista en bloques de un ejemplo de ciertas porciones de una corriente de datos, que ilustra el uso de una unidad de NAL de SPS.
La Figura 5 es una estructura de una implementación de una unidad de NAL de SPS suplementaria (“SUP SPS” -“supplemental SPS”).
La Figura 6 es una implementación de una jerarquía organizativa entre una unidad de SPS y múltiples unidades de SUP SPS.
La Figura 7 es una estructura de otra implementación de una unidad de NAL de SUP SPS.
La Figura 8 es una vista funcional de una implementación de un codificador de vídeo regulable en escala que genera unidades de SUP SPS.
La Figura 9 es una vista jerárquica de una implementación de la generación de una corriente de datos que contiene unidades de SUP SPS.
La Figura 10 es una vista en bloques de un ejemplo de una corriente de datos generada por la implementación de la Figura 9.
La Figura 11 es un diagrama de bloques de una implementación de un codificador. La Figura 12 es un diagrama de bloques de otra implementación de un codificador. La Figura 13 es un diagrama de flujo de una implementación de un procedimiento de codificación que se utiliza por los codificadores de las Figuras 11 o 12.
La Figura 14 es una vista en bloques de un ejemplo de una corriente de datos generada por medio del procedimiento de la Figura 13.
La Figura 15 es un diagrama de bloques de una implementación de un descodificador. La Figura 16 es un diagrama de bloques de otra implementación de un descodificador. La Figura 17 es un diagrama de flujo de una implementación de un procedimiento de descodificación utilizado por los descodificadores de las Figuras 15 o 16.
Descripción detallada
Existen en la actualidad diversas especificaciones de codificación de vídeo que pueden codificar datos de vídeo de acuerdo con diferentes capas y/o perfiles. Entre ellos, pueden citarse la AVC H.264/MPEG-4 (la “especificación AVC”), a la que se hace referencia también como recomendación H.264 de la Organización Internacional para Normalización/Comisión Electrotécnica Internacional (ISO/IEC - “International Organization for Standardization/International Electrotechnical Comisión”), Grupo de Expertos de Imagen en Movimiento-4 (MPEG-4 - “Moving Picture Experts Group-4”), Parte 10, norma de Codificación de Vídeo Avanzada (AVC - “Advanced Video Coding”)/Unión Internacional de Telecomunicación, Sector de Telecomunicación (ITU-T - “International Telecommunication Union, Telecommunication Sector”). Adicionalmente, existen extensiones o ampliaciones de la especificación de AVC. Una primera de dichas ampliaciones es una ampliación de codificación de vídeo regulable en escala (“SVC” - “scalable video coding”) (Anexo G), a la que se hace referencia como la AVC H.264/MPEG-4, ampliación de codificación de video regulable escala (la “ampliación SVC”). Una segunda de tales ampliaciones es una ampliación de codificación de vídeo de múltiples vistas (MVC” - “multi-view video coding”) (Anexo H), a la que se hace referencia la AVC H.264/MPEG-4, ampliación de MVC (la “ampliación MVC”).
Puede utilizarse al menos una implementación descrita en esta divulgación con la especificación AVC así como con las extensiones SVC y MVC. La implementación proporciona una unidad de capa de abstracción de red (“NAL” -“network abstraction layer”) de conjunto de parámetros en secuencia (“SPS” - “sequence parameter set”) suplementaria (“SUP”) que tiene un tipo de unidad de NAL diferente del de las unidades de NAL de SPS. Una unidad de SPS incluye por lo común, aunque no necesariamente, información para al menos una capa individual. Por otra parte, la unidad de NAL de SPS s Up incluye información dependiente de capa para al menos una capa adicional. De esta forma, al acceder a las unidades de SPS y de SPS s Up , un descodificador dispone de cierta información (y, por lo común, toda) dependiente de capa necesaria para descodificar una corriente de bits.
Utilizando esta implementación en un sistema de AVC, no es necesario que se transmitan las unidades de NAL de SPS SUP, y puede transmitirse una unidad de NAL de SPS de capa individual (según se describe más adelante). Utilizando esta implementación en un sistema de SVC (o de MVC) la(s) unidad(es) de NAL de SPS SUP pueden ser transmitidas para las capas adicionales deseadas (o vistas), además de una unidad de NAL de SPS. Utilizando esta implementación en un sistema que incluye tanto descodificadores compatibles con AVC como descodificadores compatibles con SVC (o compatibles con MVC), los descodificadores compatibles con AVC pueden ignorar las unidades de NAL de SPS SUP al detectar el tipo de unidad de NAL. Se consiguen, en cada caso, eficiencia y compatibilidad.
La implementación anterior también proporciona beneficios para sistemas (normalizados o de otra manera) que imponen el requisito de que ciertas capas compartan información de encabezamiento, tal como, por ejemplo, un SPS o información particular típicamente transportada en un SPS. Por ejemplo, si una capa de base y sus capas temporales compuestas necesitan compartir un SPS, entonces la información dependiente de capa no puede ser transmitida con el SPS compartido. Sin embargo, el SPS de SUP proporciona un mecanismo para transmitir la información dependiente de capa.
El SPS SUP de diversas implementaciones también proporciona una ventaja eficiente en tanto en cuanto el SPS SUP no necesita incluir, y, por tanto, repetir, todos los parámetros contenidos en el SPS. El SPS SUP estará, por lo común, concentrado en los parámetros dependientes de capa. Sin embargo, diversas implementaciones incluyen una estructura de SPS SUP que incluye parámetros no dependientes de capa, o incluso que repite la totalidad de una estructura de SPS.
Diversas implementaciones se refieren a la ampliación SVC. La ampliación SVC propone la transmisión de datos de vídeo de acuerdo con varios niveles espaciales, niveles temporales y niveles de calidad. Para un nivel espacial, es posible codificar de acuerdo con diversos niveles temporales, y para cada nivel temporal, de acuerdo con diversos niveles de calidad. En consecuencia, en el caso de que se hayan definido m niveles espaciales, n niveles temporales y O niveles de calidad, los datos de vídeo pueden ser codificados de acuerdo con m*n*O combinaciones diferentes. Se hace referencia a estas combinaciones como capas, o bien como puntos de interoperabilidad (“lOPs” -“interoperability points”). De acuerdo con las capacidades del descodificador (al que se hace referencia también como el receptor o el cliente), pueden transmitirse diferentes capas hasta una cierta capa correspondiente al máximo de las capacidades del cliente.
Tal y como se utiliza aquí, la información “dependiente de capa” hace referencia a información que se refiere específicamente a una única capa. Es decir, tal y como el nombre lo sugiere, la información es dependiente de la capa específica. Dicha información no debe necesariamente variar de una capa o otra sino que será, por lo común, proporcionada por separado para cada capa.
Tal y como se utiliza aquí, la expresión “sintaxis de alto nivel” hace referencia a la sintaxis presente en la corriente de bits que reside jerárquicamente por encima de la capa de macrobloque. Por ejemplo, una sintaxis de alto nivel, tal como se utiliza aquí, puede referirse a, pero no está limitada a, sintaxis en el nivel de encabezamiento de fragmento, en el nivel de Información de Mejora Suplementaria (SEI - “Supplemental Enhancement Information”), en el nivel de Conjunto de Parámetros de Imagen (PPS - “Picture Parameter Set”), en el nivel de Conjunto de Parámetros en Secuencia (SPS), y en el nivel de encabezamiento de unidad de Capa de Abstracción de Red (NAL).
Haciendo referencia a la Figura 1, un codificador de SVC proporcionado a modo de ejemplo se indica generalmente por el número de referencia 100. El codificador de SVC 100 puede también utilizarse para la codificación de AVC, es decir, para una única capa (por ejemplo, la capa de base). Por otra parte, el codificador de SVC 100 puede ser utilizado para codificar según MVC, tal como apreciará una persona con conocimientos ordinarios de la técnica. Por ejemplo, pueden utilizarse diversos componentes del codificador de SVC 100, o variaciones de estos componentes, en la codificación de múltiples vistas.
Una primera salida de un módulo de descomposición temporal 142 está conectada en comunicación de señal con una primera entrada de una predicción interna para un módulo 146 de bloque interno. Una segunda salida del módulo de descomposición temporal 142 está conectada en comunicación de señal con una primera entrada de un módulo de codificación de movimiento 144. Una salida de la predicción interna para el módulo 146 de bloque interno está conectada en comunicación de señal con una entrada de un codificador de transformada/entropía (relación entre señal y ruido (SNR - “signal to noise ratio”) regulable en escala) 149. Una primera salida del codificador de transformada/entropía 149 está conectada en comunicación de señal con una primera entrada de un multiplexador 170.
Una primera salida de un módulo de descomposición temporal 132 está conectado en comunicación de señal con una primera entrada de una predicción interna para el módulo 136 de bloque interno. Una segunda salida del módulo de descomposición temporal 132 está conectada en comunicación de señal con una primera entrada de un módulo de codificación en movimiento 134. Una salida de la predicción interna para el módulo 136 de bloque interno está conectada en comunicación de señal con una entrada de un codificador de transformada/entropía (relación entre señal y ruido (SNR) regulable en escala) 139. Una primera salida del codificador de transformada/entropía 139 está conectada en comunicación de señal con una primera entrada de un multiplexador 170.
Una segunda salida del codificador de transformada/entropía 149 está conectada en comunicación de señal con una entrada de un módulo de interpolación espacial en 2D 138. Una salida del módulo de interpolación espacial en 2D 138 está conectada en comunicación de señal con una segunda entrada de la predicción interna para el módulo 136 de bloque interno. Una segunda salida del módulo de codificación de movimiento 144 está conectada en comunicación de señal con una entrada del módulo de codificación de movimiento 134.
Una primera salida del módulo de descomposición temporal 122 está conectada en comunicación de señal con una primera entrada de un dispositivo de predicción interno 126. Una segunda salida del módulo de descomposición temporal 122 está conectada en comunicación de señal con una primera entrada de un módulo de codificación de movimiento 124. Una salida del dispositivo de predicción interno 126 está conectada en comunicación de señal con una entrada de un codificador de transformada/entropía (relación entre señal y ruido (SNR) regulable en escala). Una salida del codificador de transformada/entropía 129 está conectada en comunicación de señal con una primera entrada de un multiplexador 170.
Una segunda salida del codificador de transformada/entropía 139 está conectada en comunicación de señal con una entrada de un módulo de interpolación espacial en 2D 128. Una salida del módulo de interpolación espacial en 2D 128 está conectada en comunicación de señal con una segunda entrada del módulo de predicción interno 126. Una segunda salida del módulo de codificación de movimiento 134 está conectada en comunicación de señal con una entrada del módulo de codificación de movimiento 124.
Una primera salida del módulo de codificación de movimiento 124, una primera salida del módulo de codificación de movimiento 134 y una primera salida del módulo de codificación de movimiento 144 están conectadas, cada una de ellas, en comunicación de señal con una segunda entrada del multiplexador 170.
Una primera salida de un módulo de diezmado o reducción de número de muestras espacial en 2D 104 está conectada en comunicación de señal con una entrada del módulo de descomposición temporal 132. Una segunda salida del módulo reducción de número de muestras espacial en 2D 104 está conectada en comunicación de señal con una entrada del módulo de descomposición temporal 142.
Una entrada del módulo de descomposición temporal 122 y una entrada del módulo de reducción del número de muestras espacial en 2D 104 se encuentran disponibles como entradas del codificador 100, a fin de recibir vídeo de entrada 102.
Una salida del multiplexador 170 se encuentra disponible como salida del codificador 100, a fin de proporcionar una corriente de bits 180.
El módulo de descomposición temporal 122, el módulo de descomposición temporal 132, el módulo de descomposición temporal 142, el módulo de codificación de movimiento 124, el módulo de codificación de movimiento 134, el módulo de codificación de movimiento 144, el dispositivo de predicción interno 126, el dispositivo de predicción interno 136, el dispositivo de predicción interno 146, el codificador de transformada/entropía 129, el codificador de transformada/entropía 139, el codificador de transformada/entropía 149, el módulo de interpolación espacial en 2D 128 y el módulo de interpolación espacial en 2D 138 están incluidos en una parte de codificación de núcleo 187 del codificador 100.
La Figura 1 incluye tres codificadores de núcleo 187. En la implementación mostrada, el codificador de núcleo más inferior 187 puede codificar una capa de base, de tal manera que los codificadores de núcleo medio y superior 187 codifican capas más altas.
Haciendo referencia a la Figura 2, un descodificador de SVC proporcionado a modo de ejemplo se indica generalmente por el número de referencia 200. El codificador de SVC 200 puede también ser utilizado para la descodificación de AVC, es decir, para una única vista. Además, el descodificador de SVC 200 puede ser utilizado para la descodificación de MVC, tal como apreciará una persona con conocimientos ordinarios de la técnica. Por ejemplo, pueden utilizarse diversos componentes del descodificador de SVC 200, o variantes de estos componentes, a la hora de descodificar múltiples vistas.
Nótese que el codificador 100 y el descodificador 200, así como otros codificadores y descodificadores expuestos en esta divulgación, pueden ser configurados para llevar a cabo diversos métodos que se muestran a lo largo de toda esta descripción. Además de llevar a cabo operaciones de codificación, los descodificadores expuestos en esta descripción pueden realizar diversas operaciones de descodificación durante un procedimiento de reconstrucción con el fin de reproducir exactamente las acciones esperadas de un descodificador. Por ejemplo, un descodificador puede descodificar unidades de SPS SUP para descodificar datos de vídeo codificados, a fin de producir una reconstrucción de los datos de vídeo codificados para uso a la hora de predecir datos de vídeo adicionales. En consecuencia, un codificador puede llevar a cabo sustancialmente todas las operaciones que son realizadas por un descodificador.
Una entrada de un desmultiplexador 202 se encuentra disponible como entrada al descodificador de vídeo regulable en escala 200, a fin de recibir una corriente de bits regulable en escala. Una primera salida del desmultiplexador 202 está conectada en comunicación de señal con una entrada de un descodificador 204 de entropía, regulable en escala, de SNR de transformada inversa espacial. Una primera salida del descodificador 204 de entropía, regulable en escala, de SNR de transformada inversa espacial, está conectada en comunicación de señal con una primera entrada de un módulo de predicción 206. Una salida del módulo de predicción 206 está conectada en comunicación de señal con una primera entrada de un dispositivo combinatorio 230.
Una segunda salida del descodificador 204 de entropía, regulable en escala, de SNR de transformada inversa espacial está conectada en comunicación de señal con una primera entrada de un descodificador 210 de vector de movimiento (MV - “motion vector”). Una salida del descodificador 210 de MV está conectada en comunicación de señal con una entrada de un compensador de movimiento 232. Una salida del compensador de movimiento 232 está conectad en comunicación de señal con una segunda entrada del dispositivo combinatorio 230.
Una segunda salida del desmultiplexador 202 está conectada en comunicación de señal con una entrada de un descodificador 212 de entropía, regulable en escala, de SNR de transformada inversa espacial. Una primera salida del descodificador 212 de entropía, regulable en escala, de SNR de transformada inversa espacial está conectada en comunicación de señal con una primera entrada de un módulo de predicción 214. Una primera salida del módulo de predicción 214 está conectado en comunicación de señal con una entrada de un módulo de interpolación 216. Una salida del módulo de interpolación 216 está conectada en comunicación de señal con una segunda entrada del módulo de predicción 206. Una segunda salida del módulo de predicción 214 está conectada en comunicación de señal con una primera entrada de un dispositivo combinatorio 240.
Una segunda salida del descodificador 212 de entropía, regulable en escala, de SNR de transformada inversa espacial está conectada en comunicación de señal con una primera entrada de un descodificador 220 de MV. Una primera salida del descodificador 220 de MV está conectada en comunicación de señal con una segunda entrada del descodificador 210 de MV. Una segunda salida del descodificador 220 de MV está conectada en comunicación de señal con una entrada de un compensador de movimiento 242. Una salida del compensador de movimiento 242 está conectada en comunicación de señal con una segunda entrada del dispositivo combinatorio 240.
Una tercera salida del desmultiplexador 202 está conectada en comunicación de señal con una entrada de un descodificador 222 de entropía, regulable en escala, de SNR de transformada inversa espacial. Una primera salida del descodificador 222 de entropía, regulable en escala, de SNR de transformada inversa espacial está conectada en comunicación de señal con una entrada de un módulo de predicción 224. Una primera salida del módulo de predicción 224 está conectada en comunicación de señal con una entrada de un módulo de predicción 224. Una primera salida del módulo de predicción 224 está conectada en comunicación de señal con una entrada de un módulo de interpolación 226. Una salida del módulo de interpolación 226 está conectada en comunicación de señal con una segunda entrada del módulo de predicción 214.
Una segunda salida del módulo de predicción 224 está conectada en comunicación de señal con una primera entrada de un dispositivo combinatorio 250. Una segunda salida del descodificador 222 de entropía, regulable en escala, de SNR de transformada inversa espacial está conectada en comunicación de señal con una entrada de un descodificador 230 de MV. Una primera salida del descodificador 230 de MV está conectada en comunicación de señal con una segunda entrada del descodificador 220 de MV. Una segunda salida del descodificador 230 de MV está conectada en comunicación de señal con una entrada de un compensador de movimiento 252. Una salida del compensador de movimiento 252 está conectada en comunicación de señal con una segunda entrada del dispositivo combinatorio 250.
Una salida del dispositivo combinatorio 250 se encuentra disponible como una salida del descodificador 200, a fin de suministrar como salida una señal de capa 0. Una salida del dispositivo combinatorio 240 está disponible como una salida del decodificador 200, a fin de suministrar una señal de capa 1. Una salida del dispositivo combinatorio 230 está disponible como una salida del descodificador 200, a fin de suministrar como salida una señal de capa 2.
Haciendo referencia a la Figura 1a, un codificador de AVC proporcionado a modo de ejemplo se indica generalmente por el número de referencia 2100. El codificador de AVC 2100 puede ser utilizado, por ejemplo, para codificar una única capa (por ejemplo, la capa de base).
El codificador de vídeo 2100 incluye un registro de almacenamiento intermedio 2100 de ordenación de trama que tiene una salida en comunicación de señal con una entrada no inversora de un dispositivo combinatorio 2185. Una salida del dispositivo combinatorio 2185 está conectada en comunicación de señal con una primera entrada de un dispositivo transformador y de cuantización 2125. Una salida del dispositivo transformador y de cuantización 2125 está conectada en comunicación de señal con una primera entrada de un codificador de entropía 2145 y con una primera entrada de un dispositivo transformador inverso y un dispositivo de cuantificación inverso 2150. Una salida del codificador de entropía 2145 está conectada en comunicación de señal con una primera entrada no inversora de un dispositivo combinatorio 2190. Una salida del dispositivo combinatorio 2190 está conectada en comunicación de señal con una primera entrada de un registro de almacenamiento intermedio de salida 2135.
Una primera salida de un controlador 2105 de codificador está conectada en comunicación de señal con una segunda entrada del registro de almacenamiento intermedio 2110 de ordenación de trama, con una segunda entrada del dispositivo transformador inverso y el dispositivo de cuantización inverso 2150, con una entrada de un módulo de decisión 21155 sobre el tipo de imagen, con una entrada de un módulo de decisión 2120 sobre el tipo de macrobloque (tipo de MB), con una segunda entrada de un módulo de predicción interno 2160, con una segunda entrada de un filtro de desbloqueo 2165, con una primera entrada de un compensador de movimiento 2170, con una primera entrada de un estimador de movimiento 2175, y con una segunda entrada de un registro de almacenamiento intermedio 2180 de imagen de referencia.
Una segunda salida del controlador 2105 de codificador está conectada en comunicación de señal con una primera entrada de un dispositivo de inserción 2130 de Información de Mejora Suplementaria (“SEI” - “Supplemental Enhancement Information”), una segunda entrada del dispositivo transformador y de cuantificación 2125, una segunda entrada del codificador de entropía 2145, una segunda entrada del registro de almacenamiento intermedio 2135 de salida, y una entrada del dispositivo de inserción 2140 de Conjunto de Parámetros en Secuencia (SPS) y de Conjunto de Parámetro de Imagen (PPS).
Una primera salida del módulo de decisión 2115 sobre el tipo de imagen está conectada en comunicación de señal con una tercera entrada de un registro de almacenamiento intermedio 2110 de ordenación de trama. Una segunda salida del módulo de decisión 2115 sobre el tipo de imagen está conectada en comunicación de señal con una segunda entrada de un módulo de decisión 2120 sobre el tipo de macrobloque.
Una salida del dispositivo de inserción 2140 de Conjunto de Parámetros en Secuencia (“SPS”) y Conjunto de Parámetros de Imagen (“PPS”) está conectada en comunicación de señal con una tercera entrada no inversora del dispositivo combinatorio 2190. Una salida del dispositivo de inserción de SEI 2130 está conectada en comunicación de señal con una segunda entrada no inversora del dispositivo combinatorio 2190.
Una salida del dispositivo de cuantización inverso y transformador inverso 2150 está conectada en comunicación de señal con una primera entrada no inversora de un dispositivo combinatorio 2127. Una salida del dispositivo combinatorio 2127 está conectada en comunicación de señal con una primera entrada del módulo de predicción interna 2160 y con una primera entrada del filtro de desbloqueo 2165. Una salida del filtro de desbloqueo 2165 está conectada en comunicación de señal con una primera entrada de un registro de almacenamiento intermedio 2180 de imagen de referencia. Una salida del registro de almacenamiento intermedio 2180 de imagen de referencia está conectada en comunicación de señal con una segunda entrada del estimador de movimiento 2175 y con una primera entrada de un compensador 2170. Una primera salida del estimador de movimiento 2175 está conectada en comunicación de señal con una segunda entrada del compensador de movimiento 2170. Una segunda salida del estimador de movimiento 2175 está conectada en comunicación de señal con una tercera entrada del codificador de entropía 2145.
Una salida del compensador de movimiento 2170 está conectada en comunicación de señal con una primera entrada de un conmutador 2197. Una salida del módulo de predicción interna 2160 está conectada en comunicación de señal con una segunda entrada del conmutador 2197. Una salida del módulo de decisión 2120 sobre el tipo de macrobloque está conectada en comunicación de señal con una tercera entrada del conmutador 2197 con el fin de proporcionar una entrada de control al conmutador 2197. Una salida del conmutador 2197 está conectada en comunicación de señal con una segunda entrada no inversora del dispositivo combinatorio 2127 y con una entrada no inversora del dispositivo combinatorio 2185.
Entradas del registro de almacenamiento intermedio 2110 de ordenación de trama y del controlador 2105 de codificador se encuentran disponibles como entrada del codificador 2100, a fin de recibir una imagen de entrada 2101. Además, una entrada del dispositivo de inserción de SEI 2130 se encuentra disponible como una entrada del codificador 2100, a fin de recibir metadatos [datos relativos a otros datos]. Una salida del registro de almacenamiento intermedio 2135 de salida se encuentra disponible como una salida del codificador 2100, a fin de suministrar como salida una corriente de datos.
Haciendo referencia a la Figura 2a, un descodificador de vídeo capaz de llevar a cabo la descodificación de vídeo de acuerdo con la especificación AVC de MPEG-4, se indica generalmente por el número de referencia 2200.
El descodificador de vídeo 2200 incluye un registro de almacenamiento intermedio 2210 de entrada que tiene una salida conectada en comunicación de señal con una primera entrada de un descodificador de entropía 2245. Una primera salida del descodificador de entropía 2245 está conectada en comunicación de señal con una primera entrada de un transformador inverso y dispositivo de cuantización inverso 2250. Una salida del transformador inverso y dispositivo de cuantización inverso 2250 está conectada en comunicación de señal con una segunda entrada no inversora de un dispositivo combinatorio 2225. Una salida del dispositivo combinatorio 2225 está conectada en comunicación de señal con una segunda entrada de un filtro de desbloqueo 2265 y con una primera entrada de un módulo de predicción interna 2260. Una segunda salida del filtro de desbloqueo 2265 está conectada en comunicación de señal con una primera entrada de un registro de almacenamiento intermedio 2280 de imagen de referencia. Una salida del registro de almacenamiento intermedio 2280 de imagen de referencia está conectada en comunicación de señal con una segunda entrada de un compensador de movimiento 2270.
Una segunda salida del descodificador de entropía 2245 está conectada en comunicación de señal con una tercera entrada del compensador de movimiento 2270 y con una primera entrada del filtro de desbloqueo 2265. Una tercera salida del descodificador de entropía 2245 está conectada en comunicación de señal con una entrada de un controlador 2205 de descodificador. Una primera salida del controlador 2205 de descodificador está conectada en comunicación de señal con una segunda entrada del descodificador de entropía 2245. Una segunda salida del controlador 2205 de descodificador está conectada en comunicación de señal con una segunda entrada del transformador inverso y dispositivo de cuantización inverso 2250. Una tercera salida del controlador 2205 de descodificador está conectada en comunicación de señal con una tercera entrada del filtro 2265 de desbloqueo. Una cuarta salida del controlador 2205 de descodificador está conectado en comunicación de señal con una segunda entrada del módulo de predicción interna 2260, con una primera entrada del compensador de movimiento 2270 y con una segunda entrada del registro de almacenamiento intermedio 2280 de imagen de referencia.
Una salida del compensador de movimiento 2270 está conectada en comunicación de señal con una primera entrada de un conmutador 2297. Una salida del módulo de predicción interna 2260 está conectada en comunicación de señal con una segunda entrada del conmutador 2297. Una salida del conmutador 2297 está conectada en comunicación de señal con una primera entrada no inversora del dispositivo combinatorio 2225.
Una entrada del registro de almacenamiento intermedio 2210 de entrada se encuentra disponible como una entrada del descodificador 2200, al objeto de recibir una corriente de datos de entrada. Una primera salida del filtro de desbloqueo 2265 se encuentra disponible como una salida del descodificador 2200, a fin de suministrar como salida una imagen de salida.
Haciendo referencia a la Figura 3, se muestra en ella una estructura para un SPS 300 de una única capa. El SPS es una estructura sintáctica que contiene generalmente elementos de sintaxis que se aplican a cero o más secuencias de vídeo codificadas enteras. En la ampliación SVC, los valores de algunos elementos sintácticos transportados en el SPS son dependientes de la capa. Estos elementos sintácticos dependientes de la capa incluyen, si bien no están limitados por, la información de regulación de secuencia temporal, parámetros de HRD (que significa “Descodificador de Referencia Hipotético - “Hypothetical Reference Decoder”) e información de restricción de corriente de datos. Los parámetros de HRD pueden incluir, por ejemplo, indicadores del tamaño del registro de almacenamiento intermedio, velocidad de transferencia de bits máxima y retardo inicial. Los parámetros de HRD pueden hacer posible un sistema de recepción, por ejemplo, para verificar la integridad de una corriente de bits recibida y/o para determinar si el sistema de recepción (por ejemplo, un descodificador) puede descodificar la corriente de bits. En consecuencia, un sistema puede hacer posible la transmisión de los elementos sintácticos anteriormente mencionados para cada capa.
El SPS 300 de capa única incluye un SPS-ID 310 que proporciona un identificador para el SPS. El SPS 300 de capa única también incluye los parámetros 320 de VUI (que significa Información de Capacidad de Uso de Vídeo - “Video Usability Information”) para una única capa. Los parámetros de VUI incluyen parámetros 330 de HRD para una única capa, tal como, por ejemplo, la capa de base. El SPS 300 de capa única también puede incluir parámetros adicionales 340, si bien algunas implementaciones no necesitan incluir ninguno de los parámetros adicionales 340. Haciendo referencia a la Figura 4, una vista en bloques de una corriente de datos 400 muestra un uso típico de un SPS 300 de capa única. En la especificación AVC, por ejemplo, una corriente de datos típica puede incluir, entre otros componentes, una unidad de SPS, múltiples unidades de PPS (secuencia de parámetros de imagen) que proporcionan parámetros para una imagen concreta, y múltiples unidades para datos de imagen codificados. Dicho marco general se sigue en la Figura 4, que incluye el SPS 300, un PPS-1410, una o más unidades 420 que incluyen datos de imagen-1 codificados, un PPS-2 430 y una o más unidades 440 que incluyen datos de imagen-2 codificados. El PPS-1 410 incluye parámetros para datos de imagen-1 codificados 420, y el PPS-2 430 incluye parámetros para los datos de imagen-2440 codificados.
Los datos de imagen-1 codificados 420 y los datos de imagen-2 codificados 440 están asociados, cada uno de ellos, con un SPS particular (el SPS 30 de la implementación de la Figura 4). Esto se consigue mediante el uso de punteros, tal como se explica ahora. Los datos de imagen-1 codificados 420 incluyen un PPS-ID (no mostrado) que identifica el PPS-1 410, tal como se muestra por una flecha 450. El PPS-ID puede ser almacenado en, por ejemplo, un encabezamiento de fragmento. Los datos de imagen-2 codificados 440 incluyen un PPS-ID (no mostrado) que identifica el PPS-2430, tal y como se muestra por una flecha 460. El PPS-1 410 y el PPS-2430 incluyen, cada uno de ellos, un SPS-ID (no mostrado) que identifica el SPS 300, tal como se muestra por las flechas 470 y 480, respectivamente.
Haciendo referencia a la Figura 5, se muestra en ella una estructura para un SUP SPS 500. El SUP SPS 500 incluye un SPS ID 510, una VUI 520 que incluye parámetros de HRD 530 para una única capa adicional, a los que se hace referencia como “(D2, T2, q 2)”, y parámetros adicionales opcionales 540. “D2, T2, Q2” hace referencia a una segunda capa que tiene un nivel 2 espacial (D), un nivel 2 temporal (T) y un nivel 2 de calidad (Q).
Nótese que pueden utilizarse diversos esquemas de numeración para hacer referencia a las capas. En un esquema de numeración, las capas de base tienen un D, T, Q de 0, x, 0, lo que significa un nivel espacial de cero, cualquier nivel temporal y un nivel de calidad de cero. En ese esquema de numeración, las capas de mejora tienen un D, T, Q en el que D o Q son mayores que cero.
El uso del SUP SPS 500 permite, por ejemplo, un sistema para utilizar una estructura de SPS que tan solo incluye parámetros para una única capa, o que no incluye ninguna información dependiente de capa. Dicho sistema puede crear un SUP SPS independiente para cada capa adicional, más allá de la capa de base. Las capas adicionales pueden identificar el SPS con el que están asociadas haciendo uso del SPS ID 510. Claramente, algunas capas pueden compartir un mismo SPS mediante el uso de un SPS ID común en sus respectivas unidades de SUP SPS. Haciendo referencia a la Figura 6, se muestra en ella una jerarquía organizativa 600 entre una unidad de SPS 605 y múltiples unidades de SUP SPS 610 y 620. Las unidades de SUP SPS 610 y 620 se muestran de manera que consisten en unidades de SUP SPS de una sola capa, pero otras implementaciones pueden utilizar una o más unidades de SUP SPS de múltiples capas además de las unidades de SUP SPS de una única capa o en lugar de estas. La jerarquía 600 ilustra el hecho de que, en un escenario típico, múltiples unidades de SUP SPS pueden estar asociadas con una única unidad de SPS. Ciertas implementaciones pueden, por supuesto, incluir múltiples unidades de SPS, y cada una de las unidades de SPS puede tener unidades de SUP SPS asociadas.
Haciendo referencia a la Figura 7, se muestra en ella una estructura para otro SUP SPS 700. El SUP SPS 700 incluye parámetros para múltiples capas, en tanto que el SUP SPS 500 incluye parámetros para una única capa. El SUP s Ps 700 incluye un SPS ID 710, una VUI 720 y parámetros adicionales opcionales 740. La VUI 720 incluye parámetros 730 de HRD para una primera capa adicional (D2, T2, Q2) y para otras capas adicionales hasta la capa (Dn, Tn, Qn).
Haciendo referencia, de nuevo, a la Figura 6, la jerarquía 600 puede ser modificada para utilizar un SUP SPS de múltiples capas. Por ejemplo, la combinación de los SUP SPS 610 y 620 puede ser reemplazada por el SUP SPS 700 si los dos SUP SPS 610 y 620 incluyen el mismo SPS ID.
De manera adicional, el SUP SPS 700 puede ser utilizado, por ejemplo, con un SPS que incluye parámetros para una única capa, o que incluye parámetros para múltiples capas, o bien que no incluye parámetros dependientes de capa para ninguna de las capas. El SUP SPS 700 hace posible que un sistema proporcione parámetros para múltiples capas con poca información de encabezamiento.
Otras implementaciones pueden estar basadas, por ejemplo, en un SPS que incluye todos los parámetros necesarios para todas las posibles capas. Es decir, el SPS de dicha implementación incluye todos los niveles correspondientes espacial (Di), temporal (Ti) y de calidad (Qi) que están disponibles para ser transmitidos, ya sean transmitidas todas las capas o no. Incluso con tal sistema, sin embargo, puede utilizarse un SUP s Ps para proporcionar la capacidad de cambiar los parámetros para una o más capas sin tener que transmitir de nuevo todo el SPS.
Haciendo referencia a la Tabla 1, se proporciona sintaxis para implementación específica de un SUP SPS de capa única. La sintaxis incluye id_conjunto_parámetros_secuencia (“sequence_parameter_set_id”) con el fin de identificar el SPS asociado, y los identificadores de nivel_temporal (“temporaljevel”), id_dependencia (“dependence_id”) y nivel_calidad (“qualityjevel”) con el fin de identificar una capa regulable en escala. Los parámetros de VUI se incluyen a través del uso de parámetros_vui_svc() (“scv_vui_parameters()”) (véase la Tabla 2), lo que incluye parámetros de HRD mediante el uso de parámetros_hrd() (“hrd_parameters()”). La sintaxis que se da en lo que sigue permite a cada capa especificar sus propios parámetros dependientes de capa, tales como, por ejemplo, parámetros de HRD.
Tabla 1
Figure imgf000010_0001
La semántica para la sintaxis de svc_conjunto_parámetros_sec_sup() es como sigue.
- El id_conjunto_parámetros_secuencia identifica el conjunto de parámetros de secuencia con las relaciones de correspondencia de SUP SPS en curso para la capa en curso;
- El nivel_temporal, el id_dependencia y el nivel_calidad especifican el nivel temporal, el identificador de dependencia y el nivel de calidad para la capa en curso o vigente en ese momento. El id_dependencia indica generalmente el nivel espacial. Sin embargo, el id_dependencia también se utiliza para indicar la jerarquía de Escalabilidad de Grano Grueso (“CGS” - “Coarse Grain Scalability”), que incluye tanto la escalabilidad espacial como de SNR, siendo la escalabilidad de SNR es una escalabilidad de calidad tradicional. De acuerdo con ello, tanto el nivel_calidad como el id_dependencia pueden ser utilizados para distinguir niveles de calidad.
- El indicador_svc_presente_parámetros_vui igual a 1 especifica que la estructura sintáctica del svc_vui_parámetros() según se ha definido anteriormente está presente. El indicador_svc_presente_parámetros_vui igual a 0 especifica que la estructura sintáctica del svc_vui_parámetros no está presente.
La Tabla 2 proporciona la sintaxis para parámetros_vui_svc(). Los parámetros VUI son, por tanto, separados para cada capa y se puestos en unidades de SUP SPS individuales. Otras implementaciones, sin embargo, agrupan los parámetros de VUI para múltiples capas en un único SUP SPS.
Tabla 2
Figure imgf000011_0001
Los campos de la sintaxis parámetros_vui_svc() de la Tabla 2 se definen en la versión de la ampliación SVC que existía en abridle 2007 bajo la JVT-U201, anexo E E.1. En particular, parámetros_hrd() es según se define para la especificación AVC. Nótese también que parámetros_vui_svc() incluyen diversa información dependiente de capa, incluyendo parámetros relacionados con HRD. Los parámetros relacionados con HRD incluyen num_unidades_en_tic, escala_temporal, indicador_velocidad_trama_fija, indicador_presente_parámetros_hrd_nal, indicador_presente_parámetros_hrd_vcl, parámetros_hrd(), indicador_hrd_retardo_bajo e indicador_presente_estruct_pic. Por otra parte, los elementos sintácticos contenidos en el bucle condicional de indicador_restricción_corrientedebits son dependientes de la capa incluso aunque no estén relacionados con HRD. Como se ha mencionado anteriormente, el SUP SPS se define como un nuevo tipo de unidad de NAL. La Tabla 3 lista algunos de los códigos de unidad de NAL según se definen por la especificación JVT-U201, pero modificados para asignar el tipo 24 al SUP SPS. La elipsis entre los tipos de unidad de NAL 1 y 16, y entre los 18 y 24, indica que los tipos están cambiados. La elipsis entre los tipos de unidad de NAL 25 y 31 significa que esos tipos están, todos, sin especificar. La implementación de la Tabla 3 que se da más adelante cambia el tipo 24 de la especificación de “no especificado” a “svc_conjunto_parámetros_sec_sup()”. “No especificado” se reserva, generalmente, para aplicaciones de usuario. “Reservado”, por otra parte, se reserva generalmente para modificaciones futuras de la especificación. De acuerdo con ello, otra implementación cambia uno de los tipos, “reservado” (por ejemplo, el tipo 16, 17 o 18) a “svc_conjunto_parámetros_sec_sup()”. El cambio de un tipo “no especificado” da como resultado una implementación para un usuario dado, en tanto que el cambio de un tipo “reservado” tiene como resultado una implementación que cambia la especificación para todos los usuarios.
Tabla 3
Figure imgf000012_0001
La Figura 8 muestra una vista funcional de una implementación de un codificador de vídeo regulable en escala 800, que genera unidades de SUP SPS. Un vídeo es recibido en la entrada del codificador de vídeo regulable en escala 1. El vídeo se codifica de acuerdo con diferentes niveles espaciales. Los niveles espaciales hacen referencia, fundamentalmente, a diferentes niveles de resolución del mismo vídeo. Por ejemplo, como entrada de un codificador de vídeo regulable en escala, puede tenerse una secuencia de CIF (352 por 288) o una secuencia de QCIF (176 por 144) que representa cada uno de los niveles espaciales.
Cada uno de los niveles espaciales es enviado a un codificador. El nivel espacial 1 es enviado a un codificador 2'', el nivel espacial se envía a un codificador 2', y el nivel espacial m es enviado a un codificador 2.
Los niveles espaciales se codifican con 3 bits, utilizando el id_dependencia. En consecuencia, el número máximo de niveles espaciales es, en esta implementación, 8.
Los codificadores 2, 2' y 2'' codifican una o más capas que tienen el nivel espacial indicado. Los codificadores 2, 2' y 2'' pueden haberse diseñado de manera que tengan niveles de calidad y niveles temporales particulares, o bien los niveles de calidad y los niveles temporales pueden ser configurables. Como puede observarse en la Figura 8, los codificadores 2, 2' y 2'' se han dispuesto jerárquicamente. Es decir, el codificador 2'' alimenta el codificador 2', el cual alimenta, a su vez, el codificador 2. La disposición jerárquica indica el escenario típico en el que las capas más altas utilizan una(s) capa(s) inferior(es) como referencia.
Después de la codificación, se preparan los encabezamientos para cada una de las capas. En la implementación que se muestra se crean, para cada nivel espacial, un mensaje de SPS, un mensaje de PPS y múltiples mensajes de SUP_PPS. Los mensajes de SUP PPS (o unidades) pueden ser creados, por ejemplo, para capas correspondientes a los diversos niveles de calidad y temporales diferentes.
Para el nivel espacial 1, se crean el SPS y el PPS 5'' y se crea también un conjunto de SUP_SPS11, SUP_SPS21, ..., SUP_SPSn'0\
Para el nivel espacial 2, se crean el SPS y el PPS 5' y se crea también un conjunto de SUP_SPS12, SUP_SPS22, ..., SUP_SPSnV2.
Para el nivel espacial m, se crean el SPS y el PPS 5 y se crea también un conjunto de SUP_SPSi m, SUP_SPS2m, SUP_SPSnVm.
Las corrientes de bits 7, 7' y 7'' codificadas por los codificadores 2, 2' y 2'' siguen, típicamente, a la pluralidad de SPS, PPS y SUP_SPS (a los que se hace referencia también como encabezamientos, unidades o mensajes) en la corriente de bits global.
Una corriente de bits 8'' incluye los SPS y PPS 5'', SUP_SPS11, SUP_SPS21, ..., SUP_SPSn0 6'', y la corriente de bits de vídeo codificada 7'', todos los cuales constituyen los datos codificados asociados con el nivel espacial 1. Una corriente de bits 8' incluye los SPS y PPS 5', SUP_SPS12, SUP_SPS22, ..., SUP_SPSn0 6', y la corriente de bits de vídeo codificada 7', todos los cuales constituyen los datos codificados asociados con el nivel espacial 2. Una corriente de bits 8 incluye los SPS y PPS 5, SUP_SPS1m, SUP_SPS2m, ..., SUP_SPSn-om 6, y la corriente de bits de vídeo codificada 7, todos los cuales constituyen los datos codificados asociados con el nivel espacial m. Los diferentes encabezamientos de SUP_SPS están en conformidad con los encabezamientos descritos en las Tabas 1-3.
El codificador 800 que se representa en la Figura 8 genera un único SPS para cada nivel espacial. Sin embargo, otras implementaciones pueden generar múltiples SPS para cada nivel espacial o pueden generar un SPS que sirve a múltiples niveles espaciales.
Las corrientes de bits 8, 8' y 8'' se combinan en un multiplexador 9 que produce una corriente de bits de SVC, tal y como se muestra en la Figura 8.
Haciendo referencia a la Figura 9, una vista jerárquica 900 ilustra la generación de una corriente de datos que contiene unidades de SUP SPS. La vista 900 puede ser utilizada para ilustrar las posibles corrientes de datos generadas por el codificador de vídeo regulable en escala 800 de la Figura 8. La vista 900 proporciona una corriente de datos de SVC a una interfaz de transmisión 17.
La corriente de bits de SVC puede ser generada, por ejemplo, de acuerdo con la implementación de la Figura 8, y comprende una SPS para cada uno de los niveles espaciales. Cuando se codifican los m niveles espaciales, la corriente de datos de SVC comprende SPS1, SPS2 y SPSm, representados por las referencias 10, 10' y 10'' en la Figura 9.
En la corriente de bits de SVC, cada SPS codifica la información general con respecto al nivel espacial. El SPS es seguido por un encabezamiento 11, 11', 11'', 13, 13', 13'', 15, 15' y 15'' del tipo de SUP_SPS. El SUP_SPS es seguido por datos de vídeo codificados correspondientes 12, 12', 12'', 14, 14', 14'', 16, 16' y 16'', cada uno de los cuales corresponde a un nivel temporal (n) y a un nivel de calidad (O).
En consecuencia, cuando no se transmite una de las capas, el SUP_SPS tampoco es transmitido. Esto es debido a que existe, típicamente, un único encabezamiento de SUP_SPS correspondiente a cada capa.
Implementaciones típicas utilizan un esquema de numeración para las capas en el que la capa de base tiene un D y Q de cero. Si semejante esquema de numeración se utiliza para la vista 900, entonces la vista 900 no muestra explícitamente una capa de base. Esto no excluye el uso de una capa de base. Adicionalmente, sin embargo, la vista 900 pude ser ampliada para mostrar explícitamente una corriente de datos para una capa de base, así como, por ejemplo, un SPS independiente para una capa de base. Por otra parte, la vista 900 puede utilizar un esquema de numeración alternativo para capas de base en el que una o más de las corrientes de bits (1, 1, 1) a (m, n, O) hacen referencia a una capa de base.
Haciendo referencia a la Figura 10, se proporciona en ella una vista en bloques de una corriente de datos 1000 generada por la implementación de las Figuras 8 y 9. La Figura 10 ilustra la transmisión de las siguientes capas:
• Capa (1, 1, 1): nivel espacial 1, nivel temporal 1, nivel de calidad 1; que incluye la transmisión de los bloques 10, 11 y 12;
• Capa (1, 2, 1): nivel espacial 1, nivel temporal 2, nivel de calidad 1; que incluye la transmisión adicional de los bloques 11' y 12';
• Capa (2, 1, 1): nivel espacial 2, nivel temporal 1, nivel de calidad 1; que incluye la transmisión adicional de los bloques 10', 13 y 14;
• Capa (3, 1, 1): nivel espacial 3, nivel temporal 1, nivel de calidad 1; que incluye la transmisión adicional de los bloques 10'', 15 y 16;
• Capa (3, 2, 1): nivel espacial 3, nivel temporal 2, nivel de calidad 1; que incluye la transmisión adicional de los bloques 15' y 16';
• Capa (3, 3, 1): nivel espacial 3, nivel temporal 3, nivel de calidad 1; que incluye la transmisión adicional de los bloques 15'' y 16''.
La vista en bloques de la corriente de datos 1000 ilustra que el SPS 10 tan solo se envía una vez y se utiliza tanto por la Capa (1, 1, 1) como por la Capa (1, 2, 1), y que el SPS 10'' se envía una sola vez y se utiliza por cada una de la Capa (3, 1, 1), la Capa (3, 2, 1) y la Capa (3, 3, 1). Por otra parte, la corriente de datos 1000 ilustra el hecho de que los parámetros para la totalidad de las capas no son transmitidos sino que, en lugar de ello, únicamente se transmiten los parámetros correspondientes a las capas transmitidas. Por ejemplo, los parámetros para la Capa (2, 2, 1) correspondientes al SUP_SPS22, no son transmitidos debido a que la capa no es transmitida. Esto aporta eficiencia para esta implementación.
Haciendo referencia a la Figura 11, un codificador 1100 incluye una unida 1110 de generación de SPS, un codificador de vídeo 1120 y un dispositivo de formateo 1130. El codificador de vídeo 1120 recibe vídeo de entrada, codifica el vídeo de entrada y proporciona el vídeo de entrada codificado al dispositivo de formateo 1130. El vídeo de entrada codificado puede incluir, por ejemplo, múltiples capas tales como, por ejemplo, una capa de base codificada y una capa de mejora codificada. La unidad 1110 de generación de SPS genera información de encabezamiento, tal como, por ejemplo, unidades de SPS y unidades de SUP SPS, y aporta la información de encabezamiento al dispositivo de formateo 1130. La unidad 1110 de generación de SPS también se comunica con el codificador de vídeo 1120 con el fin de proporcionar parámetros utilizados por el codificador de vídeo 1120 a la hora de codificar el vídeo de salida.
La unidad 1110 de generación de SPS puede estar configurada, por ejemplo, para generar una unidad de NAL de SPS. La unidad de NAL de SPS puede incluir información que describe un parámetro para uso a la hora de descodificar una codificación de primera capa de una secuencia de imágenes. La unidad 1110 de generación de SPS también puede haberse configurado, por ejemplo, para generar una unidad de NAL de SUP SPS que tiene una estructura diferente de la de la unidad de NAL de SPS. La unidad de NAL de SUP SPS puede incluir información que describe un parámetro destinado a utilizarse a la hora de descodificar una codificación de segunda capa de la secuencia de imágenes. La codificación de primera capa y la codificación de segunda capa pueden ser producidas por el codificador de vídeo 1120.
El dispositivo de formateo 1130 multiplexa el vídeo codificado procedente del codificador de vídeo 1120 y la información de encabezamiento procedente de la unidad 1110 de generación de SPS, a fin de producir una corriente de datos codificada de salida. La corriente de bits codificada puede ser un conjunto de datos que incluye la codificación de primera capa de la secuencia de imágenes, la codificación de segunda capa de la secuencia de imágenes, la unidad de NAL de SPS y la unidad de NAL de SUP SPS.
Los componentes 1110, 1120 y 1130 del codificador 1100 puede adoptar muchas formas. Uno o más de los componentes 1110, 1120 y 1130 pueden incluir dispositivos físicos o hardware, programación o software, o una combinación de ellos, y pueden hacerse funcionar desde una variedad de plataformas, tales como, por ejemplo, un codificador dedicado o un procesador general configurado mediante software para funcionar como un codificador. Pueden compararse las Figuras 8 y 11. La unidad 1110 de generación de SPS puede generar el SPS y los diversos SUP_SPSn o m que se muestran en la Figura 8. El codificador de vídeo 1120 puede generar las corrientes de bits 7, 7' y 7'' (que son las codificaciones del vídeo de entrada) mostradas en la Figura 8. El codificador de vídeo 1120 puede corresponder, por ejemplo, a uno o más de los codificadores 2, 2' o 2''. El dispositivo de formateo 1130 puede generar los datos dispuestos jerárquicamente y que se muestran por los números de referencia 8, 8' y 8'', así como llevar a cabo el funcionamiento del multiplexador 9 para generar la corriente de datos de SVC de la Figura 8.
También pueden compararse las Figuras 1 y 11. El codificador de vídeo 1120 puede corresponder, por ejemplo, a los bloques 104 y 187 de la Figura 1. El dispositivo de formateo 1130 puede corresponder, por ejemplo, al multiplexador 170. La unidad 1110 de generación de SPS no se muestra explícitamente en la Figura 1, si bien la capacidad funcional de la unidad 1110 de generación de SPS puede llevarse a cabo, por ejemplo, por el multiplexador 170.
Otras implementaciones del codificador 1100 no incluyen el codificador de vídeo 1120 porque, por ejemplo, los datos están previamente codificados. El codificador 1100 también puede proporcionar salidas adicionales y proporcionar una comunicación adicional entre los componentes. El codificador 1100 también puede ser modificado para proporcionar componentes adicionales que pueden, por ejemplo, estar situados en componentes existentes.
Haciendo referencia a la Figura 12, se muestra en ella un codificador 1200 que funciona de la misma manera que el codificador 1100. El codificador 1200 incluye una memoria 1212 en comunicación con un procesador 1220. La memora 1210 puede ser utilizada, por ejemplo, para almacenar el vídeo de entrada, para almacenar parámetros de codificación o de descodificación, para almacenar resultados intermedios o finales durante el procedimiento de codificación, o bien para almacenar instrucciones para llevar a cabo un método de codificación. Un dispositivo de almacenamiento de esa clase puede ser temporal o permanente.
El procesador 1220 recibe vídeo de entrada y codifica el vídeo de entrada. El procesador 1220 también genera información de encabezamiento y formatea una corriente de datos codificada que incluye información de encabezamiento y vídeo de entrada codificado. Como en el codificador 1100, la información de encabezamiento proporcionada por el procesador 1220 puede incluir estructuras independientes para transformar información de encabezamiento para múltiples capas. El procesador 1220 puede funcionar de acuerdo con instrucciones almacenadas en, o de otra forma ubicadas en, o en parte de, por ejemplo, el procesador 1220 o la memoria 1210. Haciendo referencia a la Figura 13, se muestra en ella el procedimiento 1300 para codificar el vídeo de entrada. El procedimiento 1300 puede llevarse a cabo por, por ejemplo, uno de los codificadores 1100 o 1200.
El procedimiento 1300 incluye generar una unidad (1310) de NAL de SPS. La unidad de NAL de SPS incluye información que describe un parámetro para uso a la hora de descodificar la codificación de primera capa de la secuencia de imágenes. La unidad de NAL de SPS puede ser o no definida por una especificación o norma de codificación. Si la unidad de NAL de SPS está definida por una especificación de codificación, entonces la especificación de codificación puede requerir un descodificador que opere de acuerdo con las unidades de NAL de SPS recibidas. Se hace referencia, generalmente, a dicho requisito estableciendo que la unidad de NAL de SPS es “normativa”. Los SPS, por ejemplo, son normativos en la especificación AVC, en tanto que los mensajes de información de mejora suplementaria (“SEI” - “supplemental enhancement information”), por ejemplo, no son normativos. De acuerdo con ello, los descodificadores compatibles con AVC pueden ignorar los mensajes de SEI recibidos pero han de funcionar de acuerdo con el SPS recibido.
La unidad de NAL de SPS incluye información que describe uno o más parámetros para descodificar una primera capa. El parámetro puede ser, por ejemplo, información que es dependiente de capa o que no es dependiente de capa. Ejemplos de parámetros que son, típicamente, dependientes de capa incluyen un parámetro de VUI o un parámetro de HDR.
La operación 1310 puede ser llevada a cabo, por ejemplo, por la unidad 1110 de generación de SPS, por el procesador 1220 o por el dispositivo 2140 de inserción de SPS y PPS. La operación 1310 también puede corresponder a la generación de SPS en cualquiera de los bloques 5, 5', 5'' de la Figura 8.
De acuerdo con ello, unos medios para llevar a cabo la operación 1310, es decir, la generación de una unidad de NAL de SPS, pueden incluir diversos componentes. Por ejemplo, dichos medios pueden incluir un módulo para generar SPS 5, 5' o 5'', un sistema codificador completo de las Figuras 1, 8, 11 o 12, una unidad 1110 de generación de SPS, un procesador 1220 o un dispositivo de inserción 2140 de SPS y PPS, o sus equivalentes, incluyendo los codificadores conocidos y que se desarrollen en el futuro.
El procedimiento 1300 incluye generar una unidad de NAL de SPS “suplementario” (“SUP”) que tiene una estructura diferente de la de la unidad (1320) de NAL de SPS. La unidad de NAL de SUP SPS incluye información que describe un parámetro para uso a la hora de descodificar la codificación de segunda capa de la secuencia de imágenes. La unidad de NAL de SUP SPS puede estar o no definida por una especificación o norma de codificación. Si la unidad de NAL de SUP SPS se define por una norma de codificación, entonces la norma de codificación puede requerir un descodificador que funcione de acuerdo con las unidades de NAL de SUP SPS recibidas. Como se ha explicado anteriormente con respecto a la operación 1310, se hace referencia generalmente a dicho requisito afirmando que la unidad de NAL de SUP SPS es “normativa”.
Diversas implementaciones incluyen mensajes de SUP SPS normativos. Por ejemplo, los mensajes de SUP SPS pueden ser normativos para descodificadores que descodifican más de una capa (por ejemplo, descodificadores compatibles con SVC). Será necesario que tales descodificadores de múltiples capas (por ejemplo, descodificadores compatibles con SVC) operen de acuerdo con la información transportada en los mensajes de SUP SPS. Sin embargo, los descodificadores de una sola capa (por ejemplo, los descodificadores compatibles con AVC) pueden ignorar mensajes de SUP SPS. Como otro ejemplo, los mensajes de SUP SPS pueden ser normativos para todos los descodificadores, incluyendo descodificadores de una única capa y de múltiples capas. No es sorprendente que muchas implementaciones incluyan mensajes de SUP SPS normativos, dado que los mensajes de SUP SPS están basados, en gran parte, en mensajes de s Ps , y que los mensajes de SPS sean normativos en la especificación AVC y en las ampliaciones SVC y MVC. Es decir, los mensajes de SUP SPS transportan datos similares a los mensajes de SPS, sirven a propósitos similares a los de los mensajes de SPS, y pueden considerarse como del tipo de los mensajes de SPS. Ha de quedar claro que las implementaciones que tienen mensajes de SUP SPS normativos pueden proporcionar ventajas de compatibilidad, por ejemplo, al permitir que los descodificadores de AVC y de SCV reciban una corriente de datos común.
La unidad de NAL de SUP SPS (a la que se hace referencia también como mensaje de SUP SPS) incluye uno o más parámetros para la descodificación de una segunda capa. El parámetro puede ser, por ejemplo, información que es dependiente de capa o que no es dependiente de capa. Ejemplos específicos incluyen un parámetro de VUI o un parámetro e HRD. El SUP SPS puede ser también utilizado para descodificar la primera capa, además de utilizarse para descodificar la segunda capa.
La operación 1320 puede llevarse a cabo, por ejemplo, por la unidad 1110 de generación de SPS, por el procesador 1220 o por un módulo análogo al dispositivo de inserción 2140 de SPS y de PPS. La operación 1320 puede también corresponder a la generación de SUP_SPS en cualquiera de los bloques 6, 6', 6'' de la Figura 8.
De acuerdo con ello, unos medios para llevar a cabo la operación 1320, es decir, para generar una unidad de NAL de SUP SPS, pueden incluir diversos componentes. Por ejemplo, tales medios pueden incluir un módulo para generar SUP_SPS 6, 6' o 6'', un sistema codificador completo de la Figura 1, 8, 11 o 2, una unidad 1110 de generación de SPS, un procesador 1220 o un módulo análogo al dispositivo de inserción 2140 de SPS o de PPS, o sus equivalentes, incluyendo codificadores conocidos o que se desarrollen en el futuro.
El procedimiento 1300 incluye codificar una codificación de primera capa, tal como, por ejemplo, la capa de base, para una secuencia de imágenes, y codificar una codificación de segunda capa para la secuencia de imágenes (1330). Estas codificaciones de la secuencia de imágenes producen la codificación de primera capa y la codificación de segunda capa. La codificación de primera capa puede formatearse en una serie de unidades a las que se hace referencia como unidades de codificación de primera capa, y la codificación de segunda capa puede ser formateada en una serie de nits a la que se hace referencia como unidades de codificación de segunda capa. La operación 1330 puede llevarse a cabo, por ejemplo, por el codificador de vídeo 1120, por el procesador 1220, por los codificadores 2, 2' o 2'' de la Figura 8, o por la implementación de la Figura 1.
De acuerdo con ello, unos medios para llevar a cabo la operación 1330 pueden incluir diversos componentes. Por ejemplo, tales medios pueden incluir un codificador 2, 2' o 2'', un sistema codificador completo de las Figuras 1, 8, 11 o 12, un codificador de vídeo 1120, un procesador 1220, uno o más codificadores 187 de núcleo (que posiblemente incluyen un módulo 104 de diezmado o reducción del número de muestras), o sus equivalentes, incluyendo codificadores conocidos y que se desarrollen en el futuro.
El procedimiento 1300 incluye proporcionar un conjunto de datos (1340). El conjunto de datos incluye la codificación de primera capa de la secuencia de imágenes, la codificación de segunda capa de la secuencia de imágenes, la unidad de NAL de SPS y la unidad de NAL de SUP SPS. El conjunto de datos puede ser, por ejemplo, una corriente de datos, codificada de acuerdo con una norma o especificación conocida, destinada a ser almacenada en memoria o a transmitirse a uno o más descodificadores. La operación 1340 puede llevarse a cabo, por ejemplo, por el dispositivo de formateo 1130, por el procesador 1220 o por el multiplexador 170 de la Figura 1. La operación 1340 puede también llevarse a cabo en la Figura 8 por la generación de cualquiera de las corrientes de datos 8, 8' y 8'', así como por la generación de la corriente de datos de SVC multiplexada.
De acuerdo con ello, unos medios para llevar a cabo la operación 1340, es decir, proporcionar un conjunto de datos, pueden incluir diversos componentes. Por ejemplo, tales medios pueden incluir un módulo para generar la corriente de datos 8, 8' u 8'', un multiplexador 9, un sistema codificador entero de las Figuras 1, 8, 11 o 12, un dispositivo de formateo 1130, un procesador 1220 o un multiplexador 170, o sus equivalentes, incluyendo codificadores conocidos o que se desarrollen en el futuro.
El procesador 1300 puede ser modificado de diversas maneras. Por ejemplo, la operación 1330 puede ser eliminada del procedimiento 1300 en implementaciones en las que, por ejemplo, los datos se hayan codificado previamente. Por otra parte, además de eliminar la operación 1330, puede eliminarse la operación 1430 con el fin de proporcionar un procedimiento encaminado a la generación de unidades de descripción para múltiples capas.
Haciendo referencia a la Figura 14, se muestra en ella una corriente de datos 1400 que puede ser generada, por ejemplo, por el procedimiento 1300. La corriente de datos 1400 incluye una porción 1410 para una unidad de NAL de SPS, una porción 1420 para una unidad de NAL de SUP SPS, una porción 1430 para los datos codificados de primera capa, y una porción 1440 para los datos codificados de segunda capa. Los datos codificados 1430 de primera capa constituyen la codificación de primera capa, y pueden ser formateados como unidades de codificación de primera capa. Los datos codificados 1440 de segunda capa constituyen la codificación de segunda capa, y pueden ser formateados como unidades de codificación de segunda capa. La corriente de datos 1400 puede incluir porciones adicionales que pueden estar anexadas tras la porción 1440 o intercaladas entre las porciones 1410-1440. Adicionalmente, otras implementaciones pueden modificar una o más de las porciones 1410-1440.
La corriente de datos 1400 puede ser comparada con las Figuras 9 y 10. La unidad 1410 de NAL de SPS puede ser, por ejemplo, cualquiera del SPS1 10, el SPS2 10' o el SPSm 10''. La unidad 1420 de NAL de SUP SPS puede ser, por ejemplo, cualquiera de los encabezamientos de SUP_SPS 11, 11', 11'', 13, 13', 13'', 15, 15' o 15''. Los datos codificados 1430 de primera capa y los datos codificados 1440 de segunda capa pueden ser cualquiera de las corrientes de bits para las capas individuales mostradas como Corriente de bits de Capa (1, 1, 1) 12 a (m, n, O) 16'', e incluir las corrientes de bits 12, 12', 12'', 14, 14', 14'', 16, 16' y 16''. Es posible que los datos codificados 1430 de primera capa sean una corriente de bits con un conjunto más alto de niveles que los datos codificados 1440 de segunda capa. Por ejemplo, los datos codificados 1430 de primera capa pueden ser la Corriente de bits de Capa (2, 2, 1) 14', y los datos codificados 1440 de segunda capa pueden ser la Corriente de bits de Capa (1, 1, 1) 12.
Una implementación de la corriente de datos 1400 puede también corresponder a la corriente de datos 1000. La unidad de NAL de SPS 1410 puede corresponder al módulo 10 de SPS de la corriente de datos 1000. La unidad 1420 de NAL de SUP SPS pude corresponder al módulo 11 de SUP_SPS de la corriente de datos 1000. Los datos codificados 1430 de primera capa pueden corresponder a la Corriente de bits de Capa (1, 1, 1) 12 de la corriente de datos 1000. Los datos codificados 1440 de segunda capa pueden corresponder a la Corriente de bits de Capa (1, 2, 1) 12' de la corriente de datos 1000. El módulo 11' de SUP_SPS de la corriente de datos 1000 puede estar intercalado entre los datos codificados 1430 de primera capa y los datos codificados 1440 de segunda capa. Los bloques restantes (10'-16'') mostrados en la corriente de datos 1000 pueden ser anexados a la corriente de datos 1400 en el mismo orden que se muestra en la corriente de datos 1000.
Las Figuras 9 y 10 pueden sugerir que los módulos de SPS no incluyen ningún parámetro específico de capa. Diversas implementaciones operan, ciertamente, de esta manera y, por lo común, requieren un SUP_SPS para cada capa. Sin embargo, otras implementaciones permiten que el SPS incluya parámetros específicos de capa para una o más capas, con lo que permiten, de esta forma, que se transmitan una o más capas sin que se necesite un SUP_SPS.
Las Figuras 9 y 10 sugieren que cada nivel espacial tenga su propio SPS. Otras implementaciones varían esta característica. Por ejemplo, otras implementaciones proporcionan un SPS independiente para cada nivel temporal o para cada nivel de calidad. Aún otras implementaciones proporcionan un SPS independiente para cada capa, y otras implementaciones proporcionan un único SPS que sirve para todas las capas.
Haciendo referencia a la Figura 15, un descodificador 1500 incluye una unidad de análisis sintáctico 1510 que recibe una corriente de bits codificada, tal como, por ejemplo, la corriente de bits codificada proporcionada por el codificador 1100, por el codificador 1200, por el procedimiento 1300 o por la corriente de datos 1400. La unidad de análisis sintáctico 1510 está conectada a un descodificador 1520.
La unidad de análisis sintáctico 1510 está configurada para acceder a información procedente de una unidad de NAL de SPS. La información procedente de la unidad de NAL de SPS describe un parámetro para uso a la hora de descodificar una codificación de primera capa de una secuencia de imágenes. La unidad de análisis sintáctico 1510 está configurada, de manera adicional, para acceder a información procedente de una unidad de NAL de SUP SPS que tiene una estructura diferente a la de la unidad de NAL de SPS. La información procedente de la unidad de NAL de SUP SPS describe un parámetro destinado a ser utilizado para descodificar una codificación de segunda capa de la secuencia de imágenes. Como se ha descrito anteriormente en asociación con la Figura 13, los parámetros pueden ser dependientes de capa o no dependientes de capa.
La unidad de análisis sintáctico 1510 proporciona como salida datos de encabezamiento analizados sintácticamente. Los datos de encabezamiento incluyen la información a la que se accede desde la unidad de NAL de SPS y también incluyen la información a la que se accede desde la unidad de NAL de SUP SPS. La unidad de análisis sintáctico 1510 también proporciona como salida datos de vídeo codificados y analizados sintácticamente. Los datos de vídeo codificados incluyen la codificación de primera capa y la codificación de segunda capa. Tanto los datos de encabezamiento como los datos de vídeo codificados son proporcionados al descodificador 1520.
El descodificador 1520 descodifica la codificación de primera capa utilizando la información a la que se accede desde la unidad de NAL de SPS. El descodificador 1520 también descodifica la codificación de segunda capa utilizando la información a la que se accede desde la unidad de NAL de SUP SPS. El descodificador 1520 genera, de manera adicional, una reconstrucción de la secuencia de imágenes basándose en la primera capa descodificada y/o en la segunda capa descodificada. El descodificador 1520 proporciona como salida un vídeo reconstruido. El vídeo reconstruido puede ser, por ejemplo, una reconstrucción de la codificación de primera capa o una reconstrucción de la codificación de segunda capa.
Comparando las Figuras 15, 2 y 2a, la unidad de análisis sintáctico 1510 puede corresponder, por ejemplo, al desmultiplexador 202 y/o a uno o más de los descodificadores de entropía 204, 212, 222 o 2245, en algunas implementaciones. El descodificador 1520 puede corresponder, por ejemplo, a los bloques restantes de la Figura 2. El descodificador 1500 puede también proporcionar salidas adicionales y proporcionar una comunicación adicional entre los componentes. El descodificador 1500 también puede modificarse para proporcionar componentes adicionales que pueden, por ejemplo, estar situados entre componentes existentes.
Los componentes 1510 y 1520 del descodificador 1500 pueden adoptar muchas formas. Uno o más de los componentes 1510 y 1520 pueden incluir dispositivos físicos o hardware, programación o software, programas instalados de forma permanente en hardware, o firmware, o una combinación de estos, y pueden hacerse funcionar desde una variedad de plataformas, tales como, por ejemplo, un descodificador de uso exclusivo o dedicado, o un procesador general configurado mediante software para funcionar como descodificador.
Haciendo referencia a la Figura 16, se muestra en ella un descodificador 1600 que funciona de la misma manera que el descodificador 1500. El descodificador 1600 incluye una memoria 1610 en comunicación con un procesador 1620. La memoria 1610 puede utilizarse, por ejemplo, para almacenar la corriente de datos codificada de entrada, para almacenar parámetros de descodificación o de codificación, para almacenar resultados intermedios o finales durante el procedimiento de descodificación, o para almacenar instrucciones para llevar a cabo un método de descodificación. Dicho almacenamiento puede ser temporal o permanente.
El procesador 1620 recibe una corriente de datos codificada y descodifica la corriente de datos codificada hasta obtener un vídeo reconstruido. La corriente de datos codificada incluye, por ejemplo, (1) una codificación de primera capa de una secuencia de imágenes, (2) una codificación de segunda capa de la secuencia de imágenes, (3) una unidad de NAL de SPS que tiene información que describe un parámetro destinado a utilizarse para descodificar la codificación de primera capa, y (4) una unidad de NAL de SUP SPS que tiene una estructura diferente de la de la unida de NAL de SPS y que tiene información que describe un parámetro para uso a la hora de descodificar la codificación de segunda capa.
El procesador 1620 produce el vídeo reconstruido basándose en al menos la codificación de primera capa, la codificación de segunda capa, la información procedente de la unidad de NAL de SPS y la información procedente de la unidad de NAL de SUP SPS. El vídeo reconstruido puede ser, por ejemplo, una reconstrucción de la codificación de primera capa o una reconstrucción de la codificación de segunda capa. El procesador 1620 puede funcionar de acuerdo con instrucciones almacenadas en, o radicadas de otra manera en, o en parte de, por ejemplo, el procesador 1620 o la memoria 1610.
Haciendo referencia a la Figura 17, se muestra en ella un procesador 1700 destinado a descodificar una corriente de bits codificada. El procesador 1700 puede ser llevado a cabo, por ejemplo, por uno de los descodificadores 1500 o 1600.
El procedimiento 1700 incluye acceder a la información procedente de una unidad (1710) de NAL de SPS. La información a la que se accede describe un parámetro para uso a la hora de descodificar una codificación de primera capa de una secuencia de imágenes.
La unidad de NAL de SPS puede ser como se ha descrito anteriormente con respecto a la Figura 13. Por otra parte, la información a la que se accede puede ser, por ejemplo, un parámetro de HRD. La operación 1710 puede llevarse a cabo, por ejemplo, por la unidad de análisis sintáctico 1510, por el procesador 1620, por un descodificador de entropía 204, 212, 222 o 2245, o por el control 2205 de descodificador. La operación 1710 puede también llevarse a cabo en un procedimiento de reconstrucción en un codificador, por uno o más componentes de un codificador. De acuerdo con ello, unos medios para llevar a cabo la operación 1710, es decir, el acceso a información procedente de una unidad de NAL de SPS, pueden incluir diversos componentes. Por ejemplo, tales medios pueden incluir una unidad de análisis sintáctico 1510, un procesador 1620, un descodificador de capa única, un sistema descodificador completo representado en las Figuras 2, 15 o 15, o uno o más componentes de un descodificador, o bien uno o más componentes de los codificadores 800, 1100 o 1200, o sus equivalentes, incluyendo descodificadores y codificadores conocidos o que se desarrollen en el futuro.
El procedimiento 1700 incluye acceder a información procedente de una unidad de NAL de SUP SPS que tiene una estructura diferente de la de la unidad de NAL de SPS (1720). La información a la que se accede procedente de la unidad de NAL de SUP SPS describe un parámetro destinado a utilizarse para descodificar una codificación de segunda capa de la secuencia de imágenes.
La unidad de NAL de SUP SPS puede ser como se ha descrito anteriormente con respecto a la Figura 13. Por otra parte, la información a la que se accede puede ser, por ejemplo, un parámetro de HRD. La operación 1720 puede llevarse a cabo, por ejemplo, por la unidad de análisis sintáctico 1510, por el procesador 1620, por un descodificador de entropía 204, 212, 222 o 2245, o por el control 2205 de descodificador. La operación 1720 puede ser también llevada a cabo en un procedimiento de reconstrucción, en un codificador, por uno o más componentes de un codificador.
De acuerdo con ello, unos medios para llevar a cabo la operación 1720, es decir, el acceso a información procedente de una unidad de NAL de SUP SPS, pueden incluir diversos componentes. Por ejemplo, tales medios pueden incluir una unidad de análisis sintáctico 1510, un procesador 1620, un desmultiplexador 202, un descodificador de entropía 204, 212 o 222, un descodificador de capa única o un sistema descodificador completo 200, 1500 o 1600, o bien uno o más componentes de un descodificador, o uno o más componentes de los codificadores 800, 1100 o 1200, o sus equivalentes, incluyendo descodificadores y codificadores conocidos y que se desarrollen en el futuro.
El procedimiento 1700 incluye acceder a una codificación de primera capa y a una codificación de segunda capa para la secuencia de imágenes (1730). La codificación de primera capa puede haberse formateado para formar unidades de codificación de primera capa, y la codificación de segunda capa puede haberse formateado para formar unidades de codificación de segunda capa. La operación 1730 puede llevarse a cabo, por ejemplo, mediante la unidad de análisis sintáctico 1510, el descodificador 1520, el procesador 1620, un descodificador de entropía 204, 212, 222 o 2245, o diversos otros bloques situados aguas abajo con respecto a los descodificadores de entropía. La operación 1730 puede también llevarse a cabo en un procedimiento de reconstrucción en un codificador, por uno o más componentes de un codificador.
De acuerdo con ello, unos medios para llevar a cabo la operación 1730 pueden incluir diversos componentes. Por ejemplo, tales medios pueden incluir una unidad de análisis sintáctico 1510, un descodificador 1520, un procesador 1620, un desmultiplexador 202, un descodificador de entropía 204, 212 o 222, un descodificador de una sola capa, un receptor de corriente de bits, un dispositivo de recepción, o un sistema descodificador completo 200, 1500 o 1600, o bien uno o más componentes de un descodificador, o uno o más componentes de codificadores 800, 1100 o 1200, o sus equivalentes, incluyendo descodificadores y codificadores conocidos y que se desarrollen en el futuro.
El procedimiento 1700 incluye generar una descodificación de la secuencia de imágenes (1740). La descodificación de la secuencia de imágenes puede estar basada en la codificación de primera capa, en la codificación de segunda capa, en la información a la que se accede procedente de la unidad de NAL de SPS, y a la información a la que se accede procedente de la unidad de NAL de SUP SPS. La operación 1740 puede llevarse a cabo, por ejemplo, por el descodificador 1520, el procesador 1620 o diversos bloques situados aguas abajo con respecto al desmultiplexador 202 y al registro de almacenamiento intermedio de entrada 2210. La operación 1740 también puede llevarse a cabo en un procedimiento de reconstrucción en un codificador, por uno o más componentes de un codificador.
De acuerdo con ello, unos medios para llevar a cabo la operación 1740 pueden incluir diversos componentes. Por ejemplo, tales medios pueden incluir un descodificador 1530, un procesador 1620, un descodificador de una sola capa, un sistema descodificador completo 200, 1500 o 1600, o uno o más componentes de un descodificador, un codificador que lleva a cabo una reconstrucción, o uno o más componentes de los codificadores 800, 1100 o 120, o sus equivalentes, incluyendo descodificadores y codificadores conocidos y que se desarrollen en el futuro.
Otra implementación lleva a cabo un método de codificación que incluye acceder a información dependiente de primera capa dentro de un primer conjunto de parámetros normativo. La información dependiente de primera capa a la que se accede está destinada a utilizarse para descodificar una codificación de primera capa de una secuencia de imágenes. El primer conjunto de parámetros normativo puede ser, por ejemplo, un SPS que incluye parámetros relacionados con HRD u otra información dependiente de capa. Sin embargo, no es necesario que el primer conjunto de parámetros normativo sea un SPS, como tampoco es necesario que esté relacionado con una especificación H.264.
Además de que el primer conjunto de parámetros sea normativo, lo que requiere que un descodificador funcione de acuerdo con el primer conjunto de parámetros en caso de que se reciba dicho conjunto de parámetros, puede también ser necesario que el primer conjunto de parámetros sea recibido en una implementación. Es decir, una implementación puede requerir, adicionalmente, que el primer conjunto de parámetros sea proporcionado a un descodificador.
El método de codificación de esta implementación incluye, de manera adicional, a segunda información dependiente de capa, contenida en un segundo conjunto de parámetros de normativa. El segundo conjunto de parámetros normativo tiene una estructura diferente de la del primer conjunto de parámetros de normativa. Asimismo, la segunda información dependiente de capa a la que se accede está destinada a utilizarse para la descodificación de una codificación de segunda capa de la secuencia de imágenes. El segundo conjunto de parámetros normativo puede ser, por ejemplo, un SPS suplementario. El SPS suplementario tiene una estructura que es diferente de, por ejemplo, la de un s Ps . El SPS suplementario también incluye parámetros de HRD u otra información dependiente de capa para una segunda capa (diferente de la primera capa).
El método de codificación de esta implementación incluye, adicionalmente, descodificar la secuencia de imágenes basándose en una o más de la primera información dependiente capa a la que se accede o la segunda información dependiente de capa a la que se accede. Esto puede incluir, por ejemplo, descodificar una capa de base o una capa de mejora.
Aparatos correspondientes se proporcionan también en otras implementaciones, a fin de llevar a la práctica el método de codificación de esta implementación. Tales aparatos incluyen, por ejemplo, codificadores programados, procesadores programados, implementaciones de hardware, o medios legibles por procesador que tienen instrucciones para llevar a cabo el método de codificación. Los sistemas 1100 y 1200, por ejemplo, pueden llevar a la práctica el método de codificación de esta implementación.
Se proporcionan también señales correspondientes, y medios que almacenan tales señales o los datos de tales señales. Señales de esta clase se producen, por ejemplo, por un codificador que lleva a cabo el método de codificación de esta implementación.
Otra implementación lleva a cabo un método de descodificación análogo al método de codificación anterior. El método de descodificación incluye generar un primer conjunto de parámetros de normativa que incluye primera información dependiente de capa. La primera información dependiente de capa está destinada a utilizarse para descodificar una codificación de primera capa de una secuencia de imágenes. El método de descodificación también incluye generar un segundo conjunto de parámetros normativo que tiene una estructura diferente de la del primer conjunto de parámetros normativo. El segundo conjunto de parámetros normativo incluye segunda información dependiente de capa destinada a utilizarse para descodificar una codificación de segunda capa de la secuencia de imágenes. El método de descodificación incluye, de manera adicional, proporcionar un conjunto de datos que incluye el primer conjunto de parámetros normativo y el segundo conjunto de parámetros normativo.
Se proporcionan también parámetros correspondientes en otras implementaciones, a fin de llevar a la práctica el anterior método de descodificación de esta implementación. Tales aparatos incluyen, por ejemplo, descodificadores programados, procesadores programados, implementaciones de hardware, o medios legibles por procesador que tienen instrucciones para llevar a cabo el método de descodificación. Los sistemas 1500 y 1600, por ejemplo, pueden llevar a la práctica el método de descodificación de esta implementación.
Nótese que el término “suplementario”, tal y como se ha utilizado anteriormente, por ejemplo, al referirse a “SPS suplementario”, es un término descriptivo. Como tal, “SPS suplementario” no excluye unidades que no incluyan el término “suplementario” en el nombre de la unidad. De acuerdo con ello, y a modo de ejemplo, un borrador actual de la ampliación SVC define una estructura sintáctica de “SPS de subconjunto”, y la estructura sintáctica de “SPS de subconjunto” es abarcada completamente por el término descriptivo “suplementario”. De este modo, el “SPS de subconjunto” de la ampliación SVC actual es una implementación de un SUP SPS según se describe en esta memoria.
Ciertas implementaciones pueden utilizar otros tipos de mensajes además de, o en sustitución de, las unidades de NAL de SPS y/o las unidades de NAL de SUP SPS. Por ejemplo, al menos una implementación genera, transmite, recibe, accede a, y analiza sintácticamente otros conjuntos de parámetros que tienen información dependiente de capa.
Por otra parte, si bien el SPS y el SPS suplementario se han expuesto ampliamente en el contexto de las especificaciones H.264, otras especificaciones también pueden incluir SPS, SPS suplementario o variaciones del SPS o del SPS suplementario. De acuerdo con ello, otras especificaciones (existentes o que se desarrollen en el futuro) pueden incluir estructuras a las que se hace referencia como SPS o SPS suplementario, y tales estructuras pueden ser idénticas a, o ser variaciones de, el SPS y el SPS suplementario que se describen en la presente memoria. Otras especificaciones semejantes pueden hacer referencia, por ejemplo, a las especificaciones H.264 actuales (por ejemplo, una adenda a una especificación H.264 existente), o ser especificaciones completamente nuevas. Alternativamente, otras especificaciones (existentes o que se desarrollen en el futuro) pueden incluir estructuras a las que se no se hace referencia como SPS o SPS suplementario, si bien tales estructuras pueden ser idénticas a, o análogas a, o variaciones de, el SPS o el SPS suplementario que se describen en esta memoria. Nótese que un conjunto de parámetros es un conjunto de datos que incluyen parámetros. Por ejemplo, un SPS, un PPS o un SPS suplementario.
En diversas implementaciones, se dice que se “accede” a los datos. “Acceder” a datos puede incluir, por ejemplo, recibir, almacenar, transmitir o tratar los datos.
Se proporcionan y describen diversas realizaciones prácticas. Estas implementaciones pueden ser utilizadas para resolver una variedad de problemas. Uno de tales problemas surge cuando múltiples puntos de interoperabilidad (lOPs - “interoperability points”) (a los que se hace referencia también como capas) requieren diferentes valores para los parámetros que son típicamente transportados en el SPS. No hay ningún método adecuado para transmitir los elementos sintácticos dependientes de capa contenidos en el SPS para diferentes capas que tienen el mismo identificador de SPS. Resulta problemático enviar datos de SPS independientes para cada una de tales capas. Por ejemplo, en muchos sistemas existentes, una capa de base y sus capas temporales compuestas comparten el mismo identificador de SPS.
Algunas implementaciones proporcionan un tipo de unidad de NAL diferente para datos de SPS suplementarios. De esta forma, es posible enviar múltiples unidades de NAL, de tal modo que cada unidad de NAL puede incluir información de SPS suplementaria para una capa de SVC diferente, pero cada unidad de NAL puede ser identificada por el mismo tipo de unidad de NAL. La información de SPS suplementaria puede, en una implementación, proporcionarse en el tipo de unidad de NAL de “SPS de subconjunto” de la ampliación de SVC actual.
Debe quedar claro que las implementaciones descritas en esta divulgación no están restringidas a la ampliación de SVC ni a ninguna otra especificación. Los conceptos y características de las implementaciones divulgadas pueden utilizarse con otras especificaciones que existen en este momento o que se desarrollen en el futuro, o bien pueden utilizarse en sistemas que no se adhieren a ninguna especificación. Como ejemplo de ello, los conceptos y características divulgados en la presente memoria pueden ser utilizados para implementaciones que trabajan en el entorno de la ampliación MVC. Por ejemplo, las vistas de MVC pueden necesitar diferente información de SPS, o bien capas de SVC a las que se da soporte dentro de la ampliación MVC pueden necesitar diferente información de SPS. Adicionalmente, ciertas características y aspectos de las implementaciones descritas pueden también ser adaptadas para aún otras implementaciones. De acuerdo con ello, si bien las implementaciones descritas en esta memoria pueden describirse en el contexto de capas de SPS o de SVC, tales descripciones no deben tomarse, de ningún modo, como limitativas de las características y conceptos para tales implementaciones y contextos.
Las implementaciones que se describen en esta memoria pueden llevarse a la práctica en, por ejemplo, un método o procedimiento, un aparato o un programa de software. Aun admitiendo que solo se hubiera explicado en el contexto de una única forma de implementación (por ejemplo, explicado únicamente como un método), la implementación de características expuestas puede también llevarse a la práctica en otras formas (por ejemplo, un aparato o un programa). Un aparato puede ser implementado en, por ejemplo, hardware, software y firmware apropiados. Los métodos pueden ser implementados en, por ejemplo, un aparato tal como, por ejemplo, un procesador, el cual hace referencia a dispositivos de procesamiento o tratamiento en general, incluyendo, por ejemplo, una computadora, un microprocesador, un circuito integrado o un dispositivo lógico programable. Los procesadores también incluyen dispositivos de comunicación tales como, por ejemplo, computadoras teléfonos celulares, asistentes digitales portátiles/personales (“PDAs” - “portable/personal digital assistants”) y otros dispositivos que facilitan la comunicación de información entre los usuarios finales.
Las implementaciones de los diversos procedimientos y características que se han descrito en la presente memoria pueden materializarse en una variedad de equipos o aplicaciones diferentes, particularmente, por ejemplo, equipos o aplicaciones asociadas con la codificación y la descodificación de datos. Ejemplos de equipos incluyen codificadores de vídeo, descodificadores de vídeo, codees, o codificadores-descodificadores, de vídeo, servidores de web, equipos terminales, computadoras portátiles, computadoras personales, teléfonos celulares, PDAs y otros dispositivos de comunicación. Como ha de quedar claro, el equipo puede ser móvil e incluso instalarse en un vehículo móvil.
De manera adicional, los métodos pueden ser implementados por instrucciones que se llevan a cabo por un procesador, y tales instrucciones pueden ser almacenadas en un medio legible por procesador, tal como, por ejemplo, un circuito integrado, un portador o soporte de software, u otro dispositivo de almacenamiento tal como, por ejemplo, un disco duro, un disquete compacto, una memoria de acceso aleatorio (“RAM” - “random access memory”) o una memoria de solo lectura (“ROM” - “read-only memory”). Las instrucciones pueden formar un programa de aplicación materializado de modo tangible en un medio legible por procesador. Las instrucciones pueden ser, por ejemplo, en hardware, firmware, software, o una combinación de estos. Las instrucciones pueden encontrarse, por ejemplo, en un sistema operativo, en una aplicación independiente o en una combinación de ambos. En consecuencia, un procesador puede ser caracterizado, por ejemplo, tanto como un dispositivo configurado para llevar a cabo un procedimiento, cuanto como un dispositivo que incluye un medio legible por computadora que tiene instrucciones para llevar a cabo un procedimiento.
Como resultará evidente para un experto de la técnica, ciertas implementaciones pueden producir una variedad de señales formateadas para transportar información que puede ser, por ejemplo, almacenada o transmitida. La información puede incluir, por ejemplo, instrucciones para llevar a cabo un método, o bien datos producidos por una de las implementaciones descritas. Por ejemplo, una señal puede ser formateada para transportar como datos las reglas para escribir o leer la sintaxis de una realización descrita, o bien para llevar como datos los valores sintácticos reales escritos por una realización descrita. Semejante señal puede ser formateada, por ejemplo, como una onda electromagnética (por ejemplo, utilizando una porción de radiofrecuencia del espectro) o como una señal de banda de base. El formateo puede incluir, por ejemplo, codificar una corriente de datos y modular una portadora con la corriente de datos codificada. La información que transporta la señal puede ser, por ejemplo, información analógica o digital. La señal puede ser transmitida, como es sabido, por medio de una variedad de enlaces a través de hilos o inalámbricos diferentes.
Se han descrito diversas implementaciones. Se comprenderá, no obstante, que es posible realizar diversas modificaciones. Por ejemplo, elementos de diferentes implementaciones pueden ser combinados, complementados, modificados o suprimidos para dar lugar a otras implementaciones. Además, una persona con conocimientos ordinarios de la técnica comprenderá que las estructuras y procedimientos divulgados pueden ser sustituidos por otros y las implementaciones resultantes llevarán a cabo, al menos sustancialmente, la(s) misma(s) función (funciones), al menos sustancialmente de la(s) misma(s) manera(s), a fin de conseguir sustancialmente el (los) mismo(s) resultado(s) que las implementaciones divulgadas. De acuerdo con ello, estas y otras implementaciones se contemplan por esta Solicitud y se encuentran dentro del ámbito de la siguiente reivindicación.

Claims (1)

REIVINDICACIONES
1.- Un codificador (1100) que comprende:
una unidad de generación (1110) configurada para generar información en un primer conjunto de parámetros contenido en una primera unidad de capa de abstracción de red, siendo el primer conjunto de parámetros una estructura de sintaxis que contiene elementos de sintaxis que se aplican a cero o más secuencias de video codificadas enteras, y la información describe un parámetro para utilizarse para descodificar al menos una primera capa de múltiples capas de secuencias de videos y
una segunda unidad de NAL que tiene un código tipo de unidad de NAL específico, la segunda unidad NAL corresponde a una segunda capa de dichas múltiples capas, y la segunda unidad de NAL incluye información suplementaria, la información suplementaria procedente de una segunda unidad de NAL indica (i) un identificador del primer conjunto de parámetros para indicar que la segunda unidad de NAL se utiliza para suplementar la primera unidad de NAL, (ii) un parámetro de información de capacidad de uso de video (“VUI”) tiene información dependiente de capa para utilizarse para descodificar dicha segunda capa de dichas múltiples capas; y
una unidad de codificación (1120) configurada para codificar dicha segunda capa de dichas múltiples capas en función de la información generada para la primera unidad de NAL, y la información suplementaria generada para la segunda unidad de NAL,
en el cual el parámetro para utilizarse para descodificar la codificación de al menos dicha primera capa, se requiere con el fin de descodificar dicha segunda capa de dichas múltiples capas.
ES20162659T 2007-04-18 2008-04-07 Sistemas de codificación Active ES2905052T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US92399307P 2007-04-18 2007-04-18
US11/824,006 US20090003431A1 (en) 2007-06-28 2007-06-28 Method for encoding video data in a scalable manner

Publications (1)

Publication Number Publication Date
ES2905052T3 true ES2905052T3 (es) 2022-04-06

Family

ID=39790128

Family Applications (3)

Application Number Title Priority Date Filing Date
ES12165846.2T Active ES2633148T3 (es) 2007-04-18 2008-04-07 Método de codificación que utiliza una secuencia de parámetros suplementarios ajustados para la codificación o codificación multivista de video escalable
ES20162659T Active ES2905052T3 (es) 2007-04-18 2008-04-07 Sistemas de codificación
ES08742644T Active ES2388799T3 (es) 2007-04-18 2008-04-07 Sistemas de codificación

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES12165846.2T Active ES2633148T3 (es) 2007-04-18 2008-04-07 Método de codificación que utiliza una secuencia de parámetros suplementarios ajustados para la codificación o codificación multivista de video escalable

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES08742644T Active ES2388799T3 (es) 2007-04-18 2008-04-07 Sistemas de codificación

Country Status (20)

Country Link
US (1) US8619871B2 (es)
EP (11) EP3700221B1 (es)
JP (9) JP5026584B2 (es)
KR (8) KR101813848B1 (es)
CN (5) CN103338367B (es)
BR (8) BRPI0810366B1 (es)
CY (1) CY1123148T1 (es)
DK (1) DK3264780T3 (es)
ES (3) ES2633148T3 (es)
HK (3) HK1174463A1 (es)
HR (1) HRP20201105T1 (es)
HU (1) HUE050251T2 (es)
LT (1) LT3264780T (es)
MX (4) MX348825B (es)
PL (2) PL2528341T3 (es)
PT (1) PT2147555E (es)
RU (1) RU2501179C2 (es)
SI (1) SI3264780T1 (es)
TW (9) TWI775758B (es)
WO (1) WO2008130500A2 (es)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8289370B2 (en) 2005-07-20 2012-10-16 Vidyo, Inc. System and method for scalable and low-delay videoconferencing using scalable video coding
US20140072058A1 (en) 2010-03-05 2014-03-13 Thomson Licensing Coding systems
JP5264919B2 (ja) * 2007-10-05 2013-08-14 トムソン ライセンシング マルチビュービデオ(mvc)符号化システム内にビデオユーザビリティ情報(vui)を取り込む方法及び装置
TWI473016B (zh) * 2008-07-16 2015-02-11 Sisvel Internat S A 用以處理多視圖視訊位元串流之方法與裝置及電腦可讀媒體
EP2389000A4 (en) 2009-01-19 2014-04-02 Panasonic Corp ENCLOSURE METHOD, DECOMPOSITION METHOD, ENCRYPTION DEVICE, DECOMPOSITION DEVICE, PROGRAM AND INTEGRATED CIRCUIT
JP4962525B2 (ja) * 2009-04-08 2012-06-27 ソニー株式会社 再生装置、再生方法、およびプログラム
CA2758237C (en) * 2009-04-09 2017-08-15 Telefonaktiebolaget Lm Ericsson (Publ) Media container file management
TW201101843A (en) * 2009-04-28 2011-01-01 Panasonic Corp Image decoding method, image coding method, image decoding apparatus, and image coding apparatus
EP2355510A1 (en) * 2009-12-21 2011-08-10 Alcatel Lucent Method and arrangement for video coding
JP5738434B2 (ja) * 2011-01-14 2015-06-24 ヴィディオ・インコーポレーテッド 改善されたnalユニットヘッダ
WO2012105265A1 (en) * 2011-02-03 2012-08-09 Panasonic Corporation Systems and methods for encoding and decoding video which support compatibility functionality to legacy video players
JP5833682B2 (ja) * 2011-03-10 2015-12-16 ヴィディオ・インコーポレーテッド スケーラブルなビデオ符号化のための依存性パラメータセット
WO2013002709A1 (en) * 2011-06-30 2013-01-03 Telefonaktiebolaget L M Ericsson (Publ) Indicating bit stream subsets
KR20130058584A (ko) * 2011-11-25 2013-06-04 삼성전자주식회사 복호화기의 버퍼 관리를 위한 영상 부호화 방법 및 장치, 그 영상 복호화 방법 및 장치
US9451252B2 (en) * 2012-01-14 2016-09-20 Qualcomm Incorporated Coding parameter sets and NAL unit headers for video coding
WO2013165215A1 (ko) * 2012-05-04 2013-11-07 엘지전자 주식회사 영상 정보 저장 방법 및 영상 정보 파싱 방법 그리고 이를 이용하는 장치
US9313486B2 (en) 2012-06-20 2016-04-12 Vidyo, Inc. Hybrid video coding techniques
US9912941B2 (en) 2012-07-02 2018-03-06 Sony Corporation Video coding system with temporal layers and method of operation thereof
US10110890B2 (en) * 2012-07-02 2018-10-23 Sony Corporation Video coding system with low delay and method of operation thereof
RU2612577C2 (ru) 2012-07-02 2017-03-09 Нокиа Текнолоджиз Ой Способ и устройство для кодирования видеоинформации
US20140003534A1 (en) * 2012-07-02 2014-01-02 Sony Corporation Video coding system with temporal scalability and method of operation thereof
US20140078249A1 (en) * 2012-09-20 2014-03-20 Qualcomm Incorporated Indication of frame-packed stereoscopic 3d video data for video coding
US9426462B2 (en) 2012-09-21 2016-08-23 Qualcomm Incorporated Indication and activation of parameter sets for video coding
US9351005B2 (en) 2012-09-24 2016-05-24 Qualcomm Incorporated Bitstream conformance test in video coding
US9432664B2 (en) 2012-09-28 2016-08-30 Qualcomm Incorporated Signaling layer identifiers for operation points in video coding
US9154785B2 (en) * 2012-10-08 2015-10-06 Qualcomm Incorporated Sub-bitstream applicability to nested SEI messages in video coding
US9621906B2 (en) 2012-12-10 2017-04-11 Lg Electronics Inc. Method for decoding image and apparatus using same
CN104885461B (zh) * 2012-12-26 2019-01-08 索尼公司 图像处理装置和方法
CN116708767A (zh) 2013-01-04 2023-09-05 Ge视频压缩有限责任公司 高效可伸缩编码概念
US9374581B2 (en) 2013-01-07 2016-06-21 Qualcomm Incorporated Signaling of picture order count to timing information relations for video timing in video coding
WO2014116047A1 (ko) * 2013-01-23 2014-07-31 삼성전자 주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US20140269934A1 (en) * 2013-03-15 2014-09-18 Sony Corporation Video coding system with multiple scalability and method of operation thereof
CN110225356B (zh) 2013-04-08 2024-02-13 Ge视频压缩有限责任公司 多视图解码器
US9565437B2 (en) 2013-04-08 2017-02-07 Qualcomm Incorporated Parameter set designs for video coding extensions
US10003815B2 (en) * 2013-06-03 2018-06-19 Qualcomm Incorporated Hypothetical reference decoder model and conformance for cross-layer random access skipped pictures
US9648335B2 (en) * 2013-07-12 2017-05-09 Qualcomm Incorporated Bitstream restrictions on picture partitions across layers
US20150103887A1 (en) * 2013-10-14 2015-04-16 Qualcomm Incorporated Device and method for scalable coding of video information
EP3089452A4 (en) 2013-12-26 2017-10-25 Samsung Electronics Co., Ltd. Inter-layer video decoding method for performing subblock-based prediction and apparatus therefor, and inter-layer video encoding method for performing subblock-based prediction and apparatus therefor
KR20160104678A (ko) * 2014-01-02 2016-09-05 브이아이디 스케일, 인크. Hevc 확장 규격을 위한 서브 비트스트림 추출 프로세스
WO2015102441A1 (ko) * 2014-01-03 2015-07-09 삼성전자 주식회사 효율적인 파라미터 전달을 사용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
EP3092806A4 (en) * 2014-01-07 2017-08-23 Nokia Technologies Oy Method and apparatus for video coding and decoding
US9712871B2 (en) 2014-05-01 2017-07-18 Qualcomm Incorporated Determination bitstream decoding capability in video coding
US10063867B2 (en) * 2014-06-18 2018-08-28 Qualcomm Incorporated Signaling HRD parameters for bitstream partitions
US10091532B2 (en) * 2014-06-26 2018-10-02 Qualcomm Incorporated Bitstream conformance constraints in scalable video coding
EP3179729B1 (en) * 2014-08-07 2021-08-25 Sony Group Corporation Transmission device, transmission method and reception device
CN108933768B (zh) * 2017-05-27 2021-06-08 成都鼎桥通信技术有限公司 视频帧的发送帧率的获取方法和装置
TWI826969B (zh) * 2019-03-11 2023-12-21 弗勞恩霍夫爾協會 具輪廓與位階相依寫碼選項之編碼器與解碼器、編碼方法及解碼方法
US20210195179A1 (en) * 2019-12-23 2021-06-24 Qualcomm Incorporated Picture header signaling for video coding

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2226489C (en) * 1992-03-26 2001-07-24 Matsushita Electric Industrial Co., Ltd. Communication system
KR960036641A (ko) * 1995-03-21 1996-10-28 김광호 저속의 비디오비트열을 복호하는 고속용 복호화장치
JP4359804B2 (ja) 1997-12-23 2009-11-11 トムソン ライセンシング ビデオ信号を処理する方法
RU2201654C2 (ru) * 1997-12-23 2003-03-27 Томсон Лайсенсинг С.А. Способ низкошумового кодирования и декодирования
KR100637955B1 (ko) 1998-04-23 2006-10-23 듀크 유니버시티 수용체의 생물학적 활성을 조절하는 화합물의 능력을예측하는 방법
KR100354745B1 (ko) * 1998-11-02 2002-12-18 삼성전자 주식회사 비디오코딩및디코딩방법
US6501797B1 (en) * 1999-07-06 2002-12-31 Koninklijke Phillips Electronics N.V. System and method for improved fine granular scalable video using base layer coding information
US20040006575A1 (en) * 2002-04-29 2004-01-08 Visharam Mohammed Zubair Method and apparatus for supporting advanced coding formats in media files
KR20040106414A (ko) 2002-04-29 2004-12-17 소니 일렉트로닉스 인코포레이티드 미디어 파일에서 진보된 코딩 포맷의 지원
US7724818B2 (en) * 2003-04-30 2010-05-25 Nokia Corporation Method for coding sequences of pictures
US8351514B2 (en) * 2004-01-16 2013-01-08 General Instrument Corporation Method, protocol, and apparatus for transporting advanced video coding content
CN101815212B (zh) 2004-04-16 2013-01-02 松下电器产业株式会社 重放装置以及记录方法
US20050254575A1 (en) 2004-05-12 2005-11-17 Nokia Corporation Multiple interoperability points for scalable media coding and transmission
KR20050113501A (ko) * 2004-05-29 2005-12-02 삼성전자주식회사 에이치 264 비디오 디코더를 위한 구문 분석기
US9560367B2 (en) * 2004-09-03 2017-01-31 Nokia Technologies Oy Parameter set and picture header in video coding
DE102004059978B4 (de) * 2004-10-15 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz und zum Decodieren einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Restwerte-Prädiktion sowie ein Computerprogramm und ein computerlesbares Medium
US20060146734A1 (en) * 2005-01-04 2006-07-06 Nokia Corporation Method and system for low-delay video mixing
CN100551074C (zh) * 2005-01-17 2009-10-14 松下电器产业株式会社 图像解码方法、图像解码装置和集成电路
JP2006260611A (ja) * 2005-03-15 2006-09-28 Toshiba Corp 情報記憶媒体、情報再生装置、情報再生方法、及びネットワーク通信システム
KR100732961B1 (ko) * 2005-04-01 2007-06-27 경희대학교 산학협력단 다시점 영상의 스케일러블 부호화, 복호화 방법 및 장치
CN101120593A (zh) * 2005-04-13 2008-02-06 诺基亚公司 可扩展性信息的编码、存储和信号发送
WO2006109117A1 (en) 2005-04-13 2006-10-19 Nokia Corporation Method, device and system for effectively coding and decoding of video data
US20060233247A1 (en) * 2005-04-13 2006-10-19 Visharam Mohammed Z Storing SVC streams in the AVC file format
TWI297471B (en) 2005-05-20 2008-06-01 Novatek Microelectronics Corp Method for video content complexity estimation, scene change detection and video encoding
KR20060122663A (ko) * 2005-05-26 2006-11-30 엘지전자 주식회사 영상신호의 엔코딩 및 디코딩에서의 픽처 정보를 전송하고이를 이용하는 방법
EP1773063A1 (en) * 2005-06-14 2007-04-11 Thomson Licensing Method and apparatus for encoding video data, and method and apparatus for decoding video data
FR2888424A1 (fr) * 2005-07-07 2007-01-12 Thomson Licensing Sas Dispositif et procede de codage et de decodage de donnees video et train de donnees
US7974517B2 (en) * 2005-10-05 2011-07-05 Broadcom Corporation Determination of decoding information
WO2007046957A1 (en) 2005-10-12 2007-04-26 Thomson Licensing Method and apparatus for using high-level syntax in scalable video encoding and decoding
KR100772868B1 (ko) 2005-11-29 2007-11-02 삼성전자주식회사 복수 계층을 기반으로 하는 스케일러블 비디오 코딩 방법및 장치
US8937997B2 (en) * 2006-03-16 2015-01-20 Apple Inc. Scalable video coding/multiplexing compatible with non-scalable decoders
WO2007112384A2 (en) 2006-03-27 2007-10-04 Vidyo, Inc. System and method for management of scalability information in scalable video and audio coding systems using control messages
US8320450B2 (en) * 2006-03-29 2012-11-27 Vidyo, Inc. System and method for transcoding between scalable and non-scalable video codecs
US20070230564A1 (en) * 2006-03-29 2007-10-04 Qualcomm Incorporated Video processing with scalability
US8422548B2 (en) * 2006-07-10 2013-04-16 Sharp Laboratories Of America, Inc. Methods and systems for transform selection and management
US20080095228A1 (en) * 2006-10-20 2008-04-24 Nokia Corporation System and method for providing picture output indications in video coding
JP2009538084A (ja) * 2006-11-17 2009-10-29 エルジー エレクトロニクス インコーポレイティド ビデオ信号のデコーディング/エンコーディング方法及び装置
WO2008088175A1 (en) * 2007-01-17 2008-07-24 Lg Electronics Inc. Method and apparatus for processing a video signal
KR101132386B1 (ko) * 2007-04-13 2012-07-16 노키아 코포레이션 비디오 코더
US20090003431A1 (en) 2007-06-28 2009-01-01 Lihua Zhu Method for encoding video data in a scalable manner
US20100142613A1 (en) 2007-04-18 2010-06-10 Lihua Zhu Method for encoding video data in a scalable manner
US20080317124A1 (en) * 2007-06-25 2008-12-25 Sukhee Cho Multi-view video coding system, decoding system, bitstream extraction system for decoding base view and supporting view random access

Also Published As

Publication number Publication date
TWI530196B (zh) 2016-04-11
EP2528344A1 (en) 2012-11-28
KR101663438B1 (ko) 2016-10-06
JP5213085B2 (ja) 2013-06-19
TW201308989A (zh) 2013-02-16
TW201308992A (zh) 2013-02-16
PL2528341T3 (pl) 2017-10-31
DK3264780T3 (da) 2020-07-27
EP2528341A1 (en) 2012-11-28
BR122012013059A2 (pt) 2015-07-14
EP2528343A1 (en) 2012-11-28
JP2013013113A (ja) 2013-01-17
TW201306590A (zh) 2013-02-01
TWI502976B (zh) 2015-10-01
TWI543628B (zh) 2016-07-21
EP2533545B1 (en) 2017-05-03
CN103281563B (zh) 2016-09-07
JP2013062866A (ja) 2013-04-04
EP3700221A1 (en) 2020-08-26
EP2528340B1 (en) 2017-06-07
CN103338367B (zh) 2017-08-29
KR20170117104A (ko) 2017-10-20
KR20120079177A (ko) 2012-07-11
ES2633148T3 (es) 2017-09-19
ES2388799T3 (es) 2012-10-18
JP5026584B2 (ja) 2012-09-12
BR122012013078A2 (pt) 2015-07-14
HUE050251T2 (hu) 2020-11-30
EP2533545A1 (en) 2012-12-12
TW201618542A (zh) 2016-05-16
RU2501179C2 (ru) 2013-12-10
JP2014225919A (ja) 2014-12-04
KR101429372B1 (ko) 2014-08-13
TWI488492B (zh) 2015-06-11
SI3264780T1 (sl) 2020-08-31
BRPI0810366A2 (pt) 2015-05-26
BR122012013072A2 (pt) 2015-07-14
TWI775758B (zh) 2022-09-01
KR20120071411A (ko) 2012-07-02
BR122012013066A2 (pt) 2015-08-04
BRPI0810366B1 (pt) 2020-09-15
JP2013146087A (ja) 2013-07-25
JP5317247B2 (ja) 2013-10-16
MX337525B (es) 2016-03-09
JP2016096563A (ja) 2016-05-26
TWI599228B (zh) 2017-09-11
WO2008130500A2 (en) 2008-10-30
CN102724556A (zh) 2012-10-10
KR20160116059A (ko) 2016-10-06
KR20150068481A (ko) 2015-06-19
CN102685556A (zh) 2012-09-19
JP2013062865A (ja) 2013-04-04
EP3264780B1 (en) 2020-06-24
CN103281563A (zh) 2013-09-04
KR101777706B1 (ko) 2017-09-25
KR20100015737A (ko) 2010-02-12
JP5213084B2 (ja) 2013-06-19
EP3264780A1 (en) 2018-01-03
TWI415450B (zh) 2013-11-11
BR122012013059B1 (pt) 2020-09-15
RU2009142429A (ru) 2011-05-27
BR122012013077A2 (pt) 2015-07-14
EP2147555A2 (en) 2010-01-27
MX2021009153A (es) 2022-06-08
CN102724556B (zh) 2015-07-22
EP2528341B1 (en) 2017-06-07
JP5150781B2 (ja) 2013-02-27
PL2147555T3 (pl) 2012-10-31
LT3264780T (lt) 2020-08-10
HK1174464A1 (en) 2013-06-07
TW201308990A (zh) 2013-02-16
JP5069811B2 (ja) 2012-11-07
CN102685556B (zh) 2015-07-15
BR122012013078B1 (pt) 2020-09-15
TW200913716A (en) 2009-03-16
CN102685557B (zh) 2015-09-16
EP4054201B1 (en) 2024-06-05
CY1123148T1 (el) 2021-10-29
KR20120071410A (ko) 2012-07-02
CN102685557A (zh) 2012-09-19
JP6180495B2 (ja) 2017-08-16
JP2010525661A (ja) 2010-07-22
HK1174463A1 (en) 2013-06-07
TW201308991A (zh) 2013-02-16
TW201306589A (zh) 2013-02-01
TW201804789A (zh) 2018-02-01
WO2008130500A3 (en) 2008-12-11
EP2528340A1 (en) 2012-11-28
CN103338367A (zh) 2013-10-02
BR122012013058A2 (pt) 2015-07-14
PT2147555E (pt) 2013-04-22
EP4054201A1 (en) 2022-09-07
JP5597269B2 (ja) 2014-10-01
EP2528342A1 (en) 2012-11-28
JP2013081234A (ja) 2013-05-02
HK1174462A1 (en) 2013-06-07
HRP20201105T1 (hr) 2021-01-22
EP2528345A1 (en) 2012-11-28
BR122012013614A2 (pt) 2015-07-14
US20100195738A1 (en) 2010-08-05
JP2012199999A (ja) 2012-10-18
MX2009011217A (es) 2009-12-07
EP3700221B1 (en) 2021-12-15
US8619871B2 (en) 2013-12-31
KR101393169B1 (ko) 2014-05-09
KR101547008B1 (ko) 2015-08-28
KR101813848B1 (ko) 2017-12-29
AU2008241568A1 (en) 2008-10-30
TWI445407B (zh) 2014-07-11
MX348825B (es) 2017-06-30
KR20150061009A (ko) 2015-06-03
TWI445393B (zh) 2014-07-11
EP2147555B1 (en) 2012-07-25
KR101663917B1 (ko) 2016-10-07

Similar Documents

Publication Publication Date Title
ES2905052T3 (es) Sistemas de codificación
US11412265B2 (en) Decoding multi-layer images
AU2015203559B2 (en) Coding systems
AU2012238296B2 (en) Coding systems