ES2673191T3 - Aparato de decodificación de datos de video - Google Patents

Aparato de decodificación de datos de video Download PDF

Info

Publication number
ES2673191T3
ES2673191T3 ES12845753.8T ES12845753T ES2673191T3 ES 2673191 T3 ES2673191 T3 ES 2673191T3 ES 12845753 T ES12845753 T ES 12845753T ES 2673191 T3 ES2673191 T3 ES 2673191T3
Authority
ES
Spain
Prior art keywords
mode
unit
intra prediction
luma
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12845753.8T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infobridge Pte Ltd
Original Assignee
Infobridge Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infobridge Pte Ltd filed Critical Infobridge Pte Ltd
Application granted granted Critical
Publication of ES2673191T3 publication Critical patent/ES2673191T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

Un aparato de decodificación de datos de video, que comprende: una unidad de decodificación de modo de predicción (250, 320) configurada para derivar un modo de intra predicción de luma y un modo de intra predicción de croma; una unidad de determinación de tamaño de predicción (330) configurada para determinar un tamaño de una unidad de transformación de luma y un tamaño de una unidad de transformación de croma utilizando información de tamaño de transformación; una unidad de generación de píxeles de referencia (340) configurada para generar píxeles de referencia si al menos un píxel de referencia no está disponible; una unidad de filtrado de píxeles de referencia (350) configurada para filtrar de forma adaptativa los píxeles de referencia de un bloque de luma actual en base al modo de intra predicción de luma y al tamaño de la unidad de transformación de luma, y no para filtrar los píxeles de referencia de un bloque de croma actual; una unidad de generación de bloques de predicción (360) configurada para generar bloques de predicción del bloque de luma actual y del bloque de croma actual; una unidad de generación de bloques residuales (210, 220, 230, 240) configurada para generar un bloque residual de luma y un bloque residual de croma, y un agregador (290) que agrega el bloque residual generado y el bloque de predicción generado para generar un bloque reconstruido, n el que el modo de intra predicción de luma se deriva usando un grupo de modos más probables, MPM, que incluye tres modos de intra predicción, un indicador de grupo de modos y un índice de modo de predicción de luma, cuando solo está disponible uno de entre un modo de intra predicción izquierdo y un modo de intra predicción superior de una unidad de predicción de luma actual y si el modo de intra predicción disponible es un modo no direccional, los tres modos de intra predicción en el grupo de MPM son el modo plano, el modo DC y el modo vertical, y cuando solo está disponible uno de entre un modo de intra predicción izquierdo y un modo de intra predicción superior de una unidad de predicción de luma actual y si el modo de intra predicción disponible es un modo direccional, los tres modos de intra predicción en el grupo de MPM son el modo plano, el modo DC y el modo de intra predicción disponible.

Description

DESCRIPCIÓN
APARATO DE DECODIFICACIÓN DE DATOS DE VIDEO
5
Campo técnico
La presente invención se refiere a un aparato de decodificación de datos de video, y más particularmente, a un aparato de derivación de un modo de intra predicción, y generación de un bloque de predicción y un bloque residual para 10 recuperar un bloque reconstruido para componentes de luma y croma.
Técnica anterior
En H.264/MPEG-4 AVC, una imagen se divide en macro-bloques para codificar una imagen, los macro-bloques 15 respectivos se codifican generando un bloque de predicción usando inter predicción o intra predicción. Se transforma la diferencia entre un bloque original y el bloque de predicción para generar un bloque transformado, y se cuantifica el bloque transformado usando un parámetro de cuantificación y una de entre una pluralidad de matrices de cuantificación predeterminadas. El coeficiente cuantificado del bloque cuantificado se explora mediante un tipo de exploración predeterminado y luego se codifica por entropía. El parámetro de cuantificación es ajustado por cada 20 macro-bloque y codificado utilizando un parámetro de cuantificación anterior.
Mientras tanto, se introducen técnicas que utilizan diversos tamaños de unidad de codificación para mejorar la eficacia de codificación. También se introducen técnicas que aumentan un número de modos de intra predicción de luma y croma para generar un bloque de predicción más similar a un bloque original.
25
Sin embargo, la cantidad de bits de codificación requeridos para señalizar el modo de intra predicción aumenta a medida que el número de modos de intra predicción aumenta. Además, la diferencia entre un bloque original y un bloque de predicción aumenta a medida que el tamaño de la unidad de codificación es mayor. En consecuencia, se requiere un método más efectivo para codificar y decodificar datos de video para componentes de luma y croma.
30
Divulgación
Problema técnico
35
La presente invención se refiere a un aparato para derivar un modo de intra predicción, generar píxeles de referencia, filtrar de forma adaptativa los píxeles de referencia y generar un bloque de predicción.
40 Solución técnica
Un aspecto de la presente invención proporciona un aparato de decodificación de datos de video, que comprende: una unidad de decodificación del modo de predicción configurada para derivar un modo de intra predicción de luma y un modo de intra predicción de croma; una unidad de determinación del tamaño de predicción configurada para 45 determinar un tamaño de una unidad de transformación de luma y un tamaño de una unidad de transformación de croma usando información de tamaño de transformación de luma; una unidad de generación de píxeles de referencia configurada para generar píxeles de referencia si al menos un píxel de referencia no está disponible; una unidad de filtrado de píxeles de referencia configurada para filtrar de forma adaptativa los píxeles de referencia de un bloque de luma actual en base al modo de intra predicción de luma y al tamaño de la unidad de transformación de luma, y no 50 para filtrar los píxeles de referencia de un bloque de croma actual; una unidad de generación de bloques de predicción configurada para generar bloques de predicción del bloque de luma actual y del bloque de croma actual; y una unidad de generación de bloques residuales configurada para generar un bloque residual de luma y un bloque residual de croma.
55 El documento "Parsing friendly intra mode coding", W.-J. Chien et.al., documento JCTVC-F459 puede interpretarse como la divulgación de un procedimiento de codificación para el modo de intra predicción para abordar problemas en el proceso de análisis (parsing). Durante el proceso de análisis, el procedimiento propuesto no depende de la información vecina, por lo que no se necesita almacenamiento de memoria adicional. Los resultados de la simulación muestran una ganancia promedio de rendimiento del 0,2% en configuraciones solo intra.
El documento "WD3: Working Draft 3 of High-Efficiency Video Coding", T. Wiegand et.al., documento JCTVC-E603 puede interpretarse como la divulgación de una técnica relacionada con HEVC, la creciente necesidad de una mayor compresión de imágenes en movimiento para diversas aplicaciones tales como videoconferencia, medios de
almacenamiento digital, etc. Los algoritmos de codificación pueden seleccionar entre inter e intra codificación para regiones en forma de bloque en cada imagen. La inter codificación usa vectores de movimiento para la inter predicción basada en bloques para explotar dependencias estadísticas temporales entre diferentes imágenes. La intra codificación usa varios modos de predicción espacial para explotar dependencias estadísticas espaciales en la señal 5 de origen para una sola imagen. Los vectores de movimiento y los modos de intra predicción se pueden especificar para una diversidad de tamaños de bloques de la imagen. Después, se comprime el residuo de la predicción utilizando una transformación para eliminar la correlación espacial dentro del bloque de transformación antes de su cuantificación, produciendo un proceso irreversible que normalmente descarta información visual menos importante mientras forma una aproximación cercana a las muestras de origen. Finalmente, se combinan los vectores de 10 movimiento o los modos de intra predicción con la información de coeficiente de transformación cuantificada y se realiza su codificación usando una codificación de longitud variable o codificación aritmética.
El documento "BoG report on intra mode coding with fixed number of MPM candidates", J. Chen, documento JCTVC- F765 puede interpretarse como la divulgación de una técnica relacionada con el desacoplamiento del análisis y la 15 reconstrucción del modo intra usando un número fijo de candidatos MPM con un cambio mínimo (denominado 2MPM).
Efectos ventajosos
20 Un aparato según la presente invención deriva un modo de intra predicción de luma y un modo de intra predicción de croma, determina un tamaño de una unidad de transformación de luma y un tamaño de una unidad de transformación de croma usando información de tamaño de transformación de luma, filtra de forma adaptativa los píxeles de referencia de un bloque de luma actual en base al modo de intra predicción de luma y al tamaño de la unidad de transformación de luma, genera bloques de predicción del bloque de luma actual y del bloque de croma actual y genera un bloque 25 residual de luma y un bloque residual de croma. Por lo tanto, se reduce la distancia de la intra predicción, y se reduce la cantidad de bits de codificación necesarios para codificar los modos de intra predicción y los bloques residuales de componentes de luma y croma y se reduce la complejidad de codificación codificando de forma adaptativa los modos de intra predicción y filtrando de forma adaptativa los píxeles de referencia.
30
Descripción de dibujos
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes según un ejemplo.
35 La figura 2 es un diagrama de bloques de un aparato de decodificación de imágenes según la presente invención.
La figura 3 es un diagrama de bloques de un aparato para generar un bloque de predicción según la presente invención.
40 La figura 4 es un diagrama conceptual que ilustra modos de intra predicción según un ejemplo.
La figura 5 es un diagrama de bloques de un aparato para generar un bloque residual según un ejemplo.
45 Realizaciones de la invención
A continuación, se describirán en detalle varias realizaciones de la presente invención con referencia a los dibujos adjuntos. Sin embargo, la presente invención no se limita a las realizaciones descritas a continuación a modo de ejemplo, sino que pueden implementarse de varias maneras. Por lo tanto, son posibles muchas otras modificaciones 50 y variaciones de la presente invención, y debe entenderse que dentro del alcance del concepto divulgado, la presente invención puede ponerse en práctica de otras maneras a las que se han descrito específicamente.
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes 100 según un ejemplo.
55 Con referencia a la figura 1, el aparato de codificación de imágenes 100 según el presente ejemplo incluye una unidad de división de imágenes 110, una unidad de intra predicción 120, una unidad de inter predicción 130, una unidad de transformación 140, una unidad de cuantificación 150, una unidad de exploración 160, una unidad de codificación de entropía 170, una unidad de cuantificación inversa 155, una unidad de transformación inversa 145, una unidad de post procesamiento 180, una unidad de almacenamiento de imágenes 190, un sustractor 192 y un agregador 194.
La unidad de división de imágenes 110 divide una imagen en porciones (slices), divide una porción en unidades de codificación más grandes (LCU) y divide cada LCU en una o más unidades de codificación. La unidad de división de imágenes 110 determina el modo de predicción de cada unidad de codificación y un tamaño de unidad de predicción.
La imagen, las porciones y las unidades de codificación se componen de una matriz de muestra de luminancia (matriz de luma) y dos matrices de muestra de crominancia (matrices de croma). Un bloque de croma tiene la mitad de la altura y la mitad del ancho de un bloque de luma. El bloque puede ser una LCU, una unidad de codificación o una unidad de predicción. En lo sucesivo, una unidad de codificación de luma, una unidad de predicción de luma y una 5 unidad de transformación de luma se denominan una unidad de codificación, una unidad de predicción y una unidad de transformación, respectivamente.
Una LCU incluye una o más unidades de codificación. La LCU tiene una estructura recursiva de árbol cuádruple para especificar una estructura de división de unidades de codificación. Se incluyen parámetros para especificar el tamaño 10 máximo y el tamaño mínimo de la unidad de codificación en un conjunto de parámetros de secuencia. La estructura de división es especificada por una o más banderas de división de unidad de codificación (split_cu_flags). El tamaño de una unidad de codificación es 2Nx2N.
Una unidad de codificación incluye una o más unidades de predicción. En la intra predicción, el tamaño de la unidad 15 de predicción es 2Nx2N o NxN. En la inter predicción, el tamaño de la unidad de predicción es 2Nx2N, 2NxN, Nx2N o NxN.
Una unidad de codificación incluye una o más unidades de transformación. La unidad de transformación tiene una estructura recursiva de árbol cuádruple para especificar una estructura de división. La estructura de división es 20 especificada por una o más banderas de división de unidad de transformación (split_tu_flags). Se incluye un parámetro para especificar el tamaño máximo y el tamaño mínimo de la unidad de transformación de luma en un conjunto de parámetros de secuencia. La unidad de transformación de croma tiene la mitad de la altura y la mitad del ancho de la unidad de transformación si la unidad de transformación no es 4x4. El tamaño mínimo de la unidad de transformación de croma es 4x4.
25
La unidad de intra predicción 120 determina un modo de intra predicción de una unidad de predicción actual y genera un bloque de predicción usando el modo de intra predicción. Un tamaño del bloque de predicción es igual a un tamaño de la unidad de transformación.
30 La unidad de inter predicción 130 determina información de movimiento de la unidad de predicción actual usando una o más imágenes de referencia almacenadas en la unidad de almacenamiento de imágenes 190, y genera un bloque de predicción de la unidad de predicción. La información de movimiento incluye uno o más índices de imagen de referencia y uno o más vectores de movimiento.
35 La unidad de transformación 140 transforma señales residuales generadas usando un bloque original y un bloque de predicción para generar un bloque transformado. Las señales residuales son transformadas por la unidad de transformación. Un tipo de transformación es determinado por el modo de predicción y el tamaño de la unidad de transformación. El tipo de transformación es una transformación de enteros basada en DCT (transformada discreta del coseno) o una transformación de enteros basada en DST (transformada discreta del seno). En la inter predicción, 40 se usan transformaciones de enteros basadas en DCT. En el modo de intra predicción, si el tamaño de la unidad de transformación es menor que un tamaño predeterminado, se usan transformaciones de enteros basadas en DST, de lo contrario se usan transformaciones de enteros basadas en DCT. El tamaño predeterminado es 8x8. El tipo de transformación de la unidad de transformación de croma es igual al tipo de transformación de la correspondiente unidad de transformación. Por lo tanto, el tipo de transformación para la unidad de transformación de croma es la 45 transformación de enteros basada en DCT.
La unidad de cuantificación 150 determina un parámetro de cuantificación para cuantificar el bloque transformado. El parámetro de cuantificación es un tamaño de etapa de cuantificación. El parámetro de cuantificación de la luma se denomina parámetro de cuantificación. El parámetro de cuantificación se determina por cada unidad de cuantificación. 50 El tamaño de la unidad de cuantificación es uno de entre los tamaños permitidos de la unidad de codificación. Si un tamaño de la unidad de codificación es igual o mayor que el tamaño mínimo de la unidad de cuantificación, la unidad de codificación se convierte en la unidad de cuantificación. Se puede incluir una pluralidad de unidades de codificación en una unidad de cuantificación. El tamaño mínimo de la unidad de cuantificación se determina por cada imagen y se incluye un parámetro para especificar el tamaño mínimo de la unidad de cuantificación en un conjunto de parámetros 55 de imagen. Un parámetro de cuantificación de la croma es determinado por el parámetro de cuantificación. La relación entre el parámetro de cuantificación y el parámetro de cuantificación de croma puede ser determinada por la imagen. Se transmite un parámetro para indicar la relación en un conjunto de parámetros de imagen (PPS). La relación puede ser cambiada por la porción (slice). Se puede transmitir otro parámetro para cambiar la relación en una cabecera de porción (slice).
La unidad de cuantificación 150 genera un predictor del parámetro de cuantificación y genera un parámetro de cuantificación diferencial restando el predictor del parámetro de cuantificación al parámetro de cuantificación. El parámetro de cuantificación diferencial es codificado por entropía.
El predictor del parámetro de cuantificación se genera utilizando los parámetros de cuantificación de las unidades de codificación vecinas y el parámetro de cuantificación de la unidad de codificación previa de la siguiente manera.
5 Se recuperan secuencialmente un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación anterior en este orden. Cuando dos o más parámetros de cuantificación están disponibles, se establece un promedio de los primeros dos parámetros de cuantificación disponibles recuperados en ese orden como el predictor del parámetro de cuantificación, y cuando solo está disponible un parámetro de cuantificación, se establece el parámetro de cuantificación disponible como el predictor del parámetro de cuantificación. Es decir, si los
10 parámetros de cuantificación izquierdo y superior están disponibles, se establece el promedio del parámetro de cuantificación izquierdo y superior como el predictor del parámetro de cuantificación. Si solo está disponible uno de los parámetros de cuantificación izquierdo y superior, se establece el promedio del parámetro de cuantificación disponible y el parámetro de cuantificación anterior como el predictor del parámetro de cuantificación. Si ambos parámetros de cuantificación izquierdo y superior no están disponibles, se establece el parámetro de cuantificación
15 anterior como el predictor del parámetro de cuantificación. El promedio es redondeado.
La unidad de cuantificación 150 cuantifica el bloque transformado usando una matriz de cuantificación y el parámetro de cuantificación para generar un bloque cuantificado. El bloque cuantificado es proporcionado a la unidad de cuantificación inversa 155 y a la unidad de exploración 160.
20
La unidad de exploración 160 determina un patrón de exploración y aplica el patrón de exploración al bloque cuantificado. Cuando se utiliza CABAC para la codificación de entropía, el patrón de exploración se determina de la siguiente manera.
25 En la intra predicción, el patrón de exploración es determinado por el modo de intra predicción y el tamaño de la unidad de transformación. El tamaño de la unidad de transformación, el tamaño del bloque transformado y el tamaño del bloque cuantificado son el mismo. El patrón de exploración se selecciona de entre una exploración en diagonal, exploración vertical y exploración horizontal. Los coeficientes de transformación cuantificados del bloque cuantificado se dividen en banderas significativas, signos de coeficiente y niveles de coeficiente. El patrón de exploración se aplica
30 a las banderas significativas, signos de coeficiente y niveles de coeficiente, respectivamente. La bandera significativa indica si el correspondiente coeficiente de transformación cuantificado es cero o no es cero. El signo de coeficiente indica un signo de coeficiente de transformación cuantificado diferente de cero, y el nivel de coeficientes indica un valor absoluto de coeficiente de transformación cuantificado diferente de cero.
35 Cuando el tamaño de la unidad de transformación es igual o menor que un primer tamaño, se selecciona la exploración horizontal para el modo vertical y un número predeterminado de modos de intra predicción vecinos del modo vertical, se selecciona la exploración vertical para el modo horizontal y el número predeterminado de modos de intra predicción vecinos del modo horizontal, y se selecciona la exploración en diagonal para los otros modos de intra predicción. Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se utiliza la exploración en diagonal.
40 El primer tamaño es 8x8. El número predeterminado es 8 si la unidad de transformación es 8x8.
En la inter predicción, se usa un patrón de exploración predeterminado independientemente del tamaño de la unidad de transformación. El patrón de exploración predeterminado es la exploración en diagonal.
45 El patrón de exploración de una unidad de transformación de croma es igual al patrón de exploración de una unidad de transformación de luma correspondiente. Por lo tanto, el patrón de exploración se selecciona de entre la exploración en diagonal, la exploración vertical y la exploración horizontal según se ha expuesto anteriormente cuando el tamaño de la unidad de transformación de croma es 4x4, y se usa la exploración en diagonal cuando el tamaño de la unidad de transformación de croma es mayor que 4x4.
50
Cuando el tamaño de la unidad de transformación es mayor que un segundo tamaño, el bloque cuantificado se divide en un subconjunto principal y una pluralidad de subconjuntos restantes y se aplica el patrón de exploración determinado a cada subconjunto. Las banderas significativas, los signos de coeficiente y los niveles de coeficiente de cada subconjunto son explorados respectivamente según el patrón de exploración determinado. El subconjunto
55 principal incluye un coeficiente DC (componente continua) y los subconjuntos restantes cubren la región que no es la región cubierta por el subconjunto principal. El segundo tamaño es 4x4. El subconjunto es un bloque 4x4 que contiene 16 coeficientes de transformación. El subconjunto para croma es también un bloque 4x4 que contiene 16 coeficientes de transformación.
60 El patrón de exploración para explorar los subconjuntos es el mismo que el patrón de exploración para explorar los coeficientes de transformación cuantificados de cada subconjunto. Los coeficientes de transformación cuantificados de cada subconjunto se exploran en la dirección inversa. Los subconjuntos también se exploran en la dirección inversa.
La última posición de coeficiente diferente de cero es codificada y transmitida al decodificador. La última posición de coeficiente diferente de cero especifica una posición del último coeficiente de transformación cuantificado diferente de cero dentro de la unidad de transformación. La última posición de coeficiente diferente de cero se usa para determinar el número de subconjuntos a señalizar en el decodificador. La bandera de subconjunto diferente de cero se establece 5 para los subconjuntos que no son el subconjunto principal ni el último subconjunto. El último subconjunto cubre el último coeficiente diferente de cero. La bandera de subconjunto diferente de cero indica si el subconjunto contiene o no contiene coeficientes diferentes de cero.
La unidad de cuantificación inversa 155 cuantifica inversamente los coeficientes de transformación cuantificados del 10 bloque cuantificado.
La unidad de transformación inversa 145 transforma inversamente el bloque cuantificado inverso para generar señales residuales del dominio espacial.
15 El agregador 194 genera un bloque reconstruido agregando el bloque residual y el bloque de predicción.
La unidad de post procesamiento 180 realiza un proceso de filtrado de desbloqueo para eliminar artefactos de bloqueo generados en una imagen reconstruida.
20 La unidad de almacenamiento de imágenes 190 recibe una imagen post procesada desde la unidad de post procesamiento 180, y almacena la imagen en unidades de imágenes. Una imagen puede ser un fotograma (frame) o un campo.
La unidad de codificación de entropía 170 codifica por entropía la información de coeficiente unidimensional recibida 25 desde la unidad de exploración 160, la información de predicción recibida desde la unidad de inter predicción 120, la información de movimiento recibida desde la unidad de intra predicción 130, etcétera.
La figura 2 es un diagrama de bloques de un aparato de decodificación de imágenes 200 según la presente invención.
30 El aparato de decodificación de imágenes 200 según la presente invención incluye una unidad de decodificación de entropía 210, una unidad de exploración inversa 220, una unidad de cuantificación inversa 230, una unidad de transformación inversa 240, una unidad de intra predicción 250, una unidad de inter predicción 260, una unidad de post procesamiento 270, una unidad de almacenamiento de imágenes 280 y un agregador 290.
35 La unidad de decodificación de entropía 210 extrae la información de intra predicción, la información de inter predicción y la información de coeficiente unidimensional de un flujo de bits (bit stream) recibido. La unidad de decodificación de entropía 210 transmite la información de inter predicción a la unidad de inter predicción 260, la información de intra predicción a la unidad de intra predicción 250 y la información de coeficientes a la unidad de exploración inversa 220.
40 La unidad de exploración inversa 220 usa un patrón de exploración inversa para generar un bloque cuantificado. Cuando se utiliza CABAC para la codificación de entropía, el patrón de exploración se determina de la siguiente manera.
En la intra predicción, el patrón de exploración inversa es determinado por el modo de intra predicción y el tamaño de 45 la unidad de transformación. El patrón de exploración inversa se selecciona de entre una exploración en diagonal, exploración vertical y exploración horizontal. El patrón de exploración inversa seleccionado es aplicado a banderas significativas, signos de coeficiente y niveles de coeficiente, respectivamente, para generar el bloque cuantificado. El patrón de exploración inversa de la unidad de transformación de croma es igual al patrón de exploración de una unidad de transformación de luma correspondiente. El tamaño mínimo de la unidad de transformación de croma es 4x4.
50
Cuando el tamaño de la unidad de transformación es igual o menor que un primer tamaño, se selecciona la exploración horizontal para el modo vertical y un número predeterminado de modos de intra predicción vecinos del modo vertical, se selecciona la exploración vertical para el modo horizontal y el número predeterminado de modos de intra predicción vecinos del modo horizontal, y se selecciona la exploración en diagonal para los otros modos de intra predicción. 55 Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se utiliza la exploración en diagonal. Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se selecciona la exploración en diagonal para todos los modos de intra predicción. El primer tamaño es 8x8. El número predeterminado es 8 si la unidad de transformación es 8x8.
60 En la inter predicción, se usa la exploración en diagonal.
Cuando el tamaño de la unidad de transformación es mayor que el segundo tamaño, las banderas significativas, los signos de coeficiente y los niveles de coeficiente se exploran inversamente en la unidad de subconjunto usando el
patrón de exploración inversa determinado para generar subconjuntos, y se exploran inversamente los subconjuntos para generar el bloque cuantificado. El segundo tamaño es igual al tamaño del subconjunto. El subconjunto es un bloque 4x4 que incluye 16 coeficientes de transformación. El subconjunto para croma es también un bloque 4x4. Por lo tanto, cuando el tamaño de la unidad de transformación de croma es mayor que el segundo tamaño, primero se 5 generan los subconjuntos y se exploran inversamente los subconjuntos.
El patrón de exploración inversa utilizado para generar cada subconjunto es el mismo que el patrón de exploración inversa utilizado para generar el bloque cuantificado. Las banderas significativas, los signos de coeficiente y los niveles de coeficiente se exploran inversamente en la dirección inversa. Los subconjuntos también se exploran inversamente 10 en la dirección inversa.
Se reciben la última posición de coeficiente diferente de cero y las banderas de subconjunto diferente de cero desde el codificador. El número de subconjuntos codificados se determina de acuerdo con la última posición de coeficiente diferente de cero y el patrón de exploración inversa. Las banderas de subconjunto diferente de cero se utilizan para 15 seleccionar subconjuntos a generar. El subconjunto principal y el último subconjunto se generan utilizando el patrón de exploración inversa.
La unidad de cuantificación inversa 230 recibe el parámetro de cuantificación diferencial desde la unidad de decodificación de entropía 210 y genera el predictor del parámetro de cuantificación para generar el parámetro de 20 cuantificación de la unidad de codificación. La operación de generar el parámetro de cuantificación es la misma que la operación de la unidad de cuantificación 150 de la figura 1. A continuación, se genera el parámetro de cuantificación de la unidad de codificación actual agregando el parámetro de cuantificación diferencial y el predictor del parámetro de cuantificación. Si no se recibe el parámetro de cuantificación diferencial para la unidad de codificación actual desde el codificador, el parámetro de cuantificación diferencial se configura como 0.
25
Se incluye en el PPS un parámetro para indicar la relación entre el parámetro de cuantificación y el parámetro de cuantificación de croma. Si está permitido cambiar la relación por la porción (slice), se incluye otro parámetro en la cabecera de porción (slice). Por lo tanto, el parámetro de cuantificación de croma se genera utilizando el parámetro de cuantificación y el parámetro incluido en el PPS o utilizando el parámetro de cuantificación y los dos parámetros. 30
La unidad de cuantificación inversa 230 cuantifica inversamente el bloque cuantificado.
La unidad de transformación inversa 240 transforma inversamente el bloque cuantificado inverso para restablecer un bloque residual. El tipo de transformación inversa se determina de forma adaptativa de acuerdo con el modo de 35 predicción y el tamaño de la unidad de transformación. El tipo de transformación inversa es la transformación de enteros basada en DCT o la transformación de enteros basada en DST. Por ejemplo, en la inter predicción, se usan transformaciones de enteros basadas en DCT. En el modo de intra predicción, si el tamaño de la unidad de transformación es menor que un tamaño predeterminado, se utilizan las transformaciones de enteros basadas en DST, de lo contrario, se utilizan las transformaciones de enteros basadas en DCT. El tipo de transformación inversa de la 40 unidad de transformación de croma es igual al tipo de transformación inversa de la unidad de transformación correspondiente. Por lo tanto, el tipo de transformación inversa para la unidad de transformación de croma es la transformación de enteros basada en DCT.
La unidad de intra predicción 250 restablece el modo de intra predicción de la unidad de predicción actual utilizando 45 la información de intra predicción recibida, y genera un bloque de predicción de acuerdo con el modo de intra predicción restablecido.
La unidad de inter predicción 260 restablece la información de movimiento de la unidad de predicción actual usando la información de inter predicción recibida, y genera un bloque de predicción usando la información de movimiento.
50
La unidad de post procesamiento 270 funciona igual que la unidad de post procesamiento 180 de la figura 1.
La unidad de almacenamiento de imágenes 280 recibe una imagen post procesada desde la unidad de post procesamiento 270, y almacena la imagen en unidades de imágenes. Una imagen puede ser un fotograma (frame) o 55 un campo.
El agregador 290 agrega el bloque residual restablecido y un bloque de predicción para generar un bloque reconstruido.
60 La figura 3 es un diagrama de bloques de un aparato 300 de generación de un bloque de predicción según la presente invención.
El aparato 300 según la presente invención incluye una unidad de análisis (parsing) 310, una unidad de decodificación del modo de predicción 320, una unidad de determinación del tamaño de predicción 330, una unidad de generación de píxeles de referencia 340, una unidad de filtrado de píxeles de referencia 350 y una unidad de generación de bloques de predicción 360.
5
La unidad de análisis (parsing) 310 analiza los parámetros de intra predicción de la unidad de predicción actual del flujo de bits (bit stream).
Los parámetros de intra predicción para luma incluyen un indicador de grupo de modos y un índice del modo de 10 predicción. El indicador de grupo de modos es una bandera que indica si el modo de intra predicción de la unidad de predicción actual pertenece a un grupo de modos más probables (grupo de MPM). Si la bandera es 1, la unidad de intra predicción de la unidad de predicción actual pertenece al grupo de MPM. Si la bandera es 0, la unidad de intra predicción de la unidad de predicción actual pertenece a un grupo de modos residuales. El grupo de modos residuales incluye todos los modos de intra predicción que no son modos de intra predicción del grupo de MPM. El índice del 15 modo de predicción especifica el modo de intra predicción de la unidad de predicción actual dentro del grupo especificado por el indicador de grupo de modos. El parámetro de intra predicción para croma es especificado por un índice del modo de predicción de la croma.
La unidad de decodificación del modo de predicción 320 deriva un modo de intra predicción de luma y un modo de 20 intra predicción de la croma.
El modo de intra predicción de luma se deriva de la siguiente manera.
Se construye el grupo de MPM utilizando modos de intra predicción de las unidades de predicción vecinas. Los modos 25 de intra predicción del grupo de MPM son determinados de forma adaptativa por un modo de intra predicción izquierdo y un modo de intra predicción superior. El modo de intra predicción izquierdo es el modo de intra predicción de la unidad de predicción vecina izquierda, y el modo de intra predicción superior es el modo de intra predicción de la unidad de predicción vecina superior. El grupo de MPM se compone de tres modos de intra predicción.
30 Si la unidad de predicción izquierda o superior no existe, el modo de intra predicción de la unidad vecina izquierda o superior se establece como no disponible. Por ejemplo, si la unidad de predicción actual está ubicada en el límite izquierdo o superior de una imagen, la unidad de predicción vecina izquierda o superior no existe. Si la unidad vecina izquierda o superior se encuentra dentro de otra porción (slice), el modo de intra predicción de la unidad vecina izquierda o superior se establece como no disponible.
35
La figura 4 es un diagrama conceptual que ilustra modos de intra predicción según un ejemplo. Como se muestra en la figura 4, el número de modos de intra predicción es 35. El modo DC y el modo plano son modos de intra predicción no direccionales y los otros son modos de intra predicción direccionales.
40 Cuando tanto el modo de intra predicción izquierdo como el modo de intra predicción superior están disponibles y son diferentes entre sí, el modo de intra predicción izquierdo y el modo de intra predicción superior se incluyen en el grupo de MPM y se agrega un modo de intra predicción adicional al grupo de MPM . Si uno de los modos de intra predicción izquierdo y superior es un modo no direccional y el otro es un modo direccional, se establece el otro modo no direccional como el modo de intra predicción adicional. Si ambos modos de intra predicción izquierdo y superior son 45 modos no direccionales, se establece el modo vertical como el modo de intra predicción adicional.
Cuando solo está disponible uno de entre el modo de intra predicción izquierdo y el modo de intra predicción superior, el modo de intra predicción disponible se incluye en el grupo de MPM y se agregan dos modos de intra predicción adicionales al grupo de MPM. Si el modo de intra predicción disponible es un modo no direccional, se establecen el 50 otro modo no direccional y el modo vertical como los modos de intra predicción adicionales. Si el modo de intra predicción disponible es un modo direccional, se establecen dos modos no direccionales como los modos de intra predicción adicionales.
Cuando tanto el modo de intra predicción izquierdo como el modo de intra predicción superior no están disponibles, 55 se agregan el modo DC, el modo plano y el modo vertical al grupo de MPM.
Si el indicador de grupo de modos indica el grupo de MPM, se establece la intra predicción del grupo de MPM especificada por el índice del modo de predicción como el modo de intra predicción de la unidad de predicción actual.
60 Si el indicador de grupo de modos no indica el grupo de MPM, se reordenan las tres intra predicciones del grupo de MPM en el orden del número de modo. De entre los tres modos de intra predicción del grupo de MPM, se establece el modo de intra predicción con el número de modo más bajo en un primer candidato, se establece el modo de intra
predicción con el número de modo intermedio en un segundo candidato y se establece el modo de intra predicción con el número de modo más alto en un tercer candidato.
Si el índice del modo de predicción es igual o mayor que el primer candidato del grupo de MPM, se incrementa en uno 5 el valor del índice del modo de predicción. Si el índice del modo de predicción es igual o mayor que el segundo candidato del grupo de MPM, se incrementa en uno el valor del índice del modo de predicción. Si el índice del modo de predicción es igual o mayor que el tercer candidato del grupo de MPM, se incrementa en uno el valor del índice del modo de predicción. El valor final del índice del modo de predicción se establece como el número de modo del modo de intra predicción de la unidad de predicción actual.
10
El modo de intra predicción de la croma se establece como un modo de intra predicción especificado por el índice del modo de predicción de la croma. Si el índice de predicción de la croma especifica un modo DM, el modo de intra predicción de la croma se establece igual al modo de intra predicción de la luma.
15 La unidad de determinación del tamaño de predicción 330 determina el tamaño del bloque de predicción en base a la información de tamaño de transformación que especifica el tamaño de la unidad de transformación. La información de tamaño de transformación puede ser una o más banderas de banderas de división de unidad de transformación (split_tu_flags). El tamaño del bloque de predicción de la croma también se determina en base a la información de
tamaño de transformación. El tamaño mínimo de la predicción de la croma es 4x4.
20
Si el tamaño de la unidad de transformación es igual al tamaño de la unidad de predicción actual, el tamaño del bloque de predicción es igual al tamaño de la unidad de predicción actual. Si el tamaño de la unidad de transformación es menor que el tamaño de la unidad de predicción actual, el tamaño del bloque de predicción es igual al tamaño de la unidad de transformación. En este caso, se realiza un proceso de generación de un bloque reconstruido en cada sub- 25 bloque de la unidad de predicción actual. Es decir, se generan un bloque de predicción y un bloque residual de un sub-bloque actual y se genera un bloque reconstruido de cada sub-bloque agregando el bloque de predicción y el bloque residual. A continuación, se generan un bloque de predicción, un bloque residual y un bloque reconstruido del siguiente sub-bloque en orden de decodificación. El modo de intra predicción restablecido se usa para generar todos los bloques de predicción de todos los sub-bloques. Algunos píxeles del bloque reconstruido del sub-bloque actual se 30 utilizan como píxeles de referencia del siguiente sub-bloque. Por lo tanto, es posible generar un bloque de predicción que es más similar al sub-bloque original.
La unidad de generación de píxeles de referencia 340 genera píxeles de referencia si uno o más píxeles de referencia del bloque actual no están disponibles. Los píxeles de referencia de los bloques actuales se componen de píxeles de 35 referencia superiores ubicados en (x=0,..., 2N-1, y=-1), píxeles de referencia izquierdos ubicados en (x=-1, y=0,..., 2M- 1) y un píxel de esquina ubicado en (x=-1, y=-1). N es el ancho del bloque actual y M es la altura del bloque actual. El bloque actual es la unidad de predicción actual o el sub-bloque actual que tiene el tamaño de la unidad de
transformación. También se generan píxeles de referencia del bloque de croma actual si uno o más píxeles de
referencia no están disponibles.
40
Si todos los píxeles de referencia no están disponibles, el valor 2L'1 sustituye a los valores de todos los píxeles de referencia. El valor L es la cantidad de bits utilizados para representar un valor de píxel de luma.
Si hay píxeles de referencia disponibles situados a un solo lado del píxel de referencia no disponible, el valor del píxel 45 de referencia más cercano al píxel no disponible sustituye al píxel de referencia no disponible.
Si hay píxeles de referencia disponibles situados a ambos lados del píxel de referencia no disponible, el valor promedio de los píxeles de referencia más cercanos al píxel no disponible en cada lado o el valor del píxel de referencia más cercano al píxel no disponible en una dirección predeterminada sustituyen a cada píxel de referencia no disponible. 50
La unidad de filtrado de píxeles de referencia 350 filtra de forma adaptativa los píxeles de referencia del bloque de luma actual en base al modo de intra predicción y al tamaño de la unidad de transformación.
En el modo DC, los píxeles de referencia no se filtran. En el modo vertical y el modo horizontal, los píxeles de referencia 55 no se filtran. En los modos direccionales diferentes de los modos vertical y horizontal, los píxeles de referencia se adaptan de acuerdo con el tamaño del bloque actual.
Si el tamaño del bloque actual es 4x4, los píxeles de referencia no son filtrados en todos los modos de intra predicción. Para el tamaño 8x8, 16x16 y 32x32, el número de modo de intra predicción en el que se filtran los píxeles de referencia 60 aumenta a medida que aumenta el tamaño del bloque actual. Por ejemplo, los píxeles de referencia no son filtrados en el modo vertical y un número predeterminado de modo de intra predicción vecino del modo vertical. Los píxeles de referencia tampoco son filtrados en el modo horizontal y el número predeterminado de modo de intra predicción vecino
del modo horizontal. El número predeterminado se encuentra entre 0 y 7 y disminuye a medida que aumenta el tamaño del bloque actual.
La unidad de filtrado de píxeles de referencia 350 no filtra los píxeles de referencia del bloque de croma actual, 5 independientemente del modo de intra predicción y del tamaño de la unidad de transformación.
La unidad de generación de bloques de predicción 360 genera un bloque de predicción del bloque actual usando los píxeles de referencia de acuerdo con el modo de intra predicción restablecido.
10 En el modo DC, los píxeles de predicción del bloque de predicción se generan promediando los N píxeles de referencia ubicados en (x=0,... N-1, y=-1) y los M píxeles de referencia ubicados en (x=-1, y=0,...M-1). Los píxeles de predicción de luma adyacentes al píxel de referencia son filtrados por el uno o dos píxeles de referencia adyacentes. Los píxeles de predicción de croma no son filtrados.
15 En el modo vertical, los píxeles de predicción se generan copiando el correspondiente píxel de referencia superior. Los píxeles de predicción de luma adyacentes al píxel de referencia izquierdo son filtrados por el píxel de referencia vecino izquierdo y el píxel de referencia de esquina. Los píxeles de predicción de croma no son filtrados.
En el modo horizontal, los píxeles de predicción se generan copiando el correspondiente píxel de referencia izquierdo. 20 Los píxeles de predicción de luma adyacentes al píxel de referencia superior son filtrados por el píxel de referencia vecino izquierdo y el píxel de referencia de esquina. Los píxeles de predicción de croma no son filtrados.
La figura 5 es un diagrama de bloques de un aparato 400 para generar un bloque residual según un ejemplo.
25 El aparato 400 según el presente ejemplo incluye una unidad de decodificación de entropía 410, una unidad de exploración inversa 420, una unidad de cuantificación inversa 430 y una unidad de transformación inversa 440.
La unidad de decodificación de entropía 410 decodifica señales residuales codificadas para generar componentes de coeficientes cuantificados. Cuando se utiliza CABAC para la codificación de entropía, los componentes de coeficientes 30 incluyen banderas significativas, signos de coeficiente y niveles de coeficiente. La bandera significativa indica si el correspondiente coeficiente de transformación cuantificado es cero o no es cero. El signo de coeficiente indica un signo del coeficiente de transformación cuantificado diferente de cero, y el nivel de coeficientes indica un valor absoluto del coeficiente de transformación cuantificado diferente de cero.
35 La unidad de exploración inversa 420 determina un patrón de exploración inversa y genera un bloque cuantificado usando el patrón de exploración inversa. La operación de la unidad de exploración inversa 420 es la misma que la operación de la unidad de exploración inversa 220 de la figura 2.
La unidad de cuantificación inversa 430 deriva el parámetro de cuantificación, selecciona una matriz de cuantificación 40 inversa y cuantifica inversamente el bloque cuantificado para generar un bloque transformado.
El parámetro de cuantificación de la luma se deriva de la siguiente manera.
Se determina un tamaño mínimo de la unidad de cuantificación. El tamaño mínimo de la unidad de cuantificación es 45 determinado por cada imagen usando un indicador del tamaño de la unidad de cuantificación incluido en el PPS. El indicador del tamaño de la unidad de cuantificación especifica el tamaño mínimo de la unidad de cuantificación.
Se genera el parámetro de cuantificación diferencial (dQP) de la unidad de codificación actual. El dQP es generado por cada unidad de cuantificación mediante decodificación de entropía. Si la unidad de codificación actual no contiene 50 un dQP codificado, el dQP se pone a cero. Si la unidad de cuantificación incluye varias unidades de codificación, el dQP es incluido en el flujo de bits (bit stream) de la primera unidad de codificación que contiene un coeficiente diferente de cero.
Se genera un predictor del parámetro de cuantificación de la unidad de codificación actual. El predictor del parámetro 55 de cuantificación se genera usando la misma operación de la unidad de cuantificación inversa 230 de la figura 2. Si la unidad de cuantificación incluye múltiples unidades de codificación, se genera el predictor del parámetro de cuantificación de la primera unidad de codificación en el orden de decodificación, y se comparte el predictor del parámetro de cuantificación generado para todas las demás unidades de codificación dentro de la unidad de cuantificación.
El parámetro de cuantificación se genera utilizando el dQP y el predictor del parámetro de cuantificación.
El parámetro de cuantificación de la croma se genera usando el parámetro de cuantificación de la luma y un parámetro de desplazamiento (offset) que indica la relación entre el parámetro de cuantificación de la luma y el parámetro de cuantificación de la croma. El parámetro de desplazamiento está incluido en el PPS. El parámetro de desplazamiento es modificado por un parámetro de ajuste del desplazamiento incluido en la cabecera de porción (slice) si está 5 permitido el cambio del desplazamiento por la porción (slice).
La unidad de transformación inversa 440 transforma inversamente el bloque transformado para generar un bloque residual. Se determina de forma adaptativa un tipo de transformación inversa de acuerdo con el modo de predicción y el tamaño de la unidad de transformación. El tipo de transformación inversa es la transformación de enteros basada 10 en DCT o la transformación de enteros basada en DST. En el modo de intra predicción, si el tamaño de la unidad de transformación de la luma es menor que 8x8, se utiliza la transformación de enteros basada en DST, de lo contrario, se utiliza la transformación de enteros basada en DCT. Se aplica la transformación de enteros basada en DCT al bloque transformado de croma.
15 Se agregan el bloque de predicción y el bloque residual para generar un bloque reconstruido. El tamaño del bloque reconstruido es igual al tamaño de la unidad de transformación. Por lo tanto, si el tamaño de la unidad de predicción es mayor que la unidad de transformación, se genera el primer bloque reconstruido y a continuación se genera el siguiente bloque reconstruido en el orden de decodificación generando un bloque de predicción y un bloque residual hasta que se genera el último bloque reconstruido. Se usa el modo de intra predicción de la unidad de predicción 20 actual para generar bloques de predicción y bloques residuales.
Aunque la invención se ha mostrado y descrito con referencia a ciertos ejemplos de realizaciones de la misma, los expertos en la técnica entenderán que pueden realizarse diversos cambios de forma y detalles en la misma sin apartarse del alcance de las reivindicaciones adjuntas.
25

Claims (3)

  1. REIVINDICACIONES
    1. Un aparato de decodificación de datos de video, que comprende:
    una unidad de decodificación de modo de predicción (250, 320) configurada para derivar un modo de intra predicción 5 de luma y un modo de intra predicción de croma;
    una unidad de determinación de tamaño de predicción (330) configurada para determinar un tamaño de una unidad de transformación de luma y un tamaño de una unidad de transformación de croma utilizando información de tamaño de transformación;
    una unidad de generación de píxeles de referencia (340) configurada para generar píxeles de referencia si al menos
    10 un píxel de referencia no está disponible;
    una unidad de filtrado de píxeles de referencia (350) configurada para filtrar de forma adaptativa los píxeles de referencia de un bloque de luma actual en base al modo de intra predicción de luma y al tamaño de la unidad de transformación de luma, y no para filtrar los píxeles de referencia de un bloque de croma actual;
    una unidad de generación de bloques de predicción (360) configurada para generar bloques de predicción del
    15 bloque de luma actual y del bloque de croma actual;
    una unidad de generación de bloques residuales (210, 220, 230, 240) configurada para generar un bloque residual de luma y un bloque residual de croma, y
    un agregador (290) que agrega el bloque residual generado y el bloque de predicción generado para generar un bloque reconstruido,
    20 en el que el modo de intra predicción de luma se deriva usando un grupo de modos más probables, MPM, que incluye tres modos de intra predicción, un indicador de grupo de modos y un índice de modo de predicción de luma,
    cuando solo está disponible uno de entre un modo de intra predicción izquierdo y un modo de intra predicción superior de una unidad de predicción de luma actual y si el modo de intra predicción disponible es un modo no direccional, los tres modos de intra predicción en el grupo de MPM son el modo plano, el modo DC y el modo vertical,
    25 y
    cuando solo está disponible uno de entre un modo de intra predicción izquierdo y un modo de intra predicción superior de una unidad de predicción de luma actual y si el modo de intra predicción disponible es un modo direccional, los tres modos de intra predicción en el grupo de mPm son el modo plano, el modo DC y el modo de intra predicción disponible.
    30
  2. 2. El aparato de la reivindicación 1, en el que si una unidad de transformación de croma actual es más pequeña que la unidad de predicción de croma, se usa el modo de intra predicción de croma para generar todos los bloques de predicción de croma de todos los sub-bloques dentro de la unidad de predicción de croma.
    35 3. El aparato de la reivindicación 1, en el que cuando el indicador de grupo de modos no indica el grupo de MPM, el modo de intra predicción de luma se determina comparando el índice de modo de predicción de luma con los tres modos de intra predicción del grupo de MPM en secuencia de modo que en primer lugar se compara el número de modo más bajo de los tres modos de intra predicción, y en último lugar se compara el número de modo más alto de los tres modos de intra predicción.
    40
  3. 4. El aparato de la reivindicación 3, en el que si el índice de modo de predicción de luma es mayor que o igual a un modo de intra predicción comparado del grupo de MPM, se incrementa en uno el índice de modo de predicción de luma.
    45
ES12845753.8T 2011-11-04 2012-11-02 Aparato de decodificación de datos de video Active ES2673191T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20110114610 2011-11-04
KR20110114610A KR20130049526A (ko) 2011-11-04 2011-11-04 복원 블록 생성 방법
PCT/CN2012/083997 WO2013064100A1 (en) 2011-11-04 2012-11-02 Apparatus of decoding video data

Publications (1)

Publication Number Publication Date
ES2673191T3 true ES2673191T3 (es) 2018-06-20

Family

ID=48191361

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12845753.8T Active ES2673191T3 (es) 2011-11-04 2012-11-02 Aparato de decodificación de datos de video

Country Status (28)

Country Link
US (11) US9374582B2 (es)
EP (5) EP3361729A1 (es)
JP (12) JP5914680B2 (es)
KR (4) KR20130049526A (es)
CN (9) CN107396110B (es)
AU (1) AU2012331602B2 (es)
BR (5) BR122020015318B1 (es)
CA (3) CA3087455A1 (es)
CY (1) CY1120280T1 (es)
DK (1) DK2774374T3 (es)
ES (1) ES2673191T3 (es)
HR (1) HRP20180969T1 (es)
HU (1) HUE037568T2 (es)
IL (5) IL231706A (es)
IN (1) IN2014CN03912A (es)
LT (1) LT2774374T (es)
MX (5) MX340887B (es)
MY (6) MY192963A (es)
NO (1) NO2774374T3 (es)
PH (4) PH12016502083A1 (es)
PL (1) PL2774374T4 (es)
PT (1) PT2774374T (es)
RS (1) RS57240B1 (es)
RU (5) RU2760932C2 (es)
SG (2) SG10201607022WA (es)
SI (1) SI2774374T1 (es)
TW (9) TWI608726B (es)
WO (1) WO2013064100A1 (es)

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102209697B1 (ko) * 2010-12-08 2021-02-01 엘지전자 주식회사 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치
KR101953384B1 (ko) 2011-03-06 2019-03-04 엘지전자 주식회사 휘도 샘플을 이용한 색차 블록의 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
PT2887670T (pt) * 2011-06-28 2017-09-18 Samsung Electronics Co Ltd Método e aparelho para codificar vídeo e método e aparelho para descodificar vídeo, acompanhados com intra previsão
CN107257471B (zh) 2011-10-18 2020-04-14 Lg 电子株式会社 帧内预测方法及其设备
KR20130049522A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
KR20130049525A (ko) * 2011-11-04 2013-05-14 오수미 잔차 블록 복원을 위한 역변환 방법
KR20130050407A (ko) 2011-11-07 2013-05-16 오수미 인터 모드에서의 움직임 정보 생성 방법
GB2556489B (en) * 2011-11-08 2018-11-21 Kt Corp A method of decoding a video signal using a merge mode
KR20130058524A (ko) * 2011-11-25 2013-06-04 오수미 색차 인트라 예측 블록 생성 방법
JP6064581B2 (ja) * 2011-12-21 2017-01-25 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法及び動画像復号プログラム、並びに受信装置、受信方法及び受信プログラム
JP6064580B2 (ja) * 2011-12-21 2017-01-25 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに送信装置、送信方法及び送信プログラム
US9210438B2 (en) 2012-01-20 2015-12-08 Sony Corporation Logical intra mode naming in HEVC video coding
CN107707919B (zh) 2012-04-16 2021-06-01 韩国电子通信研究院 用于解码视频信号的方法
PL2869557T3 (pl) 2012-06-29 2024-02-19 Electronics And Telecommunications Research Institute Sposób i urządzenie do kodowania/dekodowania obrazów
CN104604225B (zh) 2012-09-10 2018-01-26 太阳专利托管公司 图像编码方法、图像解码方法、图像编码装置、图像解码装置及图像编码解码装置
US9288507B2 (en) * 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding
US20150016516A1 (en) * 2013-07-15 2015-01-15 Samsung Electronics Co., Ltd. Method for intra prediction improvements for oblique modes in video coding
KR101530774B1 (ko) 2013-09-30 2015-06-22 연세대학교 산학협력단 영상 부호화 및 복호화 방법, 장치 및 시스템
US10397607B2 (en) * 2013-11-01 2019-08-27 Qualcomm Incorporated Color residual prediction for video coding
KR101530782B1 (ko) * 2013-12-03 2015-06-22 연세대학교 산학협력단 영상 부호화 및 복호화 방법, 장치 및 시스템
JP6401309B2 (ja) * 2014-06-19 2018-10-10 ヴィド スケール インコーポレイテッド 3次元ベースのカラーマッピングでのモデルパラメータ最適化のためのシステムおよび方法
JP6540707B2 (ja) * 2014-10-03 2019-07-10 日本電気株式会社 映像復号装置、映像復号方法及び映像復号プログラム
US10057578B2 (en) * 2014-10-07 2018-08-21 Qualcomm Incorporated QP derivation and offset for adaptive color transform in video coding
US9838662B2 (en) * 2014-10-10 2017-12-05 Qualcomm Incorporated Harmonization of cross-component prediction and adaptive color transform in video coding
WO2016072777A1 (ko) * 2014-11-06 2016-05-12 삼성전자 주식회사 인트라 결합 예측 부호화, 복호화 방법 및 장치
US10306229B2 (en) * 2015-01-26 2019-05-28 Qualcomm Incorporated Enhanced multiple transforms for prediction residual
WO2017007989A1 (en) * 2015-07-08 2017-01-12 Vid Scale, Inc. Enhanced chroma coding using cross plane filtering
CN114615493A (zh) 2016-03-24 2022-06-10 英迪股份有限公司 视频解码方法、视频编码方法和可读记录介质
CN108886613B (zh) 2016-03-28 2022-04-19 株式会社Kt 用于处理视频信号的方法和装置
CN109314790A (zh) * 2016-05-23 2019-02-05 佳稳电子有限公司 影像处理方法、利用其的影像解码及编码方法
KR20180040319A (ko) * 2016-10-12 2018-04-20 가온미디어 주식회사 영상 처리 방법, 그를 이용한 영상 복호화 및 부호화 방법
CN109076210B (zh) * 2016-05-28 2021-04-09 联发科技股份有限公司 视频编解码方法和装置
CN116527887A (zh) * 2016-08-01 2023-08-01 韩国电子通信研究院 图像编码/解码方法和设备以及存储比特流的记录介质
WO2018026148A1 (ko) * 2016-08-01 2018-02-08 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN114339225B (zh) * 2016-09-05 2024-06-04 罗斯德尔动力有限责任公司 图像编码和解码装置及比特流存储介质和发送装置
WO2018056603A1 (ko) * 2016-09-22 2018-03-29 엘지전자 주식회사 영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치
KR102531386B1 (ko) 2016-10-04 2023-05-12 주식회사 비원영상기술연구소 영상 데이터 부호화/복호화 방법 및 장치
US20190253624A1 (en) * 2017-07-17 2019-08-15 Ki Baek Kim Image data encoding/decoding method and apparatus
KR102422506B1 (ko) * 2016-11-29 2022-07-20 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
EP3552393B1 (en) * 2016-12-23 2023-03-08 Huawei Technologies Co., Ltd. An encoding apparatus for signaling an extension directional intra-prediction mode within a set of directional intra-prediction modes
CN117336472A (zh) * 2017-01-02 2024-01-02 Lx 半导体科技有限公司 图像编码/解码设备以及发送图像数据的设备
CN110999296B (zh) * 2017-06-21 2022-09-02 Vid拓展公司 解码360度视频的方法、设备及计算机可读介质
CN117354499A (zh) 2017-07-06 2024-01-05 Lx 半导体科技有限公司 图像编码/解码方法、发送方法和数字存储介质
CN111919442B (zh) 2018-03-31 2023-04-04 华为技术有限公司 一种图像块的帧内模式预测方法及装置
CN116527899A (zh) * 2018-04-01 2023-08-01 Oppo广东移动通信有限公司 使用帧内预测的图像编码/解码方法和装置
KR102392128B1 (ko) 2018-04-01 2022-04-28 엘지전자 주식회사 양자화 파라미터 도출에 기초한 영상 코딩 장치 및 방법
EP3794820A1 (en) * 2018-05-17 2021-03-24 Telefonaktiebolaget LM Ericsson (publ) Deblocking of implicit transform unit boundaries
EP3800883A4 (en) 2018-06-25 2021-07-07 Guangdong Oppo Mobile Telecommunications Corp., Ltd. INTRAFRAME PREDICTION PROCESS AND DEVICE
EP3815371A1 (en) * 2018-06-29 2021-05-05 InterDigital VC Holdings, Inc. Method and apparatus for video encoding and decoding based on adaptive coefficient group
CN112567741A (zh) * 2018-07-13 2021-03-26 Lg电子株式会社 图像编码***中使用帧内预测信息的图像解码方法和装置
CN110166785B (zh) * 2018-07-25 2022-09-13 腾讯科技(深圳)有限公司 帧内预测方法和装置、以及存储介质和电子装置
CN118158441A (zh) * 2018-08-28 2024-06-07 华为技术有限公司 图像划分方法及装置
KR102591086B1 (ko) * 2018-09-02 2023-10-17 엘지전자 주식회사 영상 신호를 처리하기 위한 방법 및 장치
WO2020048463A1 (en) * 2018-09-03 2020-03-12 Huawei Technologies Co., Ltd. Method and apparatus for intra prediction
KR102543468B1 (ko) * 2018-10-04 2023-06-14 엘지전자 주식회사 Cclm에 기반한 인트라 예측 방법 및 그 장치
US11095885B2 (en) * 2018-10-05 2021-08-17 Tencent America LLC Mode list generation for multi-line intra prediction
US10893286B2 (en) * 2018-10-09 2021-01-12 Tencent America LLC Methods and apparatus for low-complexity MTS
WO2020111981A1 (en) * 2018-11-26 2020-06-04 Huawei Technologies Co., Ltd. Apparatus and method for chrominance quantization parameter derivation
CN113228636A (zh) 2018-12-12 2021-08-06 韦勒斯标准与技术协会公司 使用当前图片参考的视频信号处理方法和设备
CN116744008A (zh) 2018-12-15 2023-09-12 华为技术有限公司 图像重建方法和装置
US11323748B2 (en) 2018-12-19 2022-05-03 Qualcomm Incorporated Tree-based transform unit (TU) partition for video coding
WO2020125795A1 (en) * 2018-12-22 2020-06-25 Beijing Bytedance Network Technology Co., Ltd. Indication of two step cross-component prediction mode
CN113475063B (zh) * 2018-12-27 2024-04-09 英迪股份有限公司 图像编码/解码方法和装置
US20220116636A1 (en) * 2018-12-28 2022-04-14 Electronics And Telecommunications Research Institute Video encoding/decoding method, device, and recording medium storing bitstream therein
WO2020139060A1 (ko) 2018-12-28 2020-07-02 김기백 인트라 예측 기반의 영상 부호화/복호화 방법 및 장치
JP7247349B2 (ja) * 2018-12-31 2023-03-28 ホアウェイ・テクノロジーズ・カンパニー・リミテッド イントラ予測のための成分間線形モデリングの方法、装置、デコーダ、エンコーダ、およびプログラム
EP3697094A1 (en) 2019-02-13 2020-08-19 InterDigital VC Holdings, Inc. Intra prediction mode extension
WO2020171681A1 (ko) * 2019-02-19 2020-08-27 주식회사 윌러스표준기술연구소 인트라 예측 기반 비디오 신호 처리 방법 및 장치
KR102459939B1 (ko) * 2019-03-23 2022-10-27 엘지전자 주식회사 Mpm 리스트를 이용하는 인트라 예측에 기반한 영상 코딩 방법 및 그 장치
CN113785588B (zh) 2019-04-12 2023-11-24 北京字节跳动网络技术有限公司 基于矩阵的帧内预测的色度编解码模式确定
KR20210148321A (ko) * 2019-04-27 2021-12-07 주식회사 윌러스표준기술연구소 인트라 예측 기반 비디오 신호 처리 방법 및 장치
JP2022535726A (ja) 2019-05-31 2022-08-10 北京字節跳動網絡技術有限公司 行列ベースイントラ予測における制約されたアップサンプリングプロセス
JP2022534320A (ja) 2019-06-05 2022-07-28 北京字節跳動網絡技術有限公司 マトリクスベースイントラ予測のためのコンテキスト決定
KR20220005591A (ko) 2019-06-24 2022-01-13 엘지전자 주식회사 크로마 블록의 최대 변환 크기 설정을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2020262960A1 (ko) * 2019-06-24 2020-12-30 엘지전자 주식회사 크로마 성분 부호화 블록의 최대 변환 크기 제한을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
KR20240036119A (ko) 2019-06-28 2024-03-19 엘지전자 주식회사 크로마 양자화 파라미터 테이블을 사용하는 영상 디코딩 방법 및 그 장치
JP7328373B2 (ja) * 2019-06-28 2023-08-16 バイトダンス インコーポレイテッド スクリーンコンテンツ符号化におけるクロマイントラモードの導出
JP7293487B2 (ja) * 2019-07-05 2023-06-19 エルジー エレクトロニクス インコーポレイティド クロマ成分の映像デコード方法及びその装置
KR20220029586A (ko) 2019-07-05 2022-03-08 엘지전자 주식회사 크로마 양자화 파라미터 데이터를 코딩하는 영상 디코딩 방법 및 그 장치
CN113796078A (zh) 2019-07-24 2021-12-14 华为技术有限公司 帧内预测模式相关的编码器、解码器及对应方法
AU2020322553A1 (en) * 2019-08-01 2022-02-24 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods of chroma intra mode derivation
KR20220153124A (ko) 2019-08-14 2022-11-17 엘지전자 주식회사 루마 샘플 위치를 참조하여 크로마 블록의 예측 모드를 결정하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
CN114762349B (zh) 2019-11-05 2024-04-12 Lg电子株式会社 用于图像/视频编译的高级别语法信令方法和装置
WO2021091254A1 (ko) 2019-11-05 2021-05-14 엘지전자 주식회사 영상/비디오 코딩 시스템에서 픽처 헤더에서 슬라이스 타입에 관한 정보를 시그널링하는 방법 및 장치
US11553208B2 (en) * 2019-11-27 2023-01-10 Tencent America LLC Method and system of video coding using a subset of available intra prediction modes for multiple reference lines
CN111787334B (zh) * 2020-05-29 2021-09-14 浙江大华技术股份有限公司 一种用于帧内预测的滤波方法,滤波器及装置
JPWO2022009838A1 (es) 2020-07-08 2022-01-13
CN112702602A (zh) * 2020-12-04 2021-04-23 浙江智慧视频安防创新中心有限公司 一种视频编解码的方法及存储介质
US20230069984A1 (en) * 2021-08-24 2023-03-09 Tencent America LLC Hardware friendly design for intra mode coding

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62214787A (ja) * 1986-03-14 1987-09-21 Canon Inc 予測符号化方式
US5260783A (en) * 1991-02-21 1993-11-09 Gte Laboratories Incorporated Layered DCT video coder for packet switched ATM networks
US7263127B1 (en) * 1998-04-02 2007-08-28 Intel Corporation Method and apparatus for simplifying frame-based motion estimation
US6614442B1 (en) * 2000-06-26 2003-09-02 S3 Graphics Co., Ltd. Macroblock tiling format for motion compensation
US6856701B2 (en) * 2001-09-14 2005-02-15 Nokia Corporation Method and system for context-based adaptive binary arithmetic coding
US6728315B2 (en) * 2002-07-24 2004-04-27 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
CN1232126C (zh) * 2002-09-30 2005-12-14 三星电子株式会社 图像编码方法和装置以及图像解码方法和装置
JP4617644B2 (ja) * 2003-07-18 2011-01-26 ソニー株式会社 符号化装置及び方法
US20050024487A1 (en) * 2003-07-31 2005-02-03 William Chen Video codec system with real-time complexity adaptation and region-of-interest coding
US7324595B2 (en) * 2003-09-22 2008-01-29 Lsi Logic Corporation Method and/or apparatus for reducing the complexity of non-reference frame encoding using selective reconstruction
KR20050061762A (ko) * 2003-12-18 2005-06-23 학교법인 대양학원 부호화 모드 결정방법, 움직임 추정방법 및 부호화 장치
US7912122B2 (en) * 2004-01-20 2011-03-22 Panasonic Corporation Picture coding method, picture decoding method, picture coding apparatus, picture decoding apparatus
CN100359953C (zh) * 2004-09-08 2008-01-02 华为技术有限公司 基于帧内编码的图像色度预测方法
CN101159874A (zh) * 2004-09-08 2008-04-09 华为技术有限公司 基于帧内编码的图像色度预测方法
CN100461867C (zh) * 2004-12-02 2009-02-11 中国科学院计算技术研究所 一种帧内图像预测编码方法
CN1777283A (zh) * 2004-12-31 2006-05-24 上海广电(集团)有限公司 一种基于微块的视频信号编/解码方法
CN100426868C (zh) * 2005-01-25 2008-10-15 中国科学院计算技术研究所 一种帧内图像的亮度预测编码方法
US7373009B2 (en) * 2005-02-09 2008-05-13 Lsi Corporation Method and apparatus for efficient transmission and decoding of quantization matrices
EP1879401A4 (en) * 2005-05-03 2012-03-28 Panasonic Corp DYNAMIC IMAGE ENCODING METHOD, DYNAMIC IMAGE DECODING METHOD, AND DEVICE THEREFOR
JP2007089035A (ja) * 2005-09-26 2007-04-05 Toshiba Corp 動画像符号化方法、装置及びプログラム
US20070274385A1 (en) * 2006-05-26 2007-11-29 Zhongli He Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame
RU2427976C2 (ru) * 2006-07-28 2011-08-27 Кабусики Кайся Тосиба Способ и устройство для кодирования и декодирования изображения
KR100899730B1 (ko) * 2006-10-20 2009-05-27 삼성전자주식회사 영상 인코더 및 디코더에서의 색차 신호 보간 방법
CN100566427C (zh) * 2007-07-31 2009-12-02 北京大学 用于视频编码的帧内预测编码最佳模式的选取方法及装置
CN100586188C (zh) * 2007-09-30 2010-01-27 暨南大学 一种基于avs的帧内预测计算的硬件实现方法
BRPI0818444A2 (pt) * 2007-10-12 2016-10-11 Qualcomm Inc codificação adaptativa de informação de cabeçalho de bloco de vídeo
CN100586184C (zh) * 2008-01-24 2010-01-27 北京工业大学 帧内预测方法
TWI375472B (en) 2008-02-04 2012-10-21 Ind Tech Res Inst Intra prediction method for luma block of video
CN101247525B (zh) * 2008-03-24 2010-06-02 北京邮电大学 一种提高图像帧内编码速率的方法
US8199814B2 (en) * 2008-04-15 2012-06-12 Sony Corporation Estimation of I frame average rate quantization parameter (QP) in a group of pictures (GOP)
US8199823B2 (en) * 2008-04-15 2012-06-12 Sony Corporation Estimation of B frame average rate quantization parameter (QP) in a group of pictures (GOP)
CN101605255B (zh) * 2008-06-12 2011-05-04 华为技术有限公司 一种视频编解码的方法及装置
KR101501568B1 (ko) * 2008-07-04 2015-03-12 에스케이 텔레콤주식회사 영상 부호화 및 복호화 장치 및, 방법
CN101677406B (zh) 2008-09-19 2011-04-20 华为技术有限公司 一种视频编解码的方法及装置
CN101447082B (zh) * 2008-12-05 2010-12-01 华中科技大学 一种运动目标实时检测方法
TWI387317B (zh) * 2008-12-11 2013-02-21 Novatek Microelectronics Corp 產生重新取樣參考畫面之裝置及其方法與影像解碼系統
CN101494792A (zh) * 2009-01-15 2009-07-29 北京航空航天大学 一种基于边缘特征的h.264/avc帧内预测方法
TWI498003B (zh) * 2009-02-02 2015-08-21 Thomson Licensing 代表一序列圖像的碼式資料連流之解碼方法和一序列圖像之寫碼方法及碼式圖像資料結構
KR101888679B1 (ko) * 2009-08-12 2018-08-16 톰슨 라이센싱 개선된 인트라 색차 엔코딩 및 디코딩을 위한 방법 및 장치
JP5746182B2 (ja) * 2009-09-14 2015-07-08 トムソン ライセンシングThomson Licensing イントラ予測モードの効率的なビデオ符号化及び復号化方法及び装置
CN102550026B (zh) 2009-10-05 2016-08-03 汤姆森特许公司 视频编码和解码中色度分量的预测像素的自适应滤波的方法和装置
JP5964755B2 (ja) * 2009-12-31 2016-08-03 トムソン ライセンシングThomson Licensing ビデオ符号化および復号化用の適応型結合前処理および後処理フィルタのための方法および装置
CN101794451A (zh) * 2010-03-12 2010-08-04 上海交通大学 基于运动轨迹的跟踪方法
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
CN101888549B (zh) * 2010-06-18 2012-05-02 浙江大学 基于变换域信息的帧内4×4预测模式选择方法
KR20120012385A (ko) 2010-07-31 2012-02-09 오수미 인트라 예측 부호화 장치
KR101373814B1 (ko) 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
US9420294B2 (en) * 2011-02-23 2016-08-16 Lg Electronics Inc. Intra-prediction method using filtering, and apparatus using the method
US9667987B2 (en) 2011-03-10 2017-05-30 Futurewei Technologies, Inc. Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness
US9654785B2 (en) 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
US9854275B2 (en) * 2011-06-25 2017-12-26 Qualcomm Incorporated Quantization in video coding
PT2887670T (pt) 2011-06-28 2017-09-18 Samsung Electronics Co Ltd Método e aparelho para codificar vídeo e método e aparelho para descodificar vídeo, acompanhados com intra previsão
BR112013003521B1 (pt) * 2011-07-18 2022-03-03 Sun Patent Trust Método de codificação de imagem, método de decodificação de imagem, aparelho de codificação de imagem, aparelho de decodificação de imagem e aparelho de codificação e decodificação de imagem
GB2494468B (en) * 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
CN106851300B (zh) 2011-09-13 2020-05-26 寰发股份有限公司 基于最可能模式的帧内预测模式的方法及装置
WO2013051903A1 (en) * 2011-10-07 2013-04-11 Pantech Co., Ltd. Methods and apparatuses of encoding/decoding intra prediction mode using candidate intra prediction modes
GB2555287B (en) * 2011-10-17 2018-11-07 Kt Corp Video decoding method using transform method selected from a transform method set
CN105338346B (zh) 2011-10-24 2018-11-13 英孚布瑞智有限私人贸易公司 用于图像解码的方法和装置
ES2816567T3 (es) 2011-10-24 2021-04-05 Innotive Ltd Método y aparato para decodificar modo de intra-predicción
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
GB2556489B (en) * 2011-11-08 2018-11-21 Kt Corp A method of decoding a video signal using a merge mode
KR20130058524A (ko) * 2011-11-25 2013-06-04 오수미 색차 인트라 예측 블록 생성 방법
KR102061201B1 (ko) * 2012-04-12 2019-12-31 주식회사 골드피크이노베이션즈 블록 정보에 따른 변환 방법 및 이러한 방법을 사용하는 장치
US9615086B2 (en) * 2013-02-06 2017-04-04 Research & Business Foundation Sungkyunkwan University Method and apparatus for intra prediction

Also Published As

Publication number Publication date
JP6155360B2 (ja) 2017-06-28
TW202205862A (zh) 2022-02-01
AU2012331602A1 (en) 2014-04-17
PH12016502083B1 (en) 2017-03-22
EP3361730A1 (en) 2018-08-15
CN103096066A (zh) 2013-05-08
CN107770530B (zh) 2020-07-10
JP6155361B2 (ja) 2017-06-28
TWI809520B (zh) 2023-07-21
CN107770532A (zh) 2018-03-06
IL231706A0 (en) 2014-05-28
BR112014007597A2 (pt) 2017-04-11
US20210160503A1 (en) 2021-05-27
EP2774374A1 (en) 2014-09-10
DK2774374T3 (en) 2018-05-28
CN107770533B (zh) 2020-06-12
BR122020015319B1 (pt) 2023-12-12
PH12016502085B1 (en) 2017-03-22
RU2016139140A3 (es) 2019-11-22
HRP20180969T1 (hr) 2018-08-10
EP3331244A1 (en) 2018-06-06
EP2774374B1 (en) 2018-04-04
CA2999131C (en) 2020-09-01
HUE037568T2 (hu) 2018-09-28
US9374582B2 (en) 2016-06-21
CN107770530A (zh) 2018-03-06
RU2016139141A3 (es) 2019-11-29
IL250027B (en) 2019-03-31
PT2774374T (pt) 2018-06-07
US10045027B2 (en) 2018-08-07
IL250031B (en) 2019-03-31
TWI575934B (zh) 2017-03-21
TW202106028A (zh) 2021-02-01
MY192963A (en) 2022-09-19
CN107396110A (zh) 2017-11-24
BR122020015318A8 (pt) 2022-10-04
US9813712B2 (en) 2017-11-07
US20180063532A1 (en) 2018-03-01
CN107483939B (zh) 2020-06-26
JP7445793B2 (ja) 2024-03-07
US20160261867A1 (en) 2016-09-08
CA3087455A1 (en) 2013-05-10
BR122020015319A2 (es) 2020-10-13
TWI809519B (zh) 2023-07-21
RU2016139142A3 (es) 2019-11-29
RU2016139139A (es) 2021-05-20
MX2014003913A (es) 2014-07-30
US20210160502A1 (en) 2021-05-27
JP2023036986A (ja) 2023-03-14
JP2024045761A (ja) 2024-04-02
JP6932177B2 (ja) 2021-09-08
CN107770532B (zh) 2020-06-12
CA2849173A1 (en) 2013-05-10
RU2760932C2 (ru) 2021-12-01
BR122020015319A8 (pt) 2022-10-04
CN107770531A (zh) 2018-03-06
SG10201607022WA (en) 2016-10-28
TWI709334B (zh) 2020-11-01
MY192965A (en) 2022-09-20
PH12016502084B1 (en) 2017-03-22
US11470318B2 (en) 2022-10-11
US11582452B2 (en) 2023-02-14
SG11201400675VA (en) 2014-04-28
BR122020015314A8 (pt) 2022-10-04
PH12016502083A1 (en) 2017-03-22
AU2012331602B2 (en) 2015-08-27
MX340888B (es) 2016-07-29
CN107483937A (zh) 2017-12-15
MX340890B (es) 2016-07-29
EP2774374A4 (en) 2015-06-24
TW201803346A (zh) 2018-01-16
PL2774374T3 (pl) 2018-09-28
MY192962A (en) 2022-09-19
TW202205861A (zh) 2022-02-01
EP3361729A1 (en) 2018-08-15
JP2016146664A (ja) 2016-08-12
MX340889B (es) 2016-07-29
BR122020015318B1 (pt) 2023-12-12
CN103096066B (zh) 2017-09-05
BR122020015314B1 (pt) 2023-12-12
RU2711182C2 (ru) 2020-01-15
JP2014534752A (ja) 2014-12-18
MY192964A (en) 2022-09-20
RU2711176C2 (ru) 2020-01-15
IN2014CN03912A (es) 2015-10-16
RU2016139141A (ru) 2018-04-25
CA2999131A1 (en) 2013-05-10
PL2774374T4 (pl) 2018-11-30
TW202341742A (zh) 2023-10-16
IL250029B (en) 2019-03-31
JP2016146663A (ja) 2016-08-12
JP2022000950A (ja) 2022-01-04
JP2020058060A (ja) 2020-04-09
TWI661715B (zh) 2019-06-01
JP2023029552A (ja) 2023-03-03
US20210168367A1 (en) 2021-06-03
BR122020015315A8 (pt) 2022-10-04
EP3361731A1 (en) 2018-08-15
JP7210664B2 (ja) 2023-01-23
CN107396110B (zh) 2021-05-07
IL250030A0 (en) 2017-03-30
RU2014111827A (ru) 2015-12-10
PH12016502084A1 (en) 2017-03-22
CN107770533A (zh) 2018-03-06
TWI608726B (zh) 2017-12-11
NO2774374T3 (es) 2018-09-01
RU2761086C2 (ru) 2021-12-03
CN107483938B (zh) 2020-12-25
US11671597B2 (en) 2023-06-06
US20160261866A1 (en) 2016-09-08
TWI621349B (zh) 2018-04-11
BR122020015315B1 (pt) 2023-12-12
TW201320764A (zh) 2013-05-16
RS57240B1 (sr) 2018-07-31
JP2018174570A (ja) 2018-11-08
RU2601445C2 (ru) 2016-11-10
RU2016139140A (ru) 2018-12-13
US11438592B2 (en) 2022-09-06
MY192966A (en) 2022-09-20
CY1120280T1 (el) 2019-07-10
JP2024051047A (ja) 2024-04-10
IL250030B (en) 2019-03-31
KR20140090156A (ko) 2014-07-16
JP6636573B2 (ja) 2020-01-29
KR20130049526A (ko) 2013-05-14
US10404983B2 (en) 2019-09-03
US9866836B2 (en) 2018-01-09
PH12016502082A1 (en) 2017-03-22
US20190387229A1 (en) 2019-12-19
JP2016146665A (ja) 2016-08-12
CN107483939A (zh) 2017-12-15
LT2774374T (lt) 2018-06-11
US20180309994A1 (en) 2018-10-25
CA2849173C (en) 2018-05-15
JP5914680B2 (ja) 2016-05-11
WO2013064100A1 (en) 2013-05-10
MY167772A (en) 2018-09-24
CN107483937B (zh) 2020-08-07
IL250027A0 (en) 2017-03-30
JP6157676B2 (ja) 2017-07-05
PH12016502085A1 (en) 2017-03-22
TW201817240A (zh) 2018-05-01
JP7500786B2 (ja) 2024-06-17
BR122020015315A2 (es) 2020-10-13
BR122020015314A2 (es) 2020-10-13
CN107770531B (zh) 2020-06-12
US10939109B2 (en) 2021-03-02
KR20140090155A (ko) 2014-07-16
TW201709728A (zh) 2017-03-01
US20230276049A1 (en) 2023-08-31
US20140314142A1 (en) 2014-10-23
JP6360947B2 (ja) 2018-07-18
SI2774374T1 (en) 2018-06-29
TWI745106B (zh) 2021-11-01
MX340887B (es) 2016-07-29
PH12016502082B1 (en) 2017-03-22
US20210160501A1 (en) 2021-05-27
BR122020015318A2 (es) 2020-10-13
TW201931858A (zh) 2019-08-01
RU2016139142A (ru) 2018-04-05
CN107483938A (zh) 2017-12-15
BR112014007597B1 (pt) 2022-05-17
IL231706A (en) 2017-02-28
KR20140090154A (ko) 2014-07-16
JP2017175661A (ja) 2017-09-28
IL250029A0 (en) 2017-03-30
IL250031A0 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
ES2673191T3 (es) Aparato de decodificación de datos de video
ES2673189T3 (es) Procedimiento de derivación de modo de intra predicción
ES2669502T3 (es) Procedimiento de generación de un bloque reconstruido
ES2657908T3 (es) Procedimiento para decodificar una imagen de croma
ES2784007T3 (es) Aparato de derivación de un modo de intra-predicción
ES2870375T3 (es) Procedimiento de generación de un bloque cuantificado
ES2685669T3 (es) Aparato para codificar un modo de intrapredicción
ES2805055T3 (es) Aparato de decodificación de imágenes