ES2669502T3 - Procedimiento de generación de un bloque reconstruido - Google Patents

Procedimiento de generación de un bloque reconstruido Download PDF

Info

Publication number
ES2669502T3
ES2669502T3 ES12846401.3T ES12846401T ES2669502T3 ES 2669502 T3 ES2669502 T3 ES 2669502T3 ES 12846401 T ES12846401 T ES 12846401T ES 2669502 T3 ES2669502 T3 ES 2669502T3
Authority
ES
Spain
Prior art keywords
intra prediction
block
mode
unit
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12846401.3T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infobridge Pte Ltd
Original Assignee
Infobridge Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infobridge Pte Ltd filed Critical Infobridge Pte Ltd
Application granted granted Critical
Publication of ES2669502T3 publication Critical patent/ES2669502T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Electrotherapy Devices (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Un procedimiento de generar un bloque reconstruido, que comprende: derivar (S1100) un modo de intra predicción de una unidad de predicción usando tres modos de intra predicción que se determinan en base a modos de intra predicción izquierdo y superior; determinar (S1200) un tamaño de un bloque actual usando información de tamaño de transformación; generar (S1300) un bloque de predicción del bloque actual según el modo de intra predicción; generar (S1400) un bloque residual del bloque actual según el modo de intra predicción y el tamaño del bloque actual; y generar (S1500) un bloque reconstruido del bloque actual usando el bloque de predicción y el bloque residual, en el que el tamaño del bloque actual es igual o menor que un tamaño de la unidad de predicción, y los tamaños del bloque de predicción, bloque residual y bloque reconstruido son iguales a un tamaño de una unidad de transformación, y la información de tamaño de transformación incluye una o más banderas de división de unidad de transformación, split_tu_flags, en el que derivar un modo de intra predicción de una unidad de predicción comprende: - construir (S1120) un grupo de modos más probables, MPM, que se compone de tres modos de intra predicción usando el modo de intra predicción izquierdo y el modo de intra predicción superior; - determinar (S1130) si un indicador de grupo de modos, que es una bandera, indica o no el grupo de MPM; - establecer (S1140) un modo de intra predicción del grupo de MPM especificado por un índice de modo de predicción como el modo de intra predicción de la unidad de predicción si el indicador de grupo de modos indica el grupo de MPM; caracterizado por - determinar (S1190) el modo de intra predicción de la unidad de predicción comparando el índice de modo de predicción con los tres modos de intra predicción del grupo de MPM si el indicador de grupo de modos no indica el grupo de MPM, en el que si uno de entre el modo de intra predicción izquierdo y el modo de intra predicción superior está disponible, el grupo de MPM se compone del modo de intra predicción disponible y dos modos de intra predicción adicionales, y el modo DC y el modo plano son establecidos como los dos modos de intra predicción adicionales, si el modo de intra predicción disponible es un modo de intra predicción direccional.

Description

DESCRIPCIÓN
Procedimiento de generación de un bloque reconstruido
5
Campo técnico
La presente invención se refiere a un procedimiento y a un aparato para decodificar una imagen, y más particularmente, a un procedimiento de generar de forma adaptativa un bloque de predicción y un bloque residual 10 que tienen el mismo tamaño que una unidad de transformación de acuerdo con un modo de intra predicción.
Técnica anterior
15 En H.264/MPEG-4 AVC, una imagen es dividida en macro-bloques para codificar una imagen, los macro-bloques respectivos son codificados generando un bloque de predicción utilizando inter predicción o intra predicción. La diferencia entre un bloque original y el bloque de predicción es transformada para generar un bloque transformado, y el bloque transformado es cuantificado usando un parámetro de cuantificación y una de entre una pluralidad de matrices de cuantificación predeterminadas. El coeficiente cuantificado del bloque cuantificado es explorado 20 mediante un tipo de exploración predeterminado y a continuación es codificado por entropía. El parámetro de cuantificación es ajustado por cada macro-bloque y es codificado utilizando un parámetro de cuantificación previo.
Mientras tanto, se introducen técnicas que usan varios tamaños de unidad de codificación para mejorar la eficiencia de la codificación. También se introducen técnicas que aumentan un número de modos de intra predicción para 25 generar un bloque de predicción más similar a un bloque original.
Pero, si el número de modos de intra predicción aumenta, la cantidad de bits de codificación requeridos para señalizar el modo de intra predicción es mayor. Además, si el tamaño de la unidad de codificación es mayor, la diferencia entre un bloque original y un bloque de predicción es mayor.
30
En consecuencia, se requiere un procedimiento más efectivo para señalizar el modo de intra predicción. También se requiere un procedimiento más efectivo para minimizar la diferencia entre el bloque original y el bloque de predicción y para minimizar los bits de codificación del bloque residual.
35 El documento “Parsing friendly intra mode coding", W.-J. Chien et.al., document JCTVC-F459 se puede interpretar como la divulgación de un procedimiento de codificación para el modo de intra predicción para abordar problemas en el proceso de análisis (parsing). Durante el proceso de análisis, el procedimiento propuesto no se basa en la información vecina, de modo que no se necesita un almacenamiento de memoria adicional. Los resultados de la simulación muestran una ganancia media de rendimiento de 0,2% en configuraciones que son sólo Intra.
40
El documento "WD3: Working Draft 3 of High-Efficiency Video Coding", T. Wiegand et.al., document JCTVC-E603 y el documento "High Efficiency Video Coding (HEVC) Working draft 4", B. Bross et.al., document JCTVC-F803 se pueden interpretar como la divulgación de una técnica relacionada con la creciente necesidad del HEVC de una mayor compresión de imágenes en movimiento para diversas aplicaciones tales como videoconferencia, medios de 45 almacenamiento digital, etc. Los algoritmos de codificación pueden seleccionar entre la inter y la intra codificación para regiones en forma de bloque en cada imagen. La inter codificación usa vectores de movimiento para la inter predicción basada en bloques para explotar dependencias estadísticas temporales entre diferentes imágenes. La intra codificación usa varios modos de predicción espacial para explotar dependencias estadísticas espaciales en la señal de origen para una sola imagen. Los vectores de movimiento y los modos de intra predicción se pueden 50 especificar para una diversidad de tamaños de bloque en la imagen. A continuación, se comprime aún más el residual de predicción utilizando una transformación para eliminar la correlación espacial dentro del bloque de transformación antes de su cuantificación, produciendo un proceso irreversible que normalmente descarta la información visual menos importante mientras forma una aproximación de clase a las muestras de origen. Finalmente, se combinan los vectores de movimiento o los modos de intra predicción con la información de 55 coeficiente de transformación cuantificado y se codifican utilizando ya sea codificación de longitud variable o codificación aritmética.
El documento "BoG report on intra mode coding with fixed number of MPM candidates", J. Chen, document JCTVC- F765 puede interpretarse como la divulgación de una técnica relacionada con el análisis (parsing) y reconstrucción 60 del intra modo de desacoplamiento mediante el uso de un número fijo de candidatos MPM con un mínimo cambio (llamado 2MPM).
Divulgación Problema técnico
5 La presente invención está orientada a un procedimiento de derivar un modo de intra predicción de una unidad de predicción, determinar un tamaño de un bloque actual usando información de tamaño de transformación, generar un bloque de predicción y un bloque residual del bloque actual según el modo de intra predicción y generar un bloque reconstruido del bloque actual usando el bloque de predicción y el bloque residual.
10 Solución técnica
De acuerdo con la invención, se proporciona un procedimiento según la reivindicación independiente. Se exponen desarrollos en las reivindicaciones dependientes.
15 Preferiblemente, hay un procedimiento de generar un bloque reconstruido, que comprende: derivar un modo de intra predicción de una unidad de predicción, determinar un tamaño de un bloque actual usando información de tamaño de transformación, generar un bloque de predicción del bloque actual según el modo de intra predicción, generar un bloque residual del bloque actual según el modo de intra predicción y generar un bloque reconstruido del bloque actual usando el bloque de predicción y el bloque residual.
20
Efectos ventajosos
Un procedimiento según la presente invención deriva un modo de intra predicción de una unidad de predicción, determina un tamaño de un bloque actual usando información de tamaño de transformación, genera un bloque de 25 predicción del bloque actual según el modo de intra predicción, genera un bloque residual del bloque actual según el modo de intra predicción y genera un bloque reconstruido del bloque actual usando el bloque de predicción y el bloque residual. Los tamaños del bloque de predicción y bloque residual se determinan iguales al tamaño de una unidad de transformación. Por lo tanto, se acorta la distancia de la intra predicción y se reduce la cantidad de bits de codificación del bloque residual generando un bloque de predicción muy similar al bloque original. Además, los bits 30 de señalización requeridos para señalizar el modo de intra predicción disminuyen generando un grupo de MPM de forma adaptativa de acuerdo con los modos de intra predicción vecinos.
Descripción de los dibujos
35 La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes según un ejemplo.
La figura 2 es un diagrama de bloques de un aparato de decodificación de imágenes según un ejemplo.
La figura 3 es un diagrama de flujo que ilustra un procedimiento de generar un bloque reconstruido en la intra 40 predicción según la presente invención.
La figura 4 es un diagrama de flujo que ilustra un procedimiento de derivar un modo de intra predicción de una unidad de predicción actual según un ejemplo.
45 La figura 5 es un diagrama conceptual que ilustra modos de intra predicción según un ejemplo.
La figura 6 es un diagrama de flujo que ilustra un procedimiento de generar un bloque de predicción según un ejemplo.
50 La figura 7 es un diagrama conceptual que ilustra las posiciones de píxeles de referencia de un bloque actual según un ejemplo.
La figura 8 es un diagrama de flujo que ilustra un procedimiento de generar un bloque residual según un ejemplo.
55 La figura 9 es un diagrama de flujo que ilustra un procedimiento de derivar un parámetro de cuantificación según un
ejemplo.
La figura 10 es un diagrama de bloques que ilustra un aparato para generar un bloque reconstruido según un ejemplo.
Realizaciones de la invención
En lo sucesivo, se describirán en detalle diversas realizaciones de la presente invención con referencia a los dibujos adjuntos. Sin embargo, la presente invención no se limita a las realizaciones descritas a continuación a modo de ejemplo, sino que se puede implementar de varias maneras. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invención, y debe entenderse que dentro del alcance del concepto divulgado, la 5 presente invención se puede poner en práctica de otras maneras a las que se han descrito específicamente.
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes 100 según un ejemplo.
Con referencia a la figura 1, el aparato de codificación de imágenes 100 según el presente ejemplo incluye una 10 unidad de división de imágenes 101, una unidad de transformación 103, una unidad de cuantificación 104, una unidad de exploración 105, una unidad de codificación de entropía 106, una unidad de cuantificación inversa 107, una unidad de transformación inversa 108, una unidad de post procesamiento 110, una unidad de almacenamiento de imágenes 111, una unidad de intra predicción 112, una unidad de inter predicción 113, un sustractor 102 y un sumador 109.
15
La unidad de división de imágenes 101 divide una imagen o una porción en una pluralidad de unidades de codificación (LCU) más grandes, y divide cada LCU en una o más unidades de codificación. La unidad de división de imágenes 101 determina el modo de predicción de cada unidad de codificación y un tamaño de unidad de predicción y un tamaño de unidad de transformación.
20
Una LCU incluye una o más unidades de codificación. La LCU tiene una estructura recursiva de árbol cuádruple para especificar una estructura de división. La información que especifica el tamaño máximo y el tamaño mínimo de la unidad de codificación es incluida en un conjunto de parámetros de secuencia. La estructura de división es especificada por una o más banderas de división de unidad de codificación (split_cu_flags). La unidad de 25 codificación tiene un tamaño de 2Nx2N.
Una unidad de codificación incluye una o más unidades de predicción. En la intra predicción, el tamaño de la unidad de predicción es 2Nx2N o NxN. En la inter predicción, el tamaño de la unidad de predicción es 2Nx2N, 2NxN, Nx2N o NxN. Cuando la unidad de predicción es una partición asimétrica de la inter predicción, el tamaño de la unidad de 30 predicción también puede ser uno de entre hNx2N, (2-h)Nx2N, 2NxhN y 2Nx(2-h)N. El valor de h es 1/2.
Una unidad de codificación incluye una o más unidades de transformación. La unidad de transformación tiene una estructura recursiva de árbol cuádruple para especificar una estructura de división. La estructura de división es especificada por una o más banderas de división de unidad de transformación (split_tu_flags). La información que 35 especifica el tamaño máximo y el tamaño mínimo de la unidad de transformación es incluida en un conjunto de parámetros de secuencia.
La unidad de intra predicción 112 determina un modo de intra predicción de una unidad de predicción actual y genera uno o más bloques de predicción usando el modo de intra predicción. El bloque de predicción tiene el mismo 40 tamaño de la unidad de transformación.
La unidad de inter predicción 113 determina información de movimiento de la unidad de predicción actual usando una o más imágenes de referencia almacenadas en la unidad de almacenamiento de imágenes 111, y genera un bloque de predicción de la unidad de predicción. La información de movimiento incluye uno o más índices de 45 imágenes de referencia y uno o más vectores de movimiento.
La unidad de transformación 103 transforma las señales residuales generadas usando un bloque original y un bloque de predicción para generar un bloque transformado. Las señales residuales son transformadas en unidades de transformación. Un tipo de transformación es determinado por el modo de predicción y el tamaño de la unidad de 50 transformación. El tipo de transformación es una transformación de enteros basada en DCT (transformada discreta del coseno) o una transformación de enteros basada en DST (transformada discreta del seno). Por ejemplo, en el modo de inter predicción, se usan transformaciones de enteros basadas en DCT. En el modo de intra predicción, si el tamaño de la unidad de transformación es menor que un tamaño predeterminado, se usan transformaciones de enteros basadas en DST, de lo contrario se usan transformaciones de enteros basadas en DCT.
55
La unidad de cuantificación 104 determina un parámetro de cuantificación para cuantificar el bloque transformado. El parámetro de cuantificación es un tamaño de etapa de cuantificación. El parámetro de cuantificación es determinado por cada unidad de cuantificación. El tamaño de la unidad de cuantificación es uno de los tamaños permitidos de la unidad de codificación. Si un tamaño de la unidad de codificación es igual o mayor que un tamaño mínimo de la 60 unidad de cuantificación, la unidad de codificación es determinada como la unidad de cuantificación. Se puede incluir una pluralidad de unidades de codificación en una unidad de cuantificación. El tamaño mínimo de la unidad de cuantificación se determina por cada imagen y se incluye información que especifica el tamaño mínimo de la unidad de cuantificación en un conjunto de parámetros de imagen.
La unidad de cuantificación 104 genera un predictor del parámetro de cuantificación y genera un parámetro de cuantificación diferencial sustrayendo el predictor del parámetro de cuantificación del parámetro de cuantificación. El parámetro de cuantificación diferencial es codificado por entropía e incluido en la sintaxis de la unidad de 5 codificación.
El predictor del parámetro de cuantificación es generado utilizando los parámetros de cuantificación de las unidades de codificación vecinas y un parámetro de cuantificación de la unidad de codificación anterior de la siguiente manera.
10
Un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación anterior son recuperados secuencialmente en este orden. Un promedio de los primeros dos parámetros de cuantificación disponibles recuperados en ese orden es determinado como el predictor del parámetro de cuantificación cuando dos o más parámetros de cuantificación están disponibles, y cuando solo está disponible un
15 parámetro de cuantificación, el parámetro de cuantificación disponible es determinado como el predictor del
parámetro de cuantificación. Es decir, si los parámetros de cuantificación izquierdo y superior están disponibles, el promedio de los parámetros de cuantificación izquierdo y superior es determinado como el predictor del parámetro de cuantificación. Si solo está disponible uno de los parámetros de cuantificación izquierdo y superior, el promedio del parámetro de cuantificación disponible y el parámetro de cuantificación anterior es determinado como el predictor 20 del parámetro de cuantificación. Si tanto el parámetro de cuantificación izquierdo como el superior no están disponibles, el parámetro de cuantificación anterior es determinado como el predictor del parámetro de cuantificación. El promedio es redondeado.
La unidad de cuantificación 104 cuantifica el bloque transformado usando una matriz de cuantificación y el
25 parámetro de cuantificación para generar un bloque cuantificado. El bloque cuantificado es proporcionado a la
unidad de cuantificación inversa 107 y a la unidad de exploración 105.
La unidad de exploración 105 determina un patrón de exploración y aplica el patrón de exploración al bloque cuantificado. Cuando se usa CABAC (codificación aritmética binaria adaptable al contexto) para la codificación de 30 entropía, el patrón de exploración se determina de la siguiente manera.
En la intra predicción, el patrón de exploración es determinado por el modo de intra predicción y el tamaño de la unidad de transformación. El tamaño de la unidad de transformación, el tamaño del bloque transformado y el tamaño del bloque cuantificado son los mismos. El patrón de exploración se selecciona de entre una exploración en 35 diagonal, exploración vertical y exploración horizontal. El patrón de exploración es aplicado a las banderas significativas, signos de coeficiente y niveles de coeficiente respectivamente. La bandera significativa indica si el correspondiente coeficiente de transformación cuantificado es o no es cero. El signo de coeficiente indica un signo de coeficiente de transformación cuantificado diferente de cero, y el nivel de coeficiente indica un valor absoluto de coeficiente de transformación cuantificado diferente de cero.
40
Cuando el tamaño de la unidad de transformación es igual o menor que un primer tamaño, se selecciona la exploración horizontal para el modo vertical y un número predeterminado de modos de intra predicción vecinos del modo vertical en direccionalidad, se selecciona la exploración vertical para el modo horizontal y el número predeterminado de modos de intra predicción vecinos del modo horizontal en direccionalidad, y se selecciona la 45 exploración en diagonal para los otros modos de intra predicción. Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se utiliza la exploración en diagonal. El primer tamaño es 8x8.
En la inter predicción, se usa un patrón de exploración predeterminado independientemente del tamaño de la unidad de transformación. El patrón de exploración predeterminado es la exploración en diagonal cuando se utiliza CABAC 50 para la codificación de entropía.
Cuando el tamaño de la unidad de transformación es mayor que un segundo tamaño, se divide el bloque cuantificado en un subconjunto principal y una pluralidad de subconjuntos restantes y se aplica el patrón de exploración determinado a cada subconjunto. Las banderas significativas, los signos de coeficiente y los niveles de 55 coeficiente de cada subconjunto son explorados respectivamente según el patrón de exploración determinado. El subconjunto principal incluye el coeficiente DC y los subconjuntos restantes cubren la región que no es la región cubierta por el subconjunto principal. El segundo tamaño es 4x4. Un tamaño del subconjunto puede ser un bloque 4x4 o puede variar según el patrón de exploración. El subconjunto incluye 16 coeficientes de transformación.
60 El patrón de exploración para explorar los subconjuntos es el mismo que el patrón de exploración para explorar los coeficientes de transformación cuantificados de cada subconjunto. Los coeficientes de transformación cuantificados de cada subconjunto son explorados en la dirección inversa. Los subconjuntos también son explorados en la dirección inversa.
La última posición de coeficiente diferente de cero es codificada y transmitida al decodificador. La última posición de coeficiente diferente de cero especifica una posición del último coeficiente de transformación cuantificado diferente de cero dentro de la unidad de transformación. Se determina la bandera de subconjunto diferente de cero para cada 5 subconjunto que no sea el subconjunto principal ni el último subconjunto. El último subconjunto cubre el último coeficiente diferente de cero. La bandera de subconjunto diferente de cero indica si el subconjunto contiene o no contiene coeficientes diferentes de cero.
La unidad de cuantificación inversa 107 cuantifica inversamente los coeficientes de transformación cuantificados del 10 bloque cuantificado.
La unidad de transformación inversa 108 transforma inversamente el bloque cuantificado inverso para generar señales residuales del dominio espacial.
15 El sumador 109 genera un bloque reconstruido agregando el bloque residual y el bloque de predicción.
La unidad de post procesamiento 110 realiza un proceso de filtrado de desbloqueo para eliminar el artefacto de bloqueo generado en una imagen reconstruida.
20 La unidad de almacenamiento de imágenes 111 recibe una imagen post procesada desde la unidad de post procesamiento 110, y almacena la imagen en unidades de imágenes. Una imagen puede ser un fotograma (frame) o un campo.
La unidad de codificación de entropía 106 codifica por entropía la información del coeficiente unidimensional recibida 25 desde la unidad de exploración 105, la información de intra predicción recibida desde la unidad de intra predicción 112, la información de movimiento recibida desde la unidad de inter predicción 113, y así sucesivamente.
La figura 2 es un diagrama de bloques de un aparato de decodificación de imágenes 200 según un ejemplo.
30 El aparato de decodificación de imágenes 200 según el presente ejemplo incluye una unidad de decodificación de entropía 201, una unidad de exploración inversa 202, una unidad de cuantificación inversa 203, una unidad de transformación inversa 204, un sumador 205, una unidad de post procesamiento 206, una unidad de almacenamiento de imágenes 207, una unidad de intra predicción 208 y una unidad de inter predicción 209.
35 La unidad de decodificación de entropía 201 extrae la información de intra predicción, la información de inter predicción y la información de coeficiente unidimensional de un flujo de bits (bit stream) recibido. La unidad de decodificación de entropía 201 transmite la información de inter predicción a la unidad de inter predicción 209, la información de intra predicción a la unidad de intra predicción 208 y la información de coeficiente a la unidad de exploración inversa 202.
40
La unidad de exploración inversa 202 usa un patrón de exploración inversa para generar un bloque cuantificado. Cuando se utiliza CABAC para la codificación de entropía, el patrón de exploración se determina de la siguiente manera.
45 En la intra predicción, el patrón de exploración inversa es determinado por el modo de intra predicción y el tamaño de la unidad de transformación. El patrón de exploración inversa es seleccionado de entre una exploración en diagonal, exploración vertical y exploración horizontal. El patrón de exploración inversa seleccionado es aplicado a banderas significativas, signos de coeficiente y niveles de coeficiente respectivamente para generar el bloque cuantificado.
50
Cuando el tamaño de la unidad de transformación es igual o menor que un primer tamaño, se selecciona la exploración horizontal para el modo vertical y un número predeterminado de modos de intra predicción vecinos del modo vertical, se selecciona la exploración vertical para el modo horizontal y el número predeterminado de modos de intra predicción vecinos del modo horizontal, y se selecciona la exploración en diagonal para los otros modos de 55 intra predicción. Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se utiliza la exploración en diagonal. Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se selecciona la exploración en diagonal para todos los modos de intra predicción. El primer tamaño es 8x8.
Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se selecciona la exploración en 60 diagonal para todos los modos de intra predicción.
En la inter predicción, se usa la exploración en diagonal.
Cuando el tamaño de la unidad de transformación es mayor que el segundo tamaño, las banderas significativas, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la unidad de subconjuntos que usa el patrón de exploración inversa determinado para generar subconjuntos, y los subconjuntos son explorados inversamente para generar el bloque cuantificado. El segundo tamaño es 4x4. El tamaño del subconjunto puede ser 5 un bloque 4x4 o un bloque no cuadrado determinado por el patrón de exploración. El bloque no cuadrado incluye 16 coeficientes de transformación. Por ejemplo, el tamaño del subconjunto es 8x2 para la exploración horizontal, 2x8 para la exploración vertical y 4x4 para la exploración en diagonal.
El patrón de exploración inversa utilizado para generar cada subconjunto es el mismo que el patrón de exploración 10 inversa utilizado para generar el bloque cuantificado. Las banderas significativas, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la dirección inversa. Los subconjuntos también son explorados inversamente en la dirección inversa.
La última posición de coeficiente diferente de cero y las banderas de subconjunto diferente de cero son recibidas 15 procedentes del codificador. El número de subconjuntos codificados se determina de acuerdo con la última posición de coeficiente diferente de cero y el patrón de exploración inversa. Las banderas de subconjunto diferente de cero se utilizan para seleccionar los subconjuntos a generar. El subconjunto principal y el último subconjunto se generan utilizando el patrón de exploración inversa.
20 La unidad de cuantificación inversa 203 recibe el parámetro de cuantificación diferencial desde la unidad de decodificación de entropía 201 y genera el predictor del parámetro de cuantificación. El predictor del parámetro de cuantificación se genera a través de la misma operación de la unidad de cuantificación 104 de la figura 1. Entonces, la unidad de cuantificación inversa 203 agrega el parámetro de cuantificación diferencial y el predictor del parámetro de cuantificación para generar el parámetro de cuantificación de la unidad de codificación actual. Si el tamaño de la 25 unidad de codificación actual es igual a o mayor que el tamaño mínimo de la unidad de cuantificación y no se recibe el parámetro de cuantificación diferencial para la unidad de codificación actual desde el codificador, el parámetro de cuantificación diferencial se determina como 0.
La unidad de cuantificación inversa 203 cuantifica inversamente el bloque cuantificado.
30
La unidad de transformación inversa 204 transforma inversamente el bloque cuantificado inverso para restablecer un bloque residual. El tipo de transformación inversa es determinado de forma adaptativa según el modo de predicción y el tamaño de la unidad de transformación. El tipo de transformación inversa es la transformación de enteros basada en DCT o la transformación de enteros basada en DST. Por ejemplo, en la inter predicción, se usan 35 transformaciones de enteros basadas en DCT. En el modo de intra predicción, si el tamaño de la unidad de transformación es menor que un tamaño predeterminado, se usan las transformaciones de enteros basadas en DST, de lo contrario se usan transformaciones de enteros basadas en DCT.
La unidad de intra predicción 208 restablece el modo de intra predicción de la unidad de predicción actual utilizando 40 la información de intra predicción recibida, y genera un bloque de predicción según el modo de intra predicción restablecido.
La unidad de inter predicción 209 restablece la información de movimiento de la unidad de predicción actual usando la información de inter predicción recibida, y genera un bloque de predicción usando la información de movimiento.
45
La unidad de post procesamiento 206 funciona igual que la unidad de post procesamiento 110 de la figura 1.
La unidad de almacenamiento de imágenes 207 recibe una imagen post procesada desde la unidad de post procesamiento 206, y almacena la imagen en unidades de imágenes. Una imagen puede ser un fotograma (frame) o 50 un campo.
El sumador 205 agrega el bloque residual restablecido y un bloque de predicción para generar un bloque reconstruido.
55 La figura 3 es un diagrama de flujo que ilustra un procedimiento de generar un bloque reconstruido en la intra predicción según la presente invención.
Primero, se deriva un modo de intra predicción de una unidad de predicción actual (S1100).
60 La figura 4 es un diagrama de flujo que ilustra un procedimiento de derivar el modo de intra predicción de la unidad de predicción actual según un ejemplo.
Los parámetros de inter predicción de la unidad de predicción actual son extraídos de un flujo de bits recibido (S1110).
Los parámetros de intra predicción son un indicador del grupo de modos y un índice del modo de predicción. El 5 indicador del grupo de modos es una bandera que indica si el modo de intra predicción de la unidad de predicción actual pertenece a un grupo de modos más probables (grupo de MPM). Si la bandera es 1, la unidad de intra predicción de la unidad de predicción actual pertenece al grupo de MPM. Si la bandera es 0, la unidad de intra predicción de la unidad de predicción actual pertenece a un grupo de modos residual. El grupo de modos residual incluye todos los modos de intra predicción diferentes de los modos de intra predicción del grupo de MPM. El índice 10 del modo de predicción especifica el modo de intra predicción de la unidad de predicción actual dentro del grupo especificado por el indicador de grupo de modos.
El grupo de MPM es construido usando los modos de intra predicción de las unidades de predicción vecinas (S1120). Los modos de intra predicción del grupo de MPM son determinados de forma adaptativa por un modo de 15 intra predicción izquierda y un modo de intra predicción superior. El modo de intra predicción izquierda es el modo de intra predicción de la unidad de predicción vecina izquierda, y el modo de intra predicción superior es el modo de intra predicción de la unidad de predicción vecina superior. El grupo de MPM se compone de tres modos de intra predicción.
20 Si no existe la unidad de predicción vecina izquierda o superior, el modo de intra predicción de la unidad vecina izquierda o superior se determina como no disponible. Por ejemplo, si la unidad de predicción actual se encuentra en el límite izquierdo o superior de una imagen, la unidad de predicción vecina izquierda o superior no existe. Si la unidad vecina izquierda o superior se encuentra dentro de otra porción u otro recuadro, el modo de intra predicción de la unidad vecina izquierda o superior se determina como no disponible. Si la unidad vecina izquierda o superior 25 está inter codificada, el modo de intra predicción de la unidad vecina izquierda o superior se determina como no disponible. Si la unidad vecina superior se encuentra dentro de otra LCU, el modo de intra predicción de la unidad vecina izquierda o superior se determina como no disponible.
La figura 5 es un diagrama conceptual que ilustra los modos de intra predicción según un ejemplo. Como se muestra 30 en la figura 5, el número de modos de intra predicción es 35. El modo de componente continua (modo DC) y el modo plano son modos de intra predicción no direccional y los otros son modos de intra predicción direccional.
Cuando tanto el modo de intra predicción izquierdo como el modo de intra predicción superior están disponibles y son diferentes entre sí, el modo de intra predicción izquierdo y el modo de intra predicción superior son incluidos en 35 el grupo de MPM y se agrega un modo de intra predicción adicional al grupo de MPM. Se asigna el índice 0 a un modo de intra predicción que tiene número de modo pequeño y se asigna el índice 1 al otro. O se asigna el índice 0 al modo de intra predicción izquierdo y se asigna el índice 1 al modo de intra predicción superior. El modo de intra predicción agregado es determinado por los modos de intra predicción izquierdo y superior de la siguiente manera.
40 Si uno de los modos de intra predicción izquierda y superior es un modo no direccional y el otro es un modo direccional, se agrega el otro modo no direccional al grupo de MPM. Por ejemplo, si uno de los modos de intra predicción izquierdo y superior es el modo DC, se agrega el modo plano al grupo de MPM. Si uno de los modos de intra predicción izquierdo y superior es el modo plano, se agrega el modo DC al grupo de MPM. Si ambos modos de intra predicción izquierda y superior son modos no direccionales, se agrega el modo vertical al grupo de MPM. Si 45 ambos modos de intra predicción izquierda y superior son modos direccionales, se agrega el modo DC o el modo plano al grupo de MPM.
Cuando sólo está disponible uno de los modos de intra predicción izquierda y de intra predicción superior, se incluye el modo de intra predicción disponible en el grupo de MPM y se agregan dos modos de intra predicción adicionales 50 al grupo de MPM. Los dos modos de intra predicción agregados son determinados por los modos de intra predicción disponibles de la siguiente manera.
Si el modo de intra predicción disponible es un modo no direccional, se agrega el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo DC, se agrega el modo 55 plano y el modo vertical al grupo de MPM. Si el modo de intra predicción disponible es el modo plano, se agrega el modo DC y el modo vertical al grupo de MPM. Si el modo de intra predicción disponible es un modo direccional, se agregan dos modos no direccionales (modo DC y modo plano) al grupo de MPM.
Cuando ambos modos de intra predicción izquierda y de intra predicción superior están disponibles y son iguales 60 entre sí, se incluye el modo de intra predicción disponible en el grupo de MPM y se agregan dos modos de intra predicción adicionales al grupo de MPM. Los dos modos de intra predicción agregados son determinados por los modos de intra predicción disponibles de la siguiente manera.
Si el modo de intra predicción disponible es un modo direccional, se agregan dos modos direccionales vecinos al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo 23, se agrega el modo vecino izquierdo (modo 1) y el modo vecino derecho (modo 13) al grupo de MPM. Si el modo de intra predicción disponible es el modo 30, se agregan los dos modos vecinos (modo 2 y modo 16) al grupo de MPM. Si el modo de intra 5 predicción disponible es un modo no direccional, se agrega el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo DC, se agrega el modo plano y el modo vertical al grupo de MPM.
Cuando ambos modos de intra predicción izquierdo y de intra predicción superior no están disponibles, se agregan 10 tres modos de intra predicción adicionales al grupo de MPM. Los tres modos de intra predicción son el modo DC, el modo plano y el modo vertical. Se asignan los índices 0, 1 y 2 a los tres modos de intra predicción en el siguiente orden: modo DC, modo plano y modo vertical, o en el siguiente orden: modo plano, modo DC y modo vertical.
Se determina si el indicador del grupo de modos indica el grupo de MPM (S1130).
15
Si el indicador del grupo de modos indica el grupo de MPM, la intra predicción del grupo de MPM especificado por el índice del modo de predicción es determinada como el modo de intra predicción de la unidad de predicción actual (S1140).
20 Si el indicador del grupo de modos no indica el grupo de MPM, se reordenan las tres intra predicciones del grupo de MPM en el orden del número de modo (S1150). De entre los tres modos de intra predicción del grupo de MPM, se determina el modo de intra predicción con el menor número de modo como primer candidato, se determina el modo de intra predicción con el número de modo medio como segundo candidato y se determina el modo de intra predicción con el mayor número de modo como tercer candidato.
25
Se compara el índice del modo de predicción con el primer candidato (S1160). Si el índice del modo de predicción es igual o mayor que el primer candidato del grupo de MPM, se incrementa en uno el valor del índice del modo de predicción. De lo contrario, se mantiene el valor del índice del modo de predicción.
30 Se compara el índice del modo de predicción con el segundo candidato (S1170). Si el índice del modo de predicción es igual o mayor que el segundo candidato del grupo de MPM, se incrementa en uno el valor del índice del modo de predicción. De lo contrario, se mantiene el valor del índice del modo de predicción.
Se compara el índice del modo de predicción con el tercer candidato (S1180). Si el índice del modo de predicción es 35 igual o mayor que el tercer candidato del grupo de MPM, se incrementa en uno el valor del índice del modo de predicción. De lo contrario, se mantiene el valor del índice del modo de predicción.
Se determina el valor del índice del modo de predicción final como el número de modo del modo de intra predicción de la unidad de predicción actual (S1190).
40
A continuación, se determina un tamaño de un bloque actual para generar un bloque de predicción (S1200).
El tamaño del bloque actual es igual al tamaño de la unidad de transformación. El tamaño del bloque actual se determina usando el tamaño de la unidad de predicción y la información del tamaño de transformación. Un bloque de 45 predicción y un bloque residual del bloque actual tienen el mismo tamaño de la unidad de transformación. La información del tamaño de transformación incluye una o más split_tu_flags (banderas de división de unidad de transformación) para indicar la estructura de división.
Si el tamaño de la unidad de transformación es igual al tamaño de la unidad de predicción actual, se determina la 50 unidad de predicción actual como el bloque actual.
Si el tamaño de la unidad de transformación es menor que el tamaño de la unidad de predicción actual, la unidad de predicción se compone de una pluralidad de sub-bloques. Cada sub-bloque es determinado como el bloque actual. En este caso, las etapas S1300, S1400 y S1500 son realizadas para el primer sub-bloque de la unidad de 55 predicción. A continuación, se realizan repetidamente las etapas S1300, S1400 y S1500 para los sub-bloques restantes de la unidad de predicción en el orden de decodificación. Se usa el mismo modo de intra predicción para todos los sub-bloques dentro de la unidad de predicción.
A continuación, se genera un bloque de predicción según el modo de intra predicción (S1300).
60
La figura 6 es un diagrama de flujo que ilustra un procedimiento de generar el bloque de predicción según un ejemplo.
Se determina si todos los píxeles de referencia del bloque actual están disponibles, y se generan píxeles de referencia si uno o más píxeles de referencia no están disponibles (S1210). El bloque actual es la unidad de predicción actual o el sub-bloque de la unidad de predicción actual. El tamaño del bloque actual es el tamaño de la unidad de transformación.
5
La figura 7 es un diagrama conceptual que ilustra las posiciones de los píxeles de referencia del bloque actual según un ejemplo.
Como se muestra en la figura 7, los píxeles de referencia de los bloques actuales están compuestos por píxeles de 10 referencia superiores ubicados en (x=0,..., 2N-1, y=-1), píxeles de referencia izquierdos situados en (x=1-, y=0,..., 2M-1) y un píxel de esquina ubicado en (x=-1, y=-1). N es el ancho del bloque actual y M es la altura del bloque actual.
Si uno o más píxeles de referencia no están disponibles, se generan uno o más píxeles de referencia de la siguiente 15 manera.
Si todos los píxeles de referencia no están disponibles, un valor constante sustituye a los valores de todos los píxeles de referencia. El valor constante es 2L-1, y el valor de L es el número de bits utilizados para representar un valor de luminancia de píxel.
20
Si los píxeles de referencia disponibles están situados a un solo lado del píxel de referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible sustituye al píxel de referencia no disponible.
Si los píxeles de referencia disponibles están situados a ambos lados del píxel de referencia no disponible, el valor 25 del píxel de referencia más cercano al píxel no disponible en una dirección predeterminada sustituye a cada píxel de referencia no disponible.
Los píxeles de referencia son filtrados de forma adaptativa en base al modo de intra predicción y el tamaño del bloque actual (S1220). El tamaño del bloque actual es el tamaño de la unidad de transformación.
30
En el modo DC, los píxeles de referencia no son filtrados. En el modo vertical y el modo horizontal, los píxeles de referencia no son filtrados. En los modos direccionales distintos de los modos vertical y horizontal, se adaptan los píxeles de referencia según el tamaño del bloque actual.
35 Si el tamaño del bloque actual es 4x4, los píxeles de referencia no son filtrados en todos los modos de intra predicción. Para el tamaño 8x8, 16x16 y 32x32, el número de modo de inter predicción en el que se filtran los píxeles de referencia aumenta a medida que el tamaño del bloque actual se hace mayor.
Se genera un bloque de predicción del bloque actual usando los píxeles de referencia según el modo de intra 40 predicción restablecido (S1230).
En el modo DC, se generan los píxeles de predicción copiando el valor promedio de los N píxeles de referencia ubicados en (x=0,... N-1, y=-1) y los M píxeles de referencia ubicados en (x=-1, y=0,...M-1). El píxel de predicción adyacente al píxel de referencia es filtrado por uno o dos píxeles de referencia adyacentes.
45
En el modo vertical, se generan los píxeles de predicción copiando el valor del correspondiente píxel de referencia vertical. Los píxeles de predicción adyacentes al píxel de referencia izquierdo son filtrados utilizando el píxel de esquina y el píxel vecino izquierdo.
50 En el modo horizontal, los píxeles de predicción son generados copiando el valor del correspondiente píxel de referencia horizontal. Los píxeles de predicción adyacentes al píxel de referencia superior son filtrados utilizando el píxel de esquina y el píxel vecino superior.
A continuación, se genera un bloque residual según el modo de intra predicción (S1400).
55
La figura 8 es un diagrama de flujo que ilustra un procedimiento de generar el bloque residual según la presente invención.
Las señales residuales codificadas son decodificadas por entropía para generar información de coeficientes 60 cuantificados (S1410). Cuando se utiliza CABAC para la codificación de entropía, la información de coeficientes incluye banderas significativas, signos de coeficientes y niveles de coeficientes. La bandera significativa indica si el correspondiente coeficiente de transformación cuantificado es cero o no es cero. El signo de coeficiente indica un
signo de coeficiente de transformación cuantificado distinto de cero, y el nivel de coeficiente indica un valor absoluto del coeficiente de transformación cuantificado distinto de cero.
Se determina un patrón de exploración inversa y se genera un bloque cuantificado de acuerdo con el patrón de 5 exploración inversa (S1420). La etapa es realizada por la unidad de exploración inversa 220 de la figura 2. Por lo tanto, se realiza la misma operación de la unidad de exploración inversa 220 para determinar el patrón de exploración inversa y para generar el bloque cuantificado.
El bloque cuantificado es cuantificado inversamente usando un parámetro de cuantificación (S1430).
10
La figura 9 es un diagrama de flujo que ilustra un procedimiento de derivar el parámetro de cuantificación según un ejemplo.
Se deriva un tamaño mínimo de la unidad de cuantificación (S1431). El tamaño mínimo de la unidad de 15 cuantificación es igual al tamaño de la LCU o al tamaño del sub-bloque de la LCU. El tamaño mínimo de la unidad de cuantificación es determinado por cada imagen. Se extrae un parámetro (cu_qp_delta_enabled_info) del PPS (conjunto de parámetros de la imagen) que especifica la profundidad del tamaño mínimo de la unidad de cuantificación. El tamaño mínimo de la unidad de cuantificación se deriva con la siguiente ecuación:
20 Log2(MinQUSize) = Log2(MaxCUSize) - cu_qp_delta_enabled_info
MinQUSize es el tamaño mínimo de la unidad de cuantificación. MaxCUSize es el tamaño de la LCU. Sólo se usa un parámetro para derivar el tamaño mínimo de la unidad de cuantificación.
25 Se restablece un parámetro de cuantificación diferencial (dQP) de la unidad de codificación actual (S1432). El dQP se restablece por cada unidad de cuantificación. Por ejemplo, si el tamaño de la unidad de codificación actual es igual o mayor que el tamaño mínimo de la unidad de cuantificación, el dQP es restablecido para la unidad de codificación actual. Si la unidad de codificación actual no contiene un dQP codificado, el dQP se pone a cero. Si la unidad de cuantificación incluye varias unidades de codificación, una primera unidad de codificación que contiene el 30 dQP y la siguiente unidad de codificación dentro de la unidad de cuantificación tienen el mismo dQP.
El dQP codificado es decodificado aritméticamente para generar una secuencia binaria (bin string), y se convierte la secuencia binaria en el dQP. La secuencia binaria comprende un indicador binario (bin) para indicar si el dQP es cero o no es cero. Cuando el dQP no es cero, la secuencia binaria comprende además un indicador binario para el 35 signo del dQP, y una secuencia binaria para indicar el valor absoluto del dQP.
Se genera un predictor de parámetro de cuantificación de la unidad de codificación actual (S1433). El predictor de parámetro de cuantificación se genera usando la misma operación de la unidad de cuantificación inversa 230 de la figura 2.
40
Si la unidad de cuantificación incluye varias unidades de codificación, se genera el predictor de parámetro de cuantificación de la primera unidad de codificación en el orden de decodificación, y se usa el predictor de parámetro de cuantificación generado para todas las unidades de codificación dentro de la unidad de cuantificación.
45 El parámetro de cuantificación es generado utilizando el dQP y el predictor del parámetro de cuantificación (S1434).
Mientras tanto, también se restablecen las matrices de cuantificación definidas por el usuario. Se recibe un conjunto de las matrices de cuantificación definidas por el usuario procedente del aparato de codificación a través del SPS (conjunto de parámetros de secuencia) o del PPS. La matriz de cuantificación definida por el usuario se restablece 50 utilizando la DPCM (modulación por codificación de impulsos diferencial) inversa. Se usa la exploración en diagonal para la DPCM. Cuando el tamaño de la matriz de cuantificación definida por el usuario es mayor que 8x8, se restablece la matriz de cuantificación definida por el usuario realizando un muestreo de subida (up-sampling) de los coeficientes de la matriz de cuantificación 8x8 recibida. El coeficiente DC de la matriz de cuantificación definida por el usuario es extraído del SPS o del PPS. Por ejemplo, si el tamaño de la matriz de cuantificación definida por el 55 usuario es de 16x16, se hace un muestreo de subida (up-sampling) de los coeficientes de la matriz de cuantificación 8x8 recibida usando un muestreo de subida de 1:4.
Se genera un bloque residual transformando inversamente el bloque cuantificado inversamente (S1440). Se determina de forma adaptativa un tipo de transformación inversa según el modo de predicción y el tamaño de la 60 unidad de transformación. El tipo de transformación inversa es la transformación de enteros basada en DCT o la transformación de enteros basada en DST. En el modo de intra predicción, si el tamaño de la unidad de transformación es menor que un tamaño predeterminado, se usan transformadas de enteros basadas en DST, de lo contrario se usan las transformadas de enteros basadas en DCT.
A continuación, se genera un bloque reconstruido agregando el bloque de predicción y el bloque residual (S1500).
La figura 10 es un diagrama de bloques que ilustra un aparato de generación de un bloque reconstruido 300 según 5 un ejemplo.
Como se muestra en la figura 10, el aparato 300 según el presente ejemplo incluye una unidad de derivación de modo de predicción 310, una unidad de determinación de tamaño de predicción 320, una unidad de generación de bloque de predicción 330, una unidad de generación de bloque residual 340 y una unidad de generación de bloque 10 reconstruido 350.
La unidad de derivación del modo de intra predicción 310 deriva el modo de intra predicción de la unidad de predicción actual. La unidad de derivación del modo de intra predicción 310 realiza el mismo procedimiento de la figura 4 para derivar el modo de intra predicción.
15
La unidad de determinación de tamaño de predicción 320 determina el tamaño del bloque actual usando el tamaño de la unidad de predicción actual y la información del tamaño de transformación. El tamaño del bloque actual es igual al tamaño de la unidad de transformación. Un bloque de predicción y un bloque residual del bloque actual tienen el mismo tamaño de la unidad de transformación. La unidad de predicción actual o un sub-bloque de la unidad 20 de predicción actual se determina como el bloque actual en base a la información de tamaño de transformación.
La unidad de generación del bloque de predicción 330 genera el bloque de predicción del bloque actual usando el modo de intra predicción. La unidad de generación del bloque de predicción 330 incluye un generador de píxeles de referencia 331, un filtro de píxeles de referencia 332 y un generador del bloque de predicción 333.
25
El generador de píxeles de referencia 331 genera píxeles de referencia si uno o más píxeles de referencia del bloque actual no están disponibles. Si todos los píxeles de referencia no están disponibles, el valor de 2L-1 sustituye a los valores de todos los píxeles de referencia. El valor de L es la cantidad de bits utilizados para representar el valor de luminancia de píxel. Si los píxeles de referencia disponibles están situados a un solo lado del píxel de 30 referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible sustituye al píxel de referencia no disponible. Si los píxeles de referencia disponibles están situados a ambos lados del píxel de referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible en una dirección predeterminada sustituye a cada píxel de referencia no disponible.
35 El filtro de píxel de referencia 332 filtra de forma adaptativa los píxeles de referencia en base al modo de intra predicción y al tamaño de la unidad de transformación.
En el modo DC, los píxeles de referencia no son filtrados. En el modo vertical y el modo horizontal, los píxeles de referencia no son filtrados. En los modos direccionales distintos de los modos vertical y horizontal, los píxeles de 40 referencia son adaptados según el tamaño del bloque actual.
Si el tamaño del bloque actual es 4x4, los píxeles de referencia no son filtrados en todos los modos de intra predicción. Para el tamaño 8x8, 16x16 y 32x32, el número de modos de inter predicción en los que se filtran los píxeles de referencia aumenta a medida que aumenta el tamaño del bloque actual. Por ejemplo, los píxeles de 45 referencia no son filtrados en el modo vertical y un número predeterminado de modo de intra predicción vecino del modo vertical. Los píxeles de referencia tampoco son filtrados en el modo horizontal y el número predeterminado de modo de intra predicción vecino del modo horizontal. El número predeterminado es uno de entre el 0 al 7 y disminuye a medida que aumenta el tamaño del bloque actual.
50 El generador de bloque de predicción 333 genera un bloque de predicción del bloque actual usando los píxeles de referencia según el modo de intra predicción.
En el modo DC, los píxeles de predicción son generados copiando el valor promedio de los N píxeles de referencia ubicados en (x=0,... N-1, y=-1) y los M píxeles de referencia ubicados en (x=-1, y=0,... M-1). El píxel de predicción 55 adyacente al píxel de referencia es filtrado por uno o dos píxeles de referencia adyacentes.
En el modo vertical, los píxeles de predicción son generados copiando el valor del píxel de referencia vertical. Los píxeles de predicción adyacentes al píxel de referencia izquierdo son filtrados usando el píxel de referencia de esquina y el píxel de referencia vecino izquierdo.
60
En el modo horizontal, los píxeles de predicción son generados copiando el valor del píxel de referencia horizontal. Los píxeles de predicción adyacentes al píxel de referencia superior son filtrados usando el píxel de referencia de esquina y el píxel de referencia vecino superior.
La unidad de generación de bloque residual 340 genera el bloque residual del bloque actual usando el modo de intra predicción. El mismo procedimiento de la figura 8 es realizado por la unidad de generación de bloque residual 340.
5 La unidad de generación de bloque reconstruido 350 agrega el bloque de predicción y el bloque residual para generar el bloque reconstruido del bloque actual.
Aunque la invención se ha mostrado y descrito con referencia a ciertas realizaciones de ejemplo de la misma, los expertos en la técnica entenderán que pueden realizarse diversos cambios en la forma y detalles sin apartarse del 10 alcance de las reivindicaciones adjuntas.

Claims (4)

  1. REIVINDICACIONES
    1. Un procedimiento de generar un bloque reconstruido, que comprende:
    5 derivar (S1100) un modo de intra predicción de una unidad de predicción usando tres modos de intra predicción que se determinan en base a modos de intra predicción izquierdo y superior;
    determinar (S1200) un tamaño de un bloque actual usando información de tamaño de transformación;
    generar (S1300) un bloque de predicción del bloque actual según el modo de intra predicción;
    generar (S1400) un bloque residual del bloque actual según el modo de intra predicción y el tamaño del bloque
    10 actual; y
    generar (S1500) un bloque reconstruido del bloque actual usando el bloque de predicción y el bloque residual,
    en el que el tamaño del bloque actual es igual o menor que un tamaño de la unidad de predicción, y los tamaños del bloque de predicción, bloque residual y bloque reconstruido son iguales a un tamaño de una unidad de transformación, y
    15 la información de tamaño de transformación incluye una o más banderas de división de unidad de transformación, split_tu_flags,
    en el que derivar un modo de intra predicción de una unidad de predicción comprende:
    - construir (S1120) un grupo de modos más probables, MPM, que se compone de tres modos de intra predicción usando el modo de intra predicción izquierdo y el modo de intra predicción superior;
    20 - determinar (S1130) si un indicador de grupo de modos, que es una bandera, indica o no el grupo de MPM;
    - establecer (S1140) un modo de intra predicción del grupo de MPM especificado por un índice de modo de predicción como el modo de intra predicción de la unidad de predicción si el indicador de grupo de modos indica el grupo de MPM;
    caracterizado por
    25 - determinar (S1190) el modo de intra predicción de la unidad de predicción comparando el índice de modo de
    predicción con los tres modos de intra predicción del grupo de MPM si el indicador de grupo de modos no indica el grupo de MPM,
    en el que si uno de entre el modo de intra predicción izquierdo y el modo de intra predicción superior está disponible, el grupo de MPM se compone del modo de intra predicción disponible y dos modos de intra predicción
    30 adicionales, y el modo DC y el modo plano son establecidos como los dos modos de intra predicción adicionales, si el modo de intra predicción disponible es un modo de intra predicción direccional.
  2. 2. El procedimiento de la reivindicación 1, en el que generar el bloque residual del bloque actual según el modo de intra predicción comprende:
    35 decodificar por entropía (S1410) las señales residuales codificadas para generar información de coeficiente cuantificado;
    explorar inversamente (S1420) la información de coeficiente cuantificado para generar un bloque cuantificado usando un patrón de exploración inversa que se determina según el modo de intra predicción y un tamaño del bloque actual; y
    40 cuantificar inversamente (S1430) y transformar inversamente (S1440) el bloque cuantificado usando un parámetro de cuantificación y una transformación inversa,
    en el que un tipo de la transformación inversa es determinado por el tamaño de la unidad de transformación.
  3. 3. El procedimiento de la reivindicación 2, en el que el patrón de exploración inversa se selecciona de entre una
    45 exploración en diagonal, una exploración vertical y una exploración horizontal y
    cuando el tamaño del bloque cuantificado es mayor que un tamaño predeterminado, se genera una pluralidad de subconjuntos y se genera el bloque cuantificado explorando inversamente la pluralidad de subconjuntos usando el patrón de exploración inversa.
    50 4. El procedimiento de la reivindicación 2,en el que cuando dos o más de entre un parámetro de cuantificación izquierda, un parámetro de cuantificación superior y un parámetro de cuantificación anterior están disponibles, se genera el parámetro de cuantificación como el promedio de los primeros dos parámetros de cuantificación disponibles, los cuales son determinados en un orden del parámetro de cuantificación izquierda, parámetro de cuantificación superior y parámetro de cuantificación anterior.
    55
  4. 5. El procedimiento de la reivindicación 4, en el que el parámetro de cuantificación es generado sumando el promedio de los primeros dos parámetros de cuantificación disponibles y un parámetro de cuantificación diferencial, en el que el parámetro de cuantificación diferencial es restablecido usando una secuencia binaria (bin string) que indica el valor del parámetro de cuantificación diferencial, en el que la secuencia binaria que indica el valor del
    60 parámetro de cuantificación diferencial incluye una secuencia binaria (bin string) para indicar un valor absoluto del parámetro de cuantificación diferencial y un indicador binario (bin) para indicar un signo del parámetro de cuantificación diferencial cuando el valor del parámetro de cuantificación diferencial no es cero.
ES12846401.3T 2011-11-04 2012-11-02 Procedimiento de generación de un bloque reconstruido Active ES2669502T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020110114609A KR20130049525A (ko) 2011-11-04 2011-11-04 잔차 블록 복원을 위한 역변환 방법
KR20110114609 2011-11-04
PCT/CN2012/083994 WO2013064099A1 (en) 2011-11-04 2012-11-02 Method of generating reconstructed block

Publications (1)

Publication Number Publication Date
ES2669502T3 true ES2669502T3 (es) 2018-05-28

Family

ID=48191360

Family Applications (2)

Application Number Title Priority Date Filing Date
ES18158853T Active ES2881980T3 (es) 2011-11-04 2012-11-02 Procedimiento de derivar un modo de intra predicción
ES12846401.3T Active ES2669502T3 (es) 2011-11-04 2012-11-02 Procedimiento de generación de un bloque reconstruido

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES18158853T Active ES2881980T3 (es) 2011-11-04 2012-11-02 Procedimiento de derivar un modo de intra predicción

Country Status (29)

Country Link
US (8) US9014262B2 (es)
EP (5) EP3364373A1 (es)
JP (6) JP5789343B2 (es)
KR (4) KR20130049525A (es)
CN (8) CN107770535B (es)
AU (5) AU2012331601B2 (es)
BR (4) BR122020014298B1 (es)
CA (7) CA2913567C (es)
CY (1) CY1120400T1 (es)
DK (1) DK2774122T3 (es)
ES (2) ES2881980T3 (es)
HR (1) HRP20181016T1 (es)
HU (2) HUE054637T2 (es)
IL (5) IL231705A (es)
IN (1) IN2014CN03908A (es)
LT (1) LT2774122T (es)
MX (7) MX356330B (es)
MY (6) MY190516A (es)
NO (1) NO2774122T3 (es)
PE (1) PE20142032A1 (es)
PL (2) PL3346447T3 (es)
PT (1) PT2774122T (es)
RS (1) RS57282B1 (es)
RU (5) RU2710996C2 (es)
SG (2) SG10201607196UA (es)
SI (1) SI2774122T1 (es)
TW (6) TWI603610B (es)
WO (1) WO2013064099A1 (es)
ZA (2) ZA201600849B (es)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013047805A1 (ja) 2011-09-29 2013-04-04 シャープ株式会社 画像復号装置、画像復号方法および画像符号化装置
EP3754982B1 (en) * 2011-09-29 2024-05-01 SHARP Kabushiki Kaisha Image decoding device, image decoding method, image encoding method and image encoding device for performing bi-prediction to uni-prediction conversion
PL3379833T3 (pl) * 2011-10-18 2021-12-13 Lg Electronics Inc. Sposób intra-predykcji i jego urządzenie
EP2942954B1 (en) * 2011-10-24 2020-06-03 Innotive Ltd Image decoding apparatus
DK2773118T3 (da) 2011-10-24 2020-12-07 Innotive Ltd Fremgangsmåde og apparat til billedafkodning
KR20130049522A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
US10277915B2 (en) 2011-11-07 2019-04-30 Qualcomm Incorporated Signaling quantization matrices for video coding
KR20130050407A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 움직임 정보 생성 방법
KR102182628B1 (ko) * 2011-12-05 2020-11-24 엘지전자 주식회사 인트라 예측 방법 및 장치
HUE063933T2 (hu) * 2012-06-29 2024-02-28 Electronics & Telecommunications Res Inst Eljárás és eszköz képek kódolására/dekódolására
US9380307B2 (en) * 2012-11-19 2016-06-28 Qualcomm Incorporated Method and system for intra base layer (BL) transform in video coding
US11470339B2 (en) 2013-08-27 2022-10-11 Qualcomm Incorporated Residual prediction for intra block copying
CN104219531B (zh) * 2014-09-29 2018-02-06 北方工业大学 基于线状帧内块拷贝的hevc屏幕内容编码
JP6671339B2 (ja) 2015-02-27 2020-03-25 Kddi株式会社 符号化装置及び復号装置
US9769499B2 (en) * 2015-08-11 2017-09-19 Google Inc. Super-transform video coding
EP3340632B1 (en) * 2015-08-19 2021-08-11 LG Electronics Inc. Method and device for processing video signals
US10547854B2 (en) 2016-05-13 2020-01-28 Qualcomm Incorporated Neighbor based signaling of intra prediction modes
KR102447450B1 (ko) * 2016-09-05 2022-09-26 엘지전자 주식회사 영상 부호화/복호화 방법 및 이를 위한 장치
WO2018061550A1 (ja) * 2016-09-28 2018-04-05 シャープ株式会社 画像復号装置及び画像符号化装置
US10506228B2 (en) 2016-10-04 2019-12-10 Qualcomm Incorporated Variable number of intra modes for video coding
US10728578B2 (en) 2017-03-06 2020-07-28 Sony Corporation Bias minimization for successive image reconstruction based on embedded codec circuitry
MX2019012294A (es) 2017-04-13 2020-01-27 Lg Electronics Inc Metodo de codificacion/decodificacion de imagenes y dispositivo para el mismo.
WO2018205914A1 (en) * 2017-05-10 2018-11-15 Mediatek Inc. Method and apparatus of reordering motion vector prediction candidate set for video coding
KR20230152835A (ko) 2017-10-18 2023-11-03 삼성전자주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
GB2567861A (en) 2017-10-27 2019-05-01 Sony Corp Image data encoding and decoding
US11381814B2 (en) 2018-03-08 2022-07-05 Samsung Electronics Co., Ltd. Video decoding method and device, and video encoding method and device
EP3777144A4 (en) * 2018-03-30 2021-12-22 Hulu, LLC SIGNALING OF INTRA PREDICTION MODE FOR VIDEO ENCODING
US10893285B2 (en) * 2018-06-29 2021-01-12 FG Innovation Company Limited Device and method for coding video data based on one or more reference lines
WO2020071871A1 (ko) * 2018-10-05 2020-04-09 엘지전자 주식회사 영상 서비스 처리 방법 및 그 장치
CN118214860A (zh) * 2018-10-12 2024-06-18 英迪股份有限公司 图像解码和编码方法、数字存储介质、发送比特流的方法
US11159789B2 (en) 2018-10-24 2021-10-26 City University Of Hong Kong Generative adversarial network based intra prediction for video coding
CN111263156B (zh) * 2019-02-20 2022-03-25 北京达佳互联信息技术有限公司 视频解码方法、视频编码方法及装置
US11997300B2 (en) 2019-03-11 2024-05-28 Lg Electronics Inc. Method and apparatus for video encoding/decoding using IBC mode, and method for transmitting bitstream
CN117241014A (zh) * 2019-06-05 2023-12-15 华为技术有限公司 Mpm列表构建方法、色度块的帧内预测模式获取方法及装置
MX2022000028A (es) 2019-06-24 2022-03-11 Lg Electronics Inc Método y aparato de codificación/decodificación de imágenes usando ajuste de tamaño de transformación máximo para bloque de croma, y método para transmitir flujo de bits.
EP3965416B1 (en) 2020-09-08 2022-08-03 Axis AB Method and device for intra-coding an image frame

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7236524B2 (en) * 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
JP5017086B2 (ja) * 2002-07-15 2012-09-05 日立コンシューマエレクトロニクス株式会社 動画像復号化方法
JP2006005438A (ja) * 2004-06-15 2006-01-05 Sony Corp 画像処理装置およびその方法
KR100621581B1 (ko) * 2004-07-15 2006-09-13 삼성전자주식회사 기초 계층을 포함하는 비트스트림을 프리디코딩,디코딩하는 방법, 및 장치
CN100348051C (zh) * 2005-03-31 2007-11-07 华中科技大学 一种增强型帧内预测模式编码方法
KR100678911B1 (ko) * 2005-07-21 2007-02-05 삼성전자주식회사 방향적 인트라 예측의 적용을 확장하여 비디오 신호를인코딩하고 디코딩하는 방법 및 장치
KR101311402B1 (ko) * 2006-03-23 2013-09-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
CN101087427B (zh) * 2006-06-06 2011-04-06 北京大学深圳研究生院 一种h.264标准的帧内预测模式选择方法
KR100927733B1 (ko) * 2006-09-20 2009-11-18 한국전자통신연구원 잔여계수의 상관성에 따라 변환기를 선택적으로 이용한부호화/복호화 장치 및 그 방법
US8275039B2 (en) 2006-11-07 2012-09-25 Samsung Electronics Co., Ltd. Method of and apparatus for video encoding and decoding based on motion estimation
TW200830881A (en) * 2007-01-10 2008-07-16 Beyond Innovation Tech Co Ltd Method for processing images
JP5026092B2 (ja) * 2007-01-12 2012-09-12 三菱電機株式会社 動画像復号装置および動画像復号方法
JP2008193627A (ja) * 2007-01-12 2008-08-21 Mitsubishi Electric Corp 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法
US8233537B2 (en) * 2007-03-19 2012-07-31 Texas Instruments Incorporated Efficient implementation of H.264 4 by 4 intra prediction on a VLIW processor
WO2008120434A1 (ja) * 2007-03-28 2008-10-09 Panasonic Corporation 復号化回路、復号化方法、符号化回路及び符号化方法
US20090147849A1 (en) * 2007-12-07 2009-06-11 The Hong Kong University Of Science And Technology Intra frame encoding using programmable graphics hardware
KR100940444B1 (ko) * 2007-12-18 2010-02-10 한국전자통신연구원 공간적 에지 검출을 이용한 인트라 예측 모드 구성 방법
US20090161757A1 (en) * 2007-12-21 2009-06-25 General Instrument Corporation Method and Apparatus for Selecting a Coding Mode for a Block
US8542730B2 (en) * 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
KR101591825B1 (ko) * 2008-03-27 2016-02-18 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩 방법 및 장치
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
US8634456B2 (en) * 2008-10-03 2014-01-21 Qualcomm Incorporated Video coding with large macroblocks
US8514942B2 (en) * 2008-12-31 2013-08-20 Entropic Communications, Inc. Low-resolution video coding content extraction
WO2010131903A2 (en) * 2009-05-12 2010-11-18 Lg Electronics Inc. Method and apparatus for processing a video signal
CN104822066A (zh) * 2009-07-01 2015-08-05 汤姆森特许公司 用于视频编码器和解码器的方法和装置
CN101621692B (zh) * 2009-07-27 2011-04-20 宁波大学 一种基于预测模式的h.264/avc视频信息隐藏方法
KR101452860B1 (ko) * 2009-08-17 2014-10-23 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR101507344B1 (ko) * 2009-08-21 2015-03-31 에스케이 텔레콤주식회사 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체
KR20110065089A (ko) * 2009-12-09 2011-06-15 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR101487687B1 (ko) * 2010-01-14 2015-01-29 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
CN101854551B (zh) * 2010-06-08 2012-08-15 浙江大学 帧内预测模式编解码方法及装置
US9661338B2 (en) * 2010-07-09 2017-05-23 Qualcomm Incorporated Coding syntax elements for adaptive scans of transform coefficients for video coding
US9378185B2 (en) * 2010-09-30 2016-06-28 Texas Instruments Incorporated Transform and quantization architecture for video coding and decoding
US20120230418A1 (en) * 2011-03-08 2012-09-13 Qualcomm Incorporated Coding of transform coefficients for video coding
WO2012122495A1 (en) 2011-03-10 2012-09-13 Huawei Technologies Co., Ltd. Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness
US9654785B2 (en) * 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
GB2494468B (en) 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
BR112013014374B8 (pt) * 2011-09-13 2022-08-30 Mediatek Singapore Pte Ltd Método e aparelho para codificação de modo intra em hevc
CN107197309B (zh) 2011-10-07 2020-02-18 英迪股份有限公司 对视频信号进行解码的方法
CN104935941B (zh) * 2011-10-24 2018-06-19 英孚布瑞智有限私人贸易公司 对帧内预测模式进行解码的方法
EP2942954B1 (en) * 2011-10-24 2020-06-03 Innotive Ltd Image decoding apparatus
DK2773118T3 (da) * 2011-10-24 2020-12-07 Innotive Ltd Fremgangsmåde og apparat til billedafkodning
KR20130049522A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법

Also Published As

Publication number Publication date
RU2016142727A3 (es) 2019-10-31
US20140247868A1 (en) 2014-09-04
CA2913566A1 (en) 2013-05-10
US20150189274A1 (en) 2015-07-02
CA3111640A1 (en) 2013-05-10
JP6367413B2 (ja) 2018-08-01
US20150189275A1 (en) 2015-07-02
JP5789343B2 (ja) 2015-10-07
EP2774122A4 (en) 2015-07-29
RS57282B1 (sr) 2018-08-31
US9503726B2 (en) 2016-11-22
CN107734334B (zh) 2020-07-24
CA3057770C (en) 2021-04-27
US9344728B2 (en) 2016-05-17
CA2913567C (en) 2017-09-26
HUE037565T2 (hu) 2018-09-28
MX356330B (es) 2018-05-24
JP2015195617A (ja) 2015-11-05
CN107682697B (zh) 2020-06-09
MX340476B (es) 2016-07-08
KR20130049525A (ko) 2013-05-14
PT2774122T (pt) 2018-07-03
TWI603610B (zh) 2017-10-21
AU2016203216B2 (en) 2017-12-14
PE20142032A1 (es) 2014-12-17
US20170041603A1 (en) 2017-02-09
US20200228799A1 (en) 2020-07-16
HRP20181016T1 (hr) 2018-11-02
IL231705A0 (en) 2014-05-28
AU2016203214A1 (en) 2016-06-09
SG10201607196UA (en) 2016-10-28
JP2015195615A (ja) 2015-11-05
TWI684350B (zh) 2020-02-01
WO2013064099A1 (en) 2013-05-10
ZA201600847B (en) 2017-05-31
JP2015195614A (ja) 2015-11-05
CY1120400T1 (el) 2019-07-10
US20150189273A1 (en) 2015-07-02
US10015489B2 (en) 2018-07-03
TWI650001B (zh) 2019-02-01
RU2014111828A (ru) 2015-12-10
EP2774122B1 (en) 2018-04-11
AU2012331601A1 (en) 2014-04-10
CA2976066C (en) 2019-12-03
CA2976066A1 (en) 2013-05-10
BR122020014288B1 (pt) 2021-07-13
TW201743608A (zh) 2017-12-16
TW202013959A (zh) 2020-04-01
RU2604340C2 (ru) 2016-12-10
RU2016142729A (ru) 2018-12-17
AU2016203215A1 (en) 2016-06-09
CN107770535A (zh) 2018-03-06
CN103096067A (zh) 2013-05-08
JP6118374B2 (ja) 2017-04-19
JP2014534751A (ja) 2014-12-18
MY170819A (en) 2019-08-30
MX2018006177A (es) 2023-03-06
RU2711306C2 (ru) 2020-01-16
CN107682697A (zh) 2018-02-09
AU2012331601B2 (en) 2016-02-18
SI2774122T1 (en) 2018-06-29
US20180288412A1 (en) 2018-10-04
RU2710996C2 (ru) 2020-01-14
MX2014003912A (es) 2014-07-28
IL247675B (en) 2018-04-30
RU2016142728A (ru) 2018-12-17
US9014262B2 (en) 2015-04-21
RU2016142725A (ru) 2018-12-17
CA2913566C (en) 2018-04-10
CN107770534A (zh) 2018-03-06
SG11201400674SA (en) 2014-04-28
AU2016203217A1 (en) 2016-06-09
IL247676A (en) 2017-10-31
CA2913567A1 (en) 2013-05-10
AU2016203215B2 (en) 2017-12-14
JP2015195616A (ja) 2015-11-05
TWI715506B (zh) 2021-01-01
RU2016142725A3 (es) 2019-12-02
MY190529A (en) 2022-04-27
JP6116626B2 (ja) 2017-04-19
BR122020014293B1 (pt) 2021-07-20
MY190514A (en) 2022-04-26
MX340477B (es) 2016-07-08
CN107613293B (zh) 2020-10-20
EP3379492A1 (en) 2018-09-26
TWI558170B (zh) 2016-11-11
PL2774122T3 (pl) 2018-09-28
RU2016142729A3 (es) 2019-11-29
LT2774122T (lt) 2018-06-11
AU2016203216A1 (en) 2016-06-09
EP3364372A1 (en) 2018-08-22
IL247674B (en) 2019-09-26
TW201644274A (zh) 2016-12-16
JP2017130969A (ja) 2017-07-27
RU2711467C2 (ru) 2020-01-17
MX340475B (es) 2016-07-08
RU2016142728A3 (es) 2019-10-31
JP6101316B2 (ja) 2017-03-22
IL247674A0 (en) 2016-11-30
CN107770534B (zh) 2020-08-04
EP3364373A1 (en) 2018-08-22
CA3111640C (en) 2023-10-31
PL3346447T3 (pl) 2021-11-29
EP3346447B1 (en) 2021-04-28
IL247673B (en) 2018-04-30
US10623732B2 (en) 2020-04-14
ZA201600849B (en) 2017-05-31
EP2774122A1 (en) 2014-09-10
EP3346447A1 (en) 2018-07-11
CN107809640B (zh) 2020-06-09
RU2016142727A (ru) 2018-12-18
TWI699992B (zh) 2020-07-21
TW201921926A (zh) 2019-06-01
CN107682696A (zh) 2018-02-09
CN107682696B (zh) 2020-06-23
BR122020014298B1 (pt) 2021-07-20
IN2014CN03908A (es) 2015-10-16
JP6116625B2 (ja) 2017-04-19
CA2849028C (en) 2016-01-26
MX340474B (es) 2016-07-08
BR122020014282B1 (pt) 2021-07-20
ES2881980T3 (es) 2021-11-30
TW202037158A (zh) 2020-10-01
CA3212893A1 (en) 2013-05-10
DK2774122T3 (en) 2018-07-16
CN107613293A (zh) 2018-01-19
CN103096067B (zh) 2017-11-28
KR20140070598A (ko) 2014-06-10
KR20140066760A (ko) 2014-06-02
MY190516A (en) 2022-04-26
MY190530A (en) 2022-04-27
RU2710995C2 (ru) 2020-01-14
AU2016203214B2 (en) 2018-01-18
KR20140074348A (ko) 2014-06-17
MY190515A (en) 2022-04-26
IL231705A (en) 2016-09-29
US10917640B2 (en) 2021-02-09
AU2016203217B2 (en) 2017-12-14
CA3057770A1 (en) 2013-05-10
CN107770535B (zh) 2020-07-14
US9497463B2 (en) 2016-11-15
CN107734334A (zh) 2018-02-23
CA2849028A1 (en) 2013-05-10
CN107809640A (zh) 2018-03-16
US9497462B2 (en) 2016-11-15
US20150195530A1 (en) 2015-07-09
HUE054637T2 (hu) 2021-09-28
TW201342936A (zh) 2013-10-16
NO2774122T3 (es) 2018-09-08

Similar Documents

Publication Publication Date Title
ES2669502T3 (es) Procedimiento de generación de un bloque reconstruido
ES2673191T3 (es) Aparato de decodificación de datos de video
ES2673189T3 (es) Procedimiento de derivación de modo de intra predicción
ES2710234B1 (es) Procedimiento y dispositivo para procesar señales de vídeo
ES2748233T3 (es) Procedimiento de generación de un bloque cuantificado
ES2657908T3 (es) Procedimiento para decodificar una imagen de croma
BR112014007869B1 (pt) Método para gerar um bloco reconstruído