ES2634819T3 - Aparato para codificar una imagen - Google Patents

Aparato para codificar una imagen Download PDF

Info

Publication number
ES2634819T3
ES2634819T3 ES15187283.5T ES15187283T ES2634819T3 ES 2634819 T3 ES2634819 T3 ES 2634819T3 ES 15187283 T ES15187283 T ES 15187283T ES 2634819 T3 ES2634819 T3 ES 2634819T3
Authority
ES
Spain
Prior art keywords
block
unit
intra prediction
prediction
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15187283.5T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M&K Holdings Inc
Original Assignee
M&K Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45559906&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2634819(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by M&K Holdings Inc filed Critical M&K Holdings Inc
Application granted granted Critical
Publication of ES2634819T3 publication Critical patent/ES2634819T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

Un aparato para codificar una imagen, comprendiendo el aparato: una unidad (150) de intra predicción configurada para generar un bloque de predicción correspondiente a un bloque actual de acuerdo con un modo de intra predicción seleccionado de entre una pluralidad de modos de intra predicción; una unidad (120) de transformada configurada para transformar un bloque residual obtenido calculando la diferencia entre un bloque original del bloque actual y el bloque de predicción para generar un bloque de transformada; una unidad (130) de cuantificación configurada para cuantificar el bloque de transformada para generar un bloque de transformada cuantificado usando un tamaño de paso de cuantificación; una unidad (131) de exploración configurada para explorar los coeficientes de transformada cuantificados del bloque de transformada cuantificado para generar unos coeficientes de transformada cuantificados unidimensionales (1D); y una unidad (140) de codificación por entropía configurada para la codificación entrópica de los coeficientes de transformada cuantificados 1D, en el que, cuando un tamaño del bloque de transformada es más grande que 4x4, la unidad (131) de exploración divide los coeficientes de transformada cuantificados en una pluralidad de sub-bloques, en el que la unidad (150) de intra predicción incluye: una unidad (151) de generación de píxeles de referencia configurada para generar píxeles de referencia usando píxeles de referencia disponibles del bloque actual cuando existen píxeles de referencia no disponibles; una unidad (152) de filtrado de píxeles de referencia configurada para filtrar de manera adaptativa los píxeles de referencia adyacentes al bloque actual en base al modo de intra predicción seleccionado y a un tamaño del bloque actual; una unidad (153) de generación de bloques de predicción configurada para generar el bloque de predicción del bloque actual de acuerdo con el modo de intra predicción seleccionado; y una unidad (154) de filtrado de bloques de predicción configurada para filtrar de manera adaptativa algunos píxeles de predicción del bloque de predicción en base al modo de intra predicción seleccionado y al tamaño del bloque actual, caracterizado porque la unidad (131) de exploración explora la pluralidad de sub-bloques y los coeficientes de transformada cuantificados de cada sub-bloque usando un patrón de exploración determinado de acuerdo con el modo de intra predicción seleccionado, en el que, cuando el modo de intra predicción seleccionado es un modo horizontal, el patrón de exploración es una exploración vertical.

Description

5
10
15
20
25
30
35
40
45
50
DESCRIPCION
Aparato para codificar una imagen Campo tecnico
La presente invencion se refiere a un aparato para codificar una imagen. Tecnica antecedente
En los procedimientos de compresion de imagenes tales como el grupo de expertos de imagenes en movimiento (MPEG)-1, MPEG-2, MPEG-4 y la codificacion de video avanzada (AVC) H.264/MPEG-4, una imagen se divide en macro bloques para codificar una imagen. A continuacion, los MB respectivos se codifican usando una inter prediccion o una intra prediccion.
En la intra prediccion, un bloque actual de una imagen actual se codifica no usando una imagen de referencia, pero usando valores de los pfxeles espacialmente adyacentes al bloque actual. Un modo de intra prediccion con poca distorsion se selecciona comparando con un bloque de prediccion generando que usa los valores de pfxeles adyacentes con el MB original. A continuacion, usando el modo seleccionado de intra prediccion y los valores de pfxeles adyacentes, se calculan los valores de prediccion del bloque actual. Se calculan las diferencias entre los valores de prediccion y los valores de los pfxeles del bloque actual original y a continuacion se codifican a traves de una codificacion de transformada, una cuantificacion y una codificacion por entropfa. El modo de intra prediccion se codifica tambien.
Los modos de intra prediccion se clasifican, en general, en un modo de intra prediccion de 4x4, un modo de intra prediccion de 8x8 y un modo de intra prediccion de 16x16 para los componentes de luminancia y los componentes de crominancia.
En el modo de intra prediccion de 16x16 de acuerdo con la tecnica anterior, hay cuatro modos, un modo vertical, un modo horizontal, un modo actual continuo (CC) y un modo plano.
En el modo de intra prediccion de 4x4 de acuerdo con la tecnica anterior hay nueve modos, un modo vertical, un modo horizontal, un modo CC, un modo inferior-izquierda diagonal, un modo inferior-derecha diagonal, un modo derecho vertical, un modo izquierdo vertical, un modo horizontal-arriba y un modo horizontal-inferior.
Cada modo de prediccion se indexa de acuerdo con la frecuencia de uso de los modos respectivos. El modo vertical, cuyo numero de modo es el 0, muestra la posibilidad mas alta de que se use lo mas frecuentemente para realizar la intra prediccion en un bloque objetivo, y el modo horizontal-arriba cuyo numero de modo es el 8 muestra la posibilidad mas alta de que se use lo mas infrecuentemente.
De acuerdo con las normas H.264, un bloque actual se codifica usando un total de 13 modos, es decir, 4 modos del modo de intra prediccion de 4x4 y 9 modos del modo de intra prediccion de 16x16. Se genera un flujo de bits del bloque actual de acuerdo con un modo optimo entre estos modos.
Sin embargo, cuando algunos o todos los valores de los pfxeles adyacentes al bloque actual no existen o no estan ya codificados, es imposible aplicar algunos o todos los modos de intra prediccion al bloque actual. Ademas, cuando se realiza la intra prediccion seleccionando un modo de prediccion entre el modo intra aplicable se hace grande una senal residual entre un bloque de prediccion y un bloque actual. Por lo tanto, la eficiencia de codificacion se degrada.
TUNG NGUYEN Y COL.: "Improved Context Modeling for Coding Quantized Transform Coefficients in Video Compression", SIMPOSIO DE CODIFICACION DE IMAGENES 2010; NAGOYA, (), XP030082008, desvela la particion de bloques de coeficientes de transformada mayores que 4x4 en sub-bloques 4x4 con el fin de mejorar la codificacion por entropfa. Los sub-bloques se procesan en un orden de exploracion en zigzag y los coeficientes de cada sub-bloque se exploran en una exploracion en zigzag inversa.
YEO C Y COL.: "Mode-Dependent Coefficient Scanning for Intra Prediction Residual Coding", 95. MPEG MEETING; DAEGU; n.° m18796, (), XP030047366, desvela un orden de exploracion de modo dependiente para la codificacion residual de intra prediccion. Para cada modo intra y para cada tamano de bloque de transformada se asigna uno de los cuatro ordenes de exploracion predeterminados teniendo en cuenta la direccion de prediccion.
Divulgacion
La presente invencion se refiere a un aparato para codificar una imagen como se especifica en las reivindicaciones adjuntas.
Descripcion de los dibujos
La figura 1 es un diagrama de bloques que ilustra un aparato de codificacion de imagenes en movimiento de acuerdo con la presente invencion.
5
10
15
20
25
30
35
40
45
50
55
La figura 2 es un diagrama de flujo que ilustra un funcionamiento de una unidad de exploracion de acuerdo con la presente invencion.
La figura 3 es un diagrama de bloques que ilustra un aparato de decodificacion de imagenes en movimiento de acuerdo con la presente invencion.
La figura 4 es un diagrama de bloques que ilustra una unidad de intra prediccion de acuerdo con la presente invencion.
La figura 5 es un diagrama conceptual que muestra las posiciones de los pfxeles de referencia usados para la intra prediccion de acuerdo con la presente invencion.
La figura 6 es un diagrama de flujo que ilustra un procedimiento de generacion de pfxeles de referencia de acuerdo con la presente invencion.
La figura 7 es un diagrama de bloques que ilustra una unidad de intra prediccion de un aparato decodificador de imagenes en movimiento de acuerdo con la presente invencion.
Modo de la invencion
En lo sucesivo en el presente documento, las diversas realizaciones de la presente invencion se describiran en detalle con referencia a los dibujos adjuntos. Sin embargo, la presente invencion no se limita a las realizaciones a modo de ejemplos desveladas a continuacion, sino por las caractensticas tecnicas definidas en la reivindicacion 1 adjunta.
Para la codificacion de imagenes, cada imagen consiste en una pluralidad de segmentos, y cada segmento se compone de una pluralidad de unidades de codificacion. Ya que una imagen de un grado de alta definicion (HD) o superior tiene muchas regiones uniformes, puede mejorarse una compresion de la imagen codificando la imagen con unas unidades de codificacion mayores que un MB cuyo tamano es 16x16.
Un tamano de la unidad de codificacion de acuerdo con la presente invencion puede ser 16x16, 32x32 o 64x64. Un tamano de la unidad de codificacion tambien puede ser de 8x8 o menos. Una unidad de codificacion del tamano mas grande se conoce como un super macro bloque (SMB). Un tamano de SMB esta indicado por un tamano mas pequeno de la unidad de codificacion y la informacion de profundidad. La informacion de profundidad indica un valor de diferencia entre el tamano del SMB y el tamano mas pequeno de la unidad de codificacion.
Por lo tanto, las unidades de codificacion que se usaran para codificar las imagenes pueden ser un SMB o un sub- bloque de un SMB. Las unidades de codificacion se ajustan al valor por defecto o se indican en un encabezado de secuencia.
Un SMB consiste en una o mas unidades de codificacion. El SMB tiene una forma de un arbol de codificacion recursivo con el fin de incluir las unidades de codificacion y una estructura de division de las unidades de codificacion. Cuando el SMB no esta dividido en cuatro unidades de sub-codificacion, el arbol de codificacion puede consistir en una informacion que indica que el SMB no esta dividido y una unidad de codificacion. Cuando el SMB esta divido en cuatro unidades de sub-codificacion, el arbol de codificacion puede consistir en una informacion que indica que el SMB esta dividido y cuatro arboles de sub-codificacion. Del mismo modo, cada arbol de sub- codificacion tiene la misma estructura que el SMB. Sin embargo, una unidad de codificacion del tamano de la unidad de codificacion mas pequena (SCU) no se divide en unidades de sub-codificacion.
Mientras tanto, cada unidad de codificacion en el arbol de codificacion se somete a una intra prediccion o a una inter prediccion en unidades de la propia unidad de codificacion o un sub-bloque. Una unidad en la que se realiza la intra prediccion o la inter prediccion se denomina una unidad de prediccion. Un tamano de la unidad de prediccion puede ser 2Nx2N o NxN para la intra prediccion. Un tamano de la unidad de prediccion puede ser 2Nx2N, 2NxN, Nx2N o NxN para la inter prediccion. En el presente documento, 2N indica las longitudes horizontales y verticales de una unidad de codificacion.
Una unidad de codificacion incluye un modo de prediccion de la unidad de prediccion y la informacion de tamano (modo_parte) en la unidad de prediccion. Para mejorar la eficiencia de codificacion, el modo de prediccion y la informacion de tamano pueden combinarse y codificarse conjuntamente. En este caso, cada unidad de codificacion incluye un tipo de prediccion codificada conjuntamente (tipo_pred).
Una unidad de codificacion incluye uno o mas contenedores de informacion adicional. Cada contenedor de informacion adicional contiene la informacion adicional necesaria para generar un bloque de prediccion de cada unidad de prediccion. En la intra prediccion, la informacion adicional incluye la informacion de intra prediccion codificada. En la inter prediccion, la informacion adicional incluye la informacion de movimiento codificada. La informacion de movimiento incluye un vector de movimiento y un mdice de imagen de referencia.
Una unidad de codificacion tambien incluye un contenedor de senal residual para senales residuales de la unidad de codificacion. El contenedor de senal residual contiene un arbol de transformada, un contenedor de senal residual de luminancia y dos contenedores de senal residual de crominancia. El arbol de transformada indica si existen o no las senales residuales de las unidades de transformada en el contenedor de senal residual. El contenedor de senales residuales consiste en una estructura de arbol recursiva. El contenedor de senal residual para la unidad de codificacion es un ejemplo. Si la unidad de codificacion no esta dividida en cuatro unidades de sub-codificacion, el
5
10
15
20
25
30
35
40
45
50
55
contenedor de senal residual contiene la informacion de cuantificacion (un parametro de cuantificacion residual) y una senal residual codificada. Si la unidad de codificacion se divide en cuatro unidades de sub-codificacion, el contenedor de senales residuales contiene la informacion de cuantificacion y cuatro sub-contenedores de senal residual. Cada sub-contenedor de senal residual tiene la misma estructura del contenedor de senal residual de la unidad de codificacion, pero no contiene la informacion de cuantificacion.
Mientras tanto, se describe un solo caso en el que la unidad de codificacion se divide igualmente en unidades de prediccion. Sin embargo, cuando se usa la division igual descrita anteriormente para una imagen que tiene un lfmite en una direccion espedfica o en una posicion espedfica de acuerdo con una caractenstica, se usan diferentes unidades de prediccion para piezas de datos similares en el lfmite y una senal residual no puede reducirse eficazmente.
En este caso, para comprimir una senal residual, puede ser mas eficaz dividir un SMB o un MB en una direccion espedfica de acuerdo con una forma del lfmite de la imagen y realizar una intra o inter prediccion.
El modo de adaptacion mas simple es dividir una unidad de codificacion en dos bloques usando una lmea recta con el fin de extraer la dependencia estadfstica de una region de prediccion de la topograffa local. Un lfmite de una imagen se corresponde con la lmea recta y se divide. En este caso, las direcciones divisibles pueden estar limitadas a un numero predeterminado. Por ejemplo, un procedimiento de dividir un bloque puede estar limitado a cuatro direcciones de las direcciones horizontal, vertical, diagonal hacia arriba y diagonal hacia abajo. Ademas, la division puede estar limitada a solo las direcciones horizontal y vertical. El numero de direcciones divisibles puede ser de tres, cinco, siete y asf sucesivamente. El numero de direcciones divisibles puede variar de acuerdo con un tamano del bloque de codificacion. Por ejemplo, para una unidad de codificacion de un tamano grande, el numero de direcciones divisibles puede aumentarse de manera relativa.
En una inter prediccion, cuando una unidad de codificacion se divide en dos unidades de prediccion para una prediccion de adaptacion mas, la estimacion de movimiento y la compensacion de movimiento debenan realizarse en cada una de las unidades de prediccion. Se obtiene la informacion de movimiento para cada unidad de prediccion y se codifica una senal residual entre un bloque de prediccion obtenido de la informacion de movimiento para cada unidad de prediccion.
Despues de obtener las senales residuales para los dos bloques de prediccion respectivos divididos de una unidad de codificacion, las dos senales residuales pueden anadirse para generar una senal residual para una unidad de codificacion. La senal residual para una unidad de codificacion se transforma y se codifica. En este caso, existe una alta posibilidad de que haya una diferencia entre las distribuciones globales de las senales residuales de los dos bloques de prediccion respectivos con el centro del lfmite y, por lo tanto, puede generarse una senal residual de una unidad de codificacion multiplicando un valor de una region cualquiera por un valor predeterminado. Ademas, puede hacerse que la region lfmite de las dos senales residuales se superponga, y puede realizarse el suavizado en la region lfmite superpuesta para generar una senal residual.
En otro procedimiento, puede generarse un bloque realizando un relleno de acuerdo con las regiones de division respectivas del bloque, y codificarse. En otras palabras, cuando una region de division actual se codifica entre las dos regiones de division, un bloque puede configurarse rellenando otra region de division que constituye el bloque con un valor de la region de division actual y a continuacion se somete a una codificacion de transformada bidimensional (2D).
La figura 1 es un diagrama de bloques que ilustra un aparato de codificacion de imagenes en movimiento de acuerdo con la presente invencion.
Haciendo referencia a la figura 1, un aparato 100 de codificacion de imagenes en movimiento de acuerdo con la presente invencion incluye una unidad 110 de division de imagenes, una unidad 120 de transformada, una unidad 130 de cuantificacion, una unidad 131 de exploracion, una unidad 140 de codificacion por entropfa, una unidad 150 de intra prediccion, una unidad 160 de inter prediccion, una unidad 135 de cuantificacion inversa, una unidad 125 de transformada inversa, una unidad 170 de procesamiento posterior, una unidad 180 de almacenamiento de imagenes, un restador 190 y un sumador 195.
La unidad 110 de division de imagenes analiza una senal de video de entrada para dividir cada unidad de codificacion mas grande (LCU) de una imagen en unidades de codificacion cada una de las cuales tiene un tamano predeterminado, determina el modo de prediccion de cada unidad de codificacion, y determina el tamano de la unidad de prediccion por cada unidad de codificacion. La unidad 110 de division de imagenes envfa la unidad de prediccion a codificar a la unidad 150 de intra prediccion o a la unidad 160 de inter prediccion de acuerdo con el modo de prediccion. Ademas, la unidad 110 de division de imagenes envfa las unidades de prediccion a codificar al restador 190.
La unidad 120 de transformada transforma un bloque residual. El bloque residual consiste en una senal residual entre un bloque original introducido y un bloque de prediccion generado por la unidad 150 de intra prediccion o la unidad 160 de inter prediccion. El bloque residual puede consistir en una unidad de codificacion. El bloque residual que consiste en una unidad de codificacion se divide en unidades de transformada optimas y se transforma. Un tipo
5
10
15
20
25
30
35
40
45
50
55
60
de matriz de transformada puede determinarse de manera adaptativa de acuerdo con el modo de prediccion (intra o inter). Ademas, una senal residual de intra prediccion tiene directividad de acuerdo con un modo de intra prediccion y, por lo tanto, una matriz de transformada puede determinarse de manera adaptativa de acuerdo con el modo de intra prediccion. La unidad de transformada puede transformarse por dos matrices de transformada (horizontal y vertical) unidimensionales (1D). En la inter prediccion, se determina un tipo de matriz de transformada predeterminado. En la intra prediccion, existe una alta posibilidad de que el bloque residual tenga directividad vertical cuando el modo de intra prediccion es horizontal. Por lo tanto, se aplica una matriz de enteros basada en la transformada discreta de coseno (DCT) a la direccion vertical, y se aplica una transformada discreta de seno (DST) o una matriz de enteros basada en la transformada de Karhunen Loeve (KLT) a la direccion horizontal. Cuando el modo de intra prediccion es vertical, se aplica una matriz de enteros basada en DST o KLT a la direccion vertical, y se aplica una matriz de enteros basada en DCT a la direccion horizontal. Ademas, en la intra prediccion, la matriz de transformada puede determinarse de manera adaptativa de acuerdo con un tamano de las unidades de transformada.
La unidad 130 de cuantificacion determina un tamano de tamano de paso de cuantificacion para cuantificar los coeficientes del bloque residual transformado. El tamano de paso de cuantificacion se determina por unidad de codificacion de un tamano predeterminado o mas. El tamano predeterminado puede ser 8x8 o 16x16. Usando el tamano de paso de cuantificacion determinado y una matriz de cuantificacion determinada por un modo de prediccion, se cuantifican los coeficientes del bloque de transformada. La unidad 130 de cuantificacion usa los tamanos de paso de cuantificacion de las unidades de codificacion adyacentes a una unidad de codificacion actual como un predictor de tamano de paso de cuantificacion de la unidad de codificacion actual. La unidad 130 de cuantificacion recupera secuencialmente las unidades de codificacion en el siguiente orden de exploracion; una unidad de codificacion izquierda de la unidad de codificacion actual, una unidad de codificacion superior de la unidad de codificacion actual y una unidad de codificacion superior izquierda de la unidad de codificacion actual. A continuacion, la unidad 130 de cuantificacion genera el predictor de tamano de paso de cuantificacion de la unidad de codificacion actual usando uno o dos tamanos de paso de cuantificacion validos. Por ejemplo, el primer tamano de paso de cuantificacion valido descubierto en el orden de exploracion puede determinarse como el predictor de tamano de paso de cuantificacion. Puede determinarse un promedio de dos tamanos de paso de cuantificacion validos recuperados en el orden de exploracion como el predictor del tamano de paso de cuantificacion y se determina como el predictor del tamano de paso de cuantificacion cuando solo es valido un tamano de paso de cuantificacion. Cuando se determina el predictor del tamano de paso de cuantificacion, se transmite una diferencia entre el tamano de paso de cuantificacion y el predictor del tamano de paso de cuantificacion a la unidad 140 de codificacion por entropfa.
Cuando un segmento se divide en unidades de codificacion, no puede haber ninguna de una unidad de codificacion izquierda, una unidad de codificacion superior y una unidad de codificacion superior izquierda de la unidad de codificacion actual. Pero, puede haber una unidad de codificacion previa de la unidad de codificacion actual en el orden de codificacion en la unidad de codificacion maxima. Por lo tanto, las unidades de codificacion adyacentes a la unidad de codificacion actual y a la unidad de codificacion previa de la unidad de codificacion actual en el orden de codificacion en la unidad de codificacion maxima pueden ser candidatas. En este caso, el orden de exploracion anterior puede cambiarse al siguiente orden de exploracion; 1) la unidad de codificacion izquierda de la unidad de codificacion actual, 2) la unidad de codificacion superior de la unidad de codificacion actual, 3) la unidad de codificacion superior izquierda de la unidad de codificacion actual y 4) la unidad de codificacion anterior de la unidad de codificacion actual. El orden de exploracion puede cambiarse, o la unidad de codificacion superior izquierda puede omitirse en el orden de exploracion.
El bloque de transformada cuantificado se proporciona a la unidad 135 de cuantificacion inversa y a la unidad 131 de exploracion.
La unidad 131 de exploracion explora los coeficientes del bloque de transformada cuantificado, convirtiendo de este modo los coeficientes en coeficientes cuantificados de 1D. Ya que la distribucion de los coeficientes del bloque de transformada despues de la cuantificacion puede depender de un modo de intra prediccion, se determina un patron de exploracion de coeficientes de acuerdo con el modo de intra prediccion. El patron de exploracion de coeficientes tambien puede determinarse de acuerdo con el tamano de la unidad de transformada.
La unidad 135 de cuantificacion inversa cuantifica inversamente los coeficientes cuantificados. La unidad 125 de transformada inversa restablece un bloque residual del dominio espacial a partir de los coeficientes de transformada inversamente cuantificados. El sumador genera un bloque reconstruido anadiendo el bloque residual reconstruido por la unidad 125 de transformada inversa y el bloque de prediccion de la unidad 150 de intra prediccion o la unidad 160 de inter prediccion.
La unidad 170 de procesamiento posterior realiza un procedimiento de filtrado de desbloqueo para eliminar la perturbacion de bloqueo generada en una imagen reconstruida, un procedimiento de aplicacion de compensacion adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original por pixel y un procedimiento de filtro de bucle adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original en una unidad de codificacion.
5
10
15
20
25
30
35
40
45
50
55
El procedimiento de filtrado de desbloqueo puede aplicarse a un Ifmite entre unidades de prediccion que tienen un tamano predeterminado o mas y un Ifmite entre las unidades de transformada. El tamano predeterminado puede ser 8x8. El procedimiento de filtrado de desbloqueo incluye una etapa de determinar un lfmite a filtrar, una etapa de determinar la resistencia de filtrado de lfmite a aplicar al lfmite, una etapa de determinar si se aplica o no un filtro de desbloqueo, y una etapa de seleccionar un filtro a aplicar al lfmite cuando se determina que se aplica el filtro de desbloqueo.
Aplicar o no el filtro de desbloqueo se determina de acuerdo con i) si la resistencia de filtrado de lfmite es o no mayor que 0 y ii) si un valor que indica la diferencia entre los pfxeles lfmite del bloque P y del bloque Q es menor o no que un primer valor de referencia determinado de acuerdo con un parametro de cuantificacion.
Pueden existir dos o mas filtros. Cuando un valor absoluto de una diferencia entre dos pfxeles adyacentes al lfmite del bloque es igual a o mayor que un segundo valor de referencia, se selecciona un filtro debil. El segundo valor de referencia se determina por el parametro de cuantificacion y por la resistencia de filtrado de lfmite.
El procedimiento de aplicacion de compensacion adaptativo esta destinado a reducir una diferencia (distorsion) entre un pixel sometido al filtro de desbloqueo y al pixel original. Puede determinarse si se realiza o no el procedimiento de aplicacion de compensacion adaptativo de acuerdo con imagenes o segmentos. Una imagen o segmento puede estar dividida en una pluralidad de regiones de compensacion, y puede determinarse un modo de compensacion por la region de compensacion. Puede haber cuatro modos de compensacion de borde y dos modos de compensacion de banda. En el caso de un tipo de compensacion de borde, se determina un tipo de borde al que pertenece cada pixel y se aplica una compensacion correspondiente al tipo de borde. El tipo de borde se determina en base a la distribucion de dos valores de pfxeles adyacentes a un pixel actual.
El procedimiento de filtro de bucle adaptativo puede realizarse en base a un valor obtenido comparando una imagen original y una imagen reconstruida a la que se aplica el procedimiento de filtrado de desbloqueo o el procedimiento de aplicacion de compensacion adaptativo. Un filtro de bucle adaptativo (ALF) se detecta a traves de un valor de actividad Laplaciano en base a un bloque de 4x4. El ALF determinado puede aplicarse a todos los pfxeles incluidos en un bloque de 4x4 o en un bloque de 8x8. El aplicar o no un ALF puede determinarse de acuerdo con cada unidad de codificacion. El tamano y los coeficientes de un filtro de bucle pueden variar de acuerdo con cada unidad de codificacion. Una cabecera de segmento puede incluir informacion que indica si aplicar o no el ALF a cada unidad de codificacion, la informacion de coeficiente de filtro y la informacion de forma del filtro, y asf sucesivamente. En el caso de componentes de crominancia, puede determinarse si se aplica o no el ALF en unidades de imagen. A diferencia de la luminancia, el filtro de bucle puede tener una forma rectangular.
La unidad 180 de almacenamiento de imagenes recibe datos de imagen de procesamiento posterior procedentes de la unidad 160 de procesamiento posterior y almacena la imagen en unidades de imagen. Una imagen puede ser una imagen en una trama o un campo. La unidad 180 de almacenamiento de imagenes tiene una memoria intermedia (no mostrada) capaz de almacenar una pluralidad de imagenes.
La unidad 160 de inter prediccion realiza la estimacion de movimiento usando una o mas imagenes de referencia almacenadas en la unidad 180 de almacenamiento de imagenes y determina los indices de imagenes de referencia que indican las imagenes de referencia y los vectores de movimiento. De acuerdo con el mdice de imagenes de referencia y el vector de movimiento, la unidad 160 de inter prediccion extrae un bloque de prediccion correspondiente a una unidad de prediccion a codificar a partir de una imagen de referencia seleccionada entre una pluralidad de imagenes de referencia almacenadas en la unidad 180 de almacenamiento de imagenes y se emite el bloque de prediccion extrafdo.
La unidad 150 de intra prediccion realiza la intra prediccion usando los valores de pixel reconstruidos dentro de una imagen actual. La unidad 150 de intra prediccion recibe la unidad de prediccion actual a codificarse de manera predictiva, selecciona uno de un numero predeterminado de modos de intra prediccion y realiza una intra prediccion. El numero predeterminado de modos de intra prediccion puede depender del tamano de la unidad de prediccion actual. La unidad de intra prediccion filtra de manera adaptativa los pfxeles de referencia para generar el bloque de intra prediccion. Cuando algunos de los pfxeles de referencia no estan disponibles, es posible generar los pfxeles de referencia en las posiciones no disponibles usando uno o mas pfxeles de referencia disponibles.
La unidad 140 de codificacion por entropfa codifica por entropfa los coeficientes cuantificados cuantificados por la unidad 130 de cuantificacion, la informacion de intra prediccion recibida de la unidad 150 de intra prediccion, la informacion de movimiento recibida de la unidad 160 de inter prediccion, y asf sucesivamente.
La figura 2 es un diagrama de flujo que ilustra un funcionamiento de la unidad 131 de exploracion de acuerdo con la presente invencion.
Se determina si el bloque de coeficientes cuantificados actual esta dividido en una pluralidad de sub-conjuntos (S110). La determinacion se basa en un tamano de la unidad de transformada actual. Si el tamano de la unidad de transformada actual es mayor que un primer tamano de referencia, los coeficientes cuantificados codificados se dividen en una pluralidad de sub-conjuntos. El primer tamano de referencia puede ser 4x4 o 8x8. El primer tamano de referencia puede transmitirse a un decodificador mediante una cabecera de imagen o una cabecera de
5
10
15
20
25
30
35
40
45
50
55
segmento.
Cuando el bloque de coeficientes cuantificados no se divide en una pluralidad de sub-conjuntos, se determina un patron de exploracion a aplicar al bloque de coeficientes cuantificados (S120). La etapa S120 puede realizarse antes de la etapa S110 o independientemente de la etapa S110.
Los coeficientes cuantificados del bloque de coeficientes cuantificados se exploran de acuerdo con el patron de exploracion determinado (S130). El patron de exploracion se determina de manera adaptativa de acuerdo con el modo de prediccion y el modo de intra prediccion. En el modo de inter prediccion, solo puede aplicarse un patron de exploracion predeterminado (por ejemplo, la exploracion en zigzag). En el modo de intra prediccion, puede aplicarse un patron de exploracion determinado de acuerdo con el modo de intra prediccion. Ademas, puede seleccionarse un numero predeterminado de patrones de exploracion para explorar los coeficientes, y la informacion de patron de exploracion puede transmitirse al decodificador. En el modo de intra prediccion, puede aplicarse un patron de exploracion determinado de acuerdo con el modo de intra prediccion. Por ejemplo, se aplica una exploracion horizontal a un modo de intra prediccion vertical y un numero predeterminado de modos de intra prediccion adyacentes al modo de intra prediccion vertical. Se aplica una exploracion vertical a un modo de intra prediccion horizontal y un numero predeterminado de modos de intra prediccion adyacentes al modo de intra prediccion horizontal. El numero predeterminado vana de acuerdo con un numero de modos de prediccion permitidos de una unidad de prediccion (o un numero de modos de intra prediccion direccionales) o un tamano de un bloque de prediccion. Por ejemplo, si el numero de modos de prediccion permitidos en la unidad de prediccion actual es 16, el numero predeterminado puede ser dos en cada una de ambas direcciones en base al modo de intra prediccion horizontal o vertical. Si el numero de modos de prediccion direccionales permitidos es 33, el numero predeterminado puede ser cuatro en cada una de ambas direcciones en base al modo de intra prediccion horizontal o vertical. Mientras tanto, la exploracion en zigzag se aplica a modos no direccionales. Un modo no direccional puede ser un modo actual directo (DC) o un modo plano.
Si se determina que el bloque de coeficientes cuantificados se divide en una pluralidad de sub-conjuntos, el bloque de coeficientes cuantificados se divide en una pluralidad de sub-conjuntos (Sl40). La pluralidad de sub-conjuntos consiste en un sub-conjunto principal y uno o mas sub-conjuntos restantes. El sub-conjunto principal se localiza en un lado superior izquierdo y cubre un coeficiente DC, y uno o mas sub-conjuntos restantes cubren una region diferente que el sub-conjunto principal.
Se determina un patron de exploracion a aplicar a los sub-conjuntos (S150). El patron de exploracion determinado se aplica a todos los sub-conjuntos. El patron de exploracion se determina de manera adaptativa de acuerdo con el modo de prediccion y el modo de intra prediccion. La etapa S150 puede realizarse antes de la etapa S110 o independientemente de la etapa S110.
Cuando el tamano del bloque de coeficientes cuantificados (es decir, el tamano de la unidad de transformada) es mayor que un segundo tamano de referencia, el patron de exploracion en zigzag puede aplicarse al bloque de coeficientes cuantificados. El segundo tamano de referencia es, por ejemplo, 8x8. Por lo tanto, la etapa S150 se realiza cuando el primer tamano de referencia es menor que el segundo tamano de referencia.
En el modo de inter prediccion, solo puede aplicarse un patron de exploracion predeterminado (por ejemplo, la exploracion en zigzag) a cada sub-conjunto. En el modo de intra prediccion, el patron de exploracion se determina de manera adaptativa igual que en la etapa S120.
Los coeficientes cuantificados en los sub-conjuntos pueden explorarse en una direccion inversa. En otras palabras, de acuerdo con el patron de exploracion, los coeficientes cuantificados distintos de 0 pueden explorarse y codificarse por entropfa en la direccion inversa comenzando con el ultimo coeficiente cuantificado distinto de 0 en los sub- conjuntos.
A continuacion, los coeficientes cuantificados de cada sub-conjunto se exploran de acuerdo con el patron de exploracion (S160). Los coeficientes cuantificados en cada sub-conjunto se exploran en la direccion inversa. Es decir, los coeficientes de transformada cuantificados se exploran desde un ultimo coeficiente distinto de cero a otros coeficientes distintos de cero de acuerdo con el patron de exploracion, y por codificacion por entropfa.
La exploracion en zigzag puede aplicarse para explorar los sub-conjuntos. Los sub-conjuntos pueden explorarse comenzando con el sub-conjunto principal a los sub-conjuntos restantes en una direccion hacia delante, o pueden explorarse en la direccion inversa. Un patron de exploracion para explorar los sub-conjuntos puede establecerse igual que un patron de exploracion para explorar los coeficientes cuantificados en los sub-conjuntos.
El aparato 100 de codificacion de imagenes en movimiento de acuerdo con la presente invencion transmite la informacion capaz de indicar una posicion del ultimo coeficiente cuantificado no nulo de la unidad de transformada a un decodificador. El aparato 100 de codificacion de imagenes en movimiento tambien transmite la informacion capaz de indicar una posicion del ultimo coeficiente cuantificado no nulo en cada sub-conjunto al decodificador.
La figura 3 es un diagrama de bloques que ilustra un aparato de decodificacion de imagenes en movimiento de acuerdo con la presente invencion.
5
10
15
20
25
30
35
40
45
50
55
El aparato de decodificacion de imagenes en movimiento de acuerdo con la presente invencion incluye una unidad 210 de decodificacion por entropfa, una unidad 220 de exploracion inversa, una unidad 230 de cuantificacion inversa, una unidad 240 de transformada inversa, una unidad 250 de intra prediccion, una unidad 260 de inter prediccion, una unidad 270 de procesamiento, una unidad 280 de almacenamiento de imagenes, un sumador 290 y un conmutador 295 de intra/inter cambio.
La unidad 210 de decodificacion por entropfa extrae la informacion de intra prediccion, la informacion de inter prediccion y la informacion de coeficientes cuantificados de un flujo de bits recibido. La unidad 210 de decodificacion por entropfa transmite la informacion de inter prediccion a la unidad 260 de inter prediccion, la informacion de intra prediccion a la unidad 250 de intra prediccion y a la unidad 240 de transformada inversa y la informacion de coeficientes cuantificados inversos a la unidad 220 de exploracion inversa.
La unidad 220 de exploracion inversa convierte la informacion de coeficientes cuantificados en un bloque de transformada cuantificado bidimensional. Uno de una pluralidad de patrones de exploracion inversa se selecciona para la conversion. El patron de exploracion inversa se selecciona en base a al menos uno de entre el modo de prediccion y el modo de intra prediccion. El funcionamiento de la unidad 220 de exploracion inversa es el mismo que el funcionamiento inverso de la unidad 131 de exploracion de la figura 1. Por ejemplo, si un tamano de una unidad de transformada actual a descodificar es mayor que el primer tamano de referencia, cada sub-conjunto se explora de manera inversa de acuerdo con el patron de exploracion inversa seleccionado y se genera un bloque cuantificado inverso que tiene el tamano de la unidad de transformada que usa la pluralidad de sub-conjuntos explorados de manera inversa.
La unidad 230 de cuantificacion inversa determina un predictor de tamano de paso de cuantificacion de la unidad de codificacion actual. El funcionamiento para determinar el predictor de tamano de paso de cuantificacion es igual que el procedimiento de la unidad 130 de cuantificacion de la figura 1. La unidad de cuantificacion inversa anade el predictor de tamano de paso de cuantificacion determinado y un tamano de tamano de paso de cuantificacion residual recibido para generar un tamano de paso de cuantificacion de la unidad de codificacion actual. La unidad 230 de cuantificacion inversa restablece los coeficientes cuantificados inversos usando una matriz de cuantificacion determinada por el tamano de paso de cuantificacion. La matriz de cuantificacion vana de acuerdo con el tamano del bloque actual a restablecer. La matriz de cuantificacion puede seleccionarse para un bloque que tenga el mismo tamano en base a al menos uno de un modo de prediccion y un modo de intra prediccion del bloque actual.
La unidad 240 de transformada inversa transforma inversamente el bloque cuantificado inverso para restablecer un bloque residual. La matriz de transformada inversa que se aplica al bloque cuantificado inverso se determina de manera adaptativa de acuerdo con el modo de prediccion (intra o inter) y el modo de intra prediccion. El procedimiento de determinacion de la matriz de transformada inversa es el mismo que el procedimiento en la unidad 120 de transformada de la figura 1.
El sumador 290 anade el bloque residual restablecido restablecido por la unidad 240 de transformada inversa y un bloque de prediccion generado por la unidad 250 de intra prediccion o la unidad 260 de inter prediccion para generar un bloque de imagen reconstruida.
La unidad 250 de intra prediccion restablece el modo de intra prediccion del bloque actual en base a la informacion de intra prediccion recibida de la unidad 210 de decodificacion por entropfa, y genera un bloque de prediccion de acuerdo con el modo de intra prediccion restablecido.
La unidad 260 de inter prediccion restablece los indices de imagenes de referencia y los vectores de movimiento en base a la informacion de inter prediccion recibida de la unidad 210 de decodificacion por entropfa, y genera un bloque de prediccion usando los indices de imagenes de referencia y los vectores de movimiento. Cuando se aplica la compensacion de movimiento con una precision fraccionaria, se genera el bloque de prediccion usando un filtro de interpolacion.
La unidad 270 de procesamiento posterior funciona igual que la unidad 160 de procesamiento posterior de la figura 1.
La unidad 280 de almacenamiento de imagenes almacena la imagen reconstruida por procesamiento posterior por la unidad 270 de procesamiento posterior
La figura 4 es un diagrama de bloques que ilustra la unidad 150 de intra prediccion de una unidad 100 de codificacion de imagenes en movimiento de acuerdo con la presente invencion.
Haciendo referencia a la figura 4, la unidad 150 de intra prediccion incluye una unidad 151 de generacion de pfxeles de referencia, una unidad 152 de filtrado de pixel de referencia, una unidad 153 de determinacion de modo de prediccion, una unidad 154 de generacion de bloque de prediccion, una unidad 155 de filtrado de bloque de prediccion y una unidad 156 de codificacion de modo de prediccion.
La unidad 151 de generacion de pfxeles de referencia determina que es necesario generar los pfxeles de referencia para la intra prediccion, y genera los pfxeles de referencia si es necesario para generar los pfxeles de referencia.
5
10
15
20
25
30
35
40
45
50
55
La figura 5 es un diagrama conceptual que muestra las posiciones de los pfxeles de referencia usados para la intra prediccion de acuerdo con la presente invencion. Como se muestra en la figura 5, los pfxeles de referencia consisten en los pfxeles de referencia superior, los pfxeles de referencia de izquierda y un pixel de referencia de esquina de la unidad de prediccion actual. Los pfxeles de referencia superior de la unidad de prediccion actual son pfxeles (regiones C y D) presentes a lo largo del doble de la anchura de la unidad de prediccion actual y los pfxeles de referencia de izquierda de la unidad de prediccion actual son pfxeles (regiones A y B) presentes a lo largo del doble de la altura de la unidad de prediccion actual.
La unidad 151 de generacion de pfxeles de referencia determina si los pfxeles de referencia estan disponibles o no. Si uno o mas pfxeles de referencia no estan disponibles, la unidad 151 de generacion de pfxeles de referencia genera los pfxeles de referencia en las posiciones no disponibles usando un pixel de referencia disponible.
En primer lugar, se describira un caso en el que todos los pfxeles de referencia en cualquiera de las regiones superior e izquierda de una unidad de prediccion actual a codificar no estan disponibles.
Por ejemplo, cuando la unidad de prediccion actual se localiza en el lfmite superior de una imagen o un segmento, no existen los pfxeles de referencia superior (regiones C y D) y el pixel de referencia de esquina de la unidad de prediccion actual. Cuando la unidad de prediccion actual se localiza en el lfmite izquierdo de una imagen o un segmento, no existen los pfxeles de referencia de izquierda (regiones A y B) y el pixel de referencia de esquina. En esos casos, los pfxeles de referencia se generan copiando el valor de un pixel disponible mas cercano al pixel no disponible. Es decir, cuando la unidad de prediccion actual se localiza en el lfmite superior de una imagen o un segmento, los pfxeles de referencia superior pueden generarse copiando el pixel de referencia de izquierda mas superior (es decir, un pixel de referencia localizado en la posicion mas alta de la region A). Cuando la unidad de prediccion actual se localiza en el lfmite izquierdo de una imagen o un segmento, los pfxeles de referencia de izquierda pueden generarse copiando el pixel de referencia superior mas a la izquierda (es decir, un pixel de referencia localizado en la posicion mas a la izquierda de la region de C). El procedimiento mencionado anteriormente se aplica por defecto, pero el procedimiento puede variar por secuencia, imagen o segmento si es necesario.
A continuacion, se describira un caso en el que algunos de los pfxeles de referencia superior o de izquierda de una unidad de prediccion actual a codificar no estan disponibles. Existen dos casos en los que 1) los pfxeles de referencia disponibles estan presentes en una sola direccion con respecto a los pfxeles de referencia no disponibles, y 2) los pfxeles de referencia disponibles estan presentes en ambas direcciones con respecto a los pfxeles de referencia no disponibles.
Se describira el caso 1).
Por ejemplo, cuando el bloque actual se localiza en el lfmite derecho de una imagen o un segmento o una LCU, los pfxeles de referencia que cubren la zona D no estan disponibles. Ademas, cuando el bloque actual se localiza en el ifmite inferior de una imagen o de un segmento o una lCu, los pfxeles de referencia que cubren la zona B no estan disponibles. En este caso, los pfxeles de referencia se generan copiando los valores de los pfxeles disponibles mas cercanos al pixel no disponible. Ademas, los pfxeles de referencia se generan usando dos o mas pfxeles disponibles mas cercanos al pixel no disponible.
Se describira el caso 2).
Por ejemplo, cuando el bloque actual se localiza en el lfmite superior de un segmento y el bloque superior izquierdo del bloque actual esta disponible, los pfxeles de referencia que cubren la zona C no estan disponibles, pero los pfxeles de referencia que cubren las zonas A y D estan disponibles. Cuando los pfxeles de referencia disponibles estan por lo tanto presentes en ambas direcciones, se selecciona un pixel de referencia disponible presente en la posicion mas cercana en cada direccion, y los pfxeles de referencia en las posiciones no disponibles se generan usando los pfxeles de referencia seleccionados (es decir, el pixel de referencia mas alto en la region A y el pixel de referencia mas a la izquierda en la region D).
Un valor obtenido redondeando un promedio de los dos pfxeles de referencia (pfxeles presentes en las posiciones mas cercanas en las direcciones respectivas) puede generarse como un valor de pixel de referencia. Sin embargo, cuando una region de pixel de referencia no disponible es grande, existe una alta posibilidad de que se produzca una diferencia de paso entre un pixel disponible y un pixel generado, y por lo tanto es util para generar los pfxeles de referencia usando la interpolacion lineal. Espedficamente, en consideracion de una posicion con respecto a dos pfxeles de referencia disponibles, puede generarse un pixel de referencia disponible en la posicion actual.
A continuacion, se describira un caso en el que todos los pfxeles de referencia en los lados superior e izquierdo de una unidad de prediccion actual a codificar no estan disponibles. Por ejemplo, cuando una unidad de prediccion actual es adyacente a un lfmite superior izquierdo de una imagen o un segmento, no hay pfxeles de referencia disponibles.
En este caso, algunos o todos los pfxeles de referencia pueden generarse usando dos o mas pfxeles presentes en la unidad de prediccion actual. El numero de pfxeles que estan presentes en la unidad de prediccion actual y que se
5
10
15
20
25
30
35
40
45
50
usan para generar los pfxeles de referencia pueden ser dos o tres.
La figura 6 es un diagrama de flujo que ilustra un procedimiento de generacion de pfxeles de referencia de acuerdo con la presente invencion.
Haciendo referencia a la figura 6, el procedimiento de generacion de pixeles de referencia que usa dos pixeles es de la siguiente manera. Pueden usarse un pixel superior izquierdo O y uno de un pixel superior derecho □ , un pixel inferior izquierdo A y un pixel inferior derecho V de la unidad de prediccion actual. Cuando se usan el pixel superior izquierdo O y el pixel superior derecho n. de la unidad de prediccion actual, el pixel superior izquierdo y el pixel superior derecho se copian en las posiciones correspondientes en un lado superior y el pixel superior derecho y los pixeles de referencia copiados se usan para generar los pixeles de referencia que cubren la zona C. Los pixeles de referencia se generan usando una interpolacion promedio o lineal. Los pixeles de referencia que cubren D se generan copiando el pixel superior derecho n. o usando una pluralidad de los pixeles superior generados. Cuando se usan el pixel superior izquierdo O y el pixel inferior izquierdo A de la unidad de prediccion actual, se aplica el mismo procedimiento. Cuando se usan el pixel superior izquierdo O y el pixel inferior derecho V, el pixel inferior derecho V se copia en la posicion de pixel de referencia correspondiente en la direccion horizontal y en la direccion vertical y a continuacion se generan los pixeles de referencia residuales de la misma manera como se ha descrito anteriormente.
El procedimiento de generacion de pixeles de referencia que usa tres pixeles es de la siguiente manera. Pueden usarse un pixel superior izquierdo O, un pixel superior derecho □ , y un pixel inferior izquierdo A de la unidad de prediccion actual. Los pixeles se copian en la posicion de pixel de referencia correspondiente y a continuacion, se generan los pixeles de referencia residuales usando los pixeles copiados. Los pixeles de referencia residuales se generan de la misma manera como se ha descrito anteriormente.
Mientras tanto, cuando se usa un procedimiento como se ha descrito anteriormente, los valores de los pixeles usados para generar los pixeles de referencia se transmiten al decodificador. Para minimizar la cantidad de bits a transmitir, el valor del pixel superior izquierdo O, y la diferencia entre el valor del pixel superior izquierdo O, y los valores de otros pixeles. El valor del pixel superior izquierdo puede ser un valor cuantificado o codificarse por entropfa.
Cuando un tipo de segmento es intra (I), es mas eficaz generar los pixeles de referencia usando dos o mas pixeles.
Se describira otro procedimiento de generacion de pixeles de referencia cuando todos los pixeles de referencia en los lados superior e izquierdo de una unidad de prediccion actual a codificar no estan disponibles. Este procedimiento es eficaz cuando un tipo de segmento no es intra (I).
En primer lugar, se determina si los pixeles estan presentes en las mismas posiciones que los pixeles de referencia de una unidad de prediccion actual en una imagen de referencia codificada anteriormente para un bloque actual. Cuando los pixeles estan presentes, los pixeles de la imagen de referencia se copian para generar los pixeles de referencia de la unidad de prediccion actual.
Cuando los pixeles no estan presentes, se determina si los pixeles estan presentes en las posiciones mas cercanas (1 pixel aparte) para hacer referencia a los pixeles de la unidad de prediccion actual. Cuando los pixeles estan presentes, los pixeles se copian y se usan como los pixeles de referencia de la unidad de prediccion actual.
La unidad 152 de filtrado de pixel de referencia filtra de manera adaptativa los pixeles de referencia de la unidad de prediccion actual. Se aplica un filtro de paso bajo para suavizar una varianza de los valores de pixel entre los pixeles de referencia. El filtro de paso bajo puede ser un filtro de 3 derivaciones [1, 2, 1] o un filtro de 5 derivaciones [1, 2, 4, 2, 1].
El filtro puede aplicarse de manera adaptativa de acuerdo con un tamano del bloque actual. Si el tamano del bloque actual es igual a o menor que un tamano predeterminado, el filtro no puede aplicarse. El tamano predeterminado puede ser de 4x4.
El filtro tambien puede aplicarse de manera adaptativa de acuerdo con un tamano del bloque actual y el modo de intra prediccion.
Si el modo de intra prediccion es el modo horizontal o el modo vertical, se generan los pixeles de un bloque de prediccion usando un pixel de referencia. Por lo tanto, no se aplica un filtro en el modo horizontal y en el modo vertical. En el modo DC, se genera un pixel de prediccion usando la media de los pixeles de referencia. Por lo tanto, no se aplica un filtro en el modo DC debido a que el pixel de prediccion no se ve afectado por la diferencia entre los pixeles de referencia.
En el modo de intra prediccion 3, 6 o 9 que tiene una direccion de 45° con respecto a la direccion horizontal o vertical, se aplica un filtro, independientemente del tamano de la unidad de prediccion o se aplica cuando el bloque actual es mayor que una unidad de prediccion mas pequena. Un primer filtro puede aplicarse a una unidad de
5
10
15
20
25
30
35
40
45
50
prediccion que tiene un tamano mas pequeno que un tamano predeterminado, y puede aplicarse un segundo filtro mas fuerte que el primer filtro a una unidad de prediccion que tiene un tamano igual a o mayor que el tamano predeterminado. El tamano predeterminado puede ser 16x16.
En los modos de intra prediccion diferentes del modo vertical, el modo horizontal, el modo DC y el modo de intra prediccion 3, 6 y 9, puede aplicarse un filtro de manera adaptativa de acuerdo con el tamano de la unidad de prediccion actual y el modo de intra prediccion. Sin embargo, en el modo plano, puede realizarse el filtrado de los pfxeles de referencia.
Ademas, el filtro no puede aplicarse a algunos o a todos los pfxeles de referencia generados a traves de la combinacion lineal.
La unidad 153 de generacion de bloques de prediccion genera un bloque de prediccion correspondiente al modo de intra prediccion. El bloque de prediccion se genera usando los pfxeles de referencia o una combinacion lineal de los pfxeles de referencia en base al modo de intra prediccion. Los pfxeles de referencia que se usan para generar el bloque de prediccion puede filtrarse por la unidad 152 de filtrado de pixel de referencia.
La unidad 154 de filtrado de bloque de prediccion filtra de manera adaptativa el bloque de prediccion generado de acuerdo con el modo de intra prediccion para minimizar la senal residual entre el bloque de prediccion y el bloque actual a codificar. La diferencia entre un pixel de referencia y un pixel de prediccion adyacente al pixel de referencia vana de acuerdo con el modo de intra prediccion. Por lo tanto, el filtrado del pixel de prediccion adyacente al pixel de referencia permite que se disminuya la diferencia.
En el modo DC, el bloque de prediccion consiste en las medias de los pfxeles de referencia, y puede producirse una diferencia de paso entre los pfxeles en un bloque de prediccion adyacente a los pfxeles de referencia. Por lo tanto, los pfxeles de prediccion de la lmea superior y de la lmea izquierda que son adyacentes a los pfxeles de referencia se filtran usando los pfxeles de referencia. El pixel de prediccion superior izquierdo adyacente a dos pfxeles de referencia (el pixel de referencia superior y el pixel de referencia izquierdo) se filtra por un filtro de 3 derivaciones. Los otros pfxeles de prediccion (los pfxeles de la lmea superior y los pfxeles de la lmea izquierda en el bloque de prediccion) y adyacentes a un pixel de referencia se filtran por el filtro de 2 derivaciones.
En el modo vertical (modo 0), el modo inferior-izquierda diagonal (modo 6), y los modos de intra prediccion (modos 22, 12, 23, 5, 24, 13, 25) entre el modo 0 y el modo 6, se genera un bloque de prediccion usando solo los pfxeles de referencia superior de la unidad de prediccion. Por lo tanto, la diferencia entre un pixel de referencia y un pixel de prediccion adyacente al pixel de referencia y de la lmea superior en el bloque de prediccion puede ser mas grande que la posicion del pixel de prediccion que va hacia abajo.
Ademas, en el modo horizontal (modo 1), el modo arriba-derecha diagonal (modo 9), y los modos de intra prediccion (modos 30, 16, 31, 8, 32, 17, 33) entre el modo 1 y el modo 9, se genera un bloque de prediccion usando solo los pfxeles de referencia izquierda. Por lo tanto, la diferencia entre un pixel de referencia y un pixel de prediccion adyacente al pixel de referencia y de la lmea superior en el bloque de prediccion puede ser mas grande que la posicion del pixel de prediccion que va hacia la derecha.
En consecuencia, algunos pfxeles de prediccion del bloque de prediccion pueden filtrarse para compensar la diferencia en el modo de intra prediccion direccional distinta del modo DC.
En el modo 6, se filtran todos o algunos pfxeles de prediccion adyacentes al pixel de referencia izquierdo y de la lmea izquierda en el bloque de prediccion. Los pfxeles de la lmea izquierda pueden ser, por ejemplo, N/2 pfxeles en una parte inferior de la lmea izquierda. En este caso, N es la altura de la unidad de prediccion actual.
En el modo 9, se filtran todos o algunos pfxeles de prediccion adyacentes al pixel de referencia superior y de la lmea superior en el bloque de prediccion. Los pfxeles de la lmea superior pueden ser, por ejemplo, M/2 pfxeles en una parte derecha de la lmea superior. En este caso, M es el ancho de la unidad de prediccion actual.
En un numero predeterminado de modos de intra prediccion direccionales que estan mas cerca al modo 6 y existen entre el modo 0 y el modo 6, puede usarse el mismo procedimiento de filtrado que en el modo 6. En este caso, cuanto mas alejado es un modo del modo 6, el numero de pfxeles a filtrar es menor o igual.
El mismo procedimiento de filtrado puede usarse en los modos de intra prediccion direccionales entre el modo 1 y el modo 9.
Mientras tanto, el filtro se aplica de manera adaptativa de acuerdo con el tamano de la unidad de prediccion actual. Por ejemplo, no se aplica un filtrado a un tamano predeterminado o menos de acuerdo con el modo de intra prediccion.
La unidad 154 de bloque de filtrado de prediccion puede estar integrada en la unidad 153 de generacion de bloques de prediccion. Ademas, puede generarse un bloque de prediccion para producir efectos del filtrado de bloque de prediccion. En este caso, el bloque de prediccion se genera usando la combinacion del funcionamiento de
5
10
15
20
25
30
35
40
45
50
55
generacion y del funcionamiento de filtrado.
La unidad 155 de determinacion de modo de intra prediccion determina el modo de intra prediccion de una unidad de prediccion actual usando los pfxeles de referencia. La unidad 155 de determinacion de modo de intra prediccion selecciona un modo de intra prediccion en el que la cantidad de bits de codificacion de un bloque residual se minimiza como el modo de intra prediccion de la unidad de prediccion actual. Para generar un bloque residual, se genera un bloque de prediccion de acuerdo con cada modo de intra prediccion. El bloque de prediccion puede generarse usando los pfxeles de referencia filtrados por la unidad de filtrado de pfxeles de referencia o puede ser un bloque filtrado por la unidad 154 de filtrado de bloques de prediccion.
La unidad 157 de transmision de bloques de prediccion transmite el bloque de prediccion generado en base al modo de intra prediccion por la unidad 155 de determinacion de modo de intra prediccion al restador.
La unidad 156 de codificacion de modo de prediccion codifica el modo de intra prediccion de la unidad de prediccion actual determinado por la unidad 155 de determinacion de modo de intra prediccion. La unidad 156 de codificacion de modo de prediccion puede estar integrada en la unidad 150 de intra prediccion o en la unidad 140 de codificacion por entropfa.
La unidad 156 de codificacion de modo de prediccion codifica el modo de intra prediccion de la unidad de prediccion actual usando un modo de intra prediccion superior de la unidad de prediccion actual y un modo de intra prediccion izquierdo de la unidad de prediccion actual.
En primer lugar, se obtienen el modo de intra prediccion superior y el modo de intra prediccion izquierdo de la unidad de prediccion actual. Cuando existe una pluralidad de unidades de prediccion superior de la unidad de prediccion actual, la pluralidad de unidades de prediccion anteriores se explora en una direccion predeterminada (por ejemplo, de derecha a izquierda) para determinar el modo de intra prediccion de una primera unidad de prediccion disponible como un modo de intra prediccion superior. Ademas, cuando existe una pluralidad de unidades de prediccion izquierdas de la unidad de prediccion actual, la pluralidad de unidades de prediccion izquierdas se explora en una direccion predeterminada (por ejemplo, de abajo hacia arriba) para determinar el modo de intra prediccion de una primera unidad de prediccion disponible como un modo de intra prediccion izquierdo. Como alternativa, entre una pluralidad de unidades de prediccion disponibles, el modo de intra prediccion de una unidad de prediccion disponible que tiene el numero de modo de prediccion mas bajo puede establecerse como un modo de intra prediccion superior.
Cuando el modo de intra prediccion superior o el modo de intra prediccion izquierdo no estan disponibles, el modo DC (modo 2) puede establecerse como el modo de intra prediccion superior o como el modo de intra prediccion izquierdo. El modo de intra prediccion superior o el modo de intra prediccion izquierdo se trata como no disponible cuando no existe una unidad de prediccion correspondiente.
A continuacion, el modo de intra prediccion superior o el modo de intra prediccion izquierdo se convierte en uno del numero predeterminado de los modos de intra prediccion cuando el numero de modo de intra prediccion superior o el numero de modo de intra prediccion izquierdo es igual a o mayor que el numero de modos de intra prediccion permisibles para la unidad de prediccion actual. El numero predeterminado puede variar de acuerdo con un tamano de la unidad de prediccion actual. Por ejemplo, cuando el tamano de la unidad de prediccion actual es 4x4, el modo de intra prediccion se convierte en uno de los nueve modos (modo 0 a modo 8), y cuando el tamano de la unidad de prediccion actual es 64x64, el modo de intra prediccion se mapea en uno de tres modos (modo 0 a modo 2). El modo de intra prediccion puede convertirse en uno de los modos de intra prediccion permisibles para la unidad de prediccion actual.
A continuacion, si el modo de intra prediccion de la unidad de prediccion actual es el mismo que uno cualquiera de los modos de intra prediccion superior e izquierdo, se transmiten al decodificador una bandera que indica que el modo de intra prediccion de la unidad de prediccion actual es el mismo que uno cualquiera los modos de intra prediccion superior e izquierdo y una bandera que indica uno de los modos de intra prediccion superior e izquierdo. En este caso, si los modos de intra prediccion superior e izquierdo son los mismos, puede omitirse la bandera que indica uno de los modos de intra prediccion superior e izquierdo. Ademas, si solo uno de los modos de intra prediccion superior e izquierdo esta disponible y el modo de intra prediccion disponible es el mismo que el modo de intra prediccion del bloque de prediccion actual, puede omitirse la bandera que indica uno de los modos de intra prediccion superior e izquierdo.
Pero, si el modo de intra prediccion de la unidad de prediccion actual no es el mismo que uno cualquiera de los modos de intra prediccion superior e izquierdo, el numero de modo de intra prediccion de la unidad de prediccion actual se compara con el numero de modo de intra prediccion superior y con el numero de modo de intra prediccion izquierdo. El numero de casos en los que los numeros de modo de intra prediccion izquierdo o superior es no mayor que el numero de modo de intra prediccion de la unidad de prediccion actual se calcula, y el valor obtenido restando el numero de casos del numero de modo de intra prediccion de la unidad de prediccion actual se determina como un numero de modo de intra prediccion final de la unidad de prediccion actual a transmitir. En este caso, cuando los numeros de modo de intra prediccion izquierdo y superior son identicos, los modos de intra prediccion superior e
5
10
15
20
25
30
35
40
45
50
55
izquierdo se consideran como uno.
De acuerdo con si los modos de intra prediccion superior e izquierdo son identicos o no, se determina una tabla para la codificacion por entrc^a del modo de intra prediccion final determinado.
La figura 7 es un diagrama de bloques que ilustra la unidad 250 de intra prediccion de un aparato 200 de descodificacion de imagenes en movimiento de acuerdo con la presente invencion.
La unidad 250 de intra prediccion de acuerdo con la presente invencion incluye una unidad 251 de decodificacion de modo de prediccion, una unidad 252 de generacion de pfxeles de referencia, una unidad 253 de filtrado de pfxeles de referencia, una unidad 254 de generacion de bloques de prediccion, una unidad 255 de filtrado de bloques de prediccion y una unidad 256 de transmision de bloques de prediccion.
La unidad 251 de decodificacion de modo de prediccion restablece el modo de intra prediccion de una unidad de prediccion actual de la siguiente manera.
En primer lugar, la unidad 251 de decodificacion de modo de prediccion recibe la informacion adicional incluida en el contenedor de informacion adicional para generar un bloque de prediccion. La informacion adicional incluye una bandera de prediccion y la informacion de prediccion residual. La bandera de prediccion indica si el modo de intra prediccion de la unidad de prediccion actual es el mismo que uno de los modos de intra prediccion de las unidades de prediccion adyacentes. La informacion de prediccion residual incluye la informacion determinada por la bandera de prediccion. Si la bandera de prediccion es 1, la informacion de prediccion residual puede incluir un mdice del modo de intra prediccion candidato. El mdice del modo de intra prediccion designa el modo de intra prediccion candidato. Si la bandera de prediccion es 0, la informacion residual puede incluir el numero de modo de intra prediccion residual.
Se obtienen los modos de intra prediccion candidatos de la unidad de prediccion actual. Los modos de intra prediccion candidatos se obtienen usando los modos de intra prediccion de las unidades de prediccion adyacentes. Por conveniencia, se describira un caso en el que el modo de intra prediccion candidato de la unidad de prediccion actual se limita a los modos de intra prediccion superior e izquierdo. Cuando existe una pluralidad de unidades de prediccion superiores o una pluralidad de unidades de prediccion izquierdas, el modo de intra prediccion de la unidad de prediccion superior o izquierda se determina del mismo como se ha descrito en el funcionamiento de la unidad 156 de codificacion de modo de intra prediccion del aparato 100 de codificacion. Ademas, cuando el numero de modo de un modo de intra prediccion candidato disponible es igual a o mayor que el numero de modos de intra prediccion permisibles para la unidad de prediccion actual, el modo de intra prediccion candidato disponible se convierte en uno de los modos permisibles para la unidad de prediccion actual como se ha descrito en la unidad 156 de codificacion de modo de intra prediccion.
A continuacion, cuando la bandera de prediccion recibida indica que la unidad de prediccion actual tiene el mismo modo de intra prediccion que una unidad de prediccion adyacente, y existe el mdice de modo de prediccion candidato, se determina un modo de prediccion indicado por el mdice de modo de prediccion candidato como el modo de intra prediccion de la unidad de prediccion actual.
Si la bandera de prediccion recibida indica que la unidad de prediccion actual tiene el mismo modo de intra prediccion que una unidad de prediccion adyacente, pero no existe un mdice de modo de prediccion candidato y un modo de intra prediccion disponible de la unidad de prediccion adyacente, se restablece el modo de intra prediccion disponible al modo de intra prediccion de la unidad de prediccion actual.
Si la bandera de prediccion recibida indica que la unidad de prediccion actual no tiene el mismo modo de intra prediccion que una unidad de prediccion adyacente, se compara un valor de modo de intra prediccion residual recibido con los numeros de modo de intra prediccion de los modos de intra prediccion disponibles candidatos para restablecer el modo de intra prediccion de la unidad de prediccion actual.
La unidad 252 de generacion de pfxeles de referencia genera los pfxeles de referencia usando el mismo procedimiento que el descrito en la unidad 151 de generacion de pfxeles de referencia del aparato 100 de codificacion. Sin embargo, la unidad 252 de generacion de pfxeles de referencia es diferente del generador 151 de pfxeles de referencia del aparato 100 de codificacion en que se generan de manera adaptativa los pfxeles de referencia de acuerdo con el modo de intra prediccion restablecido por el decodificador 251 de modo de prediccion. Es decir, la unidad 252 de generacion de pfxeles de referencia puede generar los pfxeles de referencia solo cuando los pfxeles de referencia usados para generar un bloque de prediccion y determinados por el modo de intra prediccion no estan disponibles.
La unidad 253 de filtrado de pfxeles de referencia filtra de manera adaptativa los pfxeles de referencia en base al modo de intra prediccion restablecido por la unidad 251 de decodificacion de modo de prediccion y un tamano de bloque de prediccion. La condicion de filtrado y un filtro son los mismos que los de la unidad 152 de filtrado de pfxeles de referencia del aparato 100 de codificacion.
La unidad 254 de generacion de bloques de prediccion genera un bloque de prediccion usando los p^xeles de referencia de acuerdo con el modo de intra prediccion restablecido por la unidad 251 de decodificacion de modo de prediccion.
La unidad 255 de filtrado de bloques de prediccion filtra de manera adaptativa el bloque de prediccion de acuerdo 5 con el modo de intra prediccion restablecido por la unidad 251 de decodificacion de modo de prediccion. El funcionamiento de filtrado es el mismo que el de la unidad 154 de filtrado de bloques de prediccion del aparato 100 de codificacion.
La unidad 256 de transmision de bloques de prediccion transmite el bloque de prediccion recibido del generador 254 de bloques de prediccion o de la unidad 255 de filtrado de bloques de prediccion al sumador 290.
10

Claims (7)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    REIVINDICACIONES
    1. Un aparato para codificar una imagen, comprendiendo el aparato:
    una unidad (150) de intra prediccion configurada para generar un bloque de prediccion correspondiente a un bloque actual de acuerdo con un modo de intra prediccion seleccionado de entre una pluralidad de modos de intra prediccion;
    una unidad (120) de transformada configurada para transformar un bloque residual obtenido calculando la diferencia entre un bloque original del bloque actual y el bloque de prediccion para generar un bloque de transformada;
    una unidad (130) de cuantificacion configurada para cuantificar el bloque de transformada para generar un bloque de transformada cuantificado usando un tamano de paso de cuantificacion;
    una unidad (131) de exploracion configurada para explorar los coeficientes de transformada cuantificados del bloque de transformada cuantificado para generar unos coeficientes de transformada cuantificados unidimensionales (1D); y
    una unidad (140) de codificacion por entropfa configurada para la codificacion entropica de los coeficientes de transformada cuantificados 1D,
    en el que, cuando un tamano del bloque de transformada es mas grande que 4x4, la unidad (131) de exploracion divide los coeficientes de transformada cuantificados en una pluralidad de sub-bloques, en el que la unidad (150) de intra prediccion incluye:
    una unidad (151) de generacion de pfxeles de referencia configurada para generar pfxeles de referencia usando pfxeles de referencia disponibles del bloque actual cuando existen pfxeles de referencia no disponibles; una unidad (152) de filtrado de pfxeles de referencia configurada para filtrar de manera adaptativa los pfxeles de referencia adyacentes al bloque actual en base al modo de intra prediccion seleccionado y a un tamano del bloque actual;
    una unidad (153) de generacion de bloques de prediccion configurada para generar el bloque de prediccion del bloque actual de acuerdo con el modo de intra prediccion seleccionado; y
    una unidad (154) de filtrado de bloques de prediccion configurada para filtrar de manera adaptativa algunos pfxeles de prediccion del bloque de prediccion en base al modo de intra prediccion seleccionado y al tamano del bloque actual, caracterizado porque
    la unidad (131) de exploracion explora la pluralidad de sub-bloques y los coeficientes de transformada cuantificados de cada sub-bloque usando un patron de exploracion determinado de acuerdo con el modo de intra prediccion seleccionado, en el que, cuando el modo de intra prediccion seleccionado es un modo horizontal, el patron de exploracion es una exploracion vertical.
  2. 2. El aparato de la reivindicacion 1, en el que, cuando el modo de intra prediccion seleccionado es uno de entre una pluralidad de numeros predeterminados de modos de intra prediccion adyacentes al modo horizontal, el patron de exploracion es la exploracion vertical.
  3. 3. El aparato de la reivindicacion 2, en el que el numero predeterminado es 8.
  4. 4. El aparato de la reivindicacion 1, en el que, cuando el modo de intra prediccion seleccionado es un modo no direccional, el patron de exploracion es un patron de exploracion predeterminado.
  5. 5. El aparato de la reivindicacion 1, en el que la unidad (130) de cuantificacion determina un tamano de paso de cuantificacion del bloque de codificacion anterior en el orden de exploracion como el predictor de tamano de paso de cuantificacion del bloque de codificacion actual cuando un tamano de paso de cuantificacion de un bloque de codificacion izquierdo de un bloque de codificacion actual y un tamano de paso de cuantificacion de un bloque de codificacion anterior del bloque de codificacion actual no estan disponibles.
  6. 6. El aparato de la reivindicacion 1, en el que la pluralidad de sub-bloques se exploran en una direccion inversa.
  7. 7. El aparato de la reivindicacion 1, en el que el tamano de paso de cuantificacion se determina por bloque de codificacion de un tamano predeterminado.
ES15187283.5T 2010-07-31 2011-07-29 Aparato para codificar una imagen Active ES2634819T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20100074462 2010-07-31
KR20100074462 2010-07-31
KR20110062603 2011-06-28
KR1020110062603A KR101373814B1 (ko) 2010-07-31 2011-06-28 예측 블록 생성 장치

Publications (1)

Publication Number Publication Date
ES2634819T3 true ES2634819T3 (es) 2017-09-29

Family

ID=45559906

Family Applications (6)

Application Number Title Priority Date Filing Date
ES15187283.5T Active ES2634819T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160967T Active ES2701700T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES17160963T Active ES2720652T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160956T Active ES2721768T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160949T Active ES2733115T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160965T Active ES2700621T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen

Family Applications After (5)

Application Number Title Priority Date Filing Date
ES17160967T Active ES2701700T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES17160963T Active ES2720652T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160956T Active ES2721768T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160949T Active ES2733115T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160965T Active ES2700621T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen

Country Status (17)

Country Link
US (11) US9319715B2 (es)
EP (7) EP2600614A4 (es)
JP (8) JP5928957B2 (es)
KR (1) KR101373814B1 (es)
CN (11) CN106878718B (es)
CY (5) CY1119258T1 (es)
DK (5) DK3214838T3 (es)
ES (6) ES2634819T3 (es)
HR (5) HRP20171277T1 (es)
HU (5) HUE041268T2 (es)
LT (5) LT3197160T (es)
PL (6) PL3211898T3 (es)
PT (5) PT2988501T (es)
RS (5) RS58060B1 (es)
SI (5) SI3211899T1 (es)
TR (1) TR201815076T4 (es)
WO (1) WO2012018198A2 (es)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8867854B2 (en) * 2008-10-01 2014-10-21 Electronics And Telecommunications Research Institute Image encoder and decoder using undirectional prediction
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
MY157593A (en) * 2010-04-23 2016-06-30 M&K Holdings Inc Apparatus and method for encoding image
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
CN102595118B (zh) * 2011-01-14 2015-04-08 华为技术有限公司 一种编解码中的预测方法和预测器
WO2012134046A2 (ko) 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
CN103609110B (zh) 2011-06-13 2017-08-08 太阳专利托管公司 图像解码方法、图像编码方法、图像解码装置、图像编码装置及图像编码解码装置
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
KR20140057683A (ko) 2011-08-29 2014-05-13 주식회사 아이벡스피티홀딩스 머지 모드에서 영상 부호화 방법
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
PL2869557T3 (pl) 2012-06-29 2024-02-19 Electronics And Telecommunications Research Institute Sposób i urządzenie do kodowania/dekodowania obrazów
JP5798539B2 (ja) * 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP6171627B2 (ja) * 2013-06-28 2017-08-02 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法および画像復号プログラム
JP6352141B2 (ja) * 2014-09-30 2018-07-04 Kddi株式会社 動画像符号化装置、動画像復号装置、動画像圧縮伝送システム、動画像符号化方法、動画像復号方法、およびプログラム
CN105812823B (zh) * 2014-12-31 2019-04-05 扬智科技股份有限公司 Hevc中帧内预测的参考像素替换方法与装置
JP6593934B2 (ja) * 2015-05-21 2019-10-23 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 映像動き補償のための装置および方法
WO2017030418A1 (ko) * 2015-08-19 2017-02-23 엘지전자(주) 다중 그래프 기반 모델에 따라 최적화된 변환을 이용하여 비디오 신호를 인코딩/ 디코딩하는 방법 및 장치
JP5933086B2 (ja) * 2015-08-21 2016-06-08 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
GB2596767B (en) 2015-08-28 2022-07-06 Kt Corp Method and device for processing video signal
KR20180040515A (ko) * 2015-09-10 2018-04-20 삼성전자주식회사 부호화 장치, 복호화 장치, 그 부호화 및 복호화 방법
JP6088689B2 (ja) * 2016-04-28 2017-03-01 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
KR20180001485A (ko) * 2016-06-24 2018-01-04 한국전자통신연구원 변환 기반의 영상 부호화/복호화 방법 및 장치
CN117412045A (zh) * 2016-07-13 2024-01-16 韩国电子通信研究院 图像编码/解码方法和装置
CN114339225B (zh) * 2016-09-05 2024-06-04 罗斯德尔动力有限责任公司 图像编码和解码装置及比特流存储介质和发送装置
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
JP6242517B2 (ja) * 2017-02-03 2017-12-06 株式会社Nttドコモ 動画像予測復号装置及び動画像予測復号方法
EP3410708A1 (en) * 2017-05-31 2018-12-05 Thomson Licensing Method and apparatus for intra prediction with interpolation
WO2018221554A1 (ja) * 2017-06-01 2018-12-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、符号化方法、復号装置及び復号方法
WO2019009620A1 (ko) * 2017-07-04 2019-01-10 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN110892723B (zh) 2017-07-06 2024-04-12 三星电子株式会社 用于编码或解码图像的方法和装置
CN109429064B (zh) * 2017-08-22 2021-03-30 华为技术有限公司 一种视频数据的编解码方法、装置和介质
CN117768643A (zh) * 2017-10-13 2024-03-26 弗劳恩霍夫应用研究促进协会 用于逐块图片编码的帧内预测模式概念
JP6408681B2 (ja) * 2017-11-07 2018-10-17 株式会社Nttドコモ 動画像予測復号方法
CN117834921A (zh) * 2018-01-17 2024-04-05 英迪股份有限公司 对视频进行解码或编码的方法和用于发送比特流的方法
KR102448401B1 (ko) 2018-03-16 2022-09-28 엘지전자 주식회사 인트라 예측 기반 영상/비디오 코딩 방법 및 그 장치
KR20220107090A (ko) * 2018-05-10 2022-08-01 삼성전자주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
EP3800883A4 (en) 2018-06-25 2021-07-07 Guangdong Oppo Mobile Telecommunications Corp., Ltd. INTRAFRAME PREDICTION PROCESS AND DEVICE
CN110650337B (zh) * 2018-06-26 2022-04-01 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
KR102555363B1 (ko) * 2018-06-29 2023-07-13 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 확장 기준 인트라 화면 예측
JP6602931B2 (ja) * 2018-09-20 2019-11-06 株式会社Nttドコモ 動画像予測復号方法
US11102513B2 (en) 2018-12-06 2021-08-24 Tencent America LLC One-level transform split and adaptive sub-block transform
CN110166773B (zh) * 2019-06-25 2021-08-31 浙江大华技术股份有限公司 帧内预测方法、视频编码方法、视频处理装置、存储介质
KR20220061908A (ko) 2019-09-24 2022-05-13 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 예측값의 확정 방법, 인코더, 디코더 및 컴퓨터 저장 매체

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100242635B1 (ko) * 1996-01-25 2000-02-01 윤종용 가변장 부호화 및 가변장 복호화 시스템
CN100521787C (zh) * 1996-05-28 2009-07-29 松下电器产业株式会社 图像预测编码方法
KR100324610B1 (ko) * 1996-05-28 2002-02-27 모리시타 요이찌 화상예측 복호화장치 및 방법
ES2238593T3 (es) * 2001-09-12 2005-09-01 Matsushita Electric Industrial Co., Ltd. Procedimiento de descodificacion de imagenes.
KR100798446B1 (ko) 2001-09-26 2008-01-28 에스케이 텔레콤주식회사 적응적 더블 스캔 방법
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
WO2003105070A1 (en) 2002-06-01 2003-12-18 Nokia Corporation Spatial prediction based intra coding
KR100846778B1 (ko) 2002-07-16 2008-07-16 삼성전자주식회사 복수개의 주사 패턴을 이용한 부호화 방법, 복호화 방법,및 그 장치
US7227901B2 (en) * 2002-11-21 2007-06-05 Ub Video Inc. Low-complexity deblocking filter
JP2004180064A (ja) 2002-11-28 2004-06-24 Ricoh Co Ltd 情報圧縮装置および方法、ならびにそのプログラム
US7289562B2 (en) * 2003-08-01 2007-10-30 Polycom, Inc. Adaptive filter to improve H-264 video quality
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
CN100542262C (zh) * 2004-01-30 2009-09-16 松下电器产业株式会社 逆量化方法图像解码方法和设备及处理器
US7869503B2 (en) * 2004-02-06 2011-01-11 Apple Inc. Rate and quality controller for H.264/AVC video coder and scene analyzer therefor
JP2006054846A (ja) 2004-07-12 2006-02-23 Sony Corp 符号化方法、符号化装置、復号方法、復号装置およびそれらのプログラム
CN1633180A (zh) * 2004-12-24 2005-06-29 海信集团有限公司 基于变换和数据融合的多描述视频编码方法
CN1665301A (zh) 2005-03-07 2005-09-07 清华大学 一种视频编解码中的自适应的扫描方法
KR100716999B1 (ko) * 2005-06-03 2007-05-10 삼성전자주식회사 영상의 대칭성을 이용한 인트라 예측 방법, 이를 이용한영상의 복호화, 부호화 방법 및 장치
KR100739714B1 (ko) 2005-07-06 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR100868476B1 (ko) 2005-10-21 2008-11-12 한국전자통신연구원 적응적 스캐닝을 이용한 동영상 부호화/복호화 장치 및 그방법
JP4114885B2 (ja) 2005-10-31 2008-07-09 松下電器産業株式会社 画像符号化装置、方法、及びプログラム
KR100750138B1 (ko) * 2005-11-16 2007-08-21 삼성전자주식회사 인간의 시각 특성을 이용한 영상의 부호화, 복호화 방법 및장치
AU2006320064B2 (en) 2005-11-30 2010-09-09 Kabushiki Kaisha Toshiba Image encoding/image decoding method and image encoding/image decoding apparatus
WO2007093629A1 (en) * 2006-02-17 2007-08-23 Thomson Licensing Process for coding images using intra prediction mode
JP2007300389A (ja) 2006-04-28 2007-11-15 Victor Co Of Japan Ltd 画像符号化装置および画像符号化プログラム
KR100882949B1 (ko) * 2006-08-17 2009-02-10 한국전자통신연구원 화소 유사성에 따라 적응적인 이산 코사인 변환 계수스캐닝을 이용한 부호화/복호화 장치 및 그 방법
CN101137047B (zh) * 2006-08-29 2010-09-15 昆山杰得微电子有限公司 一种通过有效残差系数分析提高编码效率的方法
BRPI0717639A2 (pt) * 2006-10-30 2013-11-12 Nippon Telegraph & Telephone Método de geração de informações de referência preditas, métodos de codificação de decodificação de vídeo, aparelhos destinados aos mesmos, programas destinados aos mesmos, e mídias de armazenamento que armazenam os programas
DE602007010835D1 (de) * 2007-01-18 2011-01-05 Fraunhofer Ges Forschung Qualitätsskalierbarer videodatenstrom
JP4254867B2 (ja) 2007-01-31 2009-04-15 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
KR101074870B1 (ko) * 2007-03-14 2011-10-19 니폰덴신뎅와 가부시키가이샤 부호량 추정 방법, 장치, 그 프로그램 및 기록매체
JP4939273B2 (ja) * 2007-03-29 2012-05-23 キヤノン株式会社 画像符号化装置及び画像符号化方法
KR20100027096A (ko) * 2007-04-18 2010-03-10 톰슨 라이센싱 인트라 예측을 위한 적응 기준 영상 데이터 생성
CN100496127C (zh) * 2007-06-05 2009-06-03 南京大学 Mpeg-2到h.264码的快速转换方法
US8488668B2 (en) * 2007-06-15 2013-07-16 Qualcomm Incorporated Adaptive coefficient scanning for video coding
JP2009027541A (ja) 2007-07-20 2009-02-05 Ntt Docomo Inc 画像符号化装置、方法及びプログラム、並びに、画像復号装置、方法及びプログラム
KR100907707B1 (ko) * 2007-09-06 2009-07-14 동국대학교 산학협력단 H.264/avc 압축 영역에서의 썸네일 영상의 고속 추출방법, 그 장치 및 이를 기록한 기록매체
KR100919572B1 (ko) * 2007-09-11 2009-10-01 주식회사 부시파워 디지털 조속기의 속도제어를 위한 속도형 신경망 제어기
CN101389031A (zh) * 2007-09-14 2009-03-18 浙江大学 一种对变换系数的处理方法及装置
US8848787B2 (en) * 2007-10-15 2014-09-30 Qualcomm Incorporated Enhancement layer coding for scalable video coding
WO2009080133A1 (en) 2007-12-21 2009-07-02 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive intra mode selection
US8891615B2 (en) * 2008-01-08 2014-11-18 Qualcomm Incorporated Quantization based on rate-distortion modeling for CABAC coders
CN101257630B (zh) * 2008-03-25 2012-06-06 浙江大学 结合三维滤波的视频编码方法和装置
JP2009284298A (ja) * 2008-05-23 2009-12-03 Hitachi Ltd 動画像符号化装置、動画像復号化装置、動画像符号化方法及び動画像復号化方法
JP2009302776A (ja) 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
KR101483497B1 (ko) * 2008-09-25 2015-01-20 에스케이텔레콤 주식회사 임펄스 신호를 고려한 영상 부호화/복호화 장치 및 방법
US9479786B2 (en) * 2008-09-26 2016-10-25 Dolby Laboratories Licensing Corporation Complexity allocation for video and image coding applications
CN101383972A (zh) * 2008-09-28 2009-03-11 北京航空航天大学 基于空间预测与变换的遥感图像压缩方法
KR101458471B1 (ko) 2008-10-01 2014-11-10 에스케이텔레콤 주식회사 영상 부호화/복호화 방법 및 장치
US20100098156A1 (en) * 2008-10-16 2010-04-22 Qualcomm Incorporated Weighted prediction based on vectorized entropy coding
EP2182732A1 (en) * 2008-10-28 2010-05-05 Panasonic Corporation Switching between scans in image coding
EP2192780A1 (en) * 2008-11-28 2010-06-02 Thomson Licensing Method for video decoding supported by Graphics Processing Unit
WO2010063881A1 (en) * 2008-12-03 2010-06-10 Nokia Corporation Flexible interpolation filter structures for video coding
US8514942B2 (en) * 2008-12-31 2013-08-20 Entropic Communications, Inc. Low-resolution video coding content extraction
KR101538704B1 (ko) * 2009-01-28 2015-07-28 삼성전자주식회사 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
JP5169978B2 (ja) * 2009-04-24 2013-03-27 ソニー株式会社 画像処理装置および方法
KR101712351B1 (ko) * 2009-06-26 2017-03-06 에스케이 텔레콤주식회사 다차원 정수 변환을 이용한 영상 부호화/복호화 장치 및 방법
US8477845B2 (en) * 2009-10-16 2013-07-02 Futurewei Technologies, Inc. Predictive adaptive scan ordering for video coding
US8588303B2 (en) 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
US8644375B2 (en) * 2010-04-09 2014-02-04 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
US20110249734A1 (en) * 2010-04-09 2011-10-13 Segall Christopher A Methods and Systems for Intra Prediction
HRP20220743T1 (hr) 2010-04-13 2022-08-19 Ge Video Compression, Llc Kodiranje signifikacijskih mapa i blokova koeficijenata transformacije
CN101841713B (zh) * 2010-04-30 2012-12-05 西安电子科技大学 降低编码码率的视频编码方法及***
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
US9049444B2 (en) * 2010-12-22 2015-06-02 Qualcomm Incorporated Mode dependent scanning of coefficients of a block of video data
CA2961824C (en) * 2011-01-12 2019-07-23 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, and image decoding method
EP2684355B1 (en) * 2011-03-10 2014-11-12 Telefonaktiebolaget L M Ericsson (PUBL) Decoding of transforms with curved basis functions

Also Published As

Publication number Publication date
PL3197161T3 (pl) 2019-02-28
PL3214838T3 (pl) 2019-08-30
RS56109B1 (sr) 2017-10-31
US20160198183A1 (en) 2016-07-07
LT3211899T (lt) 2019-03-12
PL3211899T3 (pl) 2019-09-30
CN106878720A (zh) 2017-06-20
CN107087176B (zh) 2020-01-14
CN104602003A (zh) 2015-05-06
EP3214838A1 (en) 2017-09-06
DK2988501T3 (en) 2017-08-07
US9584827B2 (en) 2017-02-28
CN106878719B (zh) 2019-08-30
JP6084734B2 (ja) 2017-02-22
SI3197160T1 (sl) 2018-11-30
KR101373814B1 (ko) 2014-03-18
US20160198187A1 (en) 2016-07-07
JP2016165127A (ja) 2016-09-08
US9578349B2 (en) 2017-02-21
JP2016165131A (ja) 2016-09-08
JP6084731B2 (ja) 2017-02-22
US20160198180A1 (en) 2016-07-07
JP2013535919A (ja) 2013-09-12
JP2016165129A (ja) 2016-09-08
WO2012018198A2 (ko) 2012-02-09
USRE48564E1 (en) 2021-05-18
EP3197161B1 (en) 2018-09-12
JP2016165132A (ja) 2016-09-08
JP6149138B2 (ja) 2017-06-14
JP2016165128A (ja) 2016-09-08
JP6084732B2 (ja) 2017-02-22
RS58769B1 (sr) 2019-06-28
SI2988501T1 (sl) 2017-08-31
US20160198184A1 (en) 2016-07-07
CN106878718B (zh) 2019-11-01
CN103081473A (zh) 2013-05-01
JP2016165126A (ja) 2016-09-08
EP2988501B1 (en) 2017-05-24
CN107087176A (zh) 2017-08-22
PT3214838T (pt) 2019-06-07
CN107087175B (zh) 2020-03-06
CY1121755T1 (el) 2020-07-31
JP5928957B2 (ja) 2016-06-01
PT3197160T (pt) 2018-12-19
LT3197160T (lt) 2018-11-12
CN107071427B (zh) 2020-01-14
JP6149137B2 (ja) 2017-06-14
US20160198188A1 (en) 2016-07-07
PL2988501T3 (pl) 2017-10-31
EP3211899A1 (en) 2017-08-30
LT3211898T (lt) 2019-04-25
CN106878721B (zh) 2019-11-01
US20160198181A1 (en) 2016-07-07
TR201815076T4 (tr) 2018-11-21
EP2988501A2 (en) 2016-02-24
RS58605B1 (sr) 2019-05-31
HUE044599T2 (hu) 2019-11-28
CN106878721A (zh) 2017-06-20
CN106878718A (zh) 2017-06-20
SI3211899T1 (sl) 2019-06-28
US9554154B2 (en) 2017-01-24
HUE041268T2 (hu) 2019-05-28
CN103081473B (zh) 2016-11-09
ES2720652T3 (es) 2019-07-23
DK3197160T3 (da) 2019-01-02
US9584828B2 (en) 2017-02-28
CN107071427A (zh) 2017-08-18
SI3214838T1 (sl) 2019-05-31
ES2733115T3 (es) 2019-11-27
US9609360B2 (en) 2017-03-28
CN104602006B (zh) 2017-11-10
HUE036014T2 (hu) 2018-06-28
CN104602006A (zh) 2015-05-06
DK3211899T3 (da) 2019-05-13
EP2988501A3 (en) 2016-03-16
DK3214838T3 (da) 2019-05-27
CY1121935T1 (el) 2020-10-14
PT2988501T (pt) 2017-06-26
SI3211898T1 (sl) 2019-06-28
HRP20190708T1 (hr) 2019-07-12
WO2012018198A3 (ko) 2012-04-12
ES2700621T3 (es) 2019-02-18
PT3211898T (pt) 2019-06-11
CN104602003B (zh) 2017-11-10
JP6084735B2 (ja) 2017-02-22
US9584826B2 (en) 2017-02-28
US20160198186A1 (en) 2016-07-07
LT2988501T (lt) 2017-09-11
PL3197160T3 (pl) 2019-02-28
CN106878719A (zh) 2017-06-20
US9609359B2 (en) 2017-03-28
EP3214838B1 (en) 2019-02-27
EP2600614A4 (en) 2014-09-10
HUE044306T2 (hu) 2019-10-28
RS58484B1 (sr) 2019-04-30
CY1120798T1 (el) 2019-12-11
EP3211898B1 (en) 2019-04-03
CN107105241B (zh) 2020-04-28
CN107105241A (zh) 2017-08-29
ES2721768T3 (es) 2019-08-05
JP2016165130A (ja) 2016-09-08
HRP20182099T1 (hr) 2019-02-08
US9319715B2 (en) 2016-04-19
EP3197160B1 (en) 2018-09-12
HRP20171277T1 (hr) 2017-10-20
CY1121682T1 (el) 2020-07-31
US20160198185A1 (en) 2016-07-07
EP3211898A1 (en) 2017-08-30
EP3211899B1 (en) 2019-02-20
US20160198182A1 (en) 2016-07-07
CN107087175A (zh) 2017-08-22
RS58060B1 (sr) 2019-02-28
CY1119258T1 (el) 2018-02-14
CN106878720B (zh) 2019-08-30
JP6084733B2 (ja) 2017-02-22
US20130016773A1 (en) 2013-01-17
EP2600614A2 (en) 2013-06-05
CN103081473B8 (zh) 2017-03-15
HUE045031T2 (hu) 2019-12-30
US9584829B2 (en) 2017-02-28
DK3211898T3 (da) 2019-07-01
US9584830B2 (en) 2017-02-28
EP3197161A1 (en) 2017-07-26
PL3211898T3 (pl) 2019-09-30
HRP20190770T1 (hr) 2019-06-28
LT3214838T (lt) 2019-03-25
EP3197160A1 (en) 2017-07-26
ES2701700T3 (es) 2019-02-25
PT3211899T (pt) 2019-05-31
HRP20190709T1 (hr) 2019-07-12
KR20120012383A (ko) 2012-02-09

Similar Documents

Publication Publication Date Title
ES2634819T3 (es) Aparato para codificar una imagen
ES2575381T3 (es) Dispositivo de decodificación de intra-predicción
ES2685668T3 (es) Aparato para codificar un modo de intrapredicción
ES2952358T3 (es) Aparato para decodificar un fotograma en movimiento