ES2241085T3 - Procedimiento y aparato de decodificacion de imagenes, y medios de registro de datos. - Google Patents
Procedimiento y aparato de decodificacion de imagenes, y medios de registro de datos.Info
- Publication number
- ES2241085T3 ES2241085T3 ES98118076T ES98118076T ES2241085T3 ES 2241085 T3 ES2241085 T3 ES 2241085T3 ES 98118076 T ES98118076 T ES 98118076T ES 98118076 T ES98118076 T ES 98118076T ES 2241085 T3 ES2241085 T3 ES 2241085T3
- Authority
- ES
- Spain
- Prior art keywords
- signal
- data
- luminance
- color
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N11/00—Colour television systems
- H04N11/04—Colour television systems using pulse code modulation
- H04N11/042—Codec means
- H04N11/044—Codec means involving transform coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/156—Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Color Television Systems (AREA)
Abstract
UN PROCEDIMIENTO DE DESCODIFICACION DE IMAGEN PARA DESCODIFICAR DE FORMA COMPRESIVA DATOS CODIFICADOS, INCLUYENDO DATOS CODIFICADOS OBTENIDOS POR LA CODIFICACION DE UNA SEÑAL DE LUMINANCIA Y UNA SEÑAL DE DIFERENCIA DE COLOR PARA REPRODUCIR UNA SEÑAL DE IMAGEN EN UNA PANTALLA, COMPRENDE LAS ETAPAS DE: DESCODIFICACION DE LOS DATOS CODIFICADOS DE LA SEÑAL DE LUMINANCIA Y DE LOS DATOS CODIFICADOS DE LA SEÑAL DE DIFERENCIA DE COLOR EN EL MODO DE VISUALIZACION DE COLOR DE LA IMAGEN; Y DESCODIFICACION DE LOS DATOS CODIFICADOS DE LA SEÑAL DE LUMINANCIA EN EL MODO DE VISUALIZACION MONOCROMO DE LA IMAGEN.
Description
Procedimiento y aparato de decodificación de
imágenes, y medios de registro de datos.
La presente invención se refiere a un
procedimiento de decodificación de imágenes, un aparato de
decodificación de imágenes y unos medios de registro de datos, y
más particularmente, al ahorro de energía en un procedimiento de
decodificación de imágenes digitales en la modalidad de
presentación monocroma.
Para almacenar o transmitir con eficacia
información de imágenes digitales, es necesario llevar a cabo la
codificación con compresión de la información de imágenes
digitales. Actualmente, se dispone de procedimientos de codificación
de forma de onda, tales como los de codificación por subbandas,
"wavelets", fractales, etc., y de procedimientos de
transformación discreta del coseno (DCT) habituales en JPEG (Grupo
mixto de expertos en fotografía) o en MPEG (Grupo de expertos en
imágenes en movimiento), como procedimientos para llevar a cabo la
codificación con compresión de la información de imágenes
digitales.
Asimismo, se dispone de un procedimiento en el
que se lleva a cabo una predicción intertrama mediante compensación
de movimiento, representando los valores de los píxeles de la trama
actual por medio de los valores de diferencia entre estos valores y
los valores de los píxeles de la trama anterior, y en el que se
somete la señal de diferencia de los valores de diferencia a
codificación de forma de onda para eliminar la información de
imagen redundante entre tramas adyacentes o similares.
A continuación, se describirá un procedimiento de
codificación de imágenes y un procedimiento de decodificación de
imágenes según MPEG, en los que se emplea un procedimiento DCT con
compensación de movimiento, para describir un procedimiento de
procesamiento de imágenes de técnica anterior.
En este procedimiento de codificación de
imágenes, en primer lugar, la señal imagen de entrada se divide en
una pluralidad de señales imagen correspondientes a la pluralidad
de bloques ("macrobloques") en la que se divide la pantalla de
presentación y, en segundo lugar, las señales imagen de cada
macrobloque se codifican. El término "macrobloque" se refiere
aquí a una zona de presentación de la imagen que comprende 16 x 16
píxeles en la pantalla de presentación.
La señal imagen de cada macrobloque se divide en
señales imagen correspondientes a subbloques que corresponden a
zonas de presentación de la imagen que comprenden 8 x 8 píxeles
cada una y, a continuación, las señales imagen se someten a un
procedimiento DCT para que cada subbloque genere los coeficientes
DCT de cada subbloque. Los coeficientes DCT se cuantifican para
generar valores de cuantificación para cada subbloque. Este
procedimiento de codificación de la señal imagen mediante el
procedimiento DCT y el procedimiento de cuantificación se denomina
procedimiento de "codificación intratrama".
En la zona de recepción, los valores de
cuantificación de cada subbloque se someten a cuantificación
inversa y a un procedimiento de DCT inversa para reproducir la
señal imagen correspondiente a cada subbloque.
Por otra parte, existe otro procedimiento de
codificación de señales imagen denominado "codificación
intertrama". En este procedimiento de codificación, se detecta,
como macrobloque de predicción, un macrobloque en el que los errores
entre los píxeles de éste y los píxeles de un macrobloque de
destino pendiente de codificar son los más pequeños, en una trama
que temporalmente es adyacente a una trama pendiente de codificar,
mediante un procedimiento para detectar el movimiento de una imagen
en la pantalla de presentación, tal como un procedimiento de
"correspondencia de bloques".
Seguidamente, según el movimiento detectado de la
imagen, la señal imagen de la trama codificada se somete a
compensación de movimiento para obtener una señal imagen óptima
para el valor de predicción de la señal imagen del macrobloque de
destino. Las señales que indican el macrobloque (macrobloque de
predicción) con el error mínimo constituyen vectores de movimiento.
En lo sucesivo, la trama que incluye el macrobloque de predicción y
que se utiliza para generar el valor de predicción se denominará
"trama de referencia".
A continuación, se calcula la señal de diferencia
entre la señal imagen de un subbloque del macrobloque de destino y
la señal de predicción de éste y, entonces, esta señal se somete al
procedimiento DCT para generar coeficientes DCT, que se cuantifican
para generar valores de cuantificación. Después, los valores de
cuantificación de los respectivos subbloques del macrobloque de
destino se transmiten o almacenan junto con la información de
movimiento.
En la zona de recepción, los valores de
cuantificación (coeficientes DCT cuantificados) se someten a
cuantificación inversa y a DCT inversa para restaurar la señal de
diferencia de cada macrobloque. A continuación, la señal imagen de
la trama de referencia decodificada se somete a compensación de
movimiento, utilizando el vector de movimiento, para generar el
valor de predicción de la señal imagen del macrobloque de destino
pendiente de decodificar. Entonces, el valor de predicción y la
señal de diferencia se suman para reproducir la señal imagen del
macrobloque de destino.
Durante este procesamiento de imágenes según
MPEG, cuando se efectúa la codificación con compresión de la señal
de luminancia y la señal de diferencia de color de una señal imagen
digital, en la zona de transmisión se lleva a cabo la conmutación
entre la codificación intratrama y la codificación intertrama de
forma adecuada para cada macrobloque, mientras que, en la zona de
recepción, se lleva a cabo la conmutación entre la decodificación
intratrama y la decodificación intertrama de forma adecuada para la
señal de luminancia codificada con compresión y la señal de
diferencia de color codificada con compresión, de tal manera que
cada macrobloque pueda reproducir la señal de luminancia y la señal
de diferencia de color y la señal imagen digital resultante pueda
presentarse como una imagen en color.
Según el procedimiento MPEG descrito, la señal
imagen se codifica en unidades de macrobloque que se componen cada
una de cuatro bloques de luminancia 701 a 704 y dos bloques de
diferencia de color 705 y 706 (representados en la Figura 7) y,
entonces, la señal imagen codificada se transmite mediante difusión
por satélite o transmisión por cable para ser reproducida por un
receptor instalado o un receptor portátil.
En la situación actual, se exige que el receptor
portátil pueda llevar a cabo un procedimiento de reproducción de
señales imagen que ahorre energía (es decir, que reduzca la energía
consumida por el procesamiento de seña-
les).
les).
Para concretar, cuando la señal imagen se
reproduce y presenta como una imagen en color, se decodifica la
señal de luminancia codificada y la señal de diferencia de color
codificada de la señal imagen. En este caso, para una señal imagen
con codificación intertrama, es necesario hallar el valor de
predicción de la señal de diferencia de color, así como el valor de
predicción de la señal de luminancia, hecho que determina la
necesidad de procesar una cantidad considerable de señales para
hallar el valor de predicción, y provoca un correspondiente
incremento de la energía necesaria para este procesamiento.
En la presentación de señales en color, es
necesario convertir la señal de luminancia reproducida "Y" y
las señales de diferencia de color reproducidas "U" y "V"
en una señal Rbg (Roja, Verde, Azul) según las siguientes ecuaciones
(1) \sim (3):
... (1)R =
1,164 \ (Y-16) + 1,596 \ (U-128)
... (2)G =
1,164 \ (Y-16) - 0,813 \ (U-128) -
0,391 \ (V-128)
... (3)B =
1,164 \ (Y-16) + 2,018 \ (V-128)
Para esta conversión, las señales de diferencia
de color U y V deben multiplicarse, hecho que consume una cantidad
de energía considerable.
Por consiguiente, resulta difícil reproducir la
señal imagen procesada según MPEG y presentarla como una imagen en
color ahorrando energía. Por esta razón, la imagen presentada ante
el usuario no se regenera durante un largo período de tiempo.
El documento EP 0706 164 A1 da a conocer un
sistema electrónico de monitor de color de emisión por efecto de
campo que incluye un aparato de reducción de energía 40. El sistema
de presentación incluye una placa emisora direccionable por matriz
14 y una placa anódica tricromática conmutable por tensión 10. En
una modalidad de consumo reducido de energía, la pantalla pasa de
la modalidad en color a la modalidad monocroma, y el aparato de
reducción de energía 40 determina que la información de luminancia
verde (que contiene la información de vídeo monocromo) eluda la
memoria de tramas 80 y se acople directamente de los multiplexores
82 a los multiplexores 84 por medio de memorias tampón de tres
estados 86. Las memorias tampón 86 proporcionan aislamiento para las
líneas de derivación durante el funcionamiento en color de la
pantalla. Gracias a la puesta en derivación de la memoria de tramas
80 durante el funcionamiento monocromo, la memoria de tramas 80
puede pasar a la modalidad de espera, ahorrándose de ese modo un
watt de energía, aproximadamente. Se dan a conocer tres sistemas
alternativos para controlar la entrada en la modalidad de consumo
de energía reducido.
Uno de los objetivos de la presente invención es
proporcionar un procedimiento de decodificación de imágenes y un
aparato de decodificación de imágenes, en los que la señal imagen
codificada con compresión puede ser decodificada con ahorro de
energía, pudiéndose presentar de ese modo una imagen regenerada en
el equipo del terminal portátil durante un período de tiempo largo,
y medios de registro de datos que contienen un programa de
procesamiento de imágenes para implementar la decodificación
mediante este procedimiento de decodificación de imágenes.
Otros objetivos y ventajas de la presente
invención se pondrán de manifiesto a partir de la descripción
detallada proporcionada a continuación. No obstante, debe
sobrentenderse que la descripción detallada y la realización
específica sólo pretenden ser ilustrativas, puesto que, como se
pondrá de manifiesto para los expertos en la materia a través de la
descripción detallada, resulta posible efectuar diversos cambios y
modificaciones dentro del alcance de la presente invención.
Estos objetivos se alcanzan mediante un aparato
de decodificación de imágenes según la reivindicación 1.
La Figura 1 es un diagrama de bloques que
representa un aparato de decodificación de imágenes digitales según
una primera realización de la presente invención.
La Figura 2 es un diagrama que representa la
estructura de los datos codificados con compresión procesados por
el aparato de decodificación de imágenes digitales.
La Figura 3 es un diagrama que representa el
flujo de un procedimiento para decodificar datos con codificación
intrabloque mediante el aparato de decodificación de imágenes
digitales.
La Figura 4 es un diagrama que representa el
flujo de un procedimiento para rechazar datos codificados
correspondientes a bloques de diferencia de color en el aparato de
decodificación de imágenes digitales.
La Figura 5 es un diagrama que representa el
flujo de un procedimiento para decodificar datos con codificación
interbloque mediante el aparato de decodificación de imágenes
digitales.
Las Figuras 6(a) a 6(c) son
diagramas que ilustran unos medios de registro de datos que
contienen un programa para implementar el procedimiento de
decodificación de imágenes digitales en un sistema informático.
La Figura 7 es un diagrama que representa las
unidades de codificación de los datos codificados con compresión
procesados por el aparato de decodificación de imágenes
digitales.
Las Figuras 8(a) a 8(e) son
diagramas para ilustrar la codificación de longitud variable según
MPEG2 que genera un tren de bits codificados en la realización
anterior, representando la Figura 8(a) una matriz
bidimensional de valores de cuantificación, la Figura 8(b)
el orden de exploración de los valores de cuantificación, la Figura
8(c) los códigos de longitud variable de los valores de
cuantificación, la Figura 8(d) una tabla que contiene las
columnas "código de longitud variable", "cuenta de ceros"
(run) y "nivel", y la Figura 8(e) la cadena de código
del tren de bits de los valores de cuantificación.
La Figura 9 es un diagrama que representa la
estructura de un tren de bits codificados que incluye un código que
contiene un bit de identificación que indica el último coeficiente
DCT, que reemplaza a los códigos de los coeficientes DCT y los datos
EOB del tren de bits codificados de la realización anterior.
Las Figuras 10(a) a 10(e) son
diagramas que ilustran la codificación de longitud variable que
genera un tren de bits codificados que incluye un bit de
identificación del último coeficiente DCT, representando la Figura
10(a) una matriz bidimensional de valores de cuantificación,
la Figura 10(b) el orden de exploración de los valores de
cuantificación, la Figura 10(c) los códigos de longitud
variable de los valores de cuantificación, la Figura 10(d)
una tabla que contiene las columnas "código de longitud
variable", "último", "cuenta de ceros" y
"nivel", y la Figura 10(e) la cadena del código del tren
de bits de los valores de cuantificación.
A continuación, se describirá una realización
preferida de la presente invención.
La Figura 1 es un diagrama de bloques que
representa un aparato de decodificación de imágenes digitales según
esta realización. En la Figura, el número de referencia 100 designa
el aparato de decodificación de imágenes que decodifica los datos
codificados con compresión de una señal imagen digital para
reproducir una señal imagen, cuya salida reproducida se presenta en
una pantalla (no ilustrada). En primer lugar, se describirá la
estructura del aparato de decodificación de imágenes 100.
El aparato de decodificación de imágenes 100
incluye una unidad de decodificación de longitud variable 100a que
recibe un tren de bits 200 que incluye datos codificados de una
señal de luminancia y datos codificados de una señal de diferencia
de color de una señal imagen, lleva a cabo la decodificación de
longitud variable del tren de bits y proporciona los valores de
cuantificación del bloque de luminancia y los valores de
cuantificación del bloque de diferencia de color de un
intramacrobloque o un intermacrobloque, un vector de movimiento de
cada intermacrobloque y datos de control.
El intramacrobloque es un bloque en el que la
correspondiente señal imagen ha sido sometida a codificación
intratrama, y el intermacrobloque es un bloque en el que la
correspondiente señal imagen ha sido sometida a codificación
intertrama.
\newpage
El aparato de decodificación de imágenes 100
incluye además una unidad de decodificación de fuente de información
100b que lleva a cabo la decodificación de fuente de información en
los valores de cuantificación, utilizando el vector de movimiento
cuando sea necesario, y un controlador 105 que controla la unidad de
decodificación de longitud variable 100a y la unidad de
decodificación de fuente de información 100b, mediante la señal de
modalidad de presentación 123 introducida desde el exterior y la
salida de datos de control de la unidad de decodificación de
longitud variable 100a, respectivamente. La señal de modalidad de
presentación 123 proporcionada al controlador 105 indica si la
modalidad de presentación de la señal imagen decodificada es la
modalidad de presentación monocroma o la modalidad de presentación
en color. El aparato de decodificación de imágenes 100 incluye un
generador para generar la señal de modalidad de presentación 123 que
cambia automáticamente de la modalidad de presentación en color a
la modalidad de presentación monocroma cuando la tensión eléctrica
aplicada al aparato 100 desciende por debajo de un nivel
predeterminado.
La unidad de decodificación de longitud variable
100a incluye un desplazador 102 que presenta un área de
almacenamiento de datos, donde puede almacenarse un número de bits
predeterminado (por ejemplo, 16 ó 32 bits) del código (datos de cada
bit) del tren de bits 200, genera la cadena del código almacenado y
aplica, al código del tren de bits 200, un desplazamiento igual al
número de bits según la señal de control de desplazamiento 125. La
unidad de decodificación de longitud variable 100a incluye además un
decodificador de códigos 103 que decodifica la cadena de código
(código) obtenida del desplazador 102, y proporciona los datos
correspondientes al código decodificado y la señal de control de
desplazamiento 125, de conformidad con la cual el desplazador 102
aplica un desplazamiento igual al número de bits del código
decodificado, y un conmutador 106 que lleva a cabo la conmutación
según la señal de control 140a del controlador 105, para
proporcionar los datos obtenidos del decodificador de códigos 103 a
la unidad de decodificación de fuente de información 100b o para
rechazarlos.
El decodificador de códigos 103 incluye una tabla
de códigos que contiene datos, tales como los códigos, los
correspondientes valores de cuantificación, los correspondientes
vectores de movimiento y los correspondientes valores de control, y
un circuito de comparación que compara el código incluido en la
cadena de código introducida en el decodificador 103 con los
códigos contenidos en la tabla de códigos, y genera los datos
correspondientes al código de la tabla que coincide con el código
introducido.
La unidad de decodificación de fuente de
alimentación 100b incluye un cuantificador inverso 109 que efectúa
la cuantificación inversa de los valores de cuantificación de cada
subbloque del macrobloque, proporcionados por la unidad de
decodificación de longitud variable 100a, para reproducir los
coeficientes DCT de cada subbloque, y una unidad de DCT inversa 110
que somete los coeficientes DCT reproducidos a un procedimiento de
DCT inversa y proporciona una señal imagen o una señal de diferencia
de cada subbloque.
La unidad de decodificación de fuente de
información 100b incluye además medios de generación de valores de
predicción 100b1 que generan el valor de predicción de la señal
imagen correspondiente a un intermacrobloque de destino pendiente de
decodificar, basándose en una señal imagen decodificada 137 y un
vector de movimiento 128, un sumador 111 que suma el valor de
predicción a la señal de diferencia obtenida de la unidad de DCT
inversa 110 y genera el valor de suma resultante 137, y un
conmutador de conexión/desconexión 150, situado entre el sumador 111
y los medios de generación de valores de predicción 100b1, para
cambiar al suministro del valor de predicción al sumador 111, según
la señal de control 140d, y se utiliza para proporcionar la señal
imagen obtenida de la unidad de DCT inversa 110 como la señal imagen
correspondiente al intramacrobloque, y el valor de suma 137 como la
señal imagen correspondiente al intermacrobloque.
Los medios de generación de valores de predicción
100b1 incluyen una memoria de tramas 113, donde se almacena
temporalmente la señal imagen decodificada de una trama o un número
determinado de tramas, y un primer generador de direcciones 112 que
recibe el vector de movimiento 128 obtenido de la unidad de
decodificación de longitud variable 100a, y genera una dirección de
la memoria de tramas 113. Los medios de generación 100b1 incluyen
además una unidad de escalado de vectores de movimiento 114 que
escala el vector de movimiento del bloque de luminancia para que se
corresponda con el del bloque de diferencia de color, un segundo
generador de direcciones 115 que genera una dirección de la memoria
de tramas 113 según el vector de movimiento escalado, un conmutador
116, situado entre la unidad de escalado 114 y la unidad de
decodificación de longitud variable 100a, cuya conexión/desconexión
es controlada por una señal de control 140b del controlador 105, y
un conmutador 117 que selecciona la salida del primer o del segundo
generador de direcciones 112 y 115 de conformidad con la señal de
control 140c del controlador 105, y proporciona la salida
seleccionada a la memoria de tramas 113.
El aparato de decodificación de imágenes
construido de esta forma 100 está adaptado para recibir un tren de
bits que incluye datos sometidos a codificación intratrama,
generados mediante la codificación intratrama de una señal imagen
digital, y datos sometidos a codificación intertrama, generados
mediante la codificación intertrama de una señal imagen digital,
como datos codificados con compresión.
A continuación, se describe brevemente la
estructura de datos del tren de bits 200 introducido en el aparato
de decodificación de imágenes 100 y el procedimiento de
codificación para generar el tren de bits 200.
En el procedimiento de codificación intratrama,
una señal imagen que comprende una señal de luminancia y una señal
de diferencia de color se divide en señales imagen correspondientes
a los macrobloques, y las señales imagen divididas de cada
macrobloque se someten a codificación con compresión. Para
concretar, la señal imagen de cada macrobloque se transforma, por
medio del procedimiento DCT, en coeficientes de frecuencia para
cada uno de los subbloques del macrobloque. Los subbloques son
cuatro bloques de luminancia 701 a 704 que comprenden 8 x 8 píxeles
cada uno y corresponden a la señal de luminancia, y dos bloques de
diferencia de color 705 y 706 que comprenden 8 x 8 píxeles cada uno
y corresponden a la señal de diferencia de color, como se indica en
la Figura 7. Los coeficientes de frecuencia de cada subbloque son
cuantificados mediante una escala de cuantificación determinada
para generar valores de cuantificación, que son sometidos a
codificación de longitud variable para generar datos codificados
correspondientes al macrobloque.
En el procedimiento de codificación intertrama,
se utiliza la correlación entre tramas para detectar un macrobloque
de predicción, en el que el valor de la diferencia entre la señal
imagen del mismo y la señal imagen del macrobloque de destino es el
más pequeño en la modalidad de compensación de movimiento y, a
continuación, el valor de diferencia entre la señal imagen del
macrobloque de predicción y la señal imagen del macrobloque de
destino se transforma en coeficientes de frecuencia mediante el
procedimiento DCT. Los coeficientes de frecuencia se cuantifican en
valores de cuantificación. Los valores de cuantificación y el
vector de movimiento del macrobloque de destino se someten a
codificación de longitud variable y multiplexación para generar
datos codificados correspondientes al macrobloque.
La Figura 2 representa la estructura del tren de
bits 200 que incluye los datos con codificación intratrama y los
datos con codificación intertrama. El tren de datos 200 comprende
una señal sincrónica (PSC) 201 representada como un código único de
32 bits, datos PTYPE 202 y 232, cada uno de los cuales indica si la
correspondiente señal imagen ha sido sometida a codificación
intratrama o a codificación intertrama utilizando un código de 2
bits, datos de escala de cuantificación 203 y 233, cada uno de los
cuales indica una escala de cuantificación para el procedimiento de
codificación mediante un código de 5 bits, y datos D(i),
D(i+1), ..., D(j), D(j+1), ... correspondientes
a los macrobloques M(i), M(i+1), ..., M(j),
M(j-1), ..., respectivamente. Los datos PTYPE
202 indican la codificación intratrama y los datos PTYPE 232
indican la codificación intertrama. Los macrobloques M(i) y
M(i+1) son intramacrobloques en los que las correspondientes
señales han sido sometidas a codificación intratrama. Los
macrobloques M(j) y M(j+1) son intermacrobloques, en
los que las correspondientes señales imagen han sido sometidas a
codificación intertrama.
Los datos D(i) comprenden datos CBP 204 e
información de bloques 20a1 a 20a6, y los datos D(i+1)
comprenden datos CBP 217 e información de bloques 20b1 a 20b4. Cada
uno de los datos CBP 204 y 217 se representa como un código de 6
bits e indica si cada uno de los subbloques del correspondiente
macrobloque contiene o no coeficientes DCT, por medio de un bit. En
los datos CBP 204 y 217, el código es "1" cuando el subbloque
contiene coeficientes DCT, y es "0" cuando el subbloque no
contiene ningún coeficiente DCT. La información de bloques 20a1 a
20a6 y 20b1 a 20b4 comprende un grupo de coeficientes DCT en cada
subbloque y datos EOB que indican el último coeficiente DCT del
grupo de coeficientes DCT. La información de bloques 20a1 a 20a6
comprende un grupo de coeficientes DCT 21a y datos EOB 22a1, un
grupo de coeficientes DCT 21a2 y datos EOB 22a2, un grupo de
coeficientes DCT 21a3 y datos EOB 22a3, un grupo de coeficientes
DCT 21a4 y datos EOB 22a4, un grupo de coeficientes DCT 21a5 y datos
EOB 22a5 y un grupo de coeficientes DCT 21a6 y datos EOB 22a6,
respectivamente. La información de bloques 20b1 a 20b4 comprende un
grupo de coeficientes DCT 21b1 y datos EOB 22b1, un grupo de
coeficientes DCT 21b2 y datos EOB 22b2, un grupo de coeficientes DCT
21b3 y datos EOB 22b3 y un grupo de coeficientes DCT 21b4 y datos
EOB 22b4, respectivamente.
Los datos D(j) comprenden un vector de
movimiento con codificación de longitud variable 234, datos CBP 235
e información de bloques 20c1 a 20c6, y los datos D(j+1)
comprenden un vector de movimiento con codificación de longitud
variable 248, datos CBP 249 e información de bloques 20d1 a 20d4.
Cada uno de los datos CBP 235 y 249 se representa como un código de
6 bits e indica si cada subbloque del correspondiente macrobloque
contiene o no coeficientes DCT, por medio de un bit. En los datos
CBP 235 y 249, el código es "1" cuando el subbloque contiene
coeficientes DCT, y es "0" cuando el subbloque no contiene
ningún coeficiente DCT. La información de bloques 20c1 a 20c6 y
20d1 a 20d4 comprende un grupo de coeficientes DCT en cada subbloque
y datos EOB que indican el último coeficiente DCT del grupo de
coeficientes DCT. La información de bloques 20c1 a 20c6 comprende
un grupo de coeficientes DCT 21c1 y datos EOB 22c1, un grupo de
coeficientes DCT 21c2 y datos EOB 22c2, un grupo de coeficientes DCT
21c3 y datos EOB 22c3, un grupo de coeficientes DCT 21c4 y datos
EOB 22c4, un grupo de coeficientes DCT 21c5 y datos EOB 22c5 y un
grupo de coeficientes DCT 21c6 y datos EOB 22c6, respectivamente. La
información de bloques 20d1 a 20d4 comprende un grupo de
coeficientes DCT 21d1 y datos EOB 22d1, un grupo de coeficientes DCT
21d2 y datos EOB 22d2, un grupo de coeficientes DCT 21d3 y datos
EOB 22d3 y un grupo de coeficientes DCT 21d4 y datos EOB 22d4,
respectivamente.
En este tren de bits 200, los datos
correspondientes a los respectivos macrobloques de una pantalla de
presentación se alinean en secuencia.
En los grupos de coeficientes DCT 21a1 a 21a6,
21b1 a 21b4, 21c1 a 21c6 y 21d1 a 21d4, representados en la Figura
2, los códigos obtenidos mediante la codificación de longitud
variable de los valores de cuantificación de la pluralidad de
coeficientes DCT de cada subbloque aparecen alineados.
A continuación, se describirá la codificación de
longitud variable en relación con las Figuras 8(a) a
8(e).
La Figura 8(a) representa una matriz de
coeficientes DCT obtenidos sometiendo la señal imagen
correspondiente a un subbloque al procedimiento DCT, en el dominio
de la frecuencia. Para simplificar, se supone que el subbloque
corresponde a un espacio de imagen que comprende 4 x 4 píxeles.
En el dominio de la frecuencia F correspondiente
al subbloque, los valores de los coeficientes primero a tercero a,
b y c de la fila superior y el tercer coeficiente d de la fila
siguiente son "no cero", y los valores de los demás
coeficientes son "cero", como se representa en la Figura
8(a). Los valores de cuantificación A a D obtenidos
cuantificando los coeficientes DCT a a d en el dominio de la
frecuencia F, son sometidos a codificación de longitud variable en
el orden indicado mediante la flecha punteada S (orden de
exploración), como se representa en la Figura 8(b). En este
caso, de los valores de cuantificación A a D, es el valor de
cuantificación D el que finalmente se somete a codificación de
longitud variable.
La Figura 8(c) representa la
correspondencia entre los coeficientes DCT cuantificados y los
códigos obtenidos sometiendo éstos a codificación de longitud
variable. En el procedimiento de codificación de longitud variable
de los valores de cuantificación, la combinación (en lo sucesivo
denominada "evento") del nivel de un valor de cuantificación
"no cero" (nivel) y el número de valores de cuantificación
"cero" situados por delante del valor de cuantificación "no
cero" en el orden de exploración se convierte en un código de
longitud variable según la tabla de codificación de longitud
variable T representada en la Figura 8(d). La tabla de
codificación de longitud variable T contiene los códigos de longitud
variable de los respectivos eventos. En esta Tabla T, se representa
el código "10" de los datos EOB. Debe recordarse que los
niveles de cuantificación concretos presentan valores positivos y
negativos, aunque éstos no se indican para simplificar.
Supongamos que los valores de cuantificación A a
D son A=1, B=2, C=1 y D=2, respectivamente. El valor de
cuantificación A forma el evento (0, 1) y se convierte en el código
de longitud variable "11" según la tabla T. De la misma forma,
los valores de cuantificación B, C y D forman los eventos (0, 2),
(3, 1) y (1, 2), y se convierten en los códigos de longitud
variable "0100", "00111" y "000110", respectivamente,
según la tabla T.
La cadena de código del grupo de coeficientes DCT
y los datos EOB del subbloque de la Figura 8(a) es, como se
observa en la Figura 8(e),
"...1101000011100011010...".
A continuación, se describirá el aparato de
decodificación de imágenes de esta realización a lo largo del flujo
de las Figuras 3 a 5.
Cuando el tren de bits 200 de la Figura 2 se
introduce en el terminal de entrada 101 del aparato de
decodificación de imágenes 100 en la etapa 301, los datos
codificados introducidos son sometidos al procedimiento de
decodificación del código por la unidad de decodificación de
longitud variable 100a en la etapa 302. Para concretar, se asigna
un código de longitud fija del tren de bits y, a continuación, este
código binario se convierte en un valor numérico (datos). Para el
código de longitud variable, se comprueba qué código coincide con
éste en la tabla de códigos y se generan los datos correspondientes
al código.
Para concretar más, los datos codificados
introducidos se almacenan temporalmente en el desplazador 102 en 16
bits o 32 bits y, a continuación, los datos codificados se
proporcionan al decodificador de códigos 103. El decodificador de
códigos 103 lleva a cabo la comparación entre el código inicial de
los datos codificados introducidos y la pluralidad de códigos de la
tabla de códigos que éste contiene y, finalmente, proporciona los
datos correspondientes al código de la tabla de códigos que coincide
con el código inicial, como una primera salida 124, y los datos de
longitud en bits que indican la longitud en bits (CL) del código,
como una segunda salida 125. Los datos de longitud en bits se
vuelven a introducir en el desplazador 102. El desplazador 102
aplica a los datos codificados un desplazamiento igual a la
longitud en bits (CL), y envía los datos codificados de 16 bits o 32
bits que tiene almacenados al decodificador de códigos 103. La
primera salida 124 se proporciona al controlador 105 y se pasa a
cualquiera de los terminales de salida 107, 108 ó 141 del
conmutador 106.
En la etapa 303, el controlador 105 decide si el
macrobloque de destino pendiente de decodificar es el
intramacrobloque o el intermacrobloque según los datos PTYPE que ha
recibido desde el terminal de salida 108. El conmutador 150 se
desconecta cuando el macrobloque de destino es el intramacrobloque,
y se conecta cuando el macrobloque de destino es el
intermacrobloque, según la señal de control 140d del controlador
105.
Cuando el macrobloque de destino es el
intramacrobloque en la etapa 304, el controlador 105 decide si la
modalidad de presentación es la modalidad de presentación monocroma
o la modalidad de presentación en color, según la señal de modalidad
123 proporcionada al terminal de entrada 104. Por otra parte,
cuando el macrobloque de destino es el intermacrobloque, el
controlador 105 lleva a cabo la misma operación en la etapa
504.
A continuación, se describirá el caso en el que
el macrobloque de destino es el macrobloque INTRA, en relación con
la Figura 3.
Cuando se ha decidido que la modalidad de
presentación no es la modalidad de presentación monocroma en la
etapa 304, en la etapa 305, la conmutación del conmutador 106 es
controlada por el controlador 105 para que la salida del
decodificador de códigos 103 se obtenga desde el terminal de salida
108. De esta forma, los datos codificados correspondientes a los 4
bloques de luminancia y los datos codificados correspondientes a
los 2 bloques de diferencia de color del macrobloque de destino se
introducen en secuencia en la unidad de decodificación de fuente de
información 100b, donde se reproducen la señal de luminancia y la
señal de diferencia de color correspondientes al macrobloque de
destino. De forma más particular, los valores de cuantificación de
los datos codificados de cada macrobloque son sometidos a
cuantificación inversa por el cuantificador inverso 109 para
proporcionar coeficientes DCT y, a continuación, los coeficientes
DCT de cada macrobloque son transformados en la señal imagen de
cada macrobloque por la unidad de DCT inversa 110.
Por otra parte, cuando se decide que la modalidad
de presentación es la modalidad de presentación monocroma en la
etapa 304, en la etapa 306, el controlador 105 decide si los datos
introducidos en la unidad de decodificación de longitud variable
100a son o no los datos codificados correspondientes a los bloques
de diferencia de color. Cuando se decide que los datos codificados
corresponden a los bloques de diferencia de color en la etapa 306,
en la etapa 308, la conmutación del controlador 106 es controlada
por la señal de control 140a del controlador 105, para que de ese
modo la salida del codificador de códigos 103 se proporcione al
terminal de salida 107. Por esa razón, los datos codificados
correspondientes a los bloques de diferencia de color se rechazan.
Es decir, en ese momento, se rechazan los coeficientes DCT y los
datos EOB de los bloques de diferencia de color (5) y (6).
Cuando se decide que los datos codificados
corresponden a los bloques de luminancia en la etapa 306, en la
etapa 307, la conmutación del conmutador 106 es controlada por la
señal de control 140a del controlador 105, para que la salida del
decodificador de códigos 103 se proporcione al terminal de salida
108. De esta forma, los datos codificados correspondientes a los
bloques de luminancia se proporcionan a la unidad de decodificación
de fuente de información 100b, donde son sometidos en secuencia al
procedimiento de cuantificación inversa y al procedimiento de DCT
inversa.
De esta forma, la señal imagen del macrobloque se
reproduce mediante el procedimiento de decodificación en las
respectivas modalidades de presentación.
En la etapa 309, se decide si la entrada
codificada corresponde o no a los últimos datos codificados, y
cuando se decide que no se corresponde, se llevan a cabo las etapas
301 a 309, mientras que cuando se decide que sí se corresponde, se
termina el procedimiento de codificación.
A continuación, se describirá el caso en el que
los datos codificados correspondientes a los bloques de diferencia
de color son rechazados, en relación con la Figura 4.
En la etapa 402, los datos CBP decodificados del
macrobloque de destino y los valores de cuantificación de los
coeficientes DCT de un primer bloque de luminancia del macrobloque
de destino se introducen en secuencia en el controlador 105. En este
momento, el valor "k" del contador se establece en "1".
En la etapa 403, el controlador 105 decide si el valor "k" se
halla o no por debajo de "4".
Cuando se decide que el valor "k" es menor o
igual a 4, se decide que los valores de cuantificación introducidos
en la unidad de decodificación de fuente de información 100b se
corresponden con los de los coeficientes DCT del bloque de
luminancia. A continuación, en la etapa 404, se decide si el valor
binario CBP (k) de los datos CBP de un k-ésimo subbloque del
macrobloque de destino es o no "1". Cuando se decide que CBP
(k) = 0, en la etapa 406, el valor "k" se incrementa en uno,
puesto que el subbloque no contiene ningún coeficiente DCT.
Por otra parte, cuando se decide que
CBP(k) = 1 en la etapa 404, en la etapa 405, la conmutación
del conmutador 106 se controla para que los valores de
cuantificación de los coeficientes DCT y el valor de cuantificación
de los valores EOB del subbloque (k) se proporcionen a la unidad de
decodificación de fuente de información 100b. Seguidamente, en la
etapa 406, el valor "k" se incrementa en uno.
Cuando se decide que "k" = 5 ó 6 en la etapa
403 y, por lo tanto, se decide que el subbloque (k) corresponde al
bloque de diferencia de color, en la etapa 407, se decide si
CBP(k) = 1 o no. Cuando se decide que CBP(k) = 1, la
conmutación del conmutador 106 se controla para que los valores de
cuantificación de los coeficientes DCT y el valor de cuantificación
de los datos EOB del subbloque (k) se proporcionen al terminal 107.
En consecuencia, los coeficientes DCT del subbloque (k)
correspondientes al bloque de diferencia de color se rechazan. Por
otro parte, cuando se decide que CBP(k) = 0 en la etapa 404,
en la etapa 406, el valor "k" se incrementa en uno, puesto que
el subbloque no contiene ningún coeficiente DCT.
En la etapa 409, se decide si el valor "k"
se halla o no por debajo de "6". Si se decide que el valor
"k" es menor o igual a 6, entonces se llevan a cabo las etapas
403 a 409, mientras que si se decide que el valor "k" es
superior a "6", en las etapas 402 a 409, se rechazan los
coeficientes DCT del bloque de diferencia de color del macrobloque
subsiguiente. Las etapas 402 a 409 de la Figura 4 corresponden a las
etapas 306 a 308 de la Figura 3 y las etapas 509 a 513 de la Figura
5.
A continuación, se describirá el procesamiento
del intermacrobloque en relación con la Figura 5.
Cuando se decide que el macrobloque de destino es
el intermacrobloque de la etapa 303 de la Figura 3, el controlador
105 decide si la modalidad de presentación es o no la modalidad de
presentación monocroma en la etapa 504.
Cuando se decide que la modalidad de presentación
no es la modalidad de presentación monocroma, en la etapa 505, los
datos codificados correspondientes a los bloques de luminancia y
los datos codificados correspondientes a los bloques de diferencia
de color se decodifican para generar un valor de diferencia de la
señal de luminancia (datos de diferencia de la señal de luminancia)
y un valor de diferencia de la señal de diferencia de color (datos
de diferencia de la señal de diferencia de color). El valor de
cuantificación para el valor de diferencia de la señal de luminancia
y el valor de cuantificación para el valor de diferencia de la
señal de diferencia de color se someten a los procedimientos de
cuantificación inversa y de DCT inversa.
En particular, el conmutador 106 es controlado
por el controlador 105, de tal forma que el terminal de entrada
106a de éste se conecta al terminal de salida 141 y, en
consecuencia, el vector de movimiento MV se envía al primer
generador de direcciones 112. A continuación, el terminal de
entrada 106a del conmutador 106 se conecta al terminal de salida
108 y, de este modo, los datos CBP se envían, como salida 126, al
controlador 105. Los valores de cuantificación de los coeficientes
DCT de los subbloques del macrobloque de destino se proporcionan al
cuantificador inverso 109 como salida del conmutador 106, y son
sometidos a cuantificación inversa para proporcionar los
coeficientes DCT. Los coeficientes DCT se proporcionan a la unidad
de DCT inversa 110, donde se restauran los datos de diferencia de
la señal de luminancia y los datos de diferencia de la señal de
diferencia de color. Los datos EOB se envían al controlador 105
como salida 126 del conmutador 106. El controlador 105 calcula el
número de subbloques de un macrobloque a partir de los datos CBP y
los datos EOB. Por ejemplo, en el caso del macrobloque M(j),
cuando el número de subbloques es "6", el primer conmutador
106 es controlado de tal forma que el terminal de entrada 106a se
conecta nuevamente al terminal de salida 141.
En la etapa 506, los datos de predicción de la
señal de luminancia se obtienen utilizando el vector de movimiento
MV. En esta realización, el vector de movimiento MV se suma a las
coordenadas del bloque de luminancia pendiente de decodificar en la
pantalla de presentación, para generar la dirección de la memoria de
tramas que contiene la señal de luminancia del bloque de luminancia
decodificado, y la señal de luminancia del bloque de luminancia de
la memoria de tramas indicada en esta dirección generada se utiliza
como datos de predicción.
Para concretar más, el vector de movimiento MV se
proporciona, como salida 128 del conmutador 106, al primer
generador de direcciones 112, donde se convierte en la dirección de
la memoria de tramas 113. Esta conversión se lleva a cabo sumando el
vector de movimiento MV a las coordenadas del bloque de luminancia
pendiente de reproducir, y la dirección generada resultante se
envía a la memoria de tramas 113 a través del conmutador 117.
En la etapa 507, el vector de movimiento MV se
envía, a través del conmutador 116, a la unidad de escalado de
vectores de movimiento 114, donde se escala. En este caso, el valor
del vector de movimiento de la escala del bloque de luminancia se
divide por 2, para que la escala se corresponda con la del bloque
de diferencia de color. Esto es debido a que el bloque de
diferencia de color comprende píxeles de una pluralidad de píxeles
del macrobloque que han sido reducidos a la mitad en las direcciones
vertical y horizontal. El vector de movimiento MV resultante de la
operación de escalado es convertido en una dirección de la memoria
de tramas 113 por el generador de direcciones 115, siendo dicha
dirección enviada, a través del conmutador 117, a la memoria de
tramas 113, donde se obtienen los datos de predicción de la señal
de diferencia de color.
A continuación, en la etapa 508, la señal imagen
del bloque de luminancia que se halla en la posición indicada por
la dirección proporcionada por el generador 112 se obtiene de la
memoria de tramas 113 como datos de predicción de luminancia. Los
datos de predicción de luminancia son sumados a los datos de
diferencia de la señal de luminancia por el sumador 111 para
reproducir la señal de luminancia. Además, la señal imagen del
bloque de diferencia de color que se halla en la posición indicada
por la dirección del generador 112 se obtiene de la memoria de
tramas 113 como datos de predicción de diferencia de color. Los
datos de predicción de diferencia de color son sumados a los datos
de diferencia de la señal de diferencia de color por el sumador 111
para reproducir la señal de diferencia de color.
De esta forma, se reproducen y obtienen la señal
de luminancia y la señal de diferencia de color. Simultáneamente,
estas señales de luminancia y de diferencia de color se almacenan
en la memoria de tramas 113 como señales imagen de las tramas de
referencia del procedimiento de decodificación de los datos
codificados de la trama subsiguiente.
Por otra parte, cuando en la etapa 504 se decide
que la modalidad de presentación es la modalidad monocroma, en la
etapa 509, el controlador 105 decide si los datos codificados
obtenidos de la unidad de decodificación de longitud variable 100a
corresponden o no a los bloques de diferencia de color. Si dichos
datos se corresponden, en la etapa 510, los datos codificados
correspondientes a los bloques de diferencia de color se
rechazan.
Cuando se decide que la salida de la unidad de
decodificación de longitud variable 100a no corresponde al bloque
de diferencia de color, en la etapa 511, se obtienen los datos de
diferencia de la señal de luminancia y, además, en la etapa 512, se
obtienen los datos de predicción de luminancia utilizando el vector
de movimiento MV. En la etapa 513, los datos de diferencia de la
señal de luminancia y los datos de predicción de la señal de
luminancia se suman para reproducir la señal de luminancia.
Para concretar más, cuando se decide que la
modalidad de presentación es la modalidad de presentación
monocroma, el terminal de entrada 106a del conmutador 106 se
conecta al terminal de salida 141 y, de ese modo, el vector de
movimiento se envía al generador de direcciones 112. A
continuación, el terminal de entrada 106a del conmutador 106 se
conecta al terminal de salida 108 y, de ese modo, los datos CBP se
envían al controlador 105 como salida 127. Mientras que los valores
de cuantificación de los coeficientes DCT se envían al
cuantificador inverso 109 como salida 126 del conmutador 106, el
conmutador 106 se controla para que sólo se proporcionen los valores
de cuantificación de los bloques de luminancia al cuantificador
inverso 109.
El controlador 105 calcula el número de
subbloques del macrobloque a partir de los datos CBP y los datos
EOB. En un punto inicial del procesamiento del primer subbloque de
cada macrobloque, el valor "k" del contador se establece en
"0". Cuando el valor de los datos CBP del k-ésimo subbloque es
"1" y este subbloque incluye datos EOB, o cuando el valor de
los datos CBP del k-ésimo subbloque es "0", el valor "k"
del contador se incrementa en uno. Cuando el valor "k" es
"5" ó "6", los datos pendientes de procesar son datos
codificados correspondientes a los bloques de diferencia de color y,
por consiguiente, el terminal de entrada 106a del conmutador 106 se
conecta al terminal de salida 107 y, en consecuencia, los
coeficientes de la señal de diferencia de color se recha-
zan.
zan.
Así pues, los valores de cuantificación enviados
de los coeficientes DCT del bloque de luminancia se someten al
procedimiento de cuantificación inversa y al procedimiento de DCT
inversa para generar los datos de diferencia de la señal de
luminancia. De forma simultánea, los datos de predicción de
luminancia se generan de conformidad con el vector de movimiento, y
los datos de predicción de luminancia y los datos de diferencia de
la señal de luminancia son sumados por el sumador 111.
Como se ha descrito anteriormente, cuando la
modalidad de presentación es la modalidad de presentación
monocroma, el conmutador 116 se desconecta, de tal forma que el
vector de movimiento no se escala y, por consiguiente, el terminal
117a no se conecta al terminal de entrada 119. Por lo tanto, sólo
se regenera y proporciona la imagen de luminancia, que se almacena
de forma simultánea en la memoria de tramas 113.
En la etapa 514, se decide si los datos
codificados introducidos corresponden o no a los últimos datos
codificados. Si se decide que dichos datos no se corresponden,
entonces se llevan a cabo las etapas 301 a 303 y 504 a 509, mientras
que si se decide que dichos datos sí se corresponden, entonces se
termina el procedimiento de codificación.
En esta realización, en la modalidad de
presentación monocroma, la señal de diferencia de color no se
somete a los procedimientos de cuantificación inversa y de DCT
inversa, ni tampoco se lleva a cabo el procedimiento de compensación
de movimiento. Como consecuencia, la cantidad de señales pendientes
de procesar en el procedimiento de decodificación se reduce.
Dicho de otro modo, cuando la señal imagen
digital sometida a codificación intratrama o codificación
intertrama se decodifica para la presentación de la imagen, los
datos codificados de la señal de diferencia de color se rechazan en
la modalidad de presentación monocroma y, en consecuencia, puede
prescindirse de la decodificación de los datos codificados de la
señal de diferencia de color.
En el procedimiento de decodificación, es
necesario convertir la señal de luminancia (Y) y las señales de
diferencia de color (U y V) en la señal RBG por medio de las
ecuaciones (1) a (3) anteriores. No obstante, puesto que las señales
de diferencia de color se rechazan tal como se ha descrito
anteriormente, el término de la señal de luminancia Y permanece en
las ecuaciones y, en consecuencia, la señal YUV puede convertirse en
la señal RGB con un número de cálculos inferior.
Puesto que los datos de las señales de diferencia
de color (U y V) no se decodifican y reproducen en la modalidad de
presentación monocroma, la cantidad de datos que debe decodificarse
se reduce en 1/3 y, de ese modo, es posible ahorrar una cantidad
significativa de la energía necesaria para el equipo del terminal de
presentación. Por consiguiente, el equipo del terminal portátil
puede presentar una imagen durante un período de tiempo largo.
Aunque la descripción anterior hace referencia al
caso en el que se emplea la transformación DCT en el procedimiento
de codificación, la presente invención es aplicable al caso en el
que se decodifican datos codificados mediante un procedimiento de
codificación, tal como la codificación por wavelets. En este caso,
en la modalidad de presentación monocroma, se detecta el límite
entre los datos de luminancia y los datos de diferencia de color
del tren de bits, y los datos de diferencia de color se rechazan.
Por consiguiente, se puede prescindir de la decodificación de los
datos de diferencia de color.
Además, la señal imagen pendiente de decodificar
puede estar constituida por una señal imagen de un respectivo
objeto que presenta una forma arbitraria, en lugar de la señal
imagen de una pantalla de presentación.
En este caso, cada señal imagen comprende una
señal de forma que indica la forma del objeto, así como la señal de
luminancia y la señal de diferencia de color, y sólo son
decodificadas y reproducidas la señal de luminancia y la señal de
forma en la modalidad de presentación monocroma.
En este tipo de presentación de imágenes, las
señales imagen son sintetizadas por lo general antes de la
presentación de la imagen y la señal de luminancia y la señal de
forma se decodifican y reproducen en la modalidad de presentación
monocroma, En consecuencia, la cantidad de señales pendientes de
procesar para la composición de la imagen puede reducirse en gran
medida, lo cual permite un ahorro real de energía.
Aunque el último coeficiente DCT del grupo de
coeficientes DCT viene indicado en los datos EOB del tren de bits
200 de la realización anterior, los datos EOB pueden ser
sustituidos por un bit de identificación que indica si el código de
un coeficiente DCT cuantificado corresponde o no al código del
último coeficiente DCT.
En la Figura 9, se representa un tren de bits
codificados 900 que utiliza el código descrito anteriormente. El
tren de bits codificados 900 no contiene ningún dato EOB en la
información de cada bloque del tren de bits 200, y los códigos de
los coeficientes DCT de cada grupo de coeficientes DCT contienen
los bits de identificación.
En relación con la Figura 9, el tren de bits 900
comprende una señal sincrónica (PSC) 901 que indica el punto
inicial de una señal imagen de una pantalla de presentación, por
medio de un código único de 32 bits, datos PTYPE 902 y 932 cada uno
de los cuales indica si la señal imagen ha sido sometida a
codificación intratrama o a codificación intertrama, mediante un
código de 2 bits, datos de escala de cuantificación 903 y 933 cada
uno de los cuales indica la escala de cuantificación del
procedimiento de codificación, por medio un código de 5 bits, y
datos D(i), D(i + 1), ..., D(j), D(j +
1), ... correspondientes a los macrobloques M(i), M(i
+ 1), ..., M(j), M(j + 1), ..., respectivamente. Los
datos PTYPE 902 indican la codificación intratrama, y los datos
PTYPE 932 indican la codificación intertrama. Los macrobloques
M(i) y M(i + 1) son intramacrobloques, porque las
correspondientes señales imagen han sido sometidas a codificación
intratrama. Los macrobloques M(J) y M(j + 1) son
intermacrobloques, porque las correspondientes señales imagen han
sido sometidas a codificación intertrama.
Los datos D(i) comprenden los datos CBP
904 y los grupos de coeficientes DCT 91a1 a 91a6, y los datos
D(i + 1) comprenden los datos CBP 917 y los grupos de
coeficientes DCT 91b1 a 91b4. Cada uno de los datos CBP 904 y 917 se
representa como un código de 6 bits e indica si cada subbloque del
correspondiente macrobloque contiene o no coeficientes DCT, por
medio de un bit. En los datos CBP 904 y 917, el código es "1"
cuando el subbloque contiene coeficientes DCT, y el código es
"0" cuando el subbloque no contiene ningún coeficiente
DCT.
Los datos D(j) comprenden un vector de
movimiento sometido a codificación de longitud variable 934, los
datos CBP 935 y los grupos de coeficientes DCT 91c1 a 91c6, y los
datos D(j + 1) comprenden un vector de movimiento sometido a
codificación de longitud variable 948, los datos CBP 949 y los
grupos de coeficientes DCT 91d1 a 91d4. Cada uno de los datos CBP
935 y 949 se representa como un código de 6 bits e indica si cada
subbloque del correspondiente macrobloque contiene o no coeficientes
DCT, por medio de un bit. En los datos CBP 935 y 949, el código es
"1" cuando el subbloque contiene coeficientes DCT, y el código
es "0" cuando el subbloque no contiene ningún coeficiente
DCT.
En este tren de bits 900, los datos
correspondientes a los respectivos macrobloques de una pantalla de
presentación se alinean en secuencia.
En los grupos de coeficientes DCT 91a1 a 91a6,
91b1 a 91b4, 91c1 a 91c6 y 91d1 a 91d4, los códigos obtenidos
mediante la codificación de longitud variable de los valores de
cuantificación de la pluralidad de coeficientes DCT aparecen
alineados.
A continuación, se describe la codificación de
longitud variable con relación a las Figuras 10(a) a
10(e).
La Figura 10(a) representa una matriz de
los coeficientes DCT obtenidos sometiendo la señal imagen de un
subbloque al procedimiento DCT en el dominio de la frecuencia, y la
Figura 10(b) representa el orden en el que los valores de
cuantificación obtenidos cuantificando los coeficientes DCT se
someten a codificación de longitud variable. Las Figuras
10(a) y 10(b) son idénticas a las Figuras 8(a)
y 8(b).
La Figura 10(c) representa la
correspondencia entre los coeficientes DCT cuantificados (valores de
cuantificación) y los códigos obtenidos sometiendo éstos a
codificación de longitud variable. En el procedimiento de
codificación de longitud variable de los valores de cuantificación,
la combinación (evento) del nivel de un valor de cuantificación
"no cero" (nivel), el número de valores de cuantificación
"cero" (cuenta de ceros) situados antes del valor de
cuantificación "no cero" en el orden de exploración, y el bit
de identificación (último) que indica si el valor de cuantificación
"no cero" ha sido o no el último de los valores de
cuantificación de un subbloque en ser sometido a codificación de
longitud variable, se convierte en un código de longitud variable
según la tabla de códigos de longitud variable Ta de la Figura
10(d). La tabla de codificación de longitud variable Ta
enumera los códigos de longitud variable de los respectivos
eventos. En la tabla Ta, el código "10" de los datos EOB de la
Figura 8(d) no se indica. Debe recordarse que los niveles de
cuantificación concretos son valores positivos y negativos, aunque
éstos no se representan para simplifi-
car.
car.
Supongamos que los valores de cuantificación A a
D son A=1, B=2, C=1 y D=2, respectivamente. El valor de
cuantificación A forma el evento (0, 0, 1) y se convierte en el
código de longitud variable "11" según la tabla Ta. Del mismo
modo, los valores de cuantificación B, C y D forman los eventos (0,
0, 2), (0, 3, 1) y (1, 1, 2), y se convierten en los códigos de
longitud variable "0100", "00111" y "000100",
respectivamente, según la tabla Ta.
La cadena de código del grupo de coeficientes DCT
del subbloque de la Figura 10(a) es, como se indica en la
Figura 10(e), "...11010000111000100...".
A título de ejemplo, en el aparato de
decodificación de imágenes digitales que recibe el tren de bits
codificados 900 como entrada, el decodificador de códigos 103 del
aparato de decodificación de imágenes 100 está adaptado para
decodificar el código de longitud variable y obtener el evento
(último, cuenta de ceros, nivel), y decidir si el coeficiente DCT
del evento es el último coeficiente DCT del primer elemento (bit de
identificación) del evento.
Por ejemplo, en el caso en el que se decodifica
el código de longitud variable "00111" del tren de bits,
puesto que el primer elemento "último" (bit de identificación)
del evento (0, 3, 1) es "0", se decide que el coeficiente DCT
de la pluralidad de coeficientes DCT del correspondiente subbloque
no es el último coeficiente DCT. En otro caso en el que se
decodifica el código de longitud variable "000100", puesto que
el primer elemento del evento (1, 1, 2), "último" (bit de
identificación), es "1", se decide que el coeficiente DCT de
la pluralidad de coeficientes DCT del correspondiente subbloque es
el último coeficiente DCT, como se representa en la Figura
10(c). Por lo tanto, en este aparato de decodificación de
imágenes digitales, el controlador 105 controla la decodificación
mediante los bits de identificación de los códigos de longitud
variable de los coeficientes DCT, de la misma forma en que controla
la decodificación mediante los datos EOB del tren de bits
codificados 200 de la Figura 2.
Además, el programa de decodificación para
implementar el procedimiento de decodificación de imágenes digitales
de la realización anterior se registra en medios de registro de
datos, tales como un disquete, lo cual permite llevar a cabo el
procesamiento en un sistema informático independiente sin ninguna
dificultad.
Las Figuras 6(a) a 6(c) son
diagramas que representan el caso en el que el procesamiento de
imágenes según el procedimiento de decodificación de imágenes
digitales de la realización anterior se lleva a cabo en un sistema
informático, mediante un disquete que contiene el programa de
decodificación.
La Figura 6(b) representa una vista
frontal y una sección transversal de un disquete FD y el disco FD.
La Figura 6(a) representa el formato físico del disquete FD
para la función de registro de datos. El disquete FD se halla dentro
de una caja protectora F y contiene, en una de las superficies del
disco FD, una pluralidad de pistas Tr que se forman desde el radio
externo hasta el radio interno del disquete y se dividen en 16
sectores angulares Se. Por consiguiente, los datos del programa que
se almacena en el disquete FD se registran en una zona asignada del
disquete FD.
La Figura 6(c) representa una estructura
de registro y reproducción del programa mediante un disquete FD.
Cuando el programa se registra en el disquete FD, los datos del
programa pasan, a través de la unidad de disquetes FDD, del sistema
informático Cs al disquete FD, donde se graban. En otro caso en que
se desee construir el procedimiento de decodificación de imágenes
en el sistema informático Cs mediante el programa del disquete FD,
el programa se lee desde el disquete FD a través de la unidad de
disquetes FDD y se transfiere al sistema informático Cs.
Aunque la descripción anterior se refiere al
procesamiento de imágenes en un sistema informático en el que se
utiliza un disquete como medio de registro de datos, este
procesamiento de imágenes puede llevarse a cabo también a través de
un disco óptico. Por otra parte, los medios de registro no están
limitados a éstos, sino que es posible utilizar también una tarjeta
CI, un cartucho ROM, etc., siempre que tengan suficiente capacidad
para contener el programa.
Claims (3)
1. Aparato de decodificación de imágenes de un
equipo de terminal portátil para decodificar datos codificados con
compresión, obtenidos codificando una señal imagen que incluye una
señal de luminancia y una señal de diferencia de color, para
proporcionar la señal imagen a la pantalla del equipo de terminal
portátil, comprendiendo dicho aparato:
medios de generación de señales de modalidad para
generar una señal de modalidad de presentación (123) que indica si
la modalidad de presentación de la señal imagen es la modalidad de
presentación monocroma o la modalidad de presentación en color;
medios de decisión de modalidad (105) para
decidir qué modalidad de presentación (la modalidad de presentación
en color o la modalidad de presentación monocroma) se establece,
basándose en la señal de modalidad de presentación (123);
medios de selección de datos (106) para,
basándose en la salida de los medios de decisión de modalidad
(105), proporcionar los datos codificados de la señal de luminancia
y los datos codificados de la señal de diferencia de color en la
modalidad de presentación en color, y rechazar los datos
codificados de la señal de diferencia de color proporcionando sólo
los datos codificados de la señal de luminancia en la modalidad de
presentación monocroma, y
una unidad de decodificación para decodificar los
datos codificados proporcionados por los medios de selección de
datos (106),
en el que dichos medios de generación de señales
de modalidad cambian la señal de modalidad de presentación (123)
desde una señal que indica la modalidad de presentación en color a
una señal que indica la modalidad de presentación monocroma, cuando
la tensión eléctrica suministrada por la fuente de alimentación del
equipo de terminal portátil cae por debajo de un nivel
predeterminado.
2. Aparato de decodificación de imágenes según la
reivindicación 1, en el que:
los datos codificados constan de un tren de bits
sometidos a codificación de longitud variable que incluye una
pluralidad de coeficientes de transformación de luminancia,
obtenidos sometiendo la señal de luminancia a codificación con
transformación de la frecuencia, y una pluralidad de coeficientes
de transformación de diferencia de color, obtenidos sometiendo la
señal de diferencia de color a codificación con transformación de
frecuencia,
dicha unidad de decodificación comprende un
decodificador de datos (103) para decodificar el tren de bits,
los medios de selección de datos (106)
proporcionan los coeficientes de transformación de luminancia y los
coeficientes de transformación de diferencia de color, obtenidos
decodificando el tren de bits en la modalidad de presentación en
color, y rechazan los coeficientes de transformación de diferencia
de color y proporcionan los coeficientes de transformación de
luminancia en la modalidad de presentación monocroma, y
la unidad de decodificación somete los
coeficientes de transformación obtenidos de los medios de selección
de datos (106) a una decodificación que incluye la transformación
inversa de la frecuencia.
3. Aparato de decodificación de imágenes
digitales según la reivindicación 1, en el que:
los datos codificados son datos sometidos a
codificación de longitud variable que incluyen coeficientes de
transformación, obtenidos generando valores de diferencia
correspondientes a la señal de luminancia y la señal de diferencia
de color en relación con sus respectivos valores de predicción para
cada zona de la pantalla de la unidad de procesamiento, y
sometiendo los valores de diferencia de las respectivas señales a
codificación con compresión, transformación de frecuencia y
cuantificación, e incluyen también un vector de movimiento generado
con el valor de predicción de la señal de luminancia; comprendiendo
dicha unidad de decodificación:
una memoria de tramas (113) para almacenar una
señal imagen reproducida mediante dicha decodificación;
unos primeros medios de decodificación (102, 103)
para decodificar los datos sometidos a codificación de longitud
variable y proporcionar coeficientes de transformación y un vector
de movimiento de la señal de luminancia y coeficientes de
transformación de la señal de diferencia de color;
unos segundos medios de decodificación (109, 110)
para someter los coeficientes de transformación obtenidos de los
medios de selección de datos (106) a decodificación con
descompresión, cuantificación inversa y transformación inversa de la
frecuencia, y generar el valor de diferencia de la señal de
luminancia o el valor de diferencia de la señal de diferencia de
color;
una unidad de compensación de movimiento (112,
114, 115) para recibir la salida de los medios de decisión de
modalidad (105), obtener el valor de predicción de la señal de
luminancia desde la memoria de tramas (113) mediante el vector de
movimiento, efectuar el escalado de tal forma que la escala del
vector de movimiento de la señal de luminancia se convierte en la
escala del vector de movimiento de la señal de diferencia, obtener
el valor de predicción de la señal de diferencia de color desde la
memoria de tramas (113) mediante el vector de movimiento escalado,
en la modalidad de presentación en color, y obtener el valor de
predicción de la señal de luminancia desde la memoria de tramas
(113) mediante el vector de movimiento, en la modalidad de
presentación monocroma, y
un sumador (111) para sumar el valor de
diferencia y el valor de predicción de la señal de luminancia o
sumar el valor de diferencia y el valor de predicción del valor de
diferencia de color para reproducir la señal imagen y almacenar la
señal reproducida en la memoria de tramas.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26212697 | 1997-09-26 | ||
JP26212697 | 1997-09-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2241085T3 true ES2241085T3 (es) | 2005-10-16 |
Family
ID=17371421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES98118076T Expired - Lifetime ES2241085T3 (es) | 1997-09-26 | 1998-09-24 | Procedimiento y aparato de decodificacion de imagenes, y medios de registro de datos. |
Country Status (6)
Country | Link |
---|---|
US (1) | US6360014B1 (es) |
EP (1) | EP0905987B1 (es) |
KR (1) | KR100424246B1 (es) |
CN (1) | CN1134989C (es) |
DE (1) | DE69830552T2 (es) |
ES (1) | ES2241085T3 (es) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100308016B1 (ko) | 1998-08-31 | 2001-10-19 | 구자홍 | 압축 부호화된 영상에 나타나는 블럭현상 및 링현상 제거방법및 영상 복호화기 |
KR100282147B1 (ko) | 1998-11-13 | 2001-02-15 | 구자홍 | 압축 영상 복원 방법 |
US7885340B2 (en) * | 1999-04-27 | 2011-02-08 | Realnetworks, Inc. | System and method for generating multiple synchronized encoded representations of media data |
EP1139669A1 (en) * | 2000-03-28 | 2001-10-04 | STMicroelectronics S.r.l. | Coprocessor for motion estimation in digitised video sequence encoders |
US6650707B2 (en) * | 2001-03-02 | 2003-11-18 | Industrial Technology Research Institute | Transcoding apparatus and method |
KR100525785B1 (ko) * | 2001-06-15 | 2005-11-03 | 엘지전자 주식회사 | 이미지 화소 필터링 방법 |
CN100420308C (zh) * | 2002-04-26 | 2008-09-17 | 株式会社Ntt都科摩 | 图象编码装置和图象译码装置 |
JP3776870B2 (ja) * | 2002-11-12 | 2006-05-17 | 株式会社東芝 | 情報処理装置および省電力制御方法 |
KR20060090467A (ko) * | 2005-02-07 | 2006-08-11 | 엘지전자 주식회사 | 이동통신 단말기의 이중 모드 표시 장치 및 그 표시 방법 |
JP4731972B2 (ja) * | 2005-04-13 | 2011-07-27 | キヤノン株式会社 | 画像符号化方法及び画像符号化装置 |
US8107011B2 (en) * | 2005-07-18 | 2012-01-31 | Broadcom Corporation | Method and system for video evaluation in the presence of cross-chroma interference |
EP1761073A1 (en) * | 2005-09-05 | 2007-03-07 | Thomson Licensing | Color display and camera with a respective viewfinder display |
CN101516038B (zh) * | 2005-12-13 | 2012-11-28 | 松下电器产业株式会社 | 数据处理装置 |
US20070201741A1 (en) * | 2006-02-28 | 2007-08-30 | Epshteyn Alan J | System and method for decoding a color image |
TWI401944B (zh) * | 2007-06-13 | 2013-07-11 | Novatek Microelectronics Corp | 用於視訊處理系統之雜訊消除裝置 |
EP2188979A2 (en) * | 2007-09-10 | 2010-05-26 | Nxp B.V. | Method and apparatus for motion estimation in video image data |
JP4697557B2 (ja) * | 2009-01-07 | 2011-06-08 | ソニー株式会社 | 符号化装置、符号化方法、記録媒体及び画像処理装置 |
JP5732454B2 (ja) | 2009-07-06 | 2015-06-10 | トムソン ライセンシングThomson Licensing | 空間変化残差符号化を行う方法および装置 |
WO2013046586A1 (ja) | 2011-09-28 | 2013-04-04 | パナソニック株式会社 | 画像符号化方法、画像復号化方法、画像符号化装置、画像復号化装置及び画像符号化復号化装置 |
US9781418B1 (en) * | 2012-06-12 | 2017-10-03 | Google Inc. | Adaptive deadzone and rate-distortion skip in video processing |
WO2019107175A1 (ja) * | 2017-11-30 | 2019-06-06 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
CN113038179A (zh) * | 2021-02-26 | 2021-06-25 | 维沃移动通信有限公司 | 视频编码方法、视频解码方法、装置及电子设备 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62123540A (ja) | 1985-11-25 | 1987-06-04 | Matsushita Electric Works Ltd | 伝送方式 |
JPH02198274A (ja) * | 1988-10-14 | 1990-08-06 | Fuji Photo Film Co Ltd | 画像データ圧縮記録装置 |
JP2724071B2 (ja) | 1992-05-22 | 1998-03-09 | 三菱電機株式会社 | カラー画像符号・復号化方法 |
EP0572024A2 (en) * | 1992-05-27 | 1993-12-01 | Kabushiki Kaisha Toshiba | Multimedia display control system for storing image data in frame buffer |
US5982437A (en) | 1992-10-26 | 1999-11-09 | Sony Corporation | Coding method and system, and decoding method and system |
JPH0766913A (ja) * | 1993-08-24 | 1995-03-10 | Fuji Xerox Co Ltd | 画像通信装置 |
KR970003789B1 (ko) | 1993-11-09 | 1997-03-21 | 한국전기통신공사 | 비디오 부호기의 전송율을 제어하기 위한 비트 할당 방법 |
EP0665527B1 (en) | 1994-01-28 | 1999-05-06 | Sun Microsystems, Inc. | Flat panel display interface for a high resolution computer graphics system |
EP0706164A1 (en) | 1994-10-03 | 1996-04-10 | Texas Instruments Incorporated | Power management for display devices |
US5841418A (en) * | 1995-06-07 | 1998-11-24 | Cirrus Logic, Inc. | Dual displays having independent resolutions and refresh rates |
-
1998
- 1998-09-24 EP EP98118076A patent/EP0905987B1/en not_active Expired - Lifetime
- 1998-09-24 ES ES98118076T patent/ES2241085T3/es not_active Expired - Lifetime
- 1998-09-24 DE DE69830552T patent/DE69830552T2/de not_active Expired - Fee Related
- 1998-09-24 US US09/160,115 patent/US6360014B1/en not_active Expired - Lifetime
- 1998-09-25 CN CNB981196004A patent/CN1134989C/zh not_active Expired - Fee Related
- 1998-09-25 KR KR10-1998-0039981A patent/KR100424246B1/ko not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
EP0905987B1 (en) | 2005-06-15 |
EP0905987A2 (en) | 1999-03-31 |
EP0905987A3 (en) | 1999-11-10 |
DE69830552T2 (de) | 2006-05-11 |
KR100424246B1 (ko) | 2004-05-17 |
DE69830552D1 (de) | 2005-07-21 |
KR19990030159A (ko) | 1999-04-26 |
CN1213934A (zh) | 1999-04-14 |
US6360014B1 (en) | 2002-03-19 |
CN1134989C (zh) | 2004-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2241085T3 (es) | Procedimiento y aparato de decodificacion de imagenes, y medios de registro de datos. | |
US20230300371A1 (en) | Method and apparatus for processing video data | |
ES2299787T3 (es) | Codificacion de video mejorada usando codificacion adaptativa de parametros de bloque para bloques codificados/sin codificar. | |
ES2296415T3 (es) | Codificacion eficaz de cabecero de macrobloque para video compresion. | |
US6370276B2 (en) | Image predictive decoding method, image predictive decoding apparatus, image predictive coding method, image predictive coding apparatus, and data storage media | |
EP0888008B1 (en) | Scramble apparatus | |
ES2431289T3 (es) | Método de decodificación de señal de imagen y aparato asociado | |
ES2730953T3 (es) | Método de decodificación de señal, dispositivo de decodificación de señal, y programa de decodificación de señal | |
ES2695929T3 (es) | Procedimiento de decodificación de imágenes, dispositivos de decodificación y programa informático correspondientes | |
US7346111B2 (en) | Co-located motion vector storage | |
US6108449A (en) | Motion picture encoding system and motion picture decoding system | |
KR100952892B1 (ko) | 비디오 데이타의 인트라코딩 방법 및 장치 | |
CN103931197B (zh) | 确定用于变换系数的二进制码字的方法 | |
KR100266124B1 (ko) | 화상 부호화/복호화 방법, 화상 부호화/복호화장치, 및 화상부호화/복호화 프로그램 기록 매체 | |
CN103918273A (zh) | 确定用于变换系数的二进制码字的方法 | |
US9497458B2 (en) | Image coding method, image decoding method, image coding apparatus, image decoding apparatus, program, and integrated ciruit | |
JP2009218742A (ja) | 画像符号化装置 | |
ES2299171T3 (es) | Procedimiento de codificacion de imagenes en movimiento y aparato de codificacion de imagenes en movimiento. | |
US5991445A (en) | Image processing apparatus | |
US8902981B2 (en) | Video signal generation apparatus, video signal generation method, video signal generation program, and computer readable recording medium recording the program | |
JP3340157B2 (ja) | スクランブル装置 | |
US11375183B2 (en) | Methods and systems for combined lossless and lossy coding | |
WO2024140861A1 (en) | Method, apparatus, and medium for video processing | |
JPH0636521A (ja) | ディスクならびに動画像復号化方法および装置 | |
JPH11164321A (ja) | 画像復号化方法,画像復号化装置,及びデータ記憶媒体 |